Anthropic enfatizó que no usará tus datos de identidad para entrenar sus modelos y que no compartirá tus datos con nadie más.
Microsoft, uno de los participantes, afirmó que la iniciativa marca un cambio en la forma en que se aborda la ciberseguridad a gran escala.
La IA explica paso a paso, señala el posible problema, por qué podría ser problemático y cómo podría solucionarse potencialmente.
Anthropic fue incluida en una lista negra por el gobierno de EE. UU. debido a su postura sobre el uso de tecnología para armas autónomas.
Este incidente resultó en el robo de 150GB de datos oficiales, incluyendo registros de impuestos y credenciales de empleados.
En pruebas internas, desarrolladores señalaron sigue mejor las instrucciones, comete menos errores y reduce la duplicación de código.
Anthropic utiliza anuncios hilarantes del Super Bowl para destacar la experiencia de Claude sin anuncios, burlándose de sus rivales.
Las pruebas independientes muestran que ningún modelo actual resiste ataques persistentes y bien dotados de recursos.
Un nuevo estudio de Anthropic arroja algo de luz sobre los impactos económicos de la IA que se pueden esperar en los próximos años.
Según el acuerdo, los clientes de Microsoft Foundry tendrán acceso a varios modelos de Claud: Soneto 4.5, Opus 4.1 y Haiku 4.5.