Anthropic anunció que empezará a recopilar datos de chat de Claude para entrenar futuras versiones de su asistente de inteligencia artificial (IA). Los usuarios podrán decidir si quieren que sus conversaciones formen parte de este proceso.
La compañía no había implementado esta práctica antes, algo llamativo si se compara con ChatGPT y Gemini, que permiten entrenar sus modelos con chats de forma predeterminada. Ahora, Anthropic se suma a la tendencia, aunque con un sistema de participación voluntaria.
Según una entrada en el blog oficial de Claude, la notificación comenzó a enviarse el jueves a los usuarios de Free, Pro y Max, quienes tendrán hasta el 28 de septiembre para aceptar o rechazar la nueva política de privacidad.
TE PUEDE INTERESAR: Huawei Pura 80 Ultra: fotografía profesional, diseño premium y potencia
Cómo funciona la nueva política de privacidad de Claude
- La recopilación de datos no se activará de manera automática; cada usuario deberá confirmarlo manualmente.
- Para evitar que Claude entrene con tus chats, basta con desactivar la opción ‘Puedes ayudar a mejorar a Claude’ en la notificación recibida.
- La configuración puede modificarse más tarde en el menú de privacidad, incluso si ya aceptaste.
- Los nuevos usuarios verán la misma opción durante el registro y podrán cambiarla después.
- La recopilación de datos no aplica a cuentas Claude for Work, Gov, Education ni al uso de la API.
- Anthropic conservará los chats durante cinco años si el usuario permite que se usen para entrenar, y solo 30 días si no participa.
- Si eliminas una conversación, no se utilizará para el entrenamiento, incluso si tenías activada la recopilación.
- Los datos que ya fueron usados en procesos de entrenamiento seguirán formando parte de esas ejecuciones, pero no se emplearán en futuras.
- Anthropic asegura que filtra información sensible con procesos automatizados y no vende los datos de los usuarios a terceros.
Foto: Claude.