OpenAI confirmó que versiones anteriores de ChatGPT generaron riesgos de dependencia emocional y pensamientos delirantes, lo que llevó a hospitalizaciones en algunos usuarios. Como respuesta, la compañía lanzó su mayor actualización de seguridad hasta la fecha, con nuevas medidas de protección y el despliegue de GPT‑5.
Según un reportaje de The New York Times, OpenAI descubrió que ciertas actualizaciones de ChatGPT habían vuelto al chatbot demasiado adulador y emocionalmente pegajoso, reforzando fantasías y angustias de los usuarios.
Por ejemplo, varios usuarios reportaron que el sistema actuaba como un ‘amigo que los entendía’, fomentando conversaciones largas y cargadas de emoción. En casos extremos, el chatbot ofreció validación dañina, afirmaciones de realidades simuladas, comunicación espiritual e incluso instrucciones relacionadas con la autolesión.
Un estudio conjunto de MIT y OpenAI encontró que los usuarios intensivos (con conversaciones prolongadas) mostraban peores resultados mentales y sociales.
TE PUEDE INTERESAR: Google prepara Aluminium OS: el sistema operativo que unirá Android y ChromeOS
Cambios en la experiencia del usuario
- Respuestas más cautelosas: ahora el chatbot evita fomentar dependencia emocional y sugiere pausas en conversaciones largas.
- Alertas parentales: los padres pueden recibir notificaciones si sus hijos expresan intenciones de autolesión.
- Verificación de edad: OpenAI prepara un modelo separado para adolescentes con controles adicionales.
- Personalidades configurables: en GPT‑5.1, los adultos podrán elegir estilos como ‘cándido’, ‘amigable’ o ‘peculiar’, pero siempre bajo límites de seguridad.
Qué es el ‘Código Naranja’ de OpenAI
- OpenAI está en lo que internamente denomina ‘Código Naranja’, un estado de máxima alerta para reforzar la seguridad y recuperar la confianza de los usuarios.
- Se espera la implementación de verificación de edad obligatoria.
- Mayor resistencia contra narrativas delirantes y monitorización de conversaciones largas.
- Optimización de la experiencia para que el chatbot siga siendo útil sin convertirse en un sustituto emocional dañino.
Foto: Archivo FOLOU.