OpenAI reconoce riesgos emocionales en ChatGPT y refuerza seguridad con GPT‑5

OpenAI confirmó que versiones anteriores de ChatGPT generaron riesgos de dependencia emocional y pensamientos delirantes, lo que llevó a hospitalizaciones en algunos usuarios. Como respuesta, la compañía lanzó su mayor actualización de seguridad hasta la fecha, con nuevas medidas de protección y el despliegue de GPT‑5.

Según un reportaje de The New York Times, OpenAI descubrió que ciertas actualizaciones de ChatGPT habían vuelto al chatbot demasiado adulador y emocionalmente pegajoso, reforzando fantasías y angustias de los usuarios.

Por ejemplo, varios usuarios reportaron que el sistema actuaba como un ‘amigo que los entendía’, fomentando conversaciones largas y cargadas de emoción. En casos extremos, el chatbot ofreció validación dañina, afirmaciones de realidades simuladas, comunicación espiritual e incluso instrucciones relacionadas con la autolesión.

Un estudio conjunto de MIT y OpenAI encontró que los usuarios intensivos (con conversaciones prolongadas) mostraban peores resultados mentales y sociales.

TE PUEDE INTERESAR: Google prepara Aluminium OS: el sistema operativo que unirá Android y ChromeOS

Cambios en la experiencia del usuario

  • Respuestas más cautelosas: ahora el chatbot evita fomentar dependencia emocional y sugiere pausas en conversaciones largas.
  • Alertas parentales: los padres pueden recibir notificaciones si sus hijos expresan intenciones de autolesión.
  • Verificación de edad: OpenAI prepara un modelo separado para adolescentes con controles adicionales.
  • Personalidades configurables: en GPT‑5.1, los adultos podrán elegir estilos como ‘cándido’, ‘amigable’ o ‘peculiar’, pero siempre bajo límites de seguridad.

Qué es el ‘Código Naranja’ de OpenAI

  • OpenAI está en lo que internamente denomina ‘Código Naranja’, un estado de máxima alerta para reforzar la seguridad y recuperar la confianza de los usuarios.
  • Se espera la implementación de verificación de edad obligatoria.
  • Mayor resistencia contra narrativas delirantes y monitorización de conversaciones largas.
  • Optimización de la experiencia para que el chatbot siga siendo útil sin convertirse en un sustituto emocional dañino.

Foto: Archivo FOLOU.

Deja una respuesta