FOLOU

OpenAI reconoce riesgos emocionales en ChatGPT y refuerza seguridad con GPT‑5

OpenAI confirmó que versiones anteriores de ChatGPT generaron riesgos de dependencia emocional y pensamientos delirantes, lo que llevó a hospitalizaciones en algunos usuarios. Como respuesta, la compañía lanzó su mayor actualización de seguridad hasta la fecha, con nuevas medidas de protección y el despliegue de GPT‑5.

Según un reportaje de The New York Times, OpenAI descubrió que ciertas actualizaciones de ChatGPT habían vuelto al chatbot demasiado adulador y emocionalmente pegajoso, reforzando fantasías y angustias de los usuarios.

Por ejemplo, varios usuarios reportaron que el sistema actuaba como un ‘amigo que los entendía’, fomentando conversaciones largas y cargadas de emoción. En casos extremos, el chatbot ofreció validación dañina, afirmaciones de realidades simuladas, comunicación espiritual e incluso instrucciones relacionadas con la autolesión.

Un estudio conjunto de MIT y OpenAI encontró que los usuarios intensivos (con conversaciones prolongadas) mostraban peores resultados mentales y sociales.

TE PUEDE INTERESAR: Google prepara Aluminium OS: el sistema operativo que unirá Android y ChromeOS

Cambios en la experiencia del usuario

Qué es el ‘Código Naranja’ de OpenAI

Foto: Archivo FOLOU.

Salir de la versión móvil