FOLOU

Más de un millón de usuarios sienten apego emocional por ChatGPT

OpenAI ha realizado cambios significativos en la forma en que ChatGPT maneja conversaciones delicadas, especialmente cuando los usuarios buscan apoyo emocional. La empresa actualizó su modelo GPT-5 para mejorar las respuestas relacionadas con problemas como psicosis, autolesiones e incluso suicidio. Estos ajustes buscan evitar que los usuarios desarrollen dependencias emocionales hacia el asistente.

El sistema ahora incluye nuevas reglas enfocadas en la seguridad mental y las relaciones humanas reales. Para lograrlo, OpenAI colaboró con más de 170 expertos en salud mental. Gracias a estas mejoras, GPT-5 puede detectar señales de manía, delirios o intenciones suicidas, respondiendo de manera compasiva pero siempre guiando a los usuarios hacia ayuda profesional.

Además, se implementó una norma clave: ChatGPT ya no actúa como un amigo ni fomenta vínculos emocionales, sino que refuerza la importancia de conectar con otras personas.

TE PUEDE INTERESAR: De la promesa a la operación: cómo empezar con IA en tu empresa

Qué debes saber

Especificaciones técnicas

Contenido generado con IA y editado por el equipo editorial.

Foto: Rolf van Root en Unsplash.

Salir de la versión móvil