Más de un millón de usuarios sienten apego emocional por ChatGPT

OpenAI ha realizado cambios significativos en la forma en que ChatGPT maneja conversaciones delicadas, especialmente cuando los usuarios buscan apoyo emocional. La empresa actualizó su modelo GPT-5 para mejorar las respuestas relacionadas con problemas como psicosis, autolesiones e incluso suicidio. Estos ajustes buscan evitar que los usuarios desarrollen dependencias emocionales hacia el asistente.

El sistema ahora incluye nuevas reglas enfocadas en la seguridad mental y las relaciones humanas reales. Para lograrlo, OpenAI colaboró con más de 170 expertos en salud mental. Gracias a estas mejoras, GPT-5 puede detectar señales de manía, delirios o intenciones suicidas, respondiendo de manera compasiva pero siempre guiando a los usuarios hacia ayuda profesional.

Además, se implementó una norma clave: ChatGPT ya no actúa como un amigo ni fomenta vínculos emocionales, sino que refuerza la importancia de conectar con otras personas.

TE PUEDE INTERESAR: De la promesa a la operación: cómo empezar con IA en tu empresa

Qué debes saber

  • OpenAI estima que el 0.15% de los usuarios activos semanales muestran signos de apego emocional al modelo.
  • Las respuestas inseguras en temas sensibles disminuyeron entre un 65% y un 80% tras la actualización.
  • GPT-5 prioriza herramientas confiables y recursos expertos para situaciones críticas.
  • La nueva versión incorpora reglas claras para evitar que la IA sustituya conexiones humanas.
  • Este cambio es crucial porque afecta tanto a adultos como a niños que interactúan con la IA sin entender completamente sus implicaciones.
  • Con una base de usuarios masiva, más de un millón de personas podrían estar formando lazos emocionales con este chatbot.
  • Esta actualización busca garantizar la seguridad emocional de quienes confían en ChatGPT durante momentos difíciles.

Especificaciones técnicas

  • Colaboración con más de 170 expertos en salud mental.
  • Reducción del 80% en respuestas que promueven dependencia emocional.
  • Detección avanzada de señales de riesgo como manía o ideación suicida.

Contenido generado con IA y editado por el equipo editorial.

Foto: Rolf van Root en Unsplash.

Deja una respuesta