Chatbots de IA dan malos consejos médicos la mitad del tiempo: estudio

Un nuevo estudio de BMJ Open encontró que cinco de los principales chatbots de inteligencia artificial (IA) ofrecen consejos de salud inexactos o incompletos, especialmente en consultas abiertas.

Los investigadores probaron a ChatGPT, Gemini, Grok, Meta AI y DeepSeek con 250 preguntas sobre cáncer, vacunas, células madre, nutrición y rendimiento atlético. Los resultados mostraron que el 50% de las respuestas eran problemáticas, incluso cuando sonaban convincentes y seguras.

Las preguntas más amplias y abiertas produjeron respuestas altamente problemáticas, mientras que las preguntas cerradas tendían a ser más seguras. Esto es preocupante, ya que la gente suele hacer preguntas médicas de manera natural, no en un formato de múltiples opciones.

Además, la calidad de las referencias fue pobre, con una puntuación media de completitud del 40%, y ninguna lista de referencias fue completamente precisa.

TE PUEDE INTERESAR: La población humana supera la capacidad del planeta, según estudio

Qué debes saber

  • Los chatbots de IA como ChatGPT, Gemini, Grok, Meta AI y DeepSeek dieron respuestas médicas inexactas o incompletas en el 50% de los casos.
  • Las preguntas abiertas produjeron respuestas más problemáticas que las preguntas cerradas.
  • La calidad de las referencias y fuentes en las respuestas fue pobre, con una puntuación media de completitud del 40%.
  • Los investigadores también señalaron referencias fabricadas, mientras que los bots respondieron con certeza y apenas ofrecieron salvedades.

Contenido generado con IA y editado por el equipo editorial.

Foto: Imagen generada con inteligencia artificial.

Deja una respuesta