La mitad de las respuestas médicas de la IA son erróneas o peligrosas: estudio

Un nuevo estudio revela que casi el 50% de las respuestas médicas proporcionadas por la inteligencia artificial (IA) pueden ser imprecisas o incluso peligrosas. Este hallazgo pone en duda la confiabilidad de estas herramientas, que se han vuelto muy populares para buscar información rápida sobre salud.

El estudio, publicado en BMJ Open y liderado por expertos de la Wake Forest University, evaluó el desempeño de modelos como ChatGPT, Gemini, Meta AI, Grok y DeepSeek frente a 50 preguntas médicas. Los resultados mostraron que un 49,6% de las respuestas fueron consideradas problemáticas, un 30% poco problemáticas y un 19,6% potencialmente problemáticas.

Las fallas fueron más frecuentes en preguntas abiertas, como algunas relacionadas con nutrición o terapias emergentes, donde la interpretación juega un papel clave y el margen de error aumenta. El estudio también destaca que apenas el 40% de las fuentes citadas por las IA eran precisas o verificables, lo que representa un riesgo significativo en temas de salud.

TE PUEDE INTERESAR: Este software de IA ayuda a identificar oficiales corruptos

Qué debes saber

  • El 49,6% de las respuestas médicas de la IA son problemáticas.
  • Los modelos de IA como Grok y Gemini presentaron las peores calificaciones.
  • Solo el 40% de las fuentes citadas por la IA son precisas o verificables.
  • La tecnología en salud tiene límites claros y no sustituye la consulta médica.

Especificaciones técnicas

  • Modelos evaluados: ChatGPT, Gemini, Meta AI, Grok, DeepSeek
  • Preguntas médicas evaluadas: 50
  • Categorías de respuestas: No problemáticas, poco problemáticas, potencialmente problemáticas
  • Porcentaje de respuestas problemáticas: 49,6%
  • Porcentaje de respuestas poco problemáticas: 30%
  • Porcentaje de respuestas potencialmente problemáticas: 19,6%

Contenido generado con IA y editado por el equipo editorial.

Foto: Archivo FOLOU.

Deja una respuesta