Un nuevo estudio revela que casi el 50% de las respuestas médicas proporcionadas por la inteligencia artificial (IA) pueden ser imprecisas o incluso peligrosas. Este hallazgo pone en duda la confiabilidad de estas herramientas, que se han vuelto muy populares para buscar información rápida sobre salud.
El estudio, publicado en BMJ Open y liderado por expertos de la Wake Forest University, evaluó el desempeño de modelos como ChatGPT, Gemini, Meta AI, Grok y DeepSeek frente a 50 preguntas médicas. Los resultados mostraron que un 49,6% de las respuestas fueron consideradas problemáticas, un 30% poco problemáticas y un 19,6% potencialmente problemáticas.
Las fallas fueron más frecuentes en preguntas abiertas, como algunas relacionadas con nutrición o terapias emergentes, donde la interpretación juega un papel clave y el margen de error aumenta. El estudio también destaca que apenas el 40% de las fuentes citadas por las IA eran precisas o verificables, lo que representa un riesgo significativo en temas de salud.
TE PUEDE INTERESAR: Este software de IA ayuda a identificar oficiales corruptos
Qué debes saber
- El 49,6% de las respuestas médicas de la IA son problemáticas.
- Los modelos de IA como Grok y Gemini presentaron las peores calificaciones.
- Solo el 40% de las fuentes citadas por la IA son precisas o verificables.
- La tecnología en salud tiene límites claros y no sustituye la consulta médica.
Especificaciones técnicas
- Modelos evaluados: ChatGPT, Gemini, Meta AI, Grok, DeepSeek
- Preguntas médicas evaluadas: 50
- Categorías de respuestas: No problemáticas, poco problemáticas, potencialmente problemáticas
- Porcentaje de respuestas problemáticas: 49,6%
- Porcentaje de respuestas poco problemáticas: 30%
- Porcentaje de respuestas potencialmente problemáticas: 19,6%
Contenido generado con IA y editado por el equipo editorial.
Foto: Archivo FOLOU.
