FOLOU

Especialistas advierten: la IA no reemplaza la valoración médica

Una consulta a ChatGPT terminó con un diagnóstico médico equivocado y una rara intoxicación por bromuro. El caso, documentado recientemente, muestra los riesgos de seguir consejos sanitarios de un chatbot sin supervisión profesional.

El paciente, un hombre de 60 años, reemplazó la sal común por bromuro de sodio tras recibir una respuesta engañosa del modelo de inteligencia artificial (IA). Según un artículo en Annals of Internal Medicine, la sustitución provocó un cuadro grave que incluyó paranoia, alucinaciones y hospitalización psiquiátrica involuntaria.

Los médicos advirtieron que ChatGPT, al no contar con contexto clínico ni capacidad de evaluar físicamente al paciente, puede ofrecer respuestas incompletas o erróneas. OpenAI señaló a LiveScience que sus servicios no deben sustituir el asesoramiento profesional y que trabajan para reducir riesgos y fomentar consultas médicas reales.

TE PUEDE INTERESAR: Unboxing del Moto G35: todo lo que incluye | VIDEO

Riesgos de la IA en salud

Foto: Freepik.

Salir de la versión móvil