Una consulta a ChatGPT terminó con un diagnóstico médico equivocado y una rara intoxicación por bromuro. El caso, documentado recientemente, muestra los riesgos de seguir consejos sanitarios de un chatbot sin supervisión profesional.
El paciente, un hombre de 60 años, reemplazó la sal común por bromuro de sodio tras recibir una respuesta engañosa del modelo de inteligencia artificial (IA). Según un artículo en Annals of Internal Medicine, la sustitución provocó un cuadro grave que incluyó paranoia, alucinaciones y hospitalización psiquiátrica involuntaria.
Los médicos advirtieron que ChatGPT, al no contar con contexto clínico ni capacidad de evaluar físicamente al paciente, puede ofrecer respuestas incompletas o erróneas. OpenAI señaló a LiveScience que sus servicios no deben sustituir el asesoramiento profesional y que trabajan para reducir riesgos y fomentar consultas médicas reales.
TE PUEDE INTERESAR: Unboxing del Moto G35: todo lo que incluye | VIDEO
Riesgos de la IA en salud
- El bromismo se asocia a síntomas como delirios, temblores, psicosis y, en casos extremos, coma.
- La intoxicación crónica por bromuro era frecuente en el siglo XX, cuando se usaba para tratar epilepsia o como sedante.
- Estados Unidos prohibió en 1975 la venta libre de medicamentos con bromuro debido a sus efectos adversos.
- El paciente destilaba su propia agua y restringía su consumo por paranoia hacia el suministro habitual.
- El equipo médico reprodujo consultas similares en ChatGPT y obtuvo respuestas con bromuro como alternativa, sin advertencia sanitaria específica.
- Un estudio en Genes encontró que ChatGPT mostró baja precisión al diagnosticar enfermedades raras.
- OpenAI destacó que GPT-5 busca reducir errores y priorizar respuestas seguras, pero subraya que solo entornos médicos certificados pueden garantizar evaluaciones fiables.
- Expertos recomiendan proporcionar a la IA contexto detallado y verificar siempre con un profesional de la salud.
Foto: Freepik.