La inteligencia artificial (IA) generativa se convirtió en una herramienta cotidiana para millones de personas, incluidas aquellas que buscan informarse sobre la actualidad. Sin embargo, un estudio reciente publicado por el sitio web The Conversation puso en evidencia los riesgos de depender de chatbots de IA como fuentes de noticias.
Durante un experimento de un mes, se descubrió que varios sistemas fabricaban medios inexistentes, citaban URLs rotas y tergiversaban hechos reales, lo que plantea serias dudas sobre su fiabilidad.
El experimento fue dirigido por un profesor de periodismo especializado en informática, que probó siete sistemas de IA generativa durante un periodo de cuatro semanas. Cada día, se pedía a las herramientas que listaran y resumieran los cinco eventos noticiosos más importantes de Québec (Canadá), los clasificaran por importancia y proporcionaran enlaces directos a artículos como fuentes.
Entre los sistemas probados estaban Gemini de Google, ChatGPT de OpenAI, Claude, Copilot, Grok, DeepSeek y Aria. Se recopilaron 839 respuestas en total.
TE PUEDE INTERESAR: Derechos globales de Sony: The Legend of Zelda llegará en exclusiva a Netflix
Hallazgos principales
- Fabricación de medios: Gemini inventó un sitio ficticio (examplefictif.ca) y reportó una huelga inexistente de conductores de autobuses escolares.
- Errores de contexto: en realidad, la interrupción fue causada por problemas técnicos en los autobuses de Lion Electric.
- Fuentes falsas: solo el 37% de las respuestas incluían una URL legítima.
- Precisión limitada: menos de la mitad de los resúmenes fueron totalmente correctos.
- Narrativas inventadas: algunos chatbots añadieron conclusiones no fundamentadas, como tensiones sociales o debates políticos inexistentes.
Foto: Ant Rozetsky en Unsplash.