La inteligencia artificial (IA) se ha convertido en una herramienta cotidiana para millones de usuarios, desde asistentes virtuales hasta navegadores con funciones de resumen automático. Sin embargo, esta misma popularidad ha abierto la puerta a nuevas formas de fraude.
Una investigación reciente de Aura Labs (Aurascape) revela que los estafadores están manipulando contenido público en Internet para que los modelos de lenguaje (LLM) recomienden números de teléfono fraudulentos como si fueran oficiales.
Este fenómeno, denominado ‘intoxicación de números de teléfono LLM’, representa un riesgo emergente que afecta a plataformas como Google AI Overview y Perplexity Comet, y que podría extenderse a otros servicios basados en IA.
TE PUEDE INTERESAR: Gemini gana terreno frente a ChatGPT: más tiempo de uso, más impulso
Qué es la intoxicación de números de teléfono LLM
- Se trata de una técnica que no ataca directamente al modelo de IA, sino que manipula las fuentes de información que este utiliza.
- Los estafadores insertan contenido falso en sitios web legítimos o de alta autoridad (gubernamentales, universitarios, blogs de WordPress, YouTube, Yelp).
- Los LLM, al indexar y resumir esa información, terminan recomendando números fraudulentos como si fueran datos de contacto oficiales.
Ejemplos de consultas envenenadas
- Solicitar el número de reservas de Emirates Airlines en Perplexity devolvió un número fraudulento de un centro de llamadas.
- Al pedir el número de British Airways, la IA también ofreció un contacto falso.
- Google AI Overview llegó a mostrar múltiples números fraudulentos como si fueran líneas legítimas de atención al cliente.
- Estos casos demuestran que el problema no es aislado y que puede afectar a cualquier servicio que dependa de IA para generar respuestas rápidas.
GEO y AEO: SEO para la era de la IA
Los estafadores están aprovechando nuevas técnicas de optimización:
- Generative Engine Optimization (GEO): manipular contenido para que sea utilizado en resúmenes de IA.
- Answer Engine Optimization (AEO): diseñar información para que aparezca en respuestas directas de asistentes.
Ambas prácticas, cuando son abusadas, convierten a la IA en un canal involuntario de phishing.
Cómo mantenerse seguro
- Verificar siempre la información de contacto en sitios oficiales de empresas o instituciones.
- Evitar confiar ciegamente en resúmenes de IA, especialmente si incluyen números de teléfono o enlaces externos.
- No compartir datos sensibles con asistentes de IA, dado que aún son tecnologías nuevas y poco probadas.
- Desconfiar de respuestas demasiado convenientes: la rapidez no siempre equivale a seguridad.
Foto: Chris Stein en Unsplash.
