FOLOU

Estafadores envenenan los resultados de búsqueda de la IA: un nuevo riesgo de seguridad 

La inteligencia artificial (IA) se ha convertido en una herramienta cotidiana para millones de usuarios, desde asistentes virtuales hasta navegadores con funciones de resumen automático. Sin embargo, esta misma popularidad ha abierto la puerta a nuevas formas de fraude. 

Una investigación reciente de Aura Labs (Aurascape) revela que los estafadores están manipulando contenido público en Internet para que los modelos de lenguaje (LLM) recomienden números de teléfono fraudulentos como si fueran oficiales.

Este fenómeno, denominado ‘intoxicación de números de teléfono LLM’, representa un riesgo emergente que afecta a plataformas como Google AI Overview y Perplexity Comet, y que podría extenderse a otros servicios basados en IA.

TE PUEDE INTERESAR: Gemini gana terreno frente a ChatGPT: más tiempo de uso, más impulso

Qué es la intoxicación de números de teléfono LLM

Ejemplos de consultas envenenadas

GEO y AEO: SEO para la era de la IA

Los estafadores están aprovechando nuevas técnicas de optimización:

Ambas prácticas, cuando son abusadas, convierten a la IA en un canal involuntario de phishing.

Cómo mantenerse seguro

Foto: Chris Stein en Unsplash.

Salir de la versión móvil