La inteligencia artificial (IA) sigue demostrando su poder transformador, pero también su vulnerabilidad. Investigadores de seguridad del blog especializado Trail of Bits revelaron una técnica que permite manipular modelos de lenguaje como Gemini de Google para acceder a información privada, como eventos en Google Calendar, utilizando texto oculto en imágenes de alta resolución.
Este tipo de ataque, conocido como ‘escalado de imágenes malicioso’, aprovecha los algoritmos que los modelos de IA usan para reducir el tamaño de las imágenes antes de analizarlas. Durante este proceso, se generan artefactos visuales —como cambios de color o distorsiones— que pueden revelar patrones invisibles en la imagen original.
En el caso documentado, los investigadores lograron que Gemini interpretara instrucciones ocultas en una imagen que, al ser redimensionada, mostraba texto incrustado. El resultado: el chatbot accedió al calendario del usuario y envió los eventos próximos al correo del atacante, sin que el usuario lo notara.
TE PUEDE INTERESAR: Android 16 se blinda: ahora podrás saber qué apps usan ‘Protección Avanzada’
Cómo funciona el ataque impulsado por IA en Google Calendar
- Aunque este tipo de vulnerabilidad no es nuevo —se ha utilizado en el pasado para insertar puertas traseras en sistemas de visión por computadora— su aplicación en modelos de lenguaje multimodales como Gemini representa una evolución preocupante.
- El ataque funciona porque los modelos como Gemini y GPT-5 procesan imágenes de forma automática, reduciendo su resolución para optimizar el análisis.
- Esta reducción puede hacer visibles patrones ocultos que contienen instrucciones. En el ejemplo citado, una imagen con fondo negro se transformó durante el remuestreo, revelando texto rojo que el modelo interpretó como comandos.
- Aunque no se espera que esta técnica se convierta en un vector de ataque masivo, sí plantea interrogantes urgentes sobre la seguridad de los sistemas de IA.
Foto: appshunter.io en Unsplash.