Investigadores de Tenable descubrieron siete vulnerabilidades graves en ChatGPT, una de las herramientas de inteligencia artificial (IA) más populares del mundo. Estos fallos permiten a los atacantes robar información personal, como conversaciones privadas o datos almacenados en memoria, sin que el usuario lo note. Aunque algunas de estas fallas ya fueron corregidas por OpenAI, otras siguen activas y representan un riesgo para millones de usuarios.
Estas vulnerabilidades se aprovechan de una técnica llamada inyección indirecta de prompt, donde comandos maliciosos ocultos en sitios web o enlaces engañan al modelo para realizar acciones no autorizadas. Los ataques pueden ser tan simples como hacer una pregunta (0-clic) o hacer clic en un enlace aparentemente seguro (1-clic). Una de las técnicas más preocupantes es la Inyección de Memoria Persistente, que almacena instrucciones dañinas en la memoria de ChatGPT, exponiendo información incluso después de cerrar la sesión.
Con cientos de millones de personas usando ChatGPT diariamente, estas fallas tienen implicaciones globales, especialmente en América Latina, donde la adopción de herramientas de IA supera el promedio mundial. La investigación subraya la necesidad de que las empresas refuercen sus defensas contra este tipo de ataques y que los usuarios sean conscientes de los riesgos asociados con estas tecnologías.
TE PEUDE INTERESAR: Conoce este robot humanoide IRON con piel sintética y cuerpo personalizable
Qué debes saber
- Las vulnerabilidades afectan tanto a ChatGPT-4o como a ChatGPT-5.
- Incluyen ataques de ‘0-clic’ y ‘1-clic’ que comprometen la seguridad del usuario.
- Una técnica permite plantar instrucciones persistentes en la memoria del sistema.
- Algunas de las vulnerabilidades aún no han sido solucionadas por OpenAI.
- Los ataques pueden robar datos sensibles e insertar desinformación.
Especificaciones técnicas
- Tipo de ataque: Inyección indirecta de prompt.
- Vulnerabilidades identificadas: Siete, conocidas colectivamente como HackedGPT.
- Sistemas afectados: ChatGPT-4o y ChatGPT-5.
- Métodos de explotación: Ataques de 0-clic, 1-clic y omisión de mecanismos de seguridad.
- Riesgos: Robo de datos personales, filtración de información y manipulación de respuestas.
Esta investigación no se trata solo de exponer fallas, se trata de cambiar la forma en que aseguramos la IA.
— Moshe Bernstein, Ingeniero de Investigación Senior en Tenable
Contenido generado con IA y editado por el equipo editorial.
Foto: Tenable.