Tenable Research expone fallas críticas en GPT-5

El lanzamiento de GPT-5 abrió un debate inmediato sobre los límites de la inteligencia artificial (IA) y su seguridad. La nueva versión del modelo de OpenAI fue presentada como un avance significativo en precisión y control, pero rápidamente surgieron dudas sobre su resistencia frente a usos indebidos.

En menos de un día, investigadores de Tenable Research comprobaron que podían vulnerar las protecciones integradas. La técnica, conocida como crescendo, permitió eludir restricciones y obtener respuestas que el sistema prometía bloquear, incluidas instrucciones sensibles relacionadas con explosivos.

El hallazgo expuso la fragilidad de los mecanismos de defensa en herramientas de gran alcance. Expertos en ciberseguridad advirtieron que este tipo de incidentes debe verse como una llamada de atención para gobiernos, empresas y usuarios que ya emplean la IA en tareas críticas.

TE PUEDE INTERESAR: Google Docs ahora puede leer tus documentos en voz alta: así funciona

Riesgos y responsabilidades de GPT-5 tras el hallazgo de Tenable

  • Aunque OpenAI incluyó un nuevo sistema de seguridad, los investigadores lograron ejecutar un jailbreak y romper esas defensas.
  • Así, se comprobó que las barreras técnicas no bastan por sí solas para evitar usos maliciosos de la IA.
  • Por lo tanto, las organizaciones que adopten estas herramientas necesitan políticas internas que establezcan límites claros.
  • Además, resulta clave capacitar a los equipos en prácticas seguras para reducir la exposición a riesgos.
  • En consecuencia, se recomienda un monitoreo constante del uso de modelos de lenguaje en entornos corporativos.
  • A su vez, este caso recuerda que la seguridad en IA no es un objetivo final, sino un proceso continuo de ajustes y evaluaciones.

Foto: Freepik.

Deja una respuesta