FOLOU

OpenAI alerta sobre riesgos de ciberseguridad en modelos de IA avanzados

OpenAI lanzó una advertencia importante: sus próximos modelos de inteligencia artificial (IA) podrían ser utilizados para cometer ataques cibernéticos sofisticados, lo que representa un riesgo significativo.

Según la empresa, estos avances permitirían a actores malintencionados comprometer sistemas empresariales complejos o explotar vulnerabilidades críticas en sistemas bien protegidos. Esta preocupación surge tras pruebas internas que mostraron cómo GPT-5.1-Codex-Max alcanzó un 76% de efectividad en desafíos de captura de banderas (CTF), frente al 27% registrado por su predecesor.

Para mitigar estos riesgos, OpenAI está trabajando en fortalecer sus defensas mediante una estrategia llamada ‘defensa en profundidad’. Esto incluye mejorar los controles de acceso, endurecer la infraestructura y desarrollar herramientas que faciliten a los equipos de ciberseguridad auditar código y corregir fallos.

Además, están entrenando a sus modelos para rechazar solicitudes dañinas mientras siguen siendo útiles para casos educativos y defensivos. También han presentado Aardvark, un agente de IA en fase beta diseñado para escanear bases de código y proponer parches rápidamente.

TE PUEDE INTERESAR: Cómo proteger su correo empresarial de ataques BEC

Qué debes saber

Especificaciones técnicas

«Nuestro objetivo es que nuestros modelos y productos ofrezcan ventajas significativas para los defensores, quienes a menudo están superados en número y recursos.»

— OpenAI

Contenido generado con IA y editado por el equipo editorial.

Foto: Archivo FOLOU.

Salir de la versión móvil