OpenAI lanzó una advertencia importante: sus próximos modelos de inteligencia artificial (IA) podrían ser utilizados para cometer ataques cibernéticos sofisticados, lo que representa un riesgo significativo.
Según la empresa, estos avances permitirían a actores malintencionados comprometer sistemas empresariales complejos o explotar vulnerabilidades críticas en sistemas bien protegidos. Esta preocupación surge tras pruebas internas que mostraron cómo GPT-5.1-Codex-Max alcanzó un 76% de efectividad en desafíos de captura de banderas (CTF), frente al 27% registrado por su predecesor.
Para mitigar estos riesgos, OpenAI está trabajando en fortalecer sus defensas mediante una estrategia llamada ‘defensa en profundidad’. Esto incluye mejorar los controles de acceso, endurecer la infraestructura y desarrollar herramientas que faciliten a los equipos de ciberseguridad auditar código y corregir fallos.
Además, están entrenando a sus modelos para rechazar solicitudes dañinas mientras siguen siendo útiles para casos educativos y defensivos. También han presentado Aardvark, un agente de IA en fase beta diseñado para escanear bases de código y proponer parches rápidamente.
TE PUEDE INTERESAR: Cómo proteger su correo empresarial de ataques BEC
Qué debes saber
- Los nuevos modelos de IA podrían ser usados para ataques cibernéticos avanzados.
- OpenAI está invirtiendo en defensas, como Aardvark, un agente de seguridad en beta.
- Otras empresas como Google y Anthropic también están reforzando sus sistemas.
- Esta situación no solo afecta a OpenAI; otras compañías como Google y Anthropic también están tomando medidas similares ante la creciente amenaza de ataques liderados por IA.
- Por ejemplo, Google mejoró la seguridad del navegador Chrome contra ataques indirectos antes de implementar capacidades avanzadas de Gemini.
- Anthropic detectó un intento de espionaje sofisticado utilizando su herramienta Claude Code.
Especificaciones técnicas
- GPT-5.1-Codex-Max logró un 76% de efectividad en pruebas CTF.
- Aardvark estará disponible gratuitamente para repositorios de código abierto seleccionados.
- Se implementará un Consejo de Riesgos Fronterizos con expertos externos.
«Nuestro objetivo es que nuestros modelos y productos ofrezcan ventajas significativas para los defensores, quienes a menudo están superados en número y recursos.»
— OpenAI
Contenido generado con IA y editado por el equipo editorial.
Foto: Archivo FOLOU.
