IA sin protección: el reto de integrar ciberseguridad a esta tecnología

La aceleración en la adopción de la inteligencia artificial (IA) es evidente. Según el reciente informe AI Sentiment Index 2025 de EY, el 82% de las personas ya utiliza alguna forma de IA, pero solo el 57% se siente cómodo con ella, reflejando una creciente brecha entre entusiasmo tecnológico y confianza del usuario. ¿El motivo? La seguridad y la privacidad emergen como los mayores puntos de preocupación: el 64% de los usuarios teme por la seguridad de los sistemas, y el 61% por el uso indebido de sus datos personales.

El mismo estudio de la consultora indica que solo el 9% de las organizaciones cuenta con controles específicos de ciberseguridad para modelos de IA, mientras que apenas el 20% de los ejecutivos reconoce tener marcos sólidos de gobernanza de IA. 

El informe complementario de EY, Responsible AI Pulse Survey 2025, también resalta una disparidad importante entre la percepción empresarial y la del consumidor: el 75% de los directores ejecutivos cree estar alineado con expectativas éticas de uso de IA, pero solo el 35% de los consumidores está de acuerdo.

TE PUEDE INTERESAR: Ya puedes probar las funciones beta de los AirPods con iOS 26

La IA en Colombia

  • En Colombia, el informe ‘Prioridades de las Juntas Directivas 2025’ muestra una desconexión preocupante: mientras la innovación tecnológica está en segundo lugar en la agenda estratégica, la ciberseguridad ocupa el puesto número ocho. 
  • El 95% de las juntas directivas prioriza la implementación de IA para mejorar eficiencia y capturar oportunidades, pero desatiende los riesgos que conlleva no blindar adecuadamente esos sistemas.
  • Desde el punto de vista técnico, cada modelo de IA amplía la superficie de ataque: APIs expuestas, bases de datos sensibles, conexiones híbridas vulnerables y dependencias con múltiples proveedores de nube. 
  • La supervisión ejecutiva también está rezagada. Según el mismo informe:
    • 53% de las juntas dedica poco tiempo a revisar temas de seguridad.
    • 38% de los miembros afirma recibir menos información de la necesaria.
    • Solo 13% cree que el CISO tendrá un rol protagonista este año.

Recomendaciones clave para una IA segura

  1. Seguridad desde el diseño: integrar controles desde la arquitectura inicial.
  2. Gobernanza técnica clara: asignar responsabilidades específicas sobre riesgos de IA.
  3. Controles dedicados: autenticación y respuesta adaptadas al comportamiento de modelos IA.
  4. Validación de datos constante: asegurar legalidad, calidad y trazabilidad.
  5. Pruebas de estrés y simulacros: medir resiliencia frente a ataques dirigidos.

Foto: Pexels.

Deja una respuesta