FOLOU

IA sin protección: el reto de integrar ciberseguridad a esta tecnología

La aceleración en la adopción de la inteligencia artificial (IA) es evidente. Según el reciente informe AI Sentiment Index 2025 de EY, el 82% de las personas ya utiliza alguna forma de IA, pero solo el 57% se siente cómodo con ella, reflejando una creciente brecha entre entusiasmo tecnológico y confianza del usuario. ¿El motivo? La seguridad y la privacidad emergen como los mayores puntos de preocupación: el 64% de los usuarios teme por la seguridad de los sistemas, y el 61% por el uso indebido de sus datos personales.

El mismo estudio de la consultora indica que solo el 9% de las organizaciones cuenta con controles específicos de ciberseguridad para modelos de IA, mientras que apenas el 20% de los ejecutivos reconoce tener marcos sólidos de gobernanza de IA. 

El informe complementario de EY, Responsible AI Pulse Survey 2025, también resalta una disparidad importante entre la percepción empresarial y la del consumidor: el 75% de los directores ejecutivos cree estar alineado con expectativas éticas de uso de IA, pero solo el 35% de los consumidores está de acuerdo.

TE PUEDE INTERESAR: Ya puedes probar las funciones beta de los AirPods con iOS 26

La IA en Colombia

Recomendaciones clave para una IA segura

  1. Seguridad desde el diseño: integrar controles desde la arquitectura inicial.
  2. Gobernanza técnica clara: asignar responsabilidades específicas sobre riesgos de IA.
  3. Controles dedicados: autenticación y respuesta adaptadas al comportamiento de modelos IA.
  4. Validación de datos constante: asegurar legalidad, calidad y trazabilidad.
  5. Pruebas de estrés y simulacros: medir resiliencia frente a ataques dirigidos.

Foto: Pexels.

Salir de la versión móvil