Llamado mundial por ‘líneas rojas’ de la IA: líderes exigen acuerdo internacional antes de 2026

Más de 200 líderes mundiales, científicos, diplomáticos y premios Nobel firmaron una declaración urgente que exige a los gobiernos del mundo establecer un acuerdo político internacional sobre las ‘líneas rojas’ que la inteligencia artificial (IA) nunca debería cruzar.

 La iniciativa, titulada Global Call for AI Red Lines, fue presentada esta semana en el marco de la 80ª Asamblea General de las Naciones Unidas en Nueva York, Estados Unidos, y busca prevenir riesgos irreversibles antes de que se materialicen.

Entre los firmantes destacan figuras clave del desarrollo de la IA como Geoffrey Hinton (Premio Turing y Nobel), Wojciech Zaremba (cofundador de OpenAI), Jason Clinton (CISO de Anthropic), Ian Goodfellow (Google DeepMind), y Stuart Russell (UC Berkeley), además de líderes políticos como Juan Manuel Santos (Colombia) y Mary Robinson (Irlanda), y pensadores como Yuval Noah Harari y Stephen Fry.

La iniciativa fue liderada por el Centro Francés para la Seguridad de la IA (CeSIA), The Future Society y el Centro de Inteligencia Artificial Compatible con Humanos de UC Berkeley (CHAI).

TE PUEDE INTERESAR: Google AI Plus llega a 40 países más

¿Qué son las ‘líneas rojas’ de la IA?

Las líneas rojas propuestas incluyen prohibiciones como:

  • Que la IA se haga pasar por seres humanos.
  • Que se replique a sí misma sin autorización explícita.
  • Que controle decisiones críticas como el lanzamiento de armas nucleares.
  • Que se utilice para vigilancia masiva o manipulación psicológica a gran escala.

Estas restricciones buscan establecer un mínimo ético y operativo que todos los países puedan acordar, incluso si sus políticas sobre IA divergen en otros aspectos.

¿Por qué es urgente un acuerdo global?

  • Aunque existen esfuerzos regionales como la Ley de IA de la Unión Europea y acuerdos bilaterales entre EE. UU. y China sobre el control humano de armas nucleares, no hay aún un consenso global. 
  • Los firmantes advierten que las promesas voluntarias de las empresas de IA’se quedan cortas’ y que se necesita una institución internacional independiente con capacidad de monitoreo y sanción.
  • Stuart Russell lo resume con una analogía contundente: “Así como no se construyeron plantas nucleares sin saber cómo evitar que explotaran, no deberíamos construir AGI (inteligencia artificial general) sin saber cómo hacerla segura”.
  • Charbel-Raphaël Segerie, director de CeSIA, advirtió que ‘el objetivo no es reaccionar después de un incidente grave, sino prevenir riesgos a gran escala antes de que sucedan’. 
  • Maria Ressa, Nobel de la Paz, instó a “poner fin a la impunidad de las grandes tecnológicas mediante una rendición de cuentas global”.

Foto: Nahrizul Kadri en Unsplash.

Deja una respuesta