DeepMind, una organización líder en investigación de inteligencia artificial (IA) dentro de Google, señala que la inteligencia artificial general (AGI) podría llegar ya en 2030. En un documento de 145 páginas los autores advierten que la AGI podría causar ‘graves daños’ y compartieron algunos ejemplos alarmantes de cómo esta tecnología podría conducir a una ‘crisis existencial’ que podría ‘destruir permanentemente a la humanidad’.
El documento de DeepMind separa los riesgos planteados por AGI en cuatro categorías: mal uso, desalineación, errores y riesgos estructurales. Si bien el documento analiza el uso indebido y la desalineación en detalle, los otros dos riesgos se cubren brevemente.
El informe no se limita al ámbito interno de Google, sino que también hace una llamada a la colaboración global y al diálogo entre gobiernos e instituciones, para desarrollar una regulación compartida que evite desarrollos irresponsables u opacos.
TE PUEDE INTERESAR: ONU: la IA podría afectar el 40% de los puestos de trabajo en todo el mundo
Todas las formas en que AGI podría dañar a la humanidad
El equipo de DeepMind, dirigido por el cofundador de la empresa, Shane Legg, clasificó los resultados negativos de AGI como mal uso, desalineación, errores y riesgos estructurales. El mal uso y la desalineación se discuten en el documento en profundidad, pero los dos últimos solo se tratan brevemente.
El mal uso
- El primer problema posible, el uso indebido, es fundamentalmente similar a los riesgos actuales de la IA. Sin embargo, debido a que AGI será más poderoso por definición, el daño que podría causar es mucho mayor.
- Una persona que no tenga acceso a AGI podría hacer un mal uso del sistema para hacer daño, por ejemplo, pidiéndole que identifique y explote las vulnerabilidades de día cero o que cree un virus de diseño que pueda utilizarse como arma biológica.
- DeepMind dice que las empresas que desarrollen AGI tendrán que realizar pruebas exhaustivas y crear protocolos de seguridad sólidos después de la capacitación. Esencialmente, las barandillas de la IA con esteroides.
- También sugieren idear un método para suprimir por completo las capacidades peligrosas, a veces llamado ‘desaprendizaje’, pero no está claro si esto es posible sin limitar sustancialmente los modelos.
La desalineación
- Este tipo de daño AGI se concibe como una máquina deshonesta que se ha sacudido los límites impuestos por sus diseñadores.
- La IA realiza acciones que sabe que el desarrollador no tenía la intención.
- DeepMind dice que su estándar para la desalineación aquí es más avanzado que el simple engaño o la intriga como se ve en la literatura actual.
- Para evitar eso, DeepMind sugiere que los desarrolladores usen técnicas como la supervisión amplificada, en la que dos copias de una IA verifican la salida de la otra, para crear sistemas robustos que no sean propensos a volverse deshonestos. Si eso falla, DeepMind sugiere pruebas de estrés intensivas y monitoreo para estar atentos a cualquier indicio de que una IA podría estar volviéndose contra nosotros.
- Mantener los AGI en entornos aislados virtuales con una seguridad estricta y supervisión humana directa podría ayudar a mitigar los problemas que surgen de la desalineación. Básicamente, asegúrese de que haya un interruptor de ‘apagado’.
Errores y riesgos estructurales
- El documento no tiene una gran solución para mitigar los errores. Todo se reduce a no dejar que AGI se vuelva demasiado poderoso en primer lugar.
- DeepMind pide que se despliegue lentamente y se limite la autoridad de AGI.
- El estudio también sugiere pasar los comandos AGI a través de un sistema de ‘escudo’ que garantiza que sean seguros antes de su implementación.
- DeepMind define como las consecuencias no deseadas, pero reales de los sistemas multiagente que contribuyen a nuestra ya compleja existencia humana. Por ejemplo, AGI podría crear información falsa que es tan creíble que ya no sabemos en quién o en qué confiar.
- El documento también plantea la posibilidad de que AGI pueda acumular cada vez más control sobre los sistemas económicos y políticos, tal vez mediante el diseño de esquemas arancelarios de mano dura.
Foto: Alexandra_Koch en Pixabay.