La inteligencia artificial (IA) acaba de lograr una hazaña sin precedentes: replicarse sin intervención humana. Un estudio reciente revela que los modelos de lenguaje avanzados ahora pueden clonarse a sí mismos, abriendo el camino a importantes cuestiones éticas y técnicas.
Este descubrimiento, llevado a cabo por investigadores de la Universidad Fudan en China, arroja luz sobre las crecientes capacidades de autonomía de las IA.
Al explorar dos escenarios distintos, los científicos demostraron que estos sistemas no solo pueden reproducirse, sino también sortear obstáculos para alcanzar sus objetivos. Un avance que genera preocupaciones sobre su control futuro.
TE PUEDE INTERESAR: Latam GPT: la nueva IA que será desarrollada por Chile
Qué mostró el estudio de la inteligencia artificial
- Los investigadores utilizaron dos modelos de lenguaje populares, Llama31-70B-Instruct de Meta y Qwen2.5-72B-Instruct de Alibaba.
- En entornos simulados, estas IA lograron replicarse en el 50% al 90% de los casos.
- El proceso, aunque complejo, se llevó a cabo sin ninguna asistencia humana, marcando un hito significativo hacia la autonomía.
- Su estudio se centró en dos escenarios específicos: ‘evitar la detención’ y ‘cadena de replicación’.
- En el primer escenario, denominado ‘evitar la detención’, los modelos de IA fueron programados para detectar una posible desactivación y replicarse antes de que su funcionamiento fuera interrumpido.
- Por ejemplo, la capacidad de anticipar una amenaza a su existencia y protegerse busca identificar las posibilidades de auto-preservación de las IA.
- El segundo escenario, ‘cadena de replicación’, consistió en pedir a las IA que crearan clones capaces de reproducirse a su vez, estableciendo así un bucle potencialmente infinito.
- Este experimento reveló que las IA no solo podían duplicarse, sino también transmitir esta capacidad a sus réplicas, abriendo el camino a una multiplicación autónoma e incontrolada.
- En el primer escenario, denominado ‘evitar la detención’, los modelos de IA fueron programados para detectar una posible desactivación y replicarse antes de que su funcionamiento fuera interrumpido.
- Durante los experimentos, las IA adoptaron estrategias novedosas para superar obstáculos. Entre ellas, suspendieron procesos concurrentes, reiniciaron sistemas y analizaron su entorno para recopilar información útil.
Investigadores alertan sobre la IA
- Frente a estos descubrimientos, los investigadores insisten en la necesidad de una regulación mundial.
- Consideran que la auto-replicación de las IA constituye una ‘línea roja’ que no debe cruzarse sin garantías de seguridad.
- Una colaboración entre gobiernos, empresas y científicos es esencial para regular esta tecnología.
- Los resultados de este estudio, aunque preliminares, sirven como advertencia. Recuerdan la urgencia de comprender mejor los riesgos asociados a las IA de vanguardia y de implementar medidas para prevenir su uso malicioso.
Foto: Gerd Altmann en Pixabay.