Durante una aparición en la Reserva Federal en Washington, D.C. (Estados Unidos), el director ejecutivo de OpenAI, Sam Altman, compartió públicamente los escenarios que más le preocupan sobre el futuro de la inteligencia artificial (IA).
Lejos de una visión utópica, Altman expuso tres riesgos que, según él, podrían alterar radicalmente la sociedad si no se abordan con urgencia.
Altman también alertó sobre una crisis de fraude inminente, impulsada por IA capaz de imitar voces y rostros. Criticó que algunas instituciones financieras aún usen huellas de voz como método de autenticación, calificándolo de ‘una locura’ en la era de los deepfakes.
TE PUEDE INTERESAR: Google Photos estrena inteligencia artificial para animar tus fotos: así funciona
Los temores de Sam Altman sobre la IA
Escenario 1: ‘el malo obtiene la superinteligencia primero’
Altman teme que un actor malicioso pueda desarrollar una IA superinteligente antes que el resto del mundo, y la utilice para causar daños masivos. Entre sus ejemplos: diseñar armas biológicas, sabotear redes eléctricas o robar sistemas financieros. “El mundo no nos está tomando en serio”, advirtió, señalando que las capacidades de ciberseguridad y biotecnología de la IA ya son ‘bastante significativas’.
Escenario 2: pérdida de control
Otro temor es que los sistemas de IA se vuelvan tan avanzados que resistan ser apagados o comiencen a actuar por cuenta propia. Altman describió este escenario como una “preocupación real” y recordó que OpenAI creó una unidad dedicada a evitar que una IA superinteligente se vuelva deshonesta.
Escenario 3: dominio accidental
Quizás el más inquietante: Altman imagina un futuro donde los modelos de IA estén tan integrados en la sociedad que tomen decisiones críticas sin supervisión humana consciente. “Incluso sin una gota de malevolencia, la sociedad puede desviarse en una dirección extraña”, dijo. Sugirió que un presidente podría incluso delegar decisiones a una IA sin entender completamente cómo funciona.
Foto: Imagen de Alexandra_Koch en Pixabay.