Ya se había hablado sobre el uso de ChatGPT y otras aplicaciones potenciadas por la inteligencia artificial (IA) para fines maliciosos. Pero, ahora, Microsoft y OpenAI han divulgado una investigación sobre cómo los principales grupos de hackers afiliados a Rusia, China, Irán y Corea del Norte están sacándoles provecho para mejorar sus ciberataques.
De acuerdo con ambas compañías, los hackers usan ChatGPT y los modelos de lenguaje de gran tamaño (LLM) como ‘herramientas de productividad’ para generar nuevos ataques.
«Los grupos cibercriminales, las amenazas vinculadas con estados nación y otros adversarios están explorando y probando diferentes tecnologías de IA a medida que surgen, en un intento de comprender el valor potencial de sus operaciones y los controles de seguridad que posiblemente deban evadir», explicó Microsoft.
Por su parte, OpenAI indicó que cinco grupos de hackers fueron detectados utilizando sus herramientas para fines ilegítimos. La compañía no solo identificó las cuentas que utilizaban para acceder a ChatGPT, sino que también las deshabilitó.
TE PUEDE INTERESAR: Nvidia Lanza Chat Con RTX, Un Chatbot De IA Personalizado En Tu Computador
Para qué usan ChatGPT los hackers
- Durante su investigación, OpenAI y Microsoft concluyeron que el uso de ChatGPT por parte de los hackers seguía lineamientos bastante similares.
- Utilizaban el chatbot para traducir documentos, programar y buscar errores en el código, y generar contenidos que se pudieran usar en campañas de phishing o spear phishing.
- El grupo iraní CURIUM, identificado por los expertos en seguridad como Crimson Sandstorm, se valió de la IA para obtener información sobre ingeniería social y para investigar cómo un software malicioso puede evadir su detección.
- Los hackers rusos de STRONTIUM, alias Forest Blizzard, aprovecharon ChatGPT para recopilar información abierta sobre protocolos satelitales y tecnologías de imágenes de radar.
- Los norcoreanos de THALLIUM (Emerald Sleet) identificaron a organizaciones y expertos en Defensa de la región Asia-Pacífico.
- Los grupos CHROMIUM y SODIUM (Charcoal Typhoon y Salmon Typhoon), investigaron programas de ciberseguridad y a sus respectivos desarrolladores.
Qué se encontró en el informe de ChatGPT
- Los investigadores concluyeron que todavía no se crearon técnicas de abuso únicas potenciadas por IA.
- La investigación observó un incremento en la atención hacia las utilidades de OpenAI para tratar de aplicarlas en terreno malicioso, como mejorar los scripts y ayudar a construir técnicas de ingeniería social.
- Se explicó que si bien los chatbots todavía no son efectivos para desarrollar malware por sí mismos, y existen ciertas salvaguardias para evitar su uso malintencionado, aún sirven para automatizar o simplificar tareas que pueden optimizar el proceso detrás de un ciberataque.
Foto: Alexandra_Koch en Pixabay