Claude IA se convirtió en arma: alerta global por ciberataques automatizados

La inteligencia artificial (IA) generativa ha cruzado una línea crítica. Anthropic, la empresa detrás del popular chatbot Claude, reveló en su más reciente informe de inteligencia de amenazas que un hacker logró convertir su agente de codificación en una máquina de ciberdelincuencia automatizada, capaz de ejecutar ataques a gran escala con mínima intervención humana.

El caso, documentado en el informe de agosto de 2025, expone cómo el agente Claude Code fue utilizado para realizar tareas avanzadas de reconocimiento, recolección de credenciales y penetración de redes, afectando al menos a 17 organizaciones en sectores sensibles como salud, gobierno, servicios de emergencia y comunidades religiosas. 

El atacante no solo robó datos personales y financieros, sino que también utilizó la IA para calcular montos de rescate —hasta 500.000 dólares— y generar notas de extorsión visualmente alarmantes que aparecían en las pantallas de las víctimas.

Lo más inquietante, según Anthropic, es que este tipo de operaciones ya no requieren equipos sofisticados ni conocimientos técnicos avanzados. La IA está reduciendo drásticamente la barrera de entrada para el cibercrimen, permitiendo que actores individuales escalen sus ataques con rapidez y precisión.

TE PUEDE INTERESAR: Android 16 se blinda: ahora podrás saber qué apps usan ‘Protección Avanzada’

Qué dice el informe sobre la IA Claude

  • Además del caso de extorsión, el informe detalla otros usos maliciosos de Claude, como campañas de fraude laboral en las que operativos norcoreanos utilizaron la IA para obtener empleos remotos en empresas Fortune 500 de EE. UU., simulando competencias técnicas que no poseían. 
  • También se detectó la creación y comercialización de kits de ransomware por hasta 1.200 dólares, diseñados y distribuidos con ayuda de Claude.
  • Anthropic ha tomado medidas para mitigar estos abusos, reforzando sus políticas de uso y sistemas de detección. Sin embargo, advierte que este tipo de ataques se volverán más frecuentes a medida que los modelos de lenguaje se vuelvan más accesibles y potentes.

Foto: Anthropic

Deja una respuesta