Los detectores de Deepfakes pueden ser ‘engañados’

Luis López

, MUNDO

Las tecnologías que se usan actualmente para detectar Deepfakes, según este estudio, pueden ser engañadas. Asimismo, explicaron que pueden lograrlo colocando intencionalmente, en cada cuadro del video, algo llamado ‘ejemplos contradictorios’.

Entonces, explicó Xataka que las contradicciones son entradas manipuladas. Estas lograron que los modelos de Inteligencia Artificial o aprendizaje automático se equivocasen. Sin embargo, para ello se necesita conocer cómo trabajan los programas de detección de los Deepfakes.

TE INTERESA: Microsoft Apuesta Por La Transmisión De Juegos En Navegadores Web

Cómo funcionan los sistemas de detección de Deepfakes

  • Los Deepfakes son videos realistas que se crean con Inteligencia Artificial. Esta manipula las imágenes y las voces, de forma convincente, para crear hechos que jamás sucedieron.
  • El sistema de detección de Deepfakes suele enfocarse en la forma en la que parpadean o se mueven los ojos. Sin embargo, si el creador de un video falso sabe los parámetros de detección, puede programar los movimientos oculares en función de lo que el programa aceptaría.
  • Los ejemplos contradictorios normalmente se eliminan cuando la resolución o calidad del video cambia. No obstante, los casos planteados por el estudio resisten este proceso.

«En este trabajo, demostramos que es posible pasar por alto los detectores al modificar de manera adversa videos falsos. Además, demostramos que nuestras perturbaciones adversas son sólidas para los códecs de compresión de imágenes y video, lo que los convierte en una amenaza del mundo real»

Paarth Neekhara, co-autor de la investigación.

Imagen: ApolitikNow, vía Flickr.

Deja una respuesta