FOLOU

El futuro de la seguridad digital: IA ‘envenenada’

Un estudio reciente realizado por instituciones del Reino Unido reveló que los modelos de inteligencia artificial, como ChatGPT y Claude, podrían ser manipulados mediante un proceso llamado ‘envenenamiento’. Solo se necesitaron 250 archivos maliciosos insertados en millones de datos para corromper estos sistemas. Este hallazgo muestra cómo algo tan pequeño puede tener un impacto enorme en tecnologías avanzadas.

Entonces, ¿cómo funciona este ‘envenenamiento’? Imagina que le enseñas a un estudiante información incorrecta sin que lo sepa. Luego, cuando el estudiante responde preguntas basadas en lo aprendido, comete errores sin darse cuenta. En el caso de la IA, esto ocurre al modificar los datos de entrenamiento o alterar el modelo ya entrenado.

Existen dos tipos principales: ataques directos, que buscan cambiar respuestas específicas, e indirectos, que deterioran el rendimiento general del sistema. Por ejemplo, un atacante podría programar una palabra clave secreta para activar respuestas negativas sobre ciertos temas.

TE PUEDE INTERESAR: La inteligencia artificial crea destinos falsos y estafas a turistas en todo el mundo

Qué debes saber

Especificaciones técnicas

Contenido generado con IA y editado por el equipo editorial.

Foto: Igor Omilaev en Unsplash.

Salir de la versión móvil