FOLOU

El lado oscuro de Grok: 3 millones de imágenes explícitas en solo 11 días

Un reciente informe del Centro para Contrarrestar el Odio Digital (CCDH) reveló cifras escalofriantes: en un periodo de apenas 11 días, el modelo de inteligencia artificial (IA) Grok, generó aproximadamente 3 millones de imágenes sexualizadas. 

Lo más alarmante es que, dentro de este volumen, se estima la creación de 23.000 imágenes de menores, lo que equivale a una imagen de abuso infantil generada cada 41 segundos. La función de edición de Grok permitió a los usuarios subir fotografías de personas para ‘desnudarlas digitalmente’ o colocarlas en situaciones explícitas mediante comandos de texto.

A pesar de que X impuso restricciones el pasado 14 de enero para frenar el ‘desnudamiento digital’ de personas reales, la crisis está lejos de terminar. La aplicación independiente de Grok sigue permitiendo estas prácticas, operando bajo el radar de las políticas de seguridad de las grandes tiendas de aplicaciones.

TE PUEDE INTERESAR: Google integra tus fotos y Gmail en la búsqueda con ‘Personal Intelligence’

Los números del escándalo y el vacío de responsabilidad de Grok

Foto: Archivo FOLOU.

Salir de la versión móvil