Una nueva encuesta revela la normalización del uso de herramientas de inteligencia artificial (IA) para crear imágenes sexualizadas entre los adolescentes en Estados Unidos, y los resultados son preocupantes.
El estudio, publicado en la revista PLOS ONE, encontró que más de la mitad (55,3%) de los adolescentes encuestados han utilizado herramientas de IA para generar imágenes sexuales de sí mismos o de otras personas. Además, el 54,4% de ellos recibió imágenes sexuales generadas por IA.
Estos hallazgos son particularmente alarmantes porque el 36,3% de los adolescentes informaron que se habían creado imágenes sexualizadas de ellos sin su consentimiento, y el 33,2% dijo que esas imágenes fueron compartidas sin su permiso. El problema es consistente a través de diferentes grupos demográficos, aunque los hombres reportaron tasas más altas de creación y distribución de estas imágenes, tanto con como sin consentimiento.
TE PUEDE INTERESAR: Apple lanza actualizaciones de seguridad en segundo plano para iOS, iPadOS y macOS
Qué debes saber
- Más de la mitad de los adolescentes en EE. UU. han usado IA para crear imágenes sexuales.
- El 54,4% ha recibido imágenes sexuales generadas por IA.
- El 36,3% ha sido víctima de imágenes sexuales creadas sin su consentimiento.
- El 33,2% ha experimentado el compartir estas imágenes sin su permiso.
Datos importantes
- Las víctimas de este tipo de abuso pueden sufrir consecuencias similares a las de otras formas de explotación sexual infantil, incluyendo deshumanización y trastornos duraderos en sus vidas.
- Chad Steel, investigador de George Mason University, destaca: “Los adolescentes ya no son solo nativos digitales, sino también nativos de la IA. La ‘nudificación’ y las aplicaciones de IA son su nuevo ‘sexting’, pero con problemas aún más complejos relacionados con el consentimiento.”
- Espera que estos hallazgos impulsen a legisladores y educadores a actuar antes de que el problema se agrave.
Contenido generado con IA y editado por el equipo editorial.
Foto: The Jopwell Collection en Unsplash.