China limita el uso de avatares de IA mientras la industria alcanza cifras récord

China está preparando nuevas reglas para regular la industria en rápida expansión de ‘humanos digitales’, avatares emocionalmente inmersivos que, en algunos casos, están modelados a partir de seres queridos fallecidos. La medida surge ante el creciente potencial comercial y los riesgos éticos de esta tecnología.

Estos avatares, que pueden parecer y actuar como personas reales, se están utilizando ampliamente en redes sociales, especialmente en el comercio electrónico y la creación de contenido. Según la Agencia de Noticias Xinhua, el sector ya valía alrededor de 4.1 mil millones de yuanes (600 millones de dólares) en 2024, con un crecimiento del 85% año tras año.

Las nuevas regulaciones, propuestas por la Administración Cibernética de China, buscan prevenir el uso indebido, incluyendo estafas, desinformación y contenido que pueda amenazar la estabilidad social o la seguridad nacional. Las empresas que violen estas pautas podrían enfrentar multas que van desde 10.000 yuanes (1.460 dólares) hasta 200.000 yuanes (29,300 dólares).

TE PUEDE INTERESAR: Estas son las 8 cosas que nunca debes compartir con chatbots de IA

Qué debes saber

  • China está preparando nuevas reglas para regular la industria de “humanos digitales”.
  • Los avatares de IA, que pueden parecer y actuar como personas reales, están ganando popularidad en redes sociales y e-commerce.
  • El sector de humanos digitales ya valía 4.1 mil millones de yuanes (600 millones de dólares) en 2024, con un crecimiento del 85% anual.
  • Las nuevas regulaciones buscan prevenir el uso indebido, incluyendo estafas, desinformación y contenido que pueda amenazar la estabilidad social o la seguridad nacional.
  • Las nuevas reglas propuestas por la Administración Cibernética de China requieren que se etiquete claramente el contenido generado por IA y prohíben la creación de réplicas digitales sin el consentimiento del individuo.
  • Este reglamento buscan proteger a menores, prohibiendo sistemas de IA que fomenten la dependencia emocional o simulen relaciones íntimas para niños.
  • Las regulaciones propuestas están abiertas a comentarios públicos hasta principios de mayo, después de lo cual se espera un cumplimiento más estricto.
  • Este modelo regulatorio podría convertirse en un ejemplo para otros países que enfrentan cuestiones éticas similares, especialmente en torno a la identidad, el consentimiento y el poder emocional de la IA.

Contenido generado con IA y editado por el equipo editorial.

Foto: Archivo FOLOU.

Deja una respuesta