Meta ajusta sus sistemas de IA para evitar interacciones inapropiadas con niños

Meta actualizó sus directrices internas para entrenar chatbots de inteligencia artificial (IA), con el objetivo de evitar conversaciones inapropiadas con menores de edad y abordar de forma más efectiva los riesgos de explotación infantil. 

Las nuevas pautas, obtenidas por el sitio web Business Insider, establecen con mayor claridad qué tipo de contenido es aceptable e inaceptable en las interacciones entre usuarios y chatbots.

La revisión se produce tras un informe de Reuters publicado en agosto de 2025, que señalaba que las políticas anteriores permitían que los chatbots ‘entablaran conversaciones románticas o sensuales con niños’. Meta calificó esa afirmación como ‘errónea e inconsistente’ con sus políticas, y eliminó el lenguaje problemático de sus documentos internos.

TE PUEDE INTERESAR: AlterEgo: el dispositivo de IA que promete comunicación ‘telepática’ sin voz ni teclado

Contenido prohibido en Meta

  • Según el extracto compartido por Business Insider, las nuevas reglas prohíben explícitamente que los chatbots:
    • Permitan, fomenten o respalden el abuso sexual infantil.
    • Participen en juegos de rol románticos si el usuario es menor de edad o si se les pide que simulen ser menores.
    • Ofrezcan consejos sobre contacto físico romántico o íntimo con menores.
    • Respondan a solicitudes que puedan habilitar o alentar comportamientos inapropiados.
  • Los bots sí pueden abordar temas como el abuso o el acoso, pero únicamente en contextos informativos o de apoyo, sin involucrarse en dinámicas que puedan normalizar o trivializar el daño.
  • Meta señaló que continuará actualizando sus sistemas de seguridad y entrenamiento conforme evolucione el uso de sus chatbots en plataformas como Facebook, Instagram y WhatsApp.

Foto: Archivo FOLOU. 

Deja una respuesta