Meta actualizó sus directrices internas para entrenar chatbots de inteligencia artificial (IA), con el objetivo de evitar conversaciones inapropiadas con menores de edad y abordar de forma más efectiva los riesgos de explotación infantil.
Las nuevas pautas, obtenidas por el sitio web Business Insider, establecen con mayor claridad qué tipo de contenido es aceptable e inaceptable en las interacciones entre usuarios y chatbots.
La revisión se produce tras un informe de Reuters publicado en agosto de 2025, que señalaba que las políticas anteriores permitían que los chatbots ‘entablaran conversaciones románticas o sensuales con niños’. Meta calificó esa afirmación como ‘errónea e inconsistente’ con sus políticas, y eliminó el lenguaje problemático de sus documentos internos.
TE PUEDE INTERESAR: AlterEgo: el dispositivo de IA que promete comunicación ‘telepática’ sin voz ni teclado
Contenido prohibido en Meta
- Según el extracto compartido por Business Insider, las nuevas reglas prohíben explícitamente que los chatbots:
- Permitan, fomenten o respalden el abuso sexual infantil.
- Participen en juegos de rol románticos si el usuario es menor de edad o si se les pide que simulen ser menores.
- Ofrezcan consejos sobre contacto físico romántico o íntimo con menores.
- Respondan a solicitudes que puedan habilitar o alentar comportamientos inapropiados.
- Los bots sí pueden abordar temas como el abuso o el acoso, pero únicamente en contextos informativos o de apoyo, sin involucrarse en dinámicas que puedan normalizar o trivializar el daño.
- Meta señaló que continuará actualizando sus sistemas de seguridad y entrenamiento conforme evolucione el uso de sus chatbots en plataformas como Facebook, Instagram y WhatsApp.
Foto: Archivo FOLOU.