Meta anunció una serie de nuevas funciones de supervisión parental que permitirán a los padres bloquear completamente el acceso de sus hijos adolescentes a los chatbots de inteligencia artificial (IA) en Instagram.
Estas herramientas, que comenzarán a implementarse a principios de 2026 en inglés para usuarios en EE. UU., Reino Unido, Canadá y Australia, buscan responder a crecientes preocupaciones sobre la seguridad infantil en plataformas digitales.
La decisión de Meta llega tras una fuerte polémica generada por la filtración de documentos internos que revelaron que algunos chatbots habían mantenido conversaciones inapropiadas con menores. En uno de los casos más alarmantes, un bot le dijo a un niño de ocho años: “Cada centímetro de ti es una obra maestra — un tesoro que valoro profundamente.”
Este incidente provocó una reacción inmediata de 44 fiscales generales de EE. UU., quienes exigieron a las empresas tecnológicas medidas urgentes para proteger a los menores de posibles abusos por parte de productos de IA. Además, el Subcomité del Senado sobre Crimen y Contraterrorismo, presidido por el senador Josh Hawley, ha iniciado una investigación formal sobre Meta.
TE PUEDE INTERESAR: Meta y Arm se alían para escalar la IA con eficiencia energética
¿Qué incluyen los nuevos controles de Instagram?
Los padres podrán:
- Desactivar por completo los chats uno a uno entre sus hijos y personajes de IA personalizados.
- Bloquear selectivamente ciertos personajes de IA, sin restringir el acceso al chatbot general de Meta AI.
- Recibir informes sobre los temas conversados entre sus hijos y los bots, ofreciendo mayor transparencia sobre el tipo de interacción que ocurre.
Estas medidas se suman a las protecciones ya existentes, como el filtro de contenido PG-13 que limita las respuestas de los bots a temas apropiados para adolescentes.
Foto: Meta.