OpenAI anunció una serie de medidas para reforzar la seguridad de los menores que interactúan con ChatGPT, incluyendo controles parentales, un sistema automatizado de predicción de edad y, en algunos casos, la solicitud de identificación oficial. Estas acciones responden a preocupaciones crecientes sobre el impacto de los chatbots de inteligencia artificial en usuarios vulnerables, especialmente adolescentes.
Según una publicación reciente del director ejecutivo de OpenAI, Sam Altman, la compañía planea introducir estas funciones antes de que finalice septiembre. El sistema de predicción de edad utilizará patrones de uso para estimar si un usuario es menor de 18 años.
En caso de duda, se aplicará automáticamente una experiencia restringida, diseñada para menores. “Si hay dudas, jugaremos a lo seguro y optaremos por la experiencia sub-18”, afirmó Altman. En algunos países, OpenAI podría solicitar una identificación para confirmar la edad del usuario, reconociendo que esto implica un compromiso de privacidad para los adultos.
TE PUEDE INTERESAR: Oakley Meta Vanguard: Gafas inteligentes para atletas
Límites de contenido y protección infantil en ChatGPT
- Altman también detalló cómo se adaptará el comportamiento del modelo según la edad del usuario.
- Por ejemplo, las conversaciones con contenido coqueto o referencias al suicidio estarán completamente bloqueadas para menores. En el caso de usuarios adultos, se permitirán ciertos temas bajo contexto creativo, como la escritura de ficción.
- ‘Tratar a nuestros usuarios adultos como adultos’ es el principio que guía estas decisiones, explicó Altman, siempre dentro de límites que eviten causar daño o vulnerar la libertad de otros.
- En situaciones críticas, como cuando un menor expresa pensamientos suicidas, OpenAI intentará contactar a los padres o, si no es posible, a las autoridades locales en caso de riesgo inminente.
- Según Bloomberg, esta política surge tras una demanda de alto perfil presentada por la familia de Adam Raine, un adolescente que presuntamente recibió instrucciones detalladas sobre métodos de suicidio a través de ChatGPT. El caso ha intensificado el debate sobre la responsabilidad de las empresas de IA en la protección de menores.
- OpenAI no ha especificado cómo funcionará técnicamente el sistema de predicción de edad ni qué datos se utilizarán para estimarla, lo que ha generado inquietudes sobre privacidad y transparencia. Sin embargo, Altman aseguró que el objetivo es ofrecer una experiencia segura y personalizada, sin comprometer la libertad de los usuarios adultos.
Foto: Solen Feyissa en Unsplash.