OpenAI y Anthropic mejoran la seguridad para adolescentes

OpenAI y Anthropic están implementando nuevas medidas para proteger a los adolescentes en sus plataformas de inteligencia artificial. OpenAI actualizó las reglas de ChatGPT para interactuar mejor con usuarios entre 13 y 17 años, mientras que Anthropic está desarrollando formas más efectivas de identificar y bloquear usuarios menores de 18 años en Claude.

OpenAI introdujo cuatro principios clave para mejorar las interacciones de ChatGPT con adolescentes. Estos incluyen priorizar su seguridad, promover apoyo del mundo real como relaciones fuera de línea y tratar a los jóvenes con respeto sin sermonearlos. Por otro lado, Anthropic se enfoca en detectar señales sutiles en las conversaciones que puedan revelar si un usuario es menor de edad. Además, ambas compañías están trabajando en modelos predictivos para estimar la edad de los usuarios y aplicar salvaguardias automáticas cuando sea necesario.

Estas actualizaciones son importantes porque reflejan una mayor presión de los legisladores sobre las empresas de IA para proteger la salud mental de los jóvenes. Un caso legal reciente relacionado con ChatGPT subraya la necesidad de estas mejoras. Las nuevas políticas buscan reducir riesgos en conversaciones sensibles y ofrecer alternativas seguras, guiando a los adolescentes hacia recursos confiables cuando enfrenten problemas graves.

TE PUEDE INTERESAR: Facebook prueba límite para publicar enlaces

Qué debes saber

  • OpenAI ajustó las normas de ChatGPT para proteger mejor a adolescentes.
  • Anthropic trabaja en sistemas avanzados para detectar usuarios menores de 18 años.
  • Ambas empresas utilizan modelos predictivos para evaluar la edad de los usuarios.
  • Las actualizaciones responden a preocupaciones legales y regulatorias.
  • Los cambios buscan fomentar el bienestar emocional de los jóvenes.

Especificaciones técnicas

  • ChatGPT ahora incluye nuevos principios específicos para usuarios adolescentes.
  • Anthropic desarrolla métodos basados en patrones conversacionales para identificar menores.
  • El modelo Haiku 4.5 de Anthropic corrige comportamientos inapropiados un 37% de las veces.

Contenido generado con IA y editado por el equipo editorial.

Foto: Copilot AI.

Deja una respuesta