Roblox usa IA para moderar contenido dañino en tiempo real

Roblox, la plataforma de juegos en línea, implementó un nuevo sistema de moderación basado en inteligencia artificial (IA) que escanea y elimina contenido inapropiado en tiempo real. Este sistema busca mejorar la seguridad de los usuarios, especialmente de los más jóvenes.

A diferencia de las herramientas anteriores, que evaluaban objetos individuales, el nuevo sistema multimodal analiza escenas completas, incluyendo avatares, texto y objetos 3D, para detectar violaciones a las normas comunitarias. Por ejemplo, si un usuario dibuja un símbolo ofensivo con una herramienta de dibujo libre, el sistema puede identificarlo en contexto y tomar medidas.

Cuando se detectan violaciones repetidas, el sistema cierra solo el servidor afectado, no todo el juego. Desde su lanzamiento, alrededor de 5.000 servidores se han cerrado diariamente. Roblox también está trabajando en herramientas para identificar y eliminar a los malos actores individuales sin afectar la experiencia de otros jugadores.

TE PUEDE INTERESAR: ‘Stranger Than Heaven’: el juego abarcará cinco épocas

Qué debes saber

  • El nuevo sistema de moderación de Roblox utiliza IA para escanear escenas completas en tiempo real.
  • Identifica y elimina contenido inapropiado, como símbolos ofensivos, en el contexto general del juego.
  • Los servidores problemáticos se cierran individualmente, no todo el juego.
  • Se están desarrollando herramientas para identificar y eliminar a los malos actores individuales.

Especificaciones técnicas

  • Tecnología: Inteligencia Artificial (IA) multimodal.
  • Funcionalidad: Escaneo en tiempo real de escenas completas, incluyendo avatares, texto y objetos 3D.
  • Acciones: Cierre de servidores individuales y eliminación de malos actores.
  • Objetivo: Monitorear el 100% del tiempo de juego.

Contenido generado con IA y editado por el equipo editorial.

Foto: Roblox.

Deja una respuesta