FOLOU

Roblox usa IA para moderar contenido dañino en tiempo real

Roblox, la plataforma de juegos en línea, implementó un nuevo sistema de moderación basado en inteligencia artificial (IA) que escanea y elimina contenido inapropiado en tiempo real. Este sistema busca mejorar la seguridad de los usuarios, especialmente de los más jóvenes.

A diferencia de las herramientas anteriores, que evaluaban objetos individuales, el nuevo sistema multimodal analiza escenas completas, incluyendo avatares, texto y objetos 3D, para detectar violaciones a las normas comunitarias. Por ejemplo, si un usuario dibuja un símbolo ofensivo con una herramienta de dibujo libre, el sistema puede identificarlo en contexto y tomar medidas.

Cuando se detectan violaciones repetidas, el sistema cierra solo el servidor afectado, no todo el juego. Desde su lanzamiento, alrededor de 5.000 servidores se han cerrado diariamente. Roblox también está trabajando en herramientas para identificar y eliminar a los malos actores individuales sin afectar la experiencia de otros jugadores.

TE PUEDE INTERESAR: ‘Stranger Than Heaven’: el juego abarcará cinco épocas

Qué debes saber

Especificaciones técnicas

Contenido generado con IA y editado por el equipo editorial.

Foto: Roblox.

Salir de la versión móvil