Roblox usa un nuevo sistema multimodal para detectar las infracciones en escenas completas de los juegos

La plataforma implementó una tecnología avanzada que analiza de manera simultánea avatares, textos y objetos 3D, permitiendo identificar comportamientos que incumplen sus normas, eliminar miles de servidores problemáticos cada día y ofrecer herramientas para monitoreo a los desarrolladores

Guardar
Imagen 55T4GRA5CZEHRNCRTC3UQECYPA

La empresa ha comunicado que, desde la puesta en marcha de su sistema multimodal, la clausura de unas 5.000 instancias por día es una de las principales consecuencias de la nueva tecnología. Cada instancia corresponde a un servidor donde los usuarios participan en tiempo real dentro del universo de Roblox. Esto pretende asegurar que las normas se cumplan en todos los espacios, reforzando la gestión del contenido en la plataforma, según reportó la propia compañía en su blog corporativo.

De acuerdo con información publicada por Roblox, este reciente avance responde a limitaciones observadas en los sistemas de moderación de inteligencia artificial anteriores, los cuales solo analizaban objetos por separado y perdían de vista el contexto general de una escena. El medio detalló que, con el nuevo enfoque, la plataforma realiza análisis simultáneos de avatares, textos y objetos tridimensionales dentro de cada escena, proporcionando así una visión completa y posibilitando la detección de conductas que, si bien son permitidas al examinarse de modo aislado, pueden infringir las reglas al combinarse.

Roblox también indicó que este sistema actúa en tiempo real, evaluando hasta el 100 % del tiempo de juego. La tecnología se orienta a supervisar escenarios completos, lo que permite actuar no solo sobre juegos completos sino también sobre instancias individuales donde se identifiquen infracciones. Según publicó la empresa en su blog, además de eliminar instancias con infracciones, cada acción queda registrada y es accesible a los creadores mediante un panel dedicado.

El comunicado compartido en el blog de Roblox señala que el nuevo panel permite a los desarrolladores rastrear y visualizar las instancias que han sido cerradas a causa de comportamientos indebidos en sus juegos. Esto fortalece la colaboración entre la plataforma y los creadores, dotándolos de herramientas para comprobar la moderación aplicada sobre sus contenidos y recabar información relevante para futuras acciones preventivas.

Roblox argumentó que la finalidad del sistema multimodal es compensar los vacíos de la moderación tradicional basada en inteligencia artificial, en la que el análisis fragmentado suele dar lugar a que combinaciones específicas de elementos pasen inadvertidas ante las normas comunitarias. Ahora, según consignó el blog oficial, la intervención sucede sobre escenas integrales, abordando el comportamiento del usuario en su totalidad y minimizando la posibilidad de omisiones por falta de contexto.

El comunicado también aclara que la plataforma mantiene su intención de ofrecer y mantener espacios virtuales seguros para sus usuarios. Con la integración de este sistema, Roblox busca reducir la exposición a contenidos nocivos y apoyar a los desarrolladores en una gestión más eficaz de sus comunidades virtuales, conforme a los estándares establecidos en las Normas de la Comunidad de la plataforma.

Gracias a esta tecnología, Roblox afirma que puede reaccionar de manera más efectiva y veloz ante situaciones que antes requerían revisiones manuales o eran detectadas posteriormente, afectando la experiencia de los participantes. El monitoreo constante, enfatiza el blog corporativo de Roblox, aspira a incrementar la confianza de usuarios y desarrolladores en los mecanismos de seguridad y control de la plataforma.

El despliegue del sistema multimodal representa un paso relevante en el intento de Roblox por actualizar sus capacidades de moderación digital. El medio comunicó que la empresa seguirá publicando información sobre la evolución del sistema y recopilando observaciones de los desarrolladores y la comunidad para ajustar y mejorar el proceso de moderación en el entorno virtual.