
Xbox ha intensificado su enfoque en la moderación mediante el uso de sistemas automatizados y herramientas de inteligencia artificial para mejorar el proceso de identificación y revisión de contenido inadecuado.
De hecho, durante el último informe de transparencia de la marca de videojuegos creada y propiedad de Microsoft, se destacó cómo la moderación comunitaria se vuelve cada vez más compleja a medida que la plataforma alcanza a millones de usuarios diarios.
Sin embargo, el reporte que cubre la primera mitad del año 2023, también revela que el 87% de las acciones de moderación se activaron automáticamente, gracias a estas innovadoras tecnologías que ayudan a marcar automáticamente el contenido para su revisión por parte de moderadores humanos, sin necesidad de que los jugadores informen sobre problemas específicos.
La compañía fundada por Bill Gates detrás de Xbox, reconoce la importancia de mantener un entorno de juego seguro y divertido para los usuarios, mientras que ha compartido su compromiso de mantenerse al día con los cambios en la industria que puedan afectar negativamente la experiencia de los jugadores.
Nuevas herramientas

Dos herramientas clave mencionadas en el informe son parte de esta iniciativa que utiliza la IA como aliada en la lucha contra el contenido inadecuado en Xbox.
La primera es Community Sift, una función de moderación desarrollada por TwoHat, una filial de Microsoft, la cual ha procesado más de 36 millones de informes de jugadores en 22 idiomas, lo que ha permitido evaluar cuáles requieren la atención de un moderador humano.
Pero a pesar de la implementación de este sistema de filtrado, el número de acciones de cumplimiento “reactivas” (aquellas en respuesta a informes de jugadores) no ha aumentado significativamente. Aunque sí se ha observado una disminución en el número total de informes de jugadores, posiblemente debido a un aumento en las acciones “proactivas” implementadas por Microsoft antes de que los jugadores informen un problema.
Para fortalecer estas acciones proactivas, Microsoft utiliza el modelo de inteligencia artificial Turing Bletchley v3, que escanea automáticamente todas las imágenes generadas por los usuarios en la plataforma Xbox.
Este sistema analiza las imágenes y las compara con los estándares comunitarios de la compañía, pasando cualquier contenido sospechoso a una cola para moderación humana. Y como resultado, en la primera mitad del año se bloquearon 4,7 millones de imágenes, lo que representa un aumento del 39% en comparación con los seis meses anteriores.
Campaña contra las cuentas “no auténticas”

Xbox también tiene un frente abierto contra las cuentas “no auténticas”, que incluyen tramposos, spammers y perfiles que socavan la experiencia de juego. Microsoft ha eliminado 16,3 millones de estas cuentas en la primera mitad de 2023, un aumento del 276% con respecto al mismo período del año anterior.
La mayoría de estas cuentas se eliminan antes de que los jugadores tengan la oportunidad de denunciarlas, lo que refuerza la seguridad y la calidad de la plataforma Xbox.
El informe también revela que la ampliación de la definición de “contenido vulgar” ha llevado a un aumento en las acciones coercitivas contra este tipo de contenido. A pesar de ello, la lucha contra estos contenidos sigue siendo superada en número por otras violaciones, como las malas palabras, el acoso, el contenido sexual para adultos y el spam.
En cuanto a las revisiones de casos de prohibiciones o suspensiones, solo alrededor del 4,1% de más de 280,000 casos se restablecieron en los primeros seis meses de 2023. Esto representa un ligero descenso con respecto al año anterior.
El informe de transparencia resalta la importancia de las acciones proactivas en la moderación de contenidos. Durante los primeros seis meses de 2023, se llevaron a cabo 17,09 millones de acciones de forma proactiva, representando el 87% del total de acciones realizadas en ese período.
Además, más de 4,7 millones de contenidos tóxicos fueron bloqueados antes de llegar a los jugadores, lo que marcó un aumento del 39% en comparación con el período anterior.
La compañía también ha implementado medidas proactivas contra el acoso e intimidación, con un aumento del 95 por ciento en las acciones realizadas en este ámbito, totalizando 84,000 acciones. Y una novedad destacada en la materia es la introducción de la función de informes de voz, que permiten a los jugadores capturar y denunciar el acoso por voz en el juego.
Últimas Noticias
Si tu Gmail está saturado con miles de mensajes, así puedes limpiar la bandeja de entrada en minutos
El correo de Google incorpora herramientas poco conocidas que permiten reorganizar y filtrar los mensajes de forma automática sin necesidad de apps externas

El plan más económico de Starlink dejó de estar disponible en Estados Unidos: costaba 40 dólares
La opción de conectividad residencial de bajo costo ya no está disponible para nuevos clientes y deja a quienes buscaban internet satelital asequible sin alternativas similares

Smartwatch o anillos inteligentes: cuál es la mejor opción para monitorear la salud
Cada dispositivo tiene diferentes cualidades para medir el sueño o el rendimiento deportivo

Jensen Huang alertó: sin más energía, el auge de la inteligencia artificial se verá frenado
La disponibilidad de electricidad, incentivos y costos competitivos determinarán qué países lideran la industria de la IA, según el análisis del director ejecutivo de Nvidia
Nueva modalidad de estafa en WhatsApp: decenas de llamadas perdidas, spam y robo de chats
Los ciberdelincuentes combinan mensajes urgentes y voces automatizadas para persuadir a las víctimas


