
Xbox ha intensificado su enfoque en la moderación mediante el uso de sistemas automatizados y herramientas de inteligencia artificial para mejorar el proceso de identificación y revisión de contenido inadecuado.
De hecho, durante el último informe de transparencia de la marca de videojuegos creada y propiedad de Microsoft, se destacó cómo la moderación comunitaria se vuelve cada vez más compleja a medida que la plataforma alcanza a millones de usuarios diarios.
PUBLICIDAD
Sin embargo, el reporte que cubre la primera mitad del año 2023, también revela que el 87% de las acciones de moderación se activaron automáticamente, gracias a estas innovadoras tecnologías que ayudan a marcar automáticamente el contenido para su revisión por parte de moderadores humanos, sin necesidad de que los jugadores informen sobre problemas específicos.
La compañía fundada por Bill Gates detrás de Xbox, reconoce la importancia de mantener un entorno de juego seguro y divertido para los usuarios, mientras que ha compartido su compromiso de mantenerse al día con los cambios en la industria que puedan afectar negativamente la experiencia de los jugadores.
PUBLICIDAD
Nuevas herramientas

Dos herramientas clave mencionadas en el informe son parte de esta iniciativa que utiliza la IA como aliada en la lucha contra el contenido inadecuado en Xbox.
La primera es Community Sift, una función de moderación desarrollada por TwoHat, una filial de Microsoft, la cual ha procesado más de 36 millones de informes de jugadores en 22 idiomas, lo que ha permitido evaluar cuáles requieren la atención de un moderador humano.
PUBLICIDAD
Pero a pesar de la implementación de este sistema de filtrado, el número de acciones de cumplimiento “reactivas” (aquellas en respuesta a informes de jugadores) no ha aumentado significativamente. Aunque sí se ha observado una disminución en el número total de informes de jugadores, posiblemente debido a un aumento en las acciones “proactivas” implementadas por Microsoft antes de que los jugadores informen un problema.
Para fortalecer estas acciones proactivas, Microsoft utiliza el modelo de inteligencia artificial Turing Bletchley v3, que escanea automáticamente todas las imágenes generadas por los usuarios en la plataforma Xbox.
PUBLICIDAD
Este sistema analiza las imágenes y las compara con los estándares comunitarios de la compañía, pasando cualquier contenido sospechoso a una cola para moderación humana. Y como resultado, en la primera mitad del año se bloquearon 4,7 millones de imágenes, lo que representa un aumento del 39% en comparación con los seis meses anteriores.
Campaña contra las cuentas “no auténticas”

Xbox también tiene un frente abierto contra las cuentas “no auténticas”, que incluyen tramposos, spammers y perfiles que socavan la experiencia de juego. Microsoft ha eliminado 16,3 millones de estas cuentas en la primera mitad de 2023, un aumento del 276% con respecto al mismo período del año anterior.
PUBLICIDAD
La mayoría de estas cuentas se eliminan antes de que los jugadores tengan la oportunidad de denunciarlas, lo que refuerza la seguridad y la calidad de la plataforma Xbox.
El informe también revela que la ampliación de la definición de “contenido vulgar” ha llevado a un aumento en las acciones coercitivas contra este tipo de contenido. A pesar de ello, la lucha contra estos contenidos sigue siendo superada en número por otras violaciones, como las malas palabras, el acoso, el contenido sexual para adultos y el spam.
PUBLICIDAD
En cuanto a las revisiones de casos de prohibiciones o suspensiones, solo alrededor del 4,1% de más de 280,000 casos se restablecieron en los primeros seis meses de 2023. Esto representa un ligero descenso con respecto al año anterior.
El informe de transparencia resalta la importancia de las acciones proactivas en la moderación de contenidos. Durante los primeros seis meses de 2023, se llevaron a cabo 17,09 millones de acciones de forma proactiva, representando el 87% del total de acciones realizadas en ese período.
PUBLICIDAD
Además, más de 4,7 millones de contenidos tóxicos fueron bloqueados antes de llegar a los jugadores, lo que marcó un aumento del 39% en comparación con el período anterior.
La compañía también ha implementado medidas proactivas contra el acoso e intimidación, con un aumento del 95 por ciento en las acciones realizadas en este ámbito, totalizando 84,000 acciones. Y una novedad destacada en la materia es la introducción de la función de informes de voz, que permiten a los jugadores capturar y denunciar el acoso por voz en el juego.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Así se verían Las Guerreras K-pop si estuvieran dentro del mundo de Pokémon
La IA también cree que Zeraora, Ceruledge y Meloetta serían los Pokémon principales de estos personajes de Netflix

La frase que se le escapó al CEO de Nvidia y que contradice a toda la industria
Nvidia vende infraestructura, Microsoft vende copilotos amables y Anthropic suavizó su pronóstico de baño de sangre laboral, pero frente a 5.800 graduados de Carnegie Mellon, Jensen Huang dijo lo que ningún otro CEO sostiene en público

Cómo saber si mi pareja espía mi WhatsApp u otras aplicaciones en el teléfono: señales y qué hacer
Revisa el consumo de datos, detecta actividad extraña y sigue los consejos para limpiar y asegurar tu teléfono, evitando intrusiones y protegiendo tu intimidad

Tu iPhone no será el mismo con iOS 27: Siri con Gemini, Liquid Glass mejorado y más novedades que llegarán
La nueva versión permitirá que Siri utilice diferentes voces dependiendo del modelo de IA seleccionado por el usuario
Así puedes enviar el historial de mensajes recientes a quienes se suman a un chat grupal en WhatsApp
Administradores y miembros pueden compartir hasta 100 mensajes previos, ayudando a los nuevos participantes a ponerse al día y participar activamente desde el primer momento



