
Trabajar para Google, Facebook o Microsoft parece algo fantástico. Y sin embargo, existe un rubro de empleados de esas empresas que rara vez duran más de algunos meses (muchos renuncian el mismo día que comienzan), reciben bajos salarios y están vinculados a las empresas por medio de contratos frágiles.
Los moderadores de contenido son, según una investigación del diario Wall Street Journal (WSJ) el peor trabajo de Silicon Valley. Consiste en mirar incesantemente materiales dudosos para determinar si se pueden publicar (niños que juegan en un parque) o no (abuso de niños). Al final de una jornada de racismo, antisemitismo, violencia física, violencia sexual, zoofilia, asesinato de animales, pornografía, maltrato a menores, tortura, suicidio y hasta homicidio, muchos aceptan la terapia psicológica que ofrecen las empresas; a pesar de eso, se procesan actualmente al menos dos juicios de ex moderadores de contenido de Microsoft que aducen estrés postraumático.

Cada día se sube a YouTube el equivalente a 65 años de videos, y Facebook —que en 2017 dejó pasar varios videos violentos, entre ellos, un homicidio en Cleveland y varios suicidios— recibe más de un millón de denuncias de sus usuarios sobre contenidos potencialmente objetables.
"Los empleados a veces renuncian el primer día, o el segundo", detalló WSJ. "Algunos salen para almorzar y no regresan. Otros siguen afectados por el trabajo —y lo que consideraron una falta de apoyo emocional y de valoración— mucho después de haber renunciado".

Un ex moderador de contenidos de Google dijo a la autora del artículo, Lauren Weber, que se volvió insensible a la pornografía luego de revisar esa clase de materiales todo el día. Imágenes de víctimas de guerra evisceradas; niños-soldados en el acto de matar; gatos torturados en el microondas: esas son algunas de las posibilidades rutinarias del trabajo. Pero lo que más afecta a este grupo de trabajadores son las imágenes de abuso sexual de niños. "Lo peor es saber que algunas de esas cosas les suceden a personas verdaderas", dijo el ex revisor.
Cuando tanto se delega en la inteligencia artificial, ¿por qué no existen robots capaces de reemplazar a las personas en este campo? Los hay, pero todavía faltan años hasta que puedan realmente discriminar entre los contenidos insalubres y los demás, según dijo Eric Gilbert, informático de la Universidad de Michigan, a WSJ.

Como la moderación de contenidos se volvió un trabajo indeseado, las grandes empresas la delegan en subcontratistas: otras empresas les proveen de los empleados que, si bien trabajarán en las magníficas instalaciones de Silicon Valley —o no: también se contrata en la India, o en Filipinas—, no serán empleados de Facebook, Google o Microsoft.
Sarah Katz, una moderadora de contenidos de 27 años, revisaba 8.000 publicaciones diarias en Facebook hasta que renunció en octubre de 2016. Comía en la cafetería de Menlo Park, pero su empleador era una empresa a la que contrataba otra empresa que brindaba personal a la empresa que fundó Mark Zuckerberg.

Ella ganaba USD 24 por hora; en general, en el área de la Bahía de San Francisco el salario de un moderador de contenidos oscila entre USD 13 y USD 28 por hora, lo cual difícilmente permite pagar una renta de 1.800 dólares por un apartamento de sala y dormitorio, para lo cual hay que probar ingresos de, por ejemplo, jornadas de 12 horas a USD 13.
Más allá de su sentido del humor negro, no contaba con otras herramientas —no recibió capacitación, por ejemplo— sobre cómo manejar la aflicción que causaba lo que hacía. La compañía que la red social utiliza para ofrecer hasta tres sesiones de terapia individual por año, PRO Unlimited, es también la empleadora directa de muchos de los moderadores a los que debe atender.

"Varios ex moderadores de contenidos de Facebook dicen que solo tenían unos pocos segundos para decidir si algo violaba los términos de servicio de la empresa", según WSJ. Aunque según la compañía no hay un tiempo específico determinado, en la práctica hay metas de productividad que lo imponen. También se jerarquizan las categorías de contenidos —el posible terrorismo, por ejemplo, se revisa primero—, por lo cual las demás van a una lista.

Aunque silencioso porque hace el trabajo sucio, el ejército de moderadores de contenido es numeroso. Facebook tenía 4.500 antes de los episodios del homicidio y los suicidios, cuando se comprometió a contratar 3.000 más. Susan Wojcicki, la CEO de YouTube, anunció que Google —parte de Alphabet, la empresa paraguas— ampliaría su equipo de revisión a más de 10.000, luego de que se hicieran oír quejas sobre videos que ponían en peligro a los niños.
LEA MÁS:
Últimas Noticias
Padres se encadenan y entierran vivos para exigir reconstrucción de colegio en Iquitos: “Es una necesidad”
La manifestación se inició desde la madrugada e incluyó el bloqueo de la carretera Iquitos–Nauta, como medida de presión para exigir una respuesta inmediata de las autoridades regionales

Monreal afirma que pese a buen trabajo, suplente de Sergio Mayer deberá ceder el paso al actor
La reincorporación al grupo legislativo fue solicitada por escrito por el legislador el viernes

Israel bombardeó posiciones de Hezbollah en Líbano tras un ataque masivo con cohetes y drones contra el norte del país
El Ejército israelí dijo que la operación busca frenar nuevos lanzamientos de proyectiles y reducir la capacidad operativa de la organización terrorista
Los escombros de Bogotá: la apuesta para enfrentar la emergencia de residuos de construcción
En diálogo con Infobae Colombia, la gerente del Relleno Sanitario Doña Juana habló sobre el proceso que se utiliza para recuperar la mayor cantidad de residuos

Marcela Mistral protagoniza nuevo pleito con la mamá de Poncho de Nigris tras vencer a Karely Ruiz en Ring Royale 2026
Tras llevarse el cinturón en la Arena Monterrey, la victoria avivó el tenso enfrentamiento con Doña Lety



