
Trabajar para Google, Facebook o Microsoft parece algo fantástico. Y sin embargo, existe un rubro de empleados de esas empresas que rara vez duran más de algunos meses (muchos renuncian el mismo día que comienzan), reciben bajos salarios y están vinculados a las empresas por medio de contratos frágiles.
Los moderadores de contenido son, según una investigación del diario Wall Street Journal (WSJ) el peor trabajo de Silicon Valley. Consiste en mirar incesantemente materiales dudosos para determinar si se pueden publicar (niños que juegan en un parque) o no (abuso de niños). Al final de una jornada de racismo, antisemitismo, violencia física, violencia sexual, zoofilia, asesinato de animales, pornografía, maltrato a menores, tortura, suicidio y hasta homicidio, muchos aceptan la terapia psicológica que ofrecen las empresas; a pesar de eso, se procesan actualmente al menos dos juicios de ex moderadores de contenido de Microsoft que aducen estrés postraumático.
PUBLICIDAD

Cada día se sube a YouTube el equivalente a 65 años de videos, y Facebook —que en 2017 dejó pasar varios videos violentos, entre ellos, un homicidio en Cleveland y varios suicidios— recibe más de un millón de denuncias de sus usuarios sobre contenidos potencialmente objetables.
"Los empleados a veces renuncian el primer día, o el segundo", detalló WSJ. "Algunos salen para almorzar y no regresan. Otros siguen afectados por el trabajo —y lo que consideraron una falta de apoyo emocional y de valoración— mucho después de haber renunciado".
PUBLICIDAD

Un ex moderador de contenidos de Google dijo a la autora del artículo, Lauren Weber, que se volvió insensible a la pornografía luego de revisar esa clase de materiales todo el día. Imágenes de víctimas de guerra evisceradas; niños-soldados en el acto de matar; gatos torturados en el microondas: esas son algunas de las posibilidades rutinarias del trabajo. Pero lo que más afecta a este grupo de trabajadores son las imágenes de abuso sexual de niños. "Lo peor es saber que algunas de esas cosas les suceden a personas verdaderas", dijo el ex revisor.
Cuando tanto se delega en la inteligencia artificial, ¿por qué no existen robots capaces de reemplazar a las personas en este campo? Los hay, pero todavía faltan años hasta que puedan realmente discriminar entre los contenidos insalubres y los demás, según dijo Eric Gilbert, informático de la Universidad de Michigan, a WSJ.
PUBLICIDAD

Como la moderación de contenidos se volvió un trabajo indeseado, las grandes empresas la delegan en subcontratistas: otras empresas les proveen de los empleados que, si bien trabajarán en las magníficas instalaciones de Silicon Valley —o no: también se contrata en la India, o en Filipinas—, no serán empleados de Facebook, Google o Microsoft.
Sarah Katz, una moderadora de contenidos de 27 años, revisaba 8.000 publicaciones diarias en Facebook hasta que renunció en octubre de 2016. Comía en la cafetería de Menlo Park, pero su empleador era una empresa a la que contrataba otra empresa que brindaba personal a la empresa que fundó Mark Zuckerberg.
PUBLICIDAD

Ella ganaba USD 24 por hora; en general, en el área de la Bahía de San Francisco el salario de un moderador de contenidos oscila entre USD 13 y USD 28 por hora, lo cual difícilmente permite pagar una renta de 1.800 dólares por un apartamento de sala y dormitorio, para lo cual hay que probar ingresos de, por ejemplo, jornadas de 12 horas a USD 13.
Más allá de su sentido del humor negro, no contaba con otras herramientas —no recibió capacitación, por ejemplo— sobre cómo manejar la aflicción que causaba lo que hacía. La compañía que la red social utiliza para ofrecer hasta tres sesiones de terapia individual por año, PRO Unlimited, es también la empleadora directa de muchos de los moderadores a los que debe atender.
PUBLICIDAD

"Varios ex moderadores de contenidos de Facebook dicen que solo tenían unos pocos segundos para decidir si algo violaba los términos de servicio de la empresa", según WSJ. Aunque según la compañía no hay un tiempo específico determinado, en la práctica hay metas de productividad que lo imponen. También se jerarquizan las categorías de contenidos —el posible terrorismo, por ejemplo, se revisa primero—, por lo cual las demás van a una lista.

PUBLICIDAD
Aunque silencioso porque hace el trabajo sucio, el ejército de moderadores de contenido es numeroso. Facebook tenía 4.500 antes de los episodios del homicidio y los suicidios, cuando se comprometió a contratar 3.000 más. Susan Wojcicki, la CEO de YouTube, anunció que Google —parte de Alphabet, la empresa paraguas— ampliaría su equipo de revisión a más de 10.000, luego de que se hicieran oír quejas sobre videos que ponían en peligro a los niños.
LEA MÁS:
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
EN VIVO | Muerte de Germán Vargas Lleras sacude a Colombia: reacciones y detalles de las honras fúnebres en Bogotá
El exvicepresidente tuvo una larga trayectoria política. Su vida estuvo marcada por atentados y por la lucha contra el cáncer

Hantavirus, última hora del crucero MV Hondius, llegada a Canarias y reacciones, en directo | La muestra de la mujer ingresada en Alicante ya se está analizando
La OMS ha elevado a seis los casos confirmados, mientras dos continúan siendo sospechosos
Super Once: estos son los resultados del Sorteo 1
Juegos Once compartió la combinación ganadora del sorteo 1 de las 10:00 horas. Tenemos los números ganadores aquí mismo.

Isa Pantoja envía una petición a su madre tras revelar que la tonadillera se puso en contacto con ella: “No me abandones otra vez”
La pareja de Asraf Beno se ha sincerado en ‘¡De Viernes!’ y ha asegurado que ha abierto la vereda de la reconciliación con Isabel Pantoja tras seis años sin hablarse, aunque la distancia con Kiko Rivera sigue siendo palpable

Cómo se vive en Tenerife la próxima llegada del crucero MV Hondius en el que se produjo el brote de hantavirus: “Vuelve esa sensación de marzo de 2020”
Las contradicciones sobre el operativo, el recuerdo del covid y la falta de información sobre el hantavirus alimentan el debate en la isla

