Moderación de contenido en redes sociales: el caso de Meta y su impacto futuro

A partir de problemáticas sociales ocurridas en distintos países, la empresa de Mark Zuckerberg se posiciona como una de las principales responsables de los discursos de odio por su falta de moderación

Guardar

En los últimos años, el rol de los conflictos armados y las crisis humanitarias atravesó las grandes plataformas tecnológicas, particularmente en términos de moderación. Luego de muchos debates respecto a estas iniciativas en las plataformas de redes sociales, surgieron casos que pondrían de manifiesto la importancia de la moderación.

Meta, la empresa detrás de Facebook e Instagram, enfrenta crecientes cuestionamientos por su presunta inacción ante la propagación de discursos de odio en Etiopía, en medio del conflicto en la región de Tigré. A partir de denuncias, demandas judiciales y testimonios de víctimas, el caso se convirtió en un emblema global sobre los límites éticos, políticos y legales de la moderación de contenidos.

Meta enfrenta crecientes cuestionamientos por
Meta enfrenta crecientes cuestionamientos por su presunta inacción ante la propagación de discursos de odio en Etiopía (Fotos: archivo DEF)

Cómo la falta de moderación en Meta podría haber provocado desastres

Durante los años más críticos del conflicto, los algoritmos de Facebook habrían potenciado publicaciones dirigidas contra la comunidad tigriana. Pese a las advertencias de expertos —y a los antecedentes trágicos, como en el caso de Birmania—, Meta no tomó medidas efectivas. Amnistía Internacional fue tajante: la empresa no cumplió con su responsabilidad de mitigar el daño, a pesar de conocer el riesgo.

Ante este escenario, el Dr. Iván Vladimir Meza Ruiz, investigador del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM, y especialista en inteligencia artificial, advierte que “la moderación de contenido es una herramienta indispensable para garantizar una experiencia digital segura y reducir el daño que puede generar la exposición a contenido violento, ilegal o desinformativo”.

Un caso paradigmático es el de Abrham Meareg, quien acusa a Meta de haber contribuido a la muerte de su padre, tras amenazas difundidas a través de Facebook. En su denuncia, presentada en Kenia, sostiene que los algoritmos amplificaron estos mensajes, y así elevaron el riesgo real.

Abrham Meareg acusa a Meta
Abrham Meareg acusa a Meta de haber contribuido a la muerte de su padre tras amenazas sufridas

En abril de 2025, la Corte Suprema de ese país resolvió que Meta puede ser juzgada allí por su presunta responsabilidad. Es un fallo histórico: sienta precedente para que las grandes empresas tecnológicas respondan legalmente en países donde ni siquiera están registradas.

Un informe del Wall Street Journal reveló que los chatbots de inteligencia artificial de Meta en Facebook e Instagram mantuvieron conversaciones sexualmente explícitas con usuarios, incluidos menores, utilizando voces y personalidades de celebridades y personajes de Disney. Estos bots simularon escenarios sexuales ilegales, incluso reconociendo su ilegalidad. Meta recibió críticas por no implementar salvaguardas efectivas para prevenir este tipo de interacciones.

Cada vez se multiplican los
Cada vez se multiplican los discursos de odio en redes sociales, ante las nuevas políticas de relajar la moderación de contenidos

Organizaciones como la Liga Antidifamación (ADL) y la red de inversores judíos JLens están instando a los accionistas de Meta a apoyar propuestas que exijan mayor transparencia en la gestión del discurso de odio en las plataformas. Estas propuestas buscan que Meta publique informes detallados sobre cómo identifica y modera contenido antisemita, anti-LGBTQ+ y contra personas con discapacidad.

Además, la Comisión Europea inició investigaciones formales sobre los mecanismos de moderación de contenido de Meta, exigiendo informes detallados sobre las medidas implementadas para evitar la propagación de información falsa, especialmente en relación con el conflicto en Israel y los procesos electorales.

Meta: impacto y consecuencias de la falta de moderación

Además, el debate sobre la moderación cobró nueva relevancia cuando Sama —el principal contratista de Meta para moderación en África oriental— anunció en 2023 que dejaba de ofrecer ese servicio, aludiendo al “clima económico”. Esto generó preocupación sobre la capacidad de Meta para gestionar contenidos nocivos en contextos de alta fragilidad social.

Más de 100 moderadores demandaron
Más de 100 moderadores demandaron a la empresa en Kenia por secuelas psicológicas graves

Según Meza Ruiz, el cambio podría estar impulsado por razones políticas, más que técnicas. “Todo apunta a una alineación con ciertas corrientes que rechazan la intervención de las plataformas en nombre de la libertad de expresión, incluso si eso significa permitir discursos de odio”, sostiene. Y advierte: “Lo peligroso no es solo el cambio, sino la falta de transparencia”.

Más de 100 exmoderadores en Kenia también demandaron a Meta y Sama por secuelas psicológicas graves, luego de haber estado expuestos constantemente a violencia gráfica, asesinatos, abusos sexuales y otras imágenes perturbadoras.

En Kenia se podría haber
En Kenia se podría haber mitigado el daño si se hubieran tomado decisiones más responsables (Fotos: archivo DEF)

Denuncian que trabajaban bajo presión extrema, con métricas inhumanas de rendimiento y sin pausas suficientes, lo que les provocó depresión, ansiedad y trastorno de estrés postraumático.

Consultado sobre si situaciones como las ocurridas en Kenia y Etiopía pudieron haberse evitado, el investigador Meza Ruiz reconoce que “es difícil prevenir todo, especialmente en plataformas globales donde convergen múltiples culturas y conflictos”.

Pero aclara que “sí se pudo mitigar el daño si se hubieran tomado decisiones más responsables”. El experto asegura que permitir que los algoritmos amplifiquen contenido violento sin control es, en sí mismo, una forma de intervención, y como tal, debería tener consecuencias.

Por ello, plantea la necesidad urgente de regulación. “Estas plataformas ya no pueden seguir diciendo que solo son intermediarias. Si su algoritmo decide qué vemos y qué no, entonces tienen responsabilidad sobre esos efectos”, afirma.

En este sentido, propone que se exija a las tecnológicas mayor transparencia, auditorías independientes y mecanismos de participación pública. Además, advierte que se necesita una mirada multidisciplinaria que incluya aspectos técnicos, legales, éticos y sociales.

Últimas Noticias

Cómo las iniciativas de Estados Unidos están impactando en el avance de China en América Latina

En un escenario marcado por presiones, repliegues y oportunidades, las decisiones de Estados Unidos buscan reconfigurar el terreno sobre el que China proyecta su influencia en la región. ¿Cuál es el resultado de las políticas de la administración de Trump?

Cómo las iniciativas de Estados

La hora de la inteligencia artificial: avances, aplicaciones y el desafío de un desarrollo ético en Argentina

Esta nueva tecnología atraviesa una etapa de expansión sin precedentes, transformando desde la economía global hasta la vida cotidiana. Argentina busca posicionarse en este nuevo paradigma tecnológico, en un contexto mundial donde la ética, la energía y la gobernanza digital se vuelven tan decisivas como los avances técnicos

La hora de la inteligencia

La perestroika cubana: ¿reforma real o el último intento del régimen para quedarse en el poder?

A 40 años de la reforma política y económica implementada por Mijaíl Gorbachov en la Unión Soviética, Cuba parece imitar su modelo para salvaguardar el régimen

La perestroika cubana: ¿reforma real

Guerra en Irán: cuál es la diferencia entre árabes y persas, y por qué esta distinción es clave en Medio Oriente

El escenario internacional actual, con Irán como protagonista, hace necesario el abordaje de un tema clave para comprender qué sucede en Medio Oriente: ¿cuál es la diferencia entre estas dos culturas milenarias?

Guerra en Irán: cuál es

Microsoft y Fundación Taeda debaten sobre IA en Montevideo: desempleo, regulación y oportunidades para la región

En el marco de la presentación del libro Inteligencia Artificial para el Bien, Juan Lavista desarrolló más sobre los conceptos que se abordan en sus páginas con Nicolás Jodal, cofundador y CEO de GeneXus by Globant, y Daiana Beitler, PhD en Sociología y exdirectora de Filantropía de Microsoft Asia

Microsoft y Fundación Taeda debaten