Una investigación interna de Facebook encontró que la red social fomenta la polarización social

Al interior de Facebook hubo iniciativas en comprender cómo su plataforma moldeó el comportamiento del usuario

Compartir
Compartir articulo
REUTERS/Elijah Nouvelage/File Photo
REUTERS/Elijah Nouvelage/File Photo

Un grupo de trabajadores de Facebook Inc. lanzó un mensaje contundente para los altos ejecutivos: los algoritmos de la compañía no unen a las personas, al contrario, están hechos para separar a la gente.

Nuestros algoritmos explotan la atracción del cerebro humano hacia la división. Si no se controla”, se advirtió, "Facebook proporcionaría a los usuarios contenido cada vez más divisivo en un esfuerzo por atraer la atención del usuario y aumentar el tiempo en la plataforma”, se lee en una diapositiva de una presentación de 2018 dada a conocer por The Wall Street Journal.

Esa presentación fue al corazón de una pregunta que persigue a Facebook casi desde su fundación: ¿Su plataforma agrava la polarización y el comportamiento tribal? La respuesta que se ha encontrado, desde diversas perspectivas, parece ser afirmativa.

Al interior de Facebook hubo iniciativas en comprender cómo su plataforma moldeó el comportamiento del usuario y cómo la compañía podría abordar los daños potenciales. El presidente ejecutivo, Mark Zuckerberg, expresó en público y privado su preocupación por el “sensacionalismo y la polarización”.

REUTERS/Erin Scott/Archivo
REUTERS/Erin Scott/Archivo

Pero al final, el interés de Facebook fue fugaz. Zuckerberg y otros altos ejecutivos dejaron de lado la investigación básica, según datos internos, y debilitaron o bloquearon los esfuerzos para aplicar sus conclusiones a los productos de Facebook.

El jefe de políticas de Facebook, Joel Kaplan, quien también desempeñó un papel central en la investigación, argumentó que los esfuerzos para hacer que las conversaciones en la plataforma fueran más civiles eran considerados “paternalistas”.

Otra preocupación, dijeron, era que algunos cambios propuestos habrían afectado desproporcionadamente a los usuarios y editores conservadores, en un momento en que la compañía enfrentaba acusaciones por el derecho de parcialidad política.

Facebook reveló pocos detalles sobre el esfuerzo y ha divulgado poco. En 2020, las preguntas que la iniciativa buscaba abordar son aún más agudas, ya que se avecina una acalorada elección presidencial y Facebook ha sido un conducto para las teorías de conspiración y la lucha partidista sobre la pandemia de coronavirus. En esencia, Facebook está bajo fuego por dividir al mundo.

Internamente, el proceso de investigación obtuvo un apodo: “Eat Your Veggies”.

(Shutterstock)
(Shutterstock)

Los estadounidenses se estaban distanciando de los problemas sociales fundamentales mucho antes de la creación de las redes sociales, según mostraron décadas de encuestas del Pew Research Center. Pero el 60% de los estadounidenses también piensa que las compañías tecnológicas más grandes del país están ayudando a dividirlo aún más, mientras que solo el 11% cree que lo están uniendo, según una encuesta de Gallup-Knight en marzo.

La idea de llevar a cabo la investigación comenzó a cambiar a partir de marzo de 2018, cuando Facebook se metió en problemas tras revelarse que Cambridge Analytica, la startup de análisis político, obtuvo incorrectamente datos de Facebook sobre decenas de millones de personas.

En cuanto a la opinión personal de Mark Zuckerberg, la gente que lo escuchó hablar en privado dijo que argumenta que las redes sociales tienen poca responsabilidad por la polarización. Incluso argumenta que la plataforma es, de hecho, “un guardián de la libertad de expresión”.

Solucionar el problema de polarización sería difícil, ya que Facebook debería repensar algunos de sus productos principales. En particular, el proyecto obligó a Facebook a considerar cómo priorizaba la “participación del usuario”, una métrica que implica el tiempo dedicado, los “me gusta”, las acciones compartidas y los comentarios que durante años habían sido la estrella de su sistema.

REUTERS/Dado Ruvic/Illustration
REUTERS/Dado Ruvic/Illustration

Incluso antes de la creación de los equipos en 2017, los investigadores de Facebook habían encontrado signos de problemas. Una presentación de 2016 que nombra como autora a una investigadora y socióloga de Facebook, Monica Lee, descubrió que el contenido extremista prosperaba en más de un tercio de los grandes grupos políticos alemanes en la plataforma. Inmersos en contenido racista, conspirador y pro-ruso, los grupos fueron influenciados desproporcionadamente por un subconjunto de usuarios hiperactivos, señala la presentación. La mayoría de ellos eran privados o secretos.

La gran cantidad de grupos extremistas era preocupante, según la presentación. La presentación de 2016 establece que “el 64% de todas las uniones de grupos extremistas se deben a nuestras herramientas de recomendación” y que la mayor parte de la actividad provino de los algoritmos “Grupos a los que debería unirse” y “Descubrir” de la plataforma: “Nuestros sistemas de recomendación aumentan el problema”.

MÁS SOBRE ESTE TEMA: