Yaël Eisenstat se ha pasado 25 años de su vida trabajando para combatir la polarización, el extremismo y el comportamiento antidemocrático. Su carrera profesional le ha llevado a trabajar como agente de la CIA, asesora de seguridad nacional y contraterrorismo en la Casa Blanca y, durante un breve periodo de tiempo, para la red social Facebook.
Eisenstat se pasó en 2015 a la industria tecnológica tras darse cuenta de que todos esos riesgos contra los que había luchado dentro del Gobierno estadounidense se replicaban en las plataformas digitales. En 2018, se unió a la compañía de Mark Zuckerberg para dirigir su equipo de publicidad política e integridad electoral. Tardó seis meses en darse cuenta de que no le dejarían hacer el trabajo para el que le habían contratado: Facebook era consciente de sus malas prácticas y no pensaba hacer nada por corregirlas.
“Estas compañías quieren hacerte creer que son conductos neutrales y que no tienen ninguna responsabilidad por cómo su propia plataforma afecta nuestra seguridad, nuestras elecciones y nuestra democracia”, ha denunciado. La experta en polarización y extremismos ha participado esta semana en el I Encuentro de Derechos Digitales en Barcelona, donde ha insistido en la responsabilidad de las compañías digitales en la difusión de la desinformación, los discursos de odio y los ataques al sistema democrático.
PUBLICIDAD
“Cada algoritmo está diseñado por un ser humano con un objetivo en mente”, dijo Eisenstat durante su intervención. En el caso de las redes sociales, el objetivo es claro: aumentar la participación, la interacción y el tiempo que pasas en la plataforma. Con esta meta a alcanzar, el algoritmo de las redes sociales impulsa todo el contenido que haga que los usuarios se queden más y más tiempo conectados. Este contenido es, justamente, “el más sensacionalista y emocional porque genera más interacción. Por desgracia, suele estar lleno de desinformación e incluso de mentiras flagrantes”, explicó la experta en su conferencia en Barcelona. “Mientras los algoritmos se diseñen para engancharnos, se seguirá fomentando la desinformación”, aseveró.
Cuando frenar el odio no sale rentable
Mientras la desinformación circula libre por las plataformas digitales, los discursos de odio y el extremismo crecen impulsados por el propio algoritmo y eso las compañías tecnológicas “lo saben”, defendió Eisenstat.
Así lo evidencia, por ejemplo, una investigación interna de Facebook en Alemania: la empresa descubrió que el 64% de los usuarios que se habían unido a grupos extremistas del país lo habían hecho por recomendación de la propia red social. “No es que la gente vaya a buscar la desinformación, es que las recomendaciones de las propias redes sociales se las envían a ellos”, resumió la investigadora.
PUBLICIDAD
En política, los estudios muestran que la derecha sabe aprovechar mejor estas dinámicas del algoritmo que la izquierda. Investigaciones internas del antiguo Twitter mostraron que el contenido político publicado por cuentas de la derecha política recibía mayor amplificación que el publicado por la izquierda política. Es una tendencia que también comprobaron desde Democracy Reporting International. Su equipo analizó seis elecciones de diferentes países europeos, entre ellos España, entre 2023 y 2025. Su investigación “mostró que la extrema derecha sigue obteniendo los mejores resultados en las redes sociales porque sus actores generalmente logran las tasas de compromiso más altas debido a que están utilizando un lenguaje más emocional, un lenguaje más sensacionalista”, explicó Eisenstat.
Desde Europa, esta dinámica no fue ignorada: “Los partidos políticos llamaron a Facebook para quejarse de que se sentían obligados a usar un lenguaje más extremo en sus campañas para que el algoritmo detectase sus mensajes", contó la experta. Este discurso forzado tuvo sus consecuencias: “Tuvieron que empezar a utilizar políticas más extremas, porque es lo que habían dicho en campaña”, añadió Eisenstat.
El cambio, según la especialista, es posible, y Twitter lo demostró en 2020, cuando comenzó a preguntar a sus usuarios si estaban seguros de querer retuitear una publicación o si habían leído el artículo de prensa que estaban a punto de compartir con sus seguidores. “Aunque sea un segundo, hace que tu cerebro alcance tu reacción emocional. Se ha probado que reduce la difusión de desinformación”, explicó Eisenstat. El programa, sin embargo, duró poco: tras las elecciones, decidieron que no era rentable y dejaron de hacerlo.
PUBLICIDAD
Poner fin a los efectos negativos de las redes sociales es posible, asegura Eisenstat, pero requiere un compromiso por parte de compañías, legisladores, tribunales e incluso de los propios usuarios. “Hay que tomar decisiones sobre cómo queremos usar estas plataformas”, defendió. “Cuanto más las entendemos, más empoderados estamos para decidir cómo usarlas más adelante”, concluyó.