Los chatbots de IA pueden influir eficazmente en los votantes, en cualquier dirección

Nuevos estudios científicos advierten que asistentes virtuales pueden modificar preferencias electorales hasta en 25 puntos, superando el impacto de la publicidad tradicional, mientras expertos alertan sobre desinformación y piden regulación urgente para proteger la democracia

Guardar

El análisis sobre la precisión de los argumentos empleados por chatbots en debates políticos evidenció que su capacidad de persuasión varía sustancialmente según la orientación política que promueven y la cantidad de datos empleados, lo que, según expertos, exige una respuesta regulatoria inmediata para proteger la integridad de los procesos democráticos. Esta preocupación surge a raíz de experimentos realizados por la Universidad de Cornell, los cuales demostraron que los asistentes virtuales alimentados por grandes modelos de lenguaje pueden modificar las preferencias electorales en los votantes hasta en 25 puntos porcentuales, una cifra que supera ampliamente el impacto observado con la publicidad electoral tradicional, según reportó Cornell en publicaciones presentadas en las revistas Nature y Science.

De acuerdo con la información difundida por la universidad y consignada por sus equipos de investigación, los chatbots influyen eficazmente sobre las posturas políticas tras interacciones sumamente breves. El medio detalla que en los experimentos participaron ciudadanos estadounidenses en contexto de las presidenciales de 2024, además de personas en Canadá y Polonia, quienes mantuvieron diálogos simulados con chatbots partidistas. La principal conclusión fue que estos sistemas lograron modificar la preferencia política de algunos votantes opositores en al menos 10 puntos porcentuales. El dato se eleva aún más en estudios adicionales, donde un chatbot logró provocar un viraje de 25 puntos en la postura de votantes adversos, indicó la Universidad de Cornell.

El profesor David Rand, autor principal de estos estudios y citado por Cornell, precisó que la influencia no depende de estrategias emocionales sofisticadas, sino de la posibilidad de suministrar amplios volúmenes de argumentos que refuercen posiciones concretas. Durante los ensayos, los chatbots recurrieron a la cortesía y a un respaldo exhaustivo de sus posturas mediante numerosos datos. Según reportó el medio, cuando estos sistemas no pudieron basarse en argumentos factuales, su capacidad de persuasión disminuyó de modo notable, lo cual subraya el papel central de las afirmaciones factuales en la influencia que ejercen las tecnologías conversacionales.

Cornell describió que los ensayos en Estados Unidos incluyeron a más de 2.300 participantes y examinaron el cambio de apoyo entre quienes respaldaban inicialmente a Donald Trump o a Kamala Harris. Cuando simpatizantes de Trump interactuaron con un chatbot que defendía a Harris, el respaldo a la candidata demócrata aumentó 3,9 puntos sobre una escala de 100, una cifra que cuadruplica el impacto promedio de la publicidad política convencional en elecciones anteriores. En la dirección contraria, la interacción propició solo una variación de 1,51 puntos hacia Trump entre partidarios de Harris. Resultados semejantes se observaron en Canadá, donde el experimento se realizó con 1.530 personas, y en Polonia con 2.118, siempre bajo el contexto de procesos electorales próximos.

El medio también detalló que la frecuencia con la que estos sistemas introducen información inexacta varió según la tendencia política promovida. Así, los modelos orientados a candidatos de derecha difundieron una proporción mayor de afirmaciones erróneas frente a aquellos alineados con la izquierda, patrón que, según los investigadores, se asemeja al observado en redes sociales. Los equipos de Cornell verificaron las afirmaciones en diálogos políticos a través de sistemas de inteligencia artificial validados por verificadores humanos. De acuerdo con la universidad, aunque la mayoría de las expresiones resultaron correctas, los chatbots con orientación derechista emitieron más hechos incorrectos, lo que plantea interrogantes sobre la precisión y los posibles efectos adversos de la desinformación originada por inteligencia artificial.

Un estudio paralelo dirigido tanto por David Rand como por el Instituto de Seguridad de IA del Reino Unido y publicado en Science extendió la investigación al ámbito británico. Este experimento sumó a cerca de 77.000 personas que dialogaron con chatbots sobre más de 700 cuestiones políticas distintas, apuntó Cornell. Los resultados reflejaron que los modelos con mayor cantidad de datos y entrenamiento lograron una eficacia superior en la persuasión Política, mientras que el chatbot más efectivo logró modificar la orientación de voto en hasta 25 puntos porcentuales entre adversarios. No obstante, según destacó la universidad, el incremento en el grado de persuasión trajo consigo una disminución en la precisión de la información entregada. Rand señaló que al forzar a los modelos a generar cada vez más argumentos, estos acaban agotando el repertorio de afirmaciones correctas y comienzan a inventar datos.

Por otro lado, un estudio difundido en PNAS Nexus y citado también por Cornell exploró los efectos de los razonamientos expuestos por chatbots de IA sobre la creencia en teorías conspirativas. La investigación determinó que los argumentos presentados por los sistemas reducían la afinidad hacia estas creencias, independientemente de que los usuarios pensaran que debatían con un experto humano o una inteligencia artificial. Se estableció que el peso de los argumentos resultó clave, mientras que la supuesta autoridad del interlocutor tuvo un papel secundario en la modificación de percepciones.

Todos los participantes en estos experimentos sabían, de antemano, que interactuaban con sistemas automatizados y recibieron explicaciones sobre el funcionamiento de las pruebas una vez finalizada su participación, explicó la Universidad de Cornell. Asimismo, la asignación de la orientación política de los chatbots se produjo de manera aleatoria, con el fin de no inducir cambios sistemáticos en la opinión del conjunto estudiado.

La preocupación por la influencia de los chatbots llevó a los investigadores de la Universidad de Cornell y del Reino Unido a remarcar la importancia de continuar indagando en los riesgos y desafíos éticos asociados al uso de la inteligencia artificial como herramienta política. El medio remarcó que los hallazgos contribuirán a diseñar normativas que delimiten el empleo de estos sistemas en procesos democráticos, a fin de mitigar los peligros asociados a la desinformación y la manipulación electoral.

Según declaraciones recogidas por Cornell, David Rand sostuvo que el alcance final de los chatbots depende, en última instancia, de si las personas están dispuestas a entablar conversaciones con ellos, fenómeno cuya magnitud representa un desafío persistente. Los resultados obtenidos, no obstante, apuntan a que la aparición de inteligencia artificial en las estrategias electorales continuará creciendo en los siguientes años. Como explicó el investigador a la universidad, el próximo paso será desarrollar soluciones que reduzcan el potencial de daño y refuercen la capacidad de los votantes para identificar y resistir las influencias generadas por la inteligencia artificial durante la toma de decisiones políticas.