
A pocos días de las elecciones presidenciales en Estados Unidos, funcionarios gubernamentales han emitido una advertencia clara: los votantes no deben depender de los chatbots de inteligencia artificial (IA) para obtener información relacionada con el proceso electoral. La advertencia se dio el viernes a través de un comunicado de la fiscal general de Nueva York, Letitia James, quien señaló que herramientas como los chatbots frecuentemente proporcionan información incorrecta en respuesta a preguntas sobre votación. La oficina de James alertó que los votantes que dependan de estas herramientas corren el riesgo de perder su oportunidad de votar o de recibir datos inexactos, según informó CNBC.
El aviso de la fiscalía general de Nueva York llega en un contexto de gran preocupación por el aumento de desinformación impulsada por contenidos generados por inteligencia automatizada, en especial durante este año electoral. Según un informe de Clarity, una firma especializada en aprendizaje automático, la cantidad de contenido manipulado mediante “deepfakes” ha aumentado un 900% en el último año, con algunos de estos videos relacionados con intentos de desestabilización orquestados desde Rusia, reportaron autoridades de inteligencia de Estados Unidos. La tecnología computacional ha facilitado la creación de imágenes, videos y texto convincentes que, si no se verifican adecuadamente, pueden confundirse con información legítima y alterar la percepción pública en el contexto electoral, apuntaron los expertos.
Alexandra Reeve Givens, directora ejecutiva del Centro para la Democracia y la Tecnología (CDT, por sus siglas en inglés), enfatizó que los votantes no deberían recurrir a chatbots de inteligencia artificial para obtener información sobre la votación o las elecciones, debido a que existen preocupaciones sobre la precisión y el contenido de las respuestas. En un estudio realizado en julio por el CDT, el centro concluyó que, de 77 preguntas relacionadas con elecciones planteadas a varios chatbots, más de un tercio de las respuestas contenían errores o información falsa. Dicho estudio incluyó pruebas a chatbots de empresas tecnológicas como Google, OpenAI, Anthropic y Meta, quienes proporcionaron respuestas inconsistentes o incorrectas sobre temas como ubicaciones de votación y accesibilidad en los centros electorales.

Ante esta situación, varias empresas responsables de desarrollar chatbots de inteligencia automatizada han publicado medidas para evitar que sus herramientas se conviertan en fuentes de desinformación electoral. Un portavoz de Anthropic, compañía creadora del chatbot Claude, aseguró que la empresa anima a los usuarios a consultar fuentes oficiales de información electoral, dado que su modelo computacional no se entrena con suficiente frecuencia para reflejar actualizaciones en tiempo real de elecciones específicas. Por su parte, OpenAI, creador de ChatGPT, anunció que, a partir del 5 de noviembre, su chatbot incluirá un aviso dirigido a los usuarios para que consulten fuentes verificadas como The Associated Press o sus juntas electorales locales para obtener información actualizada y precisa sobre resultados electorales.
Las preocupaciones sobre el uso de tecnología automatizada en contextos electorales no se limitan a Estados Unidos. En 2024, más de 40 países celebran elecciones de relevancia, afectando a un estimado de 4,000 millones de personas en todo el mundo, reportó CNBC. La expansión de las capacidades generativas ha permitido la rápida creación de textos, imágenes y videos personalizados, lo que plantea riesgos para la integridad de los procesos democráticos, especialmente en sociedades con acceso limitado a fuentes de información verificadas. En este contexto, varios gobiernos han tomado medidas preventivas ante el posible impacto de las tecnologías automatizadas en sus procesos electorales.
La intervención de la fiscalía de Nueva York coincide con una serie de medidas legislativas en Estados Unidos dirigidas a controlar la diseminación de desinformación mediante herramientas computacionales. Según Voting Rights Lab, organización dedicada al monitoreo de cambios en políticas electorales, 43 legislaturas estatales han propuesto hasta el momento 129 proyectos de ley que contienen provisiones para regular el uso de inteligencia sintética en la producción de información electoral falsa. Estas iniciativas buscan establecer salvaguardas para que la información errónea generada por tecnología avanzada no se convierta en un obstáculo para los votantes, quienes, de no contar con información precisa, podrían perder la oportunidad de participar en los comicios, detalló Voting Rights Lab.

OpenAI, en un informe de 54 páginas publicado el mes pasado, reveló que ha interrumpido más de 20 operaciones y redes engañosas en todo el mundo que intentaban utilizar sus modelos automatizados para crear desinformación. Estas actividades incluyeron desde artículos en sitios web generados por tecnología computacional hasta publicaciones en redes sociales hechas por cuentas falsas, según detalló la empresa. No obstante, OpenAI aclaró que ninguna de estas operaciones relacionadas con las elecciones obtuvo un nivel de compromiso “viral” significativo, lo que sugiere que la propagación de contenido electoral engañoso creado mediante sus modelos no alcanzó una audiencia masiva, como detalla el informe de la compañía.
Por su parte, Google y Meta, que también desarrollan y operan plataformas de inteligencia automatizada, se han comprometido a mejorar las políticas de transparencia en torno al uso de capacidades avanzadas en campañas políticas, según los reportes de CNBC. Estas empresas han implementado diversas actualizaciones en sus políticas de uso para reducir el riesgo de que sus plataformas sean utilizadas para propagar desinformación, incluyendo restricciones sobre la creación y distribución de contenido político generado por tecnología sintética sin un etiquetado adecuado.
De cara a la elección presidencial, la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) también está evaluando políticas adicionales que aborden los desafíos de la desinformación generada por inteligencia automatizada. Estas medidas son vistas como un esfuerzo preventivo en medio de un creciente escepticismo hacia las herramientas computacionales en contextos electorales, como lo demuestra el estudio del CDT. Las autoridades esperan que el acceso a información oficial y verificada disminuya los riesgos de desinformación en las próximas elecciones.
Últimas Noticias
Estados Unidos incautó un séptimo buque petrolero cerca de las costas de Venezuela
De acuerdo con el Comando Sur, la embarcación “Sagitta” operaba en desafío a las restricciones impuestas por Washington a navíos vinculados al comercio ilegal de crudo venezolano
Wall Street cerró con fuertes pérdidas
Las acciones europeas registraron una caída significativa, alcanzando su nivel más bajo en casi dos semanas
Un estado del sur de EEUU enfrenta riesgo de cortes de energía por una tormenta invernal
La llegada de aire ártico entre viernes y lunes podría provocar nevadas, hielo y una fuerte suba en la demanda eléctrica, mientras las autoridades activan planes de contingencia

Millones de trabajadores en Estados Unidos reciben aumentos salariales tras ajustes al salario mínimo en 19 estados
El ajuste fue impulsado por normativas locales ante la falta de cambios en la legislación nacional y busca reforzar el poder adquisitivo de amplios segmentos de la fuerza laboral
Cómo protegerse del frío extremo: qué saber sobre la congelación y la hipotermia
Las autoridades sanitarias y meteorológicas advirtieron sobre temperaturas bajo cero que elevan el riesgo de lesiones graves, especialmente entre niños, adultos mayores y personas expuestas al aire libre


