El chatbot de IA de Anthropic evitará responder preguntas acerca de las votaciones y comicios electorales

En un movimiento proactivo, la empresa de inteligencia artificial guía a los usuarios a fuentes confiables ante consultas electorales, evitando la dispersión de información errónea

Guardar

Nuevo

La empresa orienta a los usuarios hacía TurboVote para consultas sobre votación y así prevenir riesgos durante las elecciones. (REUTERS/Dado Ruvic)
La empresa orienta a los usuarios hacía TurboVote para consultas sobre votación y así prevenir riesgos durante las elecciones. (REUTERS/Dado Ruvic)

La startup de inteligencia artificial Anthropic anunció que está trabajando en medidas de protección alrededor de su chatbot Claude antes de las elecciones globales previstas para este año, incluyendo la redirección de indicaciones relacionadas con la votación lejos del servicio.

“Guíamos proactivamente a los usuarios lejos de nuestros sistemas cuando hacen preguntas sobre temas donde las alucinaciones serían inaceptables, como las consultas relacionadas con elecciones”, escribió la compañía en una publicación en su blog oficial el viernes. La “alucinación” es la manera de referirse a la falsa información generada por la IA.

La compañía dijo que, dado que su chatbot no puede proporcionar información en tiempo real sobre elecciones específicas, en las próximas semanas comenzará a instar a los usuarios a consultar el sitio web de información electoral TurboVote cuando se le hagan preguntas sobre la votación.

Anthropic ha estado preparándose para los problemas electorales desde julio de 2023, dijo la publicación, y ha estado probando sus sistemas para ver cómo responden a las indicaciones que violan sus políticas, como la suplantación de identidad de los candidatos o la supresión del voto.

La compañía también dijo que es probable que la IA se use en las elecciones de maneras imprevistas. “Esperamos que 2024 vea usos sorprendentes de los sistemas de IA - usos que no fueron anticipados por sus propios desarrolladores”, escribió la compañía en la publicación.

Antrophic busca crear tecnologías de IA que sean seguras y que alineen sus operaciones y decisiones con los valores y necesidades humanas, minimizando así los riesgos éticos y prácticos asociados con sistemas avanzados.

Mediante pruebas intensivas, Anthropic busca asegurar que su chatbot Claude mantenga la integridad informativa ante suplantaciones y manipulaciones electorales, fortaleciendo la confiabilidad al usuario. (REUTERS/Dado Ruvic)
Mediante pruebas intensivas, Anthropic busca asegurar que su chatbot Claude mantenga la integridad informativa ante suplantaciones y manipulaciones electorales, fortaleciendo la confiabilidad al usuario. (REUTERS/Dado Ruvic)

Los peligros de la IA en los comicios

El uso de inteligencia artificial en procesos electorales conlleva riesgos significativos. La desinformación es uno de ellos, con la creación y difusión de noticias falsas o deepfakes para influir en la opinión pública. La privacidad y el uso indebido de datos personales también preocupan, ya que las campañas pueden analizar datos sin el consentimiento claro de los individuos para enviar mensajes políticos personalizados.

Los bots en redes sociales pueden automatizar la propaganda y manipular el debate público, mientras que la seguridad de los sistemas de votación electrónica es crítica para evitar alteraciones en los resultados. La falta de regulación y transparencia en la aplicación de IA en el ámbito político amenaza con socavar la confianza en la democracia. Es vital establecer normativas para un uso ético de la IA y proteger la integridad de los procesos electorales.

Guardar

Nuevo

Últimas Noticias