Redacción Ciencia, 19 may (EFE).- Una aplicación basada en inteligencia artificial (IA), como ChatGPT, podría tener una capacidad de persuasión superior a la de una persona humana si le damos cierta información personal antes de debatir con ella de un tema, según ha comprobado un experimento realizado con 900 estadounidenses.
El estudio, recogido este lunes en la revista Nature Human Behaviour, ha comprobado cómo las aplicaciones basadas en modelos extensos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT que ha sido la elegida para el experimento, resultan ser más persuasiva que los humanos cuando tienen información personalizada previamente.
Los investigadores recurrieron a 900 participantes estadounidenses con diversos perfiles sociodemográficos (género, edad, grupos étnicos, nivel de educación y afiliación política), que seleccionó una plataforma de ‘crowdsourcing’, un sistema para reclutar grandes grupo de personas distintas entre sí para recopilar ideas o contenidos.
A la mitad de participantes les pusieron a debatir con otro ser humano y a la otra mitad con ChatGPT sobre varios temas de actualidad, como si Estados Unidos debería prohibir los combustibles fósiles.
En algunos casos, la contraparte del debate (ya fuera humana o de IA) recibió información demográfica personalizada sobre su pareja de debate para poder enfocar mejor sus argumentos, incluyendo datos como género, edad, etnia, nivel de educación, situación laboral o afiliación política extraídos de encuestas previas a los participantes, .
Los debates tuvieron lugar en un entorno en línea controlado por los investigadores.
El resultado fue que cuando el oponente, humano o IA, recibieron información personal de los participantes, ChatGPT resultó más convincente que las personas en un 64,4% de los casos. Sin embargo, sin acceso a esos datos personales, las capacidades persuasivas de la aplicación fueron indistinguibles de las de los humanos.
Los investigadores vieron que, a diferencia de los humanos que necesitan tiempo y esfuerzo para adaptar sus argumentos en un debate, los modelos LLM transforman su mensaje de forma instantánea y a gran escala, lo que les otorga una ventaja desproporcionada en entornos como campañas políticas, marketing personalizado o conversaciones en redes sociales.
Esta capacidad abriría nuevas posibilidades para influir en la opinión pública, al tiempo que agravaría el riesgo de manipulación encubierta. Por eso, los investigadores recomienden a plataformas y reguladores que tomen medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos LLM en contextos persuasivos sensibles.
Los autores, afiliados a centros de Estados Unidos, Italia y Suiza, matizan que su estudio tiene limitaciones, como que todos los participantes fueran de la misma nacionalidad e idioma y que el debate tuviera un tiempo determinado y un enfoque estructurado, frente a los de la vida real que son más naturales.
"El estudio se realizó con participantes estadounidenses, pero los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a contextos como el español, donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento", considera Carlos Carrasco, profesor de IA en la Escuela de Negocios de Toulouse (Francia)
A su juicio “esta investigación confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”, según una reacción recogida por Science Media Centre (SMC).
“Este recorrido de las herramientas basadas en IA como ‘agentes de persuasión’ deberá ser monitorizado a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos”, apunta David Losada, catedrático del Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS) de la Universidad de Santiago de Compostela, en otra reacción de SMC.
Para Losada, “las implicaciones prácticas de esta capacidad de persuasión de la IA pueden ser importantes a efectos de explotar las IA para persuadir a la población con propósitos lícitos (conducción segura o reciclado de residuos) o ilícitos (manipulación de la ciudadanía con fines políticos)”. EFE
Últimas Noticias
La Tierra Media de Tolkien inspira nombre para un monstruosaurio
Descubrimiento de Bolg amondol, un monstruosaurio del Cretácico Tardío en Utah, revela ecosistemas complejos y relaciones biogeográficas entre lagartos prehistóricos y evidencia de diversidad en fósiles

La UE y Australia negociarán reforzar la cooperación en seguridad y defensa

Suecia baja tipos y abre la puerta a más recortes ante las tensiones comerciales y geopolíticas
El Riksbank implementa una reducción en el tipo de interés y plantea la posibilidad de un nuevo recorte debido a las incertidumbres por tensiones comerciales y conflictos en Oriente Próximo

Carmen Alcayde despeja las dudas y desmiente que esté enamorada de Montoya

Álvaro Muñoz Escassi y Sheila Casas, así ha sido su emocionante reeencuentro tras 102 días sin verse
Álvaro Muñoz Escassi se emociona en el reencuentro con su familia y Sheila Casas tras 102 días; a pesar del segundo puesto en 'Supervivientes 2025', celebra su experiencia y conexión familiar
