La alucinación al poder

No solo la IA “alucina”, la política contemporánea también. No como metáfora, sino como categoría de análisis

Inteligencia artificial

Alucinar es la palabra del momento. El diccionario más prestigioso de la lengua neerlandesa, Van Dale, la eligió como “palabra del año”.

En español, alucinación remite a una percepción sensorial vívida creada por la mente sin estímulo externo. Aparece en cuadros psiquiátricos o neurológicos, en consumos problemáticos, fiebre alta o fatiga extrema. Ese fue, hasta ahora, su significado dominante.

Hallucineren, el término señalado por los neerlandeses, se resignifica en el contexto de la disrupción tecnológica. Ya no designa sólo un trastorno humano: se extiende al razonamiento de la inteligencia artificial.

Read more!

En el campo de la IA, “alucinación” no es una metáfora literaria, sino un término técnico. Ocurre cuando un modelo genera información falsa o inventada y la presenta con absoluta seguridad. No se equivoca al azar: produce respuestas verosímiles sin respaldo empírico y las afirma como ciertas. Puede inventar libros, fallos judiciales o artículos inexistentes; atribuir frases a personas que nunca las dijeron; ofrecer fechas, cifras o hechos plausibles pero falsos; crear fuentes académicas o enlaces apócrifos.

Los modelos de lenguaje no verifican la verdad: predicen la palabra siguiente más probable. Cuando el contexto exige una respuesta, el sistema completa huecos aun sin información suficiente. Cuanto más específica o cerrada es la pregunta, mayor es el riesgo de alucinación.

La expansión de la IA en periodismo, educación, derecho y política volvió el problema crítico. El término salió del campo clínico y entró de lleno en el debate público sobre tecnología y verdad.

Yo alucino, tú alucinas, nosotros alucinamos. Nadie está exento de conjugar el verbo. En los humanos, las causas pueden ser psíquicas, físicas o químicas. En la IA, las alucinaciones son técnicas: derivan de los incentivos de entrenamiento y evaluación. No es un error menor, sino un problema estructural de confianza.

Un informe reciente de Open AI advierte acerca del fenómeno de alucinaciones que afecta a los modelos del lenguaje del Chat GPT, aún en sus versiones más avanzadas, como el GPT-5, dañando de manera directa la fiabilidad de estos sistemas en áreas del conocimiento que demandan precisión extrema.

El desvío se produce debido a incentivos estructurales en los procesos de entrenamiento y evaluación que están más preparados para favorecer las respuestas especulativas por sobre la admisión de incertidumbre. Como al común de los mortales, a la IA le cuesta decir no sé. Si no tiene una respuesta disponible, la inventa.

Para los creadores del Chat GPT la precisión nunca alcanzará el 100%, porque algunas preguntas del mundo real son imposibles de resolver. Trabajan, no obstante, en la modificación de los criterios de evaluación en orden a premiar la incertidumbre y desalentar la tendencia a adivinar.

Oxford University Press eligió para 2025 otra expresión del ecosistema digital: rage bait. En español, “anzuelo de ira”, el término nombra contenidos diseñados deliberadamente para provocar enojo y maximizar interacción. No apela a la curiosidad, como el clickbait, sino a la indignación. Su uso se triplicó en el último año y revela cómo plataformas y medios monetizan la polarización.

El presidente de Estados Unidos, Donald Trump

La Fundéu RAE, por su parte, eligió “arancel”, una palabra menos ligada al mundo digital pero directamente asociada a un liderazgo disruptivo: Donald Trump. El término salió de la jerga técnica y ganó centralidad política bajo s lo u impronta.

Pero no solo la IA alucina. La política contemporánea también. No como metáfora, sino como categoría de análisis.

En un ecosistema digital acelerado, la política adopta un rasgo propio de los sistemas de IA: produce relatos verosímiles sobre datos no verificados y los sostiene con certeza absoluta.

La alucinación política aparece cuando un líder construye un discurso emocional, prescinde de la evidencia y lo repite hasta volverlo creíble.

Trump convirtió la alucinación en un método. Instaló la idea de un deep state omnipotente que conspira contra él. Jueces, prensa, científicos y funcionarios forman parte de una trama imposible de contrastar: toda refutación se vuelve prueba de la conspiración. El enemigo es invisible, total y eterno. Un patrón alucinatorio clásico.

Javier Milei no miente como los políticos tradicionales: alucina como un sistema cerrado. Toma datos reales —inflación, déficit, pobreza— y los hiperboliza hasta romper la escala histórica. Presenta supuestos ideológicos como leyes naturales. Prescinde de la incertidumbre, del contexto y de la historia comparada. Funciona como una IA entrenada con un único corpus teórico.

En Trump y en Milei, la política se organiza como relato cerrado: coherente, emocional y resistente a la verificación. La repetición y la viralización convierten la ficción en sentido común para audiencias polarizadas.

Los rage bait completan el cuadro. Funcionan como técnica explícita de provocación: mantienen vivo el relato a fuerza de indignación. No buscan consenso ni verdad, sino reacción. En la política digital, indignar es gobernar la conversación.

En el caso del gobierno libertario, los mensajeros de “Las fuerzas del cielo” son expertos en el uso de estos anzuelos digitales. Desde las redes alimentan la tensión, acicatean a los oponentes y sostienen la figura del enemigo. Al menos esa fue la versión iniciática de los activistas digitales del libertarianismo.

El insulto performativo fue parte excluyente de la conversación durante la primera etapa del gobierno de Javier Milei. El resultado electoral de septiembre lo obligó a aplacar sus modos. Los mensajes bajaron el tono, pero el plexo ideológico de la batalla cultural sigue otorgando consistencia a las alucinaciones presidenciales.

Involucrarnos en este tiempo exige asumir que convivimos con sistemas —tecnológicos y políticos— capaces de producir certezas falsas con eficacia real.

Comprender el contexto digital, con la irrupción de estas perturbaciones en los procesos de comunicación y acceso a la información es absolutamente indispensable para poder seguir funcionando en el mundo real. Se trata de convivir con la IA sin perder de vista nuestra condición humana, en la que las dudas, certezas y emociones siguen siendo determinantes.

La IA alucina porque fue entrenada para responder. La política alucina porque fue entrenada para dominar la atención. Entre unas y otras, el desafío es el mismo: no confundir convicción con verdad, ni viralidad con realidad.

Read more!