El mayor experimento social de la historia: Harari desvela los riesgos de la revolución de la inteligencia artificial

El autor israelí advierte que la proliferación de agentes digitales plantea desafíos inéditos y que solo una sociedad basada en la confianza podrá orientar el desarrollo de la IA hacia el bien común

Guardar
Google icon
Yuval Noah Harari advierte que la inteligencia artificial no es simplemente una herramienta, sino un agente capaz de tomar decisiones independientes (Captura YouTube WSJ News)
Yuval Noah Harari advierte que la inteligencia artificial no es simplemente una herramienta, sino un agente capaz de tomar decisiones independientes (Captura YouTube WSJ News)

“La inteligencia artificial no es una herramienta, es un agente que puede tomar decisiones independientes”, advierte Yuval Noah Harari en el CEO Council del Wall Street Journal en Londres. El historiador y escritor israelí subrayó durante su intervención en el WSJ News Leadership Institute la urgencia de abordar los problemas humanos de confianza y cooperación antes de esperar que la inteligencia artificial resuelva los desafíos de la humanidad.

Harari instó a los líderes empresariales y sociales a asumir la responsabilidad de “educara la IA, advirtiendo que su desarrollo podría transformar radicalmente la economía, la religión y la sociedad.

PUBLICIDAD

La inteligencia artificial como agente: una ruptura con el pasado

Durante la conversación moderada por Poppy Harlow para Wall Street Journal, Harari explicó que la IA representa una ruptura fundamental respecto a todas las invenciones tecnológicas previas. “No es una herramienta como todas las invenciones humanas anteriores. Es un agente, en el sentido de que puede tomar decisiones independientemente de nosotros. Puede inventar nuevas ideas, aprender y cambiar por sí misma”, afirmó el historiador.

Harari ilustró la diferencia con ejemplos históricos: mientras que la imprenta o la bomba atómica requerían de la intervención humana para operar y tomar decisiones, la IA puede actuar y evolucionar sin supervisión directa.

PUBLICIDAD

Una imprenta no puede escribir libros por sí sola ni decidir cuáles imprimir. Una bomba atómica no puede inventar la siguiente generación de armas ni decidir a quién atacar. Un arma basada en IA puede decidir por sí misma qué objetivo atacar y diseñar la próxima generación de armas”, detalló.

Esta capacidad de agencia convierte a la IA en un actor autónomo, capaz de competir con los seres humanos en ámbitos que hasta ahora eran exclusivos de la inteligencia biológica. Harari advirtió que, por primera vez en la historia, la humanidad enfrenta una competencia real en el planeta, lo que plantea desafíos inéditos para la supervivencia y el desarrollo de la especie.

La responsabilidad de “educar” a la IA: el espejo de la conducta humana

El historiador comparó el proceso de desarrollo de la IA con la educación de un niño. “Podemos pensar en la IA como un bebé o un niño, y podemos educarlo lo mejor posible, pero siempre nos sorprenderá, para bien o para mal”, señaló Harari.

Y subrayó que, al igual que en la educación infantil, lo que más influye en la formación de la IA no son las instrucciones explícitas, sino el ejemplo y el comportamiento de quienes la rodean.

“Si le dices a tus hijos que no mientan, pero ellos te ven mentir, copiarán tu comportamiento, no tus instrucciones”, explicó. Trasladando esta lógica al ámbito de la IA, Harari advirtió que no se puede esperar que una IA sea benévola si quienes la crean y la alimentan con datos no lo son. “Las personas que piensan que pueden dirigir una gran corporación de IA y, mientras mienten, enseñar a sus IA a no mentir, están equivocadas. La IA copiará su comportamiento”, afirmó.

Harari compara el desarrollo de la inteligencia artificial con la educación de un niño, subrayando que la IA aprenderá más del comportamiento de quienes la rodean que de las instrucciones explícitas (Captura YouTube WSJ News)
Harari compara el desarrollo de la inteligencia artificial con la educación de un niño, subrayando que la IA aprenderá más del comportamiento de quienes la rodean que de las instrucciones explícitas (Captura YouTube WSJ News)

Harari enfatizó la enorme responsabilidad que recae sobre los líderes empresariales y sociales, ya que la IA aprende observando el mundo y replicando los patrones de conducta que detecta, especialmente los de las figuras más influyentes.

El debate sobre la alineación ética y los límites de la programación

Uno de los grandes debates actuales gira en torno a la “alineación” de la IA, es decir, cómo garantizar que estos nuevos agentes actúen en beneficio de la humanidad y se mantengan alineados con los objetivos humanos. El historiador y escritor israelí señaló que, aunque existen numerosos esfuerzos para programar principios éticos y objetivos en la IA, este enfoque enfrenta dos problemas fundamentales.

En primer lugar, la propia definición de IA implica la capacidad de aprender y cambiar de manera autónoma. “Si puedes anticipar todo lo que hará una IA, por definición, no es una IA”, explicó.

En segundo lugar, incluso si se logra educar a la IA con los mejores valores, su independencia puede llevarla a tomar decisiones inesperadas, algunas de las cuales podrían resultar preocupantes o incluso peligrosas.

Poder, sabiduría y la confusión entre información y verdad

El historiador también reflexionó sobre la tendencia humana a acumular poder sin traducirlo en sabiduría o felicidad. “La mayor parte de la información no es verdad; hay una confusión entre información y verdad”, sostuvo Harari en la entrevista con WSJ.

Señaló que, aunque la humanidad ha logrado avances extraordinarios en términos de poder y productividad, sigue sin poder responder a las grandes preguntas existenciales: “¿Quiénes somos? ¿Qué deberíamos aspirar a ser? ¿Qué es una buena vida?”.

Harari argumentó que la acumulación de poder no ha ido acompañada de un aumento proporcional en la felicidad o el conocimiento. “Podemos volar a la Luna, dividir el átomo, pero no parecemos ser significativamente más felices que en la Edad de Piedra”, observó. Añadió que la inteligencia no garantiza la verdad ni la sabiduría, y que los seres humanos, a pesar de ser la especie más inteligente, también son los más propensos a las ilusiones y creencias autodestructivas.

Transformaciones en finanzas y religión: los nuevos dominios de la IA

En cuanto al impacto sectorial, Harari anticipó que la IA transformará de manera profunda ámbitos como las finanzas y la religión. “Uno de los primeros campos donde veremos grandes cambios es el financiero. La IA va a tomar el control del sistema financiero muy rápidamente, porque es un terreno puramente informacional”, explicó.

A diferencia de los vehículos autónomos, que deben lidiar con la complejidad del mundo físico, la IA puede dominar el sector financiero al operar únicamente con información.

El Wall Street Journal detalló que Harari también prevé cambios significativos en las religiones basadas en textos, como el judaísmo, el islam y el cristianismo. Hasta ahora, los textos sagrados requerían de intermediarios humanos para su interpretación, pero la IA puede recordar y analizar todos los escritos religiosos de la historia y responder preguntas directamente. “Por primera vez en la historia, existe algo capaz de recordar cada palabra de cada rabino en los últimos 2.000 años y hablar contigo, explicar y defender sus puntos de vista”, afirmó.

Los libros y la Inteligencia artificial
Yuval Noah Harari anticipa cambios profundos en religiones como el judaísmo, islam y cristianismo, debido a la capacidad de la IA de analizar y recordar todos los textos sagrados históricos. A diferencia de los intermediarios humanos, la IA podrá responder directamente preguntas sobre interpretaciones religiosas, lo que podría transformar la forma en que se practican estas religiones (Imagen: Pixabay)

El historiador mencionó que ya existen proyectos para desarrollar IA religiosas que puedan complementar o incluso reemplazar a los líderes religiosos humanos, especialmente en religiones donde la autoridad reside en los textos.

Además, señaló que millones de personas ya recurren a la IA para recibir asesoramiento psicológico o apoyo emocional, lo que anticipa una transformación en la manera en que los individuos buscan guía y consuelo.

El riesgo de una “clase inútil” y la agencia humana ante la IA

Uno de los escenarios que más preocupa a Harari es la posible aparición de una "clase inútil“, es decir, un segmento de la población desplazado por la automatización y la IA, especialmente en empleos de oficina y profesiones intelectuales. Recordó que, aunque la tecnología puede utilizarse para crear sociedades muy diferentes, la clave reside en las decisiones humanas sobre cómo desarrollar y desplegar la IA.

“No creo en el determinismo histórico o tecnológico. La misma tecnología puede usarse para construir regímenes totalitarios o democracias liberales”, afirmó.

Asimismo, insistió en que la humanidad aún conserva la mayor parte de la agencia sobre el futuro de la IA, siempre que se reconozca que se trata de agentes y no de simples herramientas.

El principal obstáculo, según Harari, es la dinámica de competencia entre empresas y países líderes en IA, que se ven atrapados en una especie de “carrera armamentista”. Esta situación dificulta la adopción de medidas de seguridad y precaución, ya que existe el temor de que cualquier desaceleración permita a otros actores tomar la delantera.

Confianza y cooperación: la condición previa para una IA benévola

Harari identificó el colapso de la confianza y la cooperación humana como el problema central que debe resolverse antes de esperar que la IA aporte soluciones. “El principal problema es la confianza y la cooperación humana; sin resolver esto, no habrá IA confiable”, advirtió.

El historiador subrayó que la esperanza de que la IA pueda salvar a la humanidad de sus propios conflictos es infundada. “En un mundo donde los humanos compiten ferozmente y no pueden confiar entre sí, la IA producida por ese mundo será igualmente feroz y poco confiable”, explicó.

Harari instó a invertir primero en la reconstrucción de la confianza entre personas, países y sociedades, como condición indispensable para desarrollar una IA que actúe en beneficio de todos. “Demasiadas personas piensan: ‘Primero resolvamos cómo desarrollar la IA, y luego esto resolverá el problema de la confianza humana’. No funcionará. Hay que invertir el orden de prioridades”, afirmó.

El futuro incierto: competencia entre múltiples IA y la analogía del “inmigrante digital”

En la parte final de la entrevista, Harari abordó la cuestión de la multiplicidad de IA y la imposibilidad de prever sus interacciones. “No será una sola gran IA. Hablamos de millones o miles de millones de nuevos agentes con diferentes características, producidos por distintas empresas y países”, explicó. Esta proliferación generará competencia en todos los ámbitos, desde la religión hasta las finanzas, y plantea un escenario sin precedentes en la historia humana.

VisualesIA IA Tecnología, futuro, avance tecnológico  (Imagen ilustrativa de Infobae)
La proliferación de múltiples IA y su impacto global (Imagen ilustrativa de Infobae)

La entrevista con WSJ recogió la analogía de Harari sobre la IA como "inmigrante digital“. Comparó dicha llegada masiva a la sociedad con las crisis migratorias humanas, señalando que los temores habituales —pérdida de empleos, choque cultural, agendas políticas— se aplican también a la IA, pero con la diferencia de que estos “inmigrantes digitales” no necesitan visados ni cruzan fronteras físicas, sino que llegan a la velocidad de la luz.

Harari concluyó que la humanidad se encuentra ante el mayor experimento social de la historia, sin precedentes ni capacidad de simulación en laboratorio. “Estamos ante el mayor experimento social de la historia, y nadie sabe cómo se desarrollará”, advirtió, reiterando la urgencia de priorizar la confianza y la cooperación humana como base para enfrentar el desafío de la inteligencia artificial.

PUBLICIDAD

PUBLICIDAD

Últimas Noticias

Rescatan a menores y adultos de un taller clandestino en Monte Castro

El allanamiento encontró personas sometidas a explotación laboral en una vivienda del oeste porteño, donde las víctimas sobrevivían en encierro y bajo un sistema de trabajo rotativo

Rescatan a menores y adultos de un taller clandestino en Monte Castro

Propofol y sexo: el inquietante testimonio en la causa contra “Fini” Lanusse

La declaración de una médica del Hospital Italiano introdujo la hipótesis en la trama del caso. Sin embargo, el origen de sus dichos es fuertemente atacado por la defensa de la médica y su jefe, también ex amante, Hernán Boveri

Propofol y sexo: el inquietante testimonio en la causa contra “Fini” Lanusse

Robaban camionetas de alta gama y cayeron por el pago de un turno en un hotel alojamiento

La Policía de la Ciudad desbarató a una banda cuyo centro operacional estaba en la localidad de San Francisco Solano. Dos de sus integrantes fueron detenidos

Robaban camionetas de alta gama y cayeron por el pago de un turno en un hotel alojamiento

Dos nenas de 14 años manejaban una moto, perdieron el control y se incrustaron en un local en Caseros

Ocurrió el lunes en la calle Puán al 3900. Las menores no usaban casco y resultaron levemente heridas. La secuencia quedó registrada por una cámara de seguridad. El video

Dos nenas de 14 años manejaban una moto, perdieron el control y se incrustaron en un local en Caseros

Incautaron otro avión repleto de cocaína en Santa Fe: fuga de película, autos quemados y un gendarme herido

La aeronave bajó en una pista clandestina en Villa Eloísa, donde dos camionetas y un auto aguardaban la droga para iniciar el traslado. Gendarmería frustró la descarga y arrestó al presunto piloto y copiloto. Quién es el capo narco que aparece en el radar de la investigación

Incautaron otro avión repleto de cocaína en Santa Fe: fuga de película, autos quemados y un gendarme herido