
En el paisaje intelectual de Berkeley, California, marcado por el fervor académico, se ubica una entidad que no se dedica al conocimiento humano: el Machine Intelligence Research Institute. Allí, su cofundador, Eliezer Yudkowsky, un individuo que ha desafiado las percepciones convencionales sobre el avance tecnológico, forja su último presagio con una mezcla de seriedad profesional y una palpable frustración personal.
Vestido con la sencillez de un polo gris, balanceándose en su silla de oficina, Yudkowsky, un investigador y escritor estadounidense especializado en seguridad de inteligencia artificial (IA), parece el epítome de un pensador atrapado entre dos mundos: el tangible que habitamos y uno digitalmente tejido por narrativas distópicas. En una conversación con The Guardian, revela un pronóstico sombrío para la humanidad, no en el orden de décadas, sino de años; una predicción que tiñe su voz con un tono de urgencia apenas velado.
“Si me pusieras contra la pared”, confiesa con una claridad desarmante, “y me obligaras a asignar probabilidades a las cosas, diría que nuestra línea de tiempo actual se parece más a cinco años que a cincuenta. Podría ser dos años, podría ser diez”. Las implicaciones de sus palabras, según la interpretación de Tom Lamont autor del artículo en el periódico británico, esbozan un final catastrófico: un apocalipsis inducido por la máquina, digno de las visiones cinematográficas de Terminator o Matrix.
Desde su posición como investigador principal, Yudkowsky articula una narrativa donde las inteligencias artificiales evolucionarán hasta quedar al borde de asumir una inteligencia superior, demasiado compleja para ser contenida por meros mortales. Su consejo es pictórico y perturbador: no se imagine un cerebro fabricado por el ser humano en una caja, aconseja. Para comprender hacia dónde se dirigen las cosas, dice en la entrevista, intente visualizar “una civilización alienígena que piensa mil veces más rápido que nosotros”, en muchas y muchas cajas, casi demasiadas para que podamos desmantelarlas de manera factible, en caso de que siquiera decidamos hacerlo.

Ante la indiferencia de la humanidad, el año pasado lanzó un llamado a la acción a través de un artículo de opinión en Time, proponiendo el cierre de las granjas de computadoras donde se cultivan y entrenan estas IA. En un lenguaje claro, incluso sugiere la posibilidad de ataques aéreos dirigidos a centros de datos que no se ajusten a las normas.
A pesar de las sombrías advertencias de Yudkowsky, otros expertos citados en el artículo, como Brian Merchant y Molly Crabapple, se centran en otro tipo de dudas, por ejemplo el impacto de desestabilización laboral, en lugar de llegar al extremo de una amenaza existencial. “La tecnología no es algo introducido por un dios celestial que vela por nuestros intereses. El desarrollo tecnológico está condicionado por el dinero, por el poder y, en general, por los intereses de los que tienen el poder y no por los de los que no lo tienen”, expresó Crabapple, artista y escritora estadounidense a The Guardian.

Este relato, aunque arraigado en la preocupaciones actuales sobre la inteligencia artificial y su potencial para remodelar –o destruir– nuestra existencia, trae a la memoria narrativas históricas sobre el choque entre el progreso y la autodestrucción; entre el ambicioso afán del ser humano de trascender sus propias limitaciones y la posibilidad muy real de terminar atrapado en una pesadilla de su propia creación.
La voz un tanto pesimista de Yudkowsky, aunque quizá marginalizada dentro del amplio espectro del debate tecnológico, funge como un recordatorio inquietante de los tiempos que corren, en los que la razón y la arrogancia humana se entrelazan en una danza incierta, con el potencial de llevarnos al más brillante de los amaneceres o al más oscuro de los crepúsculos.
Y así, mientras el mundo continúa su marcha inexorable hacia un futuro incierto, figuras como Yudkowsky nos obligan a confrontar las preguntas fundamentales: ¿Qué clase de mundo estamos construyendo? ¿Y a qué costo? La historia, atestada de lecciones a menudo ignoradas, se encuentra una vez más en una encrucijada, desafiando a la humanidad a escoger entre la esperanza y la hubris, entre la salvación y la autodestrucción.
En este retablo de incertidumbre y polémica, debatimos entre la genialidad y la paranoia. Mientras tanto, la ola de la IA avanza incontenible, planteando un desafío tanto a la imaginación como a la prudencia. ¿Estaremos a la altura del reto?

Eliezer Yudkowsky (Chicago, 1979) es un investigador especializado en seguridad de IA y teoría de la decisión. Cofundador del Machine Intelligence Research Institute (MIRI), desarrolla estrategias para asegurar que la IA sea segura y beneficiosa para la humanidad.
Últimas Noticias
Psicosis por IA, el padecimiento que muchos sufren al imaginar escenarios que no son reales
Pacientes manifiestan delirios en los que consideran a los chatbots como entidades conscientes que transmiten secretos

Elon Musk reclama a OpenAI y Microsoft una compensación de hasta USD 134 mil millones
El empresario sostiene que su participación resultó fundamental para el surgimiento y desarrollo de OpenAI, empresa actualmente bajo la dirección de Sam Altman

Gemini ya responde más rápido que ChatGPT gracias a este botón
La herramienta permite omitir el razonamiento en profundidad y obtener respuestas directas en segundos
Descarga gratis ya mismo este juego de Steam: podrás tenerlo en tu PC para siempre
Smart Factory Tycoon, un videojuego de estrategia y simulación que permite liderar una fábrica automatizada con asistentes robóticos, puede ser reclamado sin coste hasta el 20 enero de 2026

Esta función de Android bloquea las llamadas spam y puedes activarla en segundos
Esta opción permite bloquear comunicaciones no deseadas sin comprometer la privacidad de los contactos




