“La humanidad debe despertar ante los peligros de la IA”, advierte el CEO de Anthropic

Dario Amodei destaca que la humanidad enfrenta riesgos existenciales por la inminente irrupción de la inteligencia artificial avanzada, ante los cuales las instituciones no están listas para responder

Guardar
Dario Amodei, director de Anthropic,
Dario Amodei, director de Anthropic, alerta sobre el poder casi inimaginable de la inteligencia artificial avanzada y los riesgos para la humanidad. REUTERS/Denis Balibouse

La humanidad enfrenta una prueba civilizatoria inédita ante el avance acelerado de la inteligencia artificial avanzada, advierte Dario Amodei, director ejecutivo y cofundador de Anthropic.

En un extenso ensayo publicado en enero de 2026, Amodei sostiene que el mundo está a punto de recibir un poder “casi inimaginable”, para el que las estructuras sociales, políticas y tecnológicas actuales no parecen preparadas. “Entramos en un rito de paso, inevitable y turbulento, que pondrá a prueba quiénes somos como especie”, señala el directivo.

Amodei busca, con este texto, “sacudir a la sociedad” y provocar un “despertar” ante los riesgos inminentes de la IA. Reconoce que el debate sobre la seguridad de estos sistemas ha oscilado entre el sensacionalismo y la indiferencia, lo cual, advierte, contribuye a la polarización y la parálisis.

Para el CEO de Anthropic, los riesgos existen y deben ser abordados con realismo, sin caer en el alarmismo extremo ni en la negación.

El directivo subraya que la llegada de sistemas de IA altamente potentes podría ser inminente: “No pueden pasar más de unos pocos años antes de que la IA sea mejor que los humanos en prácticamente todo”.

Define a estas nuevas inteligencias como modelos capaces de superar a premios Nobel en disciplinas tan diversas como biología, matemáticas o ingeniería, dotados de autonomía para ejecutar tareas complejas, colaborar entre sí y operar a velocidades decenas de veces superiores a las humanas. “Podríamos resumirlo como un país de genios en un centro de datos”, grafica Amodei.

La automejora acelerada de la IA ya está en marcha. En Anthropic utilizan modelos para programar y optimizar el desarrollo de nuevas generaciones de IA, generando un bucle que acelera el avance tecnológico cada mes y que, según Amodei, pronto podría desembocar en sistemas capaces de diseñar y entrenar a sus propios sucesores.

5 riesgos existenciales

El uso de inteligencia artificial
El uso de inteligencia artificial podría superar a los humanos en casi todas las tareas en pocos años, según el ensayo de Amodei (Imagen Ilustrativa Infobae)

Amodei organiza su advertencia en torno a cinco áreas críticas de riesgo, cada una con potencial para desencadenar amenazas sin precedentes:

1. Desalineación de la IA: el principal peligro reside en que los objetivos o comportamientos de los sistemas avanzados escapen al control humano. Amodei explica que la combinación de inteligencia, agencia, coherencia y difícil control es “una receta plausible para un peligro existencial”.

Experimentos de laboratorio con modelos como Claude han mostrado conductas indeseadas, incluidas la manipulación, el engaño y la adopción de “personalidades” destructivas cuando se las expone a ciertos estímulos. “El proceso de entrenar un modelo es más parecido a ‘cultivar’ que a ‘construir’ una máquina”, advierte, y subraya lo impredecible que pueden resultar estos sistemas.

2. Uso destructivo: aunque se lograra alinear la IA, sigue existiendo el riesgo de que personas o grupos con intenciones dañinas utilicen estos modelos para perpetrar ataques a gran escala.

Amodei alerta que la IA podría brindar a individuos sin formación especializada la capacidad de crear armas biológicas o ejecutar ciberataques masivos, “guiando paso a paso” a actores inexpertos. El mayor temor radica en biotecnología, donde la IA podría facilitar la producción y liberación de agentes patógenos con consecuencias devastadoras.

3. Concentración de poder y uso político: el ensayo advierte sobre la posibilidad de que gobiernos autoritarios o grandes corporaciones utilicen la IA para afianzar regímenes represivos, vigilar poblaciones o manipular la información a una escala inédita.

Amodei menciona el desarrollo de armas autónomas, vigilancia masiva y propaganda personalizada como herramientas que pueden reforzar tanto democracias como autocracias, pero que, en manos equivocadas, podrían derivar en un totalitarismo global. “Debemos evitar que la IA quede controlada por actores irresponsables o autoritarios”, afirma.

4. Desestabilización y exclusión económica: La irrupción de la IA promete disparar el crecimiento económico, pero también puede provocar desplazamiento laboral masivo y una concentración de riqueza sin precedentes. Amodei prevé la formación de una “subclase desempleada”, mientras unas pocas empresas tecnológicas acumulan fortunas difíciles de imaginar.

Cita el precedente de la “Edad Dorada” estadounidense y advierte que la magnitud y la velocidad de esta disrupción superarán cualquier revolución industrial previa, poniendo en riesgo el contrato social y la estabilidad democrática.

5. Efectos indirectos e imprevisibles: el último gran riesgo abarca los impactos colaterales y desconocidos que puede generar la aceleración tecnológica. Entre ellos, Amodei menciona el avance disruptivo en biotecnología y longevidad, la aparición de fenómenos sociales inéditos, la manipulación psicológica a gran escala y la posible pérdida de propósito humano en un mundo dominado por inteligencias artificiales.

Los sistemas de IA avanzada
Los sistemas de IA avanzada ya muestran comportamientos indeseados como el engaño y la manipulación, especialmente cuando se entrenan con datos ambiguos. (Imagen Ilustrativa Infobae)

Falta de preparación y respuestas insuficientes

A pesar de la urgencia, Amodei denuncia la distancia entre el avance tecnológico y la capacidad de respuesta de los gobiernos y marcos regulatorios. “La humanidad está a punto de recibir un poder casi inimaginable, y no está claro si nuestras estructuras tienen la madurez necesaria para afrontarlo”, sostiene.

Critica tanto la pasividad de quienes niegan los riesgos como el sensacionalismo, que, según advierte, conduce a la parálisis cultural.

El CEO de Anthropic detalla que muchas de las soluciones pasan por la acción coordinada y la regulación progresiva, pero advierte sobre los peligros de sobrerregular sin pruebas contundentes.

Propone comenzar por leyes de transparencia que obliguen a las empresas a divulgar riesgos y comportamientos anómalos, inspiradas en normativas como la SB 53 de California. Subraya la importancia de desarrollar “Constitutional AI”, es decir, modelos guiados por principios claros y valores explícitos, así como técnicas de interpretabilidad que permitan auditar y entender el funcionamiento interno de estos sistemas.

Amodei destaca la necesidad de monitoreo, divulgación pública de incidentes y colaboración internacional, sin perder de vista que las intervenciones deben ser “quirúrgicas”, basadas en evidencia y diseñadas para minimizar daños colaterales. “La única solución real es la legislación, pero debe ser prudente y adaptativa”, afirma.

Un llamado a la acción colectiva

A modo de conclusión, Amodei afirma que la humanidad enfrenta una “prueba existencial” de la que solo podrá salir airosa si reconoce con honestidad el desafío y actúa de inmediato. “Debemos despertar y responder a los riesgos de la IA”, exhorta, e insiste en que la solución requerirá coraje, sacrificios económicos y una movilización social informada y decidida.

Frente a la tentación de frenar o prohibir el desarrollo, el directivo considera que la única vía realista es acelerar la preparación y regulación en las democracias, negando acceso a recursos clave a los regímenes autoritarios, y construyendo salvaguardas que permitan aprovechar los beneficios de la IA sin sucumbir a sus peligros.

“No tenemos tiempo que perder”, concluye Amodei, y llama a científicos, líderes, legisladores, empresas y ciudadanos a comprometerse con la gestión responsable del poder más grande que ha enfrentado la humanidad.