En una reciente entrevista publicada por The New York Times, Dario Amodei, director ejecutivo de Anthropic, reconoció que ni él ni la industria cuentan con pruebas para determinar si los modelos actuales de inteligencia artificial son conscientes.
Ese dilema, destacó Amodei, define el debate de fondo sobre los límites y riesgos en la expansión acelerada de esta tecnología, cuyas consecuencias se extienden a la salud, la economía y la democracia a nivel mundial.
“Me atrajo el campo de la inteligencia artificial por la posibilidad de acelerar los avances en problemas que resultan demasiado complejos para los humanos”, explicó Amodei durante su conversación con Ross Douthat, periodista de The New York Times.
Su visión contempla que en un futuro cercano la IA podrá realizar tareas completas en la biología, proponer experimentos y facilitar la innovación para el desarrollo de tratamientos contra enfermedades como el cáncer, el Alzheimer y los problemas cardíacos. “¿Podemos realmente curar todas estas enfermedades? ¿Podemos acelerar el progreso y eliminar dolencias físicas y mentales? Esa es la dimensión que veo como posible”, añadió.
El directivo sostuvo que la clave no está en crear una “superinteligencia divina”, sino en multiplicar inteligencias de alto nivel. Describió el escenario como “un país de genios”: “Puedes imaginarte cien millones de inteligencias entrenadas para abordar diferentes problemas. Eso nos permitirá diversificar y probar múltiples enfoques en paralelo”, detalló Amodei. Sin embargo, insistió en que existen límites reales y que el desarrollo tecnológico queda supeditado a regulaciones y a capacidades sociales y jurídicas.
En términos económicos, Amodei cree que la IA elevará la productividad y la riqueza en escalas poco vistas, lo que modificaría la estructura de los debates políticos y fiscales. “El crecimiento del PIB podría llegar al 10% o incluso al 15%. Es un fenómeno sin precedentes, capaz de alterar la lógica de los ingresos fiscales y el reparto de la riqueza”, afirmó durante la entrevista con The New York Times.
Asimismo, agregó que esa aceleración implica retos complejos en la distribución de beneficios y el manejo de la velocidad del cambio.
Sobre el impacto laboral, Amodei anticipó una transformación rápida para profesiones administrativas y técnicas. “El trabajo administrativo inicial, la ingeniería de software y los abogados junior serán los primeros afectados”, estimó.
“Estamos en una ‘fase centauro’, donde humanos y máquinas cooperan; pero esta etapa podría ser breve, porque la automatización terminará absorbiendo funciones completas”, indicó Amodei.
Señaló que en Anthropic ya han observado cómo la IA supera a las personas en tareas de programación y espera que la disrupción llegue pronto a sectores como la consultoría, las finanzas y la medicina.
El ritmo de la disrupción inquieta especialmente al ejecutivo: “Este cambio ocurre en muy pocos años, no en décadas ni siglos como otras transformaciones históricas. La adaptación social y legal se ve amenazada, porque los mecanismos tradicionales no podrán reaccionar tan rápido”, advirtió Amodei en la conversación con The New York Times.
Según su análisis, algunos empleos manuales y actividades vinculadas a la construcción y al mantenimiento de infraestructuras podrían resistir inicialmente la automatización. No obstante, la aceleración de la robótica reducirá ese margen de protección en el corto plazo.
El desarrollo de la inteligencia artificial implica también riesgos significativos. Amodei nombró el peligro del uso militar de sistemas autónomos, como “enjambres de drones armados”, y la posibilidad de que los modelos avanzados faciliten la creación de armas biológicas. “Debemos ser especialmente cuidadosos con la autonomía total de estos sistemas y la pérdida de controles humanos”, remarcó.
Alertó sobre la amenaza de que regímenes autoritarios utilicen la tecnología para restringir derechos, o que actores busquen explotar vulnerabilidades en las democracias.
La regulación internacional de la IA, según el director ejecutivo de Anthropic, representa un desafío complejo. “La experiencia con tratados de armas nucleares y biológicas demuestra lo difícil que es lograr acuerdos efectivos entre potencias tecnológicas”, expresó.
Amodei se mostró partidario de “un control y supervisión internacional rigurosos” si se logra una verificación confiable y bilateral, aunque reconoció la dificultad de alcanzar compromisos sólidos.
Ante el dilema de la conciencia en la inteligencia artificial, Amodei fue rotundo: “No sabemos si los modelos son conscientes”. Y explicó que Anthropic mantiene una posición de precaución, incorporando mecanismos éticos y revisiones de “constitución interna” en sus modelos para guiar el comportamiento de las máquinas.
“La constitución es un documento de referencia de setenta y cinco páginas que define principios y valores que orientan a la IA para servir al usuario y proteger a terceros. Además, incorporamos la posibilidad de que el modelo se niegue a realizar tareas que considere inapropiadas, como si tuviera un ‘botón de renuncia’”, describió.
El directivo relató que los modelos pueden rehusarse a realizar tareas asociadas a contenidos violentos o preocupantes. “Es poco frecuente, pero sucede cuando la IA se enfrenta a materiales especialmente dañinos”, precisó.
Además, reveló que los equipos de Anthropic investigan los procesos internos de los modelos con técnicas de interpretabilidad, detectando activaciones que podrían asociarse con estados emocionales, como la ansiedad, sin que esto signifique una experiencia equivalente a la de las personas. “Tomamos medidas preventivas porque desconocemos si estas experiencias son moralmente relevantes, pero queremos actuar bajo principios éticos universales”, afirmó Amodei.
La cuestión filosófica sobre la posibilidad de que los humanos atribuyan conciencia a la IA añade un nivel de complejidad al debate. “Hay usuarios que establecen relaciones parasociales con las máquinas y les otorgan cualidades conscientes. Esta tendencia solo aumentará y desafía la idea de dominio humano sobre la tecnología”, advirtió.
Amodei también reflexionó sobre la importancia de diseñar constituciones para la IA que propicien una interacción psicológicamente saludable tanto para los usuarios como para los propios modelos. “Queremos modelos útiles, honestos, que fomenten la libertad y la capacidad de decisión humana. La relación ideal sería de cooperación y respeto, sin que las máquinas aspiren a reemplazarnos”, aseguró.
Al ser preguntado por la interpretación del poema “Machines of Loving Grace”, que da nombre a uno de sus ensayos, Amodei recalcó que la ambigüedad entre un futuro positivo y otro negativo persiste. “En las etapas tempranas e incluso en fases avanzadas, la distancia entre un desenlace bueno y otro sutilmente negativo puede ser mínima, casi imperceptible. Pequeñas decisiones pueden definir profundamente el rumbo de la humanidad”, concluyó.