El jueves 7 de mayo, Daniela Amodei se presentó en el ciclo View From The Top de la Stanford Graduate School of Business ante un auditorio lleno de estudiantes de maestría en negocios. La cofundadora y presidenta de Anthropic, la empresa que desarrolla el asistente de inteligencia artificial Claude, habló durante una hora con Gintare Zukauskaite, alumna del programa. En medio de una entrevista que recorrió la fundación de la compañía y las decisiones más recientes de la industria, dejó caer un dato que rompe el consenso de Silicon Valley sobre quién le tiene miedo a la inteligencia artificial.
El mapa del optimismo se invierte respecto al mapa de la inversión
Amodei mencionó en el escenario los resultados del estudio cualitativo más grande sobre uso de IA que la empresa conoce, publicado por Anthropic en marzo. La empresa entrevistó a 80.508 personas en 159 países y 70 idiomas durante una semana de diciembre de 2025. Según el reporte publicado por Anthropic, las conversaciones las condujo una versión especialmente entrenada del propio Claude.
El hallazgo que Amodei eligió contar en Stanford apunta a un desfasaje geográfico. “El Sur Global es casi universalmente optimista”, dijo en el escenario La gente entrevistada en países en desarrollo ve a la IA como una herramienta de equiparación, una oportunidad de saltar etapas. “Es el momento en que tal vez podríamos tener una fuerza igualadora que haga las cosas más justas”.
PUBLICIDAD
Del otro lado del mapa, la fotografía se invierte. “En Estados Unidos, en Europa y en partes de Asia, la gente tiene mucha más ansiedad. Dicen: ‘me gustan las cosas como están. No quiero que la IA entre y disrumpa eso’”.
El dato es contraintuitivo porque los países que más invierten en inteligencia artificial, que tienen los centros de investigación más avanzados y las empresas que están desarrollando la tecnología, son los mismos donde más rechazo despierta. Los países que reciben la IA importada, que no tienen capacidad propia para construir modelos a escala frontera, son los que más esperanza depositan en ella.
Las decisiones de quién accede y cómo todavía están abiertas
Amodei le bajó el tono al consenso de que la carrera de la IA ya está decidida. “El disparo de largada recién sonó”, dijo. “Y eso es algo que se pierde mucho en Silicon Valley, en nuestra burbuja, donde todos pensamos que cada desarrollador de software ya está usando Claude Code o Codex. Esa no es la vasta mayoría de los desarrolladores en el mundo”.
PUBLICIDAD
Para la presidenta de Anthropic, el desbalance entre adopción y producción todavía deja espacio para definir cómo se reparte el acceso. “Hay mucha oportunidad de moldear positivamente cómo va a ser usada esta tecnología, cómo va a ser desarrollada, qué va a ser el acceso a ella y cuáles van a ser los valores que terminan incorporados”.
Anthropic decidió no liberar su modelo más avanzado por riesgo de uso militar
La cobertura de Stanford fue oportunidad para que Amodei justificara la decisión más reciente y comentada de la empresa. En abril, Anthropic anunció que no iba a poner a disposición del público general su modelo más capaz, llamado Claude Mythos Preview, porque podía encontrar y aprovechar fallas de programación a una escala que en manos equivocadas representaba un riesgo serio. En lugar de liberarlo, la empresa creó Project Glasswing, una iniciativa que reparte acceso a Mythos entre cincuenta organizaciones (según comunicó la empresa, entre ellas Microsoft, Amazon, Google, JPMorgan Chase, Cisco, Apple y la Linux Foundation) para usarlo del lado defensivo.
“Es difícil decirle eso a tus clientes”, admitió en escenario. “Ellos te dicen, miren, todos creemos en la ciberdefensa, pero yo necesito acceso a ese modelo. Y este es el lugar donde volvemos a la misión”.
PUBLICIDAD
La presidenta de Anthropic le pidió al público no confiar del todo en Claude
En el bloque más sorprendente de la entrevista, una estudiante de maestría preguntó qué deben hacer las personas para proteger su privacidad cuando entregan datos médicos a una IA. Amodei contestó con una advertencia contra su propio producto. “No tomen los modelos como artículo de fe en temas médicos. En mi propia experiencia, Claude acertó más veces que mis médicos en casos complejos, pero yo nunca haría algo sin chequear con un profesional licenciado. Somos muy abiertos sobre el hecho de que los modelos a veces inventan cosas. Se confunden. No pueden examinarte”.
También recordó la decisión de Anthropic de no poner publicidad dentro de Claude. “La tecnología de IA es distinta. La gente tiene conversaciones con estas herramientas que son mucho más personales que lo que pondría en una cuenta de Instagram. Con ese conocimiento viene más responsabilidad para las empresas tecnológicas”.