
Anthropic, la empresa responsable del modelo de inteligencia artificial Claude, revocó el acceso de OpenAI a su API. De acuerdo con fuentes de WIRED, la compañía tomó esta decisión luego de que se detectara un supuesto uso indebido por parte de OpenAI, lo que constituiría una violación directa de los términos de servicio establecidos por Anthropic.
La medida se dio a conocer el martes, en medio de un contexto de competencia creciente entre grandes desarrolladores de inteligencia artificial, y justo cuando OpenAI se prepara para lanzar su próximo modelo, GPT-5.
Uso indebido de herramientas internas
Según WIRED, OpenAI habría utilizado el acceso de desarrollador (API) a Claude no a través de su interfaz de chat pública, sino mediante integración con herramientas internas de evaluación.
Esta práctica les permitió realizar pruebas sobre las capacidades del modelo en tareas como programación, redacción creativa y detección de contenidos sensibles, incluyendo temáticas como abuso infantil, autolesiones o difamación.
La finalidad de estas pruebas habría sido comparar directamente el rendimiento de Claude frente a sus propios modelos, como GPT-4 y el próximo GPT-5, especialmente en áreas de codificación, donde Claude Code ha ganado popularidad.
Sin embargo, esta práctica fue considerada por Anthropic como una violación a sus políticas de uso. Según los términos comerciales de la empresa, está prohibido utilizar sus servicios para desarrollar productos de la competencia, entrenar modelos rivales o duplicar sus tecnologías mediante ingeniería inversa.

Declaraciones cruzadas
Christopher Nulty, portavoz de Anthropic, confirmó la medida a WIRED y señaló: “Claude Code se ha convertido en la opción preferida de los programadores de todo el mundo, por lo que no fue una sorpresa saber que el propio personal técnico de OpenAI también estaba utilizando nuestras herramientas de programación antes del lanzamiento de GPT-5. Desafortunadamente, esto es una violación directa de nuestros términos de servicio”.
Por su parte, Hannah Wong, directora de comunicaciones de OpenAI, reconoció el corte de acceso, pero expresó su desacuerdo con la medida. “Es un estándar de la industria evaluar otros sistemas de IA para medir el progreso y mejorar la seguridad. Aunque respetamos la decisión de Anthropic de cortar nuestro acceso a la API, es decepcionante, teniendo en cuenta que nuestra API sigue estando disponible para ellos”, declaró.
A pesar de la restricción, Anthropic señaló que OpenAI seguiría teniendo acceso limitado con fines de evaluación comparativa y de seguridad, aunque no precisó de qué forma se mantendría dicho acceso ni bajo qué condiciones específicas.

Un patrón en la industria
La decisión de Anthropic no es un caso aislado. Grandes compañías tecnológicas han tomado medidas similares en el pasado para limitar el acceso de competidores a sus plataformas.
Por ejemplo, Meta (antes Facebook) bloqueó a Vine, propiedad de Twitter, generando acusaciones de comportamiento anticompetitivo. Más recientemente, Salesforce limitó el acceso a ciertas funciones de Slack a empresas rivales. Y en julio, la propia Anthropic restringió el acceso de la startup de IA Windsurf, luego de rumores de que OpenAI buscaba adquirirla. Finalmente, ese acuerdo no se concretó.
En declaraciones a TechCrunch, Jared Kaplan, director científico de Anthropic, comentó sobre esa situación: “Creo que sería extraño que vendiéramos Claude a OpenAI”.

Cambios recientes en Claude Code
Un día antes de la revocación del acceso a OpenAI, Anthropic había anunciado nuevos límites de uso en Claude Code, su herramienta de IA especializada en programación. La empresa justificó la medida por el uso creciente del sistema y por detectar posibles infracciones a sus políticas de uso.
La creciente demanda y las tensiones entre compañías reflejan el momento clave que atraviesa la industria de la inteligencia artificial. Con nuevos modelos en desarrollo y una competencia cada vez más intensa, el acceso a herramientas avanzadas como Claude o GPT se ha vuelto un factor estratégico tanto para la innovación como para la protección comercial.
Últimas Noticias
Anthropic desafía al Pentágono y rechaza relajar límites para uso militar de su IA
La startup de inteligencia artificial fue advertida de que, si no accedía a las exigencias, podría ser considerada un riesgo para la cadena de suministro

Hacker usa la IA Claude para robar datos de agencias de gobierno en México
El uso avanzado de la plataforma de Anthropic permitió a un atacante sortear filtros, automatizar scripts y extraer millones de registros confidenciales de organismos oficiales

Alguien te bloqueó en WhatsApp y no lo sabes: sigue estos pasos para averiguarlo
La integración de opciones avanzadas en los ajustes de privacidad y la verificación del cifrado facilitan restringir o restaurar contactos

Stripe pone la mira en PayPal y explora una adquisición histórica
La fintech estadounidense mantiene conversaciones preliminares para comprar parte o la totalidad de la plataforma global de pagos en línea

Perú acelera en inteligencia artificial con la adopción de agentes con IA: cuál es la tendencia en 2026
El desafío para este año no será incorporar nuevas herramientas, sino escalarlas con talento especializado, datos de calidad e infraestructura



