
Anthropic ha decidido reforzar la seguridad en el uso de su chatbot de inteligencia artificial, Claude, ante las crecientes inquietudes en torno a los riesgos tecnológicos asociados al desarrollo de IA avanzada. La compañía estadounidense actualizó su política de uso, introduciendo reglas de ciberseguridad más precisas y especificando en detalle qué tipos de consultas considera particularmente peligrosas y que, por tanto, quedan prohibidas en su plataforma.
Un análisis comparativo entre la versión previa y la actualizada de la política evidencia un cambio relevante: si bien antes se prohibía el empleo de Claude para “producir, modificar, diseñar, comercializar o distribuir armas, explosivos, materiales peligrosos u otros sistemas destinados a causar daño o pérdida de vidas humanas”, ahora la normativa amplía la lista e incluye explícitamente la prohibición de desarrollar explosivos de gran potencia y armas biológicas, nucleares, químicas o radiológicas (CBRN, por sus siglas en inglés). Esta decisión se produce en un contexto de creciente escrutinio internacional sobre los usos potencialmente dañinos de la inteligencia artificial.
La actualización coincide con la reciente implementación, en mayo, del sistema de protección “AI Safety Level 3”, que acompañó la llegada del nuevo modelo Claude Opus 4. Este mecanismo de defensa tiene el objetivo de hacer más difícil vulnerar (o “jailbreakear”) el modelo y prevenir que se utilice para asesorar sobre la creación de armas CBRN, una bandera que Anthropic ha establecido como prioridad ética.

En su comunicado, la empresa también reconoce los desafíos que plantean las herramientas basadas en inteligencia artificial de tipo “agente”, como “Computer Use” —que permite a Claude interactuar directamente con la computadora del usuario— y “Claude Code”, diseñada para integrarse en terminales de desarrolladores. Según la propia compañía, “estas potentes capacidades presentan nuevos riesgos, como el potencial de abuso masivo, creación de malware y ciberataques”.
Como consecuencia, Anthropic ha incorporado una sección completamente nueva en su política de uso, “No comprometer sistemas informáticos o de red”, cuyo alcance va desde impedir la detección y explotación de vulnerabilidades hasta la distribución de código malicioso o el desarrollo de herramientas para lanzar ataques de denegación de servicio. El objetivo es limitar los escenarios donde la herramienta podría convertirse en un instrumento de cibercrimen sofisticado.
La política en materia de contenido político también ha evolucionado. Anthropic deja de prohibir todo desarrollo de contenidos relacionados con campañas y lobby político, para regular exclusivamente los casos que sean “engañosos o disruptivos para los procesos democráticos”, así como el uso dirigido a influir en campañas o votantes de manera opaca. Aclaró además que los requisitos elevados de seguridad para casos de alto riesgo solo regirán en operaciones orientadas al consumidor final, no en contextos de empresa a empresa.

La mejora de Claude que supera a GPT-5
La actualización de la política de uso llega en paralelo a un avance técnico que busca redefinir el estándar del sector: la versión Claude Sonnet 4 ya opera con una ventana de contexto de 1 millón de tokens, lo que representa aproximadamente 750.000 palabras o 75.000 líneas de código en una sola transacción. Esta capacidad multiplica por cinco el límite anterior de 200.000 tokens de Claude y deja atrás tanto la referencia marcada por GPT-5 de OpenAI, de 400.000 tokens, como a la mayoría de los sistemas disponibles.
El salto en el contexto procesable resulta especialmente valioso para el mundo del desarrollo y la ingeniería de software, donde empresas líderes como GitHub Copilot, Windsurf y Cursor de Anysphere —socios de Anthropic— requieren que la IA analice y maneje grandes volúmenes de información en tiempo real. Brad Abrams, responsable de producto en Anthropic, subrayó que “las plataformas de codificación de IA obtendrán un gran beneficio de esta actualización”, subrayando su utilidad en proyectos que demandan autonomía e interpretación profunda de código durante largas jornadas de trabajo.
Últimas Noticias
Reino Unido investiga a X por deepfakes creados con la IA Grok
La intervención de Ofcom surge a raíz de informes sobre el uso del chatbot de inteligencia artificial de X para generar y difundir imágenes no autorizadas de desnudos

Google toma medidas ante resúmenes con IA erróneos en los resultados de búsqueda sobre consejos médicos
La compañía retiró algunos resúmenes generados por inteligencia artificial en sus resultados de búsqueda sobre salud
Brasil investiga a Meta por prácticas anticompetitivas y ordena la suspensión de los términos de uso de WhatsApp Business
El foco de la pesquisa se centra en los cambios contractuales introducidos por Meta en octubre de 2025, los cuales, según las denuncias, restringen el acceso de desarrolladores a la infraestructura de la app

Esta es la aplicación de Microsoft que está a punto de ser retirada de Android y iOS
A pesar de esta medida, los usuarios tendrán una alternativa más eficiente para escanear sus documentos y guardarlos en la nube

Esta es la marca que se posiciona como líder mundial de smartphones en 2025
La compañía destaca como la principal referencia global en el sector de celulares, superando a competidores como Samsung y Xiaomi




