
Anthropic ha decidido reforzar la seguridad en el uso de su chatbot de inteligencia artificial, Claude, ante las crecientes inquietudes en torno a los riesgos tecnológicos asociados al desarrollo de IA avanzada. La compañía estadounidense actualizó su política de uso, introduciendo reglas de ciberseguridad más precisas y especificando en detalle qué tipos de consultas considera particularmente peligrosas y que, por tanto, quedan prohibidas en su plataforma.
Un análisis comparativo entre la versión previa y la actualizada de la política evidencia un cambio relevante: si bien antes se prohibía el empleo de Claude para “producir, modificar, diseñar, comercializar o distribuir armas, explosivos, materiales peligrosos u otros sistemas destinados a causar daño o pérdida de vidas humanas”, ahora la normativa amplía la lista e incluye explícitamente la prohibición de desarrollar explosivos de gran potencia y armas biológicas, nucleares, químicas o radiológicas (CBRN, por sus siglas en inglés). Esta decisión se produce en un contexto de creciente escrutinio internacional sobre los usos potencialmente dañinos de la inteligencia artificial.
La actualización coincide con la reciente implementación, en mayo, del sistema de protección “AI Safety Level 3”, que acompañó la llegada del nuevo modelo Claude Opus 4. Este mecanismo de defensa tiene el objetivo de hacer más difícil vulnerar (o “jailbreakear”) el modelo y prevenir que se utilice para asesorar sobre la creación de armas CBRN, una bandera que Anthropic ha establecido como prioridad ética.

En su comunicado, la empresa también reconoce los desafíos que plantean las herramientas basadas en inteligencia artificial de tipo “agente”, como “Computer Use” —que permite a Claude interactuar directamente con la computadora del usuario— y “Claude Code”, diseñada para integrarse en terminales de desarrolladores. Según la propia compañía, “estas potentes capacidades presentan nuevos riesgos, como el potencial de abuso masivo, creación de malware y ciberataques”.
Como consecuencia, Anthropic ha incorporado una sección completamente nueva en su política de uso, “No comprometer sistemas informáticos o de red”, cuyo alcance va desde impedir la detección y explotación de vulnerabilidades hasta la distribución de código malicioso o el desarrollo de herramientas para lanzar ataques de denegación de servicio. El objetivo es limitar los escenarios donde la herramienta podría convertirse en un instrumento de cibercrimen sofisticado.
La política en materia de contenido político también ha evolucionado. Anthropic deja de prohibir todo desarrollo de contenidos relacionados con campañas y lobby político, para regular exclusivamente los casos que sean “engañosos o disruptivos para los procesos democráticos”, así como el uso dirigido a influir en campañas o votantes de manera opaca. Aclaró además que los requisitos elevados de seguridad para casos de alto riesgo solo regirán en operaciones orientadas al consumidor final, no en contextos de empresa a empresa.

La mejora de Claude que supera a GPT-5
La actualización de la política de uso llega en paralelo a un avance técnico que busca redefinir el estándar del sector: la versión Claude Sonnet 4 ya opera con una ventana de contexto de 1 millón de tokens, lo que representa aproximadamente 750.000 palabras o 75.000 líneas de código en una sola transacción. Esta capacidad multiplica por cinco el límite anterior de 200.000 tokens de Claude y deja atrás tanto la referencia marcada por GPT-5 de OpenAI, de 400.000 tokens, como a la mayoría de los sistemas disponibles.
El salto en el contexto procesable resulta especialmente valioso para el mundo del desarrollo y la ingeniería de software, donde empresas líderes como GitHub Copilot, Windsurf y Cursor de Anysphere —socios de Anthropic— requieren que la IA analice y maneje grandes volúmenes de información en tiempo real. Brad Abrams, responsable de producto en Anthropic, subrayó que “las plataformas de codificación de IA obtendrán un gran beneficio de esta actualización”, subrayando su utilidad en proyectos que demandan autonomía e interpretación profunda de código durante largas jornadas de trabajo.
Últimas Noticias
Así quedaron los grupos para el Mundial 2026: cómo consultar en Google toda la información
Las fechas de los partidos y el calendario completo de la Copa Mundial 2026 estarán en una sección especial de Google

La educación digital con IA logra que un 20% de profesionales mejore su trabajo, según Platzi
El estudio realizado a más de 5.600 estudiantes revela que la práctica diaria duplica el progreso profesional y brinda mejores oportunidades de trabajo en Latinoamérica

Así es el celular de Star Wars que todo fan quisiera tener: solo existen 25 mil unidades en el mundo
La nueva edición limitada del Reno 14 F introduce un diseño inspirado en Darth Vader con elementos estéticos exclusivos y una presentación pensada para coleccionistas

Meta eliminó casi 12 millones de cuentas de Facebook, Instagram y WhatsApp asociadas a estafas
La compañía de Mark Zuckerberg reforzó sus sistemas de detección y uso de IA para frenar el crecimiento de redes criminales que operan dentro y fuera de sus plataformas

Qué hacer ante llamadas de WhatsApp desde números desconocidos del extranjero, según ESET
Especialistas alertan que los ciberdelincuentes utilizan prefijos internacionales para generar confianza y ejecutar distintas modalidades de fraude vía WhatsApp



