Anthropic impulsa la autonomía de Claude: nuevo modo automático para riesgos y permite ejecutar tareas en el ordenador

El nuevo sistema inteligente evalúa acciones potencialmente dañinas antes de ejecutarlas, permite que el proceso avance con menor intervención humana y mejora la productividad, aunque mantiene recomendaciones de uso limitado ante posibles fallos en la detección de riesgos

Guardar

La recomendación de Anthropic limita el uso de su nuevo modo automático para entornos aislados, ya que el sistema aún podría permitir acciones de riesgo si no detecta suficiente contexto o si las solicitudes de los usuarios resultan ambiguas. Al mismo tiempo, la herramienta podría llegar a bloquear actividades inofensivas, lo que muestra que el sistema no está libre de errores en la detección de amenazas. La compañía ha explicado que estas precauciones buscan equilibrar productividad y protección frente a operaciones potencialmente dañinas.

Anthropic ha presentado una modalidad automática para Claude Code, según informó la compañía en un comunicado recogido por los principales medios. Este sistema permite que el modelo de inteligencia artificial decida por sí mismo qué acciones son seguras o peligrosas durante la ejecución de tareas, con el objetivo de agilizar procesos y evitar la necesidad de que los usuarios deban autorizar cada paso en proyectos complejos o de mayor alcance. De acuerdo con el comunicado de Anthropic, el mecanismo tradicional de Claude Code mantiene una política conservadora: cada comando, acción o escritura de archivos requiere la validación del usuario antes de llevarse a cabo. Aunque esta medida refuerza la seguridad, implica interrupciones recurrentes –elemento que puede ralentizar el desarrollo continuo en trabajos extensos.

El medio detalló que, frente a estas limitaciones, los desarrolladores disponen de la opción para omitir todas las solicitudes de permiso mediante el comando “--dangerously-skip-permissions”. Sin embargo, la utilización de esta instrucción introduce riesgos elevados y puede desencadenar comportamientos inesperados en el sistema, motivo por el cual Anthropic desaconseja su uso fuera de entornos aislados o experimentales.

Para solventar estos inconvenientes y facilitar un equilibrio entre la seguridad operativa y la agilidad en la gestión de tareas complejas, la empresa ha lanzado el nuevo modo automático. De acuerdo con la documentación difundida, esta alternativa permite que un clasificador analice anticipadamente cada acción que Claude planea realizar, identificando aquellas que pueden ser peligrosas o destructivas, como la eliminación masiva de archivos, la posible filtración de información sensible o la ejecución de códigos no autorizados y potencialmente perjudiciales.

De esta manera, las acciones consideradas seguras pueden ejecutarse de forma directa, sin intervención humana, mientras que aquellas calificadas como riesgosas quedan bloqueadas de forma preventiva. En tales situaciones, el sistema obliga a Claude a proponer estrategias alternativas para acometer la tarea, o bien a solicitar expresamente la aprobación del usuario si persiste en ejecutar una acción restringida. El medio puntualizó que este procedimiento reduce la probabilidad de saltarse medidas de control críticas, aunque no las descarta por completo debido a las limitaciones para reconocer peligros en contextos insuficientemente descritos.

Anthropic ha precisado que el modo automático de Claude Code se encuentra disponible en vista previa para investigación dentro del plan de suscripción Team. Está previsto que próximamente llegue a la versión Enterprise y para quienes acceden a través de la API. La funcionalidad, por ahora, se encuentra limitada a la ejecución sobre los modelos Claude Sonnet 4.6 y Opus 4.6, por lo que no abarca toda la gama de productos desarrollados por la compañía.

El medio también reportó que Claude no solo logra identificar y gestionar riesgos de manera autónoma, sino que ahora puede ejecutar tareas directamente en el ordenador del usuario a través de las herramientas Claude Cowork y Claude Code. Esta funcionalidad emergente permite asignar trabajos específicos al sistema de inteligencia artificial, con acceso a archivos locales, aplicaciones, conectores y complementos instalados en el equipo. Tras concluir la tarea, el modelo notifica el resultado al usuario responsable.

De acuerdo con el comunicado de Anthropic, en situaciones donde Claude requiere acceso a herramientas que no están disponibles en su entorno operativo inmediato, puede interactuar con la propia interfaz del ordenador para acceder automáticamente a los recursos necesarios. Esta experiencia incluye la posibilidad de abrir archivos, utilizar navegadores web y ejecutar utilidades de programación, todo sin configuración adicional ni la asistencia del usuario mientras la tarea se desarrolla.

La empresa ha configurado esta característica en modalidad preliminar para quienes cuentan con las suscripciones Claude Pro y Max. Además, integra la función de Dispatch, que permite asignar tareas a Claude desde el dispositivo móvil para que se realicen de forma remota y autónoma en el ordenador personal. Tal como mencionó la compañía en su nota oficial, la autonomía de ejecución se acompaña de mecanismos destinados a minimizar los riesgos, como la revisión de potenciales inyecciones de código no autorizado y otros comportamientos anómalos mediante el análisis preventivo del modo automático.

Según publicó Anthropic, el diseño de estas nuevas capacidades busca fortalecer la eficiencia y la fluidez del trabajo con inteligencia artificial, al mismo tiempo que incorpora criterios estrictos de seguridad para evitar daños y incidentes. Aunque el sistema introduce avances para reducir las interrupciones y delegar más poder de decisión al modelo, la compañía mantiene su recomendación de uso limitado mientras se evalúan los resultados y se perfeccionan los filtros de riesgo en contextos reales.