Anthropic lanza una herramienta para revisar los errores en los códigos generados por IA

Con la introducción de Code Review, desarrolladores podrán examinar con mayor profundidad las líneas automatizadas por IA, agilizando la verificación de fallos y clasificando incidencias, mientras mantienen la validación humana y acceso en versiones beta para equipos y empresas

Guardar
Imagen 6YBWZQFCVNBX5HO4Y6AYNCNYDY

El incremento en la producción de código por parte de los ingenieros en Anthropic, que según la compañía se duplicó durante el último año, impulsó la creación de un sistema que pueda acompañar este ritmo y evitar bloqueos en el flujo de trabajo. Bajo este escenario, Anthropic lanzó una herramienta denominada ‘Code Review’, diseñada para asistir en la revisión de errores presentes en el código generado por inteligencia artificial, tal como informó Europa Press.

De acuerdo con el reporte de Europa Press, ‘Code Review’ funciona desplegando múltiples agentes que realizan exámenes detallados de las líneas de código automatizadas por el modelo de IA Claude. Estos agentes colaboran para localizar, verificar y categorizar las posibles incidencias conforme a su magnitud. El sistema opera como respaldo al trabajo humano y permite que, una vez finalizado el análisis, se emita un comentario general —junto con anotaciones específicas— en la revisión del código. Aunque el proceso resulta automatizado, la compañía aclaró que la validación final sobre los cambios propuestos siempre la realiza una persona.

Información difundida por Europa Press indica que, antes de la introducción de ‘Code Review’, únicamente un 16 por ciento de las solicitudes de revisión obtenía observaciones significativas. Esta cifra se elevó al 54 por ciento después del despliegue de la herramienta, sugiriendo una mayor capacidad para identificar posibles errores y sugerir mejoras. Anthropic explicó en su blog que este sistema busca optimizar la eficiencia y abordar el denominado “cuello de botella” que sufrían sus desarrolladores debido al aumento en la cantidad de código generado.

La compañía detalló que la herramienta ya se encuentra habilitada como vista previa en la versión beta de los planes Team y Enterprise de Claude Code. De esta manera, más equipos y empresas pueden acceder a los beneficios de este tipo de revisión asistida con mecanismos de IA. Los agentes incluidos no solo detectan errores que pueden pasar desapercibidos para los humanos, sino que también contribuyen a priorizar las incidencias de acuerdo con su gravedad, facilitando la toma de decisiones en las etapas de desarrollo y mantenimiento de software, de acuerdo con la información recogida por Europa Press.

Anthropic especificó que el tiempo necesario para completar una revisión ronda los 20 minutos, aunque este plazo puede variar dependiendo de la complejidad del código bajo análisis. La herramienta ‘Code Review’ fue implementada para trabajar junto a ‘Claude Code GitHub Actions’, que permanece disponible como alternativa de código abierto para los equipos que utilicen otras metodologías de revisión.

El medio Europa Press reportó que la introducción de este servicio implica nuevos costos para la empresa, con un precio por revisión establecido en una horquilla que va de los 15 a los 25 dólares, es decir, entre 12,87 y 21,46 euros, según el tamaño y la complejidad del análisis solicitado. Estos costes son considerados por Anthropic como un reflejo del valor agregado que ofrece la herramienta al permitir revisiones estructuradas y sistemáticas con el apoyo de tecnología avanzada, sin desplazar la intervención final del personal especializado en desarrollo.

En cuanto al procedimiento, ‘Code Review’ emplea sus agentes para llevar a cabo un análisis en paralelo de diversas porciones del código, con el fin de garantizar la mayor cobertura posible en la detección y clasificación de errores. Según subrayó la empresa en declaraciones recogidas por Europa Press, el sistema está diseñado para coexistir con otras herramientas preexistentes sin interferir en las dinámicas habituales de trabajo dentro de los equipos de desarrollo.

Al mantener la revisión final en manos de una persona, Anthropic aseguró que se conserva una capa fundamental de supervisión y validación humana sobre los cambios automatizados, lo que, según Europa Press, permite a las compañías mantener la confianza en el proceso y adaptar las recomendaciones propuestas según el contexto y los requerimientos específicos de cada proyecto.

Europa Press detalló que la disponibilidad extendida de ‘Code Review’ como beta para equipos empresariales forma parte del objetivo de Anthropic de ir ampliando su ecosistema de herramientas destinadas a incrementar la productividad y seguridad en entornos de programación asistidos por inteligencia artificial.