Para escalar agentes de IA con éxito, piense en ellos como miembros del equipo

Harvard Business Review Wake-Up Call Spanish

A diferencia del software tradicional, los agentes de IA están diseñados para razonar, planificar y ejecutar acciones a través de distintos sistemas. En el momento en que un agente puede modificar un sistema de registro (actualizar un precio, enviar un pago o modificar los datos de un cliente) deja de ser una herramienta de productividad y se convierte en parte del modelo operativo de la organización.

Lo más importante es que esto introduce nuevas categorías de riesgo. Una herramienta de IA generativa limitada (como ChatGPT para redactar correos electrónicos) genera un riesgo de contenido: puede decir algo incorrecto. La IA agéntica genera un riesgo de ejecución: puede hacer algo incorrecto.

Para superar ese umbral e integrar eficazmente agentes de IA a gran escala, usted debe tratarlos como una nueva clase de fuerza laboral que requiere gestión.

Read more!

Mientras no se establezcan estas bases organizacionales, escalar la IA agéntica será difícil. Cuatro fricciones recurrentes, en particular, tienden a ralentizar o descarrilar el progreso. Entenderlas es el primer paso para gestionarlas.

1. IDENTIDAD: ¿QUIÉN ESTÁ ACTUANDO?

Las organizaciones deben tratar a cada agente de IA como un trabajador digital distinto, con su propia identidad, credenciales y rol. En lugar de depender de cuentas de servicio compartidas, las empresas deben asignar permisos a los agentes con un alcance limitado que reflejen las tareas específicas para las que están diseñadas. Los mismos principios utilizados para gestionar a los colaboradores humanos (como el acceso al mínimo privilegio y los límites basados en funciones) deben aplicarse también a los agentes.

2. CONTEXTO: CUANDO LOS DATOS ERRÓNEOS LLEVAN A MALAS ACCIONES

Los agentes también introducen un nuevo desafío de seguridad: la manipulación del contexto. Si un agente lee correos electrónicos, formularios o tickets de soporte y luego ejecuta tareas basadas en esa información, los atacantes pueden incrustar instrucciones ocultas diseñadas para influir en su comportamiento.

Para hacer frente a estas fricciones contextuales, las organizaciones deben establecer estándares claros sobre qué información pueden considerar confiable sus agentes. Esto implicará definir fuentes autorizadas para políticas, precios y datos operativos, de modo que los agentes puedan apoyarse de forma consistente en la versión correcta de la verdad.

3. CONTROL: LOS SISTEMAS PROBABILÍSTICOS NECESITAN LÍMITES CLAROS

Los métodos de prueba tradicionales parten de la base de que el comportamiento es estable. Un sistema que hoy supera una serie de pruebas puede comportarse de forma diferente mañana si se actualiza el modelo, cambia el prompt o se añaden nuevos datos. Y los riesgos aumentan en entornos con múltiples agentes donde estos se transfieren tareas entre sí.

Sin límites claros, los errores (o ataques) pueden propagarse a lo largo de un sistema automatizado. Para gestionar ese riesgo, las organizaciones deben construir controles deterministas en torno a los sistemas de IA probabilísticos. En lugar de permitir que los agentes ejecuten acciones directamente, las empresas deben implementar capas de validación entre el modelo de IA y los sistemas operativos. En este enfoque, el agente propone una acción (como emitir un reembolso) y, antes de ejecutarse, un software determinista verifica que cumpla con las reglas establecidas.

4. RESPONSABILIDAD: CUANDO NADIE PUEDE EXPLICAR LO QUE OCURRIÓ

Las empresas deben diseñar sus sistemas de IA pensando en la responsabilidad desde el principio. Esto comienza con mantener registros completos de cómo operan los agentes, incluyendo a qué fuentes de datos accedieron, qué instrucciones recibieron y qué herramientas utilizaron para completar una tarea. Estos registros deben permitir reconstruir la cadena de razonamiento que llevó a cualquier acción.

Las empresas no son entornos listos para usar; son sistemas complejos moldeados por tecnología heredada, políticas y el juicio humano. Las organizaciones que tengan éxito con la IA agéntica no serán simplemente las que implementen más agentes, sino aquellas que construyan las estructuras que permitan confiar en ellos.

Read more!