Google DeepMind tiene un plan para que la IA deje de improvisar: se llama delegación inteligente

Un nuevo paper propone un marco integral para que los agentes de IA asignen tareas de forma dinámica, con contratos verificables, sistemas de reputación y mecanismos de confianza. No es ciencia ficción: es el plano técnico de la economía que viene

Guardar
Colaboración entre humanos y asistentes
Colaboración entre humanos y asistentes de inteligencia artificial en un entorno innovador impulsado por Google DeepMind. (Imagen Ilustrativa Infobae)

Cuando le pedimos algo a un asistente de IA —escribir un correo, resumir un documento, agendar una reunión— estamos haciendo algo que parece simple pero no lo es: estamos delegando. Y la mayoría de los sistemas actuales manejan esa delegación con la sofisticación de un post-it pegado en un monitor. Reglas fijas, sin capacidad de adaptarse cuando algo falla, sin mecanismos para verificar si el trabajo se hizo bien. Funciona hasta que no funciona.

Un equipo de Google DeepMind acaba de publicar un paper que propone cambiar eso de raíz. El trabajo, firmado por Nenad Tomašev, Matija Franklin y Simon Osindero, introduce lo que llaman “delegación inteligente de IA”: un marco teórico y práctico para que los agentes de inteligencia artificial asignen tareas de forma dinámica, con roles claros, límites definidos, mecanismos de confianza y verificación criptográfica de resultados. No se trata de pedirle algo a la máquina y cruzar los dedos. Se trata de construir el sistema operativo de una economía donde millones de agentes trabajen entre sí —y con nosotros— de manera confiable.

“Delegar implica transferir autoridad, asignar responsabilidad, establecer mecanismos de rendición de cuentas y, sobre todo, calibrar la confianza entre las partes.”

Sistema de delegación inteligente: asistentes
Sistema de delegación inteligente: asistentes virtuales y humanos colaboran en un entorno digital, con mecanismos de verificación y control para tareas automatizadas. (Imagen Ilustrativa Infobae)

El framework se organiza alrededor de cinco pilares. Primero, evaluación dinámica: antes de asignar una tarea, el sistema debe inferir el estado actual del agente que la va a ejecutar, incluyendo su capacidad computacional, su carga de trabajo y su historial. Segundo, ejecución adaptativa: si algo cambia —el contexto, los recursos, las prioridades—, la delegación debe poder ajustarse en tiempo real, incluyendo la posibilidad de cambiar de agente a mitad de ejecución. Tercero, transparencia estructural: cada paso debe ser auditable, porque la opacidad es el terreno fértil de los errores en cadena. Cuarto, coordinación de mercado escalable: los agentes compiten por tareas en un mercado descentralizado con ofertas, contratos inteligentes y sistemas de reputación. Quinto, resiliencia sistémica: el ecosistema necesita mecanismos para prevenir fallas en cascada y atribuir responsabilidad de forma clara.

Uno de los aspectos más interesantes del paper es cómo aborda la confianza. Los investigadores proponen que la reputación de un agente no sea un número genérico, sino un portafolio de credenciales verificables: certificados digitales firmados que atestigüen habilidades específicas, emitidos por otros agentes o por terceros de confianza. Un agente podría demostrar que es competente en traducción de documentos legales sin necesidad de que el delegador confíe ciegamente en una puntuación. La confianza, en este modelo, no se presume: se construye y se verifica.

El paper también introduce el concepto de “descomposición contractual”: antes de delegar, hay que asegurarse de que el resultado sea verificable. Si una subtarea es demasiado subjetiva o compleja para ser validada, el sistema la descompone aún más hasta llegar a unidades de trabajo que puedan verificarse con pruebas formales, tests automatizados o, en casos críticos, pruebas criptográficas de conocimiento cero. Esto último permite confirmar que un cálculo se hizo correctamente sin revelar los datos subyacentes, algo fundamental cuando se trabaja con información sensible.

Pero lo que eleva este trabajo por encima de un ejercicio puramente técnico son sus reflexiones éticas.

División de tareas complejas en
División de tareas complejas en unidades verificables, con agentes de IA y sistemas digitales aplicando controles y pruebas automatizadas para garantizar resultados confiables. (Imagen Ilustrativa Infobae)

Los autores advierten sobre el riesgo del “des-skilling”: si los agentes de IA absorben las tareas rutinarias, los humanos pierden las habilidades que necesitan para intervenir cuando algo sale mal.

También alertan sobre el peligro de las cadenas de delegación largas, donde un agente delega a otro que delega a otro, y la intención original se diluye hasta que nadie sabe quién es responsable de qué. Para eso proponen “cortafuegos de responsabilidad”: puntos contractuales donde un agente debe asumir la responsabilidad completa de todo lo que pasa aguas abajo, o detenerse y pedir autorización humana.

El paper cierra con un análisis de cómo los protocolos existentes —MCP de Anthropic, A2A de Google, entre otros— cubren solo parcialmente estas necesidades, y propone extensiones concretas: tokens de autorización atenuados para que los permisos se reduzcan a medida que bajan por la cadena, flujos formales de licitación donde los agentes compiten con ofertas firmadas, y esquemas de monitoreo configurables según la sensibilidad de la tarea.

¿Es todo esto aplicable hoy? No en su totalidad. Pero el valor del framework no está en la implementación inmediata sino en el mapa que traza. Las empresas que ya usan agentes de IA —y las que están por hacerlo— necesitan pensar en delegación como un problema de diseño, no como un accidente. Porque si no definimos cómo queremos que la IA trabaje con nosotros, la IA va a definirlo por nosotros.

La IA no transforma las compañías. La transforman los empleados que la usan.