
La IA agéntica se ha convertido rápidamente en una de las áreas más activas del desarrollo de la inteligencia artificial. Los agentes de IA representan un nivel de programación que se sitúa por encima de los modelos de lenguaje de gran tamaño (LLM) y que les permite trabajar hacia objetivos específicos. Esta capa extra de software puede recopilar datos, tomar decisiones, ejecutar acciones y adaptar su comportamiento en función de los resultados. Los agentes pueden interactuar con otros sistemas, aplicar razonamiento y operar de acuerdo con las prioridades y reglas que usted establezca.
Pero quizá el futuro más emocionante de la IA agéntica llegue en la forma de agentes personales, capaces de actuar de manera autodirigida en su nombre. Estos agentes funcionarán como su asistente personal, encargándose de la gestión de su calendario; realizando investigaciones y análisis dirigidos; encontrando, negociando y comprando bienes y servicios; seleccionando contenidos y encargándose de las comunicaciones básicas, al tiempo que aprenden y se optimizan a sí mismos a lo largo del proceso.
La idea de los agentes de IA personales se remonta a décadas atrás, pero la tecnología finalmente parece estar lista para su adopción generalizada. De hecho, empresas líderes ya están ofreciendo prototipos de agentes de IA personales a sus clientes, proveedores y otros grupos de interés, lo que plantea desafiantes cuestiones empresariales y técnicas.
¿QUÉ PODRÍA SALIR MAL?
Piense en un agente de IA personal como alguien a quien usted podría contratar como empleado, contratista u otro tipo de agente en el mundo real. Antes de delegar responsabilidades, usted necesita saber si una persona o una empresa es confiable, honesta, competente y si, por ley, está obligada a velar por sus intereses.
Dependiendo de las funciones que desempeñen sus agentes de IA personales, será esencial disponer de versiones digitales de estos y otros controles. Esto se debe a que los riesgos asociados con empleados y contratistas deshonestos también se aplican a los agentes de IA personales. De hecho, dado el alcance y la velocidad potenciales de la IA agéntica, los usuarios deberán estar aún más seguros de que sus agentes de IA personales son dignos de confianza antes de entregarles las llaves de sus activos más valiosos.
Los riesgos más graves que deben abordarse incluyen:
-- Vulnerabilidad frente a delincuentes.
-- Manipulación en el comercio minorista por parte de mercadólogos e influencers pagados.
-- Preferencia por patrocinadores y anunciantes.
-- Susceptibilidad a la desinformación.
UNIR SOLUCIONES LEGALES, DE MERCADO Y TÉCNICAS
Una forma de garantizar la honestidad de los agentes de IA, al igual que ocurre con sus contrapartes humanas, es mediante una supervisión cuidadosa, auditorías y la limitación de su autonomía, estableciendo niveles de aprobación en función de la posible escala y el costo de las decisiones delegadas. Sin embargo, implementar una supervisión tan compleja sobre los agentes de IA anularía en gran medida los beneficios de ahorro de tiempo que supone autorizarlos para que actúen en nuestro nombre.
En su lugar, creemos que la necesidad de que los usuarios supervisen de manera minuciosa y constante a los agentes de IA puede reducirse significativamente si se apoya en una combinación de regulación pública y privada, esquemas de seguros, y hardware y software especializados.
¿CÓMO EMPEZAR?
La tecnología de la IA agéntica ofrece un enorme potencial para hacer la vida más fácil y mejor, no solo para las empresas, sino también para las personas. Aun así, los usuarios no adoptarán agentes de IA a menos que tengan la confianza de que la tecnología es digna de confianza, de que existe tanto supervisión pública como privada sobre el comportamiento de los agentes, y de que hay herramientas adecuadas de monitoreo, reporte y personalización que sean independientes de los propios desarrolladores de los agentes.
Hacerlo bien, como ocurre con cualquier relación fiduciaria, requerirá una asignación clara de derechos y responsabilidades legales, con el respaldo de un mercado sólido de seguros y otras formas de protección de terceros y herramientas de cumplimiento. Los grupos industriales, los desarrolladores tecnológicos, las empresas de servicios al consumidor, los emprendedores, los usuarios, los defensores de los consumidores y los legisladores deben unirse ahora para acelerar la adopción de esta tecnología clave.
Últimas Noticias
Cuando ha superado su relación con un asesor de confianza
Harvard Business Review Wake-Up Call Spanish

¿Por qué capacitar a los empleados resulta doblemente rentable?
Harvard Business Review Wake-Up Call Spanish

Líderes, es momento de desarrollar su tolerancia a la incertidumbre
Harvard Business Review Management Update Spanish

Nuestros consejos de gestión favoritos para comunicarse como un líder
Harvard Business Review Management Update Spanish

Cuando ser una empresa familiar se convierte en una ventaja competitiva
Harvard Business Review Wake-Up Call Spanish


