
A medida que la IA aumenta en velocidad y volumen, las organizaciones no pueden simplemente incorporarla a flujos de trabajo diseñados para el ritmo humano. Con base en nuestra experiencia como economistas que estudian el impacto de la IA en las organizaciones y en los mercados laborales, creemos que los CEOs necesitan rediseñar el trabajo tanto de la IA como de las personas en tres aspectos clave:
1. Redefinir explícitamente los flujos de trabajo y luego establecer nuevas expectativas de roles (humanos).
PUBLICIDAD
A medida que los agentes de IA asumen tareas de ejecución, los roles humanos se enfocarán cada vez más en supervisión, criterio, construcción de relaciones y manejo de la ambigüedad. En nuestro trabajo con clientes, hemos observado que este cambio en la responsabilidad no se está comunicando de forma clara en muchos lugares de trabajo actualmente, mientras que las empresas nativas de IA lo incorporan explícitamente en su modelo de talento. A medida que cambian los flujos de trabajo, también cambian los roles humanos, lo que requiere nuevas habilidades acompañadas de nuevas expectativas. Los líderes deben:
-- Crear el entorno adecuado de responsabilidad y alcance de control. La capacidad de supervisión no se expande automáticamente solo porque aumente la producción. Los líderes deben rediseñar los alcances de control y el tamaño de los equipos teniendo esto en cuenta.
PUBLICIDAD
-- Rediseñar los roles a gran escala y aclarar las expectativas. Establecer expectativas realistas sobre la velocidad y el volumen de trabajo, declarar explícitamente la responsabilidad de supervisión sobre los sistemas de IA en las descripciones de puesto y definir las habilidades humanas permanentes que siguen siendo fundamentales.
-- Reiniciar la gestión del desempeño. Recompensar la calidad de la supervisión y la coordinación efectiva de los sistemas de IA, no solo la velocidad y el volumen de producción.
PUBLICIDAD
2. Hacer que la responsabilidad sea explícita y personal tanto para empleados como para agentes.
La evidencia presentada en nuestro estudio sugiere que los agentes de IA deben tratarse como lo que son: automatización de software que requiere una responsabilidad humana clara sobre su funcionamiento y sus resultados. Cuando la IA contribuye a un resultado, esto debe hacerse evidente para las personas responsables que deben rendir cuentas por ello. Esto es especialmente crítico en entornos altamente regulados.
PUBLICIDAD
Esto requiere reglas claras de colaboración entre humanos y agentes, basadas en objetivos compartidos y responsabilidad sostenida en el tiempo, en tres frentes:
-- Derechos de decisión: Debido a que los agentes pueden manejar situaciones mucho más flexibles que la automatización tradicional, es fundamental definir qué puede hacer el agente de manera autónoma y qué requiere aprobación humana explícita.
PUBLICIDAD
-- Escalamiento: ¿Qué desencadena una revisión? ¿Quién interviene? ¿Quién asume el costo de un retraso o de un error?
-- Consecuencias: Cuando el agente falla, ¿qué sucede después? Defina cómo se mantendrá la responsabilidad a lo largo del tiempo. Los empleados humanos responsables deben supervisar el desempeño de los agentes y proporcionar mejoras continuas.
PUBLICIDAD
3. Diseñar e implementar un plan de desarrollo de capacidades para empleados que gestionan agentes.
La capacidad de supervisar sistemas humano-agénticos no siempre surge de manera orgánica, como lo demuestra el hecho de que las empresas solo obtienen valor de la IA cuando protegen el aprendizaje de los empleados. Las organizaciones necesitan un nuevo conjunto de herramientas de gestión y programas de capacitación que ayuden a los empleados a navegar un equilibrio diferente entre delegación y control al trabajar con IA. Los empleados deben comprender la amplia variedad de tareas que la IA puede realizar, utilizarla como una fuente de inteligencia y no solo como una herramienta de ejecución de tareas, e integrarla en los flujos de trabajo de maneras que mejoren la toma de decisiones. Igualmente importante es que sepan cuándo confiar en la IA, cuándo cuestionar sus resultados y en qué aspectos sus limitaciones difieren de las de los trabajadores humanos.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Cuando un ejecutivo le hace una pregunta inesperada
Harvard Business Review Wake-Up Call Spanish

Los costos psicológicos de adoptar la IA
Harvard Business Review Wake-Up Call Spanish

Investigación: Para las mujeres que forman parte de las juntas directivas, el prestigio puede suponer un obstáculo
Harvard Business Review Wake-Up Call Spanish

El liderazgo empático puede determinar el éxito o fracaso de la adopción de la IA
Harvard Business Review Management Update Spanish

Según la investigación, estos son los ámbitos en los que los altos directivos tienen dificultades para adoptar la IA
Harvard Business Review Management Update Spanish



