
Para analizar cómo la deuda psicológica puede influir en la adopción de la IA, encuesté a más de 1,200 empleados a tiempo completo en Estados Unidos y Reino Unido. Esto es lo que los líderes necesitan saber.
LA DEUDA PSICOLÓGICA Y SUS DETONANTES
PUBLICIDAD
Existen seis formas que parecen especialmente relevantes y que, en conjunto, crean lo que a veces se denomina deuda psicológica:
1. Deuda cognitiva. Quizá la consecuencia psicológica negativa más discutida del uso no estructurado de la IA sea la posible pérdida de habilidades de procesamiento cognitivo y toma de decisiones.
PUBLICIDAD
2. Deuda de autonomía. Esto describe la sensación de que la IA está eliminando nuestra capacidad de controlar la forma en que trabajamos. La autonomía es reconocida como una fuente clave de motivación.
3. Deuda de competencia. En el contexto de la IA, la deuda de competencia es la sensación de que, cuanto más usamos la IA para trabajar, menos competentes nos volvemos.
PUBLICIDAD
4. Deuda de pertenencia. La pertenencia se refiere a nuestro instinto social de formar parte integral de grupos sociales.
5. Deuda de credibilidad. Cada vez son más las investigaciones que han documentado que el uso de la IA genera la sensación de que los empleados pierden credibilidad frente a sus compañeros de trabajo, incluso cuando estos también utilizan IA en sus funciones.
PUBLICIDAD
6. Deuda de identidad. La teoría de la identidad social plantea que nos identificamos con el grupo social que nos da la orientación más clara sobre cómo comportarnos en un momento determinado. Cuando ciertos usos de la IA son esperados u obligatorios dentro de determinados flujos de trabajo, puede acumularse una deuda de identidad social profesional cuando esos usos son percibidos como violaciones directas a la pertenencia del grupo.
CÓMO REDUCIR EL COSTO PSICOLÓGICO DE ADOPTAR LA IA
PUBLICIDAD
Reducir la deuda psicológica requerirá que las empresas diseñen relaciones humano-IA que reconozcan las fuentes y barreras de la motivación y el comportamiento humano. Afortunadamente, existe una gran cantidad de investigaciones sobre el comportamiento humano que apuntan a enfoques útiles que pueden adaptarse para mitigar los efectos negativos documentados:
1. Deuda cognitiva. La deuda cognitiva puede evitarse o reducirse asegurando que los empleados no recurran inmediatamente a la IA como una reacción automática (rendición cognitiva). Una forma de preservar el pensamiento crítico consiste en incorporar fricción cognitiva al proceso de IA, haciendo que su uso no sea tan sencillo ni inmediato.
PUBLICIDAD
2. Deuda de autonomía. En lugar de presentar los beneficios de la IA como un hecho consumado, una recomendación es trabajar con los empleados para darles la información necesaria que les permita descubrir por sí mismos cuándo y cómo puede ayudarles la IA.
3. Deuda de competencia. Una forma de eliminar o reducir la sensación de pérdida de competencia frente a la IA es asegurarse de que los empleados la vean como una forma de apoyo para su función y no como una prueba de si son capaces de seguir desempeñando su puesto. Para que esto ocurra, un enfoque único para todos no funcionará, y la formación en IA debe reconocer los contextos específicos en los que los empleados pueden (y van a) recurrir a la IA como apoyo.
PUBLICIDAD
4. Deuda de pertenencia. Proteger la colaboración entre personas dentro de flujos de trabajo habilitados por IA es un aspecto clave de la infraestructura humana necesaria para integrar la IA. Esto podría implicar diseñar procesos en los que los equipos interpreten juntos los resultados de la IA, mediante discusiones interfuncionales, revisiones y espacios de toma de decisiones.
5. Deuda de credibilidad. El uso oculto de IA puede verse como un intento de evitar acumular deuda de credibilidad: si nadie sabe que usted está usando IA, entonces no puede existir ningún riesgo para su credibilidad. Una solución es sacar el uso de IA de las sombras, haciendo que su uso sea visible, compartido e institucional.
PUBLICIDAD
6. Deuda de identidad profesional. Este tipo de deuda puede mitigarse estableciendo normas explícitas y coherentes con la identidad profesional sobre el uso de la IA. En ocasiones, basta con modificar el momento en que se recurre a la IA dentro de un proceso.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Cuando un ejecutivo le hace una pregunta inesperada
Harvard Business Review Wake-Up Call Spanish

Investigación: Por qué no debería tratar a los agentes de IA como empleados
Harvard Business Review Wake-Up Call Spanish

Investigación: Para las mujeres que forman parte de las juntas directivas, el prestigio puede suponer un obstáculo
Harvard Business Review Wake-Up Call Spanish

El liderazgo empático puede determinar el éxito o fracaso de la adopción de la IA
Harvard Business Review Management Update Spanish

Según la investigación, estos son los ámbitos en los que los altos directivos tienen dificultades para adoptar la IA
Harvard Business Review Management Update Spanish



