Investigación: El uso de la IA puede frenar la innovación. Pero no tiene por qué ser así

Harvard Business Review Wake-Up Call Spanish

Guardar
Imagen 22I4YZZXV5B4HA7PE424YAYCKA

Desafortunadamente, la IA empresarial suele diseñarse con el objetivo de eliminar la necesidad de comprender. Los líderes se centran en facilitar la adopción y la comodidad, lo que, sin querer, merma la capacidad de asimilación de la organización. Por lo tanto, para proteger los incentivos a la innovación a largo plazo, los líderes deberían replantearse el hecho de centrarse únicamente en la facilidad de uso y empezar a reintroducir un poco de "fricción estratégica" en sus sistemas.

INTRODUCCIÓN DE LA FRICCIÓN ESTRATÉGICA

La clave no es hacer que el trabajo resulte pesado. Se trata de mantener un nivel de esfuerzo suficiente para que las personas sigan aprendiendo. La fricción estratégica debe reservarse para aquellas tareas en las que la organización necesita que las personas piensen y aprendan, no solo que produzcan.

En el contexto empresarial, esto implica pasar de un modelo de oráculo (en el que el usuario pregunta y recibe) a un modelo recíproco, en el que el usuario debe aportar sus conocimientos para obtener información. Existen diversas formas de lograrlo, que van desde simples cambios en las políticas hasta un diseño más ambicioso a nivel de sistema. Usted puede:

-- ESTABLECER UNA REGLA QUE EXIJA ESFUERZOS INDEPENDIENTES DOCUMENTADOS. Por ejemplo, antes de utilizar IA para redactar un análisis de mercado, un analista debe presentar su propia evaluación preliminar (aunque esté incompleta) mostrando lo que ya sabe y en qué puntos se encuentra atascado.

-- DISEÑAR LA IA PARA QUE SOLICITE LA APORTACIÓN DEL USUARIO ANTES DE GENERAR UN RESULTADO COMPLETO. Por ejemplo, si un analista solicita un análisis de la competencia, la IA le pide primero tres observaciones específicas sobre los últimos movimientos de precios del competidor. A continuación, la IA incorpora esta información actualizada en su resultado.

-- CONSTRUIR INTERFACES CON ACCESO CONDICIONADO QUE DESBLOQUEEN LA ASISTENCIA SOLO DESPUÉS DE QUE EL USUARIO APORTE SU PROPIO CONTEXTO. Por ejemplo, antes de que un analista pueda pedirle a la IA interna que genere una evaluación de riesgos, la interfaz le exigiría cargar una hipótesis base y etiquetar tres variables o restricciones clave. El botón de "generar" permanecerá bloqueado hasta que se haya aportado el contexto humano.

CÓMO DISTINGUIR A LOS CREADORES

La defensa contra el estancamiento puede comenzar incluso antes de que el empleado inicie sesión. Muchas empresas siguen contratando en función de "la respuesta correcta". En un entorno saturado de IA, eso ya no es un factor diferenciador. Lo que importa es "el proceso adecuado". Por lo tanto, en las entrevistas y las evaluaciones de desempeño, observe cómo los candidatos y los empleados utilizan las herramientas de IA. ¿Aceptan los resultados como un trabajo terminado o los cuestionan, comprueban las hipótesis y añaden observaciones originales?

Investigaciones recientes hacen visibles estos patrones. Un experimento de campo, liderado por Hila Lifshitz-Assaf y sus colegas de Harvard, MIT y Warwick, analizó cerca de 5,000 interacciones entre humanos e IA realizadas por 244 consultores de BCG. A partir de ello, identificaron tres estilos de colaboración distintos, que se diferencian a partir de dos preguntas clave: quién decide qué debe hacerse y quién decide cómo hacerlo. Los "centaurs" mantuvieron el control humano en ambas dimensiones, utilizando la IA solo para asistencia puntual. Por su parte, los "cyborgs" dejaron que el humano definiera el "qué", pero otorgaron a la IA un control significativo sobre el "cómo", participando en un diálogo continuo y crítico. En contraste, los "self-automators" cedieron el control de ambos aspectos a la IA y experimentaron lo que los investigadores denominan "no-skilling", es decir, no desarrollaron ni experiencia en su campo ni habilidades en el uso de la IA. Dentro de este marco, los "centaurs" y los "cyborgs" representan a los creadores, mientras que los "self-automators" son los oportunistas sobre los que advierte este modelo.

Estos hallazgos sugieren dos comportamientos observables que distinguen a los creadores de los oportunistas:

-- DELEGACIÓN SELECTIVA. Los creadores conocen los límites de lo que la IA hace bien y lo que no. Utilizan la IA para tareas que se encuentran dentro de esos límites y ellos mismos se encargan del trabajo que requiere un mayor criterio.

-- PROFUNDIDAD DE ANÁLISIS. Cuando los creadores utilizan la IA, la ponen a prueba. Le piden que explique su razonamiento, que señale inconsistencias y le proporcionan sus propios datos.