Inteligencia artificial y trabajo : el peligro de delegar el pensamiento

La pregunta es si estamos dispuestos a sostener el esfuerzo intelectual necesario para no confundir los resultados provistos por la IA con la realidad misma

Guardar
La IA puede ordenar variables,
La IA puede ordenar variables, pero no entiende el sistema humano (Imagen ilustrativa Infobae)

Vivimos una época fascinante: nunca fue tan fácil acceder a información, respuestas y explicaciones. Y, sin embargo, nunca fue tan tentador dejar de pensar por cuenta propia. La inteligencia artificial, usada sin criterio, corre el riesgo de convertirse en una nueva versión de una vieja trampa filosófica: la confusión entre lo que vemos y lo que es.

Platón, filósofo de hace más de dos mil años, solía hacer algo inteligente: en lugar de explicar la verdad como una definición, la convertía en una escena. Pensaba en imágenes mentales potentes, casi cinematográficas. La alegoría de la caverna, que aparece en La República, es su forma más radical de decir algo incómodo: la mayoría de los seres humanos confunde apariencia con realidad.

La escena es simple. Un grupo de personas está encadenado desde la infancia dentro de una caverna. No pueden girar la cabeza. Solo ven una pared. Detrás de ellos hay un fuego, y entre el fuego y los prisioneros pasan objetos, figuras, personas. Lo único que ven son sombras proyectadas en la pared. Para ellos, eso es el mundo. No es que sean tontos. Es que nunca vieron otra cosa.

Y hay un detalle clave: las sombras no son mentiras deliberadas, son copias degradadas de algo más real. Para Platón, la sombra no es la cosa. La opinión no es el conocimiento. Lo sensible no es lo verdadero. Las sombras representan el mundo de las apariencias, lo que aceptamos por costumbre, educación, cultura, repetición. Hoy, diríamos: relatos dominantes, consenso social, ruido, espectáculo.

Hasta que uno se libera. Se da vuelta. Ve el fuego. Le duele. Sale de la caverna. Le duele más. La luz lo enceguece. Este detalle es brutal y poco romántico: conocer, duele. No hay verdad sin incomodidad. No hay cambio de mirada sin pérdida. Y Platón es despiadado: cuando el prisionero vuelve para contar lo que vio, los demás no le creen. Incluso podrían matarlo. Conocimiento y conflicto van juntos.

Ese mito no habla del pasado. Habla de nosotros. Hoy no estamos encadenados a una caverna de piedra. Estamos inmersos en flujos constantes de información, respuestas automáticas y contenidos generados por sistemas cada vez más sofisticados. La pregunta ya no es si la inteligencia artificial es poderosa, lo es. La pregunta es si estamos dispuestos a sostener el esfuerzo intelectual necesario para no confundir sus resultados con la realidad misma.

Los ejemplos son cada vez más frecuentes. Profesionales que presentaron documentos impecables con citas inexistentes. Empresas que tuvieron que responder por políticas inventadas por sus propios asistentes virtuales. Textos verosímiles, con tono profesional y estructura perfecta, que eran falsos si nadie hacía el trabajo incómodo de contrastar.

En el mundo del trabajo, esto aparece todos los días. De manera menos dramática, pero más peligrosa por su normalidad. Un gerente pide a la IA que le resuma un informe estratégico, lee el resumen y toma una decisión. Un equipo arma una presentación brillante en una tarde, pero no puede explicar cuál es el supuesto clave que sostiene su recomendación. La productividad sube. La comprensión real, no siempre.

En liderazgo, el riesgo es aún más delicado. La IA puede ordenar variables, pero no entiende el sistema humano. No entiende cultura, coraje ni consecuencias morales. Cuando un líder empieza a decidir con matrices perfectas sin atravesar conversaciones incómodas, o cuando “lo dijo el sistema” se vuelve una coartada elegante para evitar responsabilidad, la organización se vuelve más eficiente y al mismo tiempo más frágil.

Y hay un síntoma cultural que delata este momento mejor que cualquier debate técnico: LinkedIn. En los últimos meses se llenó de posteos cada vez más parecidos entre sí. Textos prolijos, bien escritos, con tono inspiracional y frases ampulosas y rimbombantes que suenan profundas pero no dicen nada. No es solo estética. Es una señal. Cuando la IA se usa como atajo para producir contenido, el riesgo no es que escriba mal, es que escriba demasiado bien. Y que esa verosimilitud nos haga confundir estilo con pensamiento, tono con verdad, y narrativa con experiencia real. En el mito de la caverna, las sombras no eran grotescas. Eran convincentes.

Esto suele aparecer en charlas con mis clientes. No para demonizar estas herramientas, sino para entrenar lo que ninguna tecnología puede reemplazar: curiosidad, creatividad y criterio humano. La IA puede ser una aliada extraordinaria cuando nos ayuda a hacer mejores preguntas. Pero cualquier tecnología puede volverse una caverna cómoda cuando se usa como sustituto del pensamiento.

Tal vez el desafío de esta época no sea elegir entre humanos o máquinas, sino animarnos a salir de la caverna con ambas. Con la potencia de la inteligencia artificial, sí. Pero también con la capacidad humana de verificar, dudar, conectar ideas y construir sentido. Porque lo real, en el fondo, no es lo que suena bien. Es lo que resiste el contraste.