Un estudio revela que 10 minutos usando IA pueden empezar a apagar tu capacidad de razonar solo

El experimento pidió a cientos de participantes reclutados en línea que resolvieran distintos problemas a cambio de una compensación

Google icon
A una parte de los participantes se les dio acceso a un asistente de IA capaz de resolver los problemas de forma autónoma. (Imagen ilustrativa Infobae)

Usar un chatbot de inteligencia artificial durante apenas 10 minutos puede reducir la capacidad de las personas para pensar de forma independiente y persistir ante problemas difíciles.

Esa es la conclusión central de un nuevo estudio realizado por investigadores de Carnegie Mellon, MIT, Oxford y UCLA, que analizaron en un entorno experimental controlado cómo el acceso a asistentes de IA afecta el razonamiento humano a corto plazo.

Cómo se diseñó el estudio y qué encontraron los investigadores

El experimento encargó a varios cientos de personas, reclutadas a través de una plataforma en línea que les pagaba por su trabajo, que resolvieran distintos tipos de problemas, desde fracciones sencillas hasta ejercicios de comprensión lectora. Los investigadores realizaron tres experimentos con grupos separados de participantes.

PUBLICIDAD

Usar un chatbot de IA durante apenas 10 minutos puede reducir la capacidad de las personas para pensar de forma independiente. (Imagen Ilustrativa Infobae)

A una parte de los participantes se les dio acceso a un asistente de IA capaz de resolver los problemas de forma autónoma. Cuando ese asistente fue retirado de forma repentina, esas personas mostraron una tendencia significativamente mayor a abandonar el problema o a fallar en sus respuestas, en comparación con quienes nunca habían tenido acceso a la herramienta.

Los resultados advierten sobre una preocupante contrapartida: aunque la inteligencia artificial optimiza el rendimiento inmediato de las tareas, su adopción masiva amenaza con atrofiar nuestra destreza natural para encontrar soluciones por cuenta propia.

Qué dice el investigador del MIT sobre el impacto de la IA en el aprendizaje

Michiel Bakker, profesor adjunto del MIT que participó en el estudio, fue cuidadoso al interpretar los resultados. “La conclusión no es que debamos prohibir la IA en la educación o el trabajo”, aclaró a WIRED.

PUBLICIDAD

La dependencia excesiva de la IA resulta especialmente problemática cuando las herramientas no se comportan como el usuario espera. (Imagen ilustrativa Infobae)

“Está claro que la IA puede ayudar a las personas a rendir mejor en el momento, y eso puede ser valioso. Pero deberíamos ser más cuidadosos sobre qué tipo de ayuda proporciona la IA, y cuándo”, agregó.

Bakker, quien trabajó anteriormente en Google DeepMind en Londres, explicó que su interés en el tema surgió de un ensayo sobre cómo la IA puede restar poder a los humanos con el tiempo. Ese texto lo llevó a preguntarse si la tecnología ya estaba erosionando las capacidades de las personas, incluso en interacciones breves.

Su diagnóstico sobre el problema es preciso: “Se trata fundamentalmente de una cuestión cognitiva: la persistencia, el aprendizaje y la respuesta a las dificultades”. Para Bakker, la terquedad sana ante los obstáculos es un factor determinante. Si evitamos el esfuerzo de resolver problemas complejos por nuestra cuenta, saboteamos nuestra propia capacidad para dominar nuevas disciplinas a largo plazo.

Los sistemas de IA agéntica, que realizan tareas complejas de forma independiente, son especialmente impredecibles. (Imagen Ilustrativa Infobae)

Por qué el diseño de las herramientas de IA podría ser parte del problema

Bakker plantea que tal vez sea necesario repensar cómo funcionan los asistentes de IA. A su juicio, al igual que un buen profesor humano, los modelos deberían priorizar en ciertos momentos el aprendizaje del usuario por encima de resolver el problema por él.

“Los sistemas que dan respuestas directas pueden tener efectos a largo plazo muy diferentes de los sistemas que ayudan, orientan o desafían al usuario”, señaló.

El investigador admite que equilibrar ese enfoque más orientado al aprendizaje podría ser complicado, ya que implica una cierta dosis de lo que él mismo llama una actitud “paternalista” por parte de la herramienta.

Los investigadores realizaron tres experimentos con grupos separados de participantes. (Imagen Ilustrativa Infobae)

Las empresas de IA ya empiezan a considerar estos efectos más sutiles. OpenAI, por ejemplo, ha trabajado en versiones más recientes de GPT para reducir la tendencia de algunos modelos a estar de acuerdo con los usuarios de forma condescendiente, un comportamiento conocido como adulación.

La dependencia excesiva de la IA resulta especialmente problemática cuando las herramientas no se comportan como el usuario espera. Los sistemas de IA agéntica, que realizan tareas complejas de forma independiente, son especialmente impredecibles y pueden introducir errores difíciles de detectar.

Ese escenario plantea una pregunta concreta sobre herramientas como Claude Code y Codex: qué efecto están teniendo sobre las habilidades de los programadores que, en ocasiones, deben corregir los errores que esas mismas herramientas introducen en el código.