La IA no tiene quien le enseñe

Si no fortalecemos la educación de base, tendremos generaciones entrenando modelos sin entender sus sesgos, ni cuestionar los datos o el impacto de sus decisiones. Una sociedad donde pocos entienden y controlan la tecnología, y el resto sólo la ejecuta

Guardar
Representación digital de un caballo
Representación digital de un caballo de Troya con elementos tecnológicos, simbolizando amenazas de ciberseguridad y robo de información - (Imagen Ilustrativa Infobae)

Gobiernos gritan a viva voz: hagamos cursos de programación, robótica, inteligencia artificial. ¿Pero se adaptan los programas de educación inicial, primaria y secundaria para que los egresados realmente los aprovechen? Voy a ser más directo: ¿se está enseñando a pensar?

Porque, más allá de que alguien termine como programador, ingeniero, arquitecto o artista, necesita cultura general, pensamiento lógico, crítico y método científico. Sin esas bases, cualquier curso avanzado es solo un manual de instrucciones, no una formación real.

Cuando aprendí a programar a los 10 años, los ingenieros usaban diagramas para enseñarme a hacer un asado. Nunca me faltaron fósforos después de eso. Porque no se trataba solo de programar, sino de aprender a descomponer problemas, pensar procesos, entender causas y efectos.

Hoy, mientras la inteligencia artificial avanza, enfrentamos un problema crítico: si no fortalecemos la educación de base, tendremos generaciones entrenando modelos sin entender sus sesgos, ni cuestionar los datos o el impacto de sus decisiones. Una sociedad donde pocos entienden y controlan la tecnología, y el resto sólo la ejecuta.

El sistema educativo sigue priorizando la memorización sobre la comprensión

El problema no es la falta de cursos de IA, sino la falta de educación para formar humanos capaces de razonar sobre IA. Pensamiento lógico, método científico y análisis crítico no se aprenden en un curso: son estructuras mentales que deben desarrollarse desde la educación básica.

Pero el sistema educativo sigue priorizando la memorización sobre la comprensión. En vez de enseñar a cuestionar y analizar, se dan datos fragmentados que los estudiantes repiten sin contexto. Así, crecen sin herramientas para detectar sesgos, evaluar información o hacer preguntas relevantes.

No es un problema nuevo. Muchas sociedades funcionaron con el conocimiento centralizado en una élite, mientras la mayoría solo ejecutaba sin entender. Los aztecas, por ejemplo, tenían eruditos que dominaban matemáticas, astronomía y arquitectura, pero el resto no accedía a ese saber.

Si trasladamos este modelo al futuro, corremos el riesgo de repetirlo: unos pocos entrenan y controlan la IA, mientras el resto la usa sin entender cómo funciona ni cómo puede ser manipulada en su contra.

La inteligencia artificial, por más avanzada que parezca, no piensa más allá de su entrenamiento. Solo replica y amplifica patrones de los datos que recibió. Existen técnicas como el aprendizaje reforzado o la autoevaluación entre modelos, pero ese «autoentrenamiento» es autorreferencial: se basa en sus propios datos y métricas, sin criterio externo ni conciencia de lo que excluye.

El problema no es la falta de cursos de IA, sino la falta de educación para formar humanos capaces de razonar sobre IA

Una IA puede afinar lo que ya sabe, pero no puede repensarse sola. No cuestiona su entrenamiento, ni detecta sesgos estructurales o el sentido del camino que sigue. Para eso necesita humanos críticos, que aporten nuevas perspectivas y le enseñen a ver otras realidades. Sin esa intervención, sólo se repite con más precisión.

Aquí está la paradoja: sin suficientes humanos con pensamiento crítico para entrenar, supervisar y corregir a la IA, esta se vuelve inútil o peligrosa.

Si el conocimiento queda en pocas manos, la IA solo reflejará la visión de esa élite. Y si no se renueva ni se cuestiona desde diversas perspectivas, caemos en un ciclo de endogamia: una IA que repite los mismos sesgos y errores sin evolucionar.

El resultado: una inteligencia artificial, pero no inteligente.

No basta con enseñar a programar. Hay que enseñar a pensar. Para que la IA sea verdaderamente útil, necesitamos más humanos capaces de dialogar con ella, entrenarla con criterio y entender sus implicancias filosóficas, éticas y sociales.

Esto exige reformar la educación desde la base. No podemos aspirar a un futuro tecnológico sin una población que entienda sus fundamentos. Sin lógica, pensamiento crítico y método científico, caeremos en una nueva era feudal del conocimiento: unos pocos diseñan la realidad, el resto la acepta.

Si queremos que la IA sea una verdadera extensión de la inteligencia humana, y no solo una herramienta sesgada, necesitamos más mentes que hagan preguntas antes de dar respuestas.

La pregunta clave no es «¿cómo entrenamos a la IA?», sino «¿quién está entrenando a los humanos?», y para qué.

El autor es tecnólogo, fundador y director ejecutivo de iurika-symbiotics