IA en el aula en 2026: ¿vamos bien?

El avance de herramientas digitales en el entorno escolar ha generado cambios en las prácticas de enseñanza, con una amplia adopción por parte de estudiantes y docentes, mientras la normativa y la evaluación buscan adaptarse a estos nuevos desafíos

Guardar
Entre los menores que usaron
Entre los menores que usaron ChetGPT, dos de cada tres lo hicieron con fines escolares (Imagen Ilustrativa Infobae)

Estamos a las puertas del inicio de un nuevo ciclo lectivo en Argentina, el cual encuentra a la escuela en una transición que ya no es hipotética: la IA (y, en particular, la IA generativa) dejó de ser “tema de tecnología” para convertirse en una capa transversal de lectura, escritura, estudio, convivencia digital y gestión escolar. Un indicador fuerte, por su escala y representatividad, llega desde Kids Online Argentina 2025 (Unicef y Unesco): el 76% de chicos y chicas de 9 a 17 años dice conocer ChatGPT y el 58% afirma haberlo usado alguna vez; entre quienes lo usaron, dos de cada tres lo hicieron con fines escolares.

El dato no sólo habla de adopción: también explica por qué la discusión 2026 no puede limitarse a “permitir o prohibir”. La misma investigación muestra que el acceso y los dispositivos condicionan las formas de uso: si bien el 96% tiene Internet en el hogar, las computadoras aparecen mucho menos presentes y usadas que el celular; y, para estudiar o hacer tareas, sólo 6 de cada 10 chicos y chicas cuentan con posibilidad de usar una computadora en casa, proporción que cae a 3 de cada 10 en hogares de nivel socioeconómico bajo. Esta asimetría importa porque mucha de la “escuela con IA” se está viviendo desde pantallas chicas, con conectividad desigual y con menos posibilidades de producción extendida (redacción compleja, edición, programación, trabajo con fuentes) que en una computadora.

El 76% de chicos y chicas de 9 a 17 años dice conocer ChatGPT y el 58% afirma haberlo usado alguna vez

El punto es que en 2026 no se debería volver al debate de principios “IA sí/IA no”, sino entrar en la pregunta más exigente: qué prácticas escolares cambian, cuáles se defienden, cómo se legitiman aprendizajes auténticos y cómo se reduce el daño colateral (fraude, dependencia, violencia digital, sesgos, filtración de datos).

A nivel de percepciones y práctica cotidiana, Educ.ar relevó en el primer trimestre de 2025 una encuesta sobre “usos y representaciones” en comunidad educativa, el 75% de docentes respondió que usa herramientas de IA en sus tareas, y el 73% de equipos directivos también declaró utilizarlas para tareas escolares. Entre estudiantes encuestados (con peso importante de nivel superior), el 79% señaló usar alguna herramienta de IA para tareas vinculadas con el estudio.

Más allá del “sí/no”, la misma fuente permite ver la textura del fenómeno: en docentes aparecen herramientas como ChatGPT (34%), Gemini (13%), Canva (8%) y Copilot (7%), entre otras. Y, del lado estudiantil, se repite la centralidad de ChatGPT (35%), con menciones posteriores a Meta IA/WhatsApp (9%), Gemini (7%) y Copilot (4%). Esto importa porque anticipa un rasgo del 2026: la IA no llega como una plataforma única adoptada por el sistema, sino como un “ecosistema de herramientas” usado de forma distribuida y, muchas veces, sin encuadre común.

La lectura obligatoria de estos datos es incómoda pero útil: la escuela llega a 2026 con estudiantes y docentes que ya usan IA, mientras que la institución (normas, criterios de evaluación, resguardo de datos, acuerdos de autoría) viene corriendo detrás. Esa brecha explica gran parte de los conflictos observados en 2025.

El conflicto más visible en 2025 fue la evaluación. La educación argentina registró un retorno (parcial y tensionado) a formatos presenciales “desconectados” como reacción al uso masivo de IA generativa en trabajos domiciliarios. Vemos docentes de secundario y de terciario/universidad que cambiaron sus formas de evaluar porque recibían trabajos hechos “íntegramente por ChatGPT u otra herramienta”. Porque ahí radica el dilema pedagógico central: si la consigna domiciliaria puede resolverse con un “copiar/pegar”, ¿sigue midiendo aprendizaje o sólo administra un trámite? Y, todavía más delicado: ¿cómo se sostiene la justicia de la calificación cuando conviven estudiantes que delegan la escritura en IA con otros que producen con esfuerzo, errores y voz propia?

El segundo choque (más silencioso, pero pedagógicamente más profundo) es el de la escritura como proceso cognitivo. Si una estudiante recibe una consigna literaria y pide a ChatGPT la respuesta, copia y pega, y obtiene una nota alta sin haber leído el texto, el proceso de la automatización de la producción escrita puede empujar a una estandarización del lenguaje, erosionando la posibilidad de leer en la escritura del alumno su “posición” y sus dificultades. En clave 2026, esto se traduce en una pregunta práctica para cada docente: ¿qué parte del aprendizaje quiero que suceda sin asistencia, cuál con asistencia y cuál a partir de discutir críticamente la asistencia?

El año pasado dejó evidencia de que el alumnado no es ingenuo respecto de los riesgos

Un tercer conflicto, cada vez más citado, es el del “aprendizaje superficial” o la “delegación cognitiva”: cuando el estudiante recibe una respuesta servida, se saltea pasos que construyen comprensión. Si la IA se integra al aula, debe ser con criterio pedagógico; de lo contrario, la escuela corre el riesgo de que la IA abierta ocupe de facto un rol formativo sin mediación. Este punto vincula con lo que dicen estudiantes en la encuesta Educ.ar: entre las desventajas de usar IA mencionan la dependencia y la pérdida de pensamiento crítico, aun cuando valoran rapidez, organización y apoyo para comprender. El año pasado dejó evidencia de que el alumnado no es ingenuo respecto de los riesgos; lo que falta es un marco escolar que convierta esa intuición en alfabetización crítica.

El cuarto conflicto, más institucional, fue la tentación de resolver la crisis de autoría con “detectores de IA” como si fueran pruebas concluyentes. En 2025 se difundieron casos donde instituciones acusaron masivamente a estudiantes basándose en herramientas que luego se mostraron imprecisas, generando retractaciones y crisis de confianza. Ha quedado más que claro que el juego de policías y ladrones no beneficia a nadie. Una institución que terceriza la “verdad” de la autoría en un score automatizado arriesga no sólo injusticias individuales, sino erosión de autoridad pedagógica. Tanto docentes como instituciones tienen la obligación de repensar los métodos de evaluación académica.

Afortunadamente, 2025 mostró una respuesta de política educativa más estructurada. A nivel nacional, Educ.ar informó el lanzamiento de PAIDEIA (Programa Argentino de Innovación de la Educación con IA), una iniciativa oficial que busca transformar prácticas pedagógicas incorporando IA con un enfoque “interdisciplinario y humanista” y con objetivos que van desde pensamiento computacional hasta aplicación y desarrollo de IA (según edad/ciclo). En el mismo anuncio se vincula PAIDEIA con la creación de un Observatorio Permanente de IA en Educación, aprobado por el Consejo Federal de Educación (CFE), con misión de monitorear, sistematizar y analizar impacto, además de trabajar marcos éticos y normativos.

Si 2025 fue el año del choque, también fue el año en que empezaron a verse implementaciones con diseño pedagógico explícito, y no sólo uso espontáneo

En términos de gobernanza educativa, esta es una novedad relevante: la IA deja de ser un “apéndice” y se busca instalar capacidad estatal de evaluación continua.

A nivel subnacional, la Ciudad de Buenos Aires publicó en 2025 una “Guía para un uso crítico” de IA en la escuela, elaborada por su área de Educación Digital dentro de planes BA Aprende y Plan Integral de Educación Digital. El valor de esta guía, de cara a 2026, es que traduce el problema en criterios operativos: incluye principios, marco normativo y recomendaciones, y pone foco en temas que en 2025 ya fueron conflictivos: protección de datos, propiedad intelectual, sesgos, alfabetización frente a fake news y deepfakes. Por ejemplo, advierte que muchas herramientas de IA solicitan datos personales y recomienda evitar que estudiantes compartan información sensible; priorizar cuentas institucionales/gestionadas por docentes; y verificar cumplimiento de marcos como Ley 25.326 (Argentina) y regulaciones internacionales.

El puente entre normas y aula también aparece en materiales prácticos. Educ.ar, por ejemplo, publicó el recurso “Cómo incorporar IA generativa al aula”, orientado a docentes, con estrategias para formular prompts y con énfasis en uso seguro y responsable. Estos insumos no eliminan el conflicto, pero sí ayudan a que 2026 no repita el error de 2025: dejar la adopción librada a la improvisación individual.

Si 2025 fue el año del choque, también fue el año en que empezaron a verse implementaciones con diseño pedagógico explícito, y no sólo uso espontáneo. El caso más visible en agenda es Mendoza. En enero de 2025, el Gobierno provincial comunicó que trabajaba para llevar al aula una herramienta de IA “aplicada a necesidades pedagógicas y curriculares”, con implementación inicial en 100 escuelas y enmarcada en planes de alfabetización y matemática. En ese anuncio se define una intención triple: innovación pedagógica, refuerzo curricular de lo que docentes trabajan, y promoción de conversaciones para estimular “el arte de preguntar”.

En el plano internacional, el aprendizaje principal es que la IA educativa funciona mejor cuando se acota a problemas educativos concretos

En mayo de 2025, la provincia informó el despliegue de “Mendoza Aumentada”, un proyecto desarrollado por el gobierno escolar junto a la plataforma FlexFlix, con contenidos de matemática, lengua y ciencias para entrenar resolución de problemas, y con un componente de formación docente (presentación a supervisores y encuentros de capacitación). La noticia no es sólo la plataforma: es la idea de acompañar con formación y metodologías pedagógicas, que es precisamente lo que suele faltar cuando la IA entra por la puerta informal del hogar. La lección de Mendoza es clara: cuando la IA llega con planificación, criterios, entrenamiento y evaluación de resultados, deja de ser una amenaza abstracta y puede transformarse en una herramienta curricular gobernable.

En el plano internacional, el aprendizaje principal es que la IA educativa funciona mejor cuando se acota a problemas educativos concretos, se mide impacto y se protege la agencia docente, en lugar de usarse como reemplazo generalista. Unesco, por ejemplo, publicó una guía global para uso de IA generativa en educación e investigación que advierte que el ritmo de lanzamiento de herramientas supera la adaptación regulatoria, dejando desprotegida la privacidad y a instituciones sin preparación para validar herramientas. La guía sugiere pasos clave como obligación de proteger privacidad de datos y establecer límites de edad para conversaciones independientes con plataformas de IA generativa, además de un enfoque “humano-agente” y adecuado a la edad para diseño pedagógico y validación ética. En paralelo, el marco de competencias docentes en IA de UNESCO subraya el déficit global: sólo siete países han desarrollado marcos o programas de desarrollo profesional docente en IA, lo que vuelve crítica la formación y no sólo la compra de herramientas.

En el apoyo a docentes, un ejemplo interesante es el del Reino Unido con Aila (Oak National Academy), un asistente de planificación de clases que busca mantener al docente “en el asiento del conductor” (“teacher in the driving seat”) y que incorpora protocolos de seguridad para adecuación del contenido al aula. Lo relevante para 2026 es que se está evaluando con un diseño experimental (Teacher Choices trial) para medir impacto en tiempo de preparación y calidad de recursos, con reporte previsto para otoño de 2026. Incluso antes de resultados finales, este enfoque marca un estándar: no alcanza con decir “ahorra tiempo”; hay que medir cuánto, a costa de qué, y con qué controles.

La IA se está volviendo infraestructura blanda, y la pregunta educativa pasa a ser cómo gobernar calidad, privacidad y propósito

En plataformas de tutoría/soporte más masivas, Khan Academy reportó en su Annual Report SY24-25 que su tutor/asistente de IA (Khanmigo) creció con fuerza: 731% interanual en inscripciones y 2,0 millones de estudiantes, educadores y familias lo usaron globalmente durante el ciclo 2024-2025; además, casi la mitad de usuarios fueron docentes con acceso gratuito en más de 70 países. Aunque esto no reemplaza evidencia causal de aprendizaje atribuible a IA, sí muestra una tendencia global: la IA se está volviendo infraestructura blanda, y la pregunta educativa pasa a ser cómo gobernar calidad, privacidad y propósito.

Finalmente, para América Latina, es útil mirar marcos regionales de alfabetización en IA. Un ejemplo es el marco referencial de Ceibal (Uruguay) para enseñanza de IA, que busca orientar programas y planificación para fomentar comprensión profunda y competencias, incluyendo pensamiento crítico, creatividad, colaboración y reflexión ética sobre impacto social. En Chile, el Ministerio de Educación publicó en 2025 “PotencIA el aprendizaje”, un documento que explícitamente no se presenta como guía cerrada sino como invitación a replantear cómo enseñar y aprender en tiempos de IA generativa, poniendo en el centro tensiones, oportunidades y riesgos. Para Argentina 2026, estos marcos regionales son valiosos porque muestran que la discusión no es meramente tecnológica: es curricular, ética, pedagógica y política pública.

La inteligencia artificial ya está en el aula, querámoslo o no, y los primeros aprendizajes del 2025 muestran que prohibir, negar o improvisar no es una estrategia sostenible. Existen señales alentadoras que demuestran que la IA puede potenciar la educación cuando se la integra con criterio pedagógico, propósito y acompañamiento docente. Pero sería un error confundir estos avances con una meta alcanzada. Lo que viene exige trabajo sostenido, inversión, formación continua y, sobre todo, una conversación honesta entre escuelas, docentes, estudiantes, familias y decisores públicos. La tecnología avanza más rápido que las instituciones, y relajarse hoy es hipotecar el aprendizaje de mañana. La oportunidad está sobre la mesa; convertirla en impacto educativo real dependerá de la responsabilidad con la que actuemos ahora.

El autor es CEO de Varegos, docente universitario especializado en IA y autor del libro Humanware (declarado de interés para la Comunicación Social por la Legislatura de la Ciudad de Buenos Aires)