La educación y el trabajo frente a inteligencia artificial: ¿habrá humanos inservibles?

Cecilia Danesi, autora de “El imperio de los algoritmos” (Ed. Galerna), habló con Ticmas de la necesidad de pensar los límites éticos de la tecnología

Google icon
Cecilia Danesi

En tiempos de la Cuarta Revolución Industrial, en la que el poder parece pertenecer a los algoritmos —esa entelequia que a veces parece algo mágico y otras veces algo perverso—, diversas voces buscan abordar las consecuencias e impactos de esta nueva realidad. Una de estas voces es la de Cecilia Danesi, abogada y magíster en Derecho de Daños con estudios en Argentina, España, Italia y Francia. Danesi es investigadora en el Instituto de Estudios Europeos y Derechos Humanos (UPSA) y profesora en la Universidad Pontificia de Salamanca.

Como destacada referente en el área, se ocupa de la inteligencia artificial con un enfoque que no es el de una tecnóloga, sino el de una especialista que plantea la necesidad de un debate ético con una perspectiva más amplia y profunda. En su libro El imperio de los algoritmos: IA inclusiva, ética y al servicio de la humanidad (Ed. Galerna), Danesi aborda esta nueva tecnología que se evoluciona geométricamente y que parece venir a alterar las relaciones en todos los ámbitos —personal, laboral y educativo—.

Danesi parte de tres aspectos fundamentales: la perspectiva de género, la reivindicación de la identidad iberoamericana y el humanismo tecnológico. El resultado es una brillante reflexión que, a través de casos reales y cotidianos, evita caer en simplificaciones y binarismos, alejada tanto de la sensación de apocalipsis como de la pasividad conformista.

PUBLICIDAD

“Hace poco hubo esta supuesta carta para frenar la inteligencia artificial”, dice Cecilia Danesi ahora en diálogo con Ticmas, “lo que, en mi opinión, me pareció hipócrita porque justamente muchos de los que firmaban la carta son los primeros desarrolladores de esta tecnología”.

La experta en Derecho e Inteligencia Artificial participó este año en el 3° Seminario de Innovación Educativa de Ticmas (Galerna)

¿Pero se puede parar?

—Lo que yo digo en el libro es que la pelota va a seguir girando, pero que hay que sentarse a estudiar y a debatir este fenómeno, porque no es un fenómeno más. No es como el blockchain. Es un cambio de paradigma en la forma que vivimos. Tiene un impacto sideral en la vida de las personas. Hay que abordarlo, estudiarlo, trabajarlo de manera interdisciplinaria. Se necesita una regulación que tiene que construirse también de manera interdisciplinaria. Tratemos de construir una tecnología lo más inclusiva posible y no una herramienta que intensifique las brechas sociales.

PUBLICIDAD

En un capítulo decís que quien nunca tuvo contacto con la inteligencia artificial, en realidad lo hizo pero no se dio cuenta. ¿En qué medida esa transparencia nos afecta?

—Esa imperceptibilidad frente a la tecnología es lo que la vuelve más peligrosa, porque la inocencia de creer que no la estamos utilizando hace que no podamos estar alerta de sus peligros. “Por qué me voy a cuidar de algo que yo no sé que existe”. Necesitamos prevenirnos y cuidarnos de lo intangible más que de lo tangible. Con la tecnología y puntualmente con la Inteligencia Artificial pasa eso.

¿Cuál sería el riesgo?

—Manteniéndonos en la línea de la intangibilidad —porque hablamos de un arma autónoma o que te metan un chip en la cabeza, bueno, ya estamos en otra cosa—, los algoritmos de las redes sociales y de las plataformas digitales nos condicionan. El contenido que vemos logra polarizar nuestras posturas. Ese es el daño más peligroso que tenemos, porque es el que no podemos ver pero está. No hay conciencia en la población acerca de esto.

¿Cómo se protege al trabajador frente a las innovaciones de la inteligencia artificial? Cuando, en los años 80, apareció la robótica en la industria automotriz, hubo un gran debate sobre el rol de los robots en el lugar de los obreros. Hoy la inteligencia artificial empieza a ocupar espacios transversales. ¿Cómo se hace para que no haya humanos “descartables”? Creo que ese es el término que usa Harari.

—“Inservibles”. Harari dijo que la inteligencia artificial iba a crear un grupo de humanos inservibles. Bueno, cómo se hace. Primero, a través de la concientización. Y, en segundo lugar, con la educación. Esta revolución industrial implica también nuevos puestos de trabajo. Data Science, Computer Science, la programación: tienen tanta demanda que la oferta no llega a cubrirla. De hecho, hay gente de disciplinas afines que terminan trabajando en estas justamente porque no dan abasto. ¿Qué podemos hacer? Capacitarlos para que puedan ocupar esos nuevos puestos de trabajo. Yo creo que las personas que van a tener más oportunidades en el futuro son las que logren potenciar sus habilidades con la tecnología. Van a tener lo bueno del humano y lo bueno de la tecnología.

Cecilia Danesi, autora de "El imperio de los algoritmos"

Pero ¿cómo hacemos con la gente grande, para que no queden obsoletos?

—Es súper interesante lo que planteás. Y también lo planteo para un joven o un adolescente, porque la mayoría de lo que estudiamos hoy en día en la escuela y en las carreras universitarias mañana va a estar obsoleto. Todavía las currículas están desactualizadas frente a esta nueva realidad. Yo creo que esto nos desafía a todos. Te hablo de mi caso: yo venía teniendo una carrera súper tradicional del mundo jurídico, trabajaba en tribunales, daba clases en la universidad —eso obviamente lo sigo haciendo, pero con una materia que es inteligencia artificial— y, cuando empecé a especializarme en IA, para mí era chino mandarín avanzado. Yo, habiéndome formado en Derecho en la UBA, trataba de ver qué era un algoritmo. Ese desafío, entonces, está presente en todas las generaciones. Obviamente, cuando uno es más grande, tal vez le cuesta más adaptarse a este cambio. Pero, mal o bien, es inevitable.

En el libro, hablás de los vínculos de la inteligencia artificial con la jurisprudencia y la medicina. ¿Cómo afecta a médicos y abogados una inteligencia artificial que resuelve con mayor eficacia litigios y detecta con más certeza posibles enfermedades?

—Es un debate crucial. ¿Queremos, como sociedad, que tareas tan delicadas como impartir justicia o hacer un diagnóstico la haga un algoritmo y no un humano? Yo repreguntaría quién la hace mejor. Si el algoritmo tiene menos margen de error para detectar un cáncer en una radiografía, me quedo con el algoritmo. Volvemos, entonces, al tema de potenciar las habilidades humanas en tareas específicas donde la inteligencia artificial no puede ser más hábil que nosotros. Dejemos que el sistema se ocupe de una declaratoria, de una sucesión, que hasta una persona totalmente inexperta puede hacerla en pocos días. Y dejemos que los jueces y los abogados se aboquen a los problemas que requieren de empatía o de conciencia. No se trata de una sustitución total, sino del reemplazo de ciertas tareas que, en muchos casos, nosotros no queremos realizar.

Antes te hablaba de la robotización en la industria automotriz y de cómo la fuerza de los hombres quedó en manos de los robots. Ahora es la inteligencia lo que queda en manos de la inteligencia artificial. ¿Qué les queda a los humanos?

—El primer punto es decir qué entendemos por inteligencia. No sólo no hay consenso, sino que, de hecho, hay tests sobre las siete inteligencias y distintas aptitudes. ¿Ser inteligente es hacer más rápido un cálculo matemático o ser inteligente es tener aptitudes para lograr una negociación, un mejor acuerdo o solucionar un conflicto? Hay un montón de tareas súper sensibles y delicadas que el humano conserva, por así decirlo. Necesitamos de esa sensibilidad humana, pero también, lo que queda es, como decía antes, potenciarnos con la tecnología.

Antes hablabas de ciertos cambios obligados en el programa educativo. ¿Cómo afecta la inteligencia artificial a la educación?

—Mucho y desde varios aspectos. Primero, ¿qué contenidos enseñamos? Para mí es inconcebible que un abogado se reciba sin estudiar redes sociales, plataformas digitales, e-commerce, inteligencia artificial, blockchain, criptomonedas, smart contracts. Hoy en día esas materias no son obligatorias. Y, en segundo lugar: ¿cómo enseñamos? En su momento hubo una protesta de los profesores de matemática en contra del uso de la calculadora, y hoy vemos exactamente lo mismo con ChatGPT. A mí, lo que me importa es que, cuando mi alumno esté en un contexto laboral, va a tener que saber usar lo que yo le estoy enseñando. Y va a tener ChatGPT y va a tener la calculadora. Entonces, yo tengo que enseñarle cómo utilizar esas herramientas para que pueda desarrollar sus habilidades de la mejor manera posible. Es un desafío enorme para nosotros, los profesores: qué enseñamos, cómo enseñamos, cómo evaluamos. Hay que aggiornarse a la realidad que tienen nuestros estudiantes y que tiene el mundo.

LEER MÁS

Más Noticias

Filas, silencio y memoria: por qué el diseño de las aulas podría afectar el aprendizaje de los chicos

Una especialista en Educación explicó cómo el modelo tradicional de aulas, basado en filas, silencio y memorización, impacta en la motivación y el rendimiento escolar

Tres miradas sobre la formación docente: qué pueden aportar las organizaciones al sistema educativo

En una jornada de Ticmas dedicada al sistema formador, Iván Petrella, Carla Paparella y Ana Laura Rossaro conversaron sobre el aporte de las organizaciones de la sociedad civil a la educación

Cuáles son las dimensiones más fuertes y cuáles las más débiles de la educación en América Latina según la Fundación Ceibal

Jesica Pouzo Paccosi, gerente de proyecto EdTech Initiative, y Carolina Duer, coordinadora académica --ambas referentes de Fundación Ceibal-- presentaron el primer estudio que releva el estado de la transformación digital en los sistemas educativos de veinticinco países de la región

Sandra Ziegler: “La confianza es algo bastante escaso en el sistema educativo. Hay una tradición de evaluación en términos de control y sanción”

La licenciada en Ciencias de la Educación de la Universidad de Buenos Aires y Mg. y Dra. en Ciencias Sociales (FLACSO) visitó el auditorio de Ticmas en la Feria del Libro para conversar sobre su nuevo libro que propone pensar la educación desde la red y la comunidad

Tres referentes de la educación proponer pensar cómo debe reaccionar la escuela ante el “currículum paralelo de los algoritmos”

En el VII Seminario de Innovación Educativa de Ticmas, Fernando Salvatierra, María Sol Alzú y Mariana Ferrarelli conversaron sobre alfabetización, matemática y educación digital. La mesa propuso pensar la enseñanza desde tres puertas distintas, pero con una misma preocupación: cómo formar criterio en una época marcada por la inteligencia artificial, la sobreinformación y la disputa por la atención