La educación, herramienta clave para el uso eficaz y consciente de la Inteligencia Artificial

Una encuesta realizada por el Foro Económico Mundial a referentes de distintas áreas señala que la meteórica evolución de la inteligencia artificial conlleva ciertos riesgos a la sociedad, pero que la educación aparece como la gran estrategia para mitigarlos y conseguir un uso efectivo y más seguro de esta tecnología

El FEM presentó los resultados de la Encuesta de Percepción de Riesgos Globales: identificó aquellos que están asociados a la Inteligencia Artificial, y cómo la educación puede ser la que le dé un uso consciente y eficaz a esta tecnología. (Imagen ilustrativa Infobae)

El Foro Económico Mundial dio a conocer los resultados de la Encuesta de Percepción de Riesgos Globales (GRPS, por sus siglas en inglés), en la que líderes de distintos sectores señalan los desafíos anticipados para el período 2024-2026. En este ejercicio participan expertos de la academia, industria, gobierno, comunidad internacional y sociedad civil, con el objetivo de proporcionar una visión completa de los riesgos que impactan en nuestro mundo.

A través de la GRPS, el Foro Económico Mundial elabora el Informe de Riesgos Globales, una herramienta que actúa como guía para la toma de decisiones y contribuye a la formulación de estrategias efectivas para abordar los desafíos más apremiantes de nuestra era.

Los riesgos identificados se agrupan en cinco categorías principales: económicos, ambientales, geopolíticos, sociales y tecnológicos, abarcando una amplia gama de posibles impactos en las sociedades. En este artículo, nos enfocaremos específicamente en los riesgos asociados a la Inteligencia Artificial, dada su evolución acelerada y los significativos desafíos que plantea, y en cómo la educación puede ser quien le dé un uso consciente y eficaz.

Read more!
Hay ocho categorías de riesgos asociados a la IA, entre ellos la manipulación de la informaciónm, el desplazamiento laboral, los ciberataques, la integración con armamentos (Imagen ilustrativa Infobae)

Riesgos de la inteligencia artificial según el Foro Económico Mundial

1. Resultados adversos de las tecnologías de inteligencia artificial. Implica todas las posibles consecuencias no deseadas derivadas de la implementación de tecnologías de IA, con potenciales ramificaciones negativas a nivel social y económico.

2. Desinformación y manipulación de información. Representa la amenaza de la proliferación de información falsa o manipulada mediante algoritmos de IA, afectando la percepción pública y la toma de decisiones informada.

3. Pérdida de empleos y desplazamiento laboral. Relacionado con el riesgo de automatización y la posible pérdida de empleos tradicionales, generando desafíos significativos en el mercado laboral.

4. Uso criminal y ciberataques. Tiene que ver con la posibilidad de que actores malintencionados empleen la inteligencia artificial para llevar a cabo actividades delictivas o realizar ciberataques con consecuencias perjudiciales.

5. Sesgo y discriminación. Se refiere al desafío de abordar sesgos inherentes en los algoritmos de IA, que podrían resultar en discriminación y disparidades injustas en la aplicación de tecnologías.

6. Uso en la toma de decisiones críticas por parte de organizaciones y estados. Involucra la integración de la inteligencia artificial en procesos decisionales cruciales, planteando interrogantes sobre la transparencia y ética en dichas decisiones.

7. Integración de la IA en armamento y guerra. Se trata de la incorporación de tecnologías de IA en el ámbito militar, generando preocupaciones sobre la escalada y la ética en el uso de estas herramientas en conflictos.

8. Proliferación descontrolada de tecnologías de IA de propósito general cada vez más poderosas. Representa el riesgo de un desarrollo no regulado de tecnologías de IA avanzadas, con potencial para impactar significativamente en diversos aspectos de la sociedad.

La concientización y la alfabetización en inteligencia artificial emergen como estrategias cruciales para abordar la preparación y reducción de los resultados adversos de estas tecnologías (Imagen ilustrativa Infobae)

La educación como el pilar fundamental ante los riesgos de la IA

Según lo destacado por los participantes en la encuesta GRPS, la educación se erige como un pilar fundamental. La concientización y la alfabetización en inteligencia artificial emergen como estrategias cruciales para abordar la preparación y reducción de los resultados adversos de estas tecnologías.

Los encuestados han enfatizado la necesidad de incorporar la alfabetización en IA generativa en sistemas educativos y programas de formación, no solo para reguladores sino también para periodistas y tomadores de decisiones. Este enfoque busca no solo comprender las capacidades de los sistemas de IA, sino también cultivar la habilidad de identificar fuentes confiables de información en un entorno cada vez más digital.

Aunque los esfuerzos a nivel nacional pueden no evitar la proliferación global de la IA, establecer estándares sólidos pero flexibles en materia educativa puede alinear el desarrollo tecnológico con las necesidades de la sociedad.

Además, la evolución de la legislación existente en áreas como propiedad intelectual, empleo, política de competencia, protección de datos, privacidad y derechos humanos debería incorporar una fuerte componente educativa. La formación en ética digital y el entendimiento profundo de las implicancias sociales de la IA se vuelven esenciales para la adopción informada y ética de estas tecnologías. La colaboración entre el sector privado y el académico debería incluir un componente educativo robusto, fomentando la formación continua y la difusión de conocimientos en el ámbito de la inteligencia artificial.

En paralelo a la centralidad de la educación, los encuestados subrayan la importancia de regulaciones efectivas y la cooperación global para abordar los riesgos asociados a la inteligencia artificial. Marcos de gobernanza global, como la Declaración de Hiroshima del G7 sobre el proceso de Inteligencia Artificial Generativa (que fija un código de conducta) y la Declaración de Bletchley (que da pautas sobre ciberseguridad, biotecnología y desinformación, entre otros temas), proporcionan orientación para el desarrollo de la IA y destacan la necesidad de una supervisión extendida a una base de datos de informes y sistemas cruciales de IA.

Read more!

Más Noticias

Mariana Ferrarelli en el podcast de Ticmas: “Es ingenuo creer que podemos prohibir la IA en la educación”

El tercer episodio del podcast de Ticmas convocó a la especialista en alfabetización en inteligencia artificial que hoy dirige el Programa de IA en Educación en la Universidad de San Andrés. Una charla actual para reflexionar

La Licenciatura en Tecnología Educativa de la UPB: una formación que pone lo humano por delante de la máquina

Lina María Cano Vásquez, decana de la Escuela de Educación y Pedagogía de la UPB, habló con Ticmas sobre la nueva Licenciatura en Tecnología Educativa, un programa que acaba de obtener acreditación de registro calificado y que forma profesionales para un mundo donde enseñar y aprender ya no se limita al aula

Tres de cada cuatro docentes apoyan el uso de la Inteligencia Artificial con fines educativos

A partir de una encuesta realizada a más de cuatro mil docentes universitarios y alumnos de ese nivel en Reino Unido, Estados Unidos, India, México y Arabia Saudita se pone de relieve la ambivalencia con respecto al uso de la inteligencia artificial en el aprendizaje

Qué tienen que saber las escuelas, universidades y empresas al dar el salto a la inteligencia artificial

Jaime Moreno lleva años ayudando a que instituciones y organizaciones adopten correctamente el uso de la IA. Su diagnóstico: el problema no es la tecnología, sino la falta de criterio para usarla

Cada vez más provincias limitan el uso de celulares en la escuela y ponen el foco en el rol de las familias

Siete jurisdicciones ya implementaron restricciones; esta semana CABA amplió la prohibición a secundaria. Algunas avanzaron con resoluciones de los ministerios o por medio de leyes; en otras, el tema depende de cada escuela. Las iniciativas recientes buscan generar acuerdos entre las familias