La educación, herramienta clave para el uso eficaz y consciente de la Inteligencia Artificial

Una encuesta realizada por el Foro Económico Mundial a referentes de distintas áreas señala que la meteórica evolución de la inteligencia artificial conlleva ciertos riesgos a la sociedad, pero que la educación aparece como la gran estrategia para mitigarlos y conseguir un uso efectivo y más seguro de esta tecnología

Guardar
El FEM presentó los resultados
El FEM presentó los resultados de la Encuesta de Percepción de Riesgos Globales: identificó aquellos que están asociados a la Inteligencia Artificial, y cómo la educación puede ser la que le dé un uso consciente y eficaz a esta tecnología. (Imagen ilustrativa Infobae)

El Foro Económico Mundial dio a conocer los resultados de la Encuesta de Percepción de Riesgos Globales (GRPS, por sus siglas en inglés), en la que líderes de distintos sectores señalan los desafíos anticipados para el período 2024-2026. En este ejercicio participan expertos de la academia, industria, gobierno, comunidad internacional y sociedad civil, con el objetivo de proporcionar una visión completa de los riesgos que impactan en nuestro mundo.

A través de la GRPS, el Foro Económico Mundial elabora el Informe de Riesgos Globales, una herramienta que actúa como guía para la toma de decisiones y contribuye a la formulación de estrategias efectivas para abordar los desafíos más apremiantes de nuestra era.

Los riesgos identificados se agrupan en cinco categorías principales: económicos, ambientales, geopolíticos, sociales y tecnológicos, abarcando una amplia gama de posibles impactos en las sociedades. En este artículo, nos enfocaremos específicamente en los riesgos asociados a la Inteligencia Artificial, dada su evolución acelerada y los significativos desafíos que plantea, y en cómo la educación puede ser quien le dé un uso consciente y eficaz.

Hay ocho categorías de riesgos
Hay ocho categorías de riesgos asociados a la IA, entre ellos la manipulación de la informaciónm, el desplazamiento laboral, los ciberataques, la integración con armamentos (Imagen ilustrativa Infobae)

Riesgos de la inteligencia artificial según el Foro Económico Mundial

1. Resultados adversos de las tecnologías de inteligencia artificial. Implica todas las posibles consecuencias no deseadas derivadas de la implementación de tecnologías de IA, con potenciales ramificaciones negativas a nivel social y económico.

2. Desinformación y manipulación de información. Representa la amenaza de la proliferación de información falsa o manipulada mediante algoritmos de IA, afectando la percepción pública y la toma de decisiones informada.

3. Pérdida de empleos y desplazamiento laboral. Relacionado con el riesgo de automatización y la posible pérdida de empleos tradicionales, generando desafíos significativos en el mercado laboral.

4. Uso criminal y ciberataques. Tiene que ver con la posibilidad de que actores malintencionados empleen la inteligencia artificial para llevar a cabo actividades delictivas o realizar ciberataques con consecuencias perjudiciales.

5. Sesgo y discriminación. Se refiere al desafío de abordar sesgos inherentes en los algoritmos de IA, que podrían resultar en discriminación y disparidades injustas en la aplicación de tecnologías.

6. Uso en la toma de decisiones críticas por parte de organizaciones y estados. Involucra la integración de la inteligencia artificial en procesos decisionales cruciales, planteando interrogantes sobre la transparencia y ética en dichas decisiones.

7. Integración de la IA en armamento y guerra. Se trata de la incorporación de tecnologías de IA en el ámbito militar, generando preocupaciones sobre la escalada y la ética en el uso de estas herramientas en conflictos.

8. Proliferación descontrolada de tecnologías de IA de propósito general cada vez más poderosas. Representa el riesgo de un desarrollo no regulado de tecnologías de IA avanzadas, con potencial para impactar significativamente en diversos aspectos de la sociedad.

La concientización y la alfabetización
La concientización y la alfabetización en inteligencia artificial emergen como estrategias cruciales para abordar la preparación y reducción de los resultados adversos de estas tecnologías (Imagen ilustrativa Infobae)

La educación como el pilar fundamental ante los riesgos de la IA

Según lo destacado por los participantes en la encuesta GRPS, la educación se erige como un pilar fundamental. La concientización y la alfabetización en inteligencia artificial emergen como estrategias cruciales para abordar la preparación y reducción de los resultados adversos de estas tecnologías.

Los encuestados han enfatizado la necesidad de incorporar la alfabetización en IA generativa en sistemas educativos y programas de formación, no solo para reguladores sino también para periodistas y tomadores de decisiones. Este enfoque busca no solo comprender las capacidades de los sistemas de IA, sino también cultivar la habilidad de identificar fuentes confiables de información en un entorno cada vez más digital.

Aunque los esfuerzos a nivel nacional pueden no evitar la proliferación global de la IA, establecer estándares sólidos pero flexibles en materia educativa puede alinear el desarrollo tecnológico con las necesidades de la sociedad.

Además, la evolución de la legislación existente en áreas como propiedad intelectual, empleo, política de competencia, protección de datos, privacidad y derechos humanos debería incorporar una fuerte componente educativa. La formación en ética digital y el entendimiento profundo de las implicancias sociales de la IA se vuelven esenciales para la adopción informada y ética de estas tecnologías. La colaboración entre el sector privado y el académico debería incluir un componente educativo robusto, fomentando la formación continua y la difusión de conocimientos en el ámbito de la inteligencia artificial.

En paralelo a la centralidad de la educación, los encuestados subrayan la importancia de regulaciones efectivas y la cooperación global para abordar los riesgos asociados a la inteligencia artificial. Marcos de gobernanza global, como la Declaración de Hiroshima del G7 sobre el proceso de Inteligencia Artificial Generativa (que fija un código de conducta) y la Declaración de Bletchley (que da pautas sobre ciberseguridad, biotecnología y desinformación, entre otros temas), proporcionan orientación para el desarrollo de la IA y destacan la necesidad de una supervisión extendida a una base de datos de informes y sistemas cruciales de IA.

Últimas Noticias

EmilioTenti Fanfani: “Hay que hacer una profunda reforma intelectual y moral de la formación docente”

Invitado al podcast de Ticmas, el licenciado en Ciencias Políticas y Sociales por la Universidad Nacional de Cuyo y Diplôme Supérieur d’Etudes et Recherches Politique reflexionó sobre la educación pensada desde la cultura

EmilioTenti Fanfani: “Hay que hacer

Rosendo Grobo: “El corazón del sistema educativo son los docentes y están mal pagos”

En una charla en Infobae a la Tarde, Rosendo Grobo desglosó la crisis docente en la Argentina: salarios deteriorados, abandono de la profesión y pérdida de autoridad marcan un sistema educativo en tensión

Rosendo Grobo: “El corazón del

El Instituto Vaca Muerta es una realidad

Fundación YPF lleva adelante todo el proyecto con la participación de Ticmas como plataforma académica

El Instituto Vaca Muerta es

Inteligencia Artificial en la Educación Superior: la importancia del liderazgo humano

El Observatorio del Instituto para el Futuro de la Educación del Tecnológico de Monterrey publicó un nuevo informe que reúne testimonios de especialistas de universidades de América Latina, Europa y Estados Unidos para repensar el impacto y la evolución de la IA en la academia

Inteligencia Artificial en la Educación

Daron Acemoglu, Nobel de Economía y profesor del MIT: la inteligencia artificial ¿y el colapso del conocimiento humano colectivo?

El reconocido economista turco-estadounidense presentó una investigación junto a Dingwen Kong y Asuman Ozdaglar donde ponen el foco en el impacto a corto y mediano plazo del uso de la IA en la forma de pensar y aprender de los seres humanos en sociedad

Daron Acemoglu, Nobel de Economía