IndesIA y OdiseIA lanzan una guía dirigida a empresas españolas para una IA responsable

Compartir
Compartir articulo

Madrid, 7 jun (EFECOM).- Ayudar a las empresas españolas del sector industrial a adoptar la Inteligencia Artificial (IA) es el objetivo del informe "El uso responsable de la inteligencia artificial en el sector industrial", presentado por Indesia y OdiseIA y que pretende servir de guía para implantar esta tecnología.

Se trata de una guía elaborada por las empresas promotoras de Indesia, en colaboración con OdiseIA, el observatorio de impacto social y ético de la IA, con el objetivo de ayudar a las empresas a adoptar esta tecnología de manera ética y responsable en un contexto decisivo para su regulación en Europa.

Airbus, Ferrovial, Gestamp, Navantia, Repsol, Técnicas Reunidas y Telefónica son las empresas promotoras de IndesIA y que han aportado sus casos de uso IA, que han permitido ofrecer en estas guía ejemplos reales y actuales de proyectos de IA.

La privacidad y la gobernanza de los datos, la responsabilidad, la justicia, la transparencia y la explicabilidad son algunos de los principios básicos que deben regir el buen uso de la IA en las empresas, ha defendido Richard Benjamins, cofundador de OdiseIA y responsable de datos e IA de Telefónica, quien ha insistido en la necesidad de supervisión humana en la aplicación de la IA.

Ha incidido en esta supervisión especialmente cuando la IA afecta a las personas, más que a las máquinas.

En el informe, se detallan una serie de recomendaciones a las empresas para adoptar la IA, lo que dependerá de factores como la madurez general de la tecnología, el nivel de transformación digital de la organización o la naturaleza de las soluciones desarrolladas.

Además, en esta guía se aboga por incentivar la discusión interna en las empresas para elegir la lista de principios éticos conforme a su cultura y valores; y se explica además que existen distintos niveles de riesgo que están ligados a las actividades IA.

Se apunta que es muy relevante elegir a las personas y departamentos involucrados en la iniciativa ética; así como diseñar y facilitar un programa de formación específico sobre la IA y su componente ético.

Por otro lado, entre otras recomendaciones, se aboga por establecer un entorno de pruebas con los profesionales que forman parte de los equipos de datos e IA para evaluar y seleccionar herramientas de inteligencia artificial responsable. EFECOM

bmc/may