
¿Qué pensamos cuando nos hablan de Inteligencia Artificial (IA)? Probablemente todos tenemos conceptos diferentes basados en los enormes avances que esta tecnología ha venido teniendo. Hoy, bancos, comercios, empresas de telecomunicaciones y hasta la industria del entretenimiento ya tienen casos de uso. Y este crecimiento, por supuesto, también ha traído la discusión sobre si la IA debe ser -o es- una caja negra.
Hay que partir del hecho de que la Inteligencia Artificial no es una tecnología nueva. Se viene desarrollando por más de siete décadas y la necesidad de modelos responsables se viene trabajando hace años.
Muchos hablan de que la IA podría verse como una caja negra, al no tener visibilidad sobre las conclusiones o datos que procesa esta tecnología. Sin embargo, la IA debe -y puede- ser una caja de cristal, completamente transparente, en la medida en que, tanto el proveedor de la tecnología como quien la usa, ‘alimenten’ la IA con datos objetivos y verídicos, y que además haya visibilidad de cómo la herramienta llegó a esa conclusión, con modelos libres de sesgos, transparentes y equitativos. Y en esa línea justamente va el concepto de regulación.
Te puede interesar: Seis páginas web gratuitas para crear imágenes con inteligencia artificial
En el mundo, hoy varios países ya tienen una regulación o están en la discusión de establecer una regulación clara alrededor de la IA. La regulación busca definir las reglas de juego en el uso de la IA, es la forma de ‘marcar la cancha’ sabiendo que no se trata de un obstáculo para la innovación, sino una oportunidad de consenso sobre la transparencia, la ética y la explicabilidad que debe tener la IA. Y los primeros beneficiados somos todos, como sociedad, al tener un marco de protección de nuestros datos personales.

La IA utiliza grandes cantidades de información para aprender y mejorar su rendimiento. En el centro de la tecnología deben estar las personas. Se trata de avanzar con responsabilidad. ¿Cuál es el impacto sobre las personas? Esta pregunta debe guiarnos.
Para construir una Inteligencia Artificial confiable, por ejemplo, debemos definir los pilares éticos que rigen el desarrollo e implementación de la tecnología alrededor del mundo: explicabilidad, equidad, robustez, transparencia y privacidad. Nuestro país no es la excepción.
La regulación de la Inteligencia Artificial arraiga responsabilidad para múltiples partes interesadas. Para avanzar con este compromiso es necesaria una sinergia de esfuerzos entre los gobiernos, las organizaciones y las personas. Dentro de esta colaboración, las empresas juegan un papel clave al asumir el diseño de la IA de manera responsable en el micromundo de su propio negocio. Un diseño que alcanza no solo la tecnología, si no la manera en que se implementa, la educación sobre la misma y la gestión del talento involucrado.
Seguir leyendo:
Últimas Noticias
El laberinto de los muros: radiografía de un sistema al límite
La inflación del encierro, un récord inédito

Ecocidio: entre las demandas del papa Francisco y los incendios en el sur
Mientras el debate para la tipificación de este delito a nivel internacional sigue vivo, los incendios en el sur del país evidencian la necesidad de avanzar con proyectos que incorporen este delito al Código Penal
¿La productividad dejó de ser un diferencial?
Una transformación impulsada por la automatización está cuestionando los criterios tradicionales de desempeño, generando nuevas exigencias para quienes buscan mantener su relevancia frente a las tecnologías emergentes y la producción acelerada de información

La escuela frente a la baja natalidad
Lo que ocurra en las aulas dependerá en buena medida de cómo la sociedad y las autoridades conviertan la caída de la matrícula en una ventana de oportunidad educativa

¿Qué aportan los jóvenes en la co-creación de la educación?
La autoeficacia juvenil fortalece la confianza y el protagonismo de los jóvenes en los procesos de aprendizaje, clave para el desarrollo educativo




