
Con el uso generalizado de las inteligencias artificiales para crear texto, imágenes, video, audio e incluso música, una de las necesidades que deben considerarse en el futuro inmediato son las iniciativas de regulación.
Hasta el momento, solo las compañías que han desarrollado estos programas se han encargado de limitar el tipo de uso que se le puede dar a sus productos.
Prohibir que los usuarios accedan a información potencialmente dañina sobre fabricación de armas, generación de imágenes pornográficas con inteligencia artificial, falsificación de videos con tecnología de deepfake, entre otros usos, han sido prohibidos por las plataformas. Sin embargo, hace falta que organizaciones gubernamentales especifiquen cómo se deben utilizar con responsabilidad estos recursos, muchos de ellos con acceso gratuito.
Según Sam Altman, CEO de la compañía OpenAI, que desarrolló los modelos generativos de ChatGPT, GPT-3 y GPT-4, es necesario este proceso para el desarrollo de las inteligencias artificiales.
“Necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer. la regulación será crítica y llevará tiempo resolverla”, publicó en su cuenta oficial de Twitter.
Le puede interesar: Papa Francisco: cómo usaron inteligencia artificial para crear estas fotos virales del Pontífice
Algunos primeros pasos en esta dirección están siendo definidos esde el año 2021, cuando la Unión Europea, por medio de su Comisión (encargada de emitir leyes que rigen en los territorios miembros), elaboró una propuesta regulatoria para este tipo de softwares.

Según la Comisión Europea, la regulación de esta tecnología es necesaria para “evitar resultados no deseados” pese a que también se reconoce que la mayoría de estos sistemas no presentan demasiados riesgos. Todo esto con la intención de mejorar la calidad de los servicios y evitar que se perjudique a la sociedad de alguna forma.
La propuesta de la Comisión señala que es necesario establecer una “pirámide de riesgos” que ubica los más pequeños en la base y aquellos que son inaceptables en la parte superior. Estos son: Riesgo mínimo (o nulo), riesgo limitado, alto riesgo y riesgo inaceptable.
Le puede interesar: Microsoft lanza “Create”, una herramienta para crear imágenes con inteligencia artificial
Cada tipo de inteligencia artificial que sea catalogada en alguna de estas secciones de la pirámide tendrán que cumplir requisitos previos antes de ser comercializada o de libre acceso en los países miembros de la Unión Europea para garantizar que son de uso seguro y que no perjudicarán a las personas que accedan a ellas.

Entre las obligaciones que las inteligencias artificiales calificadas con la categoría “Alto Riesgo”, se encuentran el establecimiento de altos niveles de seguridad para los usuarios, supervisión humana para evitar riesgos, ofrecer información clara y adecuada, además de alimentar la base de datos de los sistemas con recursos de alta calidad para evitar casos de discriminación. También se solicitará que se registre la actividad de los usuarios para rastrearlos en caso de que sea necesario.
En el caso de Estados Unidos, organizaciones como Data & Society indicaron por medio de su directora ejecutiva, Janet Haven, que “necesitamos regular esto, necesitamos leyes (...)”. Según la vocera de la institución de investigación norteamericana, no es algo bueno que las compañías generen este tipo de sistemas de forma tan libre.
Le puede interesar: Bill Gates cree que cualquier inteligencia artificial se puede salir de control
Para Haven, “la idea de que las compañías de tecnología puedan construir lo que quieran y liberarlo al mercado mientras que la sociedad lucha para acostumbrarse y utilizarla es hacer las cosas al revés”.

Sin embargo, Sam Altman, quien está a favor de la regulación de este tipo de software, no coincide en la afirmación realizada por Haven. Según él, la mejor decisión es crear nuevos sistemas de inteligencia artificial y lanzarlos al mercado para que pueda aprender y se corrijan los errores que se puedan cometer mientras son más pequeños y no hacen daño a las personas.
“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó Altman en una entrevista con el medio estadounidense ABC News.
Últimas Noticias
Desactiva ya mismo esta función en WhatsApp para evitar que hackers espíen tus chats
Una herramienta activa por defecto, configurada para facilitar la transferencia de fotos videos y archivos, permite el ingreso silencioso de archivos peligrosos o malware
Si tienes más de 30 y sigues jugando videojuegos no eres inmaduro: la ciencia lo explica
La generación que creció en los 80 y 90 le da un lugar diferente a estas experiencias, viéndolas como una recompensa

Adiós a las barreras del idioma: nuevos AirPods Max 2 llegan con traducción en tiempo real y chip H2
El nuevo modelo de audífonos viene en los colores negro, plata, rosado anaranjado, morado y azul

Jugadores de Pokémon GO están siendo usados para entrenar a una IA que guía robots por las calles
Niantic ya habría recolectado cerca de 30.000 millones de imágenes gracias a la realidad aumentada del juego

Guía para organizar los alimentos dentro del refrigerador, ahorrar energía y prolongar su vida útil
Al ser el único electrodoméstico del hogar que permanece conectado de forma continua se necesitan seguir varias pautas para reducir su impacto a fin de mes




