
Con el uso generalizado de las inteligencias artificiales para crear texto, imágenes, video, audio e incluso música, una de las necesidades que deben considerarse en el futuro inmediato son las iniciativas de regulación.
Hasta el momento, solo las compañías que han desarrollado estos programas se han encargado de limitar el tipo de uso que se le puede dar a sus productos.
PUBLICIDAD
Prohibir que los usuarios accedan a información potencialmente dañina sobre fabricación de armas, generación de imágenes pornográficas con inteligencia artificial, falsificación de videos con tecnología de deepfake, entre otros usos, han sido prohibidos por las plataformas. Sin embargo, hace falta que organizaciones gubernamentales especifiquen cómo se deben utilizar con responsabilidad estos recursos, muchos de ellos con acceso gratuito.
Según Sam Altman, CEO de la compañía OpenAI, que desarrolló los modelos generativos de ChatGPT, GPT-3 y GPT-4, es necesario este proceso para el desarrollo de las inteligencias artificiales.
PUBLICIDAD
“Necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer. la regulación será crítica y llevará tiempo resolverla”, publicó en su cuenta oficial de Twitter.
Le puede interesar: Papa Francisco: cómo usaron inteligencia artificial para crear estas fotos virales del Pontífice
PUBLICIDAD
Algunos primeros pasos en esta dirección están siendo definidos esde el año 2021, cuando la Unión Europea, por medio de su Comisión (encargada de emitir leyes que rigen en los territorios miembros), elaboró una propuesta regulatoria para este tipo de softwares.

Según la Comisión Europea, la regulación de esta tecnología es necesaria para “evitar resultados no deseados” pese a que también se reconoce que la mayoría de estos sistemas no presentan demasiados riesgos. Todo esto con la intención de mejorar la calidad de los servicios y evitar que se perjudique a la sociedad de alguna forma.
PUBLICIDAD
La propuesta de la Comisión señala que es necesario establecer una “pirámide de riesgos” que ubica los más pequeños en la base y aquellos que son inaceptables en la parte superior. Estos son: Riesgo mínimo (o nulo), riesgo limitado, alto riesgo y riesgo inaceptable.
Le puede interesar: Microsoft lanza “Create”, una herramienta para crear imágenes con inteligencia artificial
PUBLICIDAD
Cada tipo de inteligencia artificial que sea catalogada en alguna de estas secciones de la pirámide tendrán que cumplir requisitos previos antes de ser comercializada o de libre acceso en los países miembros de la Unión Europea para garantizar que son de uso seguro y que no perjudicarán a las personas que accedan a ellas.

Entre las obligaciones que las inteligencias artificiales calificadas con la categoría “Alto Riesgo”, se encuentran el establecimiento de altos niveles de seguridad para los usuarios, supervisión humana para evitar riesgos, ofrecer información clara y adecuada, además de alimentar la base de datos de los sistemas con recursos de alta calidad para evitar casos de discriminación. También se solicitará que se registre la actividad de los usuarios para rastrearlos en caso de que sea necesario.
PUBLICIDAD
En el caso de Estados Unidos, organizaciones como Data & Society indicaron por medio de su directora ejecutiva, Janet Haven, que “necesitamos regular esto, necesitamos leyes (...)”. Según la vocera de la institución de investigación norteamericana, no es algo bueno que las compañías generen este tipo de sistemas de forma tan libre.
Le puede interesar: Bill Gates cree que cualquier inteligencia artificial se puede salir de control
PUBLICIDAD
Para Haven, “la idea de que las compañías de tecnología puedan construir lo que quieran y liberarlo al mercado mientras que la sociedad lucha para acostumbrarse y utilizarla es hacer las cosas al revés”.

Sin embargo, Sam Altman, quien está a favor de la regulación de este tipo de software, no coincide en la afirmación realizada por Haven. Según él, la mejor decisión es crear nuevos sistemas de inteligencia artificial y lanzarlos al mercado para que pueda aprender y se corrijan los errores que se puedan cometer mientras son más pequeños y no hacen daño a las personas.
PUBLICIDAD
“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó Altman en una entrevista con el medio estadounidense ABC News.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
La computación cuántica logra la primera teletransportación exitosa del mundo
El uso de fotones entrelazados permitió enviar información sin que recorra físicamente la distancia entre nodos

Atlético de Madrid vs. Arsenal EN VIVO: la semifinal de la Champions que no debes buscar en Xuper TV o Magis TV
Si quieres ver este partido de forma segura, puedes acudir a Disney+ siempre que tengas suscripción premium

WhatsApp modo El Diablo Viste a la Moda 2: cómo activarlo en tres pasos
Los usuarios puede consultar con Meta AI consejos de moda o datos sobre la primera parte

WhatsApp prepara el Archivo de Estado: qué cambia y cómo almacenar tus estados pasados
La nueva función permitirá conservar y organizar estados expirados de forma privada, ofreciendo una gestión más flexible y segura del historial personal en la app
Reino Unido estudia prohibir las redes sociales para menores de 16 años con medidas claves
El gobierno británico lanzó una consulta pública que cierra a finales de mayo, el documento plantea si el Estado debería exigir un límite de edad para las plataformas que utilizan algoritmos personalizados



