
Cuatro compañías dedicadas al desarrollo de inteligencia artificial como Microsoft, Google, OpenAI y Anthropic, crearon una organización que estará encargada de velar por la regulación de los avances de esta tecnología y la seguridad de los usuarios.
El grupo, que tiene como nombre “The Frontier Model Forum”, se dedicará a intercambiar sus experiencias con la inteligencia artificial “para beneficiar a todo el ecosistema de IA”, como la creación de evaluaciones técnicas y una biblioteca pública de soluciones para recopilar las mejores prácticas y estándares”.
En el comunicado emitido por OpenAI donde se anuncia la creación de esta organización, “las compañías que crean modelos de inteligencia artificial tienen la responsabilidad de asegurar que es segura y que se mantiene bajo el control humano”.
Según Brad Smith, presidente de Microsoft, “esta iniciativa es vital para que todo el sector tecnológico se acerque al desarrollo responsable de la IA y enfrente los desafíos de forma que beneficie a la humanidad”.
Como parte de sus responsabilidades, los miembros han asumido el rol de líderes para fomentar el avance en el desarrollo de los modelos de inteligencia artificial de tal forma que sea utilizada de forma positiva por los ciudadanos en aspectos clave como la mitigación de los efectos del cambio climático y la detección temprana del cáncer.

En ese sentido, Anna Makanju, vicepresidenta de asuntos globales de OpenAI, indicó que la inteligencia artificial tiene el potencial de beneficiar a toda la humanidad, por lo que es necesario que las empresas que tienen los modelos más avanzados tengan un lugar común en el que puedan impulsar la creacion de herramientas que sean útiles para la mayor cantidad de personas posible.
Lógicamente, las compañías fundadoras de “The Frontier Model Forum” no cierran las puertas a que otras organizaciones (como Apple, que estaría trabajando en su propia versión de ChatGPT), puedan integrarse como miembros activos de la organización. Sin embargo, para que esto sea posible deberán cumplir con ciertos criterios.
El foro indica que cualquier empresa que quiera ser integrante primero deberá desarrollar y lanzar al mercado un “modelo frontier” al que definen como una inteligencia artificial que excede las capacidades actuales de la mayoría de IA disponibles y que pueden cumplir con gran variedad de tareas.
Además se incluye dentro de los requisitos que este eventual postulante al Foro esté comprometido a la seguridad de su modelo desde puntos de vista técnicos e institucionales.
Es decir que deberá demostrar que tiene un interés genuino en promover y poner en práctica actividades que mejoren la seguridad de los usuarios al momento de usar su inteligencia artificial.

La creación de esta organización se alínea con la idea que propuso en su momento el CEO de OpenAI, Sam Altman, quien se pronunció en muchas oportunidades a favor de la regulación de los modelos de inteligencia artificial para evitar que se caiga en abusos y asegurar que esta tecnología se mantenga bajo control.
De igual forma, el Foro también estará en posición de acercarse a legisladores para promover su experiencia y mejorar las propuestas de leyes regulatorias en diferentes territorios alrededor del mundo.
Últimas Noticias
Cuidado con el horno microondas: qué objetos y alimentos no debes introducir en este electrodoméstico
Descubrir qué materiales y productos pueden causar explosiones, incendios o liberar toxinas es clave para evitar accidentes en la cocina

Memoria RAM o almacenamiento: cómo saber cuándo se debe actualizar cada uno
Descubrir si conviene invertir en memoria RAM o en almacenamiento puede marcar la diferencia en el uso cotidiano de un equipo

Inteligencia espacial, la capacidad que aún no ha sido dominada por las IA
La inteligencia espacial, base del pensamiento humano, se perfila como el próximo gran desafío para el desarrollo de la inteligencia artificial

Descubre por qué la selfie con movimiento es lo mejor para evitar que suplanten tu identidad en Navidad
El auge de la inteligencia artificial y la sofisticación de los ataques obligan a empresas y usuarios a buscar nuevas formas de proteger sus operaciones en línea

Problemas con el botón ‘repost’ de Instagram: usuarios comparten contenido en su perfil sin saberlo
La facilidad para compartir contenido sin advertencia ha expuesto a muchas personas a momentos embarazosos




