
Cuatro compañías dedicadas al desarrollo de inteligencia artificial como Microsoft, Google, OpenAI y Anthropic, crearon una organización que estará encargada de velar por la regulación de los avances de esta tecnología y la seguridad de los usuarios.
El grupo, que tiene como nombre “The Frontier Model Forum”, se dedicará a intercambiar sus experiencias con la inteligencia artificial “para beneficiar a todo el ecosistema de IA”, como la creación de evaluaciones técnicas y una biblioteca pública de soluciones para recopilar las mejores prácticas y estándares”.
En el comunicado emitido por OpenAI donde se anuncia la creación de esta organización, “las compañías que crean modelos de inteligencia artificial tienen la responsabilidad de asegurar que es segura y que se mantiene bajo el control humano”.
Según Brad Smith, presidente de Microsoft, “esta iniciativa es vital para que todo el sector tecnológico se acerque al desarrollo responsable de la IA y enfrente los desafíos de forma que beneficie a la humanidad”.
Como parte de sus responsabilidades, los miembros han asumido el rol de líderes para fomentar el avance en el desarrollo de los modelos de inteligencia artificial de tal forma que sea utilizada de forma positiva por los ciudadanos en aspectos clave como la mitigación de los efectos del cambio climático y la detección temprana del cáncer.

En ese sentido, Anna Makanju, vicepresidenta de asuntos globales de OpenAI, indicó que la inteligencia artificial tiene el potencial de beneficiar a toda la humanidad, por lo que es necesario que las empresas que tienen los modelos más avanzados tengan un lugar común en el que puedan impulsar la creacion de herramientas que sean útiles para la mayor cantidad de personas posible.
Lógicamente, las compañías fundadoras de “The Frontier Model Forum” no cierran las puertas a que otras organizaciones (como Apple, que estaría trabajando en su propia versión de ChatGPT), puedan integrarse como miembros activos de la organización. Sin embargo, para que esto sea posible deberán cumplir con ciertos criterios.
El foro indica que cualquier empresa que quiera ser integrante primero deberá desarrollar y lanzar al mercado un “modelo frontier” al que definen como una inteligencia artificial que excede las capacidades actuales de la mayoría de IA disponibles y que pueden cumplir con gran variedad de tareas.
Además se incluye dentro de los requisitos que este eventual postulante al Foro esté comprometido a la seguridad de su modelo desde puntos de vista técnicos e institucionales.
Es decir que deberá demostrar que tiene un interés genuino en promover y poner en práctica actividades que mejoren la seguridad de los usuarios al momento de usar su inteligencia artificial.

La creación de esta organización se alínea con la idea que propuso en su momento el CEO de OpenAI, Sam Altman, quien se pronunció en muchas oportunidades a favor de la regulación de los modelos de inteligencia artificial para evitar que se caiga en abusos y asegurar que esta tecnología se mantenga bajo control.
De igual forma, el Foro también estará en posición de acercarse a legisladores para promover su experiencia y mejorar las propuestas de leyes regulatorias en diferentes territorios alrededor del mundo.
Últimas Noticias
Cuándo sale el juego de la Copa del Mundo 2026 que creó Netflix y la FIFA
Según declaraciones del presidente de Juegos de Netflix, Alain Tascan, el objetivo es que los aficionados puedan “llevar el fútbol directamente a sus salas de estar”

Cuál es el nombre más bonito para hombre en 2026, según la IA: este es su origen
Mateo es un nombre clásico y elegante, muy popular en los países de habla hispana. Su significado es “don de Dios” o “regalo de Dios”

Epic Games con descuentos hasta del 75% por Navidad: Battlefield 6, EA SPORTS FC 26 y más
Otros títulos que también estarán con ofertas hasta 2026 son Jurassic World Evolution 3 y RoboCop: Rogue City

Así fue el primer celular de la historia: del tamaño de un ladrillo y costaba casi 4.000 dólares
Su batería ofrecía apenas 20 minutos de conversación, un número muy apetido y atractivo para la época por parte de Motorola

Juguetes con IA bajo la lupa: por qué pueden poner en peligro la privacidad de los niños
Micrófonos, cámaras y sistemas de reconocimiento de voz incorporados permiten una interacción constante bastante riesgosa




