OpenAI disuelve el equipo que velaba por la seguridad de sus sistemas de inteligencia artificial

Las tareas de seguridad ahora quedan repartidas entre distintos departamentos de la empresa creadora de ChatGPT

Guardar
OpenAI eliminó el equipo encargado
OpenAI eliminó el equipo encargado de supervisar la seguridad de sus modelos de inteligencia artificial. (Reuters)

OpenAI, la empresa detrás de ChatGPT, ha disuelto su equipo interno encargado de asegurar que sus sistemas de inteligencia artificial sean seguros, confiables y alineados con los valores humanos.

La reorganización, confirmada por la propia compañía, implica que los integrantes del equipo de misión de alineamiento han sido reasignados a otros departamentos, mientras que el líder del grupo, Josh Achiam, asume el nuevo puesto de chief futurist dentro de la organización.

El fin de un equipo clave para la seguridad de la IA

El equipo de alineamiento de OpenAI, creado en septiembre de 2024, tenía como objetivo central garantizar que los sistemas de IA respondieran a los intereses humanos, incluso en escenarios complejos y adversos. El grupo se encargaba de desarrollar metodologías para que la inteligencia artificial siguiera de forma coherente la intención humana, y de evitar comportamientos catastróficos o difíciles de controlar.

El líder del equipo de
El líder del equipo de alineamiento asumió el nuevo cargo de “chief futurist” en la empresa. (Reuters)

Sin embargo, la empresa decidió desmantelar este equipo, una decisión que se suma a la disolución previa de su superalignment team, el cual estaba dedicado a investigar amenazas existenciales de largo plazo derivadas del desarrollo de la inteligencia artificial. Los integrantes del equipo de alineamiento, compuesto por seis o siete personas, han sido trasladados a otras áreas donde supuestamente continuarán trabajando en temas relacionados, aunque no se detallaron sus nuevas funciones.

Josh Achiam, quien lideraba este equipo, ha sido nombrado chief futurist, un rol enfocado en analizar cómo la inteligencia artificial y la inteligencia artificial general (AGI) podrían transformar el mundo en el futuro. Achiam explicó que su objetivo es contribuir a la misión de OpenAI estudiando cómo cambiará el mundo en respuesta a la IA, la AGI y más allá, y que trabajará en colaboración con otros expertos técnicos de la empresa.

Un giro de prioridades ante la presión competitiva

La reestructuración llega en un momento de fuerte competencia en el sector de la inteligencia artificial, con empresas como Google y Meta acelerando el desarrollo y la comercialización de sus propios sistemas avanzados. OpenAI, que busca atraer nuevas rondas de financiación por valoraciones superiores a los 150.000 millones de dólares, enfrenta la presión de mostrar resultados concretos en el desarrollo y despliegue de productos.

Las tareas de seguridad ahora
Las tareas de seguridad ahora quedan repartidas entre distintos departamentos de OpenAI, dirigida por Sam Altman. (Reuters)

La desaparición de un equipo dedicado exclusivamente a la seguridad y la alineación de la IA ha generado inquietud entre los defensores de la seguridad tecnológica. Originalmente, el equipo de alineamiento actuaba como la conciencia organizacional de OpenAI, cuestionando internamente si era apropiado lanzar ciertas tecnologías y cómo prevenir su mal uso.

Ahora, esas responsabilidades quedan diluidas entre los distintos equipos, lo que para muchos especialistas equivale a que la seguridad deja de ser una prioridad operativa clara.

El nuevo puesto de chief futurist para Achiam es visto en el sector como una designación más simbólica que funcional, ya que se aleja de las tareas directas de supervisión y control de riesgos actuales. Mientras tanto, el trabajo de alineamiento pasa a competir internamente con el resto de las prioridades de una compañía que busca innovar y lanzar productos rápidamente.

La decisión coincide con una
La decisión coincide con una etapa de fuerte competencia y expansión comercial en la industria de la IA. (Bloomberg)

Implicaciones para la industria y la regulación de la inteligencia artificial

La decisión de OpenAI podría tener consecuencias más allá de la propia empresa. Como líder en el sector, sus movimientos son observados de cerca por competidores, inversores y reguladores. La eliminación de un equipo especializado en seguridad y alineamiento puede enviar la señal de que, ante el avance del negocio, la supervisión rigurosa se vuelve prescindible.

Esto cobra especial relevancia en un momento en que Estados Unidos y la Unión Europea debaten marcos regulatorios que podrían exigir justamente ese tipo de control interno.

OpenAI insiste en que la seguridad sigue siendo una prioridad y que la reorganización busca mayor eficiencia. Sin embargo, la disolución del equipo especializado plantea dudas sobre si la empresa podrá mantener los mismos estándares en un entorno donde la presión por lanzar productos y captar mercado es cada vez mayor.

El futuro de la seguridad en inteligencia artificial dependerá, en parte, de si otras empresas optan por reforzar sus equipos de alineamiento o siguen el camino de OpenAI, priorizando el crecimiento comercial sobre la supervisión interna. Las decisiones que se tomen ahora podrían definir el rumbo del desarrollo de la inteligencia artificial en los próximos años.