OpenAI disolvió en menos de un año su equipo dedicado a mitigar los riesgos de la Inteligencia Artificial

Los líderes de Superalignment de la empresa renunciaron tras diferencias con la dirección, relacionadas con enfoques de seguridad y desarrollo de IA

Guardar

Nuevo

 Mientras lanzaba su IA más avanzada, GPT-4o, OpenAI disolvió su equipo que trabajaba en seguridad y alineación de inteligencia artificial (GETTY)
Mientras lanzaba su IA más avanzada, GPT-4o, OpenAI disolvió su equipo que trabajaba en seguridad y alineación de inteligencia artificial (GETTY)

OpenAI desmanteló su equipo Superalignment, dedicado a mitigar los riesgos a largo plazo de la inteligencia artificial (IA). Este hecho ocurre apenas una semana después del lanzamiento de GPT-4o, su modelo de IA más avanzado hasta la fecha. Según informó Wired, este equipo fue creado en julio de 2023 y estaba dirigido por Ilya Sutskever y Jan Leike.

La disolución del equipo Superalignment se produjo pocos días después de que sus líderes, Sutskever y Leike, anunciaran sus renuncias en redes sociales. En su comunicado, Sutskever expresó su confianza en que “OpenAI construirá AGI de manera segura y beneficiosa” bajo el liderazgo actual. Agregó que está entusiasmado por un nuevo proyecto que considera “significativo a nivel personal”, aunque no ofreció más detalles al respecto.

Leike, por su parte, explicó en X que su partida obedeció a desacuerdos sobre las prioridades básicas de la empresa, afirmando que la seguridad y los procesos habían quedado relegados “por productos llamativos”. Destacó que su equipo había estado luchando por recursos computacionales cruciales para su investigación, lo que hacía cada vez más difícil cumplir con su misión.

Según explicó CNBC, el equipo Superalignment tenía la tarea de resolver los desafíos técnicos fundamentales de la alineación de superinteligencias en un plazo de cuatro años, utilizando el 20% del poder computacional de OpenAI. Entre los riesgos que abordaban se incluían el mal uso de la tecnología, la disrupción económica, la desinformación, el sesgo y la discriminación, la adicción y la sobredependencia.

Tras las renuncias y la disolución del equipo, algunos miembros fueron reasignados a otros equipos dentro de OpenAI. NBC News confirmó estas reubicaciones a través de una fuente anónima. Sin embargo, cuando se solicitó comentarios a la empresa, esta solo recomendó la reciente publicación de Sam Altman en X, donde expresó tristeza por la partida de Leike y señaló que la empresa tiene más trabajo por hacer.

Sutskever confía en que OpenAI construirá una AGI segura y beneficiosa (REUTERS/Amir Cohen)
Sutskever confía en que OpenAI construirá una AGI segura y beneficiosa (REUTERS/Amir Cohen)

La salida de Sutskever y Leike recuerda la crisis de liderazgo que vivió OpenAI en noviembre pasado, cuando el consejo de la empresa destituyó a Altman, lo que provocó una reacción en cadena que incluyó renuncias y amenazas de dimisión por parte de empleados e inversionistas, incluyendo Microsoft.

Sutskever, quien tuvo un papel clave en la destitución de Altman, posteriormente expresó su arrepentimiento por su participación en ese evento.

Aunque dicho directivo permaneció en OpenAI como científico principal, ya no ocupa un puesto en el consejo directivo. Tras su anunciada salida, Altman comentó en X: “Esto es muy triste para mí; Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía en nuestro campo, y un querido amigo”. Asimismo, el CEO nombró a Jakub Pachocki como su sucesor en el puesto de científico principal.

Business Insider resaltó que la noticia del desmantelamiento del equipo Superalignment y las renuncias de Sutskever y Leike coincidió con el lanzamiento de nuevos productos por parte de OpenAI. La empresa presentó una actualización del modelo GPT-4 y una versión de escritorio de ChatGPT, con una interfaz de usuario mejorada y nuevas funcionalidades para chat de video.

Guardar

Nuevo