Las consecuencias de las rarezas de OpenAI

Sam Altman regresará, pero el episodio encierra lecciones más profundas

Guardar

Nuevo

FOTO DE ARCHIVO: El director ejecutivo (CEO) de OpenAI e inventor del software de IA ChatGPT, Sam Altman, participa en una mesa redonda en la Universidad Técnica de Múnich (DPA)
FOTO DE ARCHIVO: El director ejecutivo (CEO) de OpenAI e inventor del software de IA ChatGPT, Sam Altman, participa en una mesa redonda en la Universidad Técnica de Múnich (DPA)

Pasaron cinco días muy extraños antes de que pareciera que Sam Altman se quedaría en OpenAI después de todo. El 17 de noviembre, el consejo de administración del fabricante de Chatgpt echó de repente a su director ejecutivo. El 19 parecía que Altman se trasladaría a Microsoft, el mayor inversor de OpenAI. Pero los empleados de la startup se rebelaron y casi todos ellos, incluido uno de los conspiradores originales del consejo, amenazaron con marcharse si no se reincorporaba a Altman. Entre frenéticas reuniones, los altos cargos se tuitearon emojis de corazón y mensajes de cariño. El día 21 se había cerrado el círculo.

Todo esto parece aún más extraño si se tiene en cuenta que estos tejemanejes estaban teniendo lugar en la startup más caliente del mundo, de la que se esperaba que alcanzara una valoración de 90.000 millones de dólares. En parte, la rareza es un signo de la rapidez con la que la tecnología relativamente joven de la inteligencia artificial generativa ha sido catapultada a la fama. Pero también encierra lecciones más profundas e inquietantes.

Una de ellas es la fuerza del talento AI. Mientras los empleados amenazaban con dimitir, el mensaje “OpenAI no es nada sin su gente” resonaba en las redes sociales. Desde el lanzamiento de Chatgpt hace un año, la demanda de expertos en Inteligencia Artificial ha estado al rojo vivo. Mientras reinaba el caos, tanto Microsoft como otras empresas tecnológicas estaban dispuestas a acoger con los brazos abiertos al personal descontento. Esto dio tanto a Altman como a los programadores de OpenAI un enorme poder de negociación y socavó fatalmente los intentos de la junta de ejercer el control.

El episodio también arroja luz sobre la inusual estructura de OpenAI. Se fundó en 2015 como un laboratorio de investigación sin ánimo de lucro destinado a desarrollar de forma segura la inteligencia general artificial (AGI), que puede igualar o superar a los humanos en todo tipo de pensamiento. Pero pronto quedó claro que esto requeriría enormes cantidades de costosa potencia de procesamiento, si es que fuera posible. Para pagarlo, se creó una filial con ánimo de lucro para vender herramientas de Inteligencia Artificial, como Chatgpt. Y Microsoft invirtió 13.000 millones de dólares a cambio de una participación del 49%.

Sobre el papel, el poder seguía en manos del consejo de administración de la organización sin ánimo de lucro, cuyo objetivo es garantizar que la AGI beneficie a todos, y cuya responsabilidad, en consecuencia, no es ante los accionistas, sino ante la “humanidad”. Esa ilusión se hizo añicos cuando los empleados exigieron el regreso de Altman y cuando se vislumbró la perspectiva de una empresa rival alojada en el seno de Microsoft, que busca el máximo beneficio.

La principal lección es la insensatez de vigilar las tecnologías mediante estructuras corporativas. A medida que se hacía patente el potencial de la AI generativa, quedaban al descubierto las contradicciones de la estructura de OpenAI. Un solo organismo no puede lograr el mejor equilibrio entre el avance de la Inteligencia Artificial, la atracción de talento e inversión, la evaluación de las amenazas de la Inteligencia Artificial y la protección de la humanidad. Los conflictos de intereses en Silicon Valley no son raros. Incluso si las personas de OpenAI fueran tan brillantes como creen, la tarea les superaría.

Aún se desconocen muchos de los motivos de la junta para despedir al Sr. Altman. Aunque los directivos tuvieran realmente en mente los intereses de la humanidad, se arriesgaban a ver cómo los inversores y los empleados acudían en masa a otra empresa que seguiría adelante con la tecnología a pesar de todo. Tampoco está del todo claro qué califica a un puñado de ciudadanos privados para representar los intereses de los 7.900 millones de habitantes restantes de la Tierra. Mientras publicábamos este artículo, nuevos informes sugerían que con el tiempo se nombraría un consejo de sustitución que incluiría al Sr. Altman y a un representante de Microsoft. Sin embargo, los cambios de personal no son suficientes: también debe revisarse la estructura de la empresa.

Un consejo sin sentido

Afortunadamente para la humanidad, hay organismos que tienen una pretensión mucho más convincente de representar sus intereses: los gobiernos electos. Mediante la elaboración de normativas, pueden establecer los límites dentro de los cuales deben operar empresas como OpenAI. Y, como demuestra la intensa actividad del último mes, están prestando atención a la inteligencia artificial. La tecnología de la Inteligencia Artificial es demasiado importante para dejarla al albur de las últimas intrigas empresariales.

© 2022, The Economist Newspaper Limited. All rights reserved.

Guardar

Nuevo