Elon Musk admite que xAI entrenó Grok con los modelos de OpenAI mediante destilación

Guardar
Imagen XSBOWXLDENECNAMB3CDVY5ZMHY

El director ejecutivo de xAI, Elon Musk, ha admitido que utilizaron los modelos de inteligencia artificial (IA) de OpenAI para entrenar sus propios modelos Grok, de cara a mejorar su funcionamiento, mediante la técnica de destilación.

La destilación es una práctica que permite transmitir los aprendizajes de un modelo de IA a otro. Así, posibilita que un modelo más pequeño (modelo alumno) imite el comportamiento de redes neuronales más grandes (modelo profesor), aprendiendo sus predicciones y utilizando sus datos.

PUBLICIDAD

En este sentido, Musk ha detallado que "en parte" ha entrenado los modelos de Grok utilizando destilación con los modelos de OpenAI, alegando que es "una práctica habitual usar otras inteligencias artificiales para validar tu IA".

Así lo ha acabado admitiendo el CEO de xAI durante su testificación ante un tribunal federal de California (Estados Unidos) en el marco del juicio que enfrenta a la tecnológica con la compañía liderada por Sam Altman, OpenAI, debido a la demanda interpuesta por Musk contra Altman por transformar OpenAI en una entidad con fines de lucro, en lugar de continuar con su visión sin fines de lucro original.

PUBLICIDAD

Concretamente, preguntado por si xAI había destilado la tecnología de OpenAI, Musk alegó que "generalmente todas las empresas de IA" acaban utilizando esta técnica. Sin embargo, cuando el jurado insistió en el caso de Grok, el directivo respondió que "en parte", haciendo referencia al uso de los modelos de ChatGPT para mejorar Grok, como han recogido medios como TechCrunch y The Verge.

A pesar de que el propietario de la red social X, donde también está integrada la IA de Grok, se ha escudado en que la destilación es una práctica muy común en la industria de los modelos de IA, compañías como la propia OpenAI o Anthropic, ya han denunciado este comportamiento de otras tecnológicas anteriormente, aunque las acusaciones se habían centrado exclusivamente en empresas chinas.

Esto se debe a que aunque la destilación es una técnica que se utiliza ampliamente en los laboratorios de IA de vanguardia, para crear versiones más pequeñas y económicas de sus propios modelos, y ofrecer distintos servicios a sus clientes, puede haber casos en los que se utilice de forma ilícita.

Concretamente, esto ocurre cuando otras compañías utilizan modelos ajenos para entrenar a los suyos ahorrando costes y tiempo, lo que se denomina un "ataque de destilación", en lugar de invertir en la costosa infraestructura informática y tiempo necesarios, como han hecho las principales empresas de IA.

En el caso de OpenAI, denunció que la tecnológica china DeepSeek utilizó la destilación de los modelos de ChatGPT para entrenar sus modelo de código abierto, subrayando posibles problemas de propiedad intelectual.

Por su parte Anthropic también denunció en febrero de este año a empresas chinas como DeepSeek, Moonshot y MiniMax, acusándolas de llevar a cabo ataques de destilación para abusar de su modelo Claude con el fin de aprovecharse de sus capacidades. Según pudo comprobar, estas empresas generaron más de 16 millones de interacciones con su 'chatbot' Claude a través de 24.000 cuentas fraudulentas, infringiendo así sus términos y restricciones.

Como consecuencia, las compañías de IA están comenzando a implementar funciones para frenar este tipo de técnicas, identificando patrones de ataques de destilación en el tráfico de las PI, reforzando la verificación de cuentas y desarrollando salvaguardias a nivel de producto.