Un estudio avisa de que los grandes modelos de lenguaje de IA son cada vez menos fiables

Guardar

Valencia (España), 25 sep (EFE).- Un estudio realizado por la Universitat Politècnica de València (UPV) y la Universidad de Cambridge revela la tendencia "alarmante" al empeoramiento de la fiabIlidad de los modelos más recientes de inteligencia artificial (IA), como el GPT-4, en comparación con los primeros, como el GPT-3.

El trabajo, que se publica este miércoles en la revista Nature, señala que los recientes avances en IA han generalizado el uso de grandes modelos de lenguaje en nuestra sociedad, pero no son tan fiables como los usuarios esperan, según detalla la UPV.

El estudio fue liderado por un equipo del Instituto VRAIN de la Universitat Politècnica de València y la Escuela Valenciana de Posgrado y Red de Investigación en Inteligencia Artificial (ValgrAI), junto con la Universidad de Cambridge.

El equipo integrado en el instituto VRAIN de la UPV fue parte del 'red team' de GPT-4, cuya misión era encontrar fallos y vulnerabilidades en el sistema, así como evaluar sus capacidades y posibles riesgos asociados a su uso.

Trabajaron en el estudio los investigadores de la UPV José Hernández-Orallo, Cèsar Ferri, Wout Schellaert, Lexin Zhou y Yael Moros.

Según Hernández-Orallo, una de las principales preocupaciones sobre la fiabilidad de los modelos de lenguaje es que su funcionamiento no se ajusta a la percepción humana de dificultad de la tarea.

Es decir, existe una discordancia entre las expectativas de que los modelos fallen de acuerdo a la percepción humana de dificultad en la tarea y las tareas donde realmente los modelos fallan, precisa.

"Los modelos pueden resolver ciertas tareas complejas de acuerdo a las habilidades humanas, pero al mismo tiempo fallan en tareas simples del mismo dominio. Por ejemplo -apunta-, pueden resolver varios problemas matemáticos de nivel de doctorado, pero se pueden equivocar en una simple suma".

El equipo de la UPV y la Universidad de Cambridge investigó tres aspectos clave que afectan a la fiabilidad de los modelos de lenguaje desde una perspectiva humana, y concluyen que no existe una "zona segura" en la que los modelos funcionen a la perfección.

"Los modelos suelen ser menos precisos en tareas que los humanos consideran difíciles, pero no son precisos al 100 % ni siquiera en tareas sencillas. Esto significa que no existe una 'zona segura' en la que se pueda confiar en que los modelos funcionen a la perfección", agrega Yael Moros Daval.

De hecho, los modelos más recientes básicamente mejoran su rendimiento en tareas de alta dificultad, pero no en tareas de baja dificultad, lo que "agrava la discordancia de dificultad entre el rendimiento de los modelos y las expectativas humanas", precisa Martínez Plumed.

El estudio descubre asimismo que los modelos de lenguaje recientes son mucho más propensos a proporcionar respuestas incorrectas, en vez de evitar dar respuesta a tareas de las que no están seguros, lo que puede llevar a que los usuarios que inicialmente confían demasiado en los modelos luego "se decepcionen", añade Lexin Zhou.

El estudio analiza asimismo si la eficacia de la formulación de las preguntas se ve afectada por la dificultad de las mismas y concluye que es posible que la tendencia actual de progreso en el desarrollo de modelos de lenguaje y de mayor comprensión de una variedad de órdenes no libere a los usuarios de preocuparse en hacer enunciados eficaces.

"Hemos comprobado que los usuarios pueden dejarse influir por 'prompts' que funcionan bien en tareas complejas pero que, al mismo tiempo, obtienen respuestas incorrectas en tareas sencillas", agrega César Ferri.

Además de estos hallazgos sobre aspectos de la falta de fiabilidad de los modelos de lenguaje, los investigadores han descubierto que la supervisión humana es incapaz de compensar estos problemas.

Por ejemplo, las personas pueden reconocer las tareas de alta dificultad, pero siguen considerando con frecuencia que los resultados incorrectos son correctos en esta área, incluso cuando se les permite decir "no estoy seguro", lo que indica un exceso de confianza.

Los resultados fueron similares para múltiples familias de modelos de lenguaje, incluidos la GPT de OpenAI, LLaMA de pesos abiertos de Meta, y BLOOM, una iniciativa totalmente abierta de la comunidad científica.

Los investigadores constataron que los problemas de discordancia de dificultad, falta de abstención adecuada y sensibilidad al 'prompt' siguen siendo un problema para las nuevas versiones de las familias populares como los nuevos modelos o1 de OpenAI y Claude-3.5-Sonnet de Anthropic.

Los investigadores proponen un cambio en el diseño y desarrollo de la IA de propósito general, sobre todo para las aplicaciones de alto riesgo, en las que la predicción del desempeño de los modelos de lenguaje como la detección de sus errores son primordiales. EFE

eb/cbr/ads

Últimas Noticias

La jueza archiva la segunda denuncia contra Errejón al no ser ratificada por la denunciante

El juzgado de Madrid determinó el cierre del procedimiento judicial contra el exdirigente de Sumar tras la ausencia de declaración de la mujer que lo acusó, descartando así la continuación de la causa por presunta agresión sexual

La jueza archiva la segunda

La jueza archiva la segunda denuncia contra Errejón al no ser ratificada por la víctima

La magistrada del Juzgado de Violencia Sobre la Mujer número 12 de Madrid comunicó a la defensa del exdiputado que las actuaciones han quedado archivadas tras la decisión de la denunciante de no confirmar los hechos ante la autoridad judicial

La jueza archiva la segunda

El profesor de Lugo acusado de agresión sexual atribuye la denuncia de las niñas a "una fabulación colectiva"

El procesado por presunta conducta ilícita en un colegio gallego afirmó ante los jueces que no existen pruebas de los hechos y que su reacción fue fruto de un supuesto malentendido entre estudiantes, padres y medios de comunicación

El profesor de Lugo acusado

UPL destaca su avance "significativo" al lograr "el mejor resultado de su historia" en unas autonómicas

La formación leonesista incrementa su respaldo en las Cortes de Castilla y León, triplica representación institucional y supera el doble de votos respecto a 2019, quedando cerca de conseguir grupo parlamentario propio por primera vez en su historia

UPL destaca su avance "significativo"

Encyclopedia Britannica y Merriam-Webster demandan a OpenAI por el uso de sus contenidos por ChatGPT

Editoriales estadounidenses acusan a la tecnológica de Manhattan de beneficiarse “masivamente” de obras protegidas, al replicar información en sus sistemas automatizados y generar respuestas que desplazan a los usuarios desde los portales originales de consulta y referencia

Infobae
MÁS NOTICIAS