
Gli sviluppatori di Google stanno insegnando all'intelligenza artificiale per spiegare le barzellette, qualcosa che lungi da quanto possa sembrare banale può migliorare un profondo progresso tecnologico nel modo in cui questi sistemi riescono a imparare automaticamente ad analizzare e rispondere al linguaggio umano.
L'obiettivo è quello di spingere le frontiere della tecnologia Natural Language Processing (NLP), che viene utilizzata per modelli linguistici di grandi dimensioni (LLM) come GPT-30 che consentono, ad esempio, ai chatbot di riprodurre una comunicazione umana sempre più accurata, che, nei casi più avanzati, rende difficile distinguere se il interlocutor è un essere umano o una macchina.
Ora, in un articolo pubblicato di recente, il team di ricerca di Google afferma di aver addestrato un modello linguistico chiamato PALM in grado non solo di generare testo realistico, ma anche di interpretare e spiegare barzellette raccontate dagli umani.
Negli esempi che accompagnano il documento, il team di intelligenza artificiale di Google dimostra la capacità del modello di eseguire ragionamenti logici e altre attività linguistiche complesse che dipendono fortemente dal contesto, ad esempio utilizzando una tecnica chiamata indicazione della catena di pensiero, che notevolmente migliora la capacità del sistema di analizzare i problemi logici in più passaggi simulando il processo di pensiero di un essere umano.
«Spiegando le barzellette» il sistema mostra di capire la battuta, e puoi trovare il trucco della trama, il gioco di parole o l'uscita sarcastica nella battuta finale dello scherzo, come si può vedere in questo esempio.
Joke: Qual è la differenza tra una zebra e un ombrello? Uno è un animale a strisce legato ai cavalli, un altro è un dispositivo che usi per evitare che la pioggia cada su di te.
Spiegazione AI: Questa battuta è anti-scherzo. La battuta è che la risposta è ovvia e la battuta è che ti aspettavi una risposta divertente.
Dietro la capacità di PalM di analizzare queste indicazioni c'è uno dei più grandi modelli linguistici mai costruiti, con 540 miliardi di parametri. I parametri sono gli elementi del modello che vengono addestrati durante il processo di apprendimento ogni volta che il sistema riceve dati di esempio. Il predecessore di PalM, GPT-3, ha 175 miliardi di parametri.
Il numero crescente di parametri ha permesso ai ricercatori di produrre un'ampia gamma di risultati di alta qualità senza la necessità di dedicare tempo alla formazione del modello per scenari individuali. In altre parole, le prestazioni di un modello linguistico sono spesso misurate dal numero di parametri che supporta, con modelli più grandi capaci di ciò che è noto come «imparare da pochi tentativi», o la capacità di un sistema di apprendere un'ampia varietà di compiti complessi con relativamente pochi esempi di formazione.
CONTINUA A LEGGERE
Más Noticias
Localizan tres fosas clandestinas con restos humanos en la colonia Miguel Alemán del Valle de Mexicali
Colectivos de búsqueda han informado que al menos son 9 los cuerpos encontrados en el sitio

Línea B del Metro CDMX concluye obras de mantenimiento: ¿Cuándo reanuda servicio en todas sus estaciones?
El director del STC Metro destacó la realización de trabajos para reestablecer la operación de la línea en su totalidad

Karen Dejo cambia sus implantes mamarios y revela cómo se encuentra tras la cirugía: “Estoy contenta”
La integrante de ‘Esto es guerra’ renovó sus implantes tras 13 años y aseguró que la intervención fue un éxito

Florencia, reclutadora de personal para yates de lujo: “Este trabajo puede cambiar vidas y ayudar a muchas familias”
Graduada en Turismo, ha pasado de trabajar como administrativa a llevar una vida a bordo, surcando los mares en yates de 95 metros de largo
Tras la huella genética del cáncer de colon: la prueba que Sanidad no cubre y que rastrea los restos del tumor en la sangre para predecir recaídas
La biopsia líquida identifica en una simple muestra de sangre una célula cancerosa entre un millón de sanas
