
Gli sviluppatori di Google stanno insegnando all'intelligenza artificiale per spiegare le barzellette, qualcosa che lungi da quanto possa sembrare banale può migliorare un profondo progresso tecnologico nel modo in cui questi sistemi riescono a imparare automaticamente ad analizzare e rispondere al linguaggio umano.
L'obiettivo è quello di spingere le frontiere della tecnologia Natural Language Processing (NLP), che viene utilizzata per modelli linguistici di grandi dimensioni (LLM) come GPT-30 che consentono, ad esempio, ai chatbot di riprodurre una comunicazione umana sempre più accurata, che, nei casi più avanzati, rende difficile distinguere se il interlocutor è un essere umano o una macchina.
Ora, in un articolo pubblicato di recente, il team di ricerca di Google afferma di aver addestrato un modello linguistico chiamato PALM in grado non solo di generare testo realistico, ma anche di interpretare e spiegare barzellette raccontate dagli umani.
Negli esempi che accompagnano il documento, il team di intelligenza artificiale di Google dimostra la capacità del modello di eseguire ragionamenti logici e altre attività linguistiche complesse che dipendono fortemente dal contesto, ad esempio utilizzando una tecnica chiamata indicazione della catena di pensiero, che notevolmente migliora la capacità del sistema di analizzare i problemi logici in più passaggi simulando il processo di pensiero di un essere umano.
«Spiegando le barzellette» il sistema mostra di capire la battuta, e puoi trovare il trucco della trama, il gioco di parole o l'uscita sarcastica nella battuta finale dello scherzo, come si può vedere in questo esempio.
Joke: Qual è la differenza tra una zebra e un ombrello? Uno è un animale a strisce legato ai cavalli, un altro è un dispositivo che usi per evitare che la pioggia cada su di te.
Spiegazione AI: Questa battuta è anti-scherzo. La battuta è che la risposta è ovvia e la battuta è che ti aspettavi una risposta divertente.
Dietro la capacità di PalM di analizzare queste indicazioni c'è uno dei più grandi modelli linguistici mai costruiti, con 540 miliardi di parametri. I parametri sono gli elementi del modello che vengono addestrati durante il processo di apprendimento ogni volta che il sistema riceve dati di esempio. Il predecessore di PalM, GPT-3, ha 175 miliardi di parametri.
Il numero crescente di parametri ha permesso ai ricercatori di produrre un'ampia gamma di risultati di alta qualità senza la necessità di dedicare tempo alla formazione del modello per scenari individuali. In altre parole, le prestazioni di un modello linguistico sono spesso misurate dal numero di parametri che supporta, con modelli più grandi capaci di ciò che è noto come «imparare da pochi tentativi», o la capacità di un sistema di apprendere un'ampia varietà di compiti complessi con relativamente pochi esempi di formazione.
CONTINUA A LEGGERE
Más Noticias
Petro arremete contra Bruce Mac Master y culpa a la oposición y al Banco de la República por una crisis económica “sobreviniente”
El presidente descartó recortes en gasto social y fuerza pública, insistiendo en que la emergencia económica busca proteger la inversión y la estabilidad fiscal

Embajador de EEUU celebra detención de familiares del líder de Los Chapitos
Mario Alfredo Lindoro Navidad, alias “El 7” y Mario Lindoro Elenes, alias “El Niño”, cuñado y suegro de Iván Archivaldo Guzmán, fueron detenidos en Jalisco

EN VIVO JNE cierra hoy el registro de fórmulas presidenciales para las Elecciones 2026: ¿quiénes son los candidatos inscritos?
Esta es una fecha clave dentro del calendario electoral que ha determinado el Jurado Nacional de Elecciones y la ONPE

Kábala del martes 23 de diciembre: todos los ganadores del último sorteo
La Kábala lleva a cabo tres sorteos a la semana, todos los martes, jueves y sábado, después de las 20:30 horas. Averigüe si se rompió el pozo millonario

Cuál será el horario de museos en CDMX el 24 y 25 de diciembre
La Navidad puede ser buena oportunidad de pasear por la CDMX
