Avanços na Inteligência Artificial: o Google criou um bot que entende e pode explicar piadas

O desenvolvimento visa promover a tecnologia de Processamento de Linguagem Natural para fornecer maior capacidade de análise e resposta aos bots de IA.

Os desenvolvedores do Google estão ensinando inteligência artificial a explicar piadas, algo que longe de ser banal pode potencializar um profundo avanço tecnológico na forma como esses sistemas conseguem aprender automaticamente a analisar e responder à linguagem humana.

O objetivo é ultrapassar as fronteiras da tecnologia de Processamento de Linguagem Natural (PNL), que é usada para grandes modelos de linguagem (LLMs) como o GPT-30 que permitem, por exemplo, que os chatbots reproduzam uma comunicação humana cada vez mais precisa, o que, nos casos mais avançados, dificulta distinguir se o interlocutor é um ser humano ou uma máquina.

Agora, em um artigo publicado recentemente, a equipe de pesquisa do Google afirma ter treinado um modelo de linguagem chamado PalM que é capaz não só de gerar texto realista, mas também de interpretar e explicar piadas contadas por humanos.

Read more!

Nos exemplos que acompanham o documento, a equipe de inteligência artificial do Google demonstra a capacidade do modelo de realizar raciocínio lógico e outras tarefas de linguagem complexas que são altamente dependentes do contexto, por exemplo, usando uma técnica chamada indicação da cadeia de pensamento, que muito melhora a capacidade do sistema de analisar problemas lógicos em várias etapas, simulando o processo de pensamento de um ser humano.

Ao “explicar as piadas”, o sistema mostra que entende a piada, e você pode encontrar o truque da trama, o jogo de palavras ou a saída sarcástica na piada da piada, como pode ser visto neste exemplo.

Piada: Qual é a diferença entre uma zebra e um guarda-chuva? Um é um animal listrado relacionado a cavalos, outro é um dispositivo que você usa para evitar que a chuva caia sobre você.

Explicação da IA: Essa piada é anti-piada. A piada é que a resposta é óbvia, e a piada é que você esperava uma resposta engraçada.

Por trás da capacidade do PalM de analisar essas indicações está um dos maiores modelos de linguagem já construídos, com 540 bilhões de parâmetros. Parâmetros são os elementos do modelo que são treinados durante o processo de aprendizagem cada vez que o sistema recebe dados de amostra. O antecessor do PalM, o GPT-3, tem 175 bilhões de parâmetros.

O número crescente de parâmetros permitiu que os pesquisadores produzissem uma ampla gama de resultados de alta qualidade sem a necessidade de gastar tempo treinando o modelo para cenários individuais. Em outras palavras, o desempenho de um modelo de linguagem é frequentemente medido pelo número de parâmetros que ele suporta, com modelos maiores capazes do que é conhecido como “aprender com poucas tentativas”, ou a capacidade de um sistema de aprender uma ampla variedade de tarefas complexas com relativamente poucos exemplos de treinamento.

CONTINUE LENDO

Read more!