人工知能の進歩:Googleはジョークを理解して説明できるボットを作成しました

この開発は、自然言語処理技術を推進し、AIボットにより大きな分析能力と応答能力を提供することを目的としています。

Guardar

Googleの開発者はジョークを説明するために人工知能を教えています。ジョークの説明は、これらのシステムが人間の言語の分析と応答を自動的に学習する方法において技術的な進歩を大きく高めることができます

目標は、GPT-30などの大規模言語モデル(LLM)に使用される自然言語処理(NLP)テクノロジーのフロンティアを押し上げることです。これにより、チャットボットは、より正確な人間のコミュニケーションを再現できます。対話者は人間または機械です。

現在、最近公開された記事で、Googleの研究チームは、現実的なテキストを生成するだけでなく、人間が語ったジョークを解釈して説明できるPalMと呼ばれる言語モデルをトレーニングしたと主張しています。

このドキュメントに添付されている例では、Googleの人工知能チームは、論理的推論やコンテキストに大きく依存するその他の複雑な言語タスクを実行するモデルの能力を実証しています。たとえば、思考連鎖表示と呼ばれる手法を使用することで、人間の思考プロセスをシミュレートすることで、論理的な問題を複数のステップで分析するシステムの能力を向上させます。

「ジョークを説明する」ことで、システムはジョークを理解していることを示し、この例に見られるように、プロットトリック、言葉遊び、またはジョークのパンチラインでの皮肉な出口を見つけることができます。

ジョーク:シマウマと傘の違いは何ですか?1つは馬に関連する縞模様の動物で、もう1つは雨が降らないようにするために使用するデバイスです。

AI説明:このジョークはアンチジョークです。冗談は答えが明白であり、冗談はあなたが面白い答えを期待していたということです。

Infobae

PalMがこれらの兆候を分析する機能の背後には、これまでに構築された最大規模の言語モデルの1つがあり、パラメータは5,400億個あります。パラメーターは、システムが標本データを受信するたびに、学習プロセス中に学習されるモデルの要素です。PalMの前身であるGPT-3には1,750億個のパラメータがあります。

パラメーター数の増加により、研究者は個々のシナリオに合わせてモデルのトレーニングに時間を費やすことなく、幅広い高品質の結果を生成できるようになりました。言い換えれば、言語モデルのパフォーマンスは、サポートするパラメータの数によって測定されることが多く、大規模なモデルは 「数回の試行から学習」できること、またはシステムが比較的少数のトレーニング例で多種多様な複雑なタスクを学習する能力によって測定されます

読み続ける