Разработчики Google учат искусственный интеллект объяснять шутки, что далеко не банально звучит, может способствовать глубокому технологическому прогресу в том, как эти системы автоматически учатся анализировать человеческий язык и реагировать на него.
Цель состоит в том, чтобы расширить границы технологии обработки естественного языка (NLP), которая используется для больших языковых моделей (LLM), таких как GPT-30, которые позволяют, например, чат-ботам воспроизводить все более точное человеческое общение, что в самых сложных случаях затрудняет определение того, собеседник — это человек или машина.
В недавно опубликованной статье исследовательская группа Google утверждает, что обучила языковую модель PALM, которая способна не только генерировать реалистичный текст, но также интерпретировать и объяснять шутки, рассказанные людьми.
В примерах, сопровождающих документ, команда Google по искусственному интеллекту демонстрирует способность модели выполнять логические рассуждения и другие сложные языковые задачи, сильно зависящие от контекста, например, с помощью метода, называемого указанием цепочки мыслей, которая значительно улучшает способность системы анализировать логические задачи в несколько этапов, имитируя мыслительный процесс человека.
«Объясняя шутки», система показывает, что она понимает шутку, и вы можете найти сюжетный трюк, игру слов или саркастический выход в основной части шутки, как видно из этого примера.
Шутка: В чем разница между зеброй и зонтом? Одно из них - полосатое животное, связанное с лошадьми, другое - устройство, которое вы используете для предотвращения попадания на вас дождя.
Объяснение AI: Эта шутка - антишутка. Шутка в том, что ответ очевиден, а шутка в том, что вы ожидали смешного ответа.
За способностью PalM анализировать эти признаки лежит одна из крупнейших когда-либо созданных языковых моделей с 540 миллиардами параметров. Параметры — это элементы модели, которые обучаются в процессе обучения каждый раз, когда система получает выборочные данные. Предшественник PalM, GPT-3, имеет 175 миллиардов параметров.
Увеличение числа параметров позволило исследователям получать широкий спектр высококачественных результатов без необходимости тратить время на обучение модели для отдельных сценариев. Другими словами, производительность языковой модели часто измеряется количеством поддерживаемых ею параметров, с более крупными моделями, способными к так называемому «обучению с нескольких попыток», или способностью системы изучать широкий спектр сложных задач с относительно небольшим количеством примеров обучения.
ПРОДОЛЖАЙТЕ ЧИТАТЬ