Достижения в области искусственного интеллекта: Google создал бота, который понимает и может объяснять шутки

Разработка направлена на продвижение технологии обработки естественного языка для обеспечения большего анализа и реагирования для ботов ИИ.

Разработчики Google учат искусственный интеллект объяснять шутки, что далеко не банально звучит, может способствовать глубокому технологическому прогресу в том, как эти системы автоматически учатся анализировать человеческий язык и реагировать на него.

Цель состоит в том, чтобы расширить границы технологии обработки естественного языка (NLP), которая используется для больших языковых моделей (LLM), таких как GPT-30, которые позволяют, например, чат-ботам воспроизводить все более точное человеческое общение, что в самых сложных случаях затрудняет определение того, собеседник — это человек или машина.

В недавно опубликованной статье исследовательская группа Google утверждает, что обучила языковую модель PALM, которая способна не только генерировать реалистичный текст, но также интерпретировать и объяснять шутки, рассказанные людьми.

Read more!

В примерах, сопровождающих документ, команда Google по искусственному интеллекту демонстрирует способность модели выполнять логические рассуждения и другие сложные языковые задачи, сильно зависящие от контекста, например, с помощью метода, называемого указанием цепочки мыслей, которая значительно улучшает способность системы анализировать логические задачи в несколько этапов, имитируя мыслительный процесс человека.

«Объясняя шутки», система показывает, что она понимает шутку, и вы можете найти сюжетный трюк, игру слов или саркастический выход в основной части шутки, как видно из этого примера.

Шутка: В чем разница между зеброй и зонтом? Одно из них - полосатое животное, связанное с лошадьми, другое - устройство, которое вы используете для предотвращения попадания на вас дождя.

Объяснение AI: Эта шутка - антишутка. Шутка в том, что ответ очевиден, а шутка в том, что вы ожидали смешного ответа.

За способностью PalM анализировать эти признаки лежит одна из крупнейших когда-либо созданных языковых моделей с 540 миллиардами параметров. Параметры — это элементы модели, которые обучаются в процессе обучения каждый раз, когда система получает выборочные данные. Предшественник PalM, GPT-3, имеет 175 миллиардов параметров.

Увеличение числа параметров позволило исследователям получать широкий спектр высококачественных результатов без необходимости тратить время на обучение модели для отдельных сценариев. Другими словами, производительность языковой модели часто измеряется количеством поддерживаемых ею параметров, с более крупными моделями, способными к так называемому «обучению с нескольких попыток», или способностью системы изучать широкий спектр сложных задач с относительно небольшим количеством примеров обучения.

ПРОДОЛЖАЙТЕ ЧИТАТЬ

Read more!

Más Noticias

Дебанхи Эскобар: они обезопасили мотель, где ее нашли безжизненной в цистерне

Сотрудники специализированной прокуратуры Нуэво-Леона обеспечили охрану мотеля Nueva Castilla в рамках расследования этого дела

Самый старый человек в мире умер в возрасте 119 лет

Кейн Танака жил в Японии. Она родилась на шесть месяцев раньше Джорджа Оруэлла, в тот же год, когда братья Райт впервые совершили полет, а Мари Кюри стала первой женщиной, получившей Нобелевскую премию

Жуткая находка в CDMX: они оставили тело в мешке и связали в такси

Кузов оставили на задних сиденьях автомобиля. Он был покрыт черными мешками и перевязан промышленной лентой

«Орлы Америки» сразятся с «Манчестер Сити» в дуэли легенд. Вот подробности

Лучший мексиканский чемпион по футболу сыграет матч с командой Пепа Гвардиолы в Кубке Lone Star

ФБР провело обыски в домах российского магната, связанного с Путиным до войны

Картина Диего Риверы. Пара обуви Prada. Бейсболка.