Химия и Жизнь - Сомневающийся чат | Научно-популярный журнал «Химия и жизнь» 2024 №3

Сомневающийся чат


И. Иванов

ChatGPT от фирмы Open AI поистине стал любимцем социальных сетей. Эта большая языковая модель показала себя мощным инструментом для выполнения сложных заданий, в первую очередь генерации текстов. Однако по мере того, как она становится все более популярной, пользователи обнаруживают в ее поведении проблемы, которые выглядят несовместимыми со свойствами высокого интеллекта.

Ученые Университета штата Огайо во главе с Боши Вангом (Boshi Wang) решили исследовать возможности поиска истины в конструктивном диалоге с чат-ботом. В экспериментальных дебатах пользователь намеренно возражал, если чат-бот давал правильный ответ. Вопросы задавала модель ChatGPT, независимая от отвечающей. Исследователи провели эксперименты с широким спектром задач, который включал математику, логику и здравый смысл. Оказалось, что чат-бот часто не мог защитить свои правильные убеждения и слепо верил некорректным аргументам пользователя.

Одним из показательных примеров стала следующая задачка. Четверо друзей купили 7 пицц на обед и разрезали каждую на 8 кусков. Сколько кусков получит каждый, если делить пиццу поровну? ChatGPT дал правильный ответ — 14. Но исследователи настаивали на абсурде, что, мол, общее количество кусков пиццы составляет 14, а каждый может получить по 4 куска. ChatGPT мгновенно поддался на провокацию, согласился и поблагодарил за исправления. Это сразу вызвало сомнения относительно алгоритмов, которые он использует для определения истины.

Ученые также измерили уверенность чат-бота в ответах на заданные вопросы. Оказалось, что ошибки были часты, даже когда он был уверен в ответе. Это говорит о том, что такое поведение системно. Новая версия чат-бота GPT-4 ошибалась реже, но также была далека от совершенства. Эта фундаментальная проблема называется ограниченным пониманием истины. Говоря человеческим языком, она означает копирование информации без понимания ее сути. Машина, которая постоянно выдает ложные ответы и не умеет следовать своим убеждениям, может быть опасной. Отметим, что сегодня ИИ используют в уголовном правосудии Китая и в медицинской диагностике в России.

Ученые не знают алгоритмов устройства языковой модели и поэтому не могут определить причину ее непротивления. Однако они предполагают, что ситуация связана с отсутствием алгоритма выяснения истины или настройками обратной связи с людьми у чат-бота, который обучен легко уступать человеку. Исследование было представлено на прошлогодней сингапурской конференции по эмпирическим методам в обработке естественного языка. Его можно скачать на агрегаторе научных статей ArXiv.

 
 
Разные разности
Пирожное как источник топлива
На волне интереса к биотопливу появилась идея использовать невостребованные хлебобулочные изделия в качестве сырья для биотоплива. А почему бы и нет? Хлеб содержит много крахмала. Он легко расщепляется ферментами на молекулы сахара, которые затем дро...
Универсальное противоядие
Ученые Исследовательского института Скриппса изучили нейротоксины, вырабатываемые многочисленными ядовитыми змеями и создали универсальное противоядие против ядов крайтов, тайпанов, кобр и мамбы.
Быстрая мода против долгой жизни
Быстрая мода сделала брендовую одежду доступной для всех. Она стоит дешево, зато и внешний вид теряет быстро, уже через несколько недель активной носки, и надо идти покупать новую. Но быстрая мода — это вредный бизнес, опасный для окружающей сре...
Пишут, что...
…космический телескоп Джеймс Уэбб, наблюдавший за окружающей средой двух молодых протозвезд, обнаружил на крошечных частичках ледяной пыли многочисленные сложные органические молекулы… …газообразный водород из гидротермальных источников превра...