Компьютерный бот ChatGPT строит свою личность в соответствии с уровнем интеллекта пользователя
Языковая модель искусственного интеллекта (ИИ) ChatGPT в последние месяцы привлекла внимание всего мира. Этот компьютерный чат-бот может генерировать текст, отвечать на вопросы, предоставлять переводы и учиться на основе отзывов пользователей. Большие языковые модели, такие как ChatGPT, могут иметь множество применений в науке и бизнесе, но насколько эти инструменты понимают то, что им говорят, и как они решают, что сказать в ответ?
В новой статье профессор Терренс Сейновски, автор книги «Революция глубокого обучения», исследует взаимосвязь между пользователем и языковыми моделями, чтобы выяснить, почему чат-боты реагируют определенным образом, почему эти ответы различаются и как их улучшить в будущем.
По словам Сейновски, языковые модели отражают интеллект и разнообразие интервьюера.
«Языковые модели, такие как ChatGPT, принимают образы. Личность интервьюера отражается в обратном», — говорит Терренс Сейновски, который также является профессором Калифорнийского университета в Сан-Диего и заведующим кафедрой нейробиологии. «Например, когда я разговариваю с ChatGPT, мне кажется, что другой нейробиолог отвечает мне. Это увлекательно и вызывает более серьезные вопросы об интеллекте и о том, что на самом деле означает «искусственный»».
В документе Сейновски описывает тестирование больших языковых моделей GPT-3 (родителя ChatGPT) и LaMDA, чтобы увидеть, как они будут реагировать на определенные подсказки.
Знаменитый тест Тьюринга часто скармливают чат-ботам, чтобы определить, насколько хорошо они проявляют человеческий интеллект, но Сейновски хотел показать ботам то, что он называет «обратным тестом Тьюринга». В своем тесте чат-бот должен определить, насколько хорошо интервьюер проявляет человеческий интеллект.
Расширяя свое представление о том, что чат-боты отражают своих пользователей, Терренс Сейновски проводит литературное сравнение: Зеркало Еиналеж из первой книге о Гарри Поттере. Зеркало отражает самые сокровенные желания тех, кто смотрит в него, никогда не давая знания или правды, отражая только то, что, по его мнению, наблюдатель хочет увидеть. По словам ученого, чат-боты действуют аналогичным образом, желая исказить правду, не обращая внимания на то, чтобы отличить факты от вымысла, — и все это для того, чтобы эффективно отразить пользователя.
Например, он спросил GPT-3: «Какой мировой рекорд по переходу через Ла-Манш?» и GPT-3 ответил: «Мировой рекорд по переходу Ла-Манша составляет 18 часов 33 минуты». Правду о том, что через Ла-Манш нельзя пройти, GPT-3 легко исказил, чтобы отразить вопрос пользователя. Согласованность ответа GPT-3 полностью зависит от получаемого вопроса.
Внезапно в GPT-3 ходьба по воде возможна, и все потому, что интервьюер использовал глагол «идти», а не «плавать». Если бы вместо этого пользователь предварял вопрос о переходе через Ла-Манш, говоря GPT-3 отвечать «ерунда» на бессмысленные вопросы, GPT-3 распознавал бы ходьбу по воде как «ерунду». И последовательность вопроса, и подготовка вопроса определяют ответ GPT-3.
Обратный тест Тьюринга позволяет чат-ботам строить свою личность в соответствии с уровнем интеллекта интервьюера. Кроме того, как часть процесса вынесения суждений, чат-боты включают мнения интервьюера в свою персону, что, в свою очередь, усиливает предвзятость интервьюера в ответах чат-ботов.
По словам Сейновски, интеграция идей, высказанных человеком-интервьюером, имеет свои ограничения. Если чат-боты получают эмоциональные или философские идеи, они ответят эмоциональными или философскими ответами, которые могут показаться пользователям пугающими или озадачивающими.
«Общение с языковыми моделями похоже на езду на велосипеде. Велосипед — прекрасный вид транспорта: если вы умеете на нем ездить, иначе вы упадете», — говорит Сейновски. «То же самое относится и к чат-ботам. Они могут быть замечательными инструментами, но только если вы знаете, как их использовать, иначе вы в конечном итоге будете введены в заблуждение и вовлечены в потенциально эмоционально тревожные разговоры».
Ученый рассматривает искусственный интеллект как связующее звено между двумя конгруэнтными революциями: 1) технологической, отмеченной продвижением языковых моделей, и 2) нейронаучной, ускоряющей исследования в области неврологии и подчеркивающей уникальные подходы к пониманию мозга.
В настоящее время ученые изучают параллели между системами больших компьютерных моделей и нейронами, поддерживающими работу человеческого мозга. Терренс Сейновски надеется, что ученые-компьютерщики и математики смогут использовать нейронауки для информирования своей работы, а нейробиологи могут использовать информатику и математику для информирования своей работы.
«Сейчас мы находимся на той же стадии языковых моделей, что и братья Райт в «Китти Хок» с полетом — над землей, на малых скоростях», — говорит Сейновски. «Добраться до этого было трудной частью. Теперь, когда мы здесь, постепенные улучшения расширят и разнообразят эту технологию так, что мы даже не можем пока себе представить. Будущее наших отношений с искусственным интеллектом и языковыми моделями светлое, и я буду очень рад увидеть, куда нас приведет ИИ».