Компьютеры и нейросети

Человеческая иррациональность как способ предсказать будущие действия

Люди ведут себя иррационально — или, как мог бы сказать робот с искусственным интеллектом, «неоптимально». Дейта, бесчувственный, но приветливый андроид, изображенный в фильме «Звездный путь», регулярно пытался понять ошибочность принимаемых людьми решений. Если бы ему запрограммировали новую модель, разработанную исследователями Массачусетского технологического института, ему, возможно, было бы легче справиться с этой задачей.

В недавно опубликованной статье, исследователи искусственного интеллекта описали новый способ моделирования поведения. Затем они использовали свой метод, чтобы предсказать цели или действия людей.

Ученые создали то, что они назвали «моделью скрытого вывода». Ее основное достижение заключается в выводе о «вычислительных ограничениях» человека или машины на основе предыдущих действий. Эти ограничения приводят к неоптимальному выбору. Например, человеческим ограничением при принятии решений часто является время. Столкнувшись с трудным выбором, люди обычно не тратят часы (или дни) на обдумывание всех возможных результатов. Вместо этого мы принимаем решения быстро, не тратя время на сбор всей доступной информации.

Использование иррационального принятия решений

В настоящее время существуют модели, объясняющие иррациональное принятие решений, но они предсказывают только то, что ошибки будут происходить случайным образом.

На самом деле люди и машины ошибаются по более шаблонным схемам. Модель скрытого вывода может быстро выявить эти закономерности и затем использовать их для прогнозирования будущего поведения.

В ходе трех тестов исследователи обнаружили, что их новая модель в целом превосходит старые модели: она так же хорошо или даже лучше предсказывала маршрут компьютерного алгоритма при навигации по лабиринту, следующий ход человека-шахматиста и то, что человек-оратор пытается сказать, очень быстро произнося слова.

Ученые говорят, что процесс исследования помог им осознать, насколько фундаментальным является планирование в поведении человека. Некоторые люди по своей природе не рациональны и не иррациональны. Просто некоторым людям требуется больше времени для планирования своих действий, в то время как другим требуется меньше.

«В конце концов мы увидели, что глубина планирования или то, как долго кто-то думает над проблемой, является действительно хорошим показателем того, как ведут себя люди», — сказал автор исследования Джейкоб Андреас в своем заявлении.

Он предполагает, что эта модель будет использоваться в футуристических роботах-помощниках или помощниках с искусственным интеллектом.

«Если мы знаем, что человек собирается совершить ошибку, увидев, как он вел себя раньше, агент ИИ может вмешаться и предложить лучший способ сделать это. Или агент может адаптироваться к слабостям своих коллег-людей», — сказал он.

Это не первая попытка ученых разработать инструменты, которые помогут ИИ прогнозировать принятие решений человеком. Большинство исследователей, преследующих эту цель, предвидят позитивное будущее. Например, когда-нибудь мы можем увидеть, как ИИ легко координирует свои действия с нашими, оказывает помощь в повседневных задачах, повышает производительность на рабочих местах и ​​или управляет транспортом.

Но есть и неприятные возможные последствия. Модели искусственного интеллекта, тщательно разработанные для прогнозирования человеческого поведения, также могут быть использованы злоумышленниками для манипулирования людьми. Имея достаточно данных о том, как люди реагируют на различные стимулы, ИИ можно запрограммировать так, чтобы вызывать реакции, которые могут не соответствовать интересам людей. Представьте, если бы ИИ действительно преуспел в этом. Это придало бы новую актуальность вопросу о том, являются ли люди агентами со свободной волей или просто автоматами, реагирующими на внешние силы.

Поделиться в соцсетях
Дополнительно
Big Think
Показать больше
Подписаться
Уведомление о
guest
0 Комментарий
Первые
Последние Популярные
Встроенные отзывы
Посмотреть все комментарии
Back to top button