Компьютеры и нейросети

Нейробиологи говорят, что ИИ не разумен — во всяком случае пока

Искусственный интеллект внедряется во все больше и больше аспектов нашей жизни. И поскольку мозг ИИ поглощает триллионы бит данных и, в свою очередь, генерирует ответы с привлекательным тоном и манерой поведения, которые звучат просто и по-человечески, некоторые люди чувствуют себя обязанными спросить: компьютеры становятся разумными?

Некоторые отвечают: «Конечно, нет. Компьютеры могут за секунды решить проблемы, на решение которых человечеству потребуются поколения, но они не могут чувствовать любовь и боль, не могут видеть и ценить луну и звезды, не могут чувствовать запахи и так далее».

Но другие полагают, что нам необходимо более четко определить то, что мы стали понимать как разумное.

Могут ли существовать разные степени сознания, как мы его понимаем? Перекрываются ли компоненты субъективного опыта людей, животных и разумных машин?

Девятнадцать нейробиологов из США, Англии, Израиля, Канады, Франции и Австралии исследовали эту проблему в отчете, опубликованном на сервере препринтов arXiv.

Ведущий ученый из OpenAI, разработавшей ChatGPT, в прошлом году предположил, что продвинутые сети искусственного интеллекта могут быть «слегка сознательными». Годом ранее учёный из Google был уволен после того, как заявил, что LaMDA, предшественник чат-бота Bard, разумен.

Но после обширного анализа многочисленных теорий сознания авторы доклада «Сознание в искусственном интеллекте: выводы из науки о сознании» пришли к выводу, что системы ИИ не обладают сознанием; по крайней мере, пока.

Однако они наметили подходы, которые будущим исследователям стоило бы рассмотреть.

«Наш анализ показывает, что ни одна из нынешних систем ИИ не обладает сознанием», — сказал Патрик Батлин, ведущий автор отчета, — «но также предполагает, что не существует очевидных технических препятствий для создания систем ИИ, которые удовлетворяют этим показателям».

Они сузили теории сознания до нескольких концепций, которые, по их словам, являются убедительными индикаторами сознательных сущностей.

Одним из примеров является теория рекуррентной обработки, которая утверждает, что мозг обрабатывает информацию через петли обратной связи.

Благодаря таким петлям мозг может адаптироваться к меняющимся обстоятельствам, вносить коррективы в восприятие и принимать более обоснованные решения. Такое итеративное поведение является ключом к формированию памяти и приобретению новых знаний.

Еще одной ключевой концепцией является теория высшего порядка, которую некоторые называют «осознание того, что мы сознаем».

«Теории высшего порядка отличаются от других тем, что они делают акцент на идее о том, что для того, чтобы ментальное состояние было сознательным, субъект должен осознавать, что он находится в этом ментальном состоянии, и на том, каким образом они предлагают объяснить это сознание», — сказал Патрик Батлин.

Третий фактор — это теория глобального рабочего пространства. Она утверждает, что осознанность достигается, когда информация становится глобально доступной в мозге.

Информация не ограничивается отдельными сенсорными входами, а содержится в глобальном центре, доступном для различных внутренних когнитивных процессов.

Предложенные инструменты «предлагают нам лучший метод, доступный в настоящее время для оценки того, будут ли системы ИИ сознательными», — сказал Патрик Батлин.

«Мы публикуем этот отчет отчасти потому, что серьезно относимся к возможности создания сознательных систем искусственного интеллекта в относительно ближайшем будущем — в течение следующих нескольких десятилетий», — говорят ученые. «Эти перспективы поднимают глубокие моральные и социальные вопросы».

Поделиться в соцсетях
Источник
ArXiv
Показать больше
Подписаться
Уведомление о
guest
0 Комментарий
Встроенные отзывы
Посмотреть все комментарии
Back to top button