Компьютеры и нейросетиЧеловек и общество

Ряд экспертов и ученых призвали приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Илон Маск и ряд экспертов и ученых призвали приостановить разработку мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности. «Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4» — говорится в заявлении.

Открытое письмо, подписанное на сегодняшний день более чем 2400 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 фирмой OpenAI, поддерживаемой Microsoft.

Компания заявляет, что ее последняя модель намного мощнее, чем предыдущая версия, которая использовалась для работы ChatGPT, бота, способного генерировать фрагменты текста из самых кратких подсказок.

«Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества», — говорится в открытом письме под названием «Приостановить эксперименты с искусственным интеллектом».

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффекты будут положительными, а риски управляемыми», — говорится в сообщении.

Маск был первоначальным инвестором OpenAI, провел годы в совете директоров, а его автомобильная фирма Tesla разрабатывает системы искусственного интеллекта, которые, помимо прочего, помогают использовать технологию автономного вождения.

Письмо, размещенное Future of Life Institute, финансируемым Маском, было подписано известными критиками, а также конкурентами OpenAI, такими как руководитель Stability AI Эмад Мостак.

Канадский пионер искусственного интеллекта Йошуа Бенжио, также подписавший соглашение, на виртуальной пресс-конференции в Монреале предупредил, что «общество не готово» к этому мощному инструменту и его возможным злоупотреблениям.

«Давайте замедлимся. Давайте позаботимся о том, чтобы мы разработали более совершенные ограждения, — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, — как мы сделали это в отношении ядерной энергетики и ядерного оружия».

Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы…Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

В письме не были подробно описаны опасности, выявленные GPT-4.

Но исследователи, в том числе Гэри Маркус из Нью-Йоркского университета, подписавший письмо, уже давно утверждают, что чат-боты — великие лжецы и потенциально могут быть суперраспространителями дезинформации.

Однако другие специалисты утверждают, что как потенциал, так и угроза систем ИИ сильно преувеличены.

Поделиться в соцсетях
Источник
Pause Giant AI Experiments: An Open Letter
Показать больше
Подписаться
Уведомление о
guest
0 Комментарий
Первые
Последние Популярные
Встроенные отзывы
Посмотреть все комментарии
Back to top button