OpenAI представил новую версию ChatGPT: модель GPT-4o
Платформа OpenAI ChatGPT стала намного более интерактивной с запуском GPT-4o. Эта «флагманская модель» анализирует аудио, визуальный и/или текстовый ввод, предоставляя ответы посредством разговора в реальном времени с очень похожим на человека ИИ-агентом.
Объявленный в этот понедельник (13 мая) на онлайн-мероприятии, организованном техническим директором OpenAI Мирой Мурати, GPT-4o описывается как «шаг к гораздо более естественному взаимодействию человека и компьютера». Буква «о» в его названии означает «omni» (всенаправленный).
Утверждается, что он нацелен на повышение производительности пользователей бесплатного сервиса и соответствует производительности платной модели GPT-4 Turbo при обработке ввода текста и кода, а также намного быстрее и на 50 % дешевле в API (это означает, что его можно интегрировать в сторонние приложения за меньшие деньги).
Пользователи начинают с простой голосовой подсказки «Эй, ChatGPT», получая от агента устный ответ. Используя простой разговорный язык, пользователь затем отправляет свой запрос с сопроводительным текстом, аудио и/или визуальными эффектами, если необходимо – последние могут включать фотографии, прямую трансляцию с камеры своего телефона или практически все, что агент может «увидеть».
Когда дело доходит до аудиовходов, ИИ отвечает в среднем за 320 миллисекунд, что, по утверждению компании, аналогично времени реакции человека в разговоре между людьми. Более того, в настоящее время система свободно говорит более чем на 50 языках.
В демонстрации не было никаких неловких задержек в ответах агента, и кроме того, пользователи могли прерывать ответы агента без какого-либо нарушения обмена информацией.
Помимо прочего, в ходе демонстрации GPT-4o также выступал в качестве переводчика при разговоре двух людей на итальянском и английском языках, помогал человеку решить написанное от руки алгебраическое уравнение, анализировал отдельные фрагменты программного кода и даже сочинял сказку о роботе на ночь.
GPT-4o уже доступен для общего использования, а в ближайшие несколько недель будут объявлены дополнительные функции. Увидеть и услышать его в использовании можно на видео ниже.