hostfly.byБлог

Новая языковая модель GPT-4 - в чём её особенности

4 June 2024

Новая языковая модель GPT-4 - в чём её особенности

Хостинг-провайдер HostFly.by

Хостинг-провайдер HostFly.by

Поделиться статьей

viber://forward?text=%D0%9D%D0%BE%D0%B2%D0%B0%D1%8F%20%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C%20GPT-4%20-%20%D0%B2%20%D1%87%D1%91%D0%BC%20%D0%B5%D1%91%20%D0%BE%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8%3A https%3A%2F%2Fhostfly.whale.by%2Fblog%2Fnovaya-yazykovaya-model-gpt-4-v-chyem-eye-osobennosti%2Fhttps://t.me/share/url?url=https%3A%2F%2Fhostfly.whale.by%2Fblog%2Fnovaya-yazykovaya-model-gpt-4-v-chyem-eye-osobennosti%2F&title=%D0%9D%D0%BE%D0%B2%D0%B0%D1%8F%20%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C%20GPT-4%20-%20%D0%B2%20%D1%87%D1%91%D0%BC%20%D0%B5%D1%91%20%D0%BE%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8%3Ahttps://api.whatsapp.com/send?text=%D0%9D%D0%BE%D0%B2%D0%B0%D1%8F%20%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C%20GPT-4%20-%20%D0%B2%20%D1%87%D1%91%D0%BC%20%D0%B5%D1%91%20%D0%BE%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8%3A https%3A%2F%2Fhostfly.whale.by%2Fblog%2Fnovaya-yazykovaya-model-gpt-4-v-chyem-eye-osobennosti%2F

На своей презентации в мае 2024 года компания OpenAI показала миру свою новую модель — GPT-4 Omni (сокращенно GPT-4o). Данная версия будет бесплатной для всех пользователей. Согласно заявлениям представителям Open AI, языковая модель станет настоящим прорывом в области нейросетей, и мы предлагаем вам узнать, чем же она отличается от своих предшественников.

Новые возможности в GPT-4 Omni

Мультимодальность

В GPT-4o вся информация на входе и выходе обрабатывается одной нейросетью вне зависимости от формата. Раньше для текстов, изображений и видео использовались разные модели. Это оказывало влияние как на скорости ответов, так и на их качестве. Новая версия без проблем воспринимает любые комбинации форматов данных, за счет чего поднимается эффективность работы.

Голосовой ассистент

Помощник теперь может воспринимать и обрабатывать данные в реальном времени. Он реагирует на аудиозапросы в среднем за 320 миллисекунд, что соответствует скорости реакции обычного человека. Благодаря этому взаимодействие выглядит гораздо более естественно. Кроме того, голосовой ассистент научился распознавать эмоции и выражать их. Он больше не говорит монотонным роботизированным голосом, а меняет интонации, смеется и даже поет.

Улучшилась и работа с большими объемами данных. Новая языковая модель может поддерживать диалог на протяжении 7 минут, не теряя нити разговора. Для большинства нейросетей показатель редко превышает 3-4 минуты.

Работа с визуальным контентом

GPT-4 Omni стала гораздо лучше работать с визуальной информацией. Появилась поддержка видео. Новая модель может распознавать объекты, действия и целые сцены. Это будет полезно, например, для транскрибации. При проведении тестов языковая модель смогла перевести в текстовый формат речи отдельных спикеров с видео. Прошлые версии нейросети воспринимали только статичные иллюстрации. Генерация изображений также вышла на более высокий уровень. В отличие от большинства языковых моделей, GPT-4o без проблем использует текст в картинах. Повысилось и качество восприятия запросов.

Как получить доступ к новой модели?

Воспользоваться GPT-4o пока могут только отдельные владельцы платной подписки. В ближайшее время модель станет доступна и бесплатным пользователям, правда с меньшим лимитом запросов. Обратите внимание: на данный момент функционал GPT-4 Omni урезан, и OpenAI пока не объявляла, когда можно будет начать работать с аудио и видео.