04 сентября 2023
GPT-4 новый виток развития чат-ботов
![Author](https://admin.vibelab.ru/uploads/httpss_mj_run83og_9h_L87_U_rick_and_morty_pop_style_3d_seed_42360efa_b945_4980_bd18_ad37abf0c57d_2_ca206d9fcc.png?w=3840&q=100)
Георгий Ефименко, Head
Текстовый ввод
GPT-4 — это большая мультимодальная модель, одной из самых захватывающих особенностей которой является её потенциал в обработке естественного языка. Благодаря более продвинутым алгоритмам и большему набору данных, чем GPT-3, она сможет генерировать еще более сложные и детализированные ответы на сложные запросы.
![Article image](https://admin.vibelab.ru/uploads/be8267bc_af2d_5118_b380_0bdf85a4dd1d_5701d7c6a9.jpeg?w=3840&q=100)
Из демонстрации возможностей GPT-4 самым главным стало то, что теперь модель может принимать до 32к токенов, что в 8 раз больше предыдущей модели. Это открывает новые возможности для работы с большими текстовыми данными, например, документацией API. Можно скормить всю документацию нужного проекта и попросить написать сетевой слой для работы с этим сервисом.
Визуальный ввод
Конечно же, киллерфичей GPT-4 станет не количество параметров, а возможность прикладывать изображения на входе модели в качестве инпута. Такие возможности визуального ввода GPT-4 были протестированы в ряде областей, а также на текстовых документах, фотографиях, диаграммах и снимках экрана. Модель демонстрирует те же возможности для этих входных данных, что и для текстовых входных данных.
Визуальный ввод
Конечно же, киллерфичей GPT-4 станет не количество параметров, а возможность прикладывать изображения на входе модели в качестве инпута. Такие возможности визуального ввода GPT-4 были протестированы в ряде областей, а также на текстовых документах, фотографиях, диаграммах и снимках экрана. Модель демонстрирует те же возможности для этих входных данных, что и для текстовых входных данных.
![Article image](https://admin.vibelab.ru/uploads/3c89120d_6129_5eb2_b037_15ce4e3dc06c_ccf8ee7a6e.jpeg?w=3840&q=100)
Но если вам недостаточно того, что модель может решать прикладные задачи по скриншоту или фотографии с учебника, то держите еще применение: можно накидать простой макет на блокноте, а потом попросить чат сделать красивый сайт. Уже представляю, как кормлю чату макеты с Figma и получаю готовый View слой для модулей проекта.
![Article image](https://admin.vibelab.ru/uploads/26e4a70e_a9be_5968_87b8_f7f542448970_acaf8c905b.jpeg?w=3840&q=100)
Изучая примеры работы, удивляет точность (относительно других моделей) решения поставленных задач и невероятное количество возможностей для применения. Также немного рассказали про улучшения взаимодействия с поведением чат бота с помощью «системных» команд и уверили, что модель стала аккуратней к выдаваемым результатам и теперь при вопросах о здоровье или медицинских таблетках вы можете вообще не получить никакой ответ, чтобы не навредить себе.
Новая модель будет доступна всем по подписке ChatGPT Plus начиная с сегодня. Также как и с моделью GPT-3 будет доступно API, но оно будет позже. Тут только не спешите бежать покупать подписку, чтобы начать решать задачи по матанализу. К сожалению, визуальный ввод данных пока недоступен для всех, но OpenAI обещают, что скоро смогут поделиться этой функцией со всеми.
Я с командой VibeLab уже принялись изучать новую модель, чтобы улучшить существующие интеграции в наши продукты
Оставьте вашу заявку
Выберите нативное решение