OpenAI презентовала новейшую и улучшенную модель нейросети ChatGPT — GPT-4o
13 мая корпорация OpenAI провела презентацию своим пользователям революционную модель GPT-4 Omni, также известную как GPT-4o.
Эта новая версия обладает уникальной способностью обрабатывать различные типы данных, включая текст, изображения, видео и аудио, что значительно расширяет ее функциональность и эффективность.
В предыдущих версиях ChatGPT для обработки каждого вида информации использовались отдельные нейросетевые модели, что негативно сказывалось на скорости ответов и общем качестве работы.
Однако GPT-4 Omni объединила все эти функции в одной модели, что позволило достичь нового уровня мультимодальности в нейросетевых технологиях. Теперь пользователи могут ожидать более быстрых и качественных ответов, а также более интегрированного взаимодействия с системой.
Непревзойденные возможности
В презентации были подчеркнуты уникальные возможности GPT-4o как голосового помощника. Эта нейросеть обладает способностью к эмоциональному общению, используя различные интонации и демонстрируя харизму.
Разработчики часто упоминали фильм «Она» как пример того, к чему стремится их технология. В статье будет рассмотрено, что было представлено на презентации, какие сценарии использования предлагает модель и где можно опробовать ее возможности.
Рекомендуем к прочтению
- OpenAI выпустила GPT-4.1 и GPT-4.1 mini в ChatGPT с улучшенными возможностями для разработчиков
- Alibaba представляет Qwen 3: новое поколение языковых моделей с открытым исходным кодом
- OpenAI представляет Deep Research: революционный инструмент для исследований теперь доступен бесплатно
- Названы 8 скрытых возможностей ChatGPT для повышения эффективности работы
- ChatGPT получил функцию Memory with Search для персонализированного веб-поиска