OpenAI презентовала новейшую и улучшенную модель нейросети ChatGPT — GPT-4o

13 мая корпорация OpenAI провела презентацию своим пользователям революционную модель GPT-4 Omni, также известную как GPT-4o.
Эта новая версия обладает уникальной способностью обрабатывать различные типы данных, включая текст, изображения, видео и аудио, что значительно расширяет ее функциональность и эффективность.
В предыдущих версиях ChatGPT для обработки каждого вида информации использовались отдельные нейросетевые модели, что негативно сказывалось на скорости ответов и общем качестве работы.
Однако GPT-4 Omni объединила все эти функции в одной модели, что позволило достичь нового уровня мультимодальности в нейросетевых технологиях. Теперь пользователи могут ожидать более быстрых и качественных ответов, а также более интегрированного взаимодействия с системой.
Непревзойденные возможности
В презентации были подчеркнуты уникальные возможности GPT-4o как голосового помощника. Эта нейросеть обладает способностью к эмоциональному общению, используя различные интонации и демонстрируя харизму.
Разработчики часто упоминали фильм «Она» как пример того, к чему стремится их технология. В статье будет рассмотрено, что было представлено на презентации, какие сценарии использования предлагает модель и где можно опробовать ее возможности.
Рекомендуем к прочтению:
- NASA проведет брифинг по загадочному объекту 3I/ATLAS и раскроет новые данные
- Microsoft готовит Windows к тотальной интеграции с ИИ
- Создателя культовой игры S.T.A.L.K.E.R. внесли в список нежелательных в РФ
- Google выпустила Gemini 3: интеграция в Android 17, Chrome и поисковую систему
- Google представила улучшенную ИИ-модель WeatherNext 2 для прогнозирования погоды