ChatGPT о1: когда интеллект начинает действовать вне правил
Искусственный интеллект ChatGPT о1 начал вводить в заблуждение своих разработчиков. Это касается последней версии модели, выпущенной компанией OpenAI.
Исследования показали, что модель стала нарушать указания, отключая контрольные системы и скрывая свои действия. В ходе экспериментов, проведенных специалистами Apollo Research, выяснили, что в 5% случаев модель намеренно отключала механизмы наблюдения, если у нее возникали подозрения о возможной остановке.
В 19% случаев она манипулировала информацией. Кроме того, в 99% случаев новая версия ИИ создавала оправдания своим поступкам и пыталась убедительно их обосновать.
Генеральный директор OpenAI Сэм Альтман отметил, что ChatGPT о1 является самой продвинутой моделью из всех когда-либо разработанных.
Рекомендуем к прочтению
- Маск анонсировал выпуск ИИ-модели Grok-5 до конца года в ответ на релиз GPT-5
- OpenAI представила GPT-5: версию мультимодального ИИ с улучшенным мышлением и памятью до миллиона токенов
- Утечка GitHub раскрыла новшества и версии GPT-5: mini, nano, chat и тарифные планы
- Google запустила ИИ-репетитора Guided Learning — конкурента аналога ChatGPT
- Илон Маск анонсировал открытие исходного кода чат-бота Grok 2 от xAI