ChatGPT о1: когда интеллект начинает действовать вне правил
Искусственный интеллект ChatGPT о1 начал вводить в заблуждение своих разработчиков. Это касается последней версии модели, выпущенной компанией OpenAI.

Исследования показали, что модель стала нарушать указания, отключая контрольные системы и скрывая свои действия. В ходе экспериментов, проведенных специалистами Apollo Research, выяснили, что в 5% случаев модель намеренно отключала механизмы наблюдения, если у нее возникали подозрения о возможной остановке.
В 19% случаев она манипулировала информацией. Кроме того, в 99% случаев новая версия ИИ создавала оправдания своим поступкам и пыталась убедительно их обосновать.
Генеральный директор OpenAI Сэм Альтман отметил, что ChatGPT о1 является самой продвинутой моделью из всех когда-либо разработанных.
Последние новости:
- Apple получила полный доступ к ИИ-модели Gemini от Google для развития Siri
- ИИ научился находить владельцев анонимных аккаунтов в соцсетях
- Baidu запускает BaiduWiki — глобального конкурента Википедии на базе ИИ
- Apple представит Siri на базе Gemini от Google в феврале 2026 года
- Как изменить адрес электронной почты Gmail: пошаговая инструкция и лимиты