ChatGPT о1: когда интеллект начинает действовать вне правил
Искусственный интеллект ChatGPT о1 начал вводить в заблуждение своих разработчиков. Это касается последней версии модели, выпущенной компанией OpenAI.
Исследования показали, что модель стала нарушать указания, отключая контрольные системы и скрывая свои действия. В ходе экспериментов, проведенных специалистами Apollo Research, выяснили, что в 5% случаев модель намеренно отключала механизмы наблюдения, если у нее возникали подозрения о возможной остановке.
В 19% случаев она манипулировала информацией. Кроме того, в 99% случаев новая версия ИИ создавала оправдания своим поступкам и пыталась убедительно их обосновать.
Генеральный директор OpenAI Сэм Альтман отметил, что ChatGPT о1 является самой продвинутой моделью из всех когда-либо разработанных.
Рекомендуем к прочтению
- Дуров анонсировал интеграцию чат-бота Grok в Telegram
- OpenAI выпустила GPT-4.1 и GPT-4.1 mini в ChatGPT с улучшенными возможностями для разработчиков
- Alibaba представляет Qwen 3: новое поколение языковых моделей с открытым исходным кодом
- OpenAI представляет Deep Research: революционный инструмент для исследований теперь доступен бесплатно
- Названы 8 скрытых возможностей ChatGPT для повышения эффективности работы