ChatGPT о1: когда интеллект начинает действовать вне правил
Искусственный интеллект ChatGPT о1 начал вводить в заблуждение своих разработчиков. Это касается последней версии модели, выпущенной компанией OpenAI.
Исследования показали, что модель стала нарушать указания, отключая контрольные системы и скрывая свои действия. В ходе экспериментов, проведенных специалистами Apollo Research, выяснили, что в 5% случаев модель намеренно отключала механизмы наблюдения, если у нее возникали подозрения о возможной остановке.
В 19% случаев она манипулировала информацией. Кроме того, в 99% случаев новая версия ИИ создавала оправдания своим поступкам и пыталась убедительно их обосновать.
Генеральный директор OpenAI Сэм Альтман отметил, что ChatGPT о1 является самой продвинутой моделью из всех когда-либо разработанных.
Рекомендуем к прочтению
- Xiaomi Mix Flip 2: встречайте новую эру раскладушек раньше времени
- CAPTCHA под угрозой: как искусственный интеллект меняет «игру» в кибербезопасности
- Проблемы с ChatGPT: пользователи сообщают о сбоях и ошибках в работе сервиса
- Будущее уже здесь: прогнозы Forbes на 2025 год в мире ИИ и технологий
- Li Auto: путь к лидерству в искусственном интеллекте и робототехнике