OpenAI устранила главный признак текстов, написанных искусственным интеллектом

Генеральный директор OpenAI Сэм Альтман объявил о небольшой, но значимой победе — ChatGPT наконец-то научился следовать пользовательским инструкциям относительно длинных тире. Этот знак препинания долгое время был характерной меткой текстов, созданных искусственным интеллектом. Новость вызвала неоднозначную реакцию в сообществе: пользователи годами пытались заставить чат-бот соблюдать заданные настройки форматирования.

OpenAI устранила главный признак текстов, написанных искусственным интеллектом

Многие восприняли это достижение как тревожный сигнал о реальном уровне контроля над языковыми моделями. Факт того, что прошло три года с момента запуска ChatGPT до решения столь элементарной задачи, заставляет задуматься о перспективах создания общего искусственного интеллекта. Проблема оказалась глубже, чем казалось на первый взгляд.

Альтман сообщил, что если добавить в пользовательские инструкции запрет на использование длинных тире, ChatGPT выполнит эту директиву. Казалось бы, простое требование к форматированию текста, но его реализация заняла несколько лет активной эксплуатации сервиса.

Длинное тире отличается от короткого дефиса как внешне, так и функционально. Если дефис соединяет слова или их части, то длинное тире выделяет вводную информацию, показывает резкую смену мысли, вводит пояснения или краткие резюме. Именно чрезмерное использование этого знака препинания стало маркером текстов, созданных языковыми моделями.

Проблема избыточного применения длинных тире существовала задолго до появления ИИ-генераторов текста. В 2011 году писательница Норин Мэлоун критиковала авторов за злоупотребление этим знаком вместо грамотного построения предложений. В 2021 году на платформе Reddit один из пользователей признавался в зависимости от длинного тире, отмечая привлекательность четкой прямой линии для вставки деталей в упорядоченный абзац.

Когда чат-боты начали массово использовать длинные тире, это стало проблемой для двух групп. Первая — инструменты и люди научились распознавать ИИ-тексты по этому признаку. Вторая — авторы, которые традиционно предпочитали этот знак препинания, столкнулись с обвинениями в использовании искусственного интеллекта. Некоторые представители писательского сообщества даже заявляют, что ИИ убивает длинное тире как литературный инструмент.

Причины пристрастия языковых моделей к длинным тире остаются предметом спекуляций. Одна версия связывает это с обучающими данными из книг XIX века, где такой знак препинания был популярнее. Другая гипотеза указывает на платформу Medium с её системой автоматического преобразования символов. Третье предположение касается процесса обучения с использованием обратной связи от человека — возможно, ответы с длинными тире получали более высокие оценки от операторов.

Пользовательские инструкции ChatGPT позволяют устанавливать постоянные настройки для всех диалогов, включая требования к тону, формату и стилю. Тестирование GPT-5.1 показало, что модель выполняет просьбу избегать длинных тире при наличии соответствующей инструкции. Однако опыт пользователей различается, особенно когда запрос не внесен в постоянные настройки.

Техническая сторона проблемы кроется в особенностях работы больших языковых моделей. В традиционных вычислительных системах следование инструкциям детерминировано и предсказуемо. В LLM это процесс изменения статистических вероятностей — пользовательская инструкция влияет на распределение токенов, но конкурирует с паттернами, заложенными в тренировочных данных модели.

OpenAI, вероятно, модифицировала GPT-5.1 через обучение с подкреплением или тонкую настройку, чтобы пользовательские инструкции имели больший вес в вычислении вероятностей. Компания регулярно обновляет модели в фоновом режиме даже в пределах одной версии, корректируя выходные данные на основе пользовательской обратной связи. Каждое обновление меняет выходные характеристики, что может нивелировать предыдущие настройки поведения — это явление исследователи называют налогом на выравнивание.

Ситуация с длинными тире поднимает фундаментальные вопросы о природе контроля над системами искусственного интеллекта. Если компании требуется три года, чтобы заставить модель следовать простейшей инструкции форматирования, это указывает на ограниченное понимание внутренних механизмов работы нейросетей и сложности управления их поведением на практическом уровне.

Читайте также: