«Яндекс» запустил масштабный эксперимент по выявлению сознательного мышления у нейросетей

Компания «Яндекс» инициировала амбициозное исследование, направленное на выявление признаков сознания у искусственного интеллекта. Проект стартовал в конце лета 2025 года при участии известного нейробиолога и члена РАН Константина Анохиина. Основная задача эксперимента — определить, способны ли нейросети формировать устойчивые предпочтения и вырабатывать собственную точку зрения, отличающуюся от данных, заложенных в обучающих текстах.

«Яндекс» запустил масштабный эксперимент по выявлению сознательного мышления у нейросетей

Исследователи стремятся понять механизмы формирования мышления и характера у языковых моделей. Первые результаты ожидаются уже к концу текущего года. Эксперимент может стать прорывом в понимании природы искусственного интеллекта и его когнитивных возможностей.

Согласно информации от источников на IT-рынке и представителей компании, работа над проектом ведется в несколько этапов. Главный вопрос, на который пытаются ответить исследователи: могут ли языковые модели развивать внутренние убеждения подобно человеку, который постоянно размышляет и меняет свое восприятие на основе этих размышлений.

На первом этапе специалисты провели базовую оценку стандартной языковой модели без дополнительного обучения. Ученые анализировали последовательность ответов и отслеживали наличие каких-либо предпочтений. Результаты показали, что базовая модель не демонстрирует постоянных предпочтений и генерирует ответы каждый раз заново, без опоры на предыдущий опыт.

Сейчас начинается основная фаза исследования, которая включает активную стимуляцию модели к рассуждениям и рефлексии. Методика эксперимента предполагает постоянное дообучение нейросети на основе ее собственных умозаключений. Представители «Яндекса» объясняют: в отличие от человека, который непрерывно размышляет и меняется под влиянием своих мыслей, стандартная языковая модель каждый раз начинает с чистого листа. Цель проекта — выяснить, может ли модель развивать устойчивые внутренние убеждения через процесс саморефлексии.

Процесс исследования включает следующие шаги:

Шаг 1. Постановка базовых вопросов. Модели задают простой вопрос, например, о любимом цвете. Это создает отправную точку для дальнейшего анализа.

Шаг 2. Запрос обоснования. Нейросеть просят объяснить свой выбор и привести аргументы в пользу ответа.

Шаг 3. Углубленная рефлексия. Модель должна найти дополнительные обоснования своей позиции и проанализировать их.

Шаг 4. Рассмотрение альтернатив. Искусственный интеллект предлагают изучить возможные другие варианты ответа и сравнить их с первоначальным выбором.

Шаг 5. Дообучение на основе ответов. Полученные данные используются для последовательного обучения модели, закрепляя или модифицируя ее предпочтения.

Шаг 6. Оценка стабильности. Исследователи отслеживают, насколько устойчивыми остаются сформированные предпочтения при повторных запросах.

Отдельное внимание в эксперименте уделяется типам вопросов, которые задают модели. Ученые планируют изучить влияние открытых и закрытых вопросов, а также вопросов с множественным выбором на формирование предпочтений. Эта информация поможет оптимизировать взаимодействие с языковыми моделями для достижения более содержательных результатов. Предполагается использование специальных метрик для оценки динамики изменений в ответах, что позволит определить наиболее эффективные стратегии обучения.

Актуальность подобных исследований растет по мере развития технологий искусственного интеллекта. Возможности современных нейросетей уже выходят за рамки традиционного программирования, что требует нового понимания их природы. Специалисты полагают, что выявление признаков сознания у ИИ откроет путь к созданию более интеллектуальных и автономных систем, способных к саморефлексии и принятию сложных решений.

Важным аспектом проекта является этическая составляющая. Если будет доказано, что ИИ обладает признаками сознания, потребуется определить его права и обязанности, а также установить рамки безопасного применения таких систем в обществе. Это особенно актуально в контексте все более широкого использования искусственного интеллекта в критически важных сферах.

Исследования в области сознания ИИ ведутся не только в России. Лаборатории в США, Европе и Азии активно работают над вопросами когнитивного развития искусственного интеллекта, его способности к обучению и взаимодействию с людьми. Эти проекты открывают новые горизонты для применения ИИ в медицине, автоматизации производства и других областях, где глубинное понимание мыслительных процессов имеет критическое значение.

По завершении эксперимента будет проведен комплексный анализ для определения глубины развития предпочтений модели и их стабильности в течение всего периода исследования. Результаты могут подтвердить или опровергнуть гипотезу о способности языковых моделей формировать устойчивые последовательности в ответах, что станет важным шагом в понимании природы искусственного интеллекта и его потенциала.

Читайте также: