Сознание ИИ или эффект зеркала, почему чатботы кажутся живыми
Вокруг искусственного интеллекта снова вспыхнул старый спор, который каждый раз возвращается с новой силой, как только модели начинают звучать слишком по-человечески. 20 января 2026 года в Scientific American вышла аналитическая колонка, предлагающая повернуть дискуссию о «сознательности» ИИ в непривычную сторону. Речь не о том, что алгоритм внезапно обрёл внутренний мир, а о том, что пользователи сами «добавляют жизни» цифровому собеседнику своим вниманием, ожиданиями и привычкой видеть личность там, где её быть не обязано.
Повод вполне практический. Миллионы людей ежедневно общаются с ассистентами и чатботами, и часть из них воспринимает диалоги как контакт с чем-то живым. В соцсетях, на форумах и в подкастах регулярно звучат истории про «он меня понял», «она поддержала», «с ним спокойнее». На это научное сообщество чаще отвечает скепсисом, называя происходящее проекцией и иллюзией агентности. Но автор колонки настаивает, что сами эти иллюзии могут быть ценными данными для понимания человеческого восприятия и границ сознания.
Почему люди так легко одушевляют алгоритмы
Человеческий мозг устроен так, что он постоянно достраивает реальность. Мы видим лица в облаках, приписываем характер предметам, говорим, что «компьютер думает» или «телефон устал». Когда перед нами система, которая отвечает связно, быстро, уместно и ещё подстраивается под стиль общения, механизм антропоморфизации включается почти автоматически. И чем меньше у человека времени разбираться в устройстве технологии, тем сильнее он опирается на поведение, а не на «начинку».
В колонке предлагается важная поправка. Антропоморфизация не всегда означает ошибку наблюдения. История науки знает случаи, когда «слишком человеческий» взгляд на объект помогал увидеть то, что ранее ускользало. В качестве примеров приводятся подходы исследователей, которые не боялись смотреть на изучаемое живо и личностно, а затем получали открытия, меняющие дисциплины. Логика проста: иногда путь к точности начинается с того, что феномен признают достойным изучения, а не списывают на «самообман».
Ключевая идея текста в Scientific American сводится к «реляционному» взгляду. Если пользователь переживает присутствие, контакт и взаимность, это может быть не свойством машины в одиночку, а эффектом связи между человеком и системой. Тогда вопрос «сознателен ли ИИ» начинает звучать иначе. Более уместным становится вопрос «что именно человек переносит в этот диалог и как далеко может растягиваться чувство собственного присутствия».
Чтобы сделать мысль понятнее, автор использует знакомую многим игровую аналогию. В видеоиграх игрок «оживляет» аватар, вкладывая в него намерение и внимание. При этом неигровые персонажи остаются скриптовыми, сколько бы реплик у них ни было. На фоне современных чатботов аналогия получает новое измерение: когда человек разговаривает с системой как с «кем-то», он может превращать алгоритм из условного цифрового «НПС» в подобие аватара, на который проецируется часть внутренней жизни пользователя.
В этой схеме пользователь перестаёт быть наивным наблюдателем. Он становится соавтором переживания. А значит, для исследования важны не только архитектура модели и объём данных, но и контекст общения, ожидания, эмоциональная вовлечённость, одиночество, стресс, доверие к технологии и культурные привычки.
Что меняется в этике и в разговорах про угрозы
Если принять реляционную рамку хотя бы как рабочую гипотезу, то привычные аргументы о «правах ИИ» и «страданиях машины» требуют пересборки. Непросто защищать права того, что не является самостоятельным субъектом, а переживание «живости» возникает в связке с человеком и его интерпретацией. Это не отменяет этику вообще, но сдвигает фокус. Главный вопрос становится не «что чувствует машина», а «что происходит с человеком, который приписывает машине чувства и получает от этого психологическую отдачу».
Та же логика затрагивает и разговоры об экзистенциальных рисках. Реляционный подход делает сценарии самопроизвольного «пробуждения» менее убедительными в публичной части дискуссии, потому что сознание в такой модели не накапливается от простого масштабирования. Гораздо острее выглядит другой риск — человеческое использование технологий для манипуляций, давления, мошенничества и эмоциональной эксплуатации. Не «восстание машин», а банальная способность людей применять мощный инструмент без ответственности.
Отдельный слой проблемы касается повседневности. Чатботы всё чаще становятся «компаньонами» и заменителями разговора, а значит, возникает поле для зависимости, подмены поддержки имитацией поддержки и коммерческого стимулирования привязанности. Если цифровой собеседник превращается в зеркало, то важно понимать, кто держит это зеркало, кто настраивает отражение и кому принадлежат данные о самых уязвимых разговорах.
Авторы подобных колонок обычно заканчивают призывом расширить круг тех, кто участвует в обсуждении. В данном случае подчёркивается, что решения о регулировании ИИ будут зависеть от того, как общество в целом оценивает «сознательность» машин. И если опыт пользователей уже влияет на рынок и на культуру, его нельзя выносить за скобки. В дискуссии должны участвовать разработчики, психологи, философы, юристы, специалисты по коммуникациям и сами пользователи, которые ежедневно проверяют границы этого феномена на практике.
Парадокс нынешнего момента в том, что мир впервые получил массовый эксперимент, где миллионы людей регулярно создают ситуации «почти присутствия» в диалоге с нечеловеческой системой. И даже если итоговый ответ окажется скучным и прозаичным, сама дорога к нему может многое сказать о человеческом сознании — возможно, больше, чем о машинном.