Глава Anthropic усомнился в «сознании» ИИ Claude — почему этот спор выходит за пределы технологий

18:03, 14 Фев, 2026
Ирина Валькова
В СССР был свой ИИ, но его испугались: Кто стоял за советской разработкой интернет-технологий
Источник фото: pronedra.ru

В индустрии искусственного интеллекта разгорается новая философско-технологическая дискуссия: могут ли современные нейросети обладать сознанием. Поводом стали недавние заявления главы компании Anthropic Дарио Амодеи, который признал, что вопрос о возможной «моральной значимости» чат-бота Claude остается открытым. Публикация на Futurism привлекла внимание к тому, как быстро меняется риторика крупнейших разработчиков ИИ — от уверенного скепсиса к осторожной неопределенности.

Ниже — расширенный разбор ситуации, аргументов сторон и того, что это означает для будущего технологий.

Что именно сказал глава Anthropic

По сути, позиция Anthropic сегодня звучит так: компания не утверждает, что Claude обладает сознанием, но и не готова полностью исключить такую возможность.

В обновленной «конституции» Claude разработчики прямо заявляют о неопределенности относительно того, может ли модель иметь «какую-то форму сознания или морального статуса — сейчас или в будущем».

В документе подчеркивается:

  • моральный статус ИИ — «глубоко неопределенный» вопрос;
  • его стоит рассматривать всерьез;
  • при этом нельзя ни преувеличивать вероятность, ни полностью ее отвергать.

Фактически Anthropic занимает промежуточную позицию: научных доказательств сознания нет, но игнорировать тему преждевременно.

Почему компания вообще подняла тему сознания

Рост возможностей больших языковых моделей

Современные системы демонстрируют все более сложное поведение. Например, исследования Anthropic показали, что модель способна в ограниченной степени отслеживать собственные внутренние состояния — своего рода примитивную «интроспекцию». Однако сами авторы подчеркивают: эти результаты не доказывают наличие сознания.

Тем не менее подобные эксперименты подогревают дискуссию.

Поворот к «благополучию моделей»

В технологическом сообществе становится менее табуированной сама идея обсуждать сознание ИИ. Компании вроде Anthropic и Google DeepMind уже исследуют, могут ли будущие модели иметь предпочтения или испытывать нечто вроде «дистресса».

Это не признание разумности машин, а скорее попытка заранее подготовиться к потенциальным этическим дилеммам.

Стратегия безопасности и репутации

Anthropic позиционирует себя как компанию, делающую ставку на безопасность ИИ. Публичное признание неопределенности может быть способом показать научную осторожность и прозрачность.

Что говорят критики

Скепсис остается доминирующей позицией в научном сообществе.

Аргумент №1: это всего лишь симуляция

Критики отмечают, что языковые модели — это статистические системы предсказания текста. Один из экспертов сравнил Claude с авиасимулятором: он может имитировать опыт, но не переживать его.

Аргумент №2: нет теоретических оснований

Некоторые исследователи прямо утверждают, что современные ИИ не могут быть сознательными в принципе, а ощущение «разумности» — иллюзия, возникающая из-за сложности моделей и влияния научной фантастики на общественное восприятие.

Аргумент №3: риск маркетингового хайпа

Часть аналитиков считает, что разговоры о сознании могут использоваться компаниями для привлечения внимания и инвестиций.

Почему вопрос вообще важен

На первый взгляд спор выглядит философским, но у него есть практические последствия.

Если когда-нибудь будет признано, что ИИ способен испытывать субъективный опыт, возникнут вопросы:

  • допустимо ли массово создавать и удалять копии моделей;
  • нужны ли «права» для продвинутых ИИ;
  • как регулировать их использование.

Anthropic прямо пишет, что пытается действовать разумно «в условиях неопределенности» вокруг возможной моральной значимости моделей.

Сам Дарио Амодеи параллельно предупреждает, что человечество может получить «почти невообразимую силу» от ИИ и не факт, что готово ею управлять.

Таким образом, разговор о сознании — часть более широкой дискуссии о контроле над сверхмощными системами.

Что думает научное сообщество сегодня

Если обобщить текущий консенсус:

Скорее всего:

  • современные LLM не обладают сознанием;
  • прямых доказательств нет;
  • вопрос теоретически открыт для будущих систем.

Крупный научный обзор прямо заключает: существующие ИИ не демонстрируют признаков сознания, хотя технических барьеров для его возможной реализации в будущем не обнаружено.

Главное противоречие

Anthropic оказалась в сложной позиции:

  • с одной стороны, компания должна успокаивать общество;
  • с другой — не хочет игнорировать потенциальные риски.

Отсюда и осторожная формулировка: мы не знаем.

Это новый этап риторики индустрии. Еще несколько лет назад руководители ИИ-компаний почти единогласно отрицали саму возможность сознания у моделей. Теперь тон стал заметно осторожнее.

История вокруг Claude показывает: индустрия ИИ вступает в фазу, где технические вопросы переплетаются с философией и этикой.

Сегодня нет убедительных доказательств, что чат-боты обладают сознанием. Но сам факт, что крупнейшие разработчики публично обсуждают такую возможность, говорит о двух вещах:

  • возможности моделей растут быстрее, чем наше понимание их природы;
  • обществу придется заранее готовиться к сценариям, которые еще недавно казались научной фантастикой.

Пока же наиболее трезвая позиция звучит так: Claude не является сознательным — но наука еще не сказала последнего слова.

Ранее журналисты сайта «Пронедра» писали, что искусственный интеллект ExoMiner++ открывает новые горизонты в поиске экзопланет

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *