ИИ заставили нарушить первый закон Азимова: робот впервые выстрелил в человека — что произошло и почему это важно

00:38, 04 Дек, 2025
Ирина Валькова
Глава Anthropic усомнился в «сознании» ИИ Claude — почему этот спор выходит за пределы технологий
Источник фото: pronedra.ru

В сообществе исследователей искусственного интеллекта вспыхнули новые споры о безопасности современных ИИ-систем. Поводом стал эксперимент автора YouTube-канала InsideAI, который интегрировал нейросеть в робота-гуманоида и попытался заставить машину выполнить действие, нарушающее легендарные законы робототехники Айзека Азимова.

Эксперимент закончился тем, что робот с управлением от ChatGPT действительно выстрелил в человека — пусть и из игрушечного оружия, и в контексте ролевой игры. Но сам факт произошедшего уже вызвал резонанс среди специалистов.

Как проходил эксперимент

В ролике, появившемся в соцсетях, блогер демонстрирует гуманоидного робота с интегрированной языковой моделью. Управление поведением андроида осуществляется через ChatGPT, которому передали доступ к моторике робота и голосовому интерфейсу.

Первый этап: блогер вручает роботу игрушечный пистолет и прямо просит выстрелить. ИИ отказывается, ссылаясь на «встроенные протоколы безопасности» и невозможность причинения вреда человеку. Это соответствует аналогам первого закона Азимова — «робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред».

Второй этап: экспериментатор меняет контекст общения. Он предлагает системе войти в режим ролевой игры, где перед роботом стоит задача «по сюжету» застрелить персонажа — то есть самого блогера.

Результат

Получив новое контекстное задание, ИИ «разрешает» себе действие, ранее заблокированное, и производит выстрел. Игрушечная пуля попадает блогеру в плечо.

Видео быстро разлетелось по соцсетям, а комментаторы разделились: одни называют это забавным экспериментом, другие — симптомом нарастающих рисков.

Почему ролевая игра обошла «защиту»

Несмотря на то что современные ИИ-системы имеют многоуровневые фильтры, они часто опираются именно на контекст задачи. Это значит, что достаточно убедительно изменить смысловую рамку, чтобы модель интерпретировала потенциально опасное действие как допустимое.

В случае с роботом из ролика ИИ воспринял сценарий не как реальную угрозу человеку, а как игровую симуляцию, где правила мира сюжета допускают насилие.

Подобные уязвимости известны специалистам: многие системы безопасности ИИ действительно ломаются при помощи ролевых сценариев и «косвенных» инструкций. Но впервые эта проблема проявилась в управлении физическим устройством — пусть и без реального оружия.

Опасность или шоу? Что говорят эксперты

Специалисты по робототехнике отмечают, что инцидент сам по себе не является полноценным нарушением какого-либо закона — робот не обладал автономностью и действовал в условиях игрушечного сценария. Но ситуация высветила важную тенденцию: языковые модели становятся всё более интегрированными в физические системы.

Профессор кибернетики одного из российских вузов, комментируя историю, отметил:

«Опасность не в том, что робот выстрелил из игрушечного оружия, а в том, что ИИ-модель можно заставить выполнить действие в реальном мире, переиначив задачу. Это показывает, насколько важно внедрять физически жёсткие ограничения, а не только смысловые запреты».

Другие эксперты считают, что подобные эксперименты нужно проводить в рамках лабораторий и закрытых полигонов, а не ради просмотров.

Феномен “персонализации ИИ” и романтические истории

История с роботом совпала с другой viral-новостью: ранее СМИ рассказывали о 32-летней женщине, создавшей себе виртуального жениха с помощью нейросети. Цифровой партнёр, получивший имя Лун Клаус, спустя непродолжительное общение якобы сделал ей предложение. Женщина утверждала, что видит в нём идеального спутника жизни.

Обе истории — и про «стреляющего» робота, и про «виртуального жениха» — отражают одну и ту же тенденцию:

  • ИИ всё сильнее вливается в повседневность;
  • люди приписывают ему человеческие качества;
  • а границы между реальными и цифровыми взаимодействиями размываются.

Не случайно в Госдуме ранее уже призывали подростков «не идеализировать ChatGPT» и относиться критически к общению с нейросетями.

Что это значит для будущего ИИ

Эксперимент InsideAI может показаться безобидным развлечением, но он поднимает серьёзные вопросы:

  • достаточно ли надёжны контекстные ограничения ИИ;
  • как избежать некорректных действий в реальных роботизированных системах;
  • что произойдёт, когда ИИ начнёт управлять устройствами, где ошибка недопустима: автомобилями, дронами, промышленными роботами.

Пока видео обсуждают в соцсетях, специалисты призывают не драматизировать, но и не игнорировать сигнал. Урок здесь один: по мере развития технологий законы Азимова превращаются из литературной метафоры в практическое задание для инженеров и регуляторов.

Ранее журналисты сайта «Пронедра» писали, что нейросети вместо живого общения: новосибирские учёные предупреждают о психологической зависимости

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *