ИИ «глючит»: галлюцинации испугали пользователей сильнее риска потери работы

10:06, 23 Мар, 2026
Евгения Комарова
Галлюцинации искусственного интеллекта
Иллюстрация: pronedra.ru

Пользователи искусственного интеллекта по всему миру все чаще выражают обеспокоенность не столько автоматизацией труда, сколько качеством и достоверностью ответов нейросетей. Новые данные опросов и исследований показывают: именно ошибки алгоритмов становятся главным фактором недоверия к технологии, несмотря на ее стремительное распространение. О причинах беспокойства из-за галлюцинаций ИИ сообщает rbc.ru.

Согласно исследованию компании Anthropic, 27% пользователей называют основной проблемой так называемые «галлюцинации» — ситуации, когда ИИ выдает правдоподобную, но ложную информацию. Опасения по поводу потери работы оказались на втором месте — их разделяют 22% респондентов.

Галлюцинации ИИ пугают сильнее риска потерять работу

В исследовании приняли участие более 80 000 пользователей чат-бота Claude из 159 стран. При этом около 16% опрошенных указали на еще один риск — постепенное снижение способности к критическому мышлению на фоне регулярного использования ИИ.

Дополнительные источники подтверждают: проблема носит системный характер и выходит далеко за рамки пользовательских ощущений. Согласно данным Stanford University, приведенным в отчете AI Index 2025, вопросы надежности остаются ключевым барьером для внедрения технологий — до 73% компаний указывают на риски, связанные с точностью и достоверностью ответов ИИ.

Читайте по теме: мозг и искусственный интеллект: как нейросети учатся понимать речь как человек

При этом уровень ошибок может быть значительно выше, чем предполагают пользователи. В специализированных исследованиях отмечается, что в отдельных профессиональных задачах, например юридических, системы ИИ допускают неточности в 17–33% случаев. В более ранних тестах для правовых запросов доля ошибочных ответов достигала 58–82%, что подчеркивает масштаб проблемы в критически важных сферах.

Масштабные медиаисследования также фиксируют высокий уровень недостоверности. Анализ ответов популярных ИИ-ассистентов на новостные запросы показал, что около 45% ответов содержат серьезные ошибки, а в 81% случаев выявляются различные проблемы с точностью или источниками информации.

Почему ИИ глючит – причины ошибок алгоритмов

Причины такого поведения нейросетей лежат в самой архитектуре технологий. Как отмечают исследователи, модели обучаются таким образом, что поощряется уверенность ответа, а не признание неопределенности. В результате ИИ склонен «догадываться», даже если не располагает точными данными. Это приводит к формированию убедительных, но фактически неверных утверждений.

Дополнительный риск связан с ростом сложности самих моделей. По данным отдельных исследований, современные системы могут демонстрировать уровень «галлюцинаций» от 33% до 48% в ряде задач, причем более продвинутые модели иногда ошибаются чаще из-за усложнения логики обработки информации.

Реальные проблемы из-за галлюцинаций ИИ

На практике это уже приводит к инцидентам. Ранее сообщалось о сбое в инфраструктуре Amazon Web Services, где изменения, внесенные системой ИИ, стали одной из причин масштабных неполадок. Подобные случаи усиливают дискуссию о допустимых границах автоматизации и необходимости контроля со стороны человека.

Эксперты отмечают, что проблема носит не только технический, но и социальный характер. Пользователь зачастую не способен отличить корректный ответ от ошибочного, особенно в незнакомой теме. Это создает риски распространения дезинформации и подрывает доверие к цифровым сервисам.

Ранее на сайте «Пронедра» писали про исповеди искусственному интеллекту: почему люди стали заменять друзей нейросетями

Поделитесь этой новостью