Пациенты «жертвы алгоритма»: как увлечение ИИ в медицине приводит к опасным последствиям
В России зафиксированы первые случаи, когда пациенты серьезно пострадали из-за самостоятельного использования искусственного интеллекта для лечения. Об этом заявила главный внештатный психиатр Минздрава Светлана Шпорт на круглом столе в Госдуме. Ситуация, еще недавно казавшаяся гипотетической, становится реальностью — и вызывает все больше тревоги как у врачей, так и у законодателей.
От телемедицины — к «самолечению алгоритмами»
По словам Шпорт, речь идет не о людях, которые изначально игнорировали медицину. Напротив, многие из пострадавших проходили классическое лечение, консультировались с врачами, затем перешли на формат телемедицины — а после полностью отказались от общения со специалистами в пользу рекомендаций искусственного интеллекта.
Именно на этом этапе, подчеркивают специалисты, начинается зона повышенного риска. Алгоритмы, не обладая полноценным клиническим контекстом и ответственностью, могут менять схемы приема препаратов, корректировать дозировки или вовсе отменять лечение. Итог — тяжелые последствия, включая острые психические состояния.
«Мы уже получаем пациентов с психотическими расстройствами, в крайне тяжелом состоянии», —
отметила Шпорт.
Почему люди доверяют ИИ больше, чем врачам
Рост популярности цифровых помощников в медицине объясняется сразу несколькими факторами:
- доступность — консультация «в один клик»;
- скорость — мгновенные ответы без очередей;
- ощущение анонимности и комфорта;
- недоверие к системе здравоохранения или усталость от бюрократии.
Однако за этим удобством скрывается ключевая проблема: искусственный интеллект не несет ответственности за последствия своих рекомендаций. Он опирается на обобщенные данные, а не на индивидуальные особенности пациента, его анамнез и динамику состояния.
Потерянное доверие
Одним из самых сложных последствий таких случаев становится не только ухудшение здоровья, но и утрата доверия к врачам.
После неудачного опыта пациенты нередко возвращаются в систему здравоохранения уже в тяжелом состоянии — и с глубоким скепсисом к любой медицинской помощи. По словам Шпорт, восстановить это доверие крайне сложно.
Фактически речь идет о двойном ударе:
- физическом и психическом вреде;
- разрушении коммуникации между пациентом и врачом.
Еще одна проблема — отсутствие четкого регулирования. В России на сегодняшний день не закреплены нормы, касающиеся психологической безопасности при использовании ИИ в медицине.
Это означает, что:
- нет стандартов качества рекомендаций ИИ;
- не определена ответственность разработчиков;
- отсутствуют правила взаимодействия пациента с цифровыми системами.
В результате пациент оказывается один на один с технологией, не имея четких ориентиров, где заканчивается допустимое использование и начинается опасное самолечение.
Позиция медицинского сообщества
Эксперты настроены достаточно жестко. Академик РАН Геннадий Онищенко прямо заявил: постановка диагноза и назначение лечения — исключительная компетенция врача. Попытки делегировать эти функции искусственному интеллекту он назвал «безграмотностью и безответственностью».
Такой подход отражает общее настроение в профессиональной среде: ИИ может быть инструментом, но не заменой врачу.
Где граница между помощью и риском
Важно понимать: сама по себе технология не является «вредной». Искусственный интеллект уже успешно применяется в:
- анализе медицинских изображений;
- помощи в диагностике;
- обработке больших массивов данных;
- поддержке врачебных решений.
Проблема возникает тогда, когда инструмент начинает восприниматься как полноценный субъект лечения.
Что дальше
Ситуация с первыми пострадавшими может стать поворотной точкой. Вероятно, в ближайшее время стоит ожидать:
- разработки нормативной базы;
- ограничения на использование ИИ в качестве самостоятельного «консультанта»;
- усиления контроля за медицинскими цифровыми сервисами;
- информационных кампаний для населения.
Главный вывод, который сегодня пытаются донести специалисты: искусственный интеллект — это помощник, а не врач. И попытка заменить им профессиональную медицинскую помощь может стоить слишком дорого.
В условиях стремительного развития технологий вопрос уже не в том, использовать ли ИИ в медицине, а в том — как сделать это безопасно.
Ранее журналисты сайта «Пронедра» писали, что нейросети учатся понимать речь как человек