Будущее здесь: как нейросети учатся предсказывать преступления

17:45, 20 Сен, 2024
Ольга Вайленко
Искусственный интеллект
Источник фото: rapidresponseppe.com

Технологии искусственного интеллекта (ИИ) развиваются стремительными темпами, при этом их влияние на общество становится всё более ощутимым. Одной из самых обсуждаемых тем последних лет стало использование ИИ в области обеспечения безопасности и предотвращения преступлений. Ученые из Южной Кореи представили инновационную разработку – нейросеть под названием Dejaview, способную предсказывать преступления с точностью до 82%. Однако, как и в любом вопросе, здесь есть свои плюсы и минусы, которые вызывают оживленные дискуссии.

Искусственный интеллект: вызовы и ограничения технологии

Источник фото: magazine.icthic.com

Модель Dejaview, разработанная учеными из Корейского научно-исследовательского института электроники и телекоммуникаций (ETRI), была представлена как решение, способное существенно повлиять на методы предотвращения преступлений. Система работает на основе анализа видеозаписей, наблюдая за поведением людей в общественных местах и сравнивая его с типичными паттернами, свойственными преступникам. Более того, Dejaview не просто фиксирует потенциально опасное поведение, но и прогнозирует рост преступности в тех или иных районах.

Ключевой особенностью этой системы является способность анализировать индивидуальные поведенческие паттерны, что может использоваться для профилактики рецидивов среди бывших заключенных или лиц, находящихся под наблюдением. Это открывает перспективы для более эффективного контроля за правонарушителями и, возможно, снижения уровня рецидивной преступности.

Несмотря на высокий потенциал системы, у нее есть и серьезные ограничения, на которые обращают внимание эксперты. Во-первых, технология предсказания преступлений затрагивает вопросы конфиденциальности и прав человека. В России, как и во многих других странах, пока не разработана четкая правовая база для таких систем. Как отметила специалист по машинному обучению Анастасия Перкова, применение аналогичных систем возможно только при условии проработанной нормативно-правовой основы, особенно в контексте обработки персональных данных. Здесь возникает «серая зона» правового регулирования, поскольку ИИ может обрабатывать чувствительную информацию, такую как видеозаписи с лицами или данные о подозреваемых.

Кроме того, существует этическая проблема: как система будет классифицировать так называемое асоциальное поведение? Некоторые примеры, такие как синдром Туретта, могут вызывать неправильную реакцию со стороны ИИ, который классифицирует неприемлемые публичные действия как административные правонарушения, хотя на самом деле это следствие заболевания. Директор по управлению сервисами Angara Security Павел Покровский обращает внимание на то, что нейросети могут ошибочно интерпретировать такие особенности как угрозу.

Вызовы безопасности и кибератак

Кроме того, существует угроза, связанная с кибератаками на системы ИИ. Перкова выделяет так называемые adversarial attacks – манипуляции с входными данными, которые могут исказить работу системы и повлиять на расследования преступлений. Это явление уже стало предметом многочисленных научных исследований и является одной из ключевых проблем, стоящих на пути массового внедрения подобных технологий.

Прогнозы и будущее

Является ли эмоциональный интеллект

Источник фото: rapidresponseppe.com

Несмотря на все вызовы, технологии на основе ИИ продолжают внедряться в повседневную жизнь. В России уже установлены системы распознавания лиц в общественных местах, и с каждым годом их становится больше. По словам Сергея Голицына, руководителя направления Т1 ИИ, такие системы способны не только распознавать лица, но и выявлять потенциально опасные объекты и поведение людей, что делает их незаменимыми в обеспечении общественной безопасности. Тем не менее для полноценного развертывания подобных технологий необходимы два ключевых условия: соблюдение законодательства о персональных данных и гарантированная эффективность систем.

С запуском коммерческой версии Dejaview, запланированным на конец 2025 года, можно ожидать, что подобные системы начнут играть важную роль в правоохранительных органах по всему миру. Однако будущее таких технологий напрямую зависит от того, как будут решены вопросы конфиденциальности, точности прогнозов и безопасности данных.

Этические и социальные вопросы

Благодаря искусственному интеллекту Google

Источник фото: rapidresponseppe.com

Технологии искусственного интеллекта, такие как Dejaview, несомненно, могут изменить подход к правопорядку, сделав его более проактивным. Однако возникает множество этических вопросов, касающихся того, насколько справедливо и правильно использовать алгоритмы для анализа человеческого поведения. Как говорит дизайнер Артемий Лебедев, ИИ уже заменяет некоторые профессии, и этот процесс неизбежен. Но, как он отмечает, креативный потенциал человека пока не поддается автоматизации.

Технологии ИИ продолжают развиваться, и многие эксперты считают, что общество должно тщательно подготовиться к новому этапу их интеграции в повседневную жизнь. С одной стороны, нейросети обещают сделать мир безопаснее, с другой — они могут изменить наше восприятие конфиденциальности, свободы и безопасности.

Система Dejaview и подобные ей разработки обещают революционизировать борьбу с преступностью, предсказывая преступления и помогая предотвращать их. Однако этот прогресс сопряжен с рядом сложностей, которые необходимо решить до массового внедрения таких технологий. Противоречия в вопросах конфиденциальности, точности анализа и уязвимости к кибератакам подчеркивают важность комплексного подхода к регулированию использования ИИ в области безопасности. Таким образом, успешное использование нейросетей в борьбе с преступностью зависит от того, насколько общество и законодатели смогут сбалансировать технологические возможности с правами и свободами граждан.

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *