Эксперт Драченин: утечка данных из нейросетей может угрожать безопасности пользователей

10:40, 31 Янв, 2025
Юлия Челканова
Нейросеть
Источник фото: tvzvezda.ru

В современном мире, где технологии развиваются стремительными темпами, информация, загруженная в нейросети, оказывается под угрозой. Как отметил эксперт в области кибербезопасности Алексей Драченин, данные любой конфиденциальной природы могут быть использованы злоумышленниками.

Технические и человеческие риски

Драченин указывает на то, что, несмотря на наличие встроенных механизмов защиты, системы искусственного интеллекта остаются уязвимыми. Эти уязвимости являются следствием как технических недоработок, так и человеческого фактора.

Читайте также: Боятся DeepSeek – США начали искать в нашумевшей нейросети «риски для национальной безопасности»

С одной стороны, современные нейросети и другие ИИ-системы разрабатываются с использованием сложных алгоритмов и криптографических методов, которые должны обеспечивать защиту данных. Однако, как показывает практика, эти меры не всегда достаточно эффективны. Например, недостаточно отлаженные программные решения могут содержать ошибки, которые хакеры могут использовать для получения несанкционированного доступа. Кроме того, быстрое развитие технологий может приводить к тому, что разработчики не успевают своевременно обновлять системы безопасности, оставляя их открытыми для атак.

Проблема кибербезопасности

В мире кибербезопасности существует множество специалистов, занимающихся тестированием на проникновение. Они проводят базовые проверки систем, что можно сравнить с шахматными комбинациями для новичков. «Невозможно точно оценить, сколько людей уже получили доступ к конфиденциальным данным», — подчеркивает Драченин, указывая на сложность проблемы.

Рекомендации для пользователей

Основной рекомендацией для пользователей является избегание загрузки критически важной информации в публичные нейросети, независимо от их репутации и заявленного уровня защиты. «Безопасность данных должна быть приоритетом, и каждый должен осознавать риски, связанные с использованием нейросетей», — заключает эксперт.

Ранее «Пронедра» писала, что будущее здесь: как нейросети учатся предсказывать преступления

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *