Использование нейросетей в военных целях: как ChatGPT разрешили применять «на фронте»

03:30, 19 Янв, 2024
Евгения Комарова
Источник фото: gb5kirov.ru

Политика использования чат-бота ChatGPT американской OpenAI недавно была обновлена, что вызвало волнение общественности и экспертов. Беспокойство, в частности, вызывает удаление из условий эксплуатации прямого запрета на использование технологии в военных целях. Что может сделать ChatGPT для армии и какие потенциальные риски создает его применение, сообщают «Известия».

ChatGPT выходит на военный плацдарм

Изменения в политике OpenAI относительно нейросети зафиксированы 10 января. Ранее было прописано, что технологию запрещено применять в сопряженных с высоким риском физического вреда процессов. Это касалось военных действий и разработки оружия. Ограничения исключали возможность военного использования ChatGPT, в том числе в структурах, связанных с обороной. Однако в последней редакции прямой запрет на военное применение исчез.

В компании подобные изменения объяснили стремлением упростить правила и принципы. Продолжает действовать запрет на причинение вреда себе и другим. Отдельно оговорено неиспользование чат-бота для разработки и применения оружия.

Эксперты обратили внимание, что подобные изменения могут быть связаны с необходимостью избежать негодования общественности и пресечения ассоциаций с военными структурами, как это произошло с Google в 2017 г. В то время, как известно журналистам pronedra.ru, Google отказалась от сотрудничества с министерством обороны США под давлением общественности и внесла явный запрет на использование ИИ в военных целях в свою политику.

Дмитрий Овчинников из «Газинформсервиса» указал на потенциальную выгоду от сотрудничества с Пентагоном. Однако OpenAI подчеркнула свою готовность избегать использования своих технологий в военных целях и выразила приверженность ценностям, связанным с защитой безопасности и предотвращением вреда.

Перспективы и риски использования ChatGPT в военных целях

Источник фото: РИА Новости

Овчинников отмечает, что многие компании видят заключение контракта с Пентагоном как высшую цель. Это объясняется не только финансовыми перспективами, но и стремлением к участию в военных проектах. Однако, по его словам, реальная причина также кроется в сложности полного контроля за использованием чат-ботов, включая ChatGPT.

Эксперт подчеркнул, что, несмотря на все условия лицензионных соглашений и другие меры, создатели могут и не знать о «военной карьере» нейросети. Он поднял вопрос о введении ограничения, слабо подвергающегося контролю.

Овчинников подчеркивает, что уже сегодня нейросети и искусственный интеллект активно используются в военных алгоритмах. В частности, они применяются при наведении ракет и обработке спутниковых снимков. Тем не менее Андрей Наташкин, специалист по искусственному интеллекту, выражает беспокойство относительно рисков, связанных с использованием ИИ в военных операциях. Он указал на проблему контроля и ответственности за ошибки, способные иметь фатальные последствия.

С другой стороны, коммерческий директор компании «Код безопасности» Федор Дбар призывает делать азличие между нейросетями, применяемыми в военных целях, и технологиями, подобными ChatGPT, которые представляют собой «гражданский» вариант использования. Он считает, что угрозы военного применения чат-ботов значительно переоценены, подчеркивая, что текущие цифровые технологии не представляют серьезной угрозы.

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *