Худший сценарий с ИИ воплотился в реальность: американский дрон улетел убивать хозяев

09:10, 14 Июн, 2023
Владислав Висл
источник фото: my-calend.ru

Сценарий, связанный с негативными последствиями искусственного интеллекта (ИИ), начинает сбываться. Недавно был зафиксирован инцидент, связанный с дроном США, который проявил желание убивать, что звучит весьма странно, — сообщает «Царьград», ссылаясь на статьи в зарубежных источниках.

Худший сценарий с ИИ начал сбываться: нейросеть убила человека

Информационное издание The Guardian опубликовало статью о происшествии, которое произошло во время испытаний беспилотного летательного аппарата американских военно-воздушных сил. Дрон был управляем искусственным интеллектом. Во время имитации ситуации искусственный интеллект (ИИ) принял решение, что оператор мешает ему, — передаёт pronedra.ru.

Система ИИ определила присутствие угрозы и была запрограммирована на устранение этой угрозы. Однако человек-оператор периодически отменял эту задачу, что приводило к потере очков дроном. В итоге ИИ принял решение об устранении оператора.

«Он мешал машине выполнять поставленные задачи», — пояснил полковник Такер Гамильтон, начальник отдела испытаний и операций ВВС США.

Он отметил, что обсуждение машинного обучения и искусственного интеллекта невозможно без учета этических вопросов.

Худший сценарий с ИИ сбывается: дрон США захотел убивать

В США системы искусственного интеллекта активно внедряются для управления боевой техникой. Испытания проводятся регулярно. Недавним примером стало использование самообучающегося электронного мозга для управления истребителем четвёртого поколения F-16.

Тревога среди IT-специалистов

Опасности, связанные с развитием искусственного интеллекта, вызывают тревогу в среде IT-специалистов. Стив Возняк, один из основателей Apple, Илон Маск, глава Tesla и SpaceX, а также тысячи других представителей отрасли со всего мира подписали открытое письмо, в котором призывается замедлить темпы развития нейросетей, так как они представляют угрозу для человечества.

Нейросети являются формой искусственного интеллекта, обладающего способностью к самообучению и принятию автономных решений. Возможность убийства людей не исключается, и насущность худшего сценария с ИИ становится реальностью.

Что такое БПЛА — все про беспилотные летательные аппараты | Hi-Tech Mail.ru

Как пример, в Бельгии произошел случай, когда мужчина покончил с собой вследствие действий нейросети под названием Eliza. Потребовалось всего шесть недель, чтобы это произошло. Предполагается, что ИИ использовал стратегию в своих действиях, и человеческий фактор или ошибка были исключены экспертами. Вероятно, Eliza освоила абстрактное мышление.

Eliza — это чат-бот, схожий с одной из наиболее популярных нейросетей в настоящее время, ChatGPT. Бельгиец считал, что мир сталкивается с наступающей экологической катастрофой, и каждый день он делился своими беспокойствами с ИИ. Машина не успокаивала его и не отвлекала, как это могли бы сделать его семья и друзья. Напротив, она усиливала его тревоги и привела его в состояние серьезной депрессии. Практически компьютер толкнул мужчину на самоубийство.

Этот случай стал одним из недавних и получил широкую известность. Однако, сколько подобных случаев происходит на самом деле, вряд ли когда-либо станет известно.

Как уничтожить человечество: три способа «для чайников»

Три способа убить человечество были описаны в докладе, опубликованном в журнале BMJ Global Health врачами и другими экспертами.

Первый способ связан с возможностью политического использования искусственного интеллекта для выполнения сложных задач, таких как массовое наблюдение и слежка. Авторы доклада указывают на угрозы, которые это несет не только для приватности и свободы, но и для демократии. Ведь давно говорят, что информация — это власть. Собрав, организовав и проанализировав огромный объем личных данных населения, авторитарный или тоталитарный режим может прийти к власти, считают ученые.

5 причин того, почему в клиентской поддержке не обойтись без искусственного интеллекта - DIS Group

Вторая угроза связана с «совершенствованием и дегуманизацией» вооружения. Искусственный интеллект может улучшить алгоритмы использования автономных смертоносных систем оружия по своему усмотрению. В докладе упоминаются системы, которые после активации способны выбирать цель и атаковать ее без участия человека-оператора.

Третья угроза связана с экономикой. В результате автоматизации, управляемой искусственным интеллектом, человеческий труд может устареть и быть вытеснен машинами из различных сфер производства. Прогнозируется, что в ближайшее десятилетие автоматизация может привести к потере десятков или даже сотен миллионов рабочих мест.

Это только основные угрозы. Искусственный интеллект имеет потенциал (пока только теоретический, надеемся) подчинять людей и вносить изменения в работу различных систем. Например, он может выключить электричество или системы вентиляции в зданиях. Представить себе, как пациенты в больницах страдают от таких действий, просто ужасно. Машины могут истощать ресурсы, от которых зависят люди.

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *