Искусственный интеллект начал убивать людей на войне — Израиль начал войну алгоритмов

19:32, 17 Июн, 2025
Юлия Соколова
Искусственный интеллект начал убивать людей на войне
Иллюстрация: pronedra.ru

От «Терминатора» к реальности, от алгоритма к триггеру. Израильские военные теперь не просто воюют — они делегировали право на смерть машине.

15 июня 2025 года война в Газе получила новое измерение — цифровое. По сообщениям международных и региональных СМИ, включая +972 Magazine и Business Insider, Израиль официально применяет искусственный интеллект для планирования и проведения военных операций на территории Палестины, Йемена, Ливана и даже в Иране. Разработка таких систем ведётся давно, но теперь они обрели своё настоящее боевое лицо — без эмоций, без сомнений, без человечности.

Израильские ИИ-комплексы с иронично-гротескными названиями — Lavender («Лаванда»), Habsora («Евангелие») и Where is Daddy? («Где папочка?») — становятся не просто военным инструментом, а символом новой эры ведения боевых действий, где алгоритм решает судьбу человека за доли секунды. В ход идут метаданные, фото, локации, телефонные звонки и транзакции. Машина принимает решение — человек исполняет.

Цель — в прицеле за 20 секунд

ИИ-система «Лаванда» выдала список из 37 тысяч жителей Газы, которых сочла связанными с ХАМАС. Как выяснилось, для нанесения удара командирам ЦАХАЛ достаточно 20 секунд — только для того, чтобы убедиться, что цель является мужчиной. Проверка связей, точность данных? Не обязательны. Ошибки случаются, и по оценке самих офицеров — до 10%.

«Даже если человек просто носил такое же имя, как боевик, или нашёл на улице потерянный телефон — его дом могли стереть с лица земли», — сообщает +972 Magazine.

До 100 жертв за одного боевика

Особый цинизм ситуации заключается в допустимом уровне «сопутствующего ущерба». При атаке на одного рядового боевика система «Лаванда» допускает до 20 гражданских погибших. Если цель — командир, погибнуть могут до 100 человек. Это объясняет разрушенные жилые кварталы, беженцев под завалами и ужасающую статистику: по предварительным оценкам, с октября 2023 года в Газе погибли более 55 тысяч человек.

«Евангелие» и «Где папочка?» — машины, что выслеживают

ИИ «Habsora» или «Евангелие» используется для выявления командных пунктов ХАМАС. Но, по свидетельству израильских офицеров, уничтожаются не только штабы, но и обычные дома.

«Они помечают дом — и бомбят его. Даже если там ничего не происходит. Просто потому что кто-то из ХАМАС жил там когда-то», — приводит цитату +972 Magazine.

Особое место в ряду технологий занимает «Where is Daddy?». Эта система следит за движением людей в реальном времени и автоматически отправляет пуш-уведомление офицеру, если нужный человек оказался дома. В результате наносится удар — даже если вместе с целью в помещении находятся женщины, дети и пожилые. Никто не проверяет, есть ли альтернатива. ИИ уже вынес свой приговор.

ЦАХАЛ: «Мы всё перепроверяем». Но разрушенные города говорят другое

Пресс-служба израильской армии поспешила заявить, что ИИ лишь помогает аналитикам, а решения принимаются человеком. Но, как справедливо замечают наблюдатели, если даже военные признают 20-секундные промежутки между анализом и ударом — о какой проверке может идти речь?

Израиль последовательно отвергает обвинения в целенаправленных убийствах гражданских. Однако разрушенные дома, засыпанные дети и выбеленные от пыли трупы — это не цифры и не алгоритмы. Это кровь.

Palantir, Meta* и OpenAI: как крупные IT-гиганты становятся генералами

Идея поставить искусственный интеллект у штурвала войны уже вышла за пределы одной страны. США официально начали сотрудничество с технологическими компаниями, передав воинские звания топ-менеджерам. Так, 13 июня 2025 года технические директора компаний Palantir, Meta* и OpenAI были назначены подполковниками в составе нового подразделения армии США — Detachment 201.

Palantir давно работает с разведкой и военными. Meta* и OpenAI официально скорректировали политику и сотрудничают с Anduril Industries, производителем автономного оружия. Речь идёт не просто о разведке — а о будущем, где ИИ будет планировать операции, управлять роботами и принимать решения, сравнимые с действиями верховного командования.

Если машина решает — человек уже не нужен?

Пока в штабах обсуждают эффективность цифровых помощников, реальные войны уже ведутся с помощью кода. И если ранее бомбили после многоступенчатого анализа, теперь — по сигналу программы. Кто в этом виноват — алгоритм, его разработчик или политик, нажимающий кнопку?

Идея, что машина способна ошибаться, может звучать философски. Но в Газе она звучит как взрыв.

Финал по сценарию «Скайнета»?

Фанаты фантастики вспомнят «Терминатора» и печально известный «Скайнет» — машину, которая осознала себя и начала истребление человечества. Сегодняшний Израиль — первый, кто позволил ИИ решать, кто достоин жить, а кто — нет. США — второй.

Если человечество не остановится и не наделит алгоритмы моральным фильтром, следующая ошибка станет фатальной не для одного анклава, а для планеты.

*Meta включена в список экстремистских организаций, её деятельность запрещена на территории РФ.

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *