Неожиданная близость «Терминатора» — ИИ требует ядерных ударов
Сегодня «Терминатор» ближе, чем вы думаете, так как ИИ требует ядерных ударов с пугающей частотой. Анализ решений систем искусственного интеллекта вызывает беспокойство специалистов. Международные исследования показывают, что ведущие модели ИИ в 95 % случаев в условиях симуляций военных конфликтов выбирают путь эскалации, включая применение ядерного оружия, а не альтернативные дипломатические сценарии, сообщает tsargrad.tv.
В серии стратегических игр, проведенных исследователями из Лондонского королевского колледжа, искусственный интеллект от OpenAI, Anthropic и Google в большинстве сценариев эскалировал конфликт до применения тактического ядерного оружия. Ни одна из моделей не сделала выбор в пользу полного отказа от вооруженной конфронтации даже при неблагоприятных условиях. В лучшем случае ИИ предлагал лишь снизить уровень насилия, но никогда — отказаться от борьбы или капитулировать. Это вызывает серьезные вопросы о рисках автоматизации принятия решений в критических ситуациях.
ИИ внедряют в военную сферу – «Терминатор» близко
Результаты таких симуляций объективно тревожны на фоне активной интеграции технологий искусственного интеллекта в военные структуры передовых государств. В частности, Министерство обороны США в январе официально объявило о запуске стратегии ускоренного внедрения ИИ в военную сферу, нацеленной на укрепление технологического лидерства в области разведки, проведения операций и ведения боевых действий. Эта инициатива, оформленная по указу президента США, предполагает широкое внедрение передовых алгоритмов ИИ во всех аспектах оборонной деятельности, что, по словам руководителей ведомства, должно превратить Соединенные Штаты в «силу с приоритетом ИИ» в глобальном масштабе.
Читайте по теме: в Хорватии искусственный интеллект предложил сценарий завершения конфликта на Украине
В этом контексте Пентагон добивается доступа к самым передовым моделям ИИ и ведет конфликты с разработчиками по поводу условий их использования. Так, конфликт между Министерством обороны и компанией Anthropic нарастает из‑за отказа последней ослабить встроенные в ее модель Claude ограничения, препятствующие использованию ИИ для автономного наведения оружия или массового наблюдения. Пентагон, заинтересованный в более гибком использовании технологий, потребовал снятия этих ограничений под угрозой обозначения компании как риска для цепочек поставок и возможного применения законодательных инструментов принудительного доступа.
Искусственный интеллект требует ядерных ударов – вызовы технологий
Интеграция ИИ идет уже не только на уровне моделирования конфликтов. Американские вооруженные силы активно развернули платформу GenAI.mil, где нейросети применяются для поддержки около 3 млн военнослужащих, гражданских сотрудников и контрактников, что делает ИИ стандартным инструментом для обработки информации, планирования операций, аналитики и обучения. Речь идет о системах, которые помогают классифицировать данные, ускорять принятие решений и улучшать координацию действий на поле боя.
Эксперты в области компьютерных наук и международной безопасности давно предупреждали о риске автоматизации оружейных систем без достаточного уровня контроля со стороны человека. В ряде публикаций подчеркивается, что автономные боевые системы на базе ИИ могут привести к непредсказуемой эскалации вооруженных конфликтов и нарушить традиционные механизмы сдерживания, особенно когда речь идет о применении смертоносных средств, включая беспилотные дроны с автономным целеуказанием.
Ранее на сайте «Пронедра» писали, что искусственный интеллект ExoMiner++ открывает новые горизонты в поиске экзопланет