При планировании операции «Эпическая ярость» в Иране использовалась модель искусственного интеллекта Claude, несмотря на то, что компания Anthropic, владеющая этой моделью, несколькими часами ранее была внесена в чёрный список администрацией Трампа за требование гарантий того, что их модели не будут использоваться для внутреннего наблюдения и автономных систем вооружения.
По данным источников, с которыми консультировалось издание The Wall Street Journal, модель Claude от Anthropic использовалась для разведывательных оценок, в том числе для определения целей и моделирования боевых сценариев в преддверии ударов США и Израиля по Ирану. Модель, скорее всего, использовалась благодаря партнерству Anthropic с Palantir Technologies, которая предоставляет Министерству обороны, среди прочих услуг, платформу объединения данных для оперативного планирования. Новость об использовании Claude в этой операции появилась на фоне повышенной обеспокоенности по поводу этики и законности интеграции моделей искусственного интеллекта в различные оборонные миссии, которая вышла на первый план на прошлой неделе, когда Anthropic запросила гарантии у Министерства обороны США (DoD) относительно использования своих моделей.
За день до удара по Ирану президент США Дональд Трамп приказал всем федеральным ведомствам немедленно прекратить использование продуктов компании Anthropic, назвав ее «леворадикальной» и «радикально левой, woke-компанией». Министр обороны Пит Хегсет вступил в перепалку с представителями компании, которая требовала гарантий, что ее продукты на основе искусственного интеллекта не будут использоваться для слежки внутри страны или для создания полностью автономных систем вооружения. Хегсет классифицировал Anthropic как компанию, представляющую угрозу национальной безопасности из-за рисков, связанных с цепочками поставок. До сих пор такая классификация применялась только к компаниям за пределами США. Однако Центральное командование Вооружённых сил США (CENTCOM) использовало систему Claude всего через несколько часов после этого решения для нанесения удара по Тегерану и, вероятно, продолжит её использовать в течение шестимесячного периода вывода системы из эксплуатации.
CENTCOM использовало языковые модели Anthropic, Claude для планирования, целевой поддержки и моделирования боя всего через несколько часов после того, как администрация Трампа приказала всем агентствам прекратить использование продуктов Anthropic.
Хотя подробности о том, как именно система Claude использовалась для оперативного планирования, моделирования боевых действий и оценки разведывательных данных, не разглашаются, судя по ее предыдущему применению в Венесуэле и известным контактам между Palantir и Пентагоном, вполне вероятно, что она использовалась в рамках системы Maven Smart System и платформы искусственного интеллекта (AIP). Maven Smart System — это основная платформа Министерства обороны США от Palantir, которая объединяет данные из различных источников, включая спутниковые снимки, данные с датчиков и т. д., в единый интерфейс для командиров и военных планировщиков. Платформа искусственного интеллекта встроена в Maven и позволяет пользователям взаимодействовать с оперативными данными с помощью естественного языка на основе больших языковых моделей (БЯМ). Известно, что платформа поддерживает интеграцию данных со сторонних ресурсов.
В июне 2024 года компания Palantir также заключила дополнительное соглашение, позволяющее подключать сторонних поставщиков к Maven Smart System и AIP. Таким образом, весьма вероятно, что аналитики использовали Claude для выявления закономерностей и получения аналитической и оперативной информации, необходимой для проведения операции «Эпическая ярость».
Для проведения операции «Эпическая ярость» доступ к Claude, вероятно, осуществлялся через платформы Palantir Пентагона, объединяющие потоки разведданных и позволяющие пользователям запрашивать более продвинутые языковые модели для оперативного планирования.
В январе система Claude от Anthropic уже прошла испытания в Венесуэле. Южное командование Вооружённых сил США (SOUTHCOM) использовало её в ходе операции «Непоколебимая решимость», в результате которой были задержаны президент Венесуэлы Николас Мадуро и его жена Силия Флорес. По данным The Wall Street Journal, доступ к Claude у Пентагона был через платформу Palantir.
С этической и юридической точек зрения использование системы Claude не обязательно нарушает два не подлежащих обсуждению ограничения: запрет на массовую слежку за гражданами США внутри страны и запрет на использование полностью автономного оружия. Тем не менее, эта операция показывает, насколько сильно Пентагон полагается на искусственный интеллект при выполнении своих задач. Генеральный директор Anthropic Дарио Амодей публично заявил, что Claude лишена человеческого фактора и что автономное использование может привести к множеству непредвиденных последствий. По состоянию 27 февраля компания-конкурент OpenAI заключила контракт с Пентагоном. Важно будет проследить за тем, будут ли на самом деле соблюдаться аналогичные ограничения на использование модели.
Компания Anthropic настаивает на соблюдении жёстких этических ограничений. В ходе контрактных переговоров с Пентагоном разработчик настаивал, что его технологии не должны использоваться для массовой слежки за американскими гражданами или в системах полностью автономного летального оружия. Министерство обороны, в свою очередь, настаивало на праве использовать любые доступные инструменты для выполнения задач.
Все основные опасения, связанные с интеграцией искусственного интеллекта в системы вооружения, особенно полностью автоматизированные, касаются подотчетности. Например, хорошо известна предвзятость в отношении автоматизации, то есть склонность операторов полагаться на рекомендации машин. Практический пример из Израиля показывает, что участие человека может быть минимальным. Согласно некоторым сообщениям об использовании Израилем спорной системы «Лаванда», которая присваивает людям баллы в зависимости от степени их подозрительности на основе обрабатываемых данных, перед нанесением удара требуется проверка со стороны оператора. Однако, судя по сообщениям из Газы, перед нанесением удара проводится минимальная проверка, несмотря на большое количество ложных срабатываний. Вторая проблема связана с конечной ответственностью. Если система искусственного интеллекта рекомендует цель, а операторы-люди подтверждают это решение, то уголовная ответственность за ошибки при выборе цели становится юридически неоднозначной. Это связано с сутью проблемы: соблюдением норм международного гуманитарного права (МГП). Хотя Генеральная Ассамблея ООН утверждает, что МГП регулирует применение автономных систем вооружения, не существует эффективных механизмов его соблюдения.
Человечество становится все ближе к созданию Cyberdyne Systems – военной компании, создающей компьютерные системы, боевых роботов, интегрированной с ИИ и чуждой каких-либо морально-этических сомнений.
В ходе полномасштабных боевых действий центры обработки данных стали мишенью для ответных ударов Ирана в странах Персидского залива. 2 марта в Бахрейне в центре обработки данных Amazon Web Services возникли перебои с электричеством и связью на фоне иранских ударов по американским объектам в столице.
В Объединённых Арабских Эмиратах (ОАЭ) был нанесен прямой удар по еще одному центру обработки данных Amazon Web Services. Amazon объявила о временном закрытии своего центра обработки данных в ОАЭ после попадания снаряда. Различные государства Персидского залива, особенно ОАЭ и Королевство Саудовская Аравия, стремятся использовать инвестиции в искусственный интеллект как двойной инструмент экономической диверсификации и геополитического влияния. Однако центры обработки данных в регионе сейчас подвергаются немалым рискам, что влечет за собой каскадные последствия для безопасности и экономики. Подобно атакам на нефтяную инфраструктуру, Иран может попытаться нанести государствам Персидского залива непоправимый ущерб, атаковав их инфраструктуру искусственного интеллекта.
Александр Григорьев
