Государственный контракт
Пентагон договорился с восемью ИТ-компаниями в США о боевом применении технологий с искусственным интеллектом (ИИ), пишет Nextgov/FCW. В Министерстве обороны (Минобороны) США не отказывается от генеративного ИИ, а наоборот расширяет набор ИТ-поставщиков для закрытых военных сетей.
В 2026 г. Пентагон заключил соглашение с восемью передовыми разработчиками в области ИИ о внедрении их технологий в системы американского оборонного ведомства. Как указано в сообщении министерства, партнерами стали SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft, Amazon и Oracle.
Эти ИИ-решения будут интегрированы в сетевые среды Impact Levels версий шесть и семь. ИИ-технологии будут применяться для работы с засекреченной информацией. По заявлению представителей военного ведомства, интеграция позволит оптимизировать синтез данных в сложных условиях и обеспечит американским военным превосходство в принятии решений во всех сферах ведения войны.
В заявлении Пентагона отмечается, что расширение списка одобренных поставщиков ИИ-решений направлено на снижение риска зависимости от единственного ИТ-вендора. Особую актуальность данная мера приобретает на фоне ситуации с компанией Anthropic. По информации Reuters, сотрудники Пентагона, бывшие чиновники и ИТ-подрядчики неохотно отказываются от ИТ-инструментов Anthropic, поскольку считают их более сильными по сравнению с альтернативами. Однако ведомство планирует убрать их из контуров до конца 2026 г.
Новые соглашения свидетельствуют о том, что Пентагон не отказывается от использования генеративного ИИ, а, напротив, активно расширяет перечень одобренных ИТ-поставщиков для применения в закрытых военных сетях.
Бунт в Anthropic
Сделка фактически оставляет в изоляции компанию Anthropic, которая ранее была ключевым партнером армии США, писал CNews. Данный контракт был заключен летом 2025 г. и его стоимость составляет примерно $200 млн. Согласно его условиям, ИИ-модели Claude, разработанные Anthropic, должны быть интегрированы в американские оборонные ИТ-системы. Напряженные же отношения между Anthropic и американской администрацией возникли вскоре после подписания соглашения.
Одной из причин разногласий стали положения технологической компании, которые запрещают использовать Claude для наблюдений внутри страны. Эти ограничения уменьшают возможности применения ИИ-технологий Anthropic такими структурами, как: Федеральное бюро расследований (ФБР); Иммиграционная и таможенная служба США. Другой причиной стало требование Anthropic ограничить использование ее ИИ-модели Claude работы автономного оружия.
Пентагон внес Anthropic в черный список, назвав ее угрозой национальной безопасности США, что в мае 2026 г. еще оспаривается в суде. Конфликт с компанией Anthropic стал для ведомства катализатором процесса диверсификации поставщиков ИИ-решений и позволил существенно снизить зависимость от одного вендора. Чиновники считают, что у них должна быть возможность внедрять коммерческие ИИ-технологии независимо от политики использования ИТ-компаниями, если они соответствуют законодательству США.
Споры вокруг работы с Пентагоном
Google заключила соглашение с Пентагоном, разрешающее использование ее ИИ-моделей для секретных задач и других законных государственных целей. Сделка в 2026 г. вызвала новую волну споров о военном применении ИИ-технологий.
Заключенная сделка ставит Google в один ряд с OpenAI и xAI Илона Маска. Эти компании также имеют соглашения с Пентагоном на поставку ИИ-моделей для использования в закрытых государственных сетях. Подобные контракты неоднократно вызывали серьезные споры внутри ИТ-компаний и приводили к заметному недовольству среди ИТ-разработчиков, выступающих против сотрудничества с военным ведомством.
По информации The Information, договор с Пентагоном обязывает Google оказывать содействие в изменении настроек безопасности и фильтров ИИ-моделей по запросу американских властей. При этом соглашение не дает Google права контролировать или блокировать законные оперативные решения правительства.
По информации CNews, 27 апреля 2026 г. более 600 сотрудников Google подписали открытое обращение к генеральному директору Сундару Пичаи (Sundar Pichai), выразив серьезную обеспокоенность в связи с переговорами компании с Пентагоном. Авторы письма подчеркнули, что непосредственная причастность к разработке передовых ИИ-технологий накладывает на сотрудников особую этическую ответственность — предупреждать потенциально опасные и неэтичные сценарии их применения. В связи с этим они призвали руководство ИТ-компании отказаться от предоставления ИИ-моделей для секретных и военных задач.
Тема использования ИИ в военных целях уже длительное время вызывает серьезную обеспокоенность среди сотрудников Google. В 2018 г. тысячи работников ИТ-компании подписали открытое письмо с протестом против участия Google в контракте с Пентагоном, в рамках которого ИИ-инструменты использовались для анализа данных с беспилотных летательных аппаратов. После масштабного внутреннего протеста руководство Google приняло решение не продлевать контракт по проекту Project Maven. Впоследствии данный ИТ-проект в 2019 г. был передан другой ИТ-разработчику под названием Palantir.




