Соглашение между Пентагоном и OpenAI вызвало разногласия

127
Развитие искусственного интеллекта подстегнуло сотрудничество между технологическими компаниями и государственными структурами. В США этот процесс приобрел особую остроту после конфликта между Пентагоном и компанией Anthropic, которая отказалась смягчить ограничения на использование своей модели Claude государственными структурами. На этом фоне OpenAI объявила о собственном контракте с Министерством обороны США, сопроводив его обязательствами по обеспечению дополнительных мер безопасности. Как эти события влияют на отношения государства и технологических компаний, и какие правила использования ИИ в секторе обороны могут сложиться в ближайшем будущем?
Разногласия между Anthropic и Пентагоном
Компания Anthropic отклонила предложение Пентагона пересмотреть условия использования системы искусственного интеллекта Claude в закрытой военной сети. По мнению разработчиков, предложенные формулировки не давали гарантий относительно того, что технология не будет использована для массового наблюдения или в полностью автономных системах вооружений.
Министр обороны США Пит Хегсет сообщил генеральному директору Anthropic Дарио Амодеи, что в случае отказа компании разрешить использование модели «для всех законных целей», контракт на сумму в 200 млн долларов будет расторгнут. Также обсуждалась возможность присвоения компании статуса «риска для цепочек поставок», который обычно присваивают организациям, являющимися «противниками» США по мнению руководства страны.
В Anthropic заявили, что новая редакция соглашения была представлена как компромисс, однако содержала юридические лазейки, позволяющие игнорировать предусмотренные ранее ограничения. В своем обращении Амодеи отметил: «Я глубоко убежден, что использование искусственного интеллекта критически важно для защиты США и других демократий…». Однако при этом подчеркнул, что применение ИИ в определенных сферах может «подрывать, а не защищать демократические ценности».
Амодеи также указал на то, что такие задачи, как массовое наблюдение и управление автономными системами вооружений, «выходят за рамки того, что сегодняшние технологии могут выполнять безопасно и надежно».
Соглашение между Пентагоном и OpenAI
В день, когда федеральным ведомствам было предписано прекратить использование технологий Anthropic, компания OpenAI объявила о заключении соглашения с Пентагоном по внедрению своих систем искусственного интеллекта в закрытых военных сетях.
Глава OpenAI Сэм Альтман заявил, что договор включает четкие ограничения. По его словам, два ключевых принципа компании – это запрет на использование технологий для внутреннего массового наблюдения и обязательное участие человека при принятии решений о применении силы. Альтман заявил: «Министерство обороны согласно с этими принципами, отражает их в своих нормативных актах, и мы закрепили их в нашем соглашении».
Компания также сообщила о планах направить своих инженеров для работы непосредственно в ведомстве, чтобы разрешать вопросы безопасности и следить за корректностью функционирования систем.
В Пентагоне отметили, что при решении вопросов безопасности военнослужащих критически важно иметь надежного партнера, готового к конструктивному диалогу
Область применения ИИ
Сотрудничество OpenAI и Министерства обороны США предполагает использование генеративного ИИ для решения ряда административных и аналитических задач. Среди них – анализ киберугроз, логистическое планирование, обработка больших массивов данных и подготовка документации.
Разрабатываемые системы будут функционировать в защищенных государственных сетях и полностью изолированы от публичных сервисов, доступных обычным пользователям. Государственные ведомства США уже несколько лет экспериментируют с внедрением коммерческих моделей ИИ, однако стремительный прогресс генеративных технологий значительно усилил интерес к их практическому применению.
Дискуссия о границах применения ИИ
Соглашение OpenAI с Пентагоном вызвало дискуссии. Некоторые сотрудники компании, исследователи и пользователи выразили обеспокоенность тем, насколько четко определены границы использования технологии государством.
Основная критика касается двух пунктов – применение ИИ для внутреннего наблюдения и его роль в осуществлении военных операций. В ответ компания уточнила положения соглашения. В обновленной версии документа говорится, что системы не могут намеренно использоваться для слежки за гражданами США и должны соответствовать действующему законодательству. Также подчеркивается, что модели не предназначены для автономного принятия решений о применении силы; контроль со стороны человека остается обязательным условием.
Американист Никита Сенюшкин в беседе с изданием «Нос» рассказал, что «раньше основными партнерами правительства США в сфере оборонных технологий были крупные оборонные подрядчики. Сейчас усиливается роль компаний, разрабатывающих системы искусственного интеллекта. Государству нужны их технологии.
История с Anthropic показывает, что некоторые компании пытаются устанавливать собственные ограничения на применение своих разработок. Это связано во многом и с репутацией. Компании, которые работают с миллионами пользователей, учитывают реакцию общественности.
При этом реакция властей показывает, что государство не готово передавать частным компаниям право определять правила применения технологий в сфере обороны. Возможность признать компанию «риском для цепочки поставок» демонстрирует, что у правительства есть рычаги давления.
В ближайшее время это может привести к появлению более четких правил сотрудничества между государственными структурами и разработчиками ИИ. Уже сейчас в заявлениях компаний звучат похожие принципы. Например, запрет на массовое наблюдение внутри страны и требование, чтобы решения о применении силы принимались только при участии человека. Если такие условия будут регулярно включаться в контракты, со временем они могут стать стандартом для всей отрасли. Другой вопрос, что в подобных соглашениях могут быть лазейки для обхода этих пунктов. Поэтому использование искусственного интеллекта в оборонном секторе действительно рассматривается многими экспертами как потенциальный риск».
