Где может появиться технология ОпенЭйАй (OpenAI) в Иране

Эта история впервые появилась в «Алгоритме», нашем еженедельном информационном бюллетене об искусственном интеллекте. Чтобы первыми получать такие истории на свой почтовый ящик, зарегистрируйтесь здесь.

Прошло чуть больше двух недель с тех пор, как OpenAI достигла спорного соглашения, позволяющего Пентагону использовать свой ИИ в секретных средах. Все еще остаются актуальные вопросы о том, что именно позволяет соглашение OpenAI; Сэм Альтман сказал, что военные не могут использовать технологии его компании для создания автономного оружия, но соглашение на самом деле просто требует, чтобы военные следовали своим собственным (весьма либеральным) правилам в отношении такого оружия. Другое главное заявление OpenAI о том, что соглашение предотвратит использование ее технологии для внутреннего наблюдения, кажется столь же сомнительным.

Неясно, каковы мотивы OpenAI. Это не первый технологический гигант, который заключил военные контракты, которые он когда-то поклялся никогда не заключать, но скорость поворота была заметной. Возможно, дело только в деньгах; OpenAI тратит много средств на обучение искусственному интеллекту и стремится получить больше доходов (из источников, включая рекламу). Или, возможно, Альтман действительно верит в идеологическую концепцию, которую он часто использует: либеральные демократии (и их вооруженные силы) должны иметь доступ к самому мощному ИИ, чтобы конкурировать с Китаем.

Более важный вопрос заключается в том, что будет дальше. OpenAI решила, что ей удобно действовать прямо в самом центре боевых действий, в то время как США наращивают свои удары по Ирану (при этом ИИ играет в этом большую роль, чем когда-либо прежде). Так где же именно технологии OpenAI могут проявить себя в этой борьбе? И какие приложения будут терпеть ее клиенты (и сотрудники)?

Цели и удары

Хотя соглашение с Пентагоном уже вступило в силу, неясно, когда технология OpenAI будет готова к работе в секретных средах, поскольку она должна быть интегрирована с другими инструментами, которые используют военные (ожидается, что xAI Илона Маска, который недавно заключил собственное соглашение с Пентагоном, пройдет тот же процесс со своей моделью ИИ Grok). Но существует необходимость сделать это как можно скорее из-за разногласий вокруг используемой на сегодняшний день технологии: после того, как Anthropic отказалась разрешить использование своего ИИ «в любых законных целях», президент Трамп приказал военным прекратить его использование, и Пентагон включил Anthropic в список риска для цепочки поставок. (Anthropic оспаривает это признание в суде.)

Если к тому времени, когда технология OpenAI находится в системе, иранский конфликт все еще продолжается, для чего ее можно использовать? Недавний разговор, который я провел с представителем министерства обороны, предполагает, что это может выглядеть примерно так: человек-аналитик может поместить список потенциальных целей в модель ИИ и попросить ее проанализировать информацию и расставить приоритеты, по которым следует нанести удар в первую очередь. Модель может учитывать логистическую информацию, например, где расположены конкретные самолеты или запасы. Он мог анализировать множество различных входных данных в виде текста, изображений и видео.

По словам чиновника, тогда человек будет отвечать за ручную проверку этих выходных данных. Но тут возникает очевидный вопрос: если человек действительно дважды проверяет результаты ИИ, как это ускоряет принятие решений по выбору цели и нанесению удара?

В течение многих лет военные использовали другую систему искусственного интеллекта под названием Maven, которая может выполнять такие задачи, как автоматический анализ видеозаписи с дронов для определения возможных целей. Вполне вероятно, что модели OpenAI, такие как Claude от Anthropic, помимо этого будут предлагать диалоговый интерфейс, позволяющий пользователям запрашивать интерпретацию разведывательных данных и давать рекомендации по тем целям, которые следует атаковать в первую очередь.

Трудно переоценить, насколько это ново: искусственный интеллект уже давно занимается анализом для военных, извлекая информацию из океанов данных. Но использование советов генеративного ИИ о том, какие действия предпринять в полевых условиях, впервые всерьез тестируется в Иране.

Защита дронов

В конце 2024 года OpenAI объявила о партнерстве с компанией Anduril, которая производит как дроны, так и технологии борьбы с дронами для военных. В соглашении говорилось, что OpenAI будет работать с Anduril для проведения оперативного анализа дронов, атакующих силы США, и помощи в их уничтожении. Представитель OpenAI тогда сказал мне, что это не нарушает политику компании, которая запрещает «системы, предназначенные для нанесения вреда другим», поскольку технология использовалась для нацеливания на дроны, а не на людей.

Anduril поставляет набор технологий борьбы с дронами военным базам по всему миру (хотя компания отказалась сообщить мне, развернуты ли ее системы вблизи Ирана). Ни одна из компаний не предоставила обновленную информацию о том, как развивался проект с момента его анонса. Однако Anduril уже давно обучила свои собственные модели искусственного интеллекта анализировать записи с камер и данные датчиков для выявления угроз; на чем он уделяет меньше внимания, так это на диалоговых системах искусственного интеллекта, которые позволяют солдатам напрямую запрашивать эти системы или получать инструкции на естественном языке — область, где модели OpenAI могут подойти.

Ставки высоки. Шесть военнослужащих США были убиты в Кувейте 1 марта в результате атаки иранского беспилотника, которая не была перехвачена средствами ПВО США.

Интерфейс Anduril, называемый Lattice, позволяет солдатам управлять всем: от защиты дронов до ракет и автономных подводных лодок. И компания выигрывает крупные контракты (20 миллиардов долларов от армии США только на прошлой неделе) на соединение своих систем с устаревшим военным оборудованием и внедрение в них искусственного интеллекта. Если модели OpenAI окажутся полезными для Anduril, Lattice сможет быстро внедрить их в этот более широкий набор боевых действий.

Бэк-офис с искусственным интеллектом

В декабре министр обороны Пит Хегсет начал призывать миллионы людей, выполняющих административные функции в армии (контракты, логистика, закупки), использовать новый инструмент искусственного интеллекта. Названный GenAI.mil, он предоставил сотрудникам возможность безопасно получить доступ к коммерческим моделям ИИ и использовать их для тех же целей, что и любой другой человек в деловом мире.

Google Gemini был одним из первых, кто стал доступен. В январе Пентагон объявил, что Grok из xAI также будет добавлен на платформу GenAI.mil, несмотря на инциденты, в которых модель распространяла антисемитский контент и создавала дипфейки без согласия. В феврале последовала OpenAI: компания объявила, что ее модели будут использоваться для разработки политических документов и контрактов, а также для оказания помощи в административной поддержке миссий.

Любой, кто использует ChatGPT для несекретных задач на этой платформе, вряд ли будет иметь большое влияние на важные решения в Иране, но перспектива развертывания OpenAI на платформе важна и в другом отношении. Он служит всеобщему отношению к ИИ, которое Хегсет неустанно продвигает в Пентагоне (даже несмотря на то, что многие ранние пользователи не совсем уверены, для чего им следует его использовать). Идея состоит в том, что ИИ меняет каждый аспект боевых действий США, от принятия целенаправленных решений до оформления документов. И OpenAI все больше выигрывает от всего этого.

Читать оригинал