Пентагон обсуждает планы по созданию безопасной среды для компаний, занимающихся генеративным искусственным интеллектом, для обучения военных версий своих моделей на секретных данных, как стало известно MIT Technology Review.
Модели искусственного интеллекта, такие как Claude от Anthropic, уже используются для ответа на вопросы в секретных ситуациях; приложения включают анализ целей в Иране. Но разрешение моделям обучаться и учиться на секретных данных было бы новой разработкой, которая представляет уникальные риски для безопасности. Это будет означать, что конфиденциальная информация, такая как отчеты о наблюдении или оценки боевых действий, может быть встроена в сами модели, и это позволит компаниям, занимающимся искусственным интеллектом, более тесно контактировать с секретными данными, чем раньше.
Ожидается, что обучающие версии моделей ИИ на секретных данных сделают их более точными и эффективными в определенных задачах, по словам представителя Министерства обороны США, который беседовал с MIT Technology Review. Эта новость появилась, поскольку спрос на более мощные модели высок: Пентагон достиг соглашения с OpenAI и xAI Илона Маска о том, чтобы использовать их модели в секретных условиях, и реализует новую программу, которая станет «боевой силой с приоритетом ИИ» по мере эскалации конфликта с Ираном. (На момент публикации Пентагон не прокомментировал свои планы обучения ИИ.)
Обучение будет проводиться в безопасном центре обработки данных, аккредитованном для размещения секретных правительственных проектов, и где копия модели ИИ сочетается с секретными данными, по словам двух человек, знакомых с тем, как работают такие операции. Хотя владельцем данных останется Министерство обороны, сотрудники компаний, занимающихся искусственным интеллектом, в редких случаях могут получить доступ к данным, если у них есть соответствующий уровень допуска, сказал чиновник.
Однако, по словам чиновника, прежде чем разрешить это новое обучение, Пентагон намерен оценить, насколько точны и эффективны модели при обучении на несекретных данных, таких как коммерчески доступные спутниковые снимки.
Военные уже давно используют модели компьютерного зрения, более старую форму искусственного интеллекта, для идентификации объектов на изображениях и кадрах, которые они собирают с дронов и самолетов, а федеральные агентства заключили контракты с компаниями на обучение моделей искусственного интеллекта на таком контенте. А компании, занимающиеся искусственным интеллектом, создающие большие языковые модели (LLM) и чат-боты, создали версии своих моделей, специально адаптированные для работы в правительстве, такие как Claude Gov от Anthropic, которые предназначены для работы на большем количестве языков и в безопасных средах. Но комментарии чиновника являются первым признаком того, что компании, занимающиеся искусственным интеллектом, создающие LLM, такие как OpenAI и xAI, могут обучать версии своих моделей для конкретных правительств непосредственно на секретных данных.
Аалок Мехта, который руководит Центром искусственного интеллекта Вадхвани в Центре стратегических и международных исследований и ранее руководил разработкой политики в области искусственного интеллекта в Google и OpenAI, говорит, что обучение работе с секретными данными, а не просто ответы на вопросы о них, будет представлять новые риски.
Самая большая из них, по его словам, заключается в том, что секретная информация, на которой обучаются эти модели, может быть доступна любому, кто использует эту модель. Это было бы проблемой, если бы множество различных военных ведомств, все с разными уровнями классификации и потребностями в информации, использовали один и тот же ИИ.
«Вы можете себе представить, например, модель, которая имеет доступ к какой-то конфиденциальной информации человеческого интеллекта — например, имени оперативника — и передает эту информацию той части Министерства обороны, которая не должна иметь доступа к этой информации», — говорит Мехта. Это может создать угрозу безопасности для оперативника, которую сложно полностью минимизировать, если конкретная модель используется более чем одной группой в вооруженных силах.
Однако, по словам Мехты, не так сложно скрыть информацию от более широкого мира: «Если вы все настроите правильно, у вас будет очень небольшой риск того, что эти данные попадут в общий Интернет или вернутся в OpenAI». У правительства уже есть некоторая инфраструктура для этого; Гигант безопасности Palantir выиграл крупные контракты на создание безопасной среды, с помощью которой чиновники могут задавать моделям ИИ секретные темы, не отправляя информацию обратно компаниям, занимающимся ИИ. Но использование этих систем для обучения по-прежнему остается новой проблемой.
Пентагон, вдохновленный памятной запиской министра обороны Пита Хегсета в январе, стремится внедрить больше искусственного интеллекта. Он использовался в бою, где генеративный ИИ составлял списки целей и рекомендовал, по которым следует нанести удар первым, а также в более административных целях, таких как составление контрактов и отчетов.
По словам Мехты, в настоящее время люди-аналитики решают множество задач, для выполнения которых военные могут захотеть обучить ведущие модели искусственного интеллекта, и для выполнения которых потребуется доступ к секретным данным. Это может включать в себя умение идентифицировать тонкие подсказки на изображении, как это делает аналитик, или связывать новую информацию с историческим контекстом. Секретные данные могут быть извлечены из непостижимых объемов текста, аудио, изображений и видео на многих языках, которые собирают спецслужбы.
Действительно сложно сказать, какие конкретные военные задачи потребуют обучения моделей ИИ на таких данных, предупреждает Мехта, «потому что, очевидно, у Министерства обороны есть много стимулов сохранять конфиденциальность этой информации, и они не хотят, чтобы другие страны знали, какие именно возможности у нас есть в этой области».
Если у вас есть информация об использовании ИИ военными, вы можете безопасно поделиться ею через Signal (имя пользователя jamesodonnell.22).