ИИ-война: секретная система Palantir выбирает цели для ударов по Ирану

Война США и Ирана на 32-й день. За сутки наносится удар по тысяче целей, а за месяц — поражено 11 000 объектов. По утверждению администрации Трампа, такова реальность современного конфликта. Но за этими цифрами стоят не только военные, а алгоритмы.

Project Maven: «Google Earth для войны»

Секретная система под названием Project Maven, разработанная с участием Palantir, превратилась в главный командный дашборд для американских военных. На карте отображаются тысячи белых точек — каждая содержит координаты, высоту, тип объекта и пометку «свой» или «чужой».

Технический директор Palantir Шьям Санкар утверждает: «То, что раньше требовало усилий 50–100 человек за полгода, сегодня делает один человек за две недели».

Систему называют «костюмом Железного человека», который делает солдат в 50 раз эффективнее. Но что происходит, если этот «костюм» дает сбой?

Трагедия в школе для девочек

Пентагон расследует удар по иранской школе, в результате которого погибло более 170 человек, в основном дети. Следователи проверяют, не стал ли причиной трагедии сбой в Project Maven.

ИИ позиционировался как средство сделать войну «точной» и «гуманной». Теперь возникает вопрос: может ли алгоритм нести ответственность за ошибку, ведущую к гибели мирных жителей?

Отказ Google и приход Palantir

Проект начался в 2017 году, когда Пентагон, обеспокоенный успехами Китая в ИИ, обратился в Кремниевую долину. Google принял участие, но после протестов 3000 сотрудников, возмущённых использованием их разработок для военных целей, компания вышла из проекта.

«Google не должен быть в бизнесе войны», — заявили тогда разработчики.

Эстафету подхватила Palantir — компания, специализирующаяся на анализе больших данных. Именно она превратила Maven в ключевую систему управления боевыми действиями.

Проблема трёх пикселей

Журналистка Bloomberg Катрина Мэнсон выяснила, что ранние версии алгоритмов Microsoft не могли отличить оружие на плече человека от корзины для покупок. Разница порой составляла всего три пикселя.

В итоге Microsoft упростила задачу, разделив объекты на две категории: «люди» и «транспорт». Но международное гуманитарное право требует различать мужчин, женщин и детей. Алгоритм, не способный к такому анализу, не может гарантировать соблюдение законов войны.

Система эволюционировала. В Украине Maven помогал наводить ракеты на российские установки за 18 минут. Но вопрос остаётся: что, если алгоритм ошибётся? Иранская школа может стать первым крупным скандалом эпохи алгоритмических войн.

Может ли война быть «честной»?

Жена полковника Корпуса морской пехоты, курировавшего внедрение ИИ, была против войны. Её успокаивала лишь мысль, что муж делает войну точнее, а значит, «честнее».

Но сам полковник, прошедший Афганистан и Ирак, признаёт: в этой технологии есть тёмные стороны. ИИ ускоряет принятие решений, но одновременно снимает с человека бремя выбора — и чувство вины.

Может ли алгоритм быть «честным»? Или он просто делает убийства быстрее?

Читать оригинал