Убьет ли ИИ достоверность в онлайне?

Убьет ли ИИ достоверность в онлайне?

Дипфейками уже не удивить даже пенсионерок. К счастью, мы научились более-менее отличать их от реальности. Возможно, в игру вступил какой-то пока не открытый — или даже принципиально новый — механизм когнитивной эволюции.

Но ИИ продолжает развиваться с олимпийским упорством, и его «уколы» становятся всё точнее и болезненнее. Некоторые виды ИИ-медиа уже невозможно отличить от оригинала — особенно это касается текста.

Что же нас ждёт в недалеком будущем при таких темпах?

Симулякр справа, симулякр слева

Маршалл Маклюэн — один из последних великих пророков. Только пророчествовал он не на улице в сандалиях, а в кабинете, создавая теорию «Мировой деревни».

По его мнению, мгновенная передача информации превращает мир в единый информационный колхоз. Независимо от континента, часового пояса или этнической принадлежности, мы теперь всегда на виду друг у друга и можем распространять идеи, новости и слухи быстрее, чем мыслим.

Маклюэн утверждал: медиум — это сообщение. Среда передачи информации определяет её качество и воздействие. А наш главный «инфоводопровод» — интернет — стал идеальной чашкой Петри для дезинформации.

Вот почему:

  • Конец авторитетам. Ницшеанская «переоценка всех ценностей» свергла традиционных верификаторов вроде ИТАР-ТАСС и Reuters. Чек.
  • Эмоции против достоверности. Эмоции манипулировать легко, особенно если добавить взрывоопасный контент. Чек.
  • Реконтекстуализация. Любое видео или фото можно подогнать под другой сценарий, «натянув сову на глобус». Это работает краткосрочно, но вреда может быть масса, пока правда не всплывёт. Чек.

С приходом интернета ситуация и так была шаткой, а теперь — ренессанс искусственного интеллекта. Это настоящий Большой взрыв, породивший Вселенную симулякров. Маклюэн, кстати, был верующим и называл симуляцию «откровенной манифестацией Антихриста». Какие новые грани обмана открыл ИИ?

Яркий пример реконтекстуализации — видео с похищениями детей, которые в 2018 году вызвали панику в индийских WhatsApp-группах. На самом деле это отрывок из вьетнамской социальной рекламы, показывающей, как легко украсть ребёнка, если тот остался без присмотра.

«Дивиденд лжеца»

С появлением GenAI в массах социология обогатилась двумя феноменами: «дивиденд лжеца» и «апатия к правде».

Дивиденд лжеца

Теперь компрометирующие материалы теряют силу. Если любой может создать гиперреалистичное видео с «доказательствами», достаточно сказать: «Это не я, катана не моя» — и улики становятся бесполезными.

Апатия к правде

Люди постепенно принимают: не верь глазам своим. Раз всё можно подделать, зачем реагировать на очередную шумиху? Общество вырабатывает селективную слепоту, пропуская мимо даже вопиющие события. Усталость от необходимости различать Falsum и Veritas становится хронической.

Кстати, дипфейки появились не в 2017 году на Reddit. Первый пример — ещё в 1997-м: стартап Video Rewrite заставил Кеннеди сказать: «Я не знаком с Форрестом Гампом». Трюк был сделан не на ИИ, а вручную — путём перестановки кадров с губами президента под записанную фразу. Мы-то знаем, что Кеннеди и Форрест были знакомы.

Кто виноват и что делать?

Виноват один — технический прогресс. Но, как и у Януса, у него два лица: вместе с проблемами он приносит и решения. Это божество дверей, указывающее выход даже из тупика.

Similia similibus curantur — подобное лечится подобным. Победить фейки должны помочь умные машины.

Допустим, злоумышленники создали видео, где Илон Маск объявляет, что переезжает в посёлок Сосьва на Среднем Урале, а делами будет руководить луговая собачка Геннадий с вживленным Neuralink. Такой ролик мог бы спровоцировать биржевую панику и кризис масштабом с Черный август ’98. Что делать?

Например, использовать метод оценки сердечного ритма по видео.

Он определяет, живой ли человек перед камерой. Система фиксирует микроскопические изменения оттенка кожи, вызванные насыщением крови кислородом при дыхании. Если эти колебания ритмичны и совпадают с паттернами «вдох-выдох», вероятность, что перед нами живой человек, — 99,1%.

Что касается голоса — есть подход к детектированию микроколебаний голосовых складок, присущих живым людям.

Детектор отслеживает естественные вибрации в диапазоне 8–12 Гц. Используется эффект Доплера для анализа сдвигов частот в аудио, имитирующих движение источника звука. Также анализируется вибрация барабанной перепонки, чтобы разложить сигнал на компонентные частоты. Главная цель — выявить низкочастотные колебания в спектрограмме голоса.

У нейросети нет физических голосовых складок, лицевых резонаторов или грудной клетки. Поэтому эти едва уловимые сигналы либо отсутствуют, либо сглажены.

С текстами ситуация сложнее. Эксперты считают, что ИИ-детекторы рано или поздно перестанут справляться с нейрогенерацией. Прогнозируют наплыв фальшивых докторских и кандидатских диссертаций.

И вновь продолжается бой…

Картина ясна: ИИ будет становиться всё умнее, генерируя результаты, неотличимые от реальности. Возможно, он научится обходить даже методы liveness detection.

Но это не значит, что всё безнадёжно. Игра в «кошки-мышки» между создателями дипфейков и разработчиками защиты продолжится. Если каждую защиту можно взломать (привет, Denuvo), то и любую атаку можно отразить.

Дело не только в сложных алгоритмах из топовых лабораторий. Человек исторически умеет адаптироваться. Когда-то это помогло нашим предкам взять в руки шкуры и костяную иглу — и изобрести палеолитический «лук» (охотничий появился чуть позже).

Значит, и к новой враждебной стихии — дипфейкам — мы так или иначе адаптируемся. И, наверное, сможем обуздать её.

Читать оригинал