Топ-4 сервиса для определения дипфейков

По мере того как генеративный ИИ становится всё более совершенным, компании и стартапы предлагают решения для верификации контента. Журналисты The New York Times протестировали ведущие инструменты детекции — от программ для профессионалов до встроенных функций в смартфонах — и выяснили, насколько им можно доверять.

В погоне за «цифровой правдой»

Эпоха, когда для создания реалистичного дипфейка требовалась мощная рабочая станция и знания в области машинного обучения, осталась в прошлом. Сегодня сгенерировать видео с выступлением известного политика или гиперреалистичное изображение можно за считанные минуты с помощью смартфона.

На фоне этого растущего информационного хаоса производители ПО и гиганты индустрии смартфонов предлагают то, что можно назвать «щитом»: инструменты для обнаружения контента, созданного ИИ.

Но насколько точны эти сервисы? Чтобы это выяснить, протестировали ряд наиболее разрекламированных решений — от узкоспециализированных платных платформ до встроенных функций в новых смартфонах.

Методология испытаний

Был подготовлен набор из 100 образцов контента, включавший:

  • «Чистые» файлы — оригинальные фото и видео, снятые на камеру или микрофоны в студийных условиях, а также архивные записи 2022–2024 годов.
  • Современные дипфейки — материалы, созданные с помощью Sora 2.0, Veo 3, а также аудиоклоны от ElevenLabs и Voice Engine от OpenAI.
  • Гибридный контент — изображения, прошедшие нейросетевую ретушь, апскейлинг или сгенерированные в Midjourney V7.

Каждый инструмент анализировал файлы в том виде, в каком они обычно распространяются в интернете — часто без EXIF-данных и со сжатием от соцсетей.

1. Hive AI Moderation Suite

Тип: Облачный API для бизнеса и плагин для браузера.
Стоимость: $3/мес за плагин Chrome, корпоративный доступ — по запросу.

Hive использует ансамбль моделей, обученных на миллионах изображений и видео. Он оценивает вероятность ИИ-генерации по шкале от 0 до 100%.

Система корректно определила 94% «чистых» изображений как реальные. Однако с видео возникли сложности: артефакты сжатия часто принимались за признаки ИИ. На YouTube-роликах 2023 года Hive ошибочно помечала 12% контента как сгенерированный.

Вердикт: Хороший индикатор для массового использования, но полагаться на него полностью пока рано.

2. RealityGuard от Sensity (бывшая DeepTrace)

Тип: Платформа для корпоративной безопасности, ориентированная на борьбу с финансовым мошенничеством.

Система анализирует микро-выражения лица, несоответствия в освещении и биометрические артефакты, невидимые глазу. Особое внимание — аудиовизуальной синхронизации.

RealityGuard стал лучшим среди B2B-решений. Он не только определял подлинность, но и выдавал тепловые карты с указанием подозрительных кадров.

  • Сильные стороны: Эффективно распознавал аудиодипфейки, где голос политика накладывался на чужое видео.
  • Слабые стороны: Точность падала до 55% на синтетических изображениях без людей — например, пейзажах или животных.

Вердикт: Эффективен для банков и верификации личностей, но не подходит для проверки новостного контента в целом.

3. Content Credentials (C2PA)

Тип: Технический стандарт, встроенный в камеры Sony, Leica, а также в Android 16 и iOS 19.

Это не детектор, а система «манифеста». Камера подписывает каждый кадр цифровым сертификатом, фиксируя, кто, когда и на какое устройство сделал снимок. При редактировании или обработке ИИ цепочка подписей нарушается или дополняется.

Технически это самый надёжный способ подтвердить подлинность — если контент снят на совместимое устройство в режиме аутентификации. В тесте 70% «реальных» файлов не имели метаданных — из-за старых камер или загрузки через мессенджеры, обрезающие EXIF.

Вердикт: Это «идеальный мир», к которому движётся индустрия. Для профессионалов стандарт становится обязательным. Для обычных пользователей отсутствие C2PA пока не означает фейк.

4. Intel FakeCatcher (в партнёрстве с Factiverse)

Тип: Технология для серверных и облачных решений.

Подход уникален: FakeCatcher анализирует не пиксели, а кровоток в области лица (фотоплетизмография). ИИ пока не может симулировать естественные изменения цвета кожи, связанные с сердечным ритмом.

На видео высокого разрешения с крупным планом лица технология показала 100% точность. Но при низком разрешении (720p и ниже), масках или солнцезащитных очках система отказывалась выдавать результат из-за недостатка данных.

Вердикт: Мощный инструмент для верификации качественных «разговорных» видео, но бесполезен для статичных изображений или сцен с множеством объектов.

Почему «волшебной таблетки» не существует?

Эксперты сходятся во мнении: проблема детекции ИИ-контента далека от решения. Основные причины:

  • Гонка вооружений (Adversarial AI): Как только детекторы находят новый артефакт, следующее поколение генеративных моделей его устраняет. Детекторы всегда «догоняют» генераторы.
  • Проблема сжатия: Алгоритмы Telegram, WhatsApp и Instagram уничтожают микро-шумы и пиксельные паттерны, по которым ИИ отличает реальное от синтетического. Точность всех инструментов резко падает.
  • Человеческий фактор: Пользователи склонны интерпретировать результат вроде «60% вероятности подделки» как абсолютную истину или полностью игнорировать его. Отсутствие единого стандарта порождает недоверие.

Что использовать прямо сейчас?

Универсального решения нет. Рекомендуется комбинированный подход:

  • Для фото: Используйте Hive в связке с ручным анализом EXIF-данных (например, через ExifTool).
  • Для видео с людьми: Обращайте внимание на аудиовизуальную синхронизацию. При доступе к профессиональным инструментам — RealityGuard и Intel FakeCatcher дают наименьший процент ложных срабатываний.
  • Для защиты своего контента: Включайте функцию Content Credentials (C2PA) в настройках смартфона. Это единственный способ в будущем доказать авторство, если вас обвинят в использовании ИИ.

Главный вывод: в 2026 году самый надёжный детектор — это совокупность технологий, собственного расследования и здравого смысла.

Читать оригинал