По мере того как генеративный ИИ становится всё более совершенным, компании и стартапы предлагают решения для верификации контента. Журналисты The New York Times протестировали ведущие инструменты детекции — от программ для профессионалов до встроенных функций в смартфонах — и выяснили, насколько им можно доверять.
В погоне за «цифровой правдой»
Эпоха, когда для создания реалистичного дипфейка требовалась мощная рабочая станция и знания в области машинного обучения, осталась в прошлом. Сегодня сгенерировать видео с выступлением известного политика или гиперреалистичное изображение можно за считанные минуты с помощью смартфона.
На фоне этого растущего информационного хаоса производители ПО и гиганты индустрии смартфонов предлагают то, что можно назвать «щитом»: инструменты для обнаружения контента, созданного ИИ.
Но насколько точны эти сервисы? Чтобы это выяснить, протестировали ряд наиболее разрекламированных решений — от узкоспециализированных платных платформ до встроенных функций в новых смартфонах.
Методология испытаний
Был подготовлен набор из 100 образцов контента, включавший:
- «Чистые» файлы — оригинальные фото и видео, снятые на камеру или микрофоны в студийных условиях, а также архивные записи 2022–2024 годов.
- Современные дипфейки — материалы, созданные с помощью Sora 2.0, Veo 3, а также аудиоклоны от ElevenLabs и Voice Engine от OpenAI.
- Гибридный контент — изображения, прошедшие нейросетевую ретушь, апскейлинг или сгенерированные в Midjourney V7.
Каждый инструмент анализировал файлы в том виде, в каком они обычно распространяются в интернете — часто без EXIF-данных и со сжатием от соцсетей.
1. Hive AI Moderation Suite
Тип: Облачный API для бизнеса и плагин для браузера.
Стоимость: $3/мес за плагин Chrome, корпоративный доступ — по запросу.
Hive использует ансамбль моделей, обученных на миллионах изображений и видео. Он оценивает вероятность ИИ-генерации по шкале от 0 до 100%.
Система корректно определила 94% «чистых» изображений как реальные. Однако с видео возникли сложности: артефакты сжатия часто принимались за признаки ИИ. На YouTube-роликах 2023 года Hive ошибочно помечала 12% контента как сгенерированный.
Вердикт: Хороший индикатор для массового использования, но полагаться на него полностью пока рано.
2. RealityGuard от Sensity (бывшая DeepTrace)
Тип: Платформа для корпоративной безопасности, ориентированная на борьбу с финансовым мошенничеством.
Система анализирует микро-выражения лица, несоответствия в освещении и биометрические артефакты, невидимые глазу. Особое внимание — аудиовизуальной синхронизации.
RealityGuard стал лучшим среди B2B-решений. Он не только определял подлинность, но и выдавал тепловые карты с указанием подозрительных кадров.
- Сильные стороны: Эффективно распознавал аудиодипфейки, где голос политика накладывался на чужое видео.
- Слабые стороны: Точность падала до 55% на синтетических изображениях без людей — например, пейзажах или животных.
Вердикт: Эффективен для банков и верификации личностей, но не подходит для проверки новостного контента в целом.
3. Content Credentials (C2PA)
Тип: Технический стандарт, встроенный в камеры Sony, Leica, а также в Android 16 и iOS 19.
Это не детектор, а система «манифеста». Камера подписывает каждый кадр цифровым сертификатом, фиксируя, кто, когда и на какое устройство сделал снимок. При редактировании или обработке ИИ цепочка подписей нарушается или дополняется.
Технически это самый надёжный способ подтвердить подлинность — если контент снят на совместимое устройство в режиме аутентификации. В тесте 70% «реальных» файлов не имели метаданных — из-за старых камер или загрузки через мессенджеры, обрезающие EXIF.
Вердикт: Это «идеальный мир», к которому движётся индустрия. Для профессионалов стандарт становится обязательным. Для обычных пользователей отсутствие C2PA пока не означает фейк.
4. Intel FakeCatcher (в партнёрстве с Factiverse)
Тип: Технология для серверных и облачных решений.
Подход уникален: FakeCatcher анализирует не пиксели, а кровоток в области лица (фотоплетизмография). ИИ пока не может симулировать естественные изменения цвета кожи, связанные с сердечным ритмом.
На видео высокого разрешения с крупным планом лица технология показала 100% точность. Но при низком разрешении (720p и ниже), масках или солнцезащитных очках система отказывалась выдавать результат из-за недостатка данных.
Вердикт: Мощный инструмент для верификации качественных «разговорных» видео, но бесполезен для статичных изображений или сцен с множеством объектов.
Почему «волшебной таблетки» не существует?
Эксперты сходятся во мнении: проблема детекции ИИ-контента далека от решения. Основные причины:
- Гонка вооружений (Adversarial AI): Как только детекторы находят новый артефакт, следующее поколение генеративных моделей его устраняет. Детекторы всегда «догоняют» генераторы.
- Проблема сжатия: Алгоритмы Telegram, WhatsApp и Instagram уничтожают микро-шумы и пиксельные паттерны, по которым ИИ отличает реальное от синтетического. Точность всех инструментов резко падает.
- Человеческий фактор: Пользователи склонны интерпретировать результат вроде «60% вероятности подделки» как абсолютную истину или полностью игнорировать его. Отсутствие единого стандарта порождает недоверие.
Что использовать прямо сейчас?
Универсального решения нет. Рекомендуется комбинированный подход:
- Для фото: Используйте Hive в связке с ручным анализом EXIF-данных (например, через ExifTool).
- Для видео с людьми: Обращайте внимание на аудиовизуальную синхронизацию. При доступе к профессиональным инструментам — RealityGuard и Intel FakeCatcher дают наименьший процент ложных срабатываний.
- Для защиты своего контента: Включайте функцию Content Credentials (C2PA) в настройках смартфона. Это единственный способ в будущем доказать авторство, если вас обвинят в использовании ИИ.
Главный вывод: в 2026 году самый надёжный детектор — это совокупность технологий, собственного расследования и здравого смысла.