YouTube объявил во вторник о расширении своей новой технологии распознавания сходства (likeness detection) — системы, которая выявляет созданный с помощью искусственного интеллекта (ИИ) контент, включая дипфейки, — на представителей индустрии развлечений.
Как работает технология
Принцип напоминает систему Content ID, которая автоматически находит в загруженных видео материалы, защищённые авторским правом. Правообладатели могут потребовать удаления контента или получать с него доход.
Новая функция делает то же самое, но для симулированных лиц. Её цель — защитить создателей контента и публичных людей от несанкционированного использования их образа. Особенно остро эта проблема стоит у знаменитостей, чьи лица нередко используют в мошеннических рекламах.
Кто уже пользуется
Технологию впервые протестировали в прошлом году в рамках пилотного проекта с участием отдельных авторов YouTube. Весной система была расширена на политиков, государственных служащих и журналистов.
Теперь доступ предоставляется и представителям шоу-бизнеса — талант-агентствам, компаниям по управлению карьерой и самим знаменитостям, которых они представляют. Среди партнёров YouTube — крупные агентства CAA, UTA, WME и Untitled Management, которые участвовали в тестировании и давали обратную связь.
Как это работает для знаменитостей
Участнику необязательно иметь собственный канал на YouTube. Достаточно зарегистрироваться в системе, и алгоритм начнёт сканировать видеоконтент на предмет визуального совпадения с лицом участника.
При обнаружении совпадения пользователь может:
- запросить удаление видео за нарушение политики конфиденциальности;
- подать заявку на удаление по авторским правам;
- или ничего не делать.
YouTube подчёркивает: не весь контент будет удаляться. Пародии и сатирические материалы разрешены в соответствии с правилами платформы.
Что будет дальше
В будущем технология научится распознавать не только лица, но и голоса.
Компания также поддерживает на федеральном уровне законодательные инициативы, включая законопроект NO FAKES Act в Вашингтоне. Он призван регулировать использование ИИ для создания несанкционированных копий голоса и внешности человека.
Сколько именно дипфейков уже удалено с помощью этой системы, YouTube не сообщает. В марте компания отметила, что число таких случаев пока остаётся «очень небольшим».