Специалисты Metaphysic рассказали, как выявить дипфейк на видео

Как выявить дипфейк на видео сегодня

Дипфейк – это реалистичная подмена лица на видео, созданная с помощью нейросетей. Когда вы видите, к примеру, видео с рекламой женских духов Dior, где у прекрасной модели лицо мистера Бина, это и есть дипфейк. Вплоть до недавнего времени такое видео было новомодным развлечением, однако уже появляются предпосылки для того, чтобы дипфейки вызывали опасения специалистов по безопасности.

Сам по себе термин deep fake отсылает к его происхождению: первая часть означает «глубокое обучение» (deep learning), а вторая – «подделку» (fake). Сегодня компьютерные алгоритмы уже умеют эффективно «оживлять» фотографии, заменять лица на видео и синтезировать голос человека. В результате этого и появляются видеоматериалы, практически не отличимые от настоящих: реалистичные видео с «фальшивыми» лицами и голосами.

Этим летом американское Бюро по улучшению бизнеса (BBB) повторило предупреждение ФБР об опасности мошенничества с дипфейками в реальном времени. По данным бюро, мошенники сейчас используют дипфейки, чтобы создать впечатление, что знаменитость одобряет рекламируемый продукт и гарантирует, что он может дать фантастические результаты. Представитель бюро советует быть внимательными, если близкие люди звонят по видеосвязи (и не только) и внезапно просят о чем-то необычном, например, перевести деньги.

Становится очевидным, что то, что когда-то было невероятным вектором атаки, сейчас превращается в реальность, которая продолжит захватывать заголовки и с которой нужно считаться. С самого момента появления данного явления исследовательское сообщество вовлечено в разработку технологий обнаружения дипфейков. Хотя работе над этим в некоторой степени и препятствует тот факт, что специалисты не могут взаимодействовать с материалом, который исследуют.

Несмотря на это, появляются способы, которые позволяют проверить видео на дипфейк и которые можно использовать в качестве уровня безопасности при видеозвонках. Технология создания дипфейков несовершенна, поэтому при сохранении бдительности не так трудно заметить подмену. Главное, что советуют всем пользователям – быть внимательными и не верить человеку на видео при плохом качестве. Мошенники часто используют «плохую связь» и «плохое интернет-соединение», чтобы было труднее заметить обман на видео. Так, в числе рекомендаций по выявлению фейков – увеличение освещенности монитора и оценка несоответствия областей лица. Для специалистов по безопасности подход должен предусматривать обнаружение и каталогизацию последовательных артефактов на дипфейковых видео, встраивание аспектов реального надежного видео в систему обнаружения фейков и сравнение потенциально фальсифицированного контента с известными биометрическими характеристиками.

Кроме того, специалисты организации Metaphysic.ai, занимающейся разработкой и исследованием контента на основе искусственного интеллекта, выявили одну интересную закономерность в дипфейках на видео. Эта закономерность – на самом деле уязвимость – заключается в том, что реалистичность видео пропадает при повороте лица в профиль, теряясь на больших углах поворота. При повороте в профиль становятся видны реальные контуры лица, не совпадающие с фейковыми, при этом исчезает сглаживание между ними, а также с фоном.

Дипфейки.png

Почему так происходит? Стандартный софт (Facial Alignment Network), который оценивает положения лица на изображениях в пакетах дипфейков, работает ненадежно под острыми углами. Большинство алгоритмов выравнивания лица на основе 2D на самом деле переносят только примерно половину ориентиров с вида лица в анфас на вид в профиль. Типичные пакеты выравнивания 2D считают вид профиля скрытым на 50%, что затрудняет распознавание, а также точное обучение и последующий синтез лица. Часто бывает, что сгенерированные ориентиры профиля «выпрыгивают» из любой возможной группы пикселей, что может трансформироваться в отсутствующий глаз или другие исчезнувшие детали лица.

Именно эта «недоработка» дипфейков представляет собой потенциальный способ обнаружения «симулированных» корреспондентов в видеозвонках в реальном времени: если у вас есть подозрение, что человек, с которым вы разговариваете, может быть «клоном», попросите его повернуться боком не несколько секунд и всмотритесь в его изображение. 

Источник: biometricupdate.com, metaphysic.ai