Эксперты на примере видео с Захаровой рассказали, как распознать дипфейк

Общество

25 Просмотры 0

МОСКВА, 24 сентября. /ТАСС/. Нехарактерные мимика и моргание глаз, аномалии черт лица помогают распознать дипфейки, которые все чаще используются для разжигания политических и дипломатических скандалов. Об этом рассказали опрошенные ТАСС эксперты, комментируя фейковое видео с официальным представителем МИД России Марией Захаровой.

Специалист Global Fact-Checking Network Фаузан Аль-Рашид посоветовал проследить за глазами человека на видео. Моргание должно быть естественным, 15-20 раз в минуту с неравномерными интервалами.

"В то время как при глубокой подделке может наблюдаться слишком частое, слишком редкое или механически регулярное моргание, - заметил он. - Кроме того, изучите асимметрию лица, поскольку подлинные человеческие выражения демонстрируют естественную асимметрию, которую системам искусственного интеллекта часто не удается убедительно воспроизвести".

Аль-Рашид также посоветовал обратить пристальное внимание на линию роста волос, поскольку в дипфейках в этой области часто наблюдается размытость, мерцание или необычные цветовые переходы из-за несовершенства алгоритмов наложения.

"Алгоритмам дипфейка часто трудно поддерживать естественные движения и выражение лица", - резюмировал он.

Программы в помощь

Коллега Аль-Рашида по Global Fact-Checking Network Лили Онг отметила, что для создания видео с Захаровой использовался исходный достоверный ролик, к которому применялись частичная модификация нижней части лица с использованием технологии LipSync (синхронизация движения губ), а также полная генерация голоса. "Также на видео применялся дополнительный монтаж отдельных частей кадров", - добавила она.

"Помимо движения губ, едва заметные движения лицевых мышц и микровыражения, неотъемлемые от естественной речи и эмоциональной глубины, позволили бы нам распознать подделку даже без сложного программного обеспечения", - сказала эксперт.

По ее словам, для точного определения подделки существуют специальные программы

Разработчиком одной из них является АНО "Диалог Регионы". Их система "Зефир" анализирует и мониторит сфабрикованный аудиовизуальный контент, в том числе дипфейки, на основе сочетания моделей машинного обучения.

Разработчики этой системы по результатам проверки рассказали ТАСС, что на видео с Захаровой "зафиксировано использование генеративных систем, направленных на манипуляцию биометрических данных".

Ни одного слова правды

Ранее в соцсетях распространилось видео с негативным комментарием в адрес президента Казахстана Касым-Жомарта Токаева якобы от лица Марии Захаровой. МИД России назвал это видео грубой и циничной фальшивкой, целенаправленно вброшенной в казахстанское цифровое поле с целью вбить клин между странами.

В ведомстве подчеркнули, что ни одно слово из сфабрикованного видео не является правдой. В МИД также показали исходное видео, которое использовалось для создания дипфейка. 

Как Вы оцените?

0

ПРОГОЛОСОВАЛИ(0)

ПРОГОЛОСОВАЛИ: 0

Комментарии