МОСКВА, 24 сентября. /ТАСС/. Нехарактерные мимика и моргание глаз, аномалии черт лица помогают распознать дипфейки, которые все чаще используются для разжигания политических и дипломатических скандалов. Об этом рассказали опрошенные ТАСС эксперты, комментируя фейковое видео с официальным представителем МИД России Марией Захаровой.
Специалист Global Fact-Checking Network Фаузан Аль-Рашид посоветовал проследить за глазами человека на видео. Моргание должно быть естественным, 15-20 раз в минуту с неравномерными интервалами.
"В то время как при глубокой подделке может наблюдаться слишком частое, слишком редкое или механически регулярное моргание, - заметил он. - Кроме того, изучите асимметрию лица, поскольку подлинные человеческие выражения демонстрируют естественную асимметрию, которую системам искусственного интеллекта часто не удается убедительно воспроизвести".
Аль-Рашид также посоветовал обратить пристальное внимание на линию роста волос, поскольку в дипфейках в этой области часто наблюдается размытость, мерцание или необычные цветовые переходы из-за несовершенства алгоритмов наложения.
"Алгоритмам дипфейка часто трудно поддерживать естественные движения и выражение лица", - резюмировал он.
Программы в помощь
Коллега Аль-Рашида по Global Fact-Checking Network Лили Онг отметила, что для создания видео с Захаровой использовался исходный достоверный ролик, к которому применялись частичная модификация нижней части лица с использованием технологии LipSync (синхронизация движения губ), а также полная генерация голоса. "Также на видео применялся дополнительный монтаж отдельных частей кадров", - добавила она.
"Помимо движения губ, едва заметные движения лицевых мышц и микровыражения, неотъемлемые от естественной речи и эмоциональной глубины, позволили бы нам распознать подделку даже без сложного программного обеспечения", - сказала эксперт.
По ее словам, для точного определения подделки существуют специальные программы
Разработчики этой системы по результатам проверки рассказали ТАСС, что на видео с Захаровой "зафиксировано использование генеративных систем, направленных на манипуляцию биометрических данных".
Ни одного слова правды
Ранее в соцсетях распространилось видео с негативным комментарием в адрес президента Казахстана Касым-Жомарта Токаева якобы от лица Марии Захаровой. МИД России назвал это видео грубой и циничной фальшивкой, целенаправленно вброшенной в казахстанское цифровое поле с целью вбить клин между странами.
В ведомстве подчеркнули, что ни одно слово из сфабрикованного видео не является правдой. В МИД также показали исходное видео, которое использовалось для создания дипфейка.
Комментарии