МОСКВА, 24 июля. /ТАСС/. Развитие искусственного интеллекта влечет за собой совершенствование технологии создания сфабрикованного контента, который может быть использован с целью создания международных конфликтов, что продемонстрировала недавняя история с фейковым видео с представителем МИД России Марией Захаровой. Опрошенные ТАСС эксперты рассказали, как научиться распознавать подобные дипфейки.
Распространенное в социальных сетях видео с негативным комментарием Захаровой в адрес президента Казахстана Касым-Жомарта Токаева МИД России назвал грубой и циничной фальшивкой, целенаправленно вброшенной в казахстанское цифровое поле с целью вбить клин между Россией и Казахстаном.
Эксперт Международной ассоциации по фактчекингу Global Fact-Checking Network Фаузан Аль-Рашид рассказал, что при проверке подобных видеороликов необходимо искать несоответствия: аномалии в чертах лица, в нестыковке освещения и теней и в аудиовизуальной синхронизации. Также он рекомендовал обратить внимание на моргания человека - их количество должно быть естественным - 15-20 раз в минуту с неравномерными интервалами.
"В то время как при глубокой подделке может наблюдаться слишком частое, слишком редкое или механически регулярное моргание, - заметил он. - Кроме того, изучите асимметрию лица, поскольку подлинные человеческие выражения демонстрируют естественную асимметрию, которую системам искусственного интеллекта часто не удается убедительно воспроизвести".
Аль-Рашид также посоветовал обратить пристальное внимание на линию роста волос, поскольку в дипфейках в этой области часто наблюдается размытость, мерцание или необычные цветовые переходы из-за несовершенства алгоритмов наложения. "Алгоритмам дипфейка часто трудно поддерживать естественные движения и выражение лица", - подчеркнул он.
С помощью программы и без
Его коллега по Global Fact-Checking Networ Лили Онг при ближайшем рассмотрении определила, что вирусное видео с Захаровой - дипфейк
"Помимо движения губ, едва заметные движения лицевых мышц и микровыражения, неотъемлемые от естественной речи и эмоциональной глубины, позволили бы нам распознать подделку даже без сложного программного обеспечения", - подчеркнула эксперт.
Для точного определения подделки существуют специальные программы. Разработчиком одной из них является российская организация "Диалог Регионы". Их система "Зефир" анализирует и мониторит сфабрикованный аудиовизуальный контент, в том числе дипфейки, на основе сочетания моделей машинного обучения.
"По результатам оценки видеоматериала системой противодействия дипфейкам «Зефир», зафиксировано использование генеративных систем, направленных на манипуляцию биометрических данных", - рассказали ТАСС разработчики системы после проверки дипфейка с представителем МИД России.
В министерстве ранее , что ни одно слово из сфабрикованного видео не является правдой. В ведомстве привели видеосравнение фейка и исходного отрывка для наглядной демонстрации.
Комментарии