Редакция сайта ТАСС
МОСКВА, 22 октября. /ТАСС/. Мошенники активно используют нейросети на базе искусственного интеллекта для создания убедительных голосовых копий родственников, рассказали ТАСС в Центре цифровой экспертизы Роскачества. Для этого злоумышленникам нужен лишь короткий образец голоса, который легко добыть из аудиосообщений в мессенджерах или видео в соцсетях, отметили эксперты.
"Технологии достигли такого уровня, когда по голосу или видео в реальном времени уже сложно отличить имитацию от реального человека. В особой зоне риска пожилые люди и подростки. Проведите беседу с близкими, придумайте кодовое слово для своих, чтобы точно знать, когда звонят чужие. Один личный вопрос, встроенный в диалог, - и мошенник, использующий ИИ, будет разоблачен", - сказал руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко.
При возникновении сомнений нужно немедленно положить трубку и перезвонить человеку на его номер, чтобы убедиться, что с ним все в порядке
По данным организации, сгенерированные нейросетями изображения стали настолько реалистичными, что, по последним данным, большинство россиян (от 62% до 80%) не могут отличить их от настоящих. Однако существуют четкие признаки, которые помогают распознать обман и избежать мошенничества, например неестественная мимика часто выдает подделку - в таком случае движения на лице выглядят странно, а эмоции не соответствуют смыслу слов. Еще один важный показатель - качество изображения, например размытость или пикселизация вокруг губ и глаз. Синхронизация звука и видео также выдают дипфейк: если речь не совпадает с движением губ, скорее всего, это цифровой клон, подчеркнули эксперты.
В Роскачестве отметили, что ключевой поведенческий маркер, по которому можно выявить мошенников, - это запрет виртуального собеседника перезванивать и нахождение отговорок, чтобы избежать личной встречи, с требованиями срочного перевода денег.
Комментарии