Фото: Freepik
Злоумышленники начали активно применять голосовые сообщения, сгенерированные нейросетями, имитируя речь знакомого человеку собеседника. Об этом в интервью RT старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников.
Алгоритм обучается на реальных записях голоса, выделяет устойчивые признаки и синтезирует новое сообщение, вызывающее эффект узнавания. Это снижает критическое восприятие у жертвы. Однако, по словам специалиста, модель не копирует, а воссоздает речь заново, из-за чего возникают неестественные паузы, смещенные ударения и колебания интонации. При внимательном прослушивании подделку можно заметить.
Рыбников советует обращать внимание на акустические детали: нестабильный тембр, ровное или отсутствующее дыхание, вставленные паузы, а также на содержание — нетипичные формулировки, избыточные объяснения или просьбы срочно выполнить действие. Тем не менее, технологии быстро развиваются, и синтезированный голос звучит убедительно, особенно в условиях спешки или эмоционального давления.
Ранее доцент СПбГУ, эксперт , генеральный директор АНО «Колаборатория» Анна Сытник о неожиданном влиянии искусственного интеллекта на жизнь людей. По ее словам, распространение этой технологии может развивать критическое мышление.
Комментарии