Всего пять-семь лет назад создание правдоподобного "липового" видео требовало студии Motion Capture (технология, которая позволяет переносить движение людей на компьютерные модели) и команды специалистов. Сегодня достаточно ноутбука и нескольких минут — порог входа упал до уровня бытового фоторедактора: нажал кнопку — получил дипфейк. Когда технология становится игрой для школьников, она неизбежно превращается в инструмент для мошенников.
Опасность как для бизнеса, так и для простых людей
Мы наблюдаем сдвиг проблемы из академической плоскости в сферу массового злоупотребления. Федеральная торговая комиссия США в своем ежегодном отчете указала 845 806 жалоб на imposter scams (тип мошенничества, при котором злоумышленник выдает себя за другого человека или организацию) и почти $2 млрд прямых потерь из-за этого вида мошенничества за 2024 год. А доля схем с использованием синтетических голосов и картинок растет быстрее остальных.
Deloitte, крупнейшая компания, которая оказывает аудиторско-консалтинговые услуги, прогнозирует, что к 2027 году совокупные убытки от мошенничества, усиленного генеративным ИИ, только в США поднимутся до $40 млрд против $12,3 млрд в 2023-м.
Причины риска для электронной коммерции очевидны. Во-первых, верификация продавцов и покупателей: фальшивый паспорт в совокупности с клоном голоса ломают устоявшиеся процедуры идентификации пользователей, а значит, подделка учетных записей становится конвейером. Во-вторых, репутационные атаки на бренд: поддельное видео "сотрудника маркетплейса", раздающего "скидку по секретной ссылке", за несколько часов расходится по мессенджерам
Регуляторы не успевают за контентом
Что будет дальше с развитием этой сферы? Порог входа продолжит падать: обучить систему делать дипфейки сегодня можно за 15 минут на игровой видеокарте компьютера, а завтра — на смартфоне. Детекторы, напротив, отстают от генеративных моделей примерно на одно-два поколения и будут догонять еще несколько лет. Регуляторы ускоряются: первая волна требований к обязательной маркировке синтетического контента уже заложена в европейском регламенте для разработки и использования систем искусственного интеллекта AI Act, вступившем в силу в феврале 2025 года. Аналогичные нормы разрабатывают Бразилия и Сингапур.
В США и Великобритании обсуждают похожие нормы: одни законопроекты запрещают распространение откровенных фальшивок без согласия, другие — сам акт создания. Параллельно индустрия продвигает технический стандарт C2PA, который встраивает цифровую подпись прямо в файл; первые камеры Nikon и Canon уже умеют шифровать метаданные на уровне сенсора. Но, по данным Оксфорда, 90% дипфейк-моделей все еще размещаются без каких-либо ограничений, а значит, проблема пока развивается быстрее, чем регуляция.
Рынок перешел из фазы вау-эффекта в фазу массового злоупотребления. Если платформы не научатся за минуты определять подделку, пользователи начнут решать свои вопросы в суде, а не в корзине покупок.
Чего ждать?
- Обратный эффект правды. Чем больше дипфейков, тем легче объявить подделкой любое подлинное видео. Мы сталкиваемся с "дивидендами лжеца": аудитория перестает верить глазам.
- Мгновенные фейки в мессенджерах. Модели "ускорились" настолько, что с легкостью обрабатывают кадры на современных смартфонах. Через год-два "шутка" с чужим лицом в видеочате станет обыденностью.
- Гонка "меч и щит". Детекторы улучшаются, но злоумышленники добавляют шумоподавление и стирают сигнатуры. Полной, стопроцентной защиты не будет — придется работать на упреждение.
Что делать прямо сейчас?
Обычным людям необходимы ключевые навыки — скепсис и киберосознанность: проверять источник медиа, ставить видео на паузу и искать кадры по картинке. Если кадр уже мелькал в другом видео, выдача покажет, откуда его взяли. Так можно быстро понять, что "прямая трансляция" была записана много лет назад. При звонке "родственника" всегда перезванивать на известный номер или подтверждать личность собеседника вопросом, ответ на который точно известен только ему. Стоит также рассказать членам семьи, особенно пожилым, о том, как устроены дипфейки и с какими потенциальными рисками они связаны.
Компании же должны переходить к мультимодальной проверке личности: объединять фото документа, живое селфи-видео и поведенческую биометрию, а "легкие" модели детекции запускать прямо в мобильном приложении, чтобы 80% фейков отсекались до попадания на сервер. Поставщикам ИИ следует внедрять водяные знаки и сквозные идентификаторы кадров по умолчанию, публиковать отчеты о красных командах и картах рисков.
Государствам стоит обязать платформы удалять заведомо поддельные материалы по заявлению жертвы без решения суда и финансировать тестовые песочницы, где маркетплейсы смогут тренировать свои детекторы на реальных, но защищенных наборах дипфейков.
Wildberries и Russ уже разворачивает многоуровневую систему защиты своих сервисов. В 2024 году компания разработала и начала внедрять модуль, который в онлайн-режиме проверяет различные объекты (в том числе изображения — например, сгенерированные фото, скрытые видео, звук) на недостоверность. Система находит несколько тысяч единиц такого контента ежедневно. Это позволило сократить на 37% число заявок по мошенничеству квартал к кварталу. В 2025-м мы масштабировали защиту от фейков: нарастили обмен сигналами с банками и контент-партнерами, развиваем детекцию дипфейков, благодаря чему удается выявлять более 150 тыс. искусственно созданных изображений в месяц.
Гонка между создателями и ловцами дипфейков — это надолго. Но, как и в любой другой гонке вооружений, выиграет тот, кто первым научится действовать не в ручном режиме, а в промышленном масштабе. Если индустрия договорится о едином прозрачном протоколе подтверждения подлинности фото и видео — таком же привычном, как антивирус или 3-D Secure для платежей, — у пользователей сохранится доверие к цифровым доказательствам. В противном случае каждое фото, каждый звонок и каждое видео рискуют превратиться в мнение, а не факт — и тогда мы проснемся в мире, где доверие придется строить с нуля.
Комментарии