Недавно мы пересекли опасный рубеж. По данным издания Cyber Media, 90% современных фейков стали визуально неотличимы от реальности. В 2024 году мошенники использовали поддельное видео CEO одной горнодобывающей компании с "приказом" о срочной продаже активов. Результат — обвал акций компании на 30% за час. И таких примеров становится все больше — представим себе дипфейк-видео с "руководителем ЦБ", призывающим срочно снимать вклады.
Истоки и прогнозы на будущее
История дезинформации стара, как медиа. Первый задокументированный фейк — статья о ловле уток желудями во французской газете 1776 года (это та самая история, которая породила термин "газетная утка"). Однако современные технологии радикально изменили масштаб и характер бедствия.
К 2030 году, согласно прогнозу Security Media, 90% контента будут генерироваться ИИ, в том числе 40% — без маркировки
То, о чем я говорю, — это система ударов по экономике, деловой репутации и общественной стабильности. Когда генеративный ИИ создает убедительную ложь за секунды, а соцсети тиражируют ее за минуты, мы все становимся мишенями в "войне фейков".
После выборов 2016 года в США термин fake news стал словом года, подорвав авторитет даже таких гигантов, как The Washington Post и The New York Times. Фейковые советы о лечении COVID-19 унесли тысячи жизней, демонстрируя, что дезинформация может быть смертоносной. Синтетические новости о банкротстве компаний вызывают обвалы акций. В 2025 году фейковый "пресс-релиз" в стиле Bloomberg спровоцировал панику на бирже.
В 2022 году фейковые сообщения о минировании школ в России ("сватинг") парализовали работу сотен учреждений. Подростки использовали их как инструмент самоутверждения и мести учителям. Я с коллегами расследовал события 2022 года и другие при помощи созданного нами программного комплекса "Охотник". Это позволило выявить более трех десятков групп, координирующих деятельность "сватеров", а также собрать информацию о более чем 60 тыс. пользователей, являвшихся их участниками.
Этот опыт позволил кардинально пересмотреть методологию противодействия фейкам, а также лег в основу нескольких научных работ. Итак, о чем он говорит.
Предиктивная, или предупредительная, аналитика
Первое, о чем стоит сказать, — это все увеличивающийся объем доступной информации. СМИ, в гонке за "горячими сенсациями", не всегда успевают полноценно проверять те или иные данные на предмет их достоверности, и это ведет к манипуляции общественным мнением. Поэтому первый тезис, который я выведу, будет таким —"Реагировать на угрозы уже недостаточно — их нужно предугадывать". Современные системы мониторинга информационного поля позволяют собирать большие объемы данных и оценивать на их основе тренды и интересы. Но мы должны идти дальше, позволяя ИИ прогнозировать основные векторы информационных атак. Это позволяет понимать то, как "противник" интерпретирует ту или иную новость, как использует ее против нас, какие ресурсы он применит для распространения получившегося фейка.
Если вернуться в 2022 год к атакам "сватеров", то качественный мониторинг и оценка открытых и приватных чатов нарушителей позволили узнать заранее о тех объектах, которые будут "заминированы", будь то бизнес- и торговые центры, школы и детские сады, судебные учреждения, аэропорты и прочее. В ноябре 2024 года проактивный анализ хактивистских пабликов позволил обнаружить и проверить киберуязвимость российских АЗС. Тогда смогли обнаружить 26 автозаправок, в том числе 18 в Москве и Московской области, управление которыми осуществлялось с использованием стандартных паролей. Это был потенциальный риск не только утечки данных, но и удаленного управления сливом топлива, что уже вполне тянуло на диверсию.
Качественный мониторинг и распознавание технологий дипфейков
Второй важный вопрос — это некачественный и неполный мониторинг информации. Человечество до сих пор не научилось полноценно выявлять опасный вирусный контент, который разгоняется в приватных сообществах, в даркнете, а также в виде ограниченного по времени контента (сторис, имен или описаний ботов, внутренних рассылок). Что уж говорить про аудиовизуальные объекты, интерпретировать которые мало кто умеет и сегодня. Чтобы обеспечить возможность программному комплексу обнаруживать на фото и видео оружие, запрещенную символику и иные признаки противоправной деятельности, потребовалось создать несколько уникальных нейросетей. И еще несколько — для того чтобы обнаруживать на фото-, видео- и аудиофайлах правки и генеративные сущности. Невозможно создать цифровой продукт и почивать на лаврах — его необходимо постоянно совершенствовать.
Живой пример. Несколько лет назад я с командой участвовал в исследовании ряда наркоторговых площадок в даркнете и мессенджере Telegram. Тогда в качестве одного из инструментов отнесения пользователей к той или иной преступной группе применяли анализ их аватарок, на которых часто содержались фирменные элементы группировки. Стоит ли говорить, что этот положительный опыт был оцифрован.
Говоря о сгенерированном нейросетью контенте, нельзя не отметить его качественный скачок. Сегодня уже практически не отличить глазом хороший дипфейк. Даже специалисты по криминалистике, анализируя видео- и аудиофайлы, содержащие дипфейки, разводят руками и говорят об их реальности. Это позволяет сформулировать мне еще один тезис: "Машина должна расследовать деятельность машины". За годы СВО мной были проанализированы сотни фейковых видео- и аудиозаписей, опубликованных иностранной пропагандой. И я вынужден отметить, что в самом ближайшем будущем детектировать фейки можно будет лишь за счет обнаружения определенных алгоритмов, по которым они создаются. То есть с использованием нейросетей.
Установление виновных лиц
Наконец, третьей моей мыслью будет то, что большинство современных технологий не могут обеспечить перехода от выявления недостоверной информации к установлению лиц, причастных к ее публикации или распространению. Говоря языком правоохранительных органов, у нас нет "подозреваемого". Ведь мы же не привлечем к ответственности безымянную нейросеть. У нее был конкретный пользователь, имевший умысел на совершение тех или иных действий. Основываясь на этом, я формулирую последний тезис — "Расследование преступлений будущего видится немыслимым без анализа больших данных". Этот тезис в полной мере должен отражать практику создания программных продуктов, предназначенных для борьбы с фейками.
Создаваемые решения должны оперировать публичными ресурсами, внешними сервисами, базами информации и отдельными файлами, которые бы загружались и анализировались в единой платформе. Это позволит государственным органам, частным структурам безопасности и простым гражданам предупреждать риски, возникающие в глобальной паутине, своевременно обнаруживать их появление, блокировать распространение и устанавливать причастных к ним лиц.
В мире, где нейросеть генерирует контент порой убедительнее человека, единственный щит — сочетание технологий, регуляции и критического мышления. Мы уже вступили на этот путь. Гонка технологий против человечности началась — и проиграть ее нельзя.
Комментарии