Редакция сайта ТАСС
МОСКВА, 2 ноября. /ТАСС/. Дипфейки, полностью копирующие все в конкретном живом человеке, уже вполне могут создавать мошенники - хотя у них есть некоторые преграды для этого, сообщил ТАСС директор Kaspersky GReAT (центр исследований и анализа угроз) Игорь Кузнецов.
Читайте также
Цифровая чума: как фото- и видеофейки убивают доверие к новостям

Сейчас, по его словам, нейросети позволяют сгенерировать "относительно убедительное" видео, полностью же скопировать все особенности конкретного живого человека - движения, разговор, внешний вид - "все еще очень тяжело", поскольку затратно и требует технических навыков.
"Пока дипфейков такого уровня мы не видим, хотя создать их вполне реально - все упирается в возможности и инструментарий, который доступен конкретным злоумышленникам", - допустил Кузнецов.
Уже более года, по его словам, в "Лаборатории Касперского" следят за "теневым ИИ" (Dark AI) - это языковые модели, создаваемые киберпреступниками для киберпреступников. На этом рынке, сказал Кузнецов, пока нет специалистов, способных на дипфейки уровня больших коммерческих компаний и студий.
Комментарии