Особенно важно очищать кэш и
временные данные, если устройство с искусственным интеллектом (ИИ)
используется несколькими людьми. Об этом в беседе с RT
По его словам, научные исследования показали, что ИИ-модели могут быть подвержены атакам, при которых могут извлекаться пользовательские данные.
«Злоумышленники способны получить доступ к информации, которую пользователь вводил в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на пользовательских запросах», — отметил Рыбников.
Как пояснил специалист, при использовании ИИ-сервисов у пользователя должно быть понимание, где и как обрабатываются его запросы. Особенно речь идет про зарубежные сервисы.
При этом, один из самых безопасных вариантов — применение локальных ИИ-решений, поскольку подобные модели работают автономно и передают данные в облако. Также помочь от утечки может ручная фильтрация вводимых данных: Рыбников рекомендовал удалять личные имена, контактные сведения, номера документов и другие чувствительные фрагменты.
В этой связи пользователям также может помочь шифрование файловой системы, которое можно включить с помощью встроенных средств Windows, macOS или Linux.
Ранее в России
Комментарии