Несмотря на то, что случаи
утечек данных через нейросети остаются предметом дискуссий и пока
не получили окончательного подтверждения, рисковать не стоит,
рассказал руководитель Центра цифровой экспертизы Роскачества
Эксперт предупредил, что пользователи, загружая конфиденциальную информацию в ChatGPT и другие нейросети, создают потенциальную возможность ее неправомерного использования в будущем. Он напомнил, что технологии постоянно развиваются, и вчерашняя защита может оказаться уязвимой завтра.
«Категорически нельзя загружать данные, которые могут скомпрометировать вас или других людей. К этой категории относятся паспортные данные, сетевые идентификаторы, платежные данные карт, медицинские записи, логины и пароли от сервисов, а также любые другие сведения, позволяющие идентифицировать конкретного человека и потенциально использовать их во вред», — рассказал собеседник «Ленты.ру».
Кузьменко добавил, что наиболее безопасным сценарием общения с нейросетью является использование обезличенных массивов данных. Это означает, отметил он, что перед загрузкой необходимо удалить всю информацию, которая может указать на конкретного человека. Если информация может быть использована против кого-либо, лучше воздержаться от вопроса и решить задачу самостоятельно, заключил эксперт.
Ранее сообщалось, что ChatGPT
Комментарии