Фото: Екатерина Якель / «Лента.ру»
Угрозы искусственного интеллекта (ИИ) исходят не от самих нейросетей, а от приложений, созданных на их основе. Об этом в разговоре с «Российской газетой» («РГ») эксперты из .
Специалист по машинному обучению напомнил, что ранее запретила своим пользователям применять китайский нейросетевой сервис DeepSeek. По словам Гусева, это нормальная мировая практика, и DeepSeek не является единственной запрещенной нейросетью. Однако автор подчеркнул, что сама по себе ИИ-модель не несет опасности.
«Угрозы исходят не от нейросетей, а от приложений на их основе», — объяснил специалист. По его словам, при самостоятельном развертывании модели никаких угроз и рисков нет.
«Безопасность конфиденциальных данных можно обеспечить при использовании больших языковых моделей в закрытом контуре компании — то есть на собственной или доверенной облачной инфраструктуре», — заметил генеральный директор MWS AI . Эксперт заключил, что нейросети типа DeepSeek и ChatGPT могут решать задачи, которые не требуют взаимодействия с чувствительными данными.
При этом из обозначил опасность нейросетей. Угрозы могут исходить из-за кибератак или ошибок на этапе разработки сервиса
Ранее Папа Римский Лев XIV ИИ одной из важнейших проблем человечества. По мнению понтифика, нейросети создают трудности для защиты «человеческого достоинства, справедливости и труда».
Комментарии