Редакция сайта ТАСС
МОСКВА, 20 ноября. /ТАСС/. Российские ученые предложили пошаговую схему безопасного внедрения больших языковых моделей в университетах, которая учитывает типичные причины сбоев и помогает выстроить работу с ИИ таким образом, что использование этих нейросетей будет нести минимальные риски для образовательного процесса. Об этом сообщила пресс-служба НИУ ВШЭ.
"Мы перевели разговор об ИИ из общих слов в понятный план, определяя приоритеты, роли и точки контроля. Подход поэтапный и управляемый, его можно адаптировать под разные программы и масштабы. Он помогает выстроить прозрачные правила, укрепить доверие к оцениванию и сформировать культуру ответственного использования ИИ", - пояснил доцент Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ Андрей Терников, чьи слова приводит пресс-служба вуза.
Как отмечает Терников, за последние два года большие языковые модели заметно изменили то, как в вузах учатся и оценивают знания. И студенты, и преподаватели активно используют ИИ в своей деятельности, причем теперь последним очень сложно оценить то, написал ли студент работу сам и определить то, где использование больших языковых моделей и помощь со стороны ИИ является допустимой и полезной.
Специалисты из Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ изучили, как и в каких ситуациях возникают сбои в работе ИИ в вузовской среде и выявили ситуации, в которых модель дает неточные ответы, спотыкается на формулировках, опирается на сомнительные данные, а проверить результат трудно из-за расплывчатых политик применения технологии.
Опираясь на эти сведения, ученые подготовили пошаговую схему из четырех последовательных шагов, позволяющую внедрить ИИ в работу вузов и минимизировать связанные с ним риски
"Наш подход помогает выстроить прозрачные правила, укрепить доверие к оцениванию и сформировать культуру ответственного использования ИИ. Так, проблемы с приватностью данных можно решить, внедрив надежные протоколы безопасности и методы анонимизации. Технические ограничения частично решаются за счет облачных сервисов или открытых решений, а трудности во взаимодействии людей с ИИ - за счет внедрения понятных правил и обучения", - подытожил исследователь.
Комментарии