Друг ex machina
Да, уже есть немалое количество проявлений ИИ, которые не просто ведут осмысленный диалог, но и генерируют эксклюзивные аватары для виртуального общения. Что уж говорить, есть нейросети, которые имитируют манеру речи самых разных реальных и нереальных персонажей — начиная с Альберта Эйнштейна и заканчивая Шерлоком Холмсом.
Вероятно, величайший детектив в истории литературы и смог бы с легкостью разобрать ваш психологический портрет, но есть и нейросети, которые изначально задуманы как виртуальные помощники в вопросах довольно личного характера. Но в основном, конечно, пользователи обращаются к наиболее популярным языковым моделям.
Мечтают ли люди об электропсихологах?
Психолог, доктор философских наук и академический директор ООО "Онлайн институт Смарт" Дарья Гребенюк высоко оценивает подготовленность нейросетей и их способность к обучению, но считает, что они не могут дать экспертную оценку состоянию человека. "При общении с психологом или к консультантом-человеком у вас происходит живое общение либо даже общение посредством дистанционных форм связи. Существуют же понятия "вербалики" и "невербалики", и это очень хорошо считывают специалисты", — заявляет психолог. Она напоминает, что машина не способна понять состояние пользователя, его переживания и все, что предшествует диалогу с ним.
Гребенюк уверена, что главное преимущество настоящего психотерапевта (человека) — умение задать уточняющие вопросы, ориентируясь на интонацию и поведение человека. "Грубо говоря, каждая буковка вашего сообщения для нейросети — это определенный зашифрованный код, который она считывает, не более
Но если вы все-таки решитесь обратиться к искусственному интеллекту за советом, то необходимо понимать, что находится в его компетенциях. Да, вы сможете получить конструктивный ответ на вопросы околопсихологического характера — к примеру, узнать отличия клинического психолога от медицинского или бихевиористов от гештальтистов. "В этом случае можно понять, какие специалисты существуют на рынке психологии, какие новые направления существуют на рынке психологических услуг. Но если вы хотите получить четкий ответ на ваши проблемы, как вам их решить, то, безусловно, нет", — говорит Гребенюк. Также, по ее словам, нужно учитывать, что [и живые] психологи не дают советы о том, как жить. Их задача — вывести человека в нужное русло при принятии решений.
Саму тенденцию обращаться к нейросети как к психологу эксперт связывает именно с видимыми безопасностью и анонимностью вопросов. Пользователи часто боятся делиться своими проблемами из-за домыслов о неэтичности или нетактичности. Гребенюк же это называет "сделкой с совестью". "Вы вроде как себя обелили, вывернули и задали вопрос искусственному интеллекту ровно так, как вы его хотели спросить живого. А живой психолог в этот же момент мог бы вывести вас на более откровенный разговор и в этом случае получить чистые данные", — считает она.
Бегущие по лезвию анонимности
Помимо того, что неясно, может ли дать нейросеть компетентный ответ, ставится под вопрос и анонимность. Недавно генеральный директор OpenAI Сэм Альтман, создатель одной из самых популярных нейросетей ChatGPT, поднял вопрос об откровенных диалогах с искусственным интеллектом. Он обратил внимание на то, что очень большое количество пользователей обращается к нейросетям с советами по разным темам, но не смог гарантировать полную анонимность. "Если вы поговорите с ChatGPT о самых сокровенных вещах, а потом будет какой-нибудь судебный иск или что-то в этом роде, от нас могут потребовать предоставить эту информацию", — говорит Альтман. С его точки зрения, в общении с ИИ должна соблюдаться та же концепция конфиденциальности, что и в общении с психотерапевтом, и эта тема требует особого внимания.
Профессор Центра ИИ Сколтеха, заведующий Лабораторией доверенного ИИ Иван Тюкин рассказывает, что прецеденты, связанные с разглашением переписок с ChatGPT, уже были. "Самый громкий, на моей памяти, это история двух нью-йоркских адвокатов, оштрафованных на $5 тыс. за то, что они сослались на несуществующие прецеденты, сгенерированные ChatGPT. Именно раскрытие переписки с нейросетью сыграло ключевую роль: судья запросил историю диалога с моделью и увидел, как были сфабрикованы "дела", — говорит он.
А вот что касается именно нейросетевой психотерапии, то проблемных ситуаций на законодательном уровне с ней не было. Хотя, по словам профессора, зарубежные СМИ регулярно предупреждают о возможных рисках. "Два года назад в Los Angeles Times писали, что большинство психочат-приложений не подпадают под HIPAA (американский закон "О мобильности и подотчетности медицинского страхования" — прим. ТАСС) и могут хранить тексты "бесконечно и без шифрования", — предостерегает он.
Как оказалось, еще с 2023 года у ChatGPT была функция, позволяющая пользователям открывать содержание своей переписки поисковым системам. При общении с нейросетью можно было выбрать галочку с текстом "Сделать этот чат доступным", из-за чего диалог можно было найти при запросе в поисковике. Эта возможность была обнаружена только в начале августа этого года, и, после того как интернет накрыло волной возмущений, OpenAI решила отключить функцию, ссылаясь на ее экспериментальный характер.
Сколько хранятся наши секреты?
Тюкин небезосновательно считает, что необходимо устанавливать рамки общения с нейросетями. "Разговор с ИИ не защищен врачебной или адвокатской тайной. Все, что вы напишете, потенциально может оказаться в руках модератора, правоохранителей или в обучающих выборках", — говорит эксперт. По его словам, обращаться к ИИ для получения банальных житейских советов вполне допустимо, но если речь о травмах, диагнозах, юридических спорах — то предпочтительнее либо анонимизировать детали, либо выбрать сервис, который подписывает с пользователем отдельное соглашение о неиспользовании данных для обучения нейросети.
Немаловажно учитывать, что данные, которые пользователь сообщает ChatGPT, официально хранятся 30 дней, после чего безвозвратно удаляются. А вот что касается DeepSeek, то данные хранятся ровно столько, сколько необходимо для работы сервиса, — фактически ровно столько, сколько существует ваш аккаунт. "После удаления профиля компания обещает "удалить или обезличить" переписку, но точных сроков не называет, а по запросу государственных органов доступ к этим данным могут предоставить значительно проще, чем на Западе", — говорит Тюкин.
Российская нейросеть GigaChat тоже действует по похожим условиям. По словам профессора, пользователь автоматически выдает бессрочную неэксклюзивную лицензию на хранение и техническое копирование всего, что он сгенерировал в чате. "Персональные данные могут обрабатываться весь период действия соглашения и дальше, если это требуется для выполнения законных обязательств. Формально история переписки может жить годами, пока существует ваш аккаунт или пока Сбер (владелец GigaChat — прим. ТАСС) обязан что-то хранить для регуляторов, а серверы находятся в России, поэтому доступ госорганов упрощен", — заявляет эксперт. Также он обращает внимание на то, что в марте 2025 года Госдума в первом чтении одобрила поправки, которые обяжут онлайн-платформы в российской юрисдикции хранить переписку и метаданные не год, а три. В случае если данный закон будет принят, то минимальный срок "забвения" для сервисов по типу GigaChat вырастет еще.
Резюмируя, можно сказать — общаться с ИИ можно и порой даже полезно. Но помните — любое ваше слово может быть использовано против вас.
Даниил Хмелевской
Комментарии