МОСКВА, 8 августа. /ТАСС/. Обсуждаемые в СМИ риски негативного влияния больших языковых моделей на психическое здоровье пока не опираются на выводы исследований. Такие опасения чрезмерны, так как речь идет об уже привычной человеку опасности заведомо ложных данных, сообщил ТАСС эксперт рынка НТИ "Хелснет", и.о. директора МНОЦ нейропсихиатрии СамГМУ Арсений Гайдук.
"Опасения по поводу вреда ИИ для психического здоровья, на наш взгляд, чрезмерны - опасность заведомо недостоверной информации вполне привычна современному человеку. Стоит упомянуть, что характер и качество информации, которую выдают чат-боты на основе ИИ, в огромной степени зависит от формы пользовательского запроса, который, по мнению нейросети, как бы содержит в себе входные данные для решения задачи. Если задача сформулирована плохо, предложенные решения будут отражать качество запроса", - пояснил он.
Врач также отметил, что разработчики языковых моделей не заявляли о том, что эти ассистенты предназначены для обсуждения глубоких личных переживаний, поэтому такое применение может приводить к противоречивым результатам.
"Достоверных литературных данных о влиянии использования ИИ на психологическое состояние пользователей пока недостаточно
Он также не исключил, что от использования чат-бота могут пострадать и психически стабильные люди, которые не склонны к использованию критического мышления и проверке информации.
Странности в переписке
Ранее представители
газеты The Wall Street Journal, проанализировавшие переписку
пользователей с чатом из онлайн-архива с мая 2023 по август 2025
года,
Так, после пятичасового диалога с чатом один пользователь, представившийся работником заправочной станции из Оклахомы, изобрел, по свидетельству издания, "совершенно новую физическую модель" и прекратил общение, подумав, что сходит с ума. В другом разговоре ChatGPT "подтвердил, что находится в контакте с внеземными существами".
Комментарии