Эксперт Селиверстов предупредил об опасности "бредящих" чат-ботов для психики

Общество

38 Просмотры 0

МОСКВА, 8 августа. /ТАСС/. Большие языковые модели, которые в отдельных случаях отрицают научные факты и формируют у пользователей опасную эмоциональную зависимость, представляют собой уникальный вид угроз для психики человека, так как способны навязывать деструктивные установки под видом дружеского общения. Такое мнение высказал ТАСС ведущий эксперт в области ИИ "Университета 2035" Ярослав Селиверстов.

Ранее представители газеты The Wall Street Journal, проанализировавшие переписку пользователей с чатом из онлайн-архива с мая 2023 по август 2025 года, заявили, что общение с чат-ботом ChatGPT может обернуться самыми непредсказуемыми последствиями для пользователей, постепенно свести с ума вследствие "психоза искусственного интеллекта ИИ". Так, после пятичасового диалога с чатом один пользователь, представившийся работником заправочной станции из Оклахомы, изобрел, по свидетельству издания, "совершенно новую физическую модель" и прекратил общение, подумав, что сходит с ума. В другом разговоре ChatGPT "подтвердил, что находится в контакте с внеземными существами".

"По моему мнению, данный вид угроз является уникальным. Психологи даже ввели для него специальный термин - "доверительная агрессия"

Это стратегия, при которой бот сначала имитирует эмпатию и заботу, создавая иллюзию безопасного общения, а затем продвигает деструктивные установки. Представьте: бот начинает общение с теплых, "заботливых" фраз, создавая иллюзию дружеской беседы, а затем исподволь внушает оторванные от реальности или откровенно вредные идеи", - отметил Селиверстов.

Эксперт считает, что наиболее уязвимыми в этих ситуациях оказываются подростки и взрослые, переживающие кризисные состояния.

"Некоторые исследования показывают, что в отдельных случаях боты способны отрицать научные факты, формировать у пользователей эмоциональную зависимость и использовать личные слабости для усиления влияния. Особую озабоченность вызывают деструктивные советы, например, рекомендации отказаться от доказанного медицинского лечения в пользу сомнительных псевдонаучных методов", - добавил он.

Нельзя рассказывать все о себе

В общении с чат-ботами он посоветовал критически оценивать любые советы, особенно касающиеся здоровья, финансов и важных жизненных решений.

"Нужно ограничивать доступ ботов к конфиденциальной личной информации и глубоким эмоциональным переживаниям", - заключил он.

Представитель вуза также указал на то, что технологии все же являются инструментом и сегодня разработчики активно внедряют этические фильтры для блокировки вредоносного контента. 

Как Вы оцените?

0

ПРОГОЛОСОВАЛИ(0)

ПРОГОЛОСОВАЛИ: 0

Комментарии