МОСКВА, 8 августа. /ТАСС/. Большие языковые модели, которые в отдельных случаях отрицают научные факты и формируют у пользователей опасную эмоциональную зависимость, представляют собой уникальный вид угроз для психики человека, так как способны навязывать деструктивные установки под видом дружеского общения. Такое мнение высказал ТАСС ведущий эксперт в области ИИ "Университета 2035" Ярослав Селиверстов.
Ранее представители
газеты The Wall Street Journal, проанализировавшие переписку
пользователей с чатом из онлайн-архива с мая 2023 по август 2025
года,
"По моему мнению, данный вид угроз является уникальным. Психологи даже ввели для него специальный термин - "доверительная агрессия"
Эксперт считает, что наиболее уязвимыми в этих ситуациях оказываются подростки и взрослые, переживающие кризисные состояния.
"Некоторые исследования показывают, что в отдельных случаях боты способны отрицать научные факты, формировать у пользователей эмоциональную зависимость и использовать личные слабости для усиления влияния. Особую озабоченность вызывают деструктивные советы, например, рекомендации отказаться от доказанного медицинского лечения в пользу сомнительных псевдонаучных методов", - добавил он.
Нельзя рассказывать все о себе
В общении с чат-ботами он посоветовал критически оценивать любые советы, особенно касающиеся здоровья, финансов и важных жизненных решений.
"Нужно ограничивать доступ ботов к конфиденциальной личной информации и глубоким эмоциональным переживаниям", - заключил он.
Представитель вуза также указал на то, что технологии все же являются инструментом и сегодня разработчики активно внедряют этические фильтры для блокировки вредоносного контента.
Комментарии