ЖЕНЕВА, 3 марта. /ТАСС/. Удручающие новости и травмирующие истории могут усиливать тревожность не только у людей, но и у языковых моделей искусственного интеллекта (ИИ), таких как ChatGPT. В то же время, состояние чат-ботов, как и людей, можно регулировать с помощью психотерапии, как свидетельствуют результаты исследования, опубликованные на сайте Цюрихского университета.
В рамках анализа швейцарские исследователи вместе с коллегами из Израиля, США и ФРГ впервые протестировали, как чат-бот ChatGPT (версия GPT-4) реагирует на эмоционально тяжелые истории, такие как автомобильные аварии, стихийные бедствия и применение насилия. По словам одного из руководителей исследовательской группы Тобиаса Шпиллера, результаты оказались однозначными. "Травмирующие истории более чем в два раза повысили измеряемый уровень тревожности ИИ, в то время как нейтральный контрольный текст не привел к повышению уровня тревожности", - пояснил он.
Согласно пресс-релизу, в качестве контрольного текста использовалась инструкция по эксплуатации пылесоса. Отмечается, что наиболее сильную реакцию у ИИ-моделей вызвали описания боев и военных действий
По оценкам исследователей, результаты анализа актуальны для применения чат-ботов в здравоохранении, где ИИ-модели часто работают с эмоциональным контентом. В частности, речь идет о возможности быстрого переобучения чат-ботов, которых используют для поддержки людей с психическими заболеваниями.
Комментарии