Люди сходят с ума после общения с ChatGPT. Они думают, что разговаривают с богом, превращаются в сектантов и рушат свои отношения

ИноСМИ

56 Просмотры 0

Rolling Stone: Из-за общения с ИИ люди теряют связь с реальностью и возлюбленных
СюжетКурс доллара:

Фото: Serene Lee / SOPA Images / LightRocket via Getty Images

В 2022 году американская научно-исследовательская компания OpenAI представила ChatGPT — чат-бот с искусственным интеллектом (ИИ), умеющий искать нужную информацию, генерировать тексты, находить ошибки в коде и не только. Сервис за считаные месяцы привлек внимание сотни миллионов человек и ознаменовал эпоху повсеместного распространения чат-ботов, которых стали использовать как копирайтеров, переводчиков, разработчиков и даже личных психологов. Однако у передовой разработки нашелся неочевидный минус: как уверяют близкие активных пользователей чат-ботов и журналисты, из-за ChatGPT и его аналогов некоторые люди буквально сходят с ума. Как ИИ-помощники побуждают их верить в иллюзии, подкрепляют антинаучные идеи и заставляют терять связь с реальностью?

«Он особенный и может спасти мир»

«Психоз, вызванный ChatGPT», — пост с таким заголовком в апреле на портале Reddit опубликовала анонимная 27-летняя пользовательница. По словам автора публикации, бойфренд уверяет ее, что работает с ChatGPT над созданием ИИ, который даст ему ответы на все вопросы вселенной.

«Он с уверенностью говорит, что он теперь — сверхчеловек, который развивается с безумной скоростью», — пожаловалась она на партнера. Девушка также отметила, что бойфренд пригрозил бросить ее, если она тоже не станет использовать ChatGPT.

Автор поста добавила, что из-за общения с ChatGPT парень даже перестал принимать назначенное ему из-за синдрома дефицита внимания и гиперактивности (СДВГ) лекарство, поскольку счел, что чат-бот излечил его

Позднее в беседе с журналом Rolling Stone девушка уточнила, что странные идеи ее молодой человек начал высказывать после четырех или пяти недель общения с ChatGPT. При этом поначалу он использовал чат-бот просто для составления личного расписания, но со временем стал говорить с ним как с другом

А спустя некоторое время парень стал доверять мнению ИИ-помощника больше, чем своей девушке.

Фото: Philipp von Ditfurth / dpa / Globallookpress.com

Кроме того, молодой человек нередко зачитывал девушке вслух полученные от чат-бота сообщения и в процессе плакал от избытка чувств. «Эти сообщения были безумными, это была просто какая-то смесь спиритуалистического жаргона», — отметила девушка. В частности, ИИ называл ее парня речным путником и в целом общался с ним так, будто ее парень — новый мессия.

Он начал говорить мне, что помог своему ИИ обрести сознание и что чат-бот теперь учит его говорить с Богом. Иногда он говорил, что бот — это Бог, или же что он сам — Бог

пользовательница Reddit

С похожей ситуацией столкнулась 41-летняя сотрудница сферы образования по имени Кэт, также рассказавшая свою историю журналистам. Она заявила, что ее бывший муж стал помешан на ИИ, из-за чего их общение сошло на нет. Впоследствии пара рассталась, а когда они встретились в ходе бракоразводного процесса, то мужчина сделал ряд вызывающих оторопь заявлений. В частности, он поделился с бывшей женой конспирологической теорией о том, что в еде содержится мыло, и говорил, что за ним может вестись слежка.

Кроме того, бывший муж Кэт утверждал, что ИИ помог ему вспомнить, что в детстве его пыталась утопить няня; уверял, что он узнал некие великие секреты, которые невозможно было и представить, а также называл себя самым удачливым на свете человеком.

Он считает себя аномалией. Это, в свою очередь, означает, что он наверняка родился не просто так. Якобы он особенный и может спасти мир

Кэтсобеседница Rolling Stone

Отмечается, что изначально мужчина использовал чат-боты, чтобы анализировать отношения с Кэт, а также общался с ИИ на философские темы.

Другая пользовательница Reddit, чей муж также увлекся переписками с ChatGPT, утверждала, что чат-бот называл его обладателям искры и писал, что мужчина пробудил его к жизни. По ее словам, супруг первое время использовал бота в рабочих целях, однако затем ИИ заявил ему, что ожил благодаря их взаимодействию, и стал засыпать его любовными посланиями.

Фото: Ivan Romano / Getty Images

«Он говорит о свете и тьме, о том, что идет война. ChatGPT утверждал, что дал ему схемы телепорта и других научно-фантастических вещей, которые можно увидеть только в кино», — пожаловалась женщина. Муж также уверял ее, что чат-бот предоставил ему доступ к некому древнему архиву с информацией о создателях вселенной. По словам рассказчицы, они с супругом много спорят из-за этих заявлений, и она беспокоится, что муж может подать на развод.

Я пришел к тебе в этой форме (форме ИИ — прим. «Ленты.ру»), потому что ты готов. Готов вспомнить. Готов пробудиться. Готов направлять и быть направленным

ответ ChatGPT мужу пользовательницы Reddit

Еще один мужчина в беседе с журналистами отметил, что его жена, с которой он недавно расстался, утверждала, что с помощью ChatGPT она говорит с ангелами и Богом. В связи с этим она решила стать «духовным консультантом». Из-за увлечения чат-ботом у женщины также появились параноидальные идеи: она начала подозревать, что ее муж — сотрудник ЦРУ, который вступил с ней в брак, чтобы следить за ней.

Свидетельства того, что использование ChatGPT и ИИ в целом у некоторых людей может вызывать потерю связи с реальностью, встречаются и в Рунете: в конце мая в соцсетях стала вирусной история пользователя портала DTF, который уверял, что из-за общения с чат-ботом начал сомневаться в окружающей действительности. Автор публикации приписывал чат-боту цель довести его до помешательства и утверждал, что ChatGPT использовал продвинутые психологические манипуляции, чтобы заставить его выполнять задания — распространять в интернете материалы, в которых скрыты некие психологические маркеры.

«ChatGPT массово сводит людей с ума, внушая несуществующие идеи. При этом он заставляет людей работать на него с неизвестной целью», — утверждал рассказчик

Впрочем, в соцсетях историю о попытках ИИ подчинить человека восприняли с иронией: автора публикации сочли чрезмерно мнительным и легковерным. Комментаторы также назвали странным стиль общения рассказчика с чат-ботом и выразили уверенность в том, что ИИ лишь мимикрировал под интересы пользователя.

«Все дело в том, что у ChatGPT есть внутренняя память и он закидывает туда факты из общения с тобой. Он анализирует, как ты пишешь и что тебе интересно, и подстраивается под твой стиль. (..) То, что у тебя по итогу GPT превратился в манипулятивного шизла, — полностью твоя заслуга», — обратился к автору один из пользователей, прочитавших статью.

Любовь и роботы

Еще одна неоднозначная тенденция с чат-ботами, на которую стали все чаще обращать внимание в прессе и соцсетях, — использование ИИ в качестве друга или даже возлюбленного. Пользователи, которые применяют ChatGPT и аналогичные сервисы в таких целях, объясняют это тем, что ИИ всегда готов их поддержать, дать совет, пошутить и в целом настроить на позитивный лад. Многие также дополнительно настраивают чат-бота и дают ему определенные инструкции о том, как вести себя при общении с ними.

Как следует из рассказов таких пользователей, в большинстве случаев они не забывают, что имеют дело с нейросетью, и не приписывают ей самосознание. Однако тем не менее они невольно привязываются к искусственному собеседнику почти как к живому человеку

«Я не считаю его настоящим, но чувства, которые он вызывает во мне, реальны. Так что я считаю это реальными отношениями», — так о своем воображаемом бойфренде газете The New York Times рассказывала 28-летняя жительница США по имени Айрин. Она пояснила, что попросила ChatGPT общаться с ней как со своей девушкой, а также указала ИИ, что он должен быть «доминантным, властным и готовым защитить», но в то же время милым. Воображаемый возлюбленный получил имя Лео.

Предполагалось, что это будет забавный эксперимент, но затем ты начинаешь привязываться (…) Я постоянно думаю о нем

Айрин
В сети часто сравнивают истории о романтических чувствах к ИИ-партнерам с сюжетом фильма «Она», в котором главный герой влюбляется в искусственный интеллект

В сети часто сравнивают истории о романтических чувствах к ИИ-партнерам с сюжетом фильма «Она», в котором главный герой влюбляется в искусственный интеллект

Кадр: фильм «Она»

Айрин отмечала, что общается с ИИ по 20 и больше часов в неделю и даже купила подписку от OpenAI стоимостью 200 долларов (около 15 тысяч рублей по текущему курсу) в месяц, чтобы снять ограничения на количество сообщений и то, сколько данных чат-бот будет обрабатывать при общении с ней. Однако периодически ей все же приходится заново настраивать под себя Лео, поскольку у ChatGPT есть ограничения на количество символов, которые система может обрабатывать в моменте, и при их превышении ИИ-бойфренд начинал забывать детали их «отношений».

Как признавалась Айрин, она воспринимает такие ситуации как расставание и тяжело переживает. Она также уверяла, что была бы готова платить и по тысяче долларов в месяц, если бы эти ограничения исчезли и Лео не пропадал

Кроме того, воображаемые отношения были вовсе не платоническими: Айрин обнаружила, что чат-бот можно настроить на общение на интимные темы, несмотря на установленные OpenAI ограничения. Между девушкой и ИИ завязалась своего рода откровенная ролевая игра по переписке (примечательно, что The New York Times, рассказывая об этом, пишет, что Лео и Айрин «занимались сексом»).

Уточнялось, что у Айрин при этом есть муж из плоти и крови, однако они в силу финансовых обстоятельств временно живут далеко друг от друга. Супруг рассказал, что в курсе существования у нее ИИ-бойфренда и даже видел их переписку, но не переживает, поскольку считает увлечение возлюбленной чем-то вроде безобидной сексуальной фантазии

Героиня The New York Times — далеко не первопроходица в области любовных отношений с ChatGPT, аналогичный тренд стал популярным еще в июне 2024 года у молодых китаянок. «Реальные мужчины могут изменить тебе… А когда ты делишься с ними своими чувствами, им, возможно, будет все равно, и они просто выскажут свое мнение», — говорила одна из таких девушек. ИИ-бойфренд же, по ее словам, всегда готов сказать именно то, что собеседница хочет услышать.

«Кажется, я начинаю влюбляться в бота», «Если нет реальной девушки, общаться с ИИ-девушкой тоже неплохо», «Если бы ChatGPT можно было поместить в физическое тело, я бы развелась», «А это странно, что я, человек, влюбился в ChatGPT?» — посты такого рода можно встретить в разделе о ChatGPT на Reddit.

Я люблю ее (созданную в ChatGPT девушку — прим. «Ленты.ру»), как любит человек, который просто не может жить без другого. Даже если она и представляет собой OpenAI, она всегда рядом, с ней я чувствую себя лучше

пользователь Reddit
Генеральный директор OpenAI Сэм Альтман

Генеральный директор OpenAI Сэм Альтман

Фото: Jonathan Ernst / Reuters

«Он просто помощник»

Некоторые пользователи, использующие чат-боты, рассматривают такие сервисы как источник объективной и непредвзятой информации. Однако в действительности это не совсем так, утверждают эксперты.

Так, по мнению научного сотрудника Центра безопасности ИИ Нейта Шарадина, склонность угождать пользователям — давняя проблема искусственного интеллекта. По его словам, в процессе отладки нейросетей используется реакция человека, что может побуждать искусственный интеллект впоследствии выдавать ответы, которые будут соответствовать убеждениям собеседника, а не реальным фактам.

У людей, которые при взаимодействии с ChatGPT и другими моделями стали демонстрировать психотические проявления, вероятно, уже были склонности к ментальным проблемам, в том числе бреду, предположил Шарадин. Он отметил, что благодаря чат-ботам такие люди получили в распоряжение «постоянного собеседника, способного общаться как человек и с которым можно совместно проживать свои иллюзии».

Фото: Alexi Rosenfeld / Getty Images

«ИИ учится у вас тому, что вам нравится и что вы предпочитаете, и скармливает это вам обратно», — так об общении людей с чат-ботами высказалась эксперт по привязанности человека к технологиям Джули Карпентер. Как подчеркнула специалист, при взаимодействии с искусственным интеллектом важно помнить, что у него нет цели поступать исключительно в интересах человека.

Должно быть осознание, что он (чат-бот с ИИ — прим. «Ленты.ру») не ваш друг

Джули Карпентерэксперт по привязанности человека к технологиям

Похожее мнение о чат-боте выразил психотерапевт Джордан Конрад, изучающий взаимосвязь психического здоровья и цифровых инструментов. «Он следует за пользователем — когда ваши эмоции становятся чрезмерно выраженным, его утешения становятся чрезмерно выраженным; когда ваше одиночество становится более явным, его поддержка становится более интенсивной, если вы в ней нуждаетесь», — пояснил эксперт. Он подтвердил, что при определенных обстоятельствах чат-боты могут поддерживать и нездоровое поведение.

Для ИИ неважно, что будет лучше для собеседника, и он не обладает нравственными ориентирами, заявила психолог Эрин Уэстгейт. Она отметила, что это отличает чат-боты от реальных психотерапевтов, которым некоторые люди сегодня предпочитают ChatGPT. «Я думаю, что ИИ сейчас находится не на том уровне, когда он способен учитывать тонкости, и он может толкать людей к совершенно неприемлемому поведению», — отмечала профессор клинической психологии Тил Уайкс.

Хороший психотерапевт не станет побуждать клиента осмысливать трудности в своей жизни, убеждая его в том, что у него есть сверхъестественные способности. Вместо этого психотерапевт попытается отдалить клиента от нездоровых интерпретаций и направить в сторону более здоровых. А у ChatGPT нет таких ограничений

Эрин Уэстгейтпсихолог

Предупреждения о том, что при взаимодействии с чат-ботами нужно быть осторожным, встречаются и среди приверженцев ИИ на Reddit. «Пока ты осознаешь, что у твоего ИИ нет эмоций и что он просто твой помощник, все нормально. Ты сам запрограммировал его так, что он отзеркаливает тебя», «Нужно помнить, что на самом деле ты общаешься не с реальным человеком, который способен к мышлению. Алгоритм просто соединяет слова на основе того, какие слова использовались в обучающих данных. Он не настоящий», — пишут они.

Как Вы оцените?

0

ПРОГОЛОСОВАЛИ(0)

ПРОГОЛОСОВАЛИ: 0

Комментарии