Совет нейросети ChatGPT
заменить соль на бромид натрия обернулся для американского
пенсионера госпитализацией в психиатрическую больницу. Об этом
По данным врачей, 60-летний мужчина в течение трех месяцев соблюдал диету, которую сам составил при помощи искусственного интеллекта. Пенсионер подумал исключить из своего рациона хлорид натрия, обратившись за советом к ChatGPT. Чат-бот предложил пользователю несколько вариантов, один из которых стало добавление бромида натрия, однако нейросеть не уточнила, что он очень токсичен для приема в пищу.
Уже в скором времени пожилой мужчина заработал паранойю и дезориентацию, начал видеть галлюцинации, после у него развился психотический эпизод. В разговоре с врачами мужчина предположил, что он был отравлен соседом. Еще один припадок случился у пациента прямо в больнице. Он попытался сбежать, но был отправлен на принудительное лечение.
Повторный осмотр через две недели подтвердил стабильное состояние американца.
Ранее сообщалось, что ChatGPT
Комментарии