Житель США попал в больницу из-за совета ChatGPT заменить соль на бромид натрия
Совет нейросети ChatGPT заменить соль на бромид натрия обернулся для американского пенсионера госпитализацией в психиатрическую больницу. Об этом сообщает портал Gizmodo.
По данным врачей, 60-летний мужчина в течение трех месяцев соблюдал диету, которую сам составил при помощи искусственного интеллекта. Пенсионер подумал исключить из своего рациона хлорид натрия, обратившись за советом к ChatGPT. Чат-бот предложил пользователю несколько вариантов, один из которых стало добавление бромида натрия, однако нейросеть не уточнила, что он очень токсичен для приема в пищу.
Уже в скором времени пожилой мужчина заработал паранойю и дезориентацию, начал видеть галлюцинации, после у него развился психотический эпизод. В разговоре с врачами мужчина предположил, что он был отравлен соседом. Еще один припадок случился у пациента прямо в больнице. Он попытался сбежать, но был отправлен на принудительное лечение.
Повторный осмотр через две недели подтвердил стабильное состояние американца.
Ранее сообщалось, что ChatGPT начал предлагать пользователям «бредовые» идеи и сводить их с ума. По их словам, ИИ делает псевдонаучные утверждения об инопланетянах и апокалипсисе.