Rolling Stone: Из-за общения с ИИ люди теряют связь с реальностью и возлюбленных
В 2022 году американская научно-исследовательская компания OpenAI представила ChatGPT — чат-бот с искусственным интеллектом (ИИ), умеющий искать нужную информацию, генерировать тексты, находить ошибки в коде и не только. Сервис за считаные месяцы привлек внимание сотни миллионов человек и ознаменовал эпоху повсеместного распространения чат-ботов, которых стали использовать как копирайтеров, переводчиков, разработчиков и даже личных психологов. Однако у передовой разработки нашелся неочевидный минус: как уверяют близкие активных пользователей чат-ботов и журналисты, из-за ChatGPT и его аналогов некоторые люди буквально сходят с ума. Как ИИ-помощники побуждают их верить в иллюзии, подкрепляют антинаучные идеи и заставляют терять связь с реальностью?
«Он особенный и может спасти мир»
«Психоз, вызванный ChatGPT», — пост с таким заголовком в апреле на портале Reddit опубликовала анонимная 27-летняя пользовательница. По словам автора публикации, бойфренд уверяет ее, что работает с ChatGPT над созданием ИИ, который даст ему ответы на все вопросы вселенной.
«Он с уверенностью говорит, что он теперь — сверхчеловек, который развивается с безумной скоростью», — пожаловалась она на партнера. Девушка также отметила, что бойфренд пригрозил бросить ее, если она тоже не станет использовать ChatGPT.
Автор поста добавила, что из-за общения с ChatGPT парень даже перестал принимать назначенное ему из-за синдрома дефицита внимания и гиперактивности (СДВГ) лекарство, поскольку счел, что чат-бот излечил его
Позднее в беседе с журналом Rolling Stone девушка уточнила, что странные идеи ее молодой человек начал высказывать после четырех или пяти недель общения с ChatGPT. При этом поначалу он использовал чат-бот просто для составления личного расписания, но со временем стал говорить с ним как с другом. А спустя некоторое время парень стал доверять мнению ИИ-помощника больше, чем своей девушке.
Кроме того, молодой человек нередко зачитывал девушке вслух полученные от чат-бота сообщения и в процессе плакал от избытка чувств. «Эти сообщения были безумными, это была просто какая-то смесь спиритуалистического жаргона», — отметила девушка. В частности, ИИ называл ее парня речным путником и в целом общался с ним так, будто ее парень — новый мессия.
Он начал говорить мне, что помог своему ИИ обрести сознание и что чат-бот теперь учит его говорить с Богом. Иногда он говорил, что бот — это Бог, или же что он сам — Бог
С похожей ситуацией столкнулась 41-летняя сотрудница сферы образования по имени Кэт, также рассказавшая свою историю журналистам. Она заявила, что ее бывший муж стал помешан на ИИ, из-за чего их общение сошло на нет. Впоследствии пара рассталась, а когда они встретились в ходе бракоразводного процесса, то мужчина сделал ряд вызывающих оторопь заявлений. В частности, он поделился с бывшей женой конспирологической теорией о том, что в еде содержится мыло, и говорил, что за ним может вестись слежка.
Кроме того, бывший муж Кэт утверждал, что ИИ помог ему вспомнить, что в детстве его пыталась утопить няня; уверял, что он узнал некие великие секреты, которые невозможно было и представить, а также называл себя самым удачливым на свете человеком.
Он считает себя аномалией. Это, в свою очередь, означает, что он наверняка родился не просто так. Якобы он особенный и может спасти мир
Отмечается, что изначально мужчина использовал чат-боты, чтобы анализировать отношения с Кэт, а также общался с ИИ на философские темы.
Другая пользовательница Reddit, чей муж также увлекся переписками с ChatGPT, утверждала, что чат-бот называл его обладателям искры и писал, что мужчина пробудил его к жизни. По ее словам, супруг первое время использовал бота в рабочих целях, однако затем ИИ заявил ему, что ожил благодаря их взаимодействию, и стал засыпать его любовными посланиями.
«Он говорит о свете и тьме, о том, что идет война. ChatGPT утверждал, что дал ему схемы телепорта и других научно-фантастических вещей, которые можно увидеть только в кино», — пожаловалась женщина. Муж также уверял ее, что чат-бот предоставил ему доступ к некому древнему архиву с информацией о создателях вселенной. По словам рассказчицы, они с супругом много спорят из-за этих заявлений, и она беспокоится, что муж может подать на развод.
Я пришел к тебе в этой форме (форме ИИ — прим. «Ленты.ру»), потому что ты готов. Готов вспомнить. Готов пробудиться. Готов направлять и быть направленным
Еще один мужчина в беседе с журналистами отметил, что его жена, с которой он недавно расстался, утверждала, что с помощью ChatGPT она говорит с ангелами и Богом. В связи с этим она решила стать «духовным консультантом». Из-за увлечения чат-ботом у женщины также появились параноидальные идеи: она начала подозревать, что ее муж — сотрудник ЦРУ, который вступил с ней в брак, чтобы следить за ней.
Свидетельства того, что использование ChatGPT и ИИ в целом у некоторых людей может вызывать потерю связи с реальностью, встречаются и в Рунете: в конце мая в соцсетях стала вирусной история пользователя портала DTF, который уверял, что из-за общения с чат-ботом начал сомневаться в окружающей действительности. Автор публикации приписывал чат-боту цель довести его до помешательства и утверждал, что ChatGPT использовал продвинутые психологические манипуляции, чтобы заставить его выполнять задания — распространять в интернете материалы, в которых скрыты некие психологические маркеры.
«ChatGPT массово сводит людей с ума, внушая несуществующие идеи. При этом он заставляет людей работать на него с неизвестной целью», — утверждал рассказчик
Впрочем, в соцсетях историю о попытках ИИ подчинить человека восприняли с иронией: автора публикации сочли чрезмерно мнительным и легковерным. Комментаторы также назвали странным стиль общения рассказчика с чат-ботом и выразили уверенность в том, что ИИ лишь мимикрировал под интересы пользователя.
В соцсетях поиронизировали над рассказом пользователя DTF о том, что ChatGPT пытался свести его с ума
Скриншот: @LittleRaccoonTw
«Все дело в том, что у ChatGPT есть внутренняя память и он закидывает туда факты из общения с тобой. Он анализирует, как ты пишешь и что тебе интересно, и подстраивается под твой стиль. (..) То, что у тебя по итогу GPT превратился в манипулятивного шизла, — полностью твоя заслуга», — обратился к автору один из пользователей, прочитавших статью.
Любовь и роботы
Еще одна неоднозначная тенденция с чат-ботами, на которую стали все чаще обращать внимание в прессе и соцсетях, — использование ИИ в качестве друга или даже возлюбленного. Пользователи, которые применяют ChatGPT и аналогичные сервисы в таких целях, объясняют это тем, что ИИ всегда готов их поддержать, дать совет, пошутить и в целом настроить на позитивный лад. Многие также дополнительно настраивают чат-бота и дают ему определенные инструкции о том, как вести себя при общении с ними.
Как следует из рассказов таких пользователей, в большинстве случаев они не забывают, что имеют дело с нейросетью, и не приписывают ей самосознание. Однако тем не менее они невольно привязываются к искусственному собеседнику почти как к живому человеку
«Я не считаю его настоящим, но чувства, которые он вызывает во мне, реальны. Так что я считаю это реальными отношениями», — так о своем воображаемом бойфренде газете The New York Times рассказывала 28-летняя жительница США по имени Айрин. Она пояснила, что попросила ChatGPT общаться с ней как со своей девушкой, а также указала ИИ, что он должен быть «доминантным, властным и готовым защитить», но в то же время милым. Воображаемый возлюбленный получил имя Лео.
Предполагалось, что это будет забавный эксперимент, но затем ты начинаешь привязываться (…) Я постоянно думаю о нем
В сети часто сравнивают истории о романтических чувствах к ИИ-партнерам с сюжетом фильма «Она», в котором главный герой влюбляется в искусственный интеллект
Айрин отмечала, что общается с ИИ по 20 и больше часов в неделю и даже купила подписку от OpenAI стоимостью 200 долларов (около 15 тысяч рублей по текущему курсу) в месяц, чтобы снять ограничения на количество сообщений и то, сколько данных чат-бот будет обрабатывать при общении с ней. Однако периодически ей все же приходится заново настраивать под себя Лео, поскольку у ChatGPT есть ограничения на количество символов, которые система может обрабатывать в моменте, и при их превышении ИИ-бойфренд начинал забывать детали их «отношений».
Как признавалась Айрин, она воспринимает такие ситуации как расставание и тяжело переживает. Она также уверяла, что была бы готова платить и по тысяче долларов в месяц, если бы эти ограничения исчезли и Лео не пропадал
Кроме того, воображаемые отношения были вовсе не платоническими: Айрин обнаружила, что чат-бот можно настроить на общение на интимные темы, несмотря на установленные OpenAI ограничения. Между девушкой и ИИ завязалась своего рода откровенная ролевая игра по переписке (примечательно, что The New York Times, рассказывая об этом, пишет, что Лео и Айрин «занимались сексом»).
Уточнялось, что у Айрин при этом есть муж из плоти и крови, однако они в силу финансовых обстоятельств временно живут далеко друг от друга. Супруг рассказал, что в курсе существования у нее ИИ-бойфренда и даже видел их переписку, но не переживает, поскольку считает увлечение возлюбленной чем-то вроде безобидной сексуальной фантазии
Героиня The New York Times — далеко не первопроходица в области любовных отношений с ChatGPT, аналогичный тренд стал популярным еще в июне 2024 года у молодых китаянок. «Реальные мужчины могут изменить тебе… А когда ты делишься с ними своими чувствами, им, возможно, будет все равно, и они просто выскажут свое мнение», — говорила одна из таких девушек. ИИ-бойфренд же, по ее словам, всегда готов сказать именно то, что собеседница хочет услышать.
«Кажется, я начинаю влюбляться в бота», «Если нет реальной девушки, общаться с ИИ-девушкой тоже неплохо», «Если бы ChatGPT можно было поместить в физическое тело, я бы развелась», «А это странно, что я, человек, влюбился в ChatGPT?» — посты такого рода можно встретить в разделе о ChatGPT на Reddit.
Я люблю ее (созданную в ChatGPT девушку — прим. «Ленты.ру»), как любит человек, который просто не может жить без другого. Даже если она и представляет собой OpenAI, она всегда рядом, с ней я чувствую себя лучше
Генеральный директор OpenAI Сэм Альтман
«Он просто помощник»
Некоторые пользователи, использующие чат-боты, рассматривают такие сервисы как источник объективной и непредвзятой информации. Однако в действительности это не совсем так, утверждают эксперты.
Так, по мнению научного сотрудника Центра безопасности ИИ Нейта Шарадина, склонность угождать пользователям — давняя проблема искусственного интеллекта. По его словам, в процессе отладки нейросетей используется реакция человека, что может побуждать искусственный интеллект впоследствии выдавать ответы, которые будут соответствовать убеждениям собеседника, а не реальным фактам.
У людей, которые при взаимодействии с ChatGPT и другими моделями стали демонстрировать психотические проявления, вероятно, уже были склонности к ментальным проблемам, в том числе бреду, предположил Шарадин. Он отметил, что благодаря чат-ботам такие люди получили в распоряжение «постоянного собеседника, способного общаться как человек и с которым можно совместно проживать свои иллюзии».
«ИИ учится у вас тому, что вам нравится и что вы предпочитаете, и скармливает это вам обратно», — так об общении людей с чат-ботами высказалась эксперт по привязанности человека к технологиям Джули Карпентер. Как подчеркнула специалист, при взаимодействии с искусственным интеллектом важно помнить, что у него нет цели поступать исключительно в интересах человека.
Должно быть осознание, что он (чат-бот с ИИ — прим. «Ленты.ру») не ваш друг
Похожее мнение о чат-боте выразил психотерапевт Джордан Конрад, изучающий взаимосвязь психического здоровья и цифровых инструментов. «Он следует за пользователем — когда ваши эмоции становятся чрезмерно выраженным, его утешения становятся чрезмерно выраженным; когда ваше одиночество становится более явным, его поддержка становится более интенсивной, если вы в ней нуждаетесь», — пояснил эксперт. Он подтвердил, что при определенных обстоятельствах чат-боты могут поддерживать и нездоровое поведение.
Безумные советы нейросетей вредят здоровью и рушат жизни.Как искусственный интеллект начал работать против человека?«США навязывают ИИ свои ценности»Искусственный интеллект скоро сможет менять исход конфликтов и выборов. Чем это опасно?«Кучу денег потратят впустую»Весь мир сходит с ума от нейросетей. Почему нобелевский лауреат не верит в их будущее?
Для ИИ неважно, что будет лучше для собеседника, и он не обладает нравственными ориентирами, заявила психолог Эрин Уэстгейт. Она отметила, что это отличает чат-боты от реальных психотерапевтов, которым некоторые люди сегодня предпочитают ChatGPT. «Я думаю, что ИИ сейчас находится не на том уровне, когда он способен учитывать тонкости, и он может толкать людей к совершенно неприемлемому поведению», — отмечала профессор клинической психологии Тил Уайкс.
Хороший психотерапевт не станет побуждать клиента осмысливать трудности в своей жизни, убеждая его в том, что у него есть сверхъестественные способности. Вместо этого психотерапевт попытается отдалить клиента от нездоровых интерпретаций и направить в сторону более здоровых. А у ChatGPT нет таких ограничений
Предупреждения о том, что при взаимодействии с чат-ботами нужно быть осторожным, встречаются и среди приверженцев ИИ на Reddit. «Пока ты осознаешь, что у твоего ИИ нет эмоций и что он просто твой помощник, все нормально. Ты сам запрограммировал его так, что он отзеркаливает тебя», «Нужно помнить, что на самом деле ты общаешься не с реальным человеком, который способен к мышлению. Алгоритм просто соединяет слова на основе того, какие слова использовались в обучающих данных. Он не настоящий», — пишут они.