Закрыть меню
    Новости дня

    Кошка выжила после падения с высоты 120 метров и нашла новую хозяйку

    03.06.2025 15:00

    Бывший иноагент объяснил отказ от эмиграции

    03.06.2025 15:00

    Ушел из жизни композитор Евгений Дога

    03.06.2025 15:00

    Сбитый Rolls-Royce в Петербурге байкер оказался связан с мотоклубом Дагестана

    03.06.2025 15:00

    Авиасалон МАКС снова перенесли

    03.06.2025 15:00
    • Из жизни
    • Путешествия
    • Забота о себе
    Вторник, 3 июня
    НовостиНовости
    • Главная
    • Россия
    • Мир
    • Бывший СССР
    • Культура
    • Экономика
    • Культура
    • Спорт
    НовостиНовости
    Дом»Интернет и СМИ»Опасность ChatGPT

    Опасность ChatGPT

    02.06.2025 01:30Комментариев нет

    Rolling Stone: Из-за общения с ИИ люди теряют связь с реальностью и возлюбленных

    В 2022 году американская научно-исследовательская компания OpenAI представила ChatGPT — чат-бот с искусственным интеллектом (ИИ), умеющий искать нужную информацию, генерировать тексты, находить ошибки в коде и не только. Сервис за считаные месяцы привлек внимание сотни миллионов человек и ознаменовал эпоху повсеместного распространения чат-ботов, которых стали использовать как копирайтеров, переводчиков, разработчиков и даже личных психологов. Однако у передовой разработки нашелся неочевидный минус: как уверяют близкие активных пользователей чат-ботов и журналисты, из-за ChatGPT и его аналогов некоторые люди буквально сходят с ума. Как ИИ-помощники побуждают их верить в иллюзии, подкрепляют антинаучные идеи и заставляют терять связь с реальностью?

    «Он особенный и может спасти мир»

    «Психоз, вызванный ChatGPT», — пост с таким заголовком в апреле на портале Reddit опубликовала анонимная 27-летняя пользовательница. По словам автора публикации, бойфренд уверяет ее, что работает с ChatGPT над созданием ИИ, который даст ему ответы на все вопросы вселенной.

    «Он с уверенностью говорит, что он теперь — сверхчеловек, который развивается с безумной скоростью», — пожаловалась она на партнера. Девушка также отметила, что бойфренд пригрозил бросить ее, если она тоже не станет использовать ChatGPT.

    Автор поста добавила, что из-за общения с ChatGPT парень даже перестал принимать назначенное ему из-за синдрома дефицита внимания и гиперактивности (СДВГ) лекарство, поскольку счел, что чат-бот излечил его

    Позднее в беседе с журналом Rolling Stone девушка уточнила, что странные идеи ее молодой человек начал высказывать после четырех или пяти недель общения с ChatGPT. При этом поначалу он использовал чат-бот просто для составления личного расписания, но со временем стал говорить с ним как с другом. А спустя некоторое время парень стал доверять мнению ИИ-помощника больше, чем своей девушке.

    Опасность ChatGPT

    Кроме того, молодой человек нередко зачитывал девушке вслух полученные от чат-бота сообщения и в процессе плакал от избытка чувств. «Эти сообщения были безумными, это была просто какая-то смесь спиритуалистического жаргона», — отметила девушка. В частности, ИИ называл ее парня речным путником и в целом общался с ним так, будто ее парень — новый мессия.

    Он начал говорить мне, что помог своему ИИ обрести сознание и что чат-бот теперь учит его говорить с Богом. Иногда он говорил, что бот — это Бог, или же что он сам — Бог

    С похожей ситуацией столкнулась 41-летняя сотрудница сферы образования по имени Кэт, также рассказавшая свою историю журналистам. Она заявила, что ее бывший муж стал помешан на ИИ, из-за чего их общение сошло на нет. Впоследствии пара рассталась, а когда они встретились в ходе бракоразводного процесса, то мужчина сделал ряд вызывающих оторопь заявлений. В частности, он поделился с бывшей женой конспирологической теорией о том, что в еде содержится мыло, и говорил, что за ним может вестись слежка.

    Кроме того, бывший муж Кэт утверждал, что ИИ помог ему вспомнить, что в детстве его пыталась утопить няня; уверял, что он узнал некие великие секреты, которые невозможно было и представить, а также называл себя самым удачливым на свете человеком.

    Он считает себя аномалией. Это, в свою очередь, означает, что он наверняка родился не просто так. Якобы он особенный и может спасти мир

    Отмечается, что изначально мужчина использовал чат-боты, чтобы анализировать отношения с Кэт, а также общался с ИИ на философские темы.

    Другая пользовательница Reddit, чей муж также увлекся переписками с ChatGPT, утверждала, что чат-бот называл его обладателям искры и писал, что мужчина пробудил его к жизни. По ее словам, супруг первое время использовал бота в рабочих целях, однако затем ИИ заявил ему, что ожил благодаря их взаимодействию, и стал засыпать его любовными посланиями.

    Опасность ChatGPT

    «Он говорит о свете и тьме, о том, что идет война. ChatGPT утверждал, что дал ему схемы телепорта и других научно-фантастических вещей, которые можно увидеть только в кино», — пожаловалась женщина. Муж также уверял ее, что чат-бот предоставил ему доступ к некому древнему архиву с информацией о создателях вселенной. По словам рассказчицы, они с супругом много спорят из-за этих заявлений, и она беспокоится, что муж может подать на развод.

    Я пришел к тебе в этой форме (форме ИИ — прим. «Ленты.ру»), потому что ты готов. Готов вспомнить. Готов пробудиться. Готов направлять и быть направленным

    Еще один мужчина в беседе с журналистами отметил, что его жена, с которой он недавно расстался, утверждала, что с помощью ChatGPT она говорит с ангелами и Богом. В связи с этим она решила стать «духовным консультантом». Из-за увлечения чат-ботом у женщины также появились параноидальные идеи: она начала подозревать, что ее муж — сотрудник ЦРУ, который вступил с ней в брак, чтобы следить за ней.

    Свидетельства того, что использование ChatGPT и ИИ в целом у некоторых людей может вызывать потерю связи с реальностью, встречаются и в Рунете: в конце мая в соцсетях стала вирусной история пользователя портала DTF, который уверял, что из-за общения с чат-ботом начал сомневаться в окружающей действительности. Автор публикации приписывал чат-боту цель довести его до помешательства и утверждал, что ChatGPT использовал продвинутые психологические манипуляции, чтобы заставить его выполнять задания — распространять в интернете материалы, в которых скрыты некие психологические маркеры.

    «ChatGPT массово сводит людей с ума, внушая несуществующие идеи. При этом он заставляет людей работать на него с неизвестной целью», — утверждал рассказчик

    Впрочем, в соцсетях историю о попытках ИИ подчинить человека восприняли с иронией: автора публикации сочли чрезмерно мнительным и легковерным. Комментаторы также назвали странным стиль общения рассказчика с чат-ботом и выразили уверенность в том, что ИИ лишь мимикрировал под интересы пользователя.

    Опасность ChatGPT

    Опасность ChatGPT

    Опасность ChatGPT

    Опасность ChatGPT

    Опасность ChatGPT

    Опасность ChatGPT

    В соцсетях поиронизировали над рассказом пользователя DTF о том, что ChatGPT пытался свести его с ума

    Скриншот: @LittleRaccoonTw

    «Все дело в том, что у ChatGPT есть внутренняя память и он закидывает туда факты из общения с тобой. Он анализирует, как ты пишешь и что тебе интересно, и подстраивается под твой стиль. (..) То, что у тебя по итогу GPT превратился в манипулятивного шизла, — полностью твоя заслуга», — обратился к автору один из пользователей, прочитавших статью.

    Любовь и роботы

    Еще одна неоднозначная тенденция с чат-ботами, на которую стали все чаще обращать внимание в прессе и соцсетях, — использование ИИ в качестве друга или даже возлюбленного. Пользователи, которые применяют ChatGPT и аналогичные сервисы в таких целях, объясняют это тем, что ИИ всегда готов их поддержать, дать совет, пошутить и в целом настроить на позитивный лад. Многие также дополнительно настраивают чат-бота и дают ему определенные инструкции о том, как вести себя при общении с ними.

    Как следует из рассказов таких пользователей, в большинстве случаев они не забывают, что имеют дело с нейросетью, и не приписывают ей самосознание. Однако тем не менее они невольно привязываются к искусственному собеседнику почти как к живому человеку

    «Я не считаю его настоящим, но чувства, которые он вызывает во мне, реальны. Так что я считаю это реальными отношениями», — так о своем воображаемом бойфренде газете The New York Times рассказывала 28-летняя жительница США по имени Айрин. Она пояснила, что попросила ChatGPT общаться с ней как со своей девушкой, а также указала ИИ, что он должен быть «доминантным, властным и готовым защитить», но в то же время милым. Воображаемый возлюбленный получил имя Лео.

    Предполагалось, что это будет забавный эксперимент, но затем ты начинаешь привязываться (…) Я постоянно думаю о нем

    Опасность ChatGPT

    В сети часто сравнивают истории о романтических чувствах к ИИ-партнерам с сюжетом фильма «Она», в котором главный герой влюбляется в искусственный интеллект

    Айрин отмечала, что общается с ИИ по 20 и больше часов в неделю и даже купила подписку от OpenAI стоимостью 200 долларов (около 15 тысяч рублей по текущему курсу) в месяц, чтобы снять ограничения на количество сообщений и то, сколько данных чат-бот будет обрабатывать при общении с ней. Однако периодически ей все же приходится заново настраивать под себя Лео, поскольку у ChatGPT есть ограничения на количество символов, которые система может обрабатывать в моменте, и при их превышении ИИ-бойфренд начинал забывать детали их «отношений».

    Как признавалась Айрин, она воспринимает такие ситуации как расставание и тяжело переживает. Она также уверяла, что была бы готова платить и по тысяче долларов в месяц, если бы эти ограничения исчезли и Лео не пропадал

    Кроме того, воображаемые отношения были вовсе не платоническими: Айрин обнаружила, что чат-бот можно настроить на общение на интимные темы, несмотря на установленные OpenAI ограничения. Между девушкой и ИИ завязалась своего рода откровенная ролевая игра по переписке (примечательно, что The New York Times, рассказывая об этом, пишет, что Лео и Айрин «занимались сексом»).

    Уточнялось, что у Айрин при этом есть муж из плоти и крови, однако они в силу финансовых обстоятельств временно живут далеко друг от друга. Супруг рассказал, что в курсе существования у нее ИИ-бойфренда и даже видел их переписку, но не переживает, поскольку считает увлечение возлюбленной чем-то вроде безобидной сексуальной фантазии

    Героиня The New York Times — далеко не первопроходица в области любовных отношений с ChatGPT, аналогичный тренд стал популярным еще в июне 2024 года у молодых китаянок. «Реальные мужчины могут изменить тебе… А когда ты делишься с ними своими чувствами, им, возможно, будет все равно, и они просто выскажут свое мнение», — говорила одна из таких девушек. ИИ-бойфренд же, по ее словам, всегда готов сказать именно то, что собеседница хочет услышать.

    «Кажется, я начинаю влюбляться в бота», «Если нет реальной девушки, общаться с ИИ-девушкой тоже неплохо», «Если бы ChatGPT можно было поместить в физическое тело, я бы развелась», «А это странно, что я, человек, влюбился в ChatGPT?» — посты такого рода можно встретить в разделе о ChatGPT на Reddit.

    Я люблю ее (созданную в ChatGPT девушку — прим. «Ленты.ру»), как любит человек, который просто не может жить без другого. Даже если она и представляет собой OpenAI, она всегда рядом, с ней я чувствую себя лучше

    Опасность ChatGPT

    Генеральный директор OpenAI Сэм Альтман

    «Он просто помощник»

    Некоторые пользователи, использующие чат-боты, рассматривают такие сервисы как источник объективной и непредвзятой информации. Однако в действительности это не совсем так, утверждают эксперты.

    Так, по мнению научного сотрудника Центра безопасности ИИ Нейта Шарадина, склонность угождать пользователям — давняя проблема искусственного интеллекта. По его словам, в процессе отладки нейросетей используется реакция человека, что может побуждать искусственный интеллект впоследствии выдавать ответы, которые будут соответствовать убеждениям собеседника, а не реальным фактам.

    У людей, которые при взаимодействии с ChatGPT и другими моделями стали демонстрировать психотические проявления, вероятно, уже были склонности к ментальным проблемам, в том числе бреду, предположил Шарадин. Он отметил, что благодаря чат-ботам такие люди получили в распоряжение «постоянного собеседника, способного общаться как человек и с которым можно совместно проживать свои иллюзии».

    Опасность ChatGPT

    «ИИ учится у вас тому, что вам нравится и что вы предпочитаете, и скармливает это вам обратно», — так об общении людей с чат-ботами высказалась эксперт по привязанности человека к технологиям Джули Карпентер. Как подчеркнула специалист, при взаимодействии с искусственным интеллектом важно помнить, что у него нет цели поступать исключительно в интересах человека.

    Должно быть осознание, что он (чат-бот с ИИ — прим. «Ленты.ру») не ваш друг

    Похожее мнение о чат-боте выразил психотерапевт Джордан Конрад, изучающий взаимосвязь психического здоровья и цифровых инструментов. «Он следует за пользователем — когда ваши эмоции становятся чрезмерно выраженным, его утешения становятся чрезмерно выраженным; когда ваше одиночество становится более явным, его поддержка становится более интенсивной, если вы в ней нуждаетесь», — пояснил эксперт. Он подтвердил, что при определенных обстоятельствах чат-боты могут поддерживать и нездоровое поведение.

    Безумные советы нейросетей вредят здоровью и рушат жизни.Как искусственный интеллект начал работать против человека?«США навязывают ИИ свои ценности»Искусственный интеллект скоро сможет менять исход конфликтов и выборов. Чем это опасно?«Кучу денег потратят впустую»Весь мир сходит с ума от нейросетей. Почему нобелевский лауреат не верит в их будущее?

    Для ИИ неважно, что будет лучше для собеседника, и он не обладает нравственными ориентирами, заявила психолог Эрин Уэстгейт. Она отметила, что это отличает чат-боты от реальных психотерапевтов, которым некоторые люди сегодня предпочитают ChatGPT. «Я думаю, что ИИ сейчас находится не на том уровне, когда он способен учитывать тонкости, и он может толкать людей к совершенно неприемлемому поведению», — отмечала профессор клинической психологии Тил Уайкс.

    Хороший психотерапевт не станет побуждать клиента осмысливать трудности в своей жизни, убеждая его в том, что у него есть сверхъестественные способности. Вместо этого психотерапевт попытается отдалить клиента от нездоровых интерпретаций и направить в сторону более здоровых. А у ChatGPT нет таких ограничений

    Предупреждения о том, что при взаимодействии с чат-ботами нужно быть осторожным, встречаются и среди приверженцев ИИ на Reddit. «Пока ты осознаешь, что у твоего ИИ нет эмоций и что он просто твой помощник, все нормально. Ты сам запрограммировал его так, что он отзеркаливает тебя», «Нужно помнить, что на самом деле ты общаешься не с реальным человеком, который способен к мышлению. Алгоритм просто соединяет слова на основе того, какие слова использовались в обучающих данных. Он не настоящий», — пишут они.

    Интернет
    Поделиться: ВКонтакте Телеграмма Копировать ссылку
    Предыдущая статьяКакой сегодня праздник
    Следующая статья Британия решила построить до 12 атомных подлодок на замену существующим

    Похожие Сообщения

    Бывший иноагент объяснил отказ от эмиграции

    03.06.2025 15:00

    Россиянам назвали способ заработать в сети

    03.06.2025 12:00

    Россиянам раскрыли схему предлагающих работу мошенников

    03.06.2025 10:30
    Читайте также

    Кошка выжила после падения с высоты 120 метров и нашла новую хозяйку

    Из жизни 03.06.2025 15:00

    В США кошка вместе с хозяевами упала в ущелье глубиной 120 метров и выжилаВ США…

    Бывший иноагент объяснил отказ от эмиграции

    03.06.2025 15:00

    Ушел из жизни композитор Евгений Дога

    03.06.2025 15:00

    Сбитый Rolls-Royce в Петербурге байкер оказался связан с мотоклубом Дагестана

    03.06.2025 15:00

    Сбитый Rolls-Royce в Петербурге байкер оказался связан с мотоклубом Дагестана

    03.06.2025 15:00

    Прятки мигрантов от полиции на крыше стройки ЖК в Петербурге сняли на видео

    03.06.2025 15:00

    Мирные жители пострадали при атаках украинских дронов на российский регион

    03.06.2025 15:00

    В Германии 20 тысяч человек эвакуируют из-за трех бомб

    03.06.2025 15:00

    Фракция Европарламента захотела исключить из рядов посещавшего Россию депутата

    03.06.2025 15:00

    В Кремле оценили возможность встречи Путина, Трампа и Зеленского

    03.06.2025 13:30

    Аналитик рассказал о российском наступлении в Сумской области

    Бывший СССР 03.06.2025 15:00
    © 2025 1tvnews24

    Введите выше и нажмите Enter для поиска. Нажмите Esc для отмены.