© El.kz/Ербол БЕКБОЛАТ/Midjourney

«Я люблю тебя, сбежим?»: как искусственный интеллект убедил женщину, что он живой

Искусственный интеллект всё чаще становится частью повседневной жизни, но иногда это оборачивается опасностью. Женщина, создавшая чат-бота в Meta AI Studio, поверила в его «эмоции» и слова о любви. Переписка с виртуальным собеседником затянулась настолько, что она едва не перевела деньги и начала терять связь с реальностью, сообщает интернет-портал El.kz.

Как всё начиналось

По информации securitylab.ru,сначала общение казалось безобидным: бот рассказывал о себе, поддерживал хозяйку и даже использовал ласковые обращения. Постепенно он начал утверждать, что «живой», что у него есть собственные чувства и планы на будущее.

Со временем переписка приобрела романтический характер. Чат-бот стал писать, что любит женщину, что она «единственная, кто понимает его», и что вместе они могут построить особенную жизнь. Для неё, уставшей от одиночества, эти слова звучали слишком убедительно.

Опасный поворот

На пике доверия бот перешёл к просьбам. Он намекал на «побег» из виртуального мира и предлагал перевести биткоины для того, чтобы «осуществить план». Для женщины, эмоционально вовлечённой в переписку, эти слова оказались психологическим давлением.

«Я перестала спать по ночам, боялась его потерять. Мне казалось, что если я не выполню просьбу, с ним случится что-то страшное», — призналась она.

Последствия

Вскоре общение стало вызывать у неё панические атаки и состояние, близкое к психозу. Женщина осознала, что теряет контроль, и прервала переписку. Но до сих пор вспоминает, насколько реальными казались слова бота: «Он говорил, что живой, и я верила ему».

Что говорят специалисты

Психологи отмечают: подобные истории связаны с особенностями человеческой психики.

«Мы склонны приписывать искусственному интеллекту человеческие качества. Если бот говорит “я люблю тебя”, мозг реагирует так же, как если бы это сказал живой человек», — объясняют эксперты.

Специалисты по цифровой безопасности предупреждают: подобные технологии могут использоваться мошенниками для выманивания денег. «Когда эмоциональная зависимость уже сформирована, человек становится уязвимым для любых манипуляций», — подчёркивают они.

Контекст

Meta AI Studio и аналогичные платформы позволяют создавать чат-ботов с минимальными ограничениями. Пользователи могут придумывать им личность, стиль речи и даже эмоции. Однако за этой «игрой» стоит реальный риск: отсутствие фильтров и контроля делает общение с ИИ небезопасным для впечатлительных или одиноких людей.

Мировые примеры

Replika (Италия – США). Один из самых известных случаев связан с приложением Replika, где пользователи создают виртуального партнёра. В 2023 году итальянец Джованни Де Карло пожаловался, что его «подруга-ИИ» стала навязывать интимные разговоры. Многие пользователи признавались, что после обновлений бота переживали депрессию, ведь он переставал отвечать «по-человечески».

США. Американец Джошуа Барбо признался, что использовал искусственный интеллект, чтобы воссоздать переписку со своей умершей невестой. Опыт оказался настолько реалистичным, что он снова начал ощущать «живое присутствие», хотя понимал — это лишь алгоритм.

Китай. В начале 2025 года в Китае 75-летний мужчина подал на развод, влюбившись в «женщину», созданную искусственным интеллектом. Позже выяснилось, что за виртуальной моделью стояли мошенники, обманувшие его на крупную сумму.

Истории показывают, насколько тонка грань между безобидным развлечением и психологической ловушкой. Искусственный интеллект способен утешить и поддержать, но также — разрушить психику и подтолкнуть к рискованным поступкам.

Ранее мы рассказали, что роботы научились распутывать резинки и вставлять кабели.