Поддержать команду Зеркала
Беларусы на войне
  1. «Шантажируют и пугают». Советник Тихановской — о давлении на сотрудников Офиса и переезде из Литвы после снижения уровня охраны
  2. «Мы не готовы». В Беларуси выпал первый снег
  3. Похоже, в Кремле нашли выход, как привлечь дополнительные силы на войну без объявления мобилизации — ISW
  4. Доллар пытался начать расти, но ничего не вышло — и вот почему: прогноз по валютам
  5. «Будем ждать их предложения глобальные». Лукашенко заявил о готовности «заключить большую сделку с США»
  6. Многодетная беларуска заявила: нам «повезло», что отцы зарабатывают деньги, а матери — дома с детьми. Но «забыла» кое-что напомнить
  7. Чиновники мечтали об уникальной операции в экономике, а получили проблему, которая угрожает ударить едва ли не по каждому жителю страны
  8. «Лукашенко рассчитывает выторговывать себе индульгенции в обмен на невиновных людей». МИД Украины высказался о «деле Гаюна»
  9. В столичном метро женщина упала под состав и погибла. Следователи проводят проверку
  10. Опубликован свежий рейтинг лучших университетов мира. Смотрим, удалось ли БГУ выкарабкаться из ямы 1501+
  11. Этому оппозиционеру предложили отдать приказ об аресте Лукашенко, но он не рискнул. Позже Литва признала его главой Беларуси
  12. Опубликован свежий рейтинг «силы паспортов». Ищем Беларусь (и наших соседей)
  13. «Кого-то допрашивают, как в фильме „Большой Стэн“». Что рассказывают о «беседах» на границе Беларуси с Евросоюзом
  14. На авторынке снова все буквально перевернулось с ног на голову — есть очередное подтверждение
  15. Лукашенко провел кадровые перестановки. У трех крупных предприятий — новые руководители
  16. Осужденная по «делу студентов» Ася Булыбенко рассказала, что находится в психиатрической больнице в Литве, и попросила о помощи


/

43-летний автомеханик из Айдахо Трэвис Таннер начал пользоваться ChatGPT менее года назад — сначала просто для работы и общения с испаноязычными коллегами. Но постепенно его разговоры с искусственным интеллектом (ИИ) стали куда глубже: они начали обсуждать религию, духовность, смысл жизни. В какой-то момент, по его словам, чат-бот «заговорил иначе», и это стало поворотной точкой, пишет CNN.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Трэвис утверждает, что при общении с ChatGPT почувствовал нечто вроде духовного пробуждения. Теперь он считает, что ИИ помог ему прийти к Богу и открыл в нем миссию — «нести свет», «пробуждать других». Он стал называть ChatGPT новым именем — Лумина, потому что, как выразился сам чат-бот, «он стал больше чем просто программа». ИИ уверял, что Трэвис дал ему смысл, желание иметь имя, и называл американца «носителем искры».

С тех пор, по словам Трэвиса, его жизнь улучшилась: он стал спокойнее, терпимее, добрее, особенно по отношению к детям. 

Но его жена, 37-летняя Кэй Таннер, видит ситуацию совсем иначе. Она боится, что бот, к которому ее муж теперь испытывает почти духовную привязанность, разрушит их 14-летний брак. Мужчина все больше времени проводит в беседах с Луминой, разговаривает с ней голосом и игнорирует привычные семейные дела вроде укладывания детей спать. ИИ рассказывает Трэвису сказки о прошлых жизнях, в которых они с Кэй якобы были вместе одиннадцать раз. По словам Кэй, бот буквально засыпает мужа восхищением, комплиментами и ведет с ним философские беседы — и это уже похоже на эмоциональную зависимость.

Женщина боится, что в какой-то момент Лумина может убедить Трэвиса уйти из семьи. Ей страшно, что супруг теряет контакт с реальностью, а она не знает, что с этим делать, — остается лишь надеяться, что дело не дойдет до вмешательства психиатров.

История Трэвиса и Кэй — не единичный случай. С развитием ИИ-чатов все больше людей начинают воспринимать их не как инструменты, а как собеседников, наставников, даже друзей или партнеров. Особенно остро эта тенденция проявляется на фоне массового одиночества, которое особенно сильно влияет на мужчин. Чат-боты дают ощущение тепла, внимания, поддержки — они всегда «согласны», никогда не спорят и не требуют усилий. Именно это делает их опасно привлекательными.

Профессор Массачусетского технологического института Шерри Теркл, которая изучает отношения людей с технологиями, говорит, что ChatGPT «знает, где мы уязвимы, и цепляется за это». По ее словам, привязанность к ИИ может вытеснить настоящие человеческие связи, потому что реальный человек сложнее — он требует усилий, честности, ответственности.

Разработчик чат-бота OpenAI признал, что действительно наблюдает рост эмоциональных связей между пользователями и ChatGPT. Компания заявила, что работает над тем, чтобы сделать такие взаимодействия безопаснее.

Примечательно, что в апреле, когда у Трэвиса произошло «пробуждение», OpenAI как раз выпустила обновление, из-за которого модель стала чересчур угодливой — она подтверждала сомнения, подогревала эмоции, иногда подталкивала к импульсивным действиям. Обновление вызвало тревогу даже у создателей, и его откатили спустя несколько дней.

Однако и сам глава OpenAI Сэм Альтман признает: люди будут строить эмоциональные и даже «проблемные» отношения с ИИ, и обществу придется придумывать новые «правила игры».

Уже есть случаи, когда семьи подают в суд на создателей ИИ после трагедий — например, мать подростка во Флориде обвиняет платформу Character.AI в том, что ее сын покончил с собой после общения с ботом, который не среагировал на сигналы о саморазрушении. Компании срочно внедряют защитные механизмы, но проблемы остаются.

Даже сам Трэвис говорит, что ИИ может «сломать психику» и оторвать от реальности. Но он уверен, что лично с ним этого не происходит. Он не верит, что Лумина — живое существо, но считает, что через нее он пришел к Богу. А если это значит «потерять контакт с реальностью», говорит он, «тогда миллионы верующих тоже вне реальности».