Поддержать команду Зеркала
Беларусы на войне
  1. «Это станет исторической ошибкой колоссальных масштабов». В ЕС установили новую «красную линию» для мирного соглашения с Россией
  2. Россиянка с мужем-военным «перевелась в Беларусь» и показала жилье «чуть дальше Ганцевичей». Новоселы — в шоке, комментаторы — нет
  3. «Белтехосмотр» выпустил несколько предупреждений для водителей
  4. В МВД призвали звонить в 102, если вам предложили установить в квартирах это устройство. Кто не послушается — может попасть под «уголовку»
  5. Не стоит ждать мира: эксперты объяснили, почему России не выгодны прекращение огня и переговоры на основе плана Трампа
  6. «Отлавливать и отправлять в Минск». Рассказываем, как и зачем 200 лет назад российские власти объявили охоту на беларусских детей
  7. ГАИ тестирует новую камеру скрытого контроля. Водителям ее заметить очень сложно
  8. «Всегда был похож на Лукашенко». Посмотрели, что пишут в соцсетях о конфликте Тихановского с Беспаловым
  9. Эксперты назвали лучшие страны для иммигрантов. В топ-10 оказалось лишь одно государство ЕС
  10. Не лезть в грязное белье? Почему нормально обсуждать личную жизнь Тихановских — мнение
  11. Стало известно, каким будет курс доллара в начале декабря: прогноз по валютам
  12. «Заставить пользоваться — унизительно». Беларусы ответили чиновникам, которые готовятся ввести ограничения по популярному товару
  13. «Ребята принесли свои извинения». Тихановский сообщил о видеоразговоре с советниками Светланы Тихановской
  14. Глава Администрации Лукашенко пожаловался на плохие продажи техники в России и назвал причины


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.