Поддержать команду Зеркала
Беларусы на войне
  1. «Дáвите людей, дáвите, но все никак не задáвите». Почему силовиков так задел флешмоб с красной помадой — мнение
  2. Что будет с демсилами после освобождения Бабарико и Колесниковой? Спросили эксперта
  3. Бывший сотрудник президентского пула, экс-политзаключенный Дмитрий Семченко рассказал, как его пытались сломать в СИЗО
  4. В разборках Беларуси и Литвы из-за калия наметился весьма неожиданный поворот. Рассказываем, что заявили в Вильнюсе
  5. «Давайте, вызывайте полицию». Беларус в Турции попал в конфликт в магазине — и оказался в местной тюрьме
  6. Привел Лукашенко к власти, затем стал его противником и написал одну из лучших книг об этом политике. История Александра Федуты
  7. «Пустое». Бабарико рассказал о встрече с Лукашенко в СИЗО КГБ
  8. «Стоимость уходит все дальше от отметки в 2000 долларов». Что происходит на рынке недвижимости в Минске
  9. Доллар больше не будет дешевым: почему произошел разворот к 3 рублям и каких курсов ждать дальше. Прогноз по валютам
  10. ЕС представил план гарантий безопасности для Украины. Он состоит из шести ключевых пунктов
  11. Ответы Колесниковой и Бабарико о войне в Украине вызвали бурю эмоций. Собрали мнения спорящих
  12. «Лукашенко не избежать ответственности за совершенные преступления». МИД Украины — об освобожденных политзаключенных
  13. «Я ему много чего интересного скажу». Лукашенко анонсировал скорый разговор с Трампом
  14. Ситуация для российских сил в Купянске ухудшается. Они пытались проникнуть в город через газопровод, но ВСУ заблокировали его


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.