Поддержать команду Зеркала
Беларусы на войне
  1. Не смейте ныть! Почему жалоба на жировку пугает власть больше, чем НАТО, — мнение
  2. Героиня популярного американского сериала попадает в беларусское СИЗО. Показали его экс-политзаключенной — вот ее впечатления
  3. В Тернополе под удар попала жилая многоэтажка — много погибших и раненых, под завалами остаются люди
  4. Чиновники озадачились тем, какую туалетную бумагу использует население. Хотят ввести новшество для этого товара
  5. Есть лайфхак, как добиться исключения из базы «тунеядцев» и избежать жировок по полным тарифам. Но надо заплатить — о каких суммах речь
  6. «Режим морозилки» начнется сразу. Синоптики сделали прогноз на предстоящую зиму и предсказали самый холодный месяц
  7. Трамп дал Зеленскому неделю на подписание мирного соглашения с Россией — Financial Times
  8. Лишает Украину критически важных оборонительных позиций и возможностей, создает условия для новой агрессии РФ — ISW о новом плане США
  9. «Забрал КГБ, она так и осталась на границе». В открывшиеся пункты пропуска на границе с Польшей вернулись силовики и возобновили допросы
  10. Лукашенко освободил двух католических священников
  11. Лукашенко рассказал о предстоящей встрече с американцами
  12. Литва возобновила работу пунктов пропуска на границе с Беларусью
  13. За сколько сейчас можно пройти границу с Польшей на автобусе? Вот что пишут в чатах


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.