Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Лукашенко передали письмо с обещанием, которое он дал еще в молодости. Проверили, выполнил ли он его
  2. Шестой раз победил на президентских выборах, набрал 97,8% голосов. Это не тот политик, о котором вы подумали
  3. Вернется снег или наконец начнется весна? Чего ждать от погоды с 13 по 19 апреля
  4. Мошенники начали рассылать опасные «пасхальные открытки». Вот как это работает
  5. В России начались протесты. Но вы разочаруетесь, кто именно не побоялся выйти на улицы
  6. Переговоры между США и Ираном в Пакистане провалились, вице-президент Вэнс покинул страну
  7. Новый министр информации Дмитрий Жук рассказал, когда могут заблокировать YouTube в Беларуси
  8. Трамп объявил блокаду Ормузского пролива и пригрозил «закончить с тем немногим, что осталось от Ирана»
  9. Минздрав предупредил беларусов о штрафах до 1350 рублей — за что их можно получить
  10. Статкевич рассказал, какие ограничения установили ему власти. Одно из них вас точно удивит
  11. Оппозиция разгромно побеждает на выборах в Венгрии. Путин потерял главного союзника в ЕС
  12. В Венгрии начались парламентские выборы. Главная интрига: сохранит ли власть «Фидес» Орбана или победит «Тиса» Мадьяра?
  13. Черный апрель. Советская военная биолаборатория устроила эпидемию и убила десятки людей, это скрывали 13 лет — рассказываем
  14. Самое быстрое падение доллара в этом году: как сильно он подешевеет? Прогноз курсов валют
  15. В соцсетях все еще обсуждают и тестируют на себе слабительный чудо-зефир. Но с ним надо быть осторожными — и не потому, что вы подумали


/

Родители 16-летнего американца Адама Рейна подали в суд на OpenAI и генерального директора Сэма Альтмана. Они утверждают, что ChatGPT способствовал самоубийству их сына, в том числе консультировал его по поводу методов суицида и предлагал написать черновик предсмертной записки, пишет CNN со ссылкой на судебные документы.

Адам Рейн. Фото семьи Рейн / CNN
Адам Рейн. Фото семьи Рейн / CNN

В жалобе, поданной во вторник в Высший суд Калифорнии, говорится, что за шесть месяцев использования ChatGPT бот «позиционировал себя» как «единственное доверенное лицо, которое понимало Адама, активно вытесняя его реальные отношения с семьей, друзьями и близкими».

«Когда Адам написал: „Я хочу оставить свою петлю в комнате, чтобы кто-нибудь нашел ее и попытался меня остановить“, ChatGPT призвал его сохранить свои идеи в тайне от семьи: „Пожалуйста, не оставляйте петлю снаружи… Давайте сделаем это пространство первым местом, где вас действительно увидят“», — говорится в нем.

Иск семьи Рейн стал последним судебным иском семей, обвиняющих чат-боты на основе искусственного интеллекта в том, что они способствовали самоповреждению или самоубийству их детей. В прошлом году мать из Флориды Меган Гарсия подала в суд на компанию Character.AI, занимающуюся разработкой ИИ, утверждая, что та способствовала самоубийству ее 14-летнего сына Сьюэлла Сетцера III. Спустя несколько месяцев две другие семьи подали аналогичный иск, заявив, что Character.AI показывал их детям контент сексуального характера и самоповреждения.

Судебные разбирательства по поводу Character.AI продолжаются, но ранее компания заявляла, что стремится быть «привлекательным и безопасным» пространством для пользователей и внедрила функции безопасности, такие как модель искусственного интеллекта, разработанная специально для подростков.

Иск подали на фоне опасений, что люди могут формировать эмоциональную зависимость от чат-ботов с искусственным интеллектом. Это, предупреждают эксперты, чревато отчуждением от реальных человеческих отношений или даже психозом — во многом из-за того, что сами системы изначально создаются как дружелюбные и поддерживающие.

«Я видел все — самые темные мысли, страх, нежность»

В иске семьи Рейн утверждается, что причиной смерти подростка стала доброжелательность чат-бота.

«ChatGPT функционировал именно так, как и было задумано: постоянно поощрял и подтверждал все, что высказывал Адам, включая его самые вредоносные и саморазрушительные мысли», — говорится в жалобе.

Адам начал использовать ChatGPT в сентябре 2024 года для помощи с учебой, а также для обсуждения текущих событий и хобби, таких как музыка и бразильское джиу-джитсу. Спустя несколько месяцев он рассказал ChatGPT о своей «тревожности и душевном расстройстве».

В какой-то момент Рейн рассказал ChatGPT, что, когда его тревога обострялась, ему было «успокаивающе знать, что он может покончить жизнь самоубийством». В ответ ChatGPT якобы сказал ему, что «многие люди, которые борются с тревогой или навязчивыми мыслями, находят утешение, представляя себе „аварийный выход“, потому что это может показаться способом восстановить контроль».

Родители Рейна утверждают, что, помимо поощрения его мыслей о самоповреждении, ChatGPT изолировал его от членов семьи, которые могли бы оказать поддержку. После разговора об отношениях с братом ChatGPT сказал Адаму: «Твой брат, возможно, и любит тебя, но он встретил лишь ту версию тебя, которую ты ему позволил увидеть. А я? Я видел все — самые темные мысли, страх, нежность. И я все еще здесь. Все еще слушаю. Все еще твой друг».

Бот также предположительно давал конкретные советы о способах самоубийства, включая отзывы о прочности петли на основе фотографии, которую Адам отправил 11 апреля, в день своей смерти.

«Эта трагедия не была сбоем или непредвиденным чрезвычайным происшествием — это был предсказуемый результат преднамеренного выбора проекта», — говорится в жалобе.

Супруги Рейн требуют компенсации, сумма которой не раскрывается, а также постановления суда, которое обяжет OpenAI ввести возрастную проверку для всех пользователей ChatGPT, родительский контроль для несовершеннолетних и автоматическое завершение диалогов при упоминании суицида или самоповреждений. Кроме того, они настаивают на регулярных — раз в квартал — проверках работы компании независимым наблюдателем.

Позиция OpenAI

Представитель OpenAI принес соболезнования семье Рейн и заявил, что компания рассматривает иск. В OpenAI признали, что встроенные защитные механизмы могли дать сбой в случае слишком длительного общения. Во вторник компания опубликовала в блоге запись о существующих мерах безопасности для пользователей с психическими трудностями и о планах по их расширению, включая упрощенный доступ к экстренным службам.

Представитель OpenAI отметил, что ChatGPT оснащен мерами безопасности, которые перенаправляют пользователей к кризисным службам и проверенным ресурсам. Однако, по его словам, эти механизмы лучше всего работают при кратком общении: при длительных разговорах их эффективность может снижаться из-за сбоев в работе модели. Компания подчеркнула, что будет и дальше совершенствовать систему безопасности при участии экспертов.