Поддержать команду Зеркала
Беларусы на войне
  1. Чиновники сделали предупреждение для работающих за границей — у некоторых есть риск попасть в финансовую ловушку
  2. В РФ радовались снятию санкций с «Белавиа» — мол, Минск может стать хабом для полетов в США. Прошел месяц — что с планами перевозчика
  3. Для водителей через несколько дней введут новшество
  4. В РФ все меньше желающих подписывать контракты на войну, это ставит Путина перед выбором, но оба варианта ему не по душе
  5. «Мы не готовы». В Беларуси выпал первый снег
  6. Нужно приготовиться к подорожанию доллара. Прогноз эксперта
  7. Этому оппозиционеру предложили отдать приказ об аресте Лукашенко, но он не рискнул. Позже Литва признала его главой Беларуси
  8. Один из самых кровавых серийных убийц современности — врач, которого обожали его пациенты. Пугающая история настоящего «Доктора Смерть»
  9. Доллар пытался начать расти, но ничего не вышло — и вот почему: прогноз по валютам
  10. Лукашенко провел кадровые перестановки. У трех крупных предприятий — новые руководители


Еще в 2014 году Марк Цукерберг начал работу над Koolau Ranch — обширным жилым комплексом площадью 1400 акров на гавайском острове Кауаи. Согласно журналу Wired, новый дом включает в себя убежище с собственными источниками энергии и запасами продовольствия, а строители, работающие на объекте, обязались не разглашать информацию об этом. Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги. Когда в прошлом году Цукурберга спросили, строит ли он бункер на случай конца света — основатель Facebook ответил категорическим «нет». По его словам, подземное пространство — «просто небольшое убежище, похожее на подвал». Но это не остановило спекуляции — как и его решение купить 11 объектов недвижимости в районе Кресент-Парк в Калифорнии, под которыми, по-видимому, находится подземное пространство площадью в 650 квадратных метров, пишет Русская служба Би-би-си.

Марк Цукерберг, сентябрь 2024 года. Фото: страница в Facebook
Марк Цукерберг, сентябрь 2024 года. Фото: страница в Facebook

В разрешении на строительство говорится, что Цукерберг оборудует подвалы, но, по данным New York Times, некоторые из его соседей называют сооружение бункером. Или пещерой миллиардера.

Также есть спекуляции, что и некоторые другие лидеры технологической отрасли заняты скупкой участков земли с подземными помещениями для преобразования в роскошные бункеры.

Рейд Хоффман, соучредитель LinkedIn, говорил о «страховке от апокалипсиса». По его словам, около половины сверхбогатых людей имеют такую страховку, а популярное место для приобретения таких домов — Новая Зеландия.

Могут ли эти люди действительно готовиться к войне, последствиям изменения климата или какому-то другому катастрофическому событию, о котором мы еще не знаем?

В последние несколько лет развитие искусственного интеллекта только пополнило список потенциальных экзистенциальных проблем. Многие глубоко обеспокоены стремительным темпом его развития.

Илья Суцкевер, главный научный сотрудник и соучредитель Open AI, по сообщениям, является одним из них.

К середине 2023 года, когда компания из Сан-Франциско выпустила ChatGPT — чат-бота, который сейчас используют сотни миллионов людей по всему миру, — и быстро работала над обновлениями, Суцкевер все больше убеждался, что ученые находятся на грани разработки общего искусственного интеллекта (ОИИ) — момента, когда машины сравняются с человеческим интеллектом.

В книге журналистки Карен Хао рассказывается, что на одном из совещаний Суцкевер предложил коллегам выкопать подземное убежище для ведущих ученых компании до того, как такая мощная технология будет выпущена в мир.

«Мы обязательно построим бункер, прежде чем выпустим ОИИ», — сказал Суцкевер, хотя неясно, кого он имел в виду под словом «мы».

Это проливает свет на странный факт: многие ведущие компьютерные ученые и технологические лидеры, некоторые из которых усердно работают над разработкой чрезвычайно интеллектуальной формы ИИ, также, похоже, глубоко опасаются того, что к чему это однажды может привести.

Так когда же именно — если вообще когда-нибудь — появится ОИИ? И действительно ли он может оказаться настолько революционной технологией, что обычные люди начнут его бояться?

Фото: SAFE
Визуализация бункера для богатейших людей мира, который планировали построить в США. Фото: SAFE

«Раньше, чем мы думаем»

Лидеры технологической отрасли заявляют, что появление ОИИ не за горами. В декабре 2024 года глава OpenAI Сэм Альтман заявил, что это произойдет «раньше, чем думает большинство людей в мире».

Демис Хассабис, соучредитель DeepMind, предсказал, что это произойдет в ближайшие пять-десять лет, а основатель Anthropic Дарио Амодей написал в прошлом году, что «мощный ИИ» может появиться уже в 2026 году.

Другие относятся к этому скептически.

«Они постоянно меняют правила игры, — говорит Венди Холл, профессор информатики Университета Саутгемптона. — Все зависит от того, с кем вы разговариваете».

«Научное сообщество утверждает, что технология ИИ потрясающая, — добавляет она. — Но она далека от человеческого интеллекта».

Сначала необходимо будет совершить ряд «фундаментальных прорывов», соглашается Бабак Ходжат, технический директор технологической компании Cognizant.

И вряд ли это произойдет в один момент. Скорее, ИИ — это быстро развивающаяся технология, которая находится в стадии становления, и многие компании по всему миру стремятся разработать свои собственные версии этой технологии.

Но одна из причин, по которым эта идея волнует некоторых в Кремниевой долине, заключается в том, что она считается предшественником чего-то еще более продвинутого: искусственного сверхинтеллекта — технологии, превосходящей человеческий интеллект.

Еще в 1958 году концепция «сингулярности» была посмертно приписана венгерскому математику Джону фон Нейману. Она описывает момент, когда компьютерный интеллект превзойдет человеческое понимание.

В книге «Генезис 2024», написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, исследуется идея сверхмощной технологии, которая становится настолько эффективной в принятии решений и руководстве, что мы в конечном итоге полностью передаем ей контроль.

По мнению авторов, вопрос не в том, будет ли это, а в том, когда это произойдет.

Деньги для всех без необходимости работать?

Сторонники новых технологий нейросетей с энтузиазмом рассказывают об их преимуществах. Они утверждают, что сверхумные ИИ помогут найти новые лекарства от смертельных болезней, решить проблему изменения климата и изобрести неиссякаемый источник чистой энергии.

Илон Маск даже заявил, что сверхинтеллектуальный ИИ может положить начало эре «всеобщего высокого дохода».

Илон Маск. Фото: Reuters
Илон Маск. Фото: Reuters

Недавно он поддержал идею о том, что ИИ станет настолько дешевым и распространенным, что практически каждый захочет иметь «своего личного R2-D2 и C-3PO» (ссылаясь на дроидов из «Звездных войн»).

«У каждого будет лучшее медицинское обслуживание, еда, транспорт и все остальное. Устойчивое изобилие», — восторженно заявил он.

Конечно, есть и страшная сторона. Может ли эта технология быть захвачена террористами и использована в качестве оружия, или что, если она сама решит, что человечество является причиной мировых проблем, и уничтожит нас?

«Если что-то умнее нас, то мы должны держать это под контролем, — предупредил Тим Бернерс-Ли, создатель Всемирной паутины. — Мы должны иметь возможность это отключить».

И государства уже принимают защитные меры. В США, где базируются многие ведущие компании в области ИИ, президент Байден в 2023 году подписал указ, обязывающий некоторые фирмы делиться результатами тестов безопасности с федеральным правительством. Но президент Трамп впоследствии отменил часть этого указа, назвав его «барьером» для инноваций.

В Великобритании два года назад был создан Институт безопасности ИИ — финансируемый государством исследовательский орган — для лучшего понимания рисков, связанных с передовым ИИ.

Но есть сверхбогатые люди, у которых есть свои планы «страховки от апокалипсиса».
«Когда кто-то говорит, что он «покупает дом в Новой Зеландии», — это своего рода намек, мол, «все понятно, дальше можно не объяснять»», — ранее говорил сооснователь LinkedIn Рид Хоффман.

То же самое, по всей видимости, касается и бункеров. Но тут есть одна сугубо человеческая слабость.

Однажды корреспондентка Би-би-си встретила бывшего телохранителя миллиардера, у которого был собственный «бункер». Он рассказал ей, что в случае реального апокалипсиса приоритетом охраны будет устранение самого босса и занятие бункера. И, похоже, он не шутил.

Это все паника?

Нил Лоуренс — профессор машинного обучения в Кембриджском университете. И, по его мнению, вся эта дискуссия сама по себе не имеет смысла.

«Понятие общего искусственного интеллекта столь же абсурдно, как и понятие «искусственного общего транспортного средства»», — утверждает он.

«Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий… Нет такого транспортного средства, которое могло бы делать все это».

Для него разговоры об ОИИ — это отвлекающий маневр.

«Технологии, которые мы [уже] создали, впервые позволяют обычным людям напрямую общаться с машиной и потенциально заставлять ее делать то, что они хотят. Это абсолютно необыкновенно… и совершенно революционно».

«Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей».

Современные инструменты искусственного интеллекта обучаются на огромных массивах данных и хорошо распознают закономерности: будь то признаки опухоли на снимках или слово, которое с наибольшей вероятностью следует за другим в определенной последовательности. Но они не «чувствуют», какими бы убедительными ни казались их ответы.

«Есть некоторые «хитрости», которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится, но они неудовлетворительны и значительно уступают человеческим способностям», — говорит Бабак Ходжат.

Винс Линч, генеральный директор калифорнийской компании IV.AI, также с осторожностью относится к преувеличенным заявлениям о сверхинтеллекте.

«Это отличный маркетинговый ход, — говорит он. — Если ваша компания создает самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги».
Он добавляет: «Это не дело двух лет. Для этого требуется огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок».

Интеллект без сознания

В некотором смысле ИИ уже превзошел человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую — решать сложные математические уравнения.

Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что ее системы ИИ совершенствуются.

Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 миллиардов нейронов и 600 триллионов синапсов, что намного больше, чем у искусственных аналогов.

Мозг также не нуждается в паузах между взаимодействиями и постоянно адаптируется к новой информации.

«Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит, и это повлияет на его мировоззрение. А вот для LLM [большой языковой модели] это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт, — говорит Ходжат. — LLM также не обладают метапознанием, что означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают».

Это фундаментальная часть человеческого интеллекта, которую еще предстоит воспроизвести в лаборатории.