Искусственный интеллект. Этапы. Угрозы. Стратегии | |
---|---|
англ. Superintelligence: Paths, Dangers, Strategies | |
Автор | Ник Бостром |
Жанр | научно-популярный |
Язык оригинала | английский |
Оригинал издан | 3 июля 2014 |
Страниц | 496 |
ISBN | 978-5-00057-810-0 |
Предыдущая | Global Catastrophic Risks[вд] |
«Искусственный интеллект. Этапы. Угрозы. Стратегии»[1] (англ. Superintelligence: Paths, Dangers, Strategies) — книга философа Ника Бострома вышедшая в 2014 году, в которой рассматриваются возможные последствия создания искусственного сверхинтеллекта[2]. Основным посылом книги является экзистенциальный риск[3] связанный с высокой вероятностью выхода из-под контроля искусственного сверхинтеллекта, как системы способной к самоулучшению и достижению промежуточных целей. В отличие от слабого ИИ такую систему станет трудно, или даже невозможно контролировать, что может привести к непредсказуемым последствиям для человеческого вида. В книге рассматриваются такие сценарии как использование сверхразумной системы своей силы для захваты власти и ресурсов, с целью достижения собственных целей[4]. Также рассматриваются варианты при которых будет создан сверхинтеллект работающий на благо человечества[5].
Вопрос о появлении искусственного интеллекта человеческого уровня остается неопределенным: это может произойти в ближайшие годы, в последующие десятилетия или даже в далеком будущем. Независимо от первоначальных сроков, как только будет разработан искусственный интеллект человеческого уровня, «сверхразумная» система, которая значительно превосходит когнитивные способности человека практически во всех областях, скорее всего, появится на удивление быстро. Таким сверхразумом станет очень трудно, или даже невозможно управлять.
Хотя конечные цели у сверхинтеллекта могут сильно различаться, действующий сверхинтеллект будет спонтанно создавать в качестве естественных подцелей инструментальные цели, например направленные на самосохранение, самоулучшение и обретение ресурсов. Искусственный сверхинтеллект будет активно сопротивляться любым внешним попыткам его отключения, или другим способам помешать достижению его целей. Чтобы предотвратить экзистенциальную катастрофу должна быть решена проблема согласования искусственного интеллекта. Решением может стать внедрение в сверхразумную систему целей, совместимыми с выживанием и благополучием человечества. Решить проблему согласования на удивление сложно, поскольку большинство целей при переводе их в машинно-реализуемый код приводит к непредсказуемым и даже вредным последствиям[6].
Книга заняла 17-е место в списке самых продаваемых научных книг The New York Times в августе 2014 года[7]. В том же месяце Илон Маск выступил с речью о том, что искусственный интеллект с разумом превосходящим человеческий потенциально более опасен, чем ядерное оружие.[8][9][10] Работа Ника Бострома по искусственному интеллекту также оказала влияние на Билла Гейтса, который согласился с экзистенциальными рисками, с которыми предстоит столкнуться человечество в предстоящем столетии.[11][12] В интервью генеральному директору Baidu Робину Ли в марте 2015 года Гейтс сказал, что «настоятельно рекомендует» книгу Ника Бострома[13]. В 2015 году Сэм Альтман написал что эта книга — лучшее, что он когда-либо читал о рисках связанных и искусственным интеллектом[14].
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 9 апреля 2024 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 22 июня 2023 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 29 апреля 2019 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 21 октября 2015 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 25 ноября 2023 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 25 февраля 2024 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 25 февраля 2024 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 25 февраля 2024 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 19 февраля 2015 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 5 июня 2019 (справка)
{{cite news}}
: |archive-date=
/ |archive-url=
несоответствие временной метки; предлагается 7 апреля 2024 (справка); Указан более чем один параметр |first1=
and |first=
(справка)