Структура глобальной катастрофы (реальность уничтожения человечества)

 

Угроза существованию — это та угроза, в которой негативный исход или уничтожает возникшую на Земле разумную жизнь, или необратимо и значительно сокращает её потенциал.
Н. Бостром. «Угрозы существованию: анализ сценариев человеческого вымирания».

Термины
Doomsday argument — Теорема о Конце света, или иногда рассуждение о конце света Картера-Лесли, сокращённо — DA.
NBIC-конвергенция — означает наблюдающуюся в современной науке тенденцию к слиянию и обмену информацией, методами и результатами между четырьмя ключевыми технологиями nano-bio-info-cogno.
Агент — вещество, вирус, бактерия или любой другой распространяющийся фактор воздействия, причиняющий смерть.
Глобальная катастрофа — событие, приводящее к необратимому вымиранию всех людей. События, которые затрагивают весь мир, но не приводят к тотальному вымиранию, называются в этом тексте «очень большими катастрофами».
«Дружественный» ИИ — универсальный сильный ИИ, система целей которого устроена так, что он не будет причинять вред людям и будет уменьшать риск глобальной катастрофы. Его противоположность — недружественный ИИ, система целей которого ведёт к гибели людей и даже вымиранию человечества.
Закон Мура — исходно относится к удвоению числа транзисторов на микропроцессорах каждые два года. Говоря о законе Мура, мы будем иметь в виду закон Мура в широком смысле слова, как процесс экспоненциального роста ряда ключевых технологий с периодом удвоения в несколько лет.
ИИ — Искусственный интеллект, понимаемый как Универсальный искусственный интеллект, способный к самосовершенствованию и любой интеллектуальной деятельности, доступной человеку.
Машина судного дня, оружие судного дня — любое устройство, вещество или способ, которые разработаны специально для окончательного и необратимого уничтожения человечества.
Ошибки — по-английски `cognitive biases’, что можно перевести как «предубеждения» или «отклонения в ходе рассуждений», или, если употребить точный психологический термин, «когнитивные искажения».
Постапокалиптический мир — то, чем может стать Земля, в случае, если на ней произойдёт очень большая катастрофа, однако какое-то число людей выживет.
Сверхтехнологии — принципиально новые способы влияния на внешний мир, способные его полностью трансформировать и/или создать глобальные риски, в первую очередь это нано, био, когно и ИИ-технологии
Сингулярность — гипотетическая точка во времени в районе 2030 года, когда ряд прогностических кривых уходят в бесконечность. Связывается с крайне быстрым ростом технического прогресса, особенно компьютеров, нано- и биотехнологий, исследований мозга и систем ИИ и предполагает качественное изменение человечества. Термин введён в употребление Вернором Винджем в 1993 году.
Структура катастрофы — взаимосвязь научных заблуждений, конструкторских недоработок, операторских ошибок и цепной реакции факторов разрушения, ведущих к катастрофе.

Структура глобальной катастрофы (реальность уничтожения человечества)

Часть 1. Анализ Рисков

Глава 1. Общие замечания
Пространство возможностей
Один из важнейших способов достижения безопасности — учёт всех возможных сценариев в соответствии с их вероятностями, то есть построение «древа отказов». Например, безопасность авиатранспорта достигается, в частности, за счёт того, что учитываются всевозможные сценарии катастрофы вплоть до определённого, точно вычисленного уровня риска. Описание пространства возможностей глобальной катастрофы преследует цель её предотвращения. Следовательно, оно должно сосредоточиться на тех узловых точках, управление которыми позволит регулировать риск как можно большего числа возможных катастрофических сценариев. Кроме того, описание должно дать информацию, удобную для осмысления и пригодную для практического использования — и желательно, чтобы эта информация была адаптирована для тех потребителей, которые будут осуществлять непосредственное предотвращение глобальных рисков. Однако задача определения этих потребителей сама по себе не проста.
Обратите внимание, что при чтении одни моменты могут показаться вам очевидными, другие интересными, а третьи — вопиющими глупостями. Обратите также внимание, насколько будет отличаться ваша реакция от реакции других, не менее образованных, чем вы, людей. Этот разброс оценок есть, на самом деле, мера неопределенности в том, что мы знаем и можем знать о будущем.
Вся информация взята из открытых источников, приведённых в списке литературы.
Рассматриваемый промежуток времени: XXI век
Есть два различных класса прогнозов — о том, что именно произойдет, и о том, когда это случится. Идеальный прогноз должен отвечать на оба эти вопроса. Однако, поскольку до идеала в прогнозах обычно далеко, то одни прогнозы лучше говорят о том, что будет, а другие о том, когда. Наилучший результат в отношении времени события можно получить, вообще не вникая в фактическую суть событий, а анализируя события статистически. Например, если знать, что рецессия в США бывает в среднем раз 8 лет с разбросом плюс минус два года, можно неплохо угадывать время следующей рецессии, не вникая в её фактически причины. C другой стороны, анализируя фундаментальные причины событий, можно совершить значительную ошибку в оценке времени их наступления, которое часто зависит от случайных и невычислимых факторов. Например, мы наверняка можем утверждать, что рано или поздно в районе Калифорнии произойдёт мощное землетрясение силой до 9 баллов, связанное с подвижкой океанической коры под материковую, то есть мы знаем, что произойдёт землетрясение, но не знаем, когда.
Исследуя глобальные катастрофы, возможные в XXI веке, мы в нашей работе пытаемся ответить на оба вопроса, поскольку мы описываем не только их механизмы, но и утверждаем, что эти механизмы могут реализоваться в течение ближайших нескольких десятков лет. Возможно, некоторым читателям будет проще допустить возможность реализации этих механизмов не через 30, а, допустим, через 300 лет. Таким читателям можно сказать, что, исходя из принципа предосторожности, мы рассматриваем наиболее опасный сценарий наиболее быстрого развития ситуации, и что действительно возможно, что эти же самые события произойдут значительно позже. Но следует заметить, что Р.Курцвел, рассматривая вопрос ускорения темпов исторического времени и скорости технологического прогресса, предлагает считать XXI век равным по объёму инноваций предыдущим 20 000 годам человеческого развития.
В нашей книге анализируются угрозы существованию человечества, которые могут возникнуть и реализоваться в течение XXI века. За этой границей неопределённость настолько велика, что мы не можем сейчас ничего ни предсказать, ни предотвратить. Более того, возможно, даже граница 2100 года является слишком отдалённой (см. далее о пике прогностических кривых в районе 2030 года).
Некоторые сценарии имеют определённые последствия, которые могут сказаться после XXI века (например, глобальное потепление), и в этом случае мы обсуждаем их. Граница 2100-ого года позволяет нам не рассматривать в качестве рисков глобальной катастрофы отдалённые во времени космические события, вроде превращения Солнца в красного гиганта. И взята эта граница не случайно. Именно 100 лет являются характерным сроком для глобальных катастроф, а не 1 год, не 10 лет и не 1000 — это станет очевидным из дальнейшего анализа конкретных рисков.
Иначе говоря, любые комбинации из приведённых ниже сценариев глобальной катастрофы могут реализоваться в течение ближайших нескольких десятков лет. Однако поскольку я понимаю, что моя оценка времени, возможно, содержит неустранимую ошибку, я расширяю её до 100 лет. Однако моя оценка времени может содержать и ошибку в обратную сторону, что означает, что у нас нет ни ста лет, ни двадцати, а только несколько лет до того момента, когда вероятность глобальной катастрофы достигнет максимума. (Поскольку погодовая вероятность глобальной катастрофы растёт, и поскольку так не может продолжаться вечно, то эта плотность вероятности имеет некий горб, который означает момент времени, когда вероятность этой катастрофы максимальна — о том, будет ли он через несколько лет, через 23 года или через 100 лет и идёт разговор. Подробнее этот вопрос будет обсуждаться в разделе «Неизбежность достижения устойчивого состояния» главы 19 «Многофакторные сценарии».) Разумеется, есть вероятность, что она случится и завтра, однако я рассматриваю её как незначительную.
Фактически, говоря о XXI веке в целом, я, возможно, внушаю ложное чувство спокойствия, поскольку существует класс источников глобальных рисков, вероятность появления которых значительно возрастёт в ближайшие 10-20 лет. Речь идёт, в первую очередь, об опасных практических приложениях биотехнологий (см. дальше в главе 4). Поэтому возможно, следовало бы говорить о первой половине XXI века. Иначе говоря, глобальные катастрофы могут случиться не с нашими потомками, а именно с нами. Я допускаю, что для живущего сейчас обычного человека шанс умереть от глобальной катастрофы выше, чем вероятность естественной смерти.
Проблемы вычисления вероятностей различных сценариев
Начну с цитаты из эссе «О невозможности прогнозирования» С. Лема: «Здесь автор провозглашает тщетность предвидений будущего, основанных на вероятностных оценках. Он хочет показать, что история сплошь состоит из фактов, совершенно немыслимых с точки зрения теории вероятностей. Профессор Коуска переносит воображаемого футуролога в начало XX века, наделив его всеми знаниями той эпохи, чтобы задать ему ряд вопросов. Например: «Считаешь ли ты вероятным, что вскоре откроют серебристый, похожий на свинец металл, который способен уничтожить жизнь на Земле, если два полушария из этого металла придвинуть друг к другу, чтобы получился шар величиной с большой апельсин? Считаешь ли ты возможным, что вон та старая бричка, в которую господин Бенц запихнул стрекочущий двигатель мощностью в полторы лошади, вскоре так расплодится, что от удушливых испарений и выхлопных газов в больших городах день обратится в ночь, а приткнуть эту повозку куда-нибудь станет настолько трудно, что в громаднейших мегаполисах не будет проблемы труднее этой? Считаешь ли ты вероятным, что благодаря принципу шутих и пинков люди вскоре смогут разгуливать по Луне, а их прогулки в ту же самую минуту увидят в сотнях миллионов домов на Земле? Считаешь ли ты возможным, что вскоре появятся искусственные небесные тела, снабженные устройствами, которые позволят из космоса следить за любым человеком в поле или на улице? Возможно ли, по-твоему, построить машину, которая будет лучше тебя играть в шахматы, сочинять музыку, переводить с одного языка на другой и выполнять за какие-то минуты вычисления, которых за всю свою жизнь не выполнили бы все на свете бухгалтеры и счетоводы? Считаешь ли ты возможным, что вскоре в центре Европы возникнут огромные фабрики, в которых станут топить печи живыми людьми, причем число этих несчастных превысит миллионы?» Понятно, говорит профессор Коуска, что в 1900 году только умалишенный признал бы все эти события хоть чуточку вероятными. А ведь все они совершились. Но если случились сплошные невероятности, с какой это стати вдруг наступит кардинальное улучшение и отныне начнет сбываться лишь то, что кажется нам вероятным, мыслимым и возможным? Предсказывайте себе будущее, как хотите, обращается он к футурологам, только не стройте свои предсказания на наибольших вероятностях…».9
Предлагаемая картина глобальных рисков и их взаимодействия друг с другом вызывает естественное желание вычислить точные вероятности тех или иных сценариев. Очевидно также, что при этом мы сталкиваемся со значительными трудностями. Связано это с принципиальной недостаточностью информации в наших моделях, несовершенством самих моделей, а также — с хаотическим характером всей системы.
С другой стороны, отсутствие каких-либо оценок нивелирует ценность построений. При этом, получение неких численных оценок само по себе тоже бессмысленно, если мы не знаем, как мы их применим. Допустим, мы выясним, что вероятность возникновения опасного недружественного ИИ составляет 14 % в ближайшие 10 лет. Как нам применить эту информацию? Или, если всё-таки случится глобальная катастрофа, имевшая оценку вероятности в 0,1 %, мы всё равно не узнаем, какова была действительно вероятность, поскольку это однократное событие, и не понятно, из какого множества делается выборка. Иначе говоря, сам факт катастрофы ничего не скажет нам о том, было ли это закономерное событие, или нам просто очень не повезло.
Я исхожу из того, что оценки вероятности нужны, прежде всего, для принятия решений о том, каким проблемам стоит уделить внимание и ресурсы, а какими можно пренебречь. Однако, цена предотвращения разных классов проблем различна: одни предотвратить относительно легко, а другие фактически невозможно. Поэтому для вычисления вероятностей мы будем пользоваться байесовой логикой**** и теорией принятия решения в условиях неопределённости. Получившиеся в результате числа будут не реальными вероятностями (в смысле статистическими распределениями разных глобальных рисков по множеству возможных сценариев), которые нам неизвестны, а нашими наилучшими субъективными оценками этих вероятностей.
Далее, такое вычисление должно учитывать временную последовательность разных рисков. Например, если риск А имеет вероятность в 50 % в первой половине XXI в., а риск Б — 50 % во второй половине, то наши реальные шансы погибнуть от риска Б — только 25 %, потому что в половине случаев мы до него не доживём.
Наконец, для разных рисков мы хотим получить погодовую плотность вероятности. Напомню, что здесь должна быть применена формула непрерывного нарастания процентов, как в случае радиоактивного распада. (Например, погодовой риск в 0,7 % даст 50 % вымирания цивилизации за 100 лет, 75 % за 200 и 99,9 % за 1000 лет.) Это означает, что любой риск, заданный на некотором промежутке времени, можно нормировать на «период полураспада», то есть время, на котором он бы означал 50 %-ую вероятность вымирания цивилизации.
Иначе говоря, вероятность вымирания за период времени [0; T] равна:
P(T) = 1 — 2,
Где Т — время полураспада. Тогда погодовая вероятность будет P(1) = 1 — 2, Следующая таблица показывает соотношение этих параметров, вычисленное с помощью вышеприведенной формулы для разных начальных условий.
Таблица 1. Связь ожидаемого времени существования цивилизации с погодовой вероятностью вымирания.

T0 — период, за который глобальная катастрофа случится с вероятностью 50 %: P(1) — вероятность глобальной катастрофы в ближайший год, %P(100) — вероятность вымирания цивилизации за 100 лет (то есть к 2107г). %1-P(100) — шансы выживания цивилизации за 100 лет:Период гарантированного вымирания с вероятностью
99,9 %, лет: 10 000 0.0069 % 0,7 % 99,3 % 100 000 1 600 0.0433 % 6 % 94 % 16 000 400 0.173 %
12,5 % 87,5 % 4 000 200 0.346 % 25 % 75 % 2 000 100 0.691 % 50 % 50 % 1 000 50 1,375 % 75 % 1 к 4 500 25 2,735 % 93,75 % 1 к 16 250 12,5 5,394 % 99,6 % 1 к 256 125 6 10,910 % 99,9984 % 1 к 16 536 60
Обратите внимание на нижнюю часть этой таблицы, где даже очень большое снижение шансов выживания за весь XXI век не изменяет в значительной мере «период полураспада» T0, который остаётся на уровне порядка 10 лет. Это означает, что даже если шансы пережить XXI век очень малы, всё равно у нас почти наверняка есть ещё несколько лет до «конца света». С другой стороны, если мы хотим пережить XXI век наверняка (сделать 1-P(100) как можно выше), нам надо приблизить погодовую вероятность вымирания P(1) практически к нулю.
В нашей методологии мы рассмотрели список из примерно 150 возможных логических ошибок, которые так или иначе могут изменить оценку рисков. Даже если вклад каждой ошибки составит не более одного процента, результат может отличаться от правильного в разы и даже на порядки. Когда люди предпринимают что-то впервые, они обычно недооценивают рискованность проекта в 40-100 раз, что видно на примере Чернобыля и Челленджера. (А именно, челнок был рассчитан на одну аварию на 1000 полётов, но первый раз разбился уже на 25-ом полёте, что, как подчёркивает Юдковски, говорит о том, что оценка безопасности в 1 к 25 была бы более правильной, что в 40 раз меньше исходной оценки; реакторы строились с расчетом одна авария на миллион лет, но первая масштабная авария произошла через примерно 10.000 станций-лет эксплуатации, то есть, оценка безопасности в 100 раз более низкая была бы более точной.) Е. Юдковски в своей основополагающей статье «Систематические ошибки в рассуждения, влияющие на оценку глобальных рисков»10 приводит анализ достоверности высказываний экспертов о разнообразных величинах, которые они не могут вычислить точно, и о том, какие интервалы 99 %-й уверенности они дают для этих величин. Результаты этих экспериментов удручают. Позволю себе большую цитату:
«Допустим, я попрошу вас сделать наилучшее возможное предположение насчёт неизвестного числа, такого, как количество «Врачей и хирургов» в бостонской телефонной книге, или о суммарной продукции яиц в США в миллионах штук. Вы дадите в ответ некую величину, которая наверняка не будет совершенно точной; подлинная величина будет больше или меньше, чем вы предположили. Затем я попрошу вас назвать нижнюю границу этого показателя, когда вы уверенны на 99 %, что подлинная величина лежит выше этой границы, и верхнюю границу, по отношению к которой вы на 99 % уверены, что искомая величина лежит ниже неё. Эти две границы образуют ваш интервал 98 %-й уверенности. Если вы хорошо откалиброваны, то на 100 подобных вопросов у вас будет только примерно 2 выпадения за границы интервала.
Альперт и Раиффа задали испытуемым 1000 вопросов по общеизвестным темам, подобных приведённым выше. Оказалось, что 426 подлинных значений лежали за пределами 98 %-ых интервалов уверенности, данных испытуемыми. Если бы испытуемые были правильно настроены, было бы только 20 сюрпризов. Иными словами, события, которым испытуемые приписывали вероятность 2 %, случались в 42.6 % случаев.
Другую группу из 35 испытуемых попросили оценить 99.9 %-е верхние и нижние границы уверенности. Они оказались неправы в 40 % случаев. Другие 35 субъектов были опрошены о максимальных и минимальных значениях некого параметра и ошиблись в 47 % случаев. Наконец, четвёртая группа из 35 субъектов должна была указать «невероятно малое» и «невероятно большое» значение параметра; они ошиблись в 38 % случаев.
Во втором эксперименте новой группе испытуемых был предоставлен первый набор вопросов вместе с ответами, рейтингом оценок, с рассказом о результатах экспериментов и разъяснением концепции калибровки — и затем их попросили дать 98 %-е интервалы уверенности для новой группы вопросов. Прошедшие подготовку субъекты ошиблись в 19 % случаях, что являет собой значительное улучшение их результата в 34 % до подготовки, но всё ещё весьма далеко от хорошо откалиброванного результата в 2 %.
Подобные уровни ошибок были обнаружены и у экспертов. Хинес и Ванмарк опросили семь всемирно известных геотехников на предмет высоты дамбы, которая вызовет разрушение фундамента из глинистых пород, и попросили оценить интервал 50 %-й уверенности вокруг этой оценки. Оказалось, что ни один из предложенных интервалов не включал в себя правильную высоту. Кристиен-Салански и Бушихед опросили группу врачей на предмет вероятности пневмонии у 1531 пациента с кашлем. В наиболее точно указанном интервале уверенности с заявленной достоверностью в 88 %, доля пациентов, действительно имевших пневмонию, была менее 20 %.
Лихтенштейн производит обзор 14 исследований на основании 34 экспериментов, выполненных 23 исследователями, изучавшими особенности оценки достоверности собственных выводов людьми. Из них следовал мощнейший вывод о том, что люди всегда сверхуверены. В современных исследованиях на сверхуверенность уже не обращают внимания; но она продолжает попутно проявляться почти в каждом эксперименте, где субъектам позволяется давать оценки максимальных вероятностей.
Сверхуверенность в большой мере проявляется в сфере планирования, где она известна как ошибочность планирования. Бюхлер попросил студентов-психологов предсказать важный параметр — время сдачи их дипломных работ. Исследователи подождали, когда студенты приблизились к концу своих годичных проектов и затем попросили их реалистично оценить, когда они сдадут свои работы, а также, когда они сдадут свои работы, если всё пойдёт «так плохо, как только может». В среднем, студентам потребовалось 55 дней, чтобы завершить свои дипломы, на 22 дня больше, чем они ожидали, и на 7 дней больше, чем они ожидали в худшем случае.
Бюхлер попросил студентов оценить время сдачи дипломных работ, в котором они уверены на 50 %, на 75 % и на 99 %. Только 13 % участников закончили свои дипломы к моменту, которому приписывали 50 % вероятность, только 19 % закончили к моменту 75 % оценки и 45 % закончили к 99 % уровню. Бюхлер пишет: «результаты выхода на уровень 99 % достоверности особенно впечатляющи. Даже когда их попросили сделать наиболее консервативное предсказание, в отношении которого они чувствовали абсолютную уверенность, что его достигнут, всё равно уверенность студентов в их временных оценках намного превосходила их реальные результаты»11»
Итак, есть серьёзные основания считать, что мы должны крайне расширить границы уверенности в отношении вероятностей глобальных рисков, чтобы искомая величина попала внутрь заданного интервала. Насколько же мы должны расширить границы уверенности?
Обозначим величиной N степень расширения интервала уверенности для некой величины A. Интервал уверенности будет следующим: (A/N; A?N). Например, если мы оценили некий показатель в 10 %, и взяли N=3, то интервал получится (3 %; 30 %). Разумеется, если мы оцениваем вероятность, то интервал не должен расширяться за пределы 100 %. Каково должно быть N для глобальных рисков, пока сказать трудно. Моя оценка — N=10. В этом случае, мы получаем довольно широкие интервалы уверенности, в которые, скорее всего, попадёт искомая величина. При этом, интервалы уверенности будут различны для различных видов риска (т. к. их вероятности мы оцениваем по-разному).
Другой способ определения N — изучить среднюю ошибку, допускаемую экспертами, и ввести такую поправку, которая бы покрывала обычную ошибочность мнений. То, что в проектах ядерного реактора и космического челнока реальное значение N было между 40 и 100 (см. выше), говорит о том, что, возможно, мы слишком оптимистичны, когда принимаем его равным 10. Вопрос этот нуждается в дальнейшем изучении.
Это обобщение не снижает ценности таких вычислений, поскольку разница вероятностей различных рисков может составлять несколько порядков. А для принятия решения о важности противостояния той или иной опасности нам нужно знать порядок величины риска, а не точное значение.
Итак, мы предполагаем, что вероятность глобальных катастроф можно оценить, в лучшем случае, с точностью до порядка (причём, точность такой оценки будет плюс-минус порядок) и что такого уровня оценки достаточно, чтобы определить необходимость дальнейшего внимательного исследования и мониторинга проблемы††††. Подобными примерами шкал являются Туринская и Палермская шкалы риска астероидов.
Одиннадцатибальная (от 0 до 10) Туринская шкала астероидной опасности «характеризует степень потенциальной опасности, грозящей Земле со стороны астероида или ядра кометы. Балл по Туринской шкале астероидной опасности присваивается малому телу Солнечной системы в момент его открытия в зависимости от массы этого тела, возможной скорости и вероятности его столкновения с Землей. По мере дальнейшего исследования орбиты тела его балл по Туринской шкале может быть изменен»12. Ноль означает отсутствие угрозы, десять — вероятность более 99 % падения тела диаметром более 1 км. Палермская шкала отличается от Туринской тем, что учитывает также и время, оставшееся до падения астероида: чем времени меньше, тем выше балл. Балл по Палермской шкале вычисляется по специальной формуле13.
Интересно было бы создать аналогичную шкалу для оценки рисков глобальных катастроф, ведущих к человеческому вымиранию. Поскольку результат любой катастрофы такого рода по определению один и тот же, то масштаб здесь учитывать не нужно. С другой стороны, принципиальное значение приобретает степень неопределённости нашего знания о риске и наша способность его предотвратить. Таким образом, шкала глобальных катастроф должна отражать три фактора: вероятность глобальной катастрофы, достоверность сведений о данном риске и вероятность того, что данный риск удастся предотвратить.
В силу сказанного кажется естественным предложить следующую вероятностную классификацию глобальных рисков в XXI веке (рассматривается вероятность на протяжении всего XXI века при условии, что никакие другие риски на неё не влияют):
1) Неизбежные события. Оценка их вероятности — порядка 100 % в течение XXI века. Интервал уверенности: (10 %; 100 %)
2) Весьма вероятные события — оценка вероятности порядка 10 %. (1 %; 100 %)
3) Вероятные события — оценка порядка 1 %. (0,1 %; 10 %)
4) Маловероятные события — оценка 0,1 %. (0,01 %; 1 %)
5) События с ничтожной вероятностью — оценка 0,01 % и меньше. (0 %; 0,1 %)
Пунктами 4) и 5), казалось бы, можно пренебречь, поскольку их суммарный вклад меньше, чем уровень ошибок в оценке первых трёх. Однако, ими пренебрегать не стоит, так как возможна значительная ошибка в оценке рисков. Далее, важно количество событий с малой вероятностью. Например, если возможно несколько десятков разных сценариев с вероятностью 0,1 % — 10 %, то в сумме это даёт разброс вероятности 1 % — 100 %. К неизбежным событиям относится только тот факт, что в течение XXI века мир существенно изменится.
Должна ли сумма вероятностей отдельных глобальных рисков не превышать 100 %? Предположим, что мы отправляем в поездку неисправный автомобиль. Вероятность того, что он потерпит аварию из-за того, что у него проколота шина, равна 90 %. Однако, предположим, что у него, помимо этого, неисправны тормоза, и если бы шины были исправны, то вероятность аварии от неисправности тормозов тоже составляла 90 %. Из этого примера видно, что вероятность каждого глобального риска, вычисляемая в предположении (очевидно, ложном), что нет других глобальных рисков, действующих в то же самое время, не может просто складываться с вероятностями других глобальных рисков.
В нашем примере шансы машины доехать до конца пути равны 1 % (0.1х0.1=0.01) а шансы того, что причиной аварии стал каждый из двух рисков — 49,5 %. Предположим, однако, что первые полпути дорога такова, что авария может произойти только из-за неисправных шин, а вторую — только из-за неисправных тормозов. В этом случае до конца доедет тоже только 1 % машин, но распределение вкладов каждого риска будет иным: 90 % машин разобьётся на первом участке дороги из-за шин, и только 9 % на втором из-за неисправных тормозов. Этот пример показывает, что вопрос о вероятности того или иного вида глобальной катастрофы некорректен, пока не указаны точные условия.
В наших рассуждениях мы будем широко пользоваться «принципом предосторожности», то есть, мы будем предполагать, что события могут сложиться наихудшим реалистичным образом. При этом реалистичными мы будем считать следующие сценарии: а) не противоречащие законам физики б) возможные при условии, что наука и техника будут развиваться с теми же параметрами ускорения, что и в настоящий момент. Принцип предосторожности соответствует указанной Юдковски и проверенной на многих экспериментах закономерности (см. выше цитату из него), что результат, который люди получают относительно будущего, обычно оказывается хуже их самых худших ожиданий14. При расширении вероятностных промежутков нам следует уделять внимание, в первую очередь, расширению в худшую сторону, то есть — в сторону увеличения вероятности и уменьшения оставшегося времени. Однако, если некий фактор, например создание защитной системы, может нам помочь, то оценки времени его появления следует увеличивать. Иначе говоря, консервативной оценкой времени появления домашних конструкторов биовирусов будет 5 лет, а времени появления лекарства от рака — 100. Хотя, скорее всего, и то, и другое появится через пару десятков лет.
В экономике применяется следующий метод предсказания — опрос ведущих экспертов о будущем некого параметра и вычисление среднего. Очевидно, это не позволяет узнать действительное значение параметра, но позволяет сформировать «best guess» — наилучшее предположение. Тот же метод можно применить, с определённой осторожностью, и для оценки вероятности глобальных катастроф. Допустим, в отношении глобального потепления из тысяч экспертов только один говорит, что она наверняка приведёт к полному вымиранию человечества. Тогда применение этой методики даст оценку вероятности вымирания, равную 0,1 %.
Высказанные соображения пригодятся нам при дальнейшем исследовании и классификации катастроф. А именно:
* экспоненциальный характер роста суммарной вероятности при постоянной погодовой вероятности,
* необходимость расширения границ уверенности, даваемых экспертами,
* необходимость применения байесовой логики при вычислении поправок к известным вероятностям,
* применение шкал, вроде Туринской, для оценки разных рисков,
* влияние на оценку вероятности одного глобального риска вероятностей других рисков и порядка их следования
* примениеие принципа предосторожности для выбора наихудшей реалистичной оценки.

Количественные оценки вероятности глобальной катастрофы, даваемые различными авторами
Далее я привожу известные мне оценки ведущих экспертов в этой области15. Дж. Лесли, 1996, «Конец света»: 30 % в ближайшие 500 лет с учётом действия Теоремы о Конце света без него — 5[т4] %.16
Н. Бостром, 2001, «Угрозы существованию. Анализ сценариев человеческого вымирания и подобных опасностей «: «Мое субъективное мнение состоит в том, что будет ошибочно полагать эту вероятность меньшей, чем 25 %, и наивысшая оценка может быть значительно больше…»17.
Сэр Мартин Рис, 2003 «Наш последний час»: 50 % в XXI веке18.
Может показаться, что эти данные не сильно расходятся друг с другом, так как во всех случаях фигурируют десятки процентов. Однако, промежуток времени, на который даётся это предсказание, каждый раз сокращается (пятьсот лет — двести — сто), в результате чего погодовая плотность вероятности растёт. А именно: 1996 — 0,06 % — 0,012 % , 2001 — 0,125 %, 2003 — 0,5 %.
Иначе говоря, за десять лет ожидаемая оценка плотности вероятности глобальных катастроф, по мнению ведущих экспертов в этой области, возросла почти в 10 раз. Разумеется, можно сказать, что трёх экспертов недостаточно для статистики, и что эти мнения могут взаимно влиять друг на друга, однако тенденция неприятная. Если бы мы имели право экстраполировать эту тенденцию, то в 10-е годы XXI в. мы могли ожидать оценок погодовой вероятности вымирания в 5 %, а в 20-е годы — в 50 %, что означало бы неизбежность вымирания цивилизации до 2030 года. Несмотря на всю свою спекулятивность, эта оценка совпадает с другими оценками, полученными далее в этой книге разными независимыми способами.
С другой стороны, в годы холодной войны оценка вероятности вымирания тоже была высока. Исследователь проблемы внеземных цивилизаций фон Хорнер приписывал «гипотезе самоликвидации психозоя» шансы в 65 %19. Фон Нейман считал, что ядерная война неизбежна и все в ней погибнут20.
Глобальные катастрофы и горизонт прогнозирования
Целью данной работы является попытка проникнуть немного далее, чем позволяет нам обычный горизонт прогнозирования — туда, где за пределами однозначного прогноза виднеются туманные очертания разных возможностей. Я полагаю, что реальный горизонт однозначного прогноза, который мы можем делать со значительной достоверностью, составляет 5 лет, тогда как пространство за горизонтом, где мы можем усмотреть разные возможности, составляет ещё 20 лет после этого момента. И за этим моментом следует абсолютная непредсказуемость. Постараюсь это обосновать.
Оценка в 5 лет возникла из экстраполяции исторических промежутков, на которых в прошлом ситуация в мире настолько менялась, что конкретные политические и технологические тенденции устаревали. Так, от открытия цепной реакции до атомной бомбы прошло 6 лет, ещё 7 — до первой водородной, а с этого момента — ещё 5 лет до запуска первого спутника. Примерно по 5 лет длились и обе мировые войны, 6 лет заняла эпоха перестройки. Поступая в вуз на 5 лет, человек не знает обычно, куда он из него пойдёт работать и какую выберет специализацию. На 5 лет обычно выбирают президентов, и никто не знает, кто будет президентом через срок. СССР управлялся на основе пятилетних планов. Периодичность появления принципиально новых продуктов и их огромных рынков: PC, интернет, сотовые телефоны — тоже имеет порядок нескольких лет. Планы внедрения новых технологий микропроцессоров также составляют не более нескольких лет. При этом основной силой в ожиданиях на ближайшие несколько лет оказывается «сила инерции», то есть мы можем с высокой вероятностью говорить, что в течение ближайших 5 лет будет примерно тоже, что и сейчас, за исключением ряда развивающихся тенденций. Однако, когда мы говорим о сроках более 5 лет, то более вероятным выглядит утверждение о том, что ситуация кардинально изменится, чем то, что она будет такой же, как сейчас. Эффект ускорения исторического времени, о котором мы будем говорить дальше, вероятно, сокращает этот срок однозначного прогноза.
Таким образом, мы можем сказать, что до начала «полосы тумана» в однозначных прогнозах будущего у нас есть примерно 5 лет, то есть, это 2013 год от момента, когда я пишу эти строки. В целом, мы смутно представляем более поздние технологии, хотя и существуют отдельные технические проекты со сроком раелизации до 2020-х годов ( термоядерный реактор ИТЭР или строительство лунной базы), и есть бизнес-планы, которые рассчитаны на срок до 30 лет, например, долгосрочная ипотека. Но именно пять лет — это примерный срок, за которым неопределённость в глобальном состоянии всей системы начинает преобладать над определённостью в разных видах человеческой деятельности. Также надо отметить, что с течением времени всё большая неопределённость приходится не на технологические проекты, а на открытия. И хотя мы можем сказать, что некоторые проекты составлены на 20 лет вперёд, мы не знаем, какие факторы будут самыми главными в экономическом, политическом и техническом развитии.[ВП5]
Абсолютным пределом в прогнозах кажется 2030 год, в районе течение которого предполагаются возможными развитые нанотехнологии, искусственный интеллект и полное овладением биоконструированием (Это мнение Р.Курцвел разделяется многими футурологами). Нам кажется, что сейчас нет смысла в оценках кривых роста популяции или запасов каменного угля на этот период, поскольку мы ничего не можем сказать о том, как повлияют сверхтехнологии на эти процессы. С другой стороны, большая неопределённость есть в выборе самой этой даты. Она часто фигурирует в разных дискуссиях о будущем технологий, о чём речь пойдёт дальше в главе про Технологическую Сингулярность. Очевидно, что неопределённость в дате «2030 год» не менее пяти лет. Если произойдёт некая неокончательная катастрофа, то она может резко расширить горизонт прогнозирования просто за счёт сужения пространства возможностей (например, в духе сюжета: «теперь мы будем сидеть в бункере 50 лет»). Хотя большинство футурологов, пишущих на тему новых технологий, предполагают, что сверхтехнологии созреют к 2030 году, некоторые относят появление зрелых нанотехнологий и ИИ к 2040-м годам, однако мало кто решается дать обоснованные предсказание на более поздние даты. Кроме того, помимо неопределённости, связанной с нашим незнанием темпов развития разных технологий, их конвергенция в ходе Технологической Сингулярности даёт неопределённость более высокого порядка, связанную с тем, что мы не можем предсказывать поведение интеллекта, значительно превосходящего наш.
Также надо иметь в виду, что время предсказуемости постоянно уменьшается в связи с ускорением прогресса и ростом сложности систем. Поэтому, высказывая предположения о границе предсказуемости, мы уже делаем некий прогноз на будущее — хотя бы о том, что степень его изменчивости будет сохраняться. Очевидно, однако, что граница предсказуемости может [ВП6]возрастать за счёт нашего лучшего предвидения и успехов в создании устойчивого общества.
Здесь также действует парадокс среднесрочных прогнозов. Мы можем сказать, что будет с человеком завтра (примерно то же самое, что и сегодня), или через десятки лет (возможно, он состарится и умрёт), но мы не можем сказать, что будет через 10 лет. Также и про человечество мы можем сказать, что оно к концу XXI века или перейдёт в постиндустриальную фазу с нанотехнологиями, искусственным интеллектом и почти физическим бессмертием, или к этому моменту погибнет, не выдержав быстроты изменений. Однако прогноз на 15 лет гораздо менее очевиден.
В силу сказанного, хотя мы и исследуем угрозы глобальной катастрофы на протяжении всего XXI веке, наибольшей интерес для нашего исследования представляет промежуток в примерно два десятилетия между 2012 и 2030 годами. До этого момента вероятность глобальной катастрофы в целом известна и мала, а после него — мы утрачиваем, за рядом исключений, возможность что-либо точно предполагать.
Краткая история исследований вопроса
Общий ход исследований проблемы глобальных катастроф, ведущих человеческому вымиранию, можно кратко изложить следующим образом:
1. Античные и средневековые представления о конце света по воле Бога или в результате войны демонов.
2. XIX век. Ранненаучные представления о возможности «тепловой смерти» Вселенной и подобных сценариев.В первой половине XX века появляются описания грандиозных природныхкатастроф в фантастике, например, у Г. Уэллса («Война миров), Конан Дойля .
3. Яркое осознание способности человечества истребить себя — начиная с 1945 года, в связи с возникновением ядерного оружия. 1950-е годы — изобретение кобальтовой бомбы Сциллардом, осознание путей полного уничтожения человечества с помощью радиоактивного заражения. Перед первым взрывом атомной бомбы создаётся серктеный, а сейчас расскреченный отчёт о рисках поджига атмосферы Земли при первом испытании ядерного оружия LA-602, который и сейчас сохраняет методологическую ценность своим трезвым и непредвзятым взглядом на проблему. Известные работы этого периода: Г. Кун[ВП7] (Herman Khan) «Термоядерная война» (1960), Шют Н. «На берегу», статья 1961 года Фон Хорнера с обсуждением с объяснением возможных причин парадокса Ферми21. Основное объяснение [ВП8]отсуствия сигналов внеземных цивилизаций, предлагаемая им — высокая вероятность вымирания цивилизаций на технологической стадии.
В 4. 1960-1980-е годы возникает вторая волна интереса к проблеме, связанная с осознанием угроз от биологического, нанооружия, враждебного ИИ, астероидной опасности и других отдельных рисков. Важную роль в этом играет научная фантастика, особенно творчество Станислава Лема, его роман «Непобедимый», футурологические исследования «Сумма технологий», «Фантастика и футурология» и другие работы. Эрик Дрекслер в 1986 пишет «библию нанотехнологий» — книгу «Машины созидания», в которой уже рассматриваются основные возможные риски, связанные с нанороботами.. в В Асиломаре просходит первая конференция безопасности биотехнологий. Выходят работы Н. Моисеева и К. Сагана по ядерной зиме.
5. Следующий этап — это появление обощающих работ появление обобщающих работ А. Азимова22 (1980), Лесли (1996), Мартина Риса (2003), Познера23 (2004), в которых предпринимается попытка дать всю картину глобальных рисков. При этом тональность работы Азимова резко отличается от тональности последующих работ. Если у Азимова основные риски отстоят далеко во времени, счвязаны с природными явлениями и в целом преодолимы силдами человеческого разума, то в последующих работах преобладает пессимстический настрой, связанный с тем, что основные риски возникают ближайщие сто или двести лет именно по причине человеческой деятельности, и перспективы их преодоления весьма туманны.
6. В 1990- е годы развивается ветвь исследований, связанная с анализом логических парадоксов, связанных с глобальными рисками — Doomsday argument в разных формах. Основные участники дискуссии — Лесли, Бостром, Готт, Кейв..
7. Одновременно во второй половине XX века происходит развитие синергетики и обращение к системному анализу будущего и системному анализу разных катастроф. Следует отметить работы Пригожина, Ханзена и российских авторов С.П. Курдюмова, Г.Г. Малинецкого, А.П. Назаретяна и др.
8. С 1993 г. — возникновение концепции Технологической сингулярности (Виндж) и понимание связи между ней и глобальными рисками. .Работы Н.Бострома, Е.Юдковски, Капицы, А.Д. Панова, М. Чирковича.
9. В конце XX начале XXI века выходят статьи с описанием принципиально новых рисков, осознание которых стало возможно благодаря творческому анализу возможностей новых технологий. Это работы Р.Фрайтаса «Проблема серой слизи» (2001), Р. Кэрригена «Следует ли обеззараживать сигналы SETI» (2006), М. Чирковича «Геоинженерия, пошедшая насмарку» (2004), книги «Doomsday men» (2007) П.Д. Смита и «Случайная ядерная война» (1993) Брюса Блера.
10. В начале XXI века роисходит формирование методологии анализа глобальных рисков, переход от перечисления рисков к метаанализу человеческой способности обнаруживать и правильно оценивать глобальные риски. Здесь следует особо отметить работы Бострома и Юдковски. В 2008 в Оксфорде под редакцией Бострома выходит сборник «Риски глобальной катастрофы» и проводится конференция. Также в 2008 году выходит специальный выпуск журнала Futures под редакцией Брюса Тонна, посвящённый рискам человеческого вымирания24.
В начале XXI возникают общественные организации, пропагандирующие защиту от глобальных рисков, например, Lifeboat Foundation и CRN (Centre for responsible Nanotechnology). снимается фильм Technocalipsis. 11.
12. Исследование вопроса в современной России. Это — А. П. исследование Назаретяна (2001). Цивилизационные кризисы в контексте Универсальной истории. Вышла книга Е.А. Абрамяна «Судьба цивилизации»25 (2006), открылся Интернет-проект А.Кононова о неуничтожимости цивилизации26. А.В. Карнаухов проводит исследования рисков парниковой катастрофы27. Вышли статьи отдельных авторов по разным гипотетоическим рискам, в том числе Э.М.Дробышевского, В.Ф. Анисичкина и др. Я выполнил переводы многих упомянутых здесь статей, которые доступны в Интернете, а часть из них публикуется в сборнике «Диалоги о будущем» и в приложении к этой книге. В сборнике ИСА РАН в 2007 г. вышли две мои статьи о глобальных рисках: «О возможны причинах недооценки рисков гибели человеческой цивилизации» и «Природные катастрофы и антропный принцип».
Изучение глобальных рисков идёт по следующей цепочке: осознание одного глобального риска и самого факта возможности вымирания в ближайшем будущем, -затем осознание ещё нескольких глобальных рисков, — затем попытки создания исчерпывающего списка глобальных рисков, затем создание системы описания, которая позволяет учитывать любые глобальные риски и определять опасность любых новых технологий и открытий. Система описания обладает большей прогностической ценностью, чем просто список, так как позволяет находить новые точки уязвимости, подобно тому, как таблица Менделеева позволяет находить новые элементы. И затем -исследование границ человеческого мышления о глобальных рисках с целью создания методологии то есть способа эффективно находить и оценивать глобальные риски.

Угрозы менее масштабных катастроф: уровни возможной деградации
Хотя в этой книге мы исследуем глобальные катастрофы, которые могут привести к вымиранию людей, нетрудно заметить, что те же катастрофы в несколько меньших масштабах могут не уничтожить человечество, а отбросить его сильно назад. Будучи отброшенным в своем развитии, человечество может оказаться на промежуточной ступени, с которой можно шагнуть как к дальнейшему вымиранию, так и восстановлению. Поэтому один и тот же класс катастроф может быть как причиной человеческого вымирания, так и фактором, открывающим окно уязвимости для следующих катастроф. Ниже, при перечислении возможных однофакторных сценариев катастрофы, мы укажем их потенциал как к окончательному уничтожению, так и к общему понижению устойчивости человечества.
В зависимости от тяжести произошедшей катастрофы могут быть различные степени отката назад, которые будут характеризоваться разными вероятностями последующего вымирания, дальнейшего отката и возможности восстановления. Поскольку термин «постапокалипсис», хотя и является оксюмороном, употребляется по отношению к жанру литературы, описывающей мир после ядерной войны, мы также будем его употреблять в отношении мира, где произошла некая катастрофа, но часть людей выжила. Можно представить себе несколько возможных ступеней отката:
1. Разрушение социальной системы, как после распада СССР или краха Римской империи. Здесь происходит прекращение развития технологий, уменьшение связности, падение численности населения на несколько процентов, однако некоторые существенные технологии продолжают успешно развиваться. Например, компьютеры в постсоветском мире, некоторые виды земледелия в раннем средневековье. Технологическое развитие продолжается, производство и применение опасных вооружений может продолжаться, что чревато вымиранием или откатом ещё ниже в результате следующей фазы войны. Восстановление весьма вероятно.
2. Значительная деградация экономики утрата государственности и распад общества на воюющие между собой единицы. Основная форма деятельности — грабёж. Такой мир изображается в фильмах «Безумный Макс», «Водный мир» и во многих других произведениях на тему жизни после ядерной войны. Население сокращается в разы, но, тем не менее, миллионы людей выживают. Воспроизводство технологий прекращается, но отдельные носители знаний и библиотеки сохраняются. Такой мир может быть объединён в руках одного правителя, и начнётся возрождение государства. Дальнейшая деградация произойдёт, скорее, случайно: в результате эпидемий, загрязнения среды, пр.
3. Катастрофа, в результате которой выживают только отдельные небольшие группы людей, не связанные друг с другом: полярники, экипажи морских кораблей, обитатели бункеров. С одно стороны, малые группы оказываются даже в более выгодном положении, чем в предыдущем случае, так как в них нет борьбы одних людей с другими. С другой стороны, силы, которые привели к катастрофе таких масштабов, очень велики и, скорее всего, продолжают действовать и ограничивать свободу перемещения людей из выживших групп. Эти группы вынуждены будут бороться за свою жизнь. Они могут осуществлять доработку неких технологий, если это нужно для их спасения, но только на базе уцелевших объектов. Период восстановления при самых благоприятных обстоятельствах займёт сотни лет и будет связан со сменой поколений, что чревато утратой знаний и навыков. Основой выживания таких групп будет способность к воспроизводству половым путём.
4. Только несколько человек уцелело на Земле, но они неспособны ни сохранять знания, ни дать начало новому человечеству. Даже группа, в которой есть мужчины и женщины, может оказаться в таком положении, если факторы, затрудняющие расширенное воспроизводство, перевешивают способность к нему. В этом случае люди, скорее всего, обречены, если не произойдёт некое чудо.
Можно также обозначить «бункерный» уровень — то есть уровень, когда выживают только те люди, которые находятся вне обычной среды. И находятся они там или нарочно, или случайно, если отдельные группы людей случайно уцелели в неких замкнутых пространствах. Сознательный переход на бункерный уровень возможен даже без потери качества — то есть человечество сохранит способность и дальше быстро развивать технологии.
Возможны и промежуточные сценарии постапокалиптического мира, но я полагаю, что перечисленные четыре варианта являются наиболее характерными. С каждого более катастрофического уровня существует большее количество шансов упасть ещё ниже и меньше шансов подняться. С другой стороны, возможен островок стабильности на уровне отдельных родовых общин, когда опасные технологии уже разрушились, опасные последствия их применений исчезли, а новые технологии ещё не созданы и не могут быть созданы.
При этом неверно думать, что откат назад это просто перевод стрелок исторического времени на век или тысячелетие в прошлое, например, на уровень общества XIX или XV века. Деградация технологий не будет линейной и одновременной. Например, такую вещь, как автомат Калашникова, забыть будет сложно. В Афганистане, например, местные умельцы научились вытачивать грубые копии Калашникова. Но в обществе, где есть автомат, рыцарские турниры и конные армии невозможны. То, что было устойчивым равновесием при движении от прошлого к будущему, может не быть равновесным состоянием при деградации. Иначе говоря, если технологии разрушения будут деградировать медленнее, чем технологии созидания, то общество обречено на непрерывное скольжение вниз.
Однако мы можем классифицировать степень отката назад не по количеству жертв, а по степени утраты знаний и технологий. В этом смысле можно использовать исторические аналогии, понимая, однако, что забывание технологий не будет линейным. Поддержание социальной стабильности на всё более низком уровне эволюции требует всё меньшего числа людей, и это уровень всё более устойчив как к прогрессу, так и к регрессу. Такие сообщества могут возникнуть только после длительного периода стабилизации после катастрофы.
Что касается «хронологии», возможны следующие базовые варианты регрессии в прошлое (отчасти аналогичные предыдущей классификации):
1. Уровень промышленного производства — железные дороги, уголь, огнестрельное оружие и т. п. Уровень самоподдержания требует, вероятно, десятков миллионов человек. В этом случае можно ожидать сохранения всех базовых знаний и навыков индустриального общества, хотя бы посредством книг.
2. Уровень, достаточный для поддержания сельского хозяйства. Требует, вероятно, от тысяч до миллионов людей.
3. Уровень небольшой группы. Отсутствие сложного разделения труда, хотя какое-то сельское хозяйство возможно. Число людей: от десяти до тысячи.
4. Уровень стаи или «маугли». Полная утрата культурных человеческих навыков, речи, при сохранении в целом генофонда. Количество членов «стаи», вероятно, от одного до ста человек.
Однофакторные сценарии глобальной катастрофы
В нескольких следующих главах мы рассмотрим классическую точку зрения на глобальные (цивилизационные) катастрофы, которая состоит в перечислении списка никак не связанных между собой факторов, каждый из которых способен привести к мгновенной гибели всего человечества. Понятно, что это описание не окончательное, оно не рассматривает многофакторные и не-мгновенные сценарии глобальной катастрофы. Классическим примером рассмотрения однофакторных сценариев является уже упоминавшаяся статья Бострома «Угрозы существованию»28.
Здесь мы также рассмотрим некоторые источники глобальных рисков, которые, с точки зрения автора, таковыми не являются, но мнение об опасности которых достаточно распространено, и дадим им оценку. Иначе говоря, мы рассмотрим все факторы, которые обычно называются в качестве глобальных рисков, даже если затем мы опровергнем данную точку зрения и отвергнем эти факторы.
Принципы классификации глобальных рисков
Способ классификации глобальных рисков крайне важен, поскольку позволяет, как таблица Менделеева, обнаружить «пустые места» и предсказать существование новых элементов. Кроме того, это даёт возможность отрефлексировать свою собственную методологию и предложить принципы, по которым должны обнаруживаться новые риски. Здесь я обозначу те принципы, которыми пользовался сам и обнаружил в других исследованиях.
Наиболее очевидный подход к установлению возможных источников глобальных рисков — историографический подход. Он состоит в анализе всей доступной научной литературы по теме, в первую очередь, уже выполнявшихся обзорных работ по глобальным рискам. Однако, это не даёт полного списка, так как некоторые публикации проходили отдельными статьями в специальных дисциплинах, мало цитировались или не содержали общепринятых ключевых слов. Другой вариант — анализ фантастических произведений с целью выделения гипотетических сценариев глобальных катастроф и затем — критический анализ этих сценариев.
Принцип увеличения малых катастроф состоит в выделении малых событий и анализе того, может ли аналогичное событие произойти в гораздо больших масштабах. Например, возможна ли такая большая атомная бомба, чтобы она разрушила весь мир? К нему примыкает способ аналогий, когда, рассматривая некую катастрофу, например, падение самолёта, мы ищем в этом событии общие структурные закономерности и затем переносим их на гипотетическую глобальную катастрофу.
Палеонтологический принцип состоит в анализе причин имевших место в истории Земли массовых вымираний. Наконец, принцип «адвоката дьявола» состоит в намеренном конструировании сценариев вымирания, как если бы нашей целью было разрушить Землю.
Упорядочивание обнаруженных сценариев вымирания возможно по следующим критериям: по их источнику (антропогенные/природные), по степени вероятности, по тому, насколько готовы для них технологии, по тому, как далеко во времени от нас отстоят опасные события и по способу воздействия на людей.
Глобальные риски, создаваемые человеком, делятся на две категории: риски, связанные с технологиями, и естественные, то есть, природные катастрофы и риски. При этом, природные катастрофы актуальны для любого вида живых существ (сюда входят исчерпание ресурсов, перенаселение, утрата фертильности, накопление генетических мутаций, вытеснение другим видом, моральная деградация, экологический кризис). Технологические риски не вполне тождественны антропогенным рискам, так как перенаселение и исчерпание ресурсов вполне антропогенно. Основной признак технологических рисков — это их уникальность именно для технологической цивилизации.
Технологические риски различаются по степени готовности их «элементной базы». Одни из них технически возможны в настоящий момент времени, тогда так другие возможны при условии длительного развития технологий и, возможно, неких принципиальных открытий.
Соответственно, можно выделить три категории технологических рисков:
а) риски, для которых технология полностью разработана или требует незначительно доработки. Сюда входит, в первую очередь, ядерное оружие и скажем, загрязнение среды.
б) риски, технология для которых успешно развивается и не видно каких-либо теоретических препятствий для её развития в обозримом будущем (биотехнологии).
в) риски, которые требуют для своего возникновения неких принципиальных открытий (антигравитация, высвобождения энергии из вакуума и т д.). Не следует недооценивать эти риски — весомая часть глобальных рисков в XX веке произошла из принципиально новых и неожиданных открытий.
Значительная часть рисков находится между пунктами б и в, так как, с точки зрения одних исследователей, речь идёт о принципиально недостижимых или бесконечно сложных вещах, а с точки зрения других — вполне технологически реализуемых (нанороботы и искусственный интеллект). Принцип предосторожности заставляет нас выбирать тот вариант, где они возможны.
В предлагаемом читателю перечислении глобальных рисков в следующих главах они упорядочены по степени готовности необходимых для них технологий. Затем идёт описание природных рисков и общевидовых рисков, не связанных с новыми технологиями.

Глава 2. Атомное оружие

Существует огромное количество исследований по атомному оружию и последствиям его применения. Здесь мы можем предложить читателю только краткий и неполный обзор основных выводов, рассмотренных исключительно только с точки зрения того, может ли тем или иным способом то или иное применения ядерного оружия привести к человеческому вымиранию. Отмечу, что значительная часть информации о ядерном оружии по-прежнему секретна, и в силу этого предлагаемые выводы не могут быть абсолютно достоверными.
Классическим примером угрозы человеческой цивилизации и самому существованию людей является угроза ядерной войны. Обычно о ядерной войне говорят, что она приведёт к «уничтожению всей земной жизни». Однако, судя по всему, это утверждение является некоторым преувеличением. Ядерное оружие имеет три потенциальных фактора глобального поражения: непосредственный поражение всей площади Земли, радиоактивное заражение всей Земли и эффект «ядерной зимы». (Кроме того, ядерное оружие может инициировать некие другие опасные процессы, что мы обсудим позже). Далее мы покажем, что хотя каждый из этих эффектов может в исключительных обстоятельствах привести к вымиранию человечества, обычная ядерная война, скорее всего, не приведёт к полному вымиранию (хотя жертвы будут огромны).
Классическая ядерная война не предполагает атаки на все места проживания людей, а только на противника и его союзников, а значит, не может привести к вымиранию людей за счёт непосредственных поражающих факторов ядерного оружия. Однако, можно рассмотреть гипотетическую ситуацию, когда ядерный удар наносится по всем местам проживания людей. Оценим, какое количество боеголовок необходимо, чтобы уничтожить всех без исключения людей, если ядерные удары будут равномерно и одновременно нанесены по всей поверхности Земли. Для уничтожения всех людей на суше потребовалось бы не менее (а вероятно, и значительно более) 100 000 боеголовок мегатонного класса. (Если считать, что одна боеголовка поражает площадь в 1000 кв. км, что вероятно, завышено. Гарантированное уничтожение потребует гораздо большего числа зарядов, поскольку даже в районе эпицентра взрыва в Хиросиме были выжившее — в 500 метрах от точки взрыва.) В тоже время, огромные участки суши необитаемы. Разумно предположить, что 100 000 боеголовок поставят людей на грань вживания, хотя и не уничтожат всех людей гарантировано, так как останутся корабли, самолёты, случайные выжившие и подземные убежища. Гарантированное уничтожение всех людей, возможно, потребует миллионов боеголовок. Следует отметить, что на пике холодной войны ведущие державы обладали количеством боеголовок порядка 100 000, а накопленные запасы плутония (2000 тонн29, хотя не весь он «оружейный», то есть, чистый по изотопному составу плутоний-239; однако, проведённые в США испытания показали, что и не оружейный плутоний можно использовать для ядерных взрывов, но с меньшим выходом энергии30) позволяют произвести ещё несколько сот тысяч боеголовок. Вместе с тем, ни один сценарий ядерной войны не предполагает равномерного удара по всей площади планеты, С другой стороны, теоретически возможно создать такое количество бомб и средств доставки, чтобы нанести удар по всей площади. К аналогичным выводам — о том, что ядерная война сама по себе не может привести к человеческому вымиранию, приходят и другие исследователи31. Кроме того, отсутствуют публикации, которые указывали бы на риски полного человеческого вымирания в результате непосредственного воздействия ядерных взрывов обычной мощности (а не последующих эффектов в виде радиоактивного заражения и ядерной зимы.)
2.1 «Ядерная зима»
В отношении ядерной зимы есть два неизвестных фактора: во-первых, насколько она будет длительной и холодной, а во-вторых, в какой мере ядерная зима означает вымирание человечества. В отношении первого фактора существуют различные оценки: от крайне суровых (Моисеев, Саган) до относительно мягких концепций «ядерной осени»32. Существующая критика концепции ядерной зимы сосредотачивается вокруг следующих вопросов:
* Какое количество сажи возникнет и будет выброшено в тропосферу в случае крупномасштабной ядерной войны?
* Какое влияние она окажет на температуру Земли?
* Как долго она будет находиться в верхних слоях атмосферы?
* Какое влияние окажет падение температуры на выживание людей?
Отдельные исследования сосредотачиваются на анализе каждого из этих факторов, принимая как данность результаты предыдущего. Например, недавнее американское исследование проблемы влияния ядерной зимы на климат принимает в качестве исходных данных количество сажи в тропосфере, равное 150 млн. тонн. В исходном анализе Н. Н. Моисеева33 это количество было 4 млрд. тонн, и соответственно, падение температуры составило 20, а не 50 градусов, как у Моисеева. В статье И.М. Абдурагимова «О несостоятельности концепции «ядерной ночи» и «ядерной зимы» вследствие пожаров после ядерного поражения»34 приводится жёсткая критика именно по количеству сажи, которая выделится в результате полномасштабной ядерной войны. При лесном пожаре сгорает в среднем только 20% от горючей массы, из неё только половина является по массе чистым углеродом, и б?льшая часть этого углерода сгорает полностью, то есть, — без образования частичек угля. При этом, только часть сажи будет настолько мелкодисперсной, что сможет висеть в тропосфере и затемнять Землю. Чтобы транспортировать эту сажу в тропосферу, где она может «зависнуть» по причине отсутствия там конвекции, требуется возникновение специфического явления — огненного торнадо (поскольку сам шар ядерного гриба, уходящий высоко в тропосферу, имеет настолько большую температуру, что в нём все частички сажи сгорают). Огненное торнадо образуется не при всех ядерных взрывах, Оно не должно образовываться в современных городах, построенных таким образом, чтобы избежать этого эффекта, например, в городах бывшего СССР. И, кроме того, оно резко улучшает сгорание, как меха в плавильной печи, в силу чего сажи в нём гораздо меньше.
Эти особенности отличают саж при ядерной зиме от обычной вулканической пыли, которая буквально выстреливается в стратосферу из жерла вулкана. При этом, вулканическая пыль состоит из более тяжёлого оксида кремния и гораздо быстрее выпадает из тропосферы.
Однако, всё же можно представить себе гипотетическую ситуацию, когда в тропосфере оказались сотни миллионов тонн мелкодисперсного углерода. Можно представить себе и альтернативные ядерной войне сценарии попадания его туда, например, попадание астероида в залежи каменного угля, или вулканический взрыв под такими залежами, или результат некой человеческой деятельности, или даже неконтролируемое размножение нанороботов, заслоняющее солнечный свет, как предполагает Фрейтас35. Исходные расчеты Моисеева делались для площади сгоревших городов и лесов в 1 млн. кв. км. Суммарная площадь лесов на Земле составляет примерно 40 млн. кв. км, и они содержат около 240 млрд. тонн древесины. Это означает теоретическую возможность очень большого выброса сажи в атмосферу даже при гораздо меньшей доли образования сажи, но только — в случае намеренного уничтожения цивилизации, так как вряд ли в ходе обычной ядерной войны будут бомбить леса.
Время нахождения сажи в тропосфере оценивается по-разному, но обычная оценка — от нескольких месяцев до 10 лет36. Есть также и альтернативные теории воздействии ядерной войны на климат, например, теория о том, что за счёт парникового эффекта от сгоревшего углерода и образования окислов азота и их влияния на озоновый слой37 температура Земли резко повысится.
Также следует сказать, что внезапные и длительные похолодания не обязательно означают человеческое вымирание. Например, США и Швейцария имеют не менее чем пятилетний стратегический запас продовольствия38, хотя в целом сведения о стратегических запасах относятся к секретным, плюс топливо в виде лесов, печи и навыки выживания при зимних температурах.

0 0 голос
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии