Кл

асс
:

Основной
источник
угрозы:

1
.Ан
тро
пог
енн
ые
рис
ки.

1.Ядерное
оружие
(ЯО).

Подтип:

Краткое описание:

Научный
статус:

Вполне
реальна,
однако далеко
не любая
ядерная война
ведёт к
человеческому
вымиранию.

Субъек
тивна
я
оценка
вероят
ности
в XXI
веке:
Погодо
вая
вероят
ность
около
1 %;
суммар
ная
вероят
ность
за век
порядк
а 50%.

Вероятный
период
времени:

Основные
ошибки в
оценке
рисков:

Взаимодействие
с другими
рисками:

Факторы,
запускающие
события.

Возможности
предотвращения:

Начиная с
настоящего
момента.

Ослабление
внимания
после
окончания
«холодной
войны».

Усиливает
многие другие
риски.

Случайная
ядерная война
как сбой в
сложной
системе
(«нормальная
авария» по
Перроу.)

Контроль на базе
МАГАТЭ – но механизмы
МАГАТЭ недостаточно
эффективны.
Использование мирного
атома разносит ядерные
технологии по миру.

Недооценка
числа
ядерных
государств в
мире и их
ядерного
потенциала.
Эффект
«Волк,
волк».

1.1. Уничтожение
человечества в
результате прямого
действия ядерного
оружия.

Атака миллионами
атомных бомб на все
известные места
обитания людей.

Возможна
лишь
теоретически:
такого
количества
бомб нет и не
будет, если не
изобретут
способ
дешёвого их
производства.

Крайне
Малов
ероятн
о.
Менее
0.01%.

Не ранее
2030 года

Недооценка
риска
создания
дешёвого
ядерного
оружия

Целенаправлен
ный ядерный
терроризм с
целью
спровоцироват
ь войну.
Стремление
опередить
противника в
первом ударе.
Открытие
способа
дешёвого
производства и
появление
«ядерных
хакеров».
Варианты:
открытие и
публикация в
Интернете
способа
детонации
водородной
бомбы без
плутониевого
запала.

Всемирная система ПРО.
Технически и
политически пока
нереальна.
Договор о всемирном
запрещении ЯО,
отсутствие механизмов
его реализации.

Не допускать публикации
способов простого
изготовления ядерного
оружия.
Установление всемирной
системы контроля.
Создание большого
количества автономных
убежищ.

Нанотехнологи
и
(молекулярное
производство)
удешевят
изготовление
бомб и
сделают их
эффективнее.

1

1.2. «Ядерная
зима».

1.3. «Ядерное лето».

Резкое и длительное
похолодание климата. По
современным подсчётам
– падение температуры
на 20 градусов на 10 лет.
В наихудшем случае –
начало нового
всемирного оледенения.
Только в последнем
случае возникает
реальная угроза гибели
человечества.

Публикации в
реферируемых
журналах
подтверждают
возможность
ядерной зимы,
хотя есть
сомневающиес
я.

Полно
е
оледен
ение
Земли
в
резуль
тате
ядерно
й зимы
малове
роятно
.
Шансы
менее
0.1% в
XXI
веке.
Малов
ероятн
о.

Есть гипотеза, что по
ряду причин (альбедо,
пар в верхних слоях
атмосферы, СО2) вслед
за ядерной зимой или
вместо неё наступит
ядерное лето: резкое
повышение температуры
Земли, которое в худшем
случае приведёт к
необратимому
глобальному потеплению
– парниковой катастрофе.

Нестрогая
гипотеза.

1.4. Кобальтовая
бомба (КБ).

Теоретически возможно
создание водородной
бомбы с кобальтовой
оболочкой, способной
произвести достаточно
радиоактивного элемента
кобальт-60 для заражения
всей территории Земли.
Вес бомбы составил бы
более 100 000 тонн, а
цена – десятки
миллиардов долларов.

Исследование
в США
показало
теоретическую
возможность
создания.

Возмо
жно.
Оценк
а – 1%.

1.5. Взрыв
хранилищ
радиоактивных
материалов.

Запасы радиоактивных
материалов постоянно
растут. Одновременная
атака на хранилища с
применением ядерного
оружия приведёт к их

Риски
безопасного
хранения ОЯТ
и др.
неоднократно
обсуждались.

Меньш
е, чем
для
КБ, –
порядк
а 0.1%

Начиная с
настоящего
момента.

Начиная с
настоящего
момента
времени.

Отрицание
«ядерной
зимы»
вообще или,
наоборот,
переоценка
её
уничтожаю
щего
эффекта.

Неприятие
теории
глобального
потепления.

Рост количества
ядерного оружия
в мире усиливает
этот риск.

Люди в
большинств
е своём не
знают, что
такое
устройство
возможно.

Недооценив
ается риск
одновремен
ной атаки на
множество
хранилищ

Плюс – накопление
запасов еды. Развитие
гидропоники.

Ядерная зима
усилит борьбу
людей за остаток
ресурсов и
приведёт к
продолжению
войны;
стимулирует
военные
разработки.

Рост глобального
потепления
усиливает этот
риск.
Возможна
взаимная
нейтрализация с
процессами в
духе «ядерной
зимы».

В
настоящий
момент не
известно о
создании
таких
устройств.
Создание
потребовало
бы не менее
10 лет и
наличия
ресурсов
крупной
ядерной
державы.
Возможно
уже сейчас,
но в
будущем
риск
значительно

Те же, что и для прочих
ядерных рисков.

Есть мнение
(Лесли), что
нетто вклад в
вероятность
выживания
человечества КБ
будет
положительным,
так как она
снизит риски
ядерной войны
или тотальной
войны любого
другого рода.

Создание более точной
модели атмосферы.
Разработка способов
быстрой её очистки.

Взрывы
многих
атомных бомб
в океане могут
привести к
выбросу
водяных паров
в тропопаузу,
где они будут
обладать
мощным
парниковым
действием.
Удешевление
создания
атомного
оружия, рост
международно
й
напряжённост
и, создание
систем ПРО,
появление
«слабых»
государств,
создающих КБ
как последний
рубеж
обороны.

Борьба с глобальным
потеплением, в том числе
с созданием
«затемнителей
атмосферы», поможет
противостоять этому
риску.
Необходим также более
подробный анализ
атмосферных процессов
и разных сценариев
влияния на неё ядерной
войны.
То же, что и для ядерного
оружия.

Заглубление хранилищ
подземлю. Отказ от
накопления большого
количества ядерных
отходов.

2

распылению с
последствиями, во
многом аналогичными
кобальтовой бомбе.
Однако точная величина
возможного
радиоактивного выброса
требует дополнительных
вычислений, и вероятно,
пока не соответствуют
уровню, означающему
человеческое вымирание.
1.6. Детонация
атмосферы или
океана.

В 1945 г. обсуждался
риск азот-азотной
реакции синтеза в земной
атмосфере в результате
первого ядерного
испытания, приводящий
к её сгоранию; кроме
того, существует риск
горения дейтерия в
океане.

1.7.
Детонация Юпитера
или других
космических тел.

Звёзды и газовые
планеты являются
естественными запасами
термоядерного топлива.
Если это вообще
возможно, то проще
всего поджечь Юпитер,
так как там сохранились
легкогорючие вещества и
высокая плотность, а
также по ряду других
причин.

1.8.
Космическое
оружие
облучающего типа.

В ходе создания
космического оружия, в
том числе,
предназначенного для
отклонения астероидов,

Риск
поджигания
атмосферы
отвергнут
теоретически и
практически.
Остаётся
гипотетическа
я вероятность
поджигания
океана очень
мощной
водородной
бомбой,
взорванной на
большой
глубине.
Научных
публикаций на
эту тему в
открытой
печати нет.

Крайне
малове
роятно
(если
мы
правил
ьно
поним
аем все
детали
).

Теоретически
возможно, но
нужны более
точные
расчёты

Малов
ероятн
о.

В
любой
момент
.

вырастет,
так как
количество
материалов
растёт, и
будет расти
нелинейно
по мере
ввода новых
ядерных
реакторов и,
вероятно,
термоядерн
ых.
В случае
ядерной
войны на
море.

ОЯТ.

Считается,
что этот
риск
полностью
опровергнут
, тогда как
вариант с
океаном
остаётся.

Возможные
суицидальные
действия
операторов
ЯО.

Уточнение модели.
Запрет на публикацию
данных, если окажется,
что риск реален

Испытания
ЯО.
Ядерная война
на море и/или
аварии
подводных
лодок.

Крайне
маловероят
но. (Это и
не нужно, и,
скорее
всего,
невозможно
; но есть
предположе
ния, что это
может
произойти
случайно
при
затоплении
космически
х аппаратов
в планетах
гигантах.)
Не ранее
середины
XXI века.

Не
предприним
ается
усилий,
чтобы
доказать,
что это
невозможно
.

Недооценка
рисков
противоасте
роидного
оружия для

Требуются
доказательства
невозможности.

Освоение
космоса,
особенно с
помощью
самореплицир

Отказ от освоения
космоса. Или, наоборот,
создание
многочисленных
человеческих поселений

3

1.9.
Синергетический
эффект многих
поражающих
факторов.

1.10. Ядерное
оружие как
катализатор или
спусковой механизм
опасных природных
процессов.
А) Отклонение
астероидов к Земле.

Б) Дестабилизация
метангидратов на
дне океана.

возможно создание
большого количества
гигатонных бомб на
земной орбите.
Одновременная их
детонация в космосе на
определённой высоте
привела бы к сжиганию
всего живого на земной
поверхности.
Многие перечисленные
факторы, вероятно,
произойдут
одновременно: ядерная
зима, радиоактивное
заражение, гибель людей
в городах. Однако либо
один фактор станет
главным в вымирании,
либо должна быть некая
точка приложения всех
этих факторов: ею может
быть невозможность
ведения сельского
хозяйства и, как
следствие, массовый
голод.
За счёт мощного
выделения энергии ЯО
может стать триггером
для значительно более
сильных природных
процессов.
ЯО рассматривается как
важный элемент будущей
системы отклонения
астероидов. Однако,
чтобы отклонить
астероид, реально
способный уничтожить
человечество,
потребуется ядерный
взрыв более сильный,
чем может дать всё
современное оружие.
Гипотеза «клархатного
ружья» предполагает
возможность цепной
реакции разрушения
метангидратов на дне
океана за счёт
потепления. Можно
предположить, что этот
процесс можно запустить
ядерными взрывами.

количества
зарядов и их
возможности;
есть
предостережен
ия о рисках
противоастеро
идного оружия
(К.Саган).

Земли.

Теоретически
возможно, но
практически
нет
подходящих
астероидов.

Крайне
малове
роятно
.

Гипотеза
«клархатного
ружья» не
доказана, и
тем более
неизвестно,
возможно ли
запустить
реакцию
дегазации

Крайне
малове
роятно
.

ующихся
роботов,
сделает
возможной
производство
таких
устройств.

за пределами Земли.
Создание системы “ПРО
против ПРО” – то есть
контроля за средствами
контроля.

4

В) Дестабилизация
множества вулканов
и сверхвулканов.

Г) Создание
ядерной зимы через
взрывы в тайге, в
каменноугольных
пластах и/или
нефтезаводов.

2.
Искусствен
ный
интеллект
(ИИ).

ЯО может быть
использовано для
разрушения крышек
магматических камер
сверхвулканов, например
Йеллоустоуна (5 км) и
провоцирования их
мощного извержения, что
приведёт или к
вулканической зиме, или
к другим вулканическим
последствиям.
Взрывы в специально
подобранных местах
могут привести к
ядерной зиме, но
неизвестно, приведёт ли
она к вымиранию людей.

1.11. Ядерная война
как часть более
сложной глобальной
катастрофы.

Борьба за ресурсы,
попытки уничтожить
враждебные нано и био
выбросы может привести
я ядерной войне. В свою
очередь, ядерная война
или остановит
технический прогресс в
случае полного
разрушения, или
подхлестнёт разработку
новых видов оружия.

2.1. Мятеж ИИ.

Быстрый рост
самосовершенствующего
ся ИИ и его мятеж
против его создателей.

ядерным
взрывом, так
как инерция
системы очень
велика.
Теоретически
возможно, но
научного
анализа
реальных
рисков пока
нет.

Теоретически
возможно.

Возможность
создания ИИ
не
противоречит
законам
физики, но
прямых
доказательств
его
возможности
тоже нет (и не
будет, пока его

Малов
ероятн
о.

Теоретическ
и возможно
и сейчас,
однако вряд
ли какаялибо страна
начнёт
взрывать
вулканы на
своей
территории.

Малов
ероятн
о.

С
настоящего
момента.
Уже сейчас
можно
поджечь
тайгу на
площади в
миллионы
кв.км.
обычными
ядерными
бомбами.

Вероят
но.
1-10%.

Начиная с
настоящего
момента.
Пик рисков
– к 2030 г.

Обычно
недооценив
ается. Даже
небольшая
ядерная
война
обострит
все
проблемы в
мире и
увеличит
другие
риски.
Недооценка
возможност
и создания
ИИ и рисков
его
быстрого
самоусовер
шенствован
ия;
ошибочная
вера в
лёгкость

Может быть
применено
одновременно с
другими
оружиями
судного дня.

Возможно, как
оружие
судного дня.

Защита сверхвулканов
средствами ПРО.

ИИ усилит все
другие риски, так
как он может
применять все
эти виды оружия.

Открытие
некой
принципиальн
ой идеи,
необходимой
для создания
ИИ.

Создание всемирной
системы контроля.
Создание такого ИИ,
который только
предотвращает появление
других ИИ.

Рост
вычислительн
ой мощности
компьютеров и

5

не создадут).
2.2. Постепенное
отклонение системы
целей ИИ.

Попытка людей
использовать
самосовершенствующийс
я ИИ для своих целей,
ведущая к утрате
контроля над этим ИИ
или реализации
неправильно
сформулированных и
опасных целей;
Вероятность
одновременного создания
разных систем ИИ. Это
может привести к войне
между ИИ за господство
над Землёй.

Есть
исследования
проблемы
«дружественно
сти», то есть
безопасности
ИИ.

2.4. Сбой в работе
всемирного ИИ.

Невозможно доказать
непротиворечивость
некой системы целей и
безошибочность
самосовершенствующейс
я программы.

2.5. Ошибочная или
злонамеренная
команда роботам и
системам
жизнеобеспечения
цивилизации.

После распространения
домашних роботов и
роботизированных
армий, появятся
компьютерные вирусы
(не обязательно
обладающие ИИ),
влияющие на их
поведение. Возможна
одновременная команда
всем роботам атаковать
людей. И/или всем
ядерным реакторам –
взорваться.
Как результат –
появление множества
разных вирусов и
болезнетворных
бактерий (миллионы
разновидностей) и их
суммарный удар по
человеческой популяции
и биосфере.

2.3. Борьба
нескольких ИИ
между собой.

3.
Биологическ
ое оружие.

3.1. Био-хакеры и
распространение
биопринтера.

контроля
над ним.
Вероят
но
1-10%.

Начиная с
настоящего
момента.
Однако пик
– к 2030 г.

Вероят
но
1-10%.

К 2030 г.

Теорема
Геделя о
неполноте
любой
формальной
системы
аксиом
применительн
о к системам
целей.
Этот риск
обсуждается в
связи с
системой
автоматическо
го управления
полётом
авиалайнеров.

Вероят
но
1-10%.

После 2030
г.

Вероят
но
1-10%.

После 2030
г.

Публикации о
синтезе
искусственног
о вируса
полиомиелита
и др.
показывают
реальность
этого риска.

Очень
вероят
но.
Более
10%

После 2020
г.

Вера людей
в
правильност
ь их
понимания
и
определения
«блага».

То же.

Недооценка
того, что
наибольший
эффект
окажет
наименее
безопасный
ИИ-проект
из многих.

То же.

накопленного
знания в
Интернете.
Использование
архитектур
ИИ, не
допускающих
формальных
неизменных
целей –нейро и
генетические
алгоритмов.
Зависит от
скорости
самосовершен
ствования ИИ.
Чем она выше
– тем меньше
ИИ достигнут
зрелости
одновременно.

Создание заранее
нормативной системы
целей для будущего ИИ
тщательный анализ её
неустойчивостей.
Использование ИИ для
проверки систем целей.
Первый созданный ИИ
должен быть использован
для остановки всех
других ИИ проектов.

Поиск устойчивых
алгоритмов и сохранение
контроля людей над
всемирным ИИ.

Вера в
надёжность
и
безопасност
ь систем
контроля.

Меньшие
катастрофы
такого рода
заставят
уделить
внимание
возможности
больших.

Предусмотрение таких
возможностей.
Разная программная
архитектура разных
роботов, отсутствие их
подключения к
Интернету.

Недооценка
кумулятивн
ого эффекта
многих
биоагентов,
а также
прогресса в
области
биотехнолог

6

3.2. Одиночный
агент, например,
вепонизированная
сибирская язва.

3.3. «Зелёная
слизь».
3.4. Сбой в работе
всемирной
искусственной
иммунной системы.

3.5. Разрушение
биосферы.

3.6 Медленно
накапливающийся
эффект неких
биологических
воздействий.

3.7. Создание
системы контроля

Споры сибирской язвы,
помещённые в прочную
оболочку, могу
разноситься ветром на
огромные расстояния.
Несколько сот тонн их
могли бы привести к
длительному заражению
почти всей земной
поверхности.
Есть и другие варианты
одиночного агента –
например
ген.модифицированная
саранча,
вырабатывающая некий
яд или
распространяющая некие
микроорганизмы.
Биологический
репликатор,
поглощающий всю
биосферу.
Нечто вроде
автоиммунной реакции в
«активном биощите» (см.
главу «Активные
щиты»). Или ошибочная
команда всемирном
биощиту. Пример в
прошлом:
распространение вируса
SV40 через вакцины
миллионам людей.
Вымирание людей,
лишённых продуктов
биосферы.

Стерилизация людей,
СПИД, прион коровьего
бешенства могут создать
условия для медленного
вымирания всей
человеческой популяции.
Но только при условии
остановки технического
прогресса.
Сбой в работе такой
системы приведёт к

Риски
биологической
атаки
внимательно
рассматривают
ся, но не на
глобальном
плане.

Возмо
жно.
1%.

После 2020
г.

ий.
Недооценка
прогресса
биотехнолог
ий.

Ограничение
распространения
биотехнологий.
Тотальное наблюдение.
Развитие универсальных
вакцин.
Строительство убежищ.

Чисто
гипотетическа
я возможность.

Возмо
жно.
1%

После 2020
г.

Возмо
жно.
1%

После 2030
г.

Недооценка
прогресса
биотехнолог
ий.
Недооценка
прогресса
биотехнолог
ий.

Первоочередное развитие
средств быстрой
разработки вакцин и
накопление их.
Многоуровневая система
контроля с защитой от
ошибок.

Вера в силу
контроля.

Есть
значительные

Возмо
жно.
1%.

После 2030
г.

Возмо
жно.
1%.

К концу
XXI века.

Возмо
жно

После 2030
г.

Недооценка
роли
биосферы.

Недооценка
возможност

Борьба с
опасными
биоагентами ,
выпущенными в
природу, может
привести
стерилизации
биосферы.
Этому должна
предшествовать
остановка
прогресса, в
результате,
например,
масштабной
ядерной войны.
Попытка
реализовать

Можно
спрятать в
бункеры
людей, но не
биосферу, и
она более
уязвима.

Сохранение семян,
развитие гидропоники.

Создание бункеров и
убежищ.

Сохранение
полноценных групп

7

поведения людей
через вживлённые в
мозг чипы.

4.
Химическое
оружие.

4.1. Глобальное
химическое
заражение.

5.Сверхнаркотик.

6.
Столкновен
ие с
внеземным
разумом.

6.1. Риск загрузки
враждебного ИИ
(«троянского коня»)
в результате
поисков
межзвёздных
сигналов по
каналам SETI.

6.2. Риск привлечь
внимание
враждебных
внеземных

мгновенному вымиранию
всех людей.

Технически возможно
произвести огромное
количество диоксина
(порядка миллиона тонн),
пригодного для
отравления всей
биосферы; есть и другие
яды.
Соединение био, нано и
нейро технологий
позволит стимулировать
центры удовольствия
человека, выключая его
из жизни. Знание об
множестве подобных
способов будет
распространяться через
Интернет.

В любой
информационной среде
есть вирусырепликаторы. Если
существуют внеземные
цивилизации, то
возможно, что они
рассылают ИИпрограммы с целью
самораспространения. Из
статистических
соображений следует, что
большинство посланий
являются таковыми, а
также, что люди не
смогут воздержаться от
того, чтобы выполнить
такую программу.
Есть программа по
посылке
радиосообщений на
ближайшие звёзды. Но

успехи в
распознании
мыслей и
образов в
мозге людей, и
во вживлении
чипов.

1%

и создания
такой
системы изза её
«аморально
сти».

Малов
ероятн
о.
Менее
0.1%.

Технически
возможно.

Несколько
публикаций за
последние 40
лет, но
признания нет.

Много
публикаций за
и против.

Вероят
но. 1%.

Вероят
но
1%.

Крайне
малове
роятно
.

такую систему
приведёт к войне.

людей, у которых нет
такой системы в голове.
Многоуровневая
доказанная безопасность.

Общий рост
международной
напряжённости.

С 2020 г.

С
настоящего
момента, но
вероятность
экспоненци
ально растёт
по мере
введения
всё более
чувствитель
ных
радиотелеск
опов. Пик –
к 2030 г.

Начиная с
XXII века,
так как
скорость

Международный
контроль над
государствами изгоями.

Недооценка
возможност
и.
Подмена
терминов –
например,
переименов
ание
«наркотика»

«электричес
ки
вызванными
управляемы
ми
сновидения
ми».
Недооценка
рисков ИИ.
Вера в
«доброту»
космически
х
цивилизаци
й.

Уничтожение у людей
центров удовольствия,
что сделает их
невосприимчивым к
любым наркотикам.
Системы контроля.
Выделение и поощрение
социально приемлемых
способов развлечения –
вроде виртуальной
реальности.

Затмевает другие
риски

Развитие
частных
программ
поиска
сигналов.
(Вроде
программы
ARA – Alien
Radiotelescope
Array).

Ограничение программ
SETI до того, как мы
создадим свой ИИ.
Рост понимания рисков.
Тотальный контроль.

Отрицание
научности
темы.

Вера в
«доброту»
инопланетя
н.

Необходимость
международного
соглашения по этому
вопросу.

8

7.
Нанотехнол
огии.

цивилизаций за счёт
посылки сигналов –
METI.
7.1. «Серая слизь».

пока было отправлено
мало сообщений (около
15).
Нанорепликаторы могут
поглотить биосферу за
несколько дней. Есть
риск целенаправленного
создания таких
нанорепликаторов.

Несколько
статей
рассматривают
этот риск.

Менее
0.01%.

света
конечна.

Вероят
но.
1-10%.

С 2015 г.,
но, скорее
всего, к
2030 г.

Неверие в
возможност
ь
наноробото
в и близость
их во
времени.

Контроль над
распространением
нанотехнологий.
Всемирная система
наблюдения.
Нанощит – всемирная
активная
нанотехнологическая
иммунная система.

7.2.
Нанотехнологическ
ое оружие.

7.3. Обычное
оружие, усиленное
и удешевлённое с
помощью
нанотехнологическо
го молекулярного
производства.

7.4. Сбой в работе
Нанощита.

8.
Неудачные
физические
эксперимент
ы.

8.1. Риски глубокого
бурения и зонда
Стивенсона.

Атака
микрокосмическими
роботами против людей.
Они не обязательно
способны к репликации,
но способны вводить яд
людям. Нанотехнологии
позволяют дёшево
приготовить заранее
множество таких
устройств.
Молекулярное
производство позволит
производить почти по
цене исходных
материалов и в 100 раз
более качественные
технические устройства
– ракеты, атомные
бомбы, компьютерную
технику и устройства для
биотехнологий.
Тоже, что и в случае
Биощита (вероятно, это
будет одна и та же
система) – ошибочная
команда всемирной
системе контроля в духе
автоиммунной реакции.
Возможности
проникновения в глубь
земной коры растут. Есть
технически реализуемый
проект проплавить
мантию до ядра Земли.
Это может привести к
дегазации земного ядра и
вымиранию людей. В
Индонезии случайно
создали мощный

Есть несколько
публикаций за
и против.

Вероят
но 110%.

С 2015 г.,
но, скорее
всего, к
2030 г.

Интенсивное
слияние
достижений
нанотехнологий с
биотехнологиями
и ИИ.

Нестабильная
гонка
вооружений
после
открытия
нанотехнологи
й.

То же.

Вероят
но 110%.

С 2015 г.,
но, скорее
всего к 2030
г.

Ускорение
освоение космоса
за счёт
самореплицирую
щихся колоний
роботов.
Усиление рисков
космического
оружия.

То же.

Объединение мира в
единое государство до
того, как появится
молекулярное
производство.

Возмо
жно.
1%

После 2030
г.

Малов
ероятн
о.
Менее
0.1%.

После 2030
г.

Создание
многоуровневой защиты
под контролем мощного
ИИ.

Не
уделяется
внимания
этому
вопросу.

Экспертиза на
безопасность любых
проектов глубокого
бурения.

9

8.2. Риск
возникновения
«чёрной дыры» на
ускорителе.

8.3. Возникновение
стрейнджлета на
ускорителях.

8.4. Инициация
фазового перехода
вакуума на
ускорителях.

9.
Исчерпание
ресурсов.

10.
Глобальное
потепление

грязевой вулкан.
Современные ускорители
могут порождать
микроскопические
«чёрные дыры», но эти
дыры должны быстро
испаряться. Риск состоит
в том, что мы
неправильно понимаем
какие-то тонкие моменты
неизвестных нам
физических законов, и в
силу этого эти чёрные
дыры начнут расти.

Незначительная
вероятность, что в
экспериментах на
ускорителях возникнут
частицы особой
кварковой (странной)
материи, которые будут
превращать в себя
обычную материю.
Незначительная
вероятность того, что
наш вакуум неустойчив,
и может перейти при
достаточно сильном
воздействии в состояние
с более низкой энергией.
Исчерпание ресурсов
чревато войной – а война
– разработкой и
применением нового
сверхоружия.

Проблема ГП охватывает
все глобальные
проблемы. Основной

Есть
публикации за
и против в
реферируемых
журналах.

Крайне
малове
роятно
.

Начиная с
2008 г.

Ошибки в
оценке
границы
риска. А
также в
оценке и
интерпретац
ии
ожидаемого
ущерба.

Независимый экспертный
анализ рисков
специалистами по оценке
рисков.
Определение
максимально
приемлемого риска.
Выведение опасных
экспериментов в
отдаленный космос.

То же.

Крайне
малове
роятно
.

То же.

Отказ от некоторых
экспериментов на время
или навсегда.
То же.

То же.

Крайне
малове
роятно
.

То же.

То же.

Много
публикаций

Вероят
но.
Более
10%

После 2010
г.

Много
публикаций,
но только

Возмо
жно,
1%.

После 2020
г, а может
быть и в

Исчерпание
не может
привести к
вымиранию
само по
себе, скорее
всего, но
разногласия
по таким
теориям,
как Peak Oil
очень
велики.
Недооценка
рисков
войны и
разработки
нового
оружия.
Недооценка
рисков
«наихудших

Развитие новых
технологий,
(особенно
нанотеха),
позволит
избежать кризиса
ресурсов, но
создаст новые
риски.

Экономически
й кризис
может лишить
новые
технологии
необходимых
инвестиций.

Ядерная война,
сжигание угля,
остановка

Резкий рост
температуры в
ближайшие

Ускоренная реализация
альтернативных методов
добычи энергии.
Развитие прорывных
технологий.
Распределение
недостающих ресурсов.

Взаимозамена
одних
ресурсов
другими
приводит к
одновременно
сти их
исчерпания.

Ограничение выбросов
СО2.

10

(ГП).

Пр
иро
дн
ые
кат
аст
ро
фы.

11. Падение
астероида.

риск – сценарий
необратимого
глобального потепления
(парниковой катастрофы)
с ростом температуры на
десятки градусов.

Не менее 10 км
диаметром астероид или
комета создают угрозу
уничтожения
человечества.

малая часть – о
рисках
необратимого
глобального
потепления.

Много
публикаций.

12.
Извержение
сверхвулкан
а.

Вымирания в случае
извержения
сверхвулканов, по
некоторым оценкам,
случаются в 10 раз чаще,
чем от астероидов.
Основные поражающие
факторы –
«вулканическая зима» и
отравление атмосферы.

Много
публикаций.

13. Гаммавсплеск.

Взрыв гиперновой
недалеко от Земли может
привести к массовому
вымиранию в результате
ионизации атмосферы
гамма-лучами и/или
разрушения озонового

Много
публикаций,
есть разные
оценки
вероятности и
силы.

XXIII веке.

Крайне
малове
роятно
.
0.0001
%.

Крайне
малове
роятно
(если
не
учитыв
ать
риск
искусс
твенно
го
пробу
ждени
я)
Менее
0.1%.
Крайне
малове
роятно
.
Менее
0.0001
%

исходов».
Недооценка
положитель
ных
обратных
связей.

В любой
момент,
кроме
нескольких
ближайших
лет (так как,
вероятно,
крупный
астероид
или комету
бы заметили
заранее).
В любой
момент.

В любой
момент.

развития
технологий
усиливают этот
риск.

Небольшой
астероид (или
группа
метеоритов)
может
спровоцировать
ядерную войну
из-за ложного
срабатывания
систем раннего
оповещения.
Климатические
последствия.
Недооценка
этого риска
по
сравнению с
риском
астероидов.

Климатически,
экономические
последствия,
риск войны.

годы способен
подорвать
мировую
экономику и
остановить
прогресс,
необходимый
для
реализации
защитных мер.
Но
одновременно
этот рост
станет
доказательство
м реальности
риска.
Для
организации
перехвата
астероида
нужно не
менее 10 лет.
А наиболее
опасные
крупные
кометы надо
было бы
перехватывать
и ещё более
заранее.

Создание экрана в
атмосфере из
охлаждающих частиц,
например, угольной
пыли.
Размещение зеркал и/или
экранов в космосе.
Улавливание газов из
атмосферы с помощью
продвинутых нано и био
технологий.

Создание системы
наблюдения и перехвата
астероидов. Но эта
система сама по себе
может быть применена
для причинения вреда
Земле.
Возможно, одного только
наблюдения пока
достаточно.

Мониторинг основных
сверхвулканов.
В будущем –
строительство
«стравливающих
клапанов» над опасными
магматическими
камерами и/или отводных
тоннелей.

Строительство
автономных убежищ.

11

14. Сверхвспышка на
Солнце.

слоя.
Сверхсильная вспышка
на Солнце, направленная
в сторону Земли и
совпадающая по времени
с периодом ослабления
магнитного поля (как
сейчас) может привести к
радиационному
уничтожению земной
биосферы в наихудшем
случае.

Отдельные
публикации,
возможность
не доказана, но
и не
опровергнута.

15.
Исчезновен
ие
озонового
слоя.

Разрушение озонового
слоя приведёт к
увеличению
ультрафиолетовой (УФ)
радиации и повреждению
людей и растений. Риск
вымирания неочевиден.

Много
публикаций,
но есть
неясные
моменты.

16.
Изменение
магнитного
поля Земли.

В настоящий момент
магнитное поле Земли
убывает и, возможно,
началась его
переполюсовка. Но
прямой угрозы людям от
этого нет. Возрастает
риск воздействия
солнечных бурь
Увеличение числа людей
и однотипных домашних
животных, ускорение
транспорта и
распространение СПИДа
делает людей более
уязвимыми к глобальной
пандемии. Но
вероятность полного
вымирания людей
непосредственно в
результате неё – мала.
Есть разные
предположения о

Много
публикаций.

17.
Естественно
возникшее
заболевание
.

18.
«Большой

Крайне
малове
роятно
.
0.0001
%.

В любой
момент.

Недооценка
этого риска
может быть
связана с
тем, что мы
очень
недолго с
астрономич
еской точки
зрения
наблюдаем
Солнце.

Возможно,
проблема
переоценива
ется, так как
озон
постоянно
возникает
под
действием
УФ.
Переоценка
проблемы.

Много
дискуссий.

Полно
е
вымир
ание
малове
роятно
.
Менее
0.1%.

До 2030 г.

Переоценка
рисков
болезни,
ведущей к
полному
вымиранию.

Гипотезы
опубликованы

Крайне
малове

В любой
момент.

Незнание
основных

Более слабая
вспышка может
вызвать
пертурбации
магнитного поля
Земли, что
приведёт к
электрическим
наводкам во всех
линиях
электропередач и
к разрушению
технологической
цивилизации в
результате
повсеместного
разрушении я
электрических
сетей и особенно
трансформаторов
.
Кризис сельского
хозяйства.

После освоения
технологий
молекулярного
производства гораздо
легче будет восстановить
электросети.
Строительство
автономных убежищ, в
том числе на Луне и
Марсе.

Люди без труда смогут
защитится с помощью
зонтиков.
Гидропоника для с/х.

Вероятно, специальных
мер не требуется.

Мировой кризис,
разработка новых
биотехнологий.

Разработка ускоренных
способов создания
вакцин. Карантин.

Ничего сделать нельзя.

12

Разрыв».
Завершение
существова
ния
наблюдаемо
й
Вселенной.

будущем Вселенной, и
одной из них включает в
себя новый Большой
взрыв, связанный с
переходом тёмной
энергии в обычную
материю, или, по другим
гипотезам, переход
вакуума в другое
стабильное состояние.
Ник Бостром
предполагает, что мы с
высокой вероятностью
живём в Симуляции, то
есть в искусственном
мире, созданном
превосходящей нас
цивилизацией.
Соответственно, она
может в любой момент
отключить её. (Другой
вариант – гипотеза
«космического зоопарка»
или резервации.)

в научных
журналах.

роятно
.
Менее
0.0000
001%

Несколько
публикаций за
и против.

Вероят
но.
(Если
соглас
ится с
самой
возмож
ностью
.)
Не
менее
1%

Формула Готта в
отношении
времени.

Исходя из прошлого
времени существования
человечества (200 тыс.
лет) с 95% вероятностью,
согласно Готту, можно
утверждать, что оно
просуществует ещё от 5
тыс. до 8 млн. лет. Это не
противоречит средней
продолжительности
жизни биологических
видов.

Несколько
научных
публикаций за
и против.

Формула Готта по
рангу рождения.

Но если применить
формулу Готта к рангу
рождения людей, то
ожидаемое время
вымирания составит

19.
Отключение
Симуляции.

3.
Не
пря
мы
е
спо
соб
ы
оце
нки
вер
оят
нос
ти

20.
Неизвестно
е природное
явление.
21.
Принципиал
ьно новые
открытия,
изменение
картины
мира.
3.1.
Предсказан
ие будущей
длительност
и
существова
ния
человечеств
а, исходя
только из
прошлой
длительност
и.
(Doomsday
argument.)

понятий
современно
й
космологии.

В любой
момент.

Бездоказате
льное
отрицание
этой
возможност
и.

Авторы
«Матрицы»
могут
подкидывать нам
новые проблемы
или защищать
нас от них.

Скорее всего, ничего
сделать нельзя. Как
вариант – стараться жить
как можно интереснее,
чтобы «зрителям
Матрицы» не хотелось её
отключать.

13

Формула Готта
относительно числа
людей, знающих
формулу Готта.
Формула Готта для
людей с момента
появления рисков
ядерной войны.
Рассуждение
Картера-Лелси.

Рассуждение
Виленкина-Кноба.

Антропный
принцип и
природные
катастрофы.

3.2
Парадокс
Ферми.

3.3
Рассуждени
е Бострома
о
симуляции.

1000 лет от настоящего
момента.
Если применить формулу
Готта к числу тех, кто о
ней знает, то множество
этих людей скорее всего
закончится в ближайшие
несколько десятков лет.
В этом случае формула
Готта даёт оценки
времени выживания
порядка 100 лет.
Оно резко повышает
оценку даже небольшую
вероятность вымирания
за счёт применения
теоремы Байеса.
Например, переводит
50% в 99%.
Наше ранее
местоположение во
времени объясняется
тем, что все цивилизации
живут не долго.
Вероятно, мы живём в
статистической аномалии
по числу природных
катастроф. Но в будущем
их число может
вернуться к норме, или
даже её превысить.
Отсутствие следов
существования
внеземных цивилизаций
повышает вероятность
гипотезы о том, что все
они гибнут на стадии
технологического роста.
В самой жёсткой
формулировке звучит
так: или все цивилизации
погибают, или мы уже
живём в симуляции.

Несколько
научных
публикаций.

Научная
публикация.

Несколько
научных
публикаций.

Несколько
публикаций.

Несколько
публикаций.

14