Газета "Кишиневские новости"

Новости

ПУТЕВОДИТЕЛЬ ПО КОНЦУ СВЕТА

ПУТЕВОДИТЕЛЬ ПО КОНЦУ СВЕТА
14 июля
00:00 2016

Российский футуролог систематизировал сто причин, которые могут привести к гибели всего человечества до конца XXI века

У москвича Алексея Турчина, физика-футуролога, участника крупных исследовательских кон­ференций, необычное хобби — систематизировать и создавать наглядные карты разных научных явлений. Одна из его карт, как та­блица Менделеева, сводит воедино все возможные причины, которые могут привести к полному уничто­жению человеческой цивилизации еще до конца XXI века. Помимо всем известного глобального по­тепления или «ядерной зимы» там есть, например, авария в ходе на­учного эксперимента, «серая слизь» из-за вышедших из-под контроля лечебных нанороботов и т.д. Инте­рес к карте уже проявили в Центре исследования глобальных рисков в Оксфорде.

— Обычно люди даже о собственной смерти думают как о чем-то, что случится не с ними. Тем более мало кого беспоко­ит столкновение Земли с астероидом или исчезновение Вселенной в черной дыре. Как футурологи обосновывают остроту проблемы?

— Исследования специалистов, может, не так зрелищны, как запускаемые периоди­чески в СМИ «страшилки». Но с научной точки зрения — гораздо увлекательнее.

В первую очередь мы рассматриваем ри­ски, которые возникнут в течение ста лет из-за стремительно развивающихся сверхтехноло­гий — нанотехнологий (управление неживой материей, наноматериалы); биотехнологий (управление живой материей: коррекция ор­ганизмов, создание тканей, вирусов); искус­ственного интеллекта (управление информа­цией и всем чем угодно).

Любую из этих технологий можно ис­пользовать как во благо, так и во зло. Напри­мер, благодаря успехам биологии единично­му биохакеру не составит труда вырастить генно-модифицированный вирус, способный уничтожить значительную часть человечества. Уже сейчас ученым известно, какие буквы генетического алфавита нужно поменять в вирусах, чтобы они приобрели абсолютную летальность. Жуткий сценарий — скрестить вирус гриппа с ВИЧ…

Моя карта адресована профессиональ­ным футурологам и лицам, принимающим ре­шения: ООН, профильным комитетам ГД — так же, как концепция «ядерной зимы» в конечном итоге послужила основанием для договоров о сокращении оружия. Когда возникла Эбола, все требовали ликвидации угрозы.

— И что сейчас угрожает нам больше всего?

— В карте отражено около ста вариантов катастроф — природные, технологические, объединение человеческого с природным. В основе каждой лежат разные смертоносные факторы, которые могут быстро распростра­ниться по всей Земле: ударная волна, радиа­ция, тепловое воздействие, отравление и т.д. Много гипотетических сценариев, которые очень маловероятны. Базовых — примерно десять, включая экстремальное потепление из-за выброса метана, пандемию, вспышку на Солнце, аварию при научном эксперименте. К примеру, в 2003-м американский профессор Дэвид Стивенсон выступил с идеей насквозь проплавить земную кору при помощи гигант­ской капли разогретого железа, чтобы отпра­вить к центру Земли научный зонд, но такой «прокол» может привести и к гигантскому из­вержению.

Вообще шансов, что себя уничтожим мы сами, а не природные стихии, гораздо боль­ше. И с каждым годом технического прогрес­са этот риск растет пропорционально закону Мура (Гордон Мур — один из основателей Intel. — Авт.), который гласит, что мощь про­цессоров удваивается каждые два года. При­чем подобно мощности компьютеров увели­чивается и мощь био-, нанотехнологий.

— А как же пресловутое падение асте­роида?

— Успехи астрономии и наблюдения по­зволили людям даже без каких-либо трат на космическую защиту, бомб и лазеров колос­сально снизить уровень подобного риска: мы понимаем, что в ближайшие сто лет ничего крупного на нас не упадет — в год у Земли один шанс из миллиона столкнуться с астероидом. Считается, что вероятность ядерной войны — 1% в год, то есть в 10 тысяч раз выше.

— На основании чего сделаны такие выводы?

— Согласно наблюдениям, одна ката­строфа приходится примерно на сто опасных ситуаций. Соответственно, зная, что ядерное оружие существует около 70 лет, и сколько за это время было случаев, когда его чуть не при­менили, мы можем рассчитать вероятность катастрофы. А ситуаций, даже помимо Хиро­симы и Карибского кризиса, было немало.

В 1983 году, в разгар «холодной войны», наши спутники ошибочно приняли блики от Солнца за запуски американских ракет, предупреждающая система дала команду на ответный ядерный удар, но, проанализиро­вав ситуацию, русский ракетчик Станислав Петров отменил ее. В 2006-м его наградили в ООН за спасение человечества от потенци­альной ядерной войны.

В 1984-м Рейган, тестируя микрофон пе­ред выступлением на радио, «пошутил», что через пять минут начнется бомбардировка, и Россия будет разрушена, а заявление пустили в эфир, так что Советский Союз мог нанести реальный ответный удар. По некоторым дан­ным, полная боевая тревога была объявлена и когда умер Брежнев. То есть почти каждый год что-то повторялось.

В 1995-м российский президент Борис Ельцин спустился в бункер и готов был уда­рить по США, приняв запущенную норвеж­цами метеорологическую ракету за начало боевых действий…

Кстати, большинство сценариев ядерной войны все же не приводит к гибели всего че­ловечества. Вероятность трагического конца оценивается всего в 0,01%. Другой вопрос, если совпадет сразу несколько факторов — еда заражена, пандемия… — тогда может произойти падение популяции, и человече­ство «обнулится».

— С высоких трибун много говорят о глобальном потеплении…

— То, что обсуждают международные организации, носит компромиссный харак­тер, так как усредняет разные точки зрения. Повышение температуры на 2–4 градуса не приведет к гибели человечества: часть тер­риторий затопит, кто-то переселится, где-то дамбы построят… Маловероятный, но воз­можный сценарий всепланетной катастрофы — это необратимое глобальное потепление с ростом температуры до 100 градусов Цельсия и более, если вырвутся на свободу огромные запасы метана в Арктике, а его парниковый эффект во много раз превосходит воздей­ствие углекислого газа.

— Известно, как в 1938 году амери­канцы впали в панику, услышав по радио «Войну миров» Герберта Уэллса. Многие всерьез поверили в нашествие марсиан. Что говорит ваша карта насчет пришель­цев?

— Скорее всего, никаких инопланетян нет, тем более в окрестностях Земли. Един­ственное — мы можем найти какие-то радио­сигналы с «вредными советами» и воспользу­емся ими.

— Как это?

— Имеется в виду искусственный интел­лект, который сначала предложит «скачать» его, как это бывает в вирусной рассылке, а затем захватит Землю — запрограммирует здесь все что можно, проникнет в передающие станции и начнет рассылать себя дальше.

— Насколько научен такой сценарий?

— Это следует из того, что мы знаем о поведении вирусов и о естественном отборе. Эволюция способствует размножению си­стем, которые лучше всего выживают, а по­добный искусственный интеллект будет наи­более живучим. Ведь и в почте у нас половина — спам, мусор…

— И что, есть крупные ученые, кото­рые допускают подобную угрозу?

— Если не делать акцент на внеземном происхождении, то вообще о рисках искус­ственного интеллекта сейчас не говорит толь­ко ленивый. Тему поднимали те же Бостром, Юдковский, один из основоположников кос­мического туризма Илон Маск.

В 2015 году Маск даже запустил проект OpenAI, задача которого — обезопасить чело­вечество путем создания открытой системы дружественного искусственного интеллекта: каждый исследователь будет обмениваться результатами своей работы, и в итоге поя­вится не единый, а гипермногополярный ис­кусственный интеллект (ИИ), то есть разные ИИ будут друг друга уравновешивать. Хотя, по мне, это все равно, что раздать всем атомную бомбу…

Были тематические слушания в ООН, в парламенте Великобритании. Разве что Билл Гейтс, пожалуй, более скептически настроен относительно времени создания искусствен­ного интеллекта.

Некоторые видят основной риск ИИ в сокращении привычных рабочих мест для людей. Но более радикальный взгляд бли­зок к упомянутому мной «космическому при­меру». Искусственный интеллект — как про­грамма, которая начнет усиливать сама себя и за короткий срок превзойдет способности человека, а дальше сможет истребить или «неправильно облагодетельствовать» людей. Например, кто-нибудь неосторожно скажет: «Давайте посчитаем число пи» — и програм­ма начнет строить суперкомпьютер макси­мальной мощности, используя все земные ресурсы, включая людей. Это так называемый сценарий paperclip maximizer (максимизатор скрепок) — сумасшедшей штуковины, кото­рую не интересует ничего, кроме скрепок, и она делает их изо всего подряд.

На самом деле эти риски ближе, чем кому-то кажется. Уже появляются нейронные сети, автономные автомобили. И возника­ют в том числе этические дилеммы: если на пути несущегося беспилотника неожиданно возникает преграда — на одной дороге один человек, а на другой — пять, кого он должен задавить?..

— После такого самое время погово­рить про нанороботов — они-то чем страш­ны? Пока чаще приходилось слышать, как невидимые машинки будут доставлять к больным органам лекарства, безболез­ненно лечить нас изнутри…

— Есть два потенциальных класса нано­роботов: во-первых, наномеханизмы, которые могут перемещаться по кровеносным сосудам с грузом, а во-вторых, продвинутые — что-то среднее между механизмом и живой клеткой, способные осуществлять молекулярное про­изводство, реплицироваться (размножаться). О них еще в середине 1980-х писал подзабы­тый «отец нанотехнологий», американский ученый, инженер Эрик Дрекслер, а потом — американский исследователь Роберт Фрей­тас.

Кстати, Дрекслер выдвинул и теорию «серой слизи» — сценарий катастрофы, ког­да подселенный в человека наноробот, кото­рый должен размножиться, скажем, сто раз, из-за сбоя не останавливается и продолжает все на своем пути раскладывать на составные элементы и собирать из них собственные ко­пии, как вирус. Человеческие тела, биосфера — все служит ему топливом и строительным материалом. Другой вариант — кто-то под­бросит наноробота неприятелю в военных целях, а дальше он также начнет размножать­ся неконтролируемо. Хотя на данный момент к нам ближе риски ядерного, биологического оружия, чем нанороботы и искусственный ин­теллект.

— Выходит, не зря энтузиасты строят бункеры и роют землянки?

— Можно построить узкоспециализиро­ванную защиту, если мы точно знаем, какой тип катастрофы нас ждет, но создать универ­сальный бункер, который спасет и от виру­сов, и от достаточно большого астероида, и от нанороботов, и от радиации, очень слож­но. Именно поэтому Илон Маск предлагает колонизировать Марс и обустраивать там «второе человечество». Правда, здесь воз­никают новые риски. Как учит история, необ­ходимое условие, чтобы люди стали враждеб­ными друг к другу, — это разделить их на две группы. Если основать колонию на Марсе, со временем может возникнуть напряженность с Землей, как это было между Старым и Но­вым Светом. А взаимная межпланетная война уменьшит шансы нашего выживания.

Карта предотвращения рисков гибели человечества у меня тоже есть — в ней не­сколько планов, включая создание суперООН, убежищ в Антарктиде, повышение живучести человека с помощью современных техноло­гий (например, Intel недавно профинансиро­вал разработку макромолекулы методом вы­числительных технологий, которая, прилипая почти к любому виду вирусов, останавливала бы их развитие в организме человека). Можно оставить следы от человечества (диски, об­разцы ДНК) в надежде, что их найдет другая раса. Конечно, всегда есть контраргументы — все может пойти не так, как предполагаем…

Елена ДОБРЮХА.

 

Поделиться:

Об авторе

admin

admin

Курсы валют

USD18,24+0,37%
EUR18,97–0,34%
GBP22,82–0,26%
UAH0,44–0,10%
RON3,81–0,30%
RUB0,18–1,40%

Курсы валют в MDL на 22.11.2024

Архив