Большая ошибка

Материал из Posmotre.li
Перейти к: навигация, поиск
« Полсотни лет назад в Массачусетсе запустили самое сложное кибернетическое устройство, когда-либо существовавшее. С каким-то там феноменальным быстродействием, необозримой памятью и всё такое… И проработала эта машина ровно четыре минуты. Её выключили, зацементировали все входы и выходы, отвели от неё энергию, заминировали и обнесли колючей проволокой. Самой настоящей ржавой колючей проволокой — хотите верьте, хотите нет. »
Братья Стругацкие, «Далёкая радуга»

Большая ошибка — цивилизационный просчёт, имеющий фатальные последствия. Как правило, большая ошибка принадлежит к сфере науки и техники, когда злые, безумные или заблуждающиеся учёные изобретают что-нибудь этакое, что губит цивилизацию. Большая ошибка может также принадлежать к гуманитарной сфере и являться ошибкой политиков или философов, пытающихся создать утопическое общество — с ужасными последствиями, конечно же. Так или иначе, Большая Ошибка — поворот на тупиковую ветвь развития цивилизации, которая ведёт в лучшем случае в постапокалипсис. Большие ошибки — излюбленная тема в научной фантастике, пытающейся предупредить о возможном опасном будущем.

Наиболее распространённые большие ошибки в НФ:

  • Супероружие. Оружие настолько сильное, что может уничтожить не только врага, но и того, кто его применил. Это самая реалистичная большая ошибка, потому что прототип реально существует — стратегическое ядерное оружие. Целые поколения во времена Холодной войны жили в страхе, что его когда-нибудь применят. Да и сейчас сеттинг после ядерной войны — излюбленная арена вымышленных постапокалиптических баталий.
  • Искусственный интеллект. Разумный компьютер, превосходящий по возможностям человека и постоянно совершенствующийся. Часто воспринимается как Большая ошибка из-за опасений, что он обернётся против своих создателей — или прямо, как Skynet из фильмов о Терминаторе, или косвенно, желая облегчить человечеству жизнь и вытеснив людей из всех сфер созидательного труда (что, по Марксу, приведёт к деградации и одичанию), либо, например, из-за непонимания им человеческих ценностей.
  • Виртуальная реальность. Конкретно, такая, что по реалистичности (и главное, по психологической комфортности) превосходит реальность подлинную. Ошибочность — в том, что люди en masse захотят уйти из реального мира в виртуальный сон, и развитие цивилизации остановится. В результате — апокалиптическая картина: люди проводят жизнь во сне, а вокруг всё ржавеет, рушится, холод, голод и темнота. Такой сценарий, в частности, описан в одном из рассказов Шекли.
  • Бездефицитная экономика. То есть, экономика, построенная на таком способе производства, когда от людей — всех или большинства — не требуется никакого созидательного труда, автоматика делает всё и бесплатно. Фантасты задумывались — а будет ли тогда иметь смысл человеческая жизнь? Не помрём ли со скуки, не одичаем ли, не обленимся с фатальными последствиями? Довольно оптимистичное описание последствий — в ещё одном рассказе Шекли, где ради спасения человечества осваивают Венеру и перебрасывают не желающих того колонистов на фронтир, где они пробуют на вкус настоящую жизнь и, конечно же, остаются.
  • Копали слишком глубоко. Эта Большая ошибка встречается не только в НФ; профессор Толкин с удовольствием применил её в жанре фэнтези. Суть в том, что персонажи строят слишком мощную добывающую промышленность или разворачивают слишком далеко идущие географические исследования, и в результате откапывают из недр или находят в диких краях что-то нежелательное и опасное.

Существуют, однако, сеттинги, где Большие ошибки возможны, но цивилизация намеренно избегает их, подавляя исследования в опасных областях. В ролевой системе GURPS для такого пути развития придумали название Safetech; мы будем называть это «осторожная наука».

Где встречается[править]

  • В видеоигре Civilization: Beyond Earth именно так — Большой ошибкой — называется некий просчёт в построении общества XXI века, который привёл к израсходованию ресурсов, остановке развития и угрозе наступления нового Средневековья. В чём состоял просчёт, напрямую не называется, но намекается, что это был загнивающий капитализм с обществом потребления. Преодолеть последствия Большой ошибки удаётся ненадолго: люди сумели на пару-тройку десятков лет взнуздать техносферу и построить колонизационные корабли в другую звёздную систему, но после этого новая волна кризиса погасила земную техногенную цивилизацию. Поэтому последняя надежда и ответственность за судьбы цивилизованного человечества лежит именно на колонистах этой другой звезды.
  • Stellaris — среди доступных научных исследований порой попадаются так называемые "опасные технологии". Такие исследования способны в будущем спровоцировать галактический кризис (восстание машин или вторжение могущественной эфирной расы).
  • Реальная жизнь: т. н. «теория великого фильтра» американского экономиста Робина Хэнсона. Хэнсон попытался с её помощью объяснить парадокс Ферми — загадку, почему Вселенная не полна наблюдаемых разумных цивилизаций. Согласно этой теории, некий этап на пути от белковых капель к межзвёздной расе является «великим фильтром» — то есть, достижение его маловероятно, и всё более вероятные пути развития предыдущего этапа ведут к стагнации или вымиранию. Наиболее известное толкование этой теории гласит как раз, что «великий фильтр» находится на пути от современного человечества к межзвёздной расе, мы ещё его не прошли и запросто можем вообще не пройти. Однако так как Робин Хэнсон — экономист, а не астрофизик, он, конечно, не знает, что наблюдать внеземные цивилизации мы не можем по другой причине — потому что космос ОЧЕНЬ большой, и чтобы хоть что-то заметить, нужно знать, куда смотреть, очень долго смотреть и иметь очень мощную аппаратуру.
    • В художественной культуре «Великий Фильтр» обыгран в серии игр Mass Effect в виде Жнецов, которые раз в 50 тысяч лет уничтожают все разумные виды жизни в нашей Галактике.
  • Слаанеш и Глаз Ужаса во вселенной WarHammer 40,000 — прямое следствие распутства эльдар.