Pull to refresh

Блеск и нищета гипотезы симуляции

Reading time9 min
Views12K

Недавно я с интересом прочитал на Хабре сразу две свежие статьи с рассуждениями о том, насколько наблюдаемая реальность похожа на компьютерную симуляцию, или, иными словами, какова вероятность того, что мы живём в компьютерной симуляции. Первая (автор @igor_zvyagin) под названием «Мы живем в компьютерной симуляции. Мнение программиста. Часть 1» вышла 8 августа, а вторая (автор @flancer) «Мы живем в компьютерной симуляции. Мнение другого программиста» — 28 августа. Меня особенно впечатлила вторая статья, где автор размышляет о квантовании пространства и времени в контексте планковских величин. При этом сам я ранее писал пост «Как и зачем создавать вселенную в лаборатории», в котором особое внимание уделил идеям Андрея Дмитриевича Линде и попробовал рассказать, в чём заключается научная ценность таких опытов. Но две вышеупомянутые статьи побудили меня вернуться к этой теме, так как, оказывается, гипотеза симуляции имеет минимум три смысловых разновидности: 1) компьютерная модель/симуляция, 2) игра, 3) завуалированный креационизм.

Что такое цифровая физика

Не буду пересказывать доводы из вышеупомянутых статей, а обрисую, как именно появилась гипотеза симуляции. На протяжении второй половины XX века рост вычислительных мощностей казался настолько быстрым и стихийным, что вряд ли можно было спрогнозировать, как скоро компьютер сможет смоделировать (или создать) полноценное искусственное сознание или виртуальную реальность, неотличимую от базовой. В качестве наиболее «ошеломительных» вех такого рода я бы отметил:

  1. Изобретение перцептрона в 1959 году (превратить мелкое обучение в глубокое и найти практическое применение этой технологии удалось примерно через 50 лет)

  2. Изобретение полноценной виртуальной реальности, а именно — шлема для погружения в игры и симуляции. В данном случае особо отмечу идею погружения, сформулированную в 1968 году Айвеном Сазерлендом: виртуальная реальность — это «компьютерная имитация мира, воздействующая на пользователя через специальный шлем, который создаёт настолько реалистичную иллюзию, что человек не способен отличить имитацию от действительности, при этом у пользователя есть возможность взаимодействовать с объектами в виртуальной реальности»

  3. Идея «всё из битов» (It from Bit), предложенная в 1989 году легендарным физиком Джоном Уилером (1911 — 2008). Уилер полагал, что базовая ткань Вселенной — это информация, у каждого физического явления есть информационный эквивалент. Поэтому теоретически можно написать компьютерную программу, которая воспроизводит весь состав и динамику Вселенной. Так зародилось научное направление, именуемое «цифровой физикой»

Уилер был последним живым коллегой Альберта Эйнштейна и, в частности, развил идею Эйнштейна о чёрных дырах, которые сам Эйнштейн считал чисто умозрительным конструктом. Уилеру же принадлежит идея, что чёрные дыры — это «колодцы» не столько с материей, сколько с неизвлекаемой информацией в состоянии максимальной энтропии. Именно идеи Уилера предвосхитили вполне успешные попытки моделирования мультивселенной с тонко настраиваемыми физическими законами. Физика до сих пор не даёт ответа, почему исходные параметры, при которых случился Большой Взрыв, оказались подходящими для возникновения жизни и сознания. Более того, непонятно, почему конкретные значения физических констант привели к концентрации материи в виде галактик, звёзд и планет, однако не привели к мгновенному слипанию всей материи в чёрные дыры. Так возникла идея тонкой настройки, фактически допускающая участие разумного актора в подборе начальных значений для образования Вселенной. Альтернативная версия (перекликающаяся с эвереттовской интерпретацией квантовой механики) предполагает развитие Мультивселенной, в которой чисто статистически должен был возникнуть «пузырь» с такими подходящими условиями. Обе эти идеи — информационные. Они предполагают, что Вселенная потенциально поддаётся спецификации, развёртыванию (в том числе, по тому же принципу, по которому строится процедурная генерация игровых миров) и репликации.

Всё эмерджентно?

Информационная физика возникла отнюдь не как платоновская игра ума, а в процессе поисков того субстрата, который мог бы стать общим знаменателем и для ньютоновской механики, и для квантовой физики. Многие феномены макромира по сути эмерджентны, то есть на микроуровне не существуют. Например, температура есть у вещества, но ни у одного отдельно взятого атома температуры нет. Температура эмерджентна, так как возникает в результате движения большой совокупности атомов и зависит от активности этого движения. В аналогичном смысле на атомном уровне эмерджентны многие другие физические величины. В одной из следующих публикаций я надеюсь рассмотреть, как выглядит квантовый аналог пожара или огня. Таким образом, на микро- и макроуровне определённо тождественны лишь информация и энтропия. Более того, в 2011 году была впервые экспериментально подтверждена теорема о квантовом несокрытии информации (no-hiding theorem), ранее теоретически доказанная в 2007 году Сэмюэлом Браунстейном и Аруном Пати. Согласно этой теореме, проверенной в кубитовых системах из атомов углерода, водорода и фтора, та информация, что должна была бы теряться при декогеренции квантовых систем, на самом деле не теряется, а распределяется в окружающей среде. Эта тема приобретает практическую важность при разработке квантовых компьютеров, но в рамках данной статьи позволяет предположить, что на квантовом уровне действует закон сохранения информации, не наблюдаемый на макроуровне. Допустим, что этот опыт — в пользу теории Уилера о цифровой (информационной) Вселенной. Если Уилер был прав, то теоретически возможно написать компьютерную программу, которая в точности моделировала бы не только Вселенную, но и сознание. 

Неудивительно, что на фоне таких идей Ник Бостром (профессор Оксфордского Университета и автор нескольких книг, из которых я выделил бы «Суперинтеллект») сформулировал в 2001 (и дополнил в 2003) году свою программную статью «Живём ли мы в компьютерной симуляции»? (оригинал). Суть статьи сводится к тому, что любая разумная цивилизация должна за считанные тысячи лет достигать такого уровня технологического развития, при котором плоды её деятельности сравнятся по степени сложности с наблюдаемой нами Вселенной. В таком случае, по Бострому, «базовая реальность» должна быть единственной, а космологических симуляций окажется настолько много, что они, возможно, даже напоминали бы Мультивселенную. Соответственно, вероятность, что мы живём в такой симуляции, несравнимо выше, чем вероятность нашего обитания в базовой реальности.

Полномасштабные симуляции Вселенной

Картина эта не настолько умозрительная, как кажется — ведь мы уже сегодня активно изучаем Вселенную путём моделирования, так как располагаем достаточными вычислительными мощностями.

Это суперкомпьютер Mira, третий по мощности в мире по состоянию на 2012 год, находится в Аргоннской национальной лаборатории в США. В сентябре 2012 года на нём была запущена полномасштабная модель эволюции галактик, в которой их развитие должно было уложиться в две недели. Именно начальный этап эволюции галактик сложнее всего смоделировать, и, хотя первые попытки такого рода предпринимались ещё в начале XXI века, первые «искусственные галактики» не выдерживали никакой критики, так как напоминали плотные пузыри, наполненные звёздами, а не диски со спиральными рукавами. Реалистичные спиральные галактики впервые удалось получить только в 2015 году в рамках симуляции BlueTides. Именно в этой симуляции в центрах галактик были размещены сверхмассивные чёрные дыры, а на окраинах спиральных дисков — облака тёмной материи. В рамках этой же серии экспериментов удалось подобрать такую частоту возникновения сверхновых и так распределить их в пространстве, чтобы образующиеся звёзды примерно соответствовали диаграмме Герцшпрунга‑Рассела, а набор химических элементов — таблице Менделеева. Вот пример подобной симуляции:

Так возникла целая научная дисциплина, именуемая «числовой космологией» (а также появился соответствующий софт), но рассмотрение этой науки выходит за рамки данного поста. Отметим только, что к началу второго десятилетия XXI века мы вполне успешно создаём космологические модели с эмерджентным временем, а также корректируем их методом тонкой настройки. Играем в те самые игры, о которых 20 лет назад теоретизировал Бостром.    

Но далее напрашивается вопрос к Бострому: а зачем же населять компьютерную симуляцию Вселенной разумными существами, в особенности «заводить» их всего на одной из миллионов планет, на той самой, которая также населена разнообразными неразумными существами? Какова в принципе вычислительная мощность такого компьютера, на котором можно было бы эмулировать сознание? В своей статье Бостром берётся оценить этот показатель, исходя из того, сколько вычислительной мощности требуется на репликацию лоскута хорошо изученной нервной ткани in silico. В качестве такого образца он берёт участок сетчатки и, экстраполируя данные на весь мозг, получает цифру в ~1014 операций в секунду для эмуляции одного человеческого мозга. Далее он оговаривается, что это скорее нижняя оценка, так как, если модель будет учитывать ещё и последовательности срабатывания синапсов, а также ветвление дендритов, цифра вполне возрастает до ~1016‐1017 операций в секунду. Иными словами, на моделирование человеческого сознания (во множестве экземпляров) уходит едва ли не больше вычислительных ресурсов, чем на моделирование целой Вселенной. Поэтому достаточно странно, что предполагаемая симуляция Вселенной, в которой мы обитаем, дополнительно нагружена никак не менее сложной симуляцией человеческого сознания, но все известные экземпляры сознания в этой модели сосредоточены всего на одной планете в одной звёздной системе. Кстати, знаменитый физик Фрэнк Вильчек, лауреат Нобелевской премии за 2004 год, также указывал, что наша Вселенная содержит слишком много избыточной сложности, чтобы быть компьютерной симуляцией.

В поисках артефактов симуляции

В начале 2020-х теорию Бострома пытались исследовать в статистической плоскости и с точки зрения правдоподобия по Байесу. Среди таких работ отдельно отмечу статью Дэвида Киппинга из Центра вычислительной астрономии при Колумбийском университете. Исходя из выкладок Киппинга, вероятность нашего обитания в симуляции — 50/50. Но есть и ещё один способ найти лазейку, которая выдавала бы, что мы живём в симуляции — поискать артефакты (изъяны) модели, которые выдавали бы присутствие «железа» — процессора, на котором выполняются алгоритмы. Вот вероятные свойства такого артефакта:

  • Это дополнительный компонент, присутствующий в любой операции. На него не влияет масштаб переменных, над которыми производятся операции, и он не отражается на работе симуляции, пока не будет доведён до максимума.

  • Соответственно, в симулированной Вселенной этот артефакт воспринимается как некий верхний предел.

  • Этот артефакт невозможно объяснить в терминах физических законов, действующих во Вселенной. Он должен приниматься по умолчанию.

  • Эффект этого артефакта абсолютен и должен проявляться без исключений.

В нашей Вселенной всем свойствам такого артефакта соответствует скорость света. Если бы мы жили в компьютерной игре, то предельность скорости света означала бы, что в нашей модели за секунду может «отрендериться» лишь область пространства не более 300 000 километров в диаметре. Другая трактовка — только в таком блоке пространства могут нормально (без искажения) действовать все физические законы, применяться все переменные. То есть, сфера диаметром 300 000 километров пространства обрабатывается за один такт процессора.

Другим артефактом такого рода может быть схлопывание квантовой функции в момент наблюдения при эксперименте с двумя щелями. Этот вариант проверки симуляционной гипотезы подробно исследован в статье Тома Кэмпбелла (Калифорнийский технологический институт) и его соавторов. Кэмпбелл полагает, что, если наша реальность является виртуальной, максимальная экономия вычислительной мощности при рендеринге должна выглядеть именно так. Мы отображаем только тот из возможных вариантов попадания частицы, который известен по завершении операции, а все прочие варианты при этом не реализуются, но, возможно, кэшируются до следующей операции.

Заключение и несколько слов о лженауке

При всей интуитивности и привлекательности приведённых наблюдений они, к сожалению, непроверяемы и нефальсифицируемы. Как в картине Уилера, так и в картине Бострома, а также в других приведённых здесь выкладках подразумевается, что наблюдаемую Вселенную можно описать не только на языке физических законов, но и в контексте некого базового алгоритма, относительно которого эти законы эмерджентны. Возможно, теорема о квантовом несокрытии информации — первый шаг к вычислению информационного содержания отдельных элементарных частиц, и развитие квантовых компьютеров рано или поздно позволит программировать и создавать элементарные частицы с заданными свойствами, но современные квантовые компьютеры ещё слишком далеки от прогона любых компьютерных моделей, тем более — от тестирования цифровой физики. Сабина Хоссенфельдер, физик‑теоретик из Центра по изучению тяжёлых ионов им. Гельмгольца подробно разбирает умозрительность симуляционной гипотезы. С Хоссенфельдер сложно поспорить, так как в рассмотренной гипотезе налицо тяжёлые признаки «разумного замысла» и нашей одержимости игроманией. Но мне кажется, что скепсис Хоссенфельдер вполне может быть пересмотрен, если когда-нибудь мы научимся воспроизводить в реальности небольшие «песочницы» с произвольно корректируемыми законами физики, которые могли бы быть выражены в терминах уилеровских информационно-физических моделей.  

Tags:
Hubs:
Total votes 65: ↑61 and ↓4+57
Comments119

Articles