Регулярно нынче попадаются утверждения о том, что у «квантовых вычислений» или «квантовых компьютеров» возможности в решении некоторых задач уже превосходят «классические компьютеры». Популярное заблуждение, которое касается трактовки термина «вычисления». Неверно предполагается, что если какой-то физический процесс трудно моделировать вычислительно, то это прямо означает, что этот процесс обладает превосходящими возможностями «вычислений», пусть и в решении только некоторых типов задач. Однако не только квантовые вычисления, как концепция, происходят из других рассуждений, но и преимущество в скорости реального процесса над некоторой вычислительной моделью не гарантирует того, что процесс подходит для быстрых вычислений.
Действительно, попытки точного моделирования определённых физических процессов на «пошаговых» компьютерах (классических) приводят к экспоненциальному росту вычислительной сложности. Конечно, сложность моделирования зависит от используемых алгоритмов. Тем не менее в реальном эксперименте эти моделируемые физические процессы происходят очень быстро. Как бы, им не мешает экспоненциальная сложность модели. Более того, в случае квантовых экспериментов, к которым относятся «квантовые компьютеры», распределение вероятностей возможных результатов с хорошей точностью предсказывает аппарат квантовой механики, а расчёт этого предсказания – вовсе и не требует экспоненциально сложных вычислений.
Да, поскольку моделирование «квантовых вычислений», проводимое типовыми методами классического компьютера, оказывается экспоненциально сложным, то, получается, имеющиеся возможности моделирования отстают от физического эксперимента. Но даёт ли это гарантии вычислительного превосходства? Нет.
Медленное моделирование, само по себе, это медленное моделирование, а не доказательство превосходства «квантовых вычислений». Более того, пока что даже для случаев мнимого «превосходства» на специально подобранных задачах – появляются улучшенные методы быстрого (не «экспоненциального») классического моделирования, именно что специальные алгоритмы для некоторых типов задач.
Но, всё же, нетрудно найти и конкретные примеры, когда возможности физического эксперимента по быстрому завершению процесса, превосходят возможности классических компьютеров по моделированию исхода этого же эксперимента. У Ричарда Борчердса есть прекрасная иллюстрация (YouTube, англ.): квантовые вычисления на фарфоровом чайнике. Фарфоровый чайник, упавший на бетонный пол, разбивается существенно быстрее, чем суперкомпьютер успевает предсказать конфигурацию осколков чайника. Тут не с чем спорить. Но вот только лишь из этого наблюдения – не следует обратное: что, мол, можно подключиться к сверхмощному вычислителю внутри чайника, чтобы использовать его для решения других задач.
Практические вычисления подразумевают и управление процессом, и получение полезного результата, а не только квантового шума (не путать с хайпом), чтобы с ним бороться «методами коррекции ошибок». То есть, из практической сложности некоторого классического моделирования вовсе и не следует, что конфигурация исходного физического эксперимента гарантированно обращается – мол, можно извлечь «вычислительную мощность».
Впрочем, трудности вычислительного моделирования тут вообще явление из параллельной плоскости. Из наличия таких трудностей не следует и то, что мощность извлечь невозможно в принципе. Тоже занимательный аспект.
Предположим, что речь идёт о симуляции вселенных, а расчёт конфигурации осколков разбитого чайника проводит некий гипервизор, реализующий симуляцию. Пока конфигурация осколков не определена, чайник не разбивается. Но этого, очевидно, обитатели симуляции не могут обнаружить – в коде не предусмотрено веток с зависанием чайника: из-за одного чайника зависает вся симуляция вокруг. Да-да, тут сразу напрашиваются эффекты склеек: что же, через некоторое время, будут видеть те обитатели, которые оказались за пределами «сектора зависшего чайника»? Вспоминаем принцип относительности Галилея и то, что в физике вокруг него. Но это уже детали, которые могут наблюдаться при помощи телескопов, а могут и нет. Главное, что если осколки чайника обсчитываются вселенским гипервизором, то, конечно, можно и нужно попробовать навязать этому гипервизору дополнительные вычисления: не то чтобы это совсем уж здравая, – в психическом, так сказать, смысле, – идея, но точно богатое теоретическое направление.
Такие вычисления могли бы выполняться быстрее, чем на суперкомпьютере в той же симуляции, поскольку суперкомпьютер обсчитывается более медленными фрагментами кода на стороне гипервизора. Почему это так? Потому что суперкомпьютер построен из отдельно моделируемых кусочков – транзисторов внутри симуляции и тому подобных элементов. Реализация каждого элемента требует ресурса. Это как модель компьютера на «редстоун-релюшках» в Майнкрафте: работает, но очень медленно. А вот вычисление конфигурации осколков чайника – вселенский гипервизор реализует непосредственно, на своей аппаратуре. Могли бы это и быть «квантовые вычисления»? Да, вполне.
Вот только задача навязывания вселенскому гипервизору вычислений, во-первых, это «совсем другая история»; во-вторых, всё равно далеко не факт, что результат таких вычислений удастся простым способом спустить из гипервизора в конкретную симуляцию. Спуск может сопровождаться тем самым необратимым зашумлением, которое и обозначают «декогеренцией» и прочими забавными терминами. Мало просто выйти из «песочницы» симуляции – нужно так выйти, чтобы осталась возможность спускать результат тем процессам, которые всё ещё в песочнице. Теоретически, в такой модели, спуск – это и есть коррекция ошибок квантовых вычислителей. Которая, – внезапно! – тоже требует вычислительных ресурсов.
В общем, из сложностей конкретного вычислительного моделирования не следует наличие новых, превосходящих вычислительных возможностей «на той стороне». То есть, если ваша модель медленная, это не означает, что моделируемый процесс именно обсчитывает сам себя быстрее – нужно доказать и то, что невозможно предложить более быстрый алгоритм с данными ограничениями, и то, что за моделируемым процессом тоже стоят вычисления, но на «другой аппаратуре». Хорошие новости: если описанное вычислительное преимущество всё же есть, всё же оно скрывается за реализацией быстрого физического эксперимента, то классическое моделирование, действительно, всегда будет медленнее, как в случае с вселенским гипервизором выше. Вот только квантовый хайп пока что приводит к смешению свойств, в результате желаемое выдаётся за действительное. Вычисления – это концепция другого уровня. Классические компьютеры тоже ничего не вычисляют, а переключают триггеры. Вычисления, да ещё и универсальные, образуются на уровень выше.
Spaceoddity
Было непросто вникнуть, но как я понял - основной посыл онтологический. Что первичнее - законы природы или соотношения между сущностями в природе, которые описываются этими законами... И вопрос, надо заметить, вовсе неоднозначный! Я вот допускаю существование гипервизора! Но он совершенно не обязан работать на той логике, которую предполагает автор. Он вообще может просто число Пи в бесконечную дробь разворачивать, а из этого разворота и будут вытекать все разбитые чайники... Ему даже не нужна "обратная связь" ;)
Плюс не стоит забывать про оптимизацию! Не владея пониманием операции умножения - складывать в строку факториал 100 - будет довольно проблематично ;) Так с чего же автор постулирует, что науке, якобы, известны все законы математики и логики?