“九章”光学实验解读(下)阻碍九章取得量子优势的深层原因分析

作者:徐令予

本系列的前文用“九章”自己的实验数据证明了“九章”对超级电子计算机不存在量子优势,恰恰相反,“九章”实验的真正意义是证明用玻色釆样获取量子优势的路子可能走不通。说句心里话,我对“九章”团队中真正做实事的研究人员怀有深深的敬意,他们已经把实验技术发挥到了极致,不幸的是在通向“量子优势”的征途上他们面临着三座难以逾越的物理大山。

第一座大山:光子大量丢失是“九章”实验的致命伤

“九章”论文的审稿人,量子计算专家斯科特•亚伦森教授公开指出:“为什么新的实验尽管令人印象深刻,但却可以用经典方法有效地模拟呢?这其中的关键原因是光子损失:正如陆朝阳现在已经明确证实(在原文中是隐含的)那样,多达约70%的光子在通过分束器网络时会丢失,仅剩下约30%的光子能检测到。在我看来,至少对于“Fock state” 玻色取样,即我和 Alex Arkhipov 在2011年提出的具有单光子输入的玻色取样,这样高的光子损失率对于声称量子优势是一个致命伤。”[1]

大量光子丢失严重损害“九章”釆样实验结果的有效性和真实性。首先,光子的丢失使得剩下的光子得不到充分的量子干涉过程,换言之,某些光子可能根本没有参与量子干涉效应而直接到达了出口处,这些失偶光子的行为破坏了玻色釆样的机理。其次,光子的丢失使得本该是A分布(1,0,1,1)有可能变成了B分布(1,0,1,0),结果是A分布的减少了一个样本数,而B分布则多了一个样本数,在这样基础上得到的概率去替代Tor的函数的计算值岂非张冠李戴乱成一锅粥。丢失70%光子的“九章”实验就是在捣浆糊,这种装置还好意思称为量子计算机原型机,不知这种计算机以后要卖给谁?不会又像量子通信设备一样全让各级政府买单吧?

第二座大山:对于小概率事件,“九章”实验200秒一共5千万次釆样是远远不够的

张武荣老师的文章指出[2]:《我们证明,对于玻色采样问题中随机概率矩阵P的积和式,其均值随着矩阵的维数增加而快速指数下降。根据伯努利大数定理,对该概率分布采样所需要的样本数也会指数增加。对于使用有限采样频率的物理装置,即使采集到一个有效样本,都是一个指数复杂度问题。这是因为,经典采样时钟的频率有其物理极限,而所需样本数指数增加。应该指出的是,文献[3][6]其实也意识到了样本数指数增长问题,但并没有定量的分析结果。同时我们也应该指出,有限的有效样本数的采集需要指数复杂度时间,和文献[3]的主要结论是吻合的:文献[3]的主要结论是,对矩阵P的积和式有限精度的近似都是一个指数复杂度问题,而这个过程其实就是有效样本数采集过程。》

以上结论完全适用于“九章”高斯玻色釆样实验。“九章”一百个出口处光子的分布是一个非常小的概率事件。对光子数 N=45 的某个分布的概率(100维矩阵的Tor值)为1.44×10^-25,对于如此小的概率要想通过釆样获得有意义统计结果,“九章”实验200秒一共5千万次釆样是远远远远不够的,按照“九章”的釆样速度日日夜夜不间断工作,估计上百万年都不够!因此,“九章”实验取得量子优势是没有科学依据的。

第三座大山:“九章”实验无法保证所有的光子之间发生了充分的量子干涉效应

亚伦森教授指出:《如果对于有损耗“玻色釆样”(BosonSampling)实验确实存在更有效的经典模拟,那它是什么呢?它又是如何工作的呢?事实证明,我们有一个合理的答案,该答案源于 Gil Kalai 和 Guy Kindler 在2014年发表的一篇论文。给定一个分束器网络,Kalai 和 Kindler 认为该网络的“玻色釆样”分布其实就是一个层次结构趋向于无限时的近似值。

初浅地讲,在第一级(k = 1),假设光子只是经典的可区分粒子。在第二级(k = 2),模型正确地模拟了两个光子相互之间的量子干涉,但是没有高阶干涉。在第三个级别(k = 3),模型正确地模拟了三个光子相互之间的干扰,依此类推,直到 (k = n)(其中 n 是实验中每次光子输入的总数),这才能复制出真实原始的玻色采样的分布。至少当 k 很小时,得到层次结构的第 k 级近似所需的时间应该按照 n的k次方(n^k)增加,作为理论计算机科学家,Kalai 和 Kindler 并不在乎它们的层次结构是否会产生任何物理上逼真的噪声,但是Shchesnovich,Renema 等人的后来研究表明确实如此。

中科大(USTC)小组在其原始论文中排除了该层次结构的第一级 (k = 1) 的模型可以解释其实验结果的可能性。最近,(陆)朝阳答复 Sergio 、Gil、Jelmer 和其他专家的询问,朝阳告诉我,他们已经排除了 (k = 2) 这个级别可以解释其结果的可能性。现在,我们热切期待更大的 k 值的答案。》

关于亚伦森教授用层级模型对“九章”的质疑,我有如下解读:

获得真正的“玻色釆样”分布,或者说对应于一个复数矩阵“积和式”的玻色釆样,参与实验的所有的光子之间必须有完全和充分的量子干涉效应。只有少数光子之间发生量子干涉的实验结果对应的就不是高价复数矩阵的“积和式”计算,它们可以被高效的(多项式复杂度)的经典算法模似,玻色釆样的量子优势就不存在[3]。

在玻色采样这类实验中,光子数越多,要保证所有光子之间都发生量子干涉效应的难度也是隨光子数的指数增加的,这是通过增加光子数取得量子优势必须面对的严重的原理性障碍。下图显示保证4个光子全部发生量子干涉效应的光路图,由此不难想象100个光子的完整光路图该有多么复杂,“九章”真的符合这样的要求吗?证据又在哪里?

“九章”论文发表时只能确定实验不是玻色釆样的一级近似,也就是说实验中还是有量子干涉效应存在,但量子干涉是否充分,究竟到了哪一级?他们心中是一笔糊涂账。论文发表后被同行追问后,过了一段时间才吞吞吐吐地否定了 K = 2 级近似的可能性。面对国外专家质疑时,“九章”团队之尴尬一露无遗,希望他们真的就是不知道,而不是在故意隐瞒着什么。

亚伦森教授这里讨论的是玻色采样,对应的数学问题是求“积和式”,这里所用的分层结构的分析方法基本上就是理论物理的套路,它们当然也完全适用于“九章”高斯玻色釆样。

“九章“量子计算机无法取得量子优势的主要原因可归于:光子大量丢失;釆样总数严重不足;光子之间的量子干涉效应不充分。请注意,以上三个问题中的每一个对于量子优势都有一票否决权,而且这些全是基础原理层面的问题,很难单纯依靠技术手段解决。“九章”实验的真正意义是证明了靠玻色釆样取得量子优势的路径很可能走不通。

参考文献

[1] 斯科特·亚伦森教授博客

[2] 内禀随机性是世界复杂度的来源吗?

[3]The easiest way to implement it is as follows: Given an n by m matrix you draw (with the appropriate weights based on repeated columns) at random n by n minor M (with repeated columns), then compute the degree k approximation X to the |permanent(M)|^2, (based on formula (8) from our paper) and then take the sample with probability according to the value of X and toss it away otherwise. This may work even for degree-2 truncation. (Rather than the straight truncation we can also try the “Beckner-noise” version but I don’t think this will make much difference.)

发表评论