Googleが最近「従来型コンピュータでは出来ないことを当社の量子コンピュータがやり、初めて量子超越性を実証した」と高らかに宣言した。
先行していたIBMが、IBM流に紳士的に、しかし論理的に「Googleの主張には誇張がある」と反論した。内容が充分理解できていないマスコミが、この対立を面白おかしく取り上げ、世の中を賑わしている。それなら私が整理してやろうじゃないか。
量子コンピュータ関係者は従来型コンピュータのことを「古典コンピュータ」と呼ぶ。古典コンピュータの基本単位は「ビット」で、電圧の高低や磁化の方向で表される。量子コンピュータでは「Qubit=量子ビット」である。ここでは「Qビット」と書く。Qビットは光やエネルギーの量子でも良いのだが、小さ過ぎて擾乱に耐えられないから、実用上は「量子ではないが量子力学に従う」もう少し大きな塊を使う。先行するIBMの量子コンピュータ「IBM Q」はTransmon方式と呼ばれ、超低温で微小な超電導部分に生じる電子対の多寡と位相をQビットとして利用する。素子を写真で見るとLSIに似ている。日本で一番進んでいる東大古澤研の光量子コンピュータは、光子ではなく光子が幾つも塊となった「微小光パルス」の振幅と位相でQビットを定義する。0と1のビットの代わりにQビットは、例えば(振幅, 位相)のような複素数2次元ベクトルの値を持つ。
Googleは2018年3月に「72 Qビット構成の基本素子Bristlecone」を開発したと発表した。これと関係があるのか否か分からないが、2019年10月23日発行の雑誌Natureに掲載(実は(意図的な?)ミスで1か月前にNASAのWeb頁に出たという)された論文で、「54 Qビットの基本素子Sycamore(=プラタナス)を使用し、古典コンピュータでは不可能な問題を200秒で解き、量子超越性=Quantum Supremacyを初めて実現した。」と主張した。写真で見る限りIBM Qと酷似しており、素人記者の見学記からも同一方式と推測した。超電導部分は0.2mm角で、擾乱のためにQビットの平均寿命は10μSなので、その時間内に計算を終了するのだという。
2012年にCaltech大John Preskill教授は「古典コンピュータでは出来ない仕事を、量子コンピュータならできる量子超越性が起こる」と予言した。GoogleはSycamoreの54 Qビットのうち故障部分を除いた53 Qビットを使い、0から253までの範囲(255でないのが不思議。また53ビットの乱数という報道も)で乱数を何百万回も発生させ、各数の発生確率がほぼ等しいことを確認して「200秒間で真の乱数の発生を確認した」と主張する論文を書いた。もっと小規模な(乱数発生回数を制限?)計算を国立研究所に設置されたIBMの世界一のSupercomputer "Summit"でさせた実験を、Googleと同じ計算をさせた場合に外挿すると1万年掛かり、実際上不可能と判定した。つまり古典コンピュータでは不可能な計算を200秒で成し遂げたのだから、「量子超越性を世界で初めて実証した」とした。
IBMの研究者は次のように反論した。Googleは量子コンピュータの特徴の全てを使った。古典コンピュータの特徴、即ち多段メモリ(1万年の試算はRAMだけでDiskの使用を考慮していない)、GPUなどの高速ハードウェア、ソフトとアルゴリズムの資産などを駆使すれば、今でも1万年が2.5日になる。古典コンピュータの出来ない計算ではないから、量子超越性の実現とは言えない。量子超越性の主張は民衆を惑わす。それより量子コンピュータを実際に使ってみようよ(IBM Q以外には無い)だった。
Googleの反論は、じゃSummitで2.5日で実際にやってごらん。その間に我々はもっと改良する、今後2-3年で千Qビットを実現するよ、だった。
メディアが求めた「専門家」(怪しい専門家も居る)の意見は、「200秒は2.5日より格段に速いからGoogleの主張で良いではないか」から「IBMの言い分の方が説得力がある」まで分かれている。私の意見は後者だ。
実際は「量子超越性」はあまり科学的な話ではなくて、マスコミに任せておけばよい。Transmon方式の欠点はQビットの短命である。だからQビット数を拡大できない。ハードウェアの安定化と誤り訂正が望まれる。日本発の光量子コンピュータはその点で有望だ。実用化を期待する。 以上