米Microsoftは2017年9月25日(米国時間)、同日から米フロリダ州オーランドで開催した自社イベント「Microsoft Ignite」で、同社が開発する「トポロジカル量子コンピュータ」をPCなどでシミュレーションする仕組みと、量子コンピュータ用のアルゴリズムを開発するためのプログラミング言語を2017年内に一般提供すると発表した。

 「量子コンピュータが実現すれば、その驚異的な並列計算能力によって、現在のコンピュータでは解けない様々な未解決の問題を解けるようになる」。同社のSatya Nadella CEO(最高経営責任者)はIgniteの基調講演でこう強調し、同社が量子コンピュータを「MR(複合現実)」や「人工知能(AI)」に並ぶ最重要テクノロジーに位置付けていると示した(写真1、2)。Nadella CEOは量子コンピュータによって解決できる問題として、「新しい化合物の発見」や「高度な医療の実現」、「機械学習の高速化」などを挙げた。

写真1●米MicrosoftのSatya Nadella CEO(最高経営責任者)
写真1●米MicrosoftのSatya Nadella CEO(最高経営責任者)
[画像のクリックで拡大表示]
写真2●MR、AI、量子コンピュータの3本柱を説明するスライド
写真2●MR、AI、量子コンピュータの3本柱を説明するスライド
[画像のクリックで拡大表示]

 同社は12年前に「トポロジカル量子コンピュータ」の研究開発を開始。いわゆる「量子ゲート方式」の量子コンピュータであり、他社では米Googleや米IBMも同方式の量子コンピュータを開発している。カナダのD-Wave Systemsが実現した「量子アニーリング方式」は組み合わせ最適化の専用コンピュータであるが、量子ゲート方式は汎用であることから、「汎用量子コンピュータ」とも呼ばれている。

「トポロジカル量子ビットはスケーラブル」

 Microsoftは同社が採用する「トポロジカル量子ビット」が、GoogleやIBMなどが開発する超電導回路を使った量子ビットに比べて「スケーラブル(拡張性が高い)」と主張する。ここでいう拡張性とは、量子ビットが「0」と「1」を「重ね合わせ」て保持できる時間の長さや、量子ビットの数の増やしやすさなどを指す。

 もっとも、Googleが9量子ビットを実装した量子プロセッサを、IBMが7量子ビットを実装した量子プロセッサを実現したと主張しているのに対して、Microsoftはまだ実際に稼働する量子プロセッサを公開していない。

 その代わりにMicrosoftが発表したのが、量子コンピュータのシミュレーターと、量子コンピュータ用のアルゴリズムを開発するためのプログラミング言語の一般提供である。量子ゲート方式の量子コンピュータで何らかの問題を解くには、そのためのアルゴリズムが必要だ。量子コンピュータの実現に先立ち、こうしたアルゴリズムの開発に興味を持つプログラマーを増やすために、シミュレーターとプログラミング言語を公開するとした。

PCで30量子ビットをシミュレーション

 量子コンピュータのシミュレーターは通常のPCやサーバー(いわゆる古典的コンピュータ)で量子ビットの動作などを再現するもので、シミュレーター用に開発したアルゴリズムは実際の量子コンピュータでも動作できるという。通常のPCであれば30量子ビットを、「Microsoft Azure」のサーバー上であれば40量子ビットをシミュレーションできるとしている。