私事で恐縮ですが、昨年末に米Microsoft社のゲーム機「Xbox360」向けのジェスチャー入力装置「Kinect」を購入しました。「ディズニーランドアドベンチャー」というKinect用のゲーム・ソフトを遊んでみたいと思ったのがきっかけです。コントローラを使わず、身振り手振りでキャラクターを操作してディズニーランドのアトラクションが楽しめるとのことで、ディズニー好きの妻を言いくるめて購入にこぎつけました。

 Kinectはカメラや距離画像センサなどを内蔵していて、プレイヤーの動きを手足の関節単位で計測します。いわゆるNUI(Natural User Interface)と呼ばれる技術の一つです。人間の動作をかなりの精度で捉えるとの評判でしたが、実際に遊んでみるとゲーム画面に映る私の分身はあらぬ方向へと走り続けるばかり。なかなかコツがつかめず、思うようにキャラクターを操作できません。「誰もが直感的に操作できるようになるには、もう少し技術的にこなれる必要がある」と感じました。

 しかし、それでもKinectは未来を感じさせてくれる技術だと思います。従来、同じようなことをやろうとすると数十万円~数百万円のモーション・キャプチャ装置などを用意する必要がありました。それをゲーム機本体込みでも4万円程度で実現できるのですから、ワクワクしないはずがありません。

 Microsoft社はKinectの技術をゲームの分野だけにとどまらず、さまざまな分野への応用を模索しています。実は先日、Kinectの技術などをベースに次世代のインタフェースを研究するMicrosoft Research Asiaの洪小文所長にインタビューする機会がありました。Microsoft社は世界各国の企業や団体と協力してKinect用アプリケーションの開発・実用化に取り組んでいます。今回のインタビューではさまざまなKinectの応用例を見せていただきました。

 例えば、医療分野ではカナダの医療チームがKinectを外科手術の現場で採用しているとのこと。外科手術の際には、MRIやCTのスキャン画像で病巣などを視認しながら執刀するケースがよくあります。従来は、画像を表示しているコンピュータを操作するために無菌状態にある手術室を出る必要がありました。手術室に再入室するには、再び減菌処理を行わなければいけません。そこでこのチームは、KinectをつないだXbox360をコンピュータに接続。執刀医が手術室を出ることなく、ジェスチャーでスキャン画像を操作できるようにしたそうです。

 Kinect用アプリの開発は日本国内でも活発化しています。例えば、チームラボというベンチャー企業がKinectとAR(拡張現実感)技術を利用したバーチャル試着システム「チームラボミラー」を開発中です。何枚ものTシャツをジェスチャーによって素早く試着できるシステムです。まだ試作段階にもかかわらず、アパレル会社などからの引き合いが来ているそうです。Microsoft社は今年2月1日、Windows向けKinectを発売するとともに、Windowsアプリの開発キットの正式版を公開しました。正式版では、これまでのベータ版で認められていなかった商用アプリの開発・配布も許可されています。Kinect活用の動きはさらに加速しそうです。

 1月に開催されたCESでは、Microsoft社以外にもさまざまな企業がNUIの技術を展示していました。Kinectの例が示すように、NUIはゲームや家電にとどまらず、いろんな分野のUIを根本から変える可能性を秘めています。「今年はNUIがブレークする年」というのは言いすぎかもしれませんが、少なくとも重要なキーワードになるのは間違いなさそうです。