手のひらをタッチスクリーンに
手のひらをタッチスクリーンに
[画像のクリックで拡大表示]
システムは腕輪と小型プロジェクタ,そしてコンピュータから成る。ここでは腕をタッチスクリーンに利用している。
システムは腕輪と小型プロジェクタ,そしてコンピュータから成る。ここでは腕をタッチスクリーンに利用している。
[画像のクリックで拡大表示]
腕輪の内部には,音響センサが実装されている。
腕輪の内部には,音響センサが実装されている。
[画像のクリックで拡大表示]

 米Carnegie Mellon Universityは,同大学の研究者が米Microsoft Corp.と共同で,人体の皮膚を大型タッチスクリーンにする技術「Skinput」を開発したと発表した(発表資料)。手のひらや腕などの表面を,もう一方の手の指でタッチするだけで,ゲームなどを操作できるとする。

 開発したのは,Carnegie Mellon Universityの大学院生Chris Harrison氏と,Microsoft Researchの研究者ら。Skinputは,腕輪の内側に音響センサを実装し,それらをコンピュータと接続したシステム。必要に応じて手のひら大の小型プロジェクターと組み合わせて利用する。この腕輪を装着して,腕や手のひらをもう一方の手の指で弾くと,その振動が音響パルスとなって皮膚上をあたかも津波の様に体全体に広がる。このパルスを腕輪のセンサが検知し,情報を解析するコンピュータに伝送する。

 Harrison氏らは,音響パルスの波形や強さが腕や手のひらのどこを弾くかで変化することに注目し,その波形情報などから腕のどこをどのように弾いたかを知るソフトウエアを開発した。「腕なら95.5%の正確さで(弾いた位置などを)知ることができる」(Harrison氏)。
 
 Harrison氏は,この機能を応用することで,さまざまな携帯端末の操作が可能になるという。例えば,腕のいくつかの位置に音楽プレーヤのそれぞれの操作を割り当てておけば,腕を指で弾くだけで腕輪に接続された音楽プレーヤを操作可能になる。小型プロジェクターを利用すれば,腕や手のひらをスクリーン代わりにしたビデオの視聴やゲーム機,携帯電話機の操作も可能になる。

 プロジェクターなどを利用して手のひらなどを携帯電話機のインタフェース代わりにするといった点は,米Massachusetts Institute of Technology(MIT)が開発した「Sixth Sense」に似ている。一つの違いは,Skinputではビデオ・カメラが必要でない点だ。弾いた位置の検知に,Sixth Senseがビデオ・カメラによる画像認識を用いているのに対し,Skinputでは音響パルスを利用しているためである。加えて,Skinputは,携帯端末のインタフェースに徹しており,現実の情報をコンピュータ情報で強化するAR(augmented reality)を目指したものではないという点でもSixth Senseと異なる。

 Harrison氏は,今回のSkinputの開発を,携帯端末の通信など本来の機能と,インタフェースを分離する研究の一貫と位置付ける。携帯端末はますます小型化している。持ち運びやすくなる点は便利だが,一方でインタフェースはボタンが小さくなったり画面が小さくなって使いにくくなる。そのため,「身の回りのテーブルや壁をインタフェースに使えないか」と考えたのがSkinputのきっかけだという。

 システムの詳細については2010年4月10~15日に米アトランタで開催される学会「28th Annual SIGCHI Conference on Human Factors in Computing Systems」で発表するという。