電子部品 受動部品からモジュールまで電子部品の総合情報
 

【CEATEC 2012】スマホのマイクでジェスチャ認識、米社が開発

三宅 常之=Tech-On!
2012/10/05 15:00
印刷用ページ
ペンの動きで画面に表示させた図形を動かしている
ペンの動きで画面に表示させた図形を動かしている
[クリックすると拡大した画像が開きます]
ペンで描いた文字イメージがスマホに取り込める
ペンで描いた文字イメージがスマホに取り込める
[クリックすると拡大した画像が開きます]

 米Knowles Electronics社は、Siマイク(MEMSマイク)の新しい応用方法として、ジェスチャ認識技術を開発した。「CEATEC JAPAN 2012」(2012年10月2~6日、幕張メッセ)において、デモンストレーションしている。

 開発した技術では、同社がスマートフォン(スマホ)向けに出荷しているSiマイクを超音波センサとして使い、ペン先に付けた超音波発信源の位置を特定する。既存の多くのスマホには3個など複数のSiマイクが搭載済みである。可聴帯域の音声を拾うことが本来の目的だが、70kHz程度までなら可聴帯域並みの感度で検出できる。超音波発振器モジュールを付けたペンを動かすと、3個のSiマイクで発振器の3次元的な位置をリアルタイムで特定でき、ジェスチャ認識が可能になる。超音波は可聴帯域の音波よりも指向性が高いため、ジェスチャ認識の精度はより高くなる。

 デモンストレーションでは、ペン先をスマホの前で動かしてジェスチャとして認識させたり、スマホ近くのノートに文字を書いてそのイメージをリアルタイムにスマホへ取り込んだりしていた。スマホには、3個の同社製Siマイクと米Qualcomm社のチップセットを搭載した機器を使っている。ペン先の超音波発振モジュールは市販の村田製作所の製品である。

 実現に必要なハードウエアは、超音波を出力するペンを除くと、既に多くのスマホに搭載済みである。追加で必要になるのは、チップセットのコーデックLSIあるいはアプリケーション・プロセサのDSPに搭載する位置検出用ソフトウエア程度である。Knowles社では、パートナ企業とともに製品化に向け今後も開発を続ける。

【9月15日(火)開催】触るインタフェース(応用編)
~ウエアラブルと身体性から読み解く次世代インタフェース~


ウエアラブルデバイスで触覚情報を利用するための基礎と最新技術や、全身触覚と身体性に着目した新しい触覚インタフェースの新潮流について解説する。この分野に精通する3人の講師が、様々な研究開発例とその実装方法を紹介する。詳細は、こちら
会場:BIZ新宿 (東京・西新宿)
コメントする
コメントに関する諸注意(必ずお読みください)
※コメントの掲載は編集部がマニュアルで行っておりますので、即時には反映されません。

マイページ

マイページのご利用には日経テクノロジーオンラインの会員登録が必要です。

マイページでは記事のクリッピング(ブックマーク)、登録したキーワードを含む新着記事の表示(Myキーワード)、登録した連載の新着記事表示(連載ウォッチ)が利用できます。

協力メディア&
関連サイト

  • 日経エレクトロニクス
  • 日経ものづくり
  • 日経Automotive
  • 日経デジタルヘルス
  • メガソーラービジネス
  • 明日をつむぐテクノロジー
  • 新・公民連携最前線
  • 技術者塾

Follow Us

  • Facebook
  • Twitter
  • RSS

お薦めトピック

日経テクノロジーオンラインSpecial

記事ランキング