みずほ情報総研と千葉大学が開発中の手話認識システム。中央が企画・開発した同社の下元正義氏(サイエンスソリューション部エネルギー技術チームチーフコンサルタント)、右は事業化を進めている鈴木広一氏(同チームシニアマネジャー)、左は情報処理部分を担当した眞崎浩一氏(同チームコンサルタント)
みずほ情報総研と千葉大学が開発中の手話認識システム。中央が企画・開発した同社の下元正義氏(サイエンスソリューション部エネルギー技術チームチーフコンサルタント)、右は事業化を進めている鈴木広一氏(同チームシニアマネジャー)、左は情報処理部分を担当した眞崎浩一氏(同チームコンサルタント)
[画像のクリックで拡大表示]
手話認識アルゴリズムの概要
手話認識アルゴリズムの概要
[画像のクリックで拡大表示]

 視聴覚障害によるコミュニケーションの壁をICT(情報通信技術)で乗り越えようとする取り組みが進展している。一例として、みずほ情報総研が千葉大学と共同開発中の手話認識システムを紹介する。公共機関や金融機関などの窓口で、手話ができない担当者が顧客の手話を理解できるようにするシステムだ。手話を言語と規定した改正障害者基本法が2011年に成立したこともあり、手話の活用範囲は増える方向にある。

 みずほ情報総研などが開発しているのは、顧客が示した手話をリアルタイムにテキストに変換するシステムである(関連記事1)。そのテキストを顧客自身にもディスプレイで示して確認を促す。窓口業務に携わる担当者が、話した言葉もディスプレイにテキストで表示する。これで、聴覚・言語障害者と円滑にコミュニケーションできるようにする。

 システムは、米Microsoft社の「Kinect」など市販のモーション・センサを使う。例えばKinectは、ユーザーの手足の特徴点をリアルタイムでとらえる機能を備える。みずほ情報総研のシステムは、手話をしているユーザーの前腕部(肘より先の部分)の肘と手を認識して、その位置と動きから手話の意味を理解する。