パソコンに視点の異なる映像を並べて表示
パソコンに視点の異なる映像を並べて表示
[画像のクリックで拡大表示]

 中京テレビ放送,慶応義塾大学,名古屋大学,福井大学,東京工業大学は,次世代の3次元(3D)テレビに向けた撮影システム,および表示システムを共同で開発し,2010年5月19~21日に東京都内で開催された3D映像技術の国際会議「3D Systems and Applications(3DSA)2010」の会場で実演した。

 中京テレビ放送などが今回実演したのは,被写体を複数のカメラ,つまり多視点で撮影した映像データ,あるいは多視点で撮影した場合とほぼ等価な映像データを作成し,その映像の「視点」を視聴者自身で選んで視聴できるシステムである(撮影システムについての記事)。

 このうち,多視点の情報を備えた映像データを表示する端末の開発を進めたのが,名古屋大学,福井大学,中京テレビ放送などである。

 開発した表示端末は2種類。一つはパソコンである。具体的には,多数(この実演では16台)のカメラで撮影した映像を,マウスでドラッグするだけで滑らかに切り替えて視聴できるソフトウエアを実演した。ディスプレイは3D対応でないが,表示データは,3D映像のフォーマットの一つで左目用と右目用の映像を横に並べる「サイド・バイ・サイド」に加工できる。3D向けだけでなく,全く異なる視点の映像を独立に表示することも可能だ。

 このソフトウエアには,このほかにも新しい機能を盛り込んでいる。視聴者が注目する人や物にマークをしておくと,その人や物が移動した場合に,自動的に視点を変えて追尾し,画面の中央付近にとどめる機能である。

 もう一つの端末は,NTTドコモの台湾HTC社製アンドロイド端末である。この端末では,ディスプレイのタッチ・パネル機能を利用し,指で映像を触るようになぞると,映像を見る視点が変わる,つまり映像が回転して見えるようにした。

奥行き情報はインターネットで送る

 今回の実演は,撮影システムと表示システムだけで,両者をつなぐ放送/伝送システムへの言及はなかった。ただし,中京テレビ放送らは,放送/伝送システムについての研究開発も進めている。

 具体的には,情報通信研究機構(NICT)からの委託研究において,既存の2次元(2D)の映像を放送/伝送するインフラはそのままで,奥行き(デプス)情報をインターネットなどを利用してテレビやパソコンなどに伝送し,端末に届いた「2D+デプス」の映像データから任意の視点を切り出して表示する「デプス放送」について研究を始めている。

 最近,標準化の議論が始まった次世代の3D放送も,方向性はこのデプス放送に近い。特に欧州では,近い将来にこれら次世代の3D放送を開始する動きも出ているもようだ。



 日経エレクトロニクスは,2010年6月29日(火)にNEセミナー「3D放送の展望と標準化の行方」,同6月30日(水)にはNEアカデミー「3Dディスプレイの基礎と応用」を開催します。NEセミナーでは,国内外で急増する3D放送に関する最新動向を,NEアカデミーでは,3D映像技術の基礎を網羅的に把握できます。ぜひご参加下さい(会場はNEセミナーと異なります。NEアカデミーは,2010年1月25日に開催した内容の,アンコール講演です)。