この記事は日経Robotics 有料購読者向けの記事ですが
日経Robotics デジタル版(電子版)』のサービス開始を記念して、特別に誰でも閲覧できるようにしています。
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 読者の皆さんは「オーディオ・アニマトロニクス」という技術をご存じだろうか。名称自体はWalt Disney氏による造語で、音楽やせりふに合わせて動くロボットによって、テーマパークなどにいるキャラクターを物理的に実現する技術を指す。

 同じ動きの反復を得意とするロボットの特性を利用しているという意味では産業用ロボットと同じだが、キャラクターには単に正確に動くだけでなく、表情豊かな動きをすることも求められる。

最初のフィギュアは空気圧で駆動

 米The Walt Disney社がオーディオ・アニマトロニック・フィギュア(以下、フィギュア)を最初に実用化したのは1961年。空気圧で駆動するフィギュアで、自社のテーマパークに導入した。その後、油圧駆動アクチュエータを採用したフィギュアのハードウエア・プラットフォーム「A1型」を開発し、現在はその改良版である「A100型」が標準となっている。

 A1型を手掛けた当時、キャラクターの衣装に収まるサイズであり、かつ人間と同等の動きのスピードを出すには、油圧駆動が唯一現実的な方法であった。また、騒音源であるポンプをキャラクターから離れた場所に置くことができるというメリットもある。

 制御システムも初期のアナログ式から次第に進化し、現在は断線検知機能や各センサからの信号を受けて稼働する自動停止機能などを組み込んだデジタル制御ユニットに置き換えられつつある。テーマパーク内のフィギュアはすべてネットワークで接続され、大きな問題が発生すると即座にメンテナンス部門に連絡がいくようになっている。

 フィギュアの制御方法は、基本的には関節ごとに独立したPD制御であるが、大きな関節では力情報をフィードバックしてスムースな動きを実現している(Disneyグループ内ではこれを「コンプライアンス制御」と呼ぶが、ロボティクス分野で一般的にいうコンプライアンス制御とは意味が異なる)。以前はホール素子を利用した力センサを各関節に取り付けていたが、最近は配線と機構を簡略化するために圧力センサを組み込んだバルブを使うことで代用している。

衣装の汚れなどが課題だった油圧駆動

 アニマトロニクスが初めて開発された時点では、油圧駆動アクチュエータの採用はやむを得ない選択だったといえる。だが、油漏れによる衣装の汚れやメンテナンスの難しさは当初からの課題となっており、その後、電動モータへの移行が進んでいる。

 電動モータを初めて本格的に使ったフィギュアは、米フロリダ州のWalt Disney World Resortにあるアトラクション Enchanted Tales with Belle に登場する「Lumiere(ルミエール)」であろう(図1)。ロウソクの燭台を模したこのキャラクターは、軟体動物のように滑らかに変形する動きが必要なため、通常のロボットのように剛体が関節でつながれた構造では実現不可能だった。

図1 Lumiereの外観
図1 Lumiereの外観
ロウソクの燭台を模したキャラクターである。(写真:The Walt Disney社)
[画像のクリックで拡大表示]

 そこで、本体の外装をシリコーンゴムで作るとともに、両腕・頭の先端には背後のカーテンの裏から伸びる6自由度マニピュレータの先端を固定し、外部から操作するという方法を採用した1)。マニピュレータ部分は壁の後ろに隠れているので、大きさについての制約が小さい。このため、大きな電動モータを使うことができた。

 最近では、通常のフィギュアにも電動モータを使う試みが広がっている。大出力が必要な関節に油圧駆動アクチュエータを使いながら、一部の関節には電動モータを使う試験が行われたことがあるほか、顔や手に電動モータを用いたフィギュアが既に実用化されている。

フィギュアのプログラミングも手動から脱却する試み

 ほとんどの既存のフィギュアはキャラクターのサイズや関節数に応じて手作業で組み立てており、CADデータが存在しない。このため、フィギュアの動きをプログラミングする際、シミュレーションや3次元アニメーションなどのソフトウエアにモデルを取り込むのが難しい。また、油圧駆動アクチュエータによる位置制御は電動モータほど追従性が良くないため、実機を動かさないと実際の動きが分からない。以上のような理由から、プログラミング時にはアニメーターがロボットの前に座り、関節を1つひとつ動かしながらキーポーズを作らなければならず、完成までには膨大な時間と作業量が必要だ。

 これを改善するため、新規に製作するフィギュアから2つの改革が順次始まっている。1つは、設計時にコンピュータモデルを使うことで、プログラミングする際にはアニメーターが3次元アニメーションソフトウエア上で作業できるようにすることである。ソフトウエアであればキーポーズのコピー&ペーストなどが簡単にできるため、プログラミング時間が大幅に短縮できるようになる。

 もう1つは、モーションキャプチャした人間の運動を基にしたアニメーション作成法の試行である。関節可動域の違いなどにより人間の運動をそのまま実現することはできず、アニメーターが手を入れる必要はあるが、プログラミング時の作業効率の向上につながることが期待されている。

インタラクションや歩行などの実現に向けた研究も

図2 Muppet Mobile Labの様子
図2 Muppet Mobile Labの様子
Dr. Bunsen Honeydewと彼のアシスタントであるBeakerが電動2輪車に乗って登場し、ゲストとインタラクティブなコミュニケーションをするショーである。(写真:The Walt Disney社)
[画像のクリックで拡大表示]

 これまでにもMuppet Mobile Lab(図2)などゲスト(入園者)とインタラクティブなコミュニケーションができるフィギュアが、いくつか試験的に開発されたことはある。だが、いずれも遠隔操作と監視のための人員が必要なため、広く使われるまでには至っていない。自律的にゲストとインタラクションできるロボットの実用化に当たっては安全性の問題もあるが、筆者の研究グループによるA100型とのインタラクション技術(具体的にはキャッチボールをする)2)のように、ロボットをゲストから離れた場所に設置できるケースから順次実現していくことが期待されている。

 また、フィギュアの中には歩いたり、フィギュア同士で握手をしたりするように見えるものもあるが、実際に歩いたり握手をしたりしているわけではない。このため、見る角度やキャリブレーションの状況によっては、動きが不自然に見えることがある。

本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 一方、研究レベルではロボットによる歩行やマニピュレーションが実現されているほか、筆者らもロボットのバランス維持と人間らしい動きを両立させる制御の研究を行っている3)。現時点では動きの自然さや制御の頑健性に課題が多く、フィギュアへの応用はすぐには難しい。ただし、比較的転倒しにくい四足歩行ロボットなどから実用化が始まる可能性はあるだろう。

1)S.A.Johnson, A.J.Madhani, et al.,“Externally actuated figure”, US Patent No.8,761,927, issued June 2014.
2)J.Kober, M.Glisson and M.Mistry,“Playing catch and juggling with a humanoid robot,” IEEE-RAS International Conference on Humanoid Robots, pp.875-881, 2012.
3)K.Yamane, S.O.Anderson and J.K.Hodgins, “Controlling humanoid robots with human motion data: Experimental validation,”IEEE-RAS International Conference on Humanoid Robots, pp.504-510, 2010.
山根 克(やまね・かつ)
2002年東京大学大学院博士課程修了後、米Carnegie Mellon University研究員、東大大学院情報理工学系研究科准教授などを経て、2008年より現職。人型ロボットやCGキャラクターのためのシミュレーション、運動生成・制御、人の運動機能のモデリング・計測・解析などに関する研究に従事。