米AppleはiPhone10周年モデルである「iPhone X」に、これまでにないハードウエアを複数搭載した。有機ELディスプレイやワイヤレス充電もそうだが、より興味深いのは深度カメラの「TrueDepthカメラシステム」とAI(人工知能)専用ユニットの「ニューラルエンジン」だ。当初の用途は限定的だが、大きな可能性を秘めている。

 Appleは2017年9月12日(米国時間)に発表したiPhone Xで、本体の隅々までカバーする5.8インチの有機ELディスプレイを採用すると同時に、本体下部にあったホームボタンと指紋センサーを廃止した。指紋認証の「Touch ID」に代わってAppleが採用したのが、顔認証の「Face ID」だ。

 TrueDepthカメラシステムや、Appleの最新SoC(System on a Chip)「A11 Bionic」に搭載されたAI専用ユニットであるニューラルエンジンは、Face IDのためにある。

赤外線で距離を計測

 TrueDepthカメラシステムは、3万点以上の赤外線ドットをユーザーの顔などに投射する「ドットプロジェクタ」や、赤外線ドットを撮影して距離を計測する「赤外線カメラ」、暗い場所でも赤外線を照らす「投光イルミネータ」で構成する(写真1)。

写真1●TrueDepthカメラシステム
写真1●TrueDepthカメラシステム
出所:米Apple
[画像のクリックで拡大表示]

 Face IDでは、赤外線ドットの反射光を赤外線カメラで撮影することによって、ドットが照した場所までの距離(深度)を図り、それによってユーザーの顔の詳細な3次元データを取得する。この3次元データを使って顔認証を実行する(写真2)。

写真2●ユーザーの顔に赤外線ドットを投射したイメージ
写真2●ユーザーの顔に赤外線ドットを投射したイメージ
出所:米Apple
[画像のクリックで拡大表示]

 ユーザーはあらかじめTrueDepthカメラシステムを使って自分の顔を撮影しておくと、機械学習ベースのアルゴリズムによって、自分の顔モデルが作られる。顔認証を実行する際は、取得した3次元データと顔モデルを照合する仕組みだ。

顔認証はスマホ上で完結、「指紋認証より安全」

 Face IDにおける顔認識処理(機械学習における推論処理)は、クラウドではなくiPhone X上で実行する。顔認識の処理はスマホにはかなり重い。そこでiPhone Xに搭載されたのがニューラルエンジンである。A11 Bionicに内蔵されたニューラルエンジンは、デュアルコア構成で1秒当たり6000億回の演算が可能。顔認識を瞬時に処理できる。

 新製品発表会に登壇したAppleのPhil Schillerシニア・バイス・プレジデントは、iPhone XでFace IDを採用した理由の一つが、セキュリティの強化だと主張する。指紋認証のTouch IDでは他人の指によってロックが解除される確率が5万分の1なのだという。それに対して顔認証のFace IDでは、他人の顔によってロックが解除される確率が100万分の1にまで下がるため、より安全だという。

 Face IDはメガネや帽子の有無といった外見上の変化や、成長や老化に伴う顔の変化などにも対応し、ユーザーの顔を正しく認識できるとする。現在のスマートフォンで顔認識をする場合は、画像データをクラウド上に送信し、機械学習の推論をクラウド上で処理するのが一般的だ。それに対してFace IDではすべての処理をデバイス上で実行する。Schillerシニア・バイス・プレジデントは「プライバシー保護のためにクラウドは使用しない」と主張した。

 赤外線ドットを使用する深度カメラは、米Microsoftのゲーム機「Xbox 360」や「Xbox One」の周辺機器である「Kinect」、米GoogleのAR(拡張現実)技術「Tango」に対応した中国Lenovoのスマートフォン「Lenovo Phab 2 Pro」や、台湾ASUSの「ZenFone AR」にも採用されている。