昨今のデジタル・オーディオ分野のハイエンド機では,D-A変換システムに関する商品解説や技術紹介に目を通すと,「サンプリング周波数192kHz,24ビットの分解能を備えた高性能D-A変換LSIを採用」ということを前面に出しているケースが多々ある。周知の通り,192kHzのサンプリング周波数と24ビットの分解能は,リニアPCMのフォーマットにおいて最上位のものであり,D-A変換LSIがこのフォーマットに対応することは最低条件である。
しかし,「フォーマットに対応する」ことと「フォーマット相応の音を鳴らす」こととは全く異なる。192kHz,24ビット対応のD-A変換LSIであっても,その性能と仕様を見極めなければ,本当に優れたD-A変換LSIかどうかの判断はできない。もちろん,各オーディオ・メーカーの最上位機種は性能面や仕様面で優れたD-A変換LSIを採用していることは間違いない。ただし,LSIのD-A変換方式の違いにより性能は同じように見えても音質面で大きな違いがある。このことはあまり説明されていない。むしろ,説明することは困難といった方が正確かもしれない。
本稿では,D-A変換LSIの開発における音質に対する考え方やこだわりを,歴史的背景や各D-A変換方式とその動作,そしてオーディオ特性として定義される項目と音質の関係などに触れながら解説する。
マルチビットか,1ビットか
もう10数年以上も前の話になるが,1980年代半ばから1990年代半ばにかけてデジタル・オーディオ業界をにぎわしていた話題の一つに,D-A変換方式による性能や音質の違いがあった。当時の対決図式は「マルチビット 対 1ビット」である。
これらの方式を簡単に定義すると,
► マルチビット型:バイナリを重み付けしたアナログの電流セグメント方式
► 1ビット型:ΔΣ変調(別称:ノイズ・シェーピング)方式
と表現できる(図1)。いずれの方式もそれぞれ優位点があり,最終的にどちらがいいかの選択は使用される用途によって異なる。