HCI(Hyper Converged Infrastructure)の性能を評価するベンチマークテスト「IOmark-VM-HC」において、米Datrium社の「Datrium DVX」は2017年10月に過去最高となる8000(仮想マシン1台あたりのコストは667.01米ドル)を達成した(テストレポート:PDF)。Datrium社のVice President of Product ManagementであるRex Walters氏に、Datrium DVXと通常のHCI製品との違いなどを聞いた。(聞き手は神近 博三)

Datrium社のVice President of Product ManagementであるRex Walters(左)とVice President of MarketingのCraig Nunes氏(右)
Datrium社のVice President of Product ManagementであるRex Walters(左)とVice President of MarketingのCraig Nunes氏(右)
[画像のクリックで拡大表示]

――Datrium社はDatrium DVXをHCIと呼ばず「Open Covergence」と呼んでいる。HCIとOpen Covergenceにはどのような違いがあるのか。

 1台のストレージアレイを複数サーバーで共用する一般的なシステムでは、ネットワークで発生するレイテンシ―が大きな問題となる。ストレージアレイのコントローラー性能がシステム全体のボトルネックとなる可能性もある。これに対して、HCIは複数サーバーが個々に搭載するストレージを1つの共用ストレージとして仮想化するため、I/O(Input/Output)が物理的に集中しない。ネットワークやコントローラーの性能に制約を受けないので、ノード数に応じて性能をリニアに拡張できる。

 だが、HCIにも問題が残っている。バックアップ用の永続データ(Persistent Data)が個々のサーバーに存在するため、重複排除やデータに冗長性を与えて安全性を高めるイレ―ジャーコーディングを実行すると、サーバー同士で横方向のI/Oが発生する。結果として、システム全体の性能は最も性能が劣るサーバーの性能によって制約されることになる。このためHCIユーザーの多くはHCIを分割して、VDI(仮想デスクトップ)などアプリケーションごとに運用している。これではリソースの適切な割り当てが難しくなり、パブリッククラウドと同じようなシンプルな管理環境を実現できない。

 Datrium DVXが採用するOpen Covergenceのアーキテクチャーでは、HCIと同じようにプライマリーデータのI/O処理を仮想マシンが稼働する個々の「コンピュートノード」が担当、そしてバックアップ用の永続データを「データノード」に保存する。コンピュートノードは暗号化、圧縮、重複排除、イレ―ジャーコーディングなどをインラインで実行し、永続データを非同期でデータノードに書き込む。

Open Convergenceのアーキテクチャー(左)
Open Convergenceのアーキテクチャー
出所:Datrium社
[画像のクリックで拡大表示]