2012年05月31日 09時00分 UPDATE
特集/連載

最新ハードウェアの真価を引き出すHyper-V 3.0新世代CPUが支援するHyper-V 3.0のスケーラビリティ

最新のサーバ製品は、コア数やメモリ、ストレージにおいて性能が大幅に向上している。Windows Server 8に付属するHyper-V 3.0のスケーラビリティは、こうしたハードウェア性能を引き出すことができる。

[Eric Beehler,TechTarget]

 半導体の性能が18〜24カ月で倍増するとした場合、ムーアの法則は現在でも有効だ。実際、この性能向上は、仮想化の登場により、これまで活用されてこなかったクロックサイクルを利用することで実現されてきている。

 最新のサーバ製品は、コア数もメモリ容量もストレージサイズも激増している。つまり、最新のハードウェアは、性能が向上しコストは下がってきている。ムーアの法則で表される半導体の性能向上速度はすさまじく、Hyper-Vの現在のバージョンでは新機能が追加されない限り追い付けなくなってしまった。しかし、Windows Server 8に付属するHyper-V 3.0のスケーラビリティがあれば、この眠っているハードウェア性能を現実に生かすことができる。

飛躍的なパフォーマンス向上が可能な新世代のCPU

 最近のデータセンターでは、1つの仮想化エンジンで米Intelや米AMD製の複数のデュアルコアまたはクアッドコアCPUを制御している。IntelやAMDのプロセッサに搭載されている重要なハードウェア仮想化技術が、仮想化を使ったハードウェアの統合、制御を可能にしている。ここ数年、Intelは、同社のVirtualization Technology(VT)標準に基づくハードウェア仮想化支援機能を強化してきた。例えば、IntelはVTを拡張し、VMM(Virtual Machine Monitor:仮想マシンモニタ)呼び出しにおけるラウンドトリップタイム(往復時間)を短縮するVT-x、仮想マシン(VM)からネットワーク接続I/O機器への直接アクセスを提供するVT-c、データストレージへのI/Oパフォーマンスを向上できるVT-dを導入している。そして、これらの支援機能は、サーバハイパーバイザーに導入される新しい機能の基盤になってきた。

 これらの仮想化支援機能と、1ソケットに最高で10コアを搭載する最新のIntel E7シリーズCPUのデザインのおかげで、4ソケットのサーバの場合、80個の論理コアを実現できるようになった。一部のパフォーマンステストによると、E7は前世代のプロセッサと比べて35%もパフォーマンスが向上している。一方、AMDも負けてはおらず、同社の16コアのOpteron 6200サーバ向けCPUと同社独自のAMD-V仮想化テクノロジにより、大幅な性能向上を実現している。これらの最新の企業向けCPUが持つポテンシャルは、わずか2、3年前のCPUのそれをはるかに超えている。

ソフトウェアの制限

 ラックスペースの1ユニット当たりのVMの性能は、驚異的なペースで向上している。1台のコンピュータで100個近くの論理プロセッサを利用でき、簡単に1台の物理ホストで数百台のサーバを実行できるようになった。残念ながら、Hyper-V 2.0では、1台のVMに割り当てられる論理プロセッサは最大で64個、1ホスト当たりのVM数は384台に制限されている。これは数年前からすると莫大な数だが、ムーアの法則に従うと、現在求められる上限はこれよりもはるかに大きい。業務処理システムや意思決定支援システムなど、大規模なデータベースを処理する負荷の高いワークロードの仮想インフラストラクチャへの移行を検討する場合、VM1台当たり4個の仮想CPUという現在の制限はネックになる。現在のデータウェアハウスや他のビッグデータ処理には、クアッドコアでは対応できない。

新しいHyper-Vのサポート上限

 2012年の最新のハードウェアの真価を引き出すには、Hyper-V 3.0の導入計画に着手することをお勧めする。Hyper-V 3.0では、サポートされる論理プロセッサの最大数が64個から160個に引き上げられ、最新のハイエンドチップの性能を余すところなく利用できる。また、メモリのサポートも最大2Tバイトと倍増する。これらの機能強化のおかげで、既存の仮想化インフラストラクチャのホスト数を削減して統合を進め、データセンターの電力消費、物理スペース要件、複雑さを軽減できる可能性が開かれた。

 Hyper-V 3.0のVM1台当たりのリソースを考えると、大きなワークロードの仮想化が非常に現実味を帯びてくる。これまでは、仮想化の効率とリソースの制限に伴う懸念からこの可能性は低かったが、ハードウェアに搭載された最新の仮想化支援機能を活用し、ホスト環境を適切に管理することで、効率の問題の大半は解決される。それでも、指数関数的なペースで増えるデータセットを管理するデータベース管理者などにとっては、メモリとCPUの制限は気になるところだ。VMのレベルで本当に拡張性(スケールアップ)を確保したいのなら、VM1台に割り当てる仮想CPUを4個ではなく32個にし、最大メモリも64Gバイトから1Tバイトに増やす必要がある。

 この他に、Hyper-V 3.0では、仮想HDDのフォーマットも拡張されて、64Tバイトの仮想HDDを割り当てられるようになる(2.0では2Gバイト)。総じて、Hyper-V 3.0は、負荷が最も高いワークロードの多くに現在の標準的なサーバで対応できるだけのスケーラビリティを備えている。

再びスケールアップの時

 単一サーバで処理した方が効率のよい大きいワークロードの場合、スケールアップに比べてスケールアウトが難しいことが、いつも問題になってきた。しかし今は、標準的なサーバを使用しながら、CPU、ストレージ、メモリのスケールアップが必要なシステムを統合できるようになった。新世代のハードウェアの真価を引き出すには、次世代の仮想化技術に目を向ける必要がある。どのハイパーバイザー技術も、仮想マシンのパフォーマンスを向上する機能によって、システムを仮想化するメリットがコストを大幅に上回るようになると、仮想化反対者は支持者に変わってきた。2012年は再びムーアの法則通りの進化が起きそうなので、そのような変化に備えた方がよいだろう。

この記事を読んだ人にお薦めのホワイトペーパー

この記事を読んだ人にお薦めの関連記事