Home > Blogs > Japan Cloud Infrastructure Blog > タグ別アーカイブ: 基本

タグ別アーカイブ: 基本

やってみよう! vSphere Data Protection(VDP) 環境構築

やってみよう! VMware vSphere Data Protection(VDP) 環境構築

本エントリでは、バックアップ及びリストア機能を提供するVDP の環境構築方法をご紹介します。 VDP は、vSphere のEssentials Plus 以上のライセンスに含まれており、vSphere 上で稼働する仮想アプライアンス(仮想マシン)として、提供されています。

まず、VDPの動作環境がサポートされているvSphere 環境とVDP のova ファイル準備します。 サポートされているのは、以下のような環境になります。

・vCenter 5.1 または 5.5 に対応(vCenter Server Appliance も可能)

・ESX/ESXi 4.0、4.1

・ESXi 5.0、5.1、5.5

詳細はVMware Product Interoperability Matrixes でご確認下さい。

※VDP の最小システム要件は、4つの2GHzプロセッサ / 4GB メモリ / 873GB ディスクとなっております。

VDP のova ファイル は、My VMware にログインしてダウンロードしておきます。 製品のダウンロード方法は、こちらのブログを参考にして下さい。 今回は、Virtual SAN 環境にも対応している最新バージョン5.5.6(vSphereDataProtection-5.5.6-0.0TB.ova)を使用しています。

1. VDP の動作環境にはDNS サーバが必要になりますので、VDP 環境構築する前に、VDPアプライアンスのIPアドレスおよびFQDN 用のエントリをDNS サーバに追加しておきます。

2.vSphere Web Client を使用して、ダウンロード済みの ova ファイルを展開します。 メニューの”OVF テンプレートのデプロイ”を選択します。

VDP_Deploy1

3. “ソースの選択”では、”ローカル ファイル”をチェックし、”参照”ボタンを押して、ローカルに保存している” vSphereDataProtection-5.5.6-0.0TB.ova”を開きます。

VDP_Deploy2

4. “OVF テンプレートのデプロイ”のウィザードに従って進めます。 VDP アプライアンスをデプロイするストレージを選択します。 ここで指定するストレージは、VDP アプライアンスのOS 部分を配置するストレージになります。 バックアップデータが保存されるストレージは、VDP アプライアンの初期起動後に設定します。

VDP_Deploy3

5. ウィザードを進めてネットワークのプロパティを入力し、デプロイに必要な情報の入力を完了させます。 ”終了”ボタンを押すと、デプロイが開始されます。

VDP_Deploy4

6. デプロイが完了したら、VDPアプライアンスの電源をONして、起動が完了するまで待ちます。

VDP_Deploy4.5

7.  VDP アプライアンスの起動を確認したら、VDP アプライアンスが提供するvSphere Data Protection 構成ユーティリティ(https://<IP_address_VDP_Appliance>:8543/vdp-configure/)にWeb ブラウザで接続し、”ユーザ名”に”root”、”パスワード”に”changeme” と入力し、ログインします。 構成ウィザードに従って進めます。

VDP_Deploy5

8. 1. で予めDNS サーバにVDP アプライアンスのエントリを追加しておくと、DNS サーバから情報を取得し、自動的にネットワーク項目が入力されます。

VDP_Deploy5.5

9. ”タイムゾーン”は、”Asia/Tokyo” を選択します。

10. “VDP認証情報” では、デフォルトパスワード”changeme” から変更します。

VDP_Deploy6

11. “vCenter の登録”を実施します。登録に必要な情報を入力し、接続テストを実施してから、次に進みます。

VDP_Deploy7

12. “VDP ライセンス”では、ライセンス キーを登録することで、VDP Advanced の追加機能を有効にできます。 後からでもVDP から VDP Advanced にアップグレードすることも可能なので、今回は入力せずに”次へ”ボタンを押します。

VDP_Deploy8

13. “ストレージの作成”では、バックアップデータを保存するための仮想ディスクファイル(VDP ストレージディスク)を新規に作成します。 ここでは、最小サイズの”0.5 TiB” を選んでおりますが、VDP は1TiB もしくは2TiB の選択が可能です。 ※後から容量を増加させるためには、Advanced へのアップグレードが必要になります。

VDP_Deploy9

14. “デバイスの割り当て”では、VDP ストレージディスクを配置するデータストアを決定します。こちらの例では、”アプライアンスで保存”のチェックを外し、VDPアプライアンスのOSが配置されているデータストア(datastore3)とは異なるデータストア(datastore1)に配置しております。 0.5TB の場合は、256 GiB のディスク3 台で構成されます。

VDP_Deploy10

15. “CPUとメモリ”では、VDP ストレージに対する最小要件が表示されます。

VDP_Deploy11

16. “設定の確認”では、必要に応じてストレージのパフォーマンス分析を実行することが可能です。 今回は字実施せず、”次へ”ボタンを押して、ストレージ構成を開始します。ストレージの構成が完了すると、VDP アプライアンスは自動的に再起動します。 環境に依存しますが、この再起動には時間が掛かります。

VDP_Deploy12

17. VDP アプライアンスの再起動完了を待って、vSphere Web Client にログインします。 再起動前にvSphere Web Client にログインしていた場合には、ログオフしてから再度ログインします。 ログイン後、”ホーム”の中に”vSphere Data Protection 5.5” のプラグインが追加されていることを確認し、接続するVDP アプライアンスの名前を選択し、”接続”ボタンを押します。

VDP_Deploy13

18. VDP アプライアンスに接続すると、バックアップ/リストア/レプリケーションなどを実施することができるようになります。 複数のVDP アプライアンスをvCenter に登録している場合(最大10 台)には、右上からVDP  アプライアンスを切り替えることが可能です。

VDP_Deploy14

以上でVDP 環境構築は完了です。非常に簡単な手順で仮想マシンのバックアップ / リストアができる環境を構築できます。 環境構築同様にVDP を利用したバックアップやリストア手順も簡単に実施いただくことが可能です。本ブログは環境構築のみとなりますが、バックアップ手順に関してはこちらのハンズオンラボのドキュメントを参考にして、是非実施してみてください。

やってみよう!vSphere on VMware Fusion編

本エントリでは、最新のVMware vSphere の機能を理解し、簡単に検証していただくためにご利用いただくための簡単な裏技をご紹介します。機能検証や操作手順の確認のであれば、本ブログで以前ご紹介した(http://blogs.vmware.com/jp-cim/2013/12/hol.html)ハンズオンラボをご利用いただくのも良いのですが、ハイパーバイザーのインストールを含めた構築作業そのものやハンズオンラボのシナリオに無い操作をご体験していただくことができません。

VMware vSphere はVMware Fusion やVMware Workstation, VMware Player を使用するとMac OSX やWindows のPC 上で簡単に構築することができます。
このように、ハイパーバイザー上に仮想マシンを構築し、ハイパーバイザーをインストールしてさらにゲストマシンをインストールする構成を”Nested(ネステッド) ”と呼びます。

nested

nested2

ネステッド構成は、互換性リストに掲載されているハードウェアが準備できない場合等に、手持ちの環境で手軽に検証環境を構築できることがこの構成の大きなメリットです。
なお、下記KBにあるように、ネステッドの構成の場合は本番環境としてご利用いただくことはできませんのでご注意ください。

Support for running ESXi/ESX as a nested virtualization solution (http://kb.vmware.com/kb/2009916)

最近では、このネステッド環境に特化したVMware tools もFling (フリーウェア)として提供されています。

https://labs.vmware.com/flings/vmware-tools-for-nested-esxi

では、早速VMware Fusion を使用してネステッドESXi を構築してみましょう。

1. 仮想マシンライブラリで+(追加)→新規をして仮想マシンを新規作成します。

2. ディスクまたはイメージからインストールを選択します。

仮想マシンを作成_と_仮想マシンのライブラリ

3.「別のディスクまたはイメージを使用」をクリックしてあらかじめダウンロードしておいたハイパーバイザーのインストールイメージを指定します。

新しい仮想マシン_と_nested_と_仮想マシンのライブラリ

新しい仮想マシン_と_nested

4.「仮想マシンの構成が完了しました。」とメッセージが表示されます。

このままだと、デフォルトの仮想マシン構成(vCPU 2コア、4GB RAM 、40GB ディスク)という構成になりますので、適時ご利用いただいている環境に合わせてサイズを変更します。

VMware Fusion でネステッド構成を構築した場合、ネットワークアダプタはE1000 となりますが、vSphere on vSphere の場合はvmxnet3 を利用するとより安定したパフォーマンスが得られます。

新しい仮想マシン_と_nested_と_仮想マシンのライブラリ 2ここまででひととおり完了です。

作成した仮想マシンを起動すると、ESXi のインストーラが始まりますので、通常と同じようにインストールします。Mac の場合に、F11キーが直接入力できませんので、fn + ⌘(Command) + F11 もしくは、仮想マシン→キーの送信→F11 を使用して入力します。

インストールが完了した画面がこちらになります。VMware_ESXi_5

お手軽な検証環境をつかって、操作方法の確認等にぜひお役立てください。

参考KB

Installing ESXi in VMware Fusion (http://kb.vmware.com/kb/2009580) 

Support for running ESXi/ESX as a nested virtualization solution (http://kb.vmware.com/kb/2009916)

押さえておきたいvSphere の基本~ネットワーク編 第3回~

「押さえておきたいvSphere の基本」のネットワーク編として、仮想化環境におけるネットワークの基本を3回に分けてご紹介しています。最後の第3回は、効率性と俊敏性に優れ、拡張可能な仮想ネットワークとセキュリティを実現するvCloud Networking and Security (以下、vCNS) を解説します。


■ データセンターのネットワークとセキュリティの課題

今日、サーバー仮想化によって仮想マシンを簡単に素早く(数分で)展開出来き、運用効率も飛躍的に向上しました。物理サーバーを調達して構成していた時代からは格段の進歩を遂げています。しかし、いくら仮想マシンを素早く展開して運用効率を上げても、それを取り巻くネットワークやセキュリティ サービスはどうでしょうか?サーバー仮想化によって仮想マシンが動的に構成されるのに、ネットワークは未だに物理的に構成されているため、結果として仮想マシンの柔軟性を最大限に引き出せない現実があります。

1

 

例えば、以下のような問題に直面された方は多いのではないでしょうか。

  • 必要なネットワークやセキュリティ サービスを準備、設定変更するのに数日または数週間かかる。(ビジネスニーズに応じた迅速な導入、拡張が制限される。仮想マシンは数分で準備できるのに!!)
  • 物理ネットワークとセキュリティ境界の制限によって、仮想マシンを動的に移行・構成出来ない。(サーバーリソースの使用率の最適化を防いでいる)
  • ネットワーク機器への手動による構成や設定変更、専用アプライアンス等による異なる管理インターフェースを使用する事による効率性の低下。(オペレーションコストの増大)

これらの課題を解決策するにはどうすれば良いでしょうか?
その答えとして、サーバー仮想化のように、物理的なネットワーク機器からネットワーク機能を分離するネットワーク仮想化が考えられます。そのソリューションとして、VMwareはvCNSを提供しています。

 2

 では、vCNSが実現可能なネットワーク仮想化の機能をご紹介します。


■ vCNS主な機能

vCNSはいくつかのコンポーネントから構成されています。

3


論理ネットワーク(VXLAN) :
L3ネットワーク上にカプセル化された仮想L2ネットワーク作成します。物理ネットワークのセグメントに制限されないため、Clusterや物理ネットワーク境界の制約に縛られない、 柔軟で拡張性に優れたコンピュータリソースプールが作成出来ます。

4
VXLANの設定方法は、「ネットワーク仮想化 – VXLAN の設定1」、「ネットワーク仮想化 – VXLAN の設定2」をご参照下さい。


Edge Gateway

仮想アプライアンスとして展開したEdge Gatewayサーバーによって、L3-L7ネットワークサービスを提供します。提供される機能は以下になります。

  • ファイアウォール
  • ロードバランサー
  • VPN (IPsec、SSL)
  • ルーティング
  • NAT
  • DHCP
  • HA

例えば、テナント単位やIPセグメントの境界に導入します。

5


App Distributed Firewall

ハイパーバイザーレベルで動作するファイアウォールで、仮想マシンの仮想NICレベルでインバウンド、アウトバウンドのコネクションを制御します。vCenterのオブジェクトを使用して設定することが可能なため、管理と運用の効率化が可能になります。

6

App Distributed Firewallの実装例 は、テックペーパー「Secure Segmentation of Tier 1 Applications in the DMZ」をご参照下さい。


vCloud Ecosystem Framework

vCNSは、サードパーティ ソリューションを仮想環境にインテグレーションできるようにAPI を提供しています。これによって、vCNSでは提供されていないIPSやWAN最適化機能などのネットワークサービスを仮想ネットワーク環境へ導入することが出来ます。

7

 

■ vCNSのメリット

vCNSのこれらの機能は、仮想環境上で必要なときにいつでも簡単に作成することが出来ます。また、仮想マシンに関連付けて設定が行われるので、仮想マシンが物理サーバー間を移動したとしても、再設定を行う必要もありません。VMware vCloud Director や VMware vCloud Automation Center、vCenterといった管理ツールとシームレスに統合されているため、設定の自動化やUIの違いによる管理コストの増大も防ぐことが可能になります。

 

■ ライセンス、エディション

以前は個別ライセンスでも提供していましたが、現在はvCloud Suiteのコンポーネントとして提供しています。エディションもなくなり、全ての機能がvCloud Suiteの全エディションでご利用できます。
詳しくは、「vCloud Networking and Security の製品ページ(英語)」をご参照下さい。

 

■ VMware によるネットワーク仮想化の未来

VMwareがネットワーク仮想化を推進する理由は、ネットワーク仮想化がSoftware-Defined Data Center(SDDC)の重要な要素であるためです。そのため、vCNSはSDDCを実現するvCloud Suite のライセンスに組み込まれています。
また、VMware は昨年VMware NSX をリリースしました。こちらもネットワーク仮想化を実現するためのコンポーネントになりますが、vCNSよりも性能、拡張性、機能の向上が行われています。

今後のVMwareのネットワーク仮想化と、その先にあるSDDCの展開にご期待下さい!

 

「押さえておきたいvSphereの基本」

〜ストレージ編〜
1.マニュアル操作でストレージ環境を最適化
2.ストレージと連携してパフォーマンスを最大化
3.優先度の定義付けと自動化

〜ネットワーク編〜
1.ホスト単位でネットワークを構築する 〜標準スイッチ編〜
2.スケーラブルで高機能なネットワークを構築する 〜分散スイッチ編〜
3.仮想化環境でL3-L7 サービスを提供する 〜vCloud Networking and Security〜

〜可用性編〜
・物理リソースの有効活用と仮想マシンの最適配置〜DRSとリソースプール編〜
・システム障害に備える仕組み〜vSphere HAとFT編〜

押さえておきたいvSphereの基本~ストレージ編 第3回~

皆様こんにちは。前回は、vSphere のEnterprise エディションで提供される機能によりストレージの能力を最大に活用する方法をお伝えいたしました。引き続き、「押さえておきたいvSphereの基本」と題して、“ストレージを自動的に整える”方法をお伝えします。

ストレージを自動的に整えるとは、どういうことでしょうか?ストレージの能力/性能が最大限に活用できるようになれば、より多くの仮想マシンをストレージ上に配置できるようになります。しかしながら、仮想マシンのI/Oが競合し、ストレージの能力を超えてしまった場合には、仮想マシンのパフォーマンスは悪化してしまいますので、ストレージに対して性能や容量を整える工夫が必要になってきます。

■ストレージを整える

様々なサービスを提供する仮想マシンは、仮想マシン毎にI/O 数、レスポンスタイム、スループット、容量などストレージに対する要件が存在します。仮想マシンが安定して稼働するためには、きちんと仮想マシンの特性を理解して、バランスよく配置することが求められます。例えば、午前にI/O 要求が高まる仮想マシンと午後にI/O 要求が高まる仮想マシンを同一データストアに配置するという形になります。ところが、実際の仮想化環境というのは時間、分、秒といったもっと細かい粒度で稼働状況が変化していきます。また、仮想マシンの増減やシステムを利用するユーザの増減などによっても、CPUやメモリと同じようにストレージの要件は時間の経過とともに変化していきます。そのため、すべての仮想マシンの稼働状況を把握し、IT管理者の方が手動でバランスよく配置し続けることは作業負荷が重くなってしまいます。vSphere のEnterprise plus エディションでは、そのような課題を解決する機能を提供しております。

具体的な例を見ていきます。こちらの図1では、5つの仮想マシンが3台のホストと1つのデータストア上で稼働をしています。ホストは分散されておりますが、データストアは1つのみであり、5つの仮想マシンはこのデータストア上に配置されています。各仮想マシンは、稼働状況に応じて必要なI/Oを発行していますが、あるタイミングでストレージの能力を超えるI/Oが仮想マシンから発行された場合、ディスクI/Oに関する資源の取り合いが発生し、仮想マシンのパフォーマンスが劣化してしまう、またはそのデータストアに配置される仮想マシン全体に影響してしまうことも考えられます。パフォーマンス劣化する仮想マシンが、重要であればあるほど、問題が大きくなりますので、そのようなことが起きたとしても、影響をできるだけ少なくする必要があります。それが、仮想マシンのI/O優先順位を”整える”という機能(Storage I/O Control)です。

3-11

図1:複数の仮想マシンがデータストアを共有する= IOリソースの共有

この機能はストレージの能力に余裕がある場合では発動しませんが、ストレージの能力が枯渇した際(競合状態)に発動されることになります。図2のグラフは、仮想マシンのI/O優先順位を整えるよう設定した各仮想マシンの稼働状況になります。Phase1~3 は、いずれもストレージの能力が枯渇している時間となっており、単一ホストではなく、複数のホストに跨っていても状況を理解し、優先順位に応じて各仮想マシンからのI/O が整えられています。
各仮想マシンの優先順位は予めVM5(4000) >>> VM3,4(750) > VM1,2 (500) としております。
()内は仮想マシンに設定したシェア値です。

Phase2 の時間帯では、非常に高い優先順位を設定している仮想マシン(VM5)がシャットダウンされたことにより、使えるストレージ資源に空きが生じます。稼働している他の仮想マシンは、Phase1 の時より多くのストレージ資源を使えるようになっているため、各仮想マシンのパフォーマンスが向上しています。そして、再びPhase3 でVM5を起動すると、ストレージ資源が優先的にVM5 に提供されるようになります。仮想マシンのI/Oを整えることにより、ストレージ資源を有効活用し、たとえ枯渇したとしても、vSphereの機能で影響を最小限にすることできます。

3-22

図2:シェア値(優先度)の違いにおける負荷の様子

仮想マシンのI/Oの優先順位を整えるという説明をしてきましたが、Storage I/O Controlはストレージが一時的に資源不足になった際の対応策となります。常時発動されているという状況は配置している仮想マシンに対して、常にストレージの資源が足りていないということになりますので、恒久的な対策が必要になります。
例えば、1つのストレージ(データストア)の能力を上げるという方法もありますが、vSphere のEnterprise plusエディションでは、ホストと同じように複数のデータストアをデータストア クラスタとして、”束ねる”ことができます。データストア クラスタに資源が足りなくなった際、新たにデータストアを追加し、データストア クラスタのトータルの資源を簡単に増加させることが可能になります。例えば、100iops,100GBの資源を提供可能なデータストアが3つ登録されているデータストアクラスタは、300iops,300GBのひとつの資源と考えることができるようになります。

3-33

さらに自動的にこのデータストアクラスタを有効活用できるStorage DRS という機能を使用すれば、データストア クラスタ内(複数のデータストア間)で、過去の統計情報を基に負荷や容量を自動的に整えてくれます。自動的に整えられる際は、第1回でご紹介したStorage vMotion を使用し、システム停止させることなく行われます。※ホストのDRS と同様に手動モードで実施することも可能です。

仮想化環境において、ストレージ環境を整える機能を活用することにより、ストレージの負荷や容量を監視しながらの仮想マシンの配置、移行といったIT管理者の負荷を減らす事ができ、仮想環境の特性を活かしたより有効的な使用ができるようになります。

まとめ
今回、vSphere Enterprise plus エディションで提供している機能(ストレージに対する負荷や容量を自動的に整える機能)をご紹介させていただきました。主にESXiが10台以上となる環境では積極的に使用していただきたい機能になります。人間で例えると骨盤のずれで偏りができてしまうと、肩こりや頭痛など体全体の調整を崩してしまったり、本来のパフォーマンスが出せなかったりすることがあるかと思います。この「ズレや偏り」を治すため、整体やマッサージ等コンディションを整えたりします。ストレージでも同様、IOや容量の偏りが原因でシステム全体に影響がでてしまい、本来もっている能力を出せないことは非常にもったいないことです。是非vSphereの機能を有効活用していただき、仮想基盤のコンディション(すなわちパフォーマンス)をさらに高めていただければ幸いです!!

3-4
VMware青山健二/中村朝之

「押さえておきたいvSphereの基本」
~ストレージ編~
1.マニュアル操作でストレージ環境を最適化
2.ストレージと連携してパフォーマンスを最大化
3.優先度の定義付けと自動化

~ネットワーク編~
1.ホスト単位でネットワークを構築する 〜標準スイッチ編〜
2.スケーラブルで高機能なネットワークを構築する 〜分散スイッチ編〜
3.仮想化環境でL3-L7 サービスを提供する 〜vCloud Networking and Security〜

~可用性編~
・物理リソースの有効活用と仮想マシンの最適配置~DRSとリソースプール編~
・システム障害に備える仕組み~vSphere HAとFT編~

押さえておきたいvSphereの基本-可用性編 vSphere HA/FT

押さえておきたいvSphere の基本」の可用性編の1回目として、前回、vSphere DRSをご紹介しました。
今回は、2回目として、ホスト障害の際にも仮想マシンの稼働を最大化する機能、vShpere HA、vSphere FTに関して順にご紹介します。

vSphere HA

ESXiホスト上で稼働している仮想マシンは、そのホストが障害で止まってしまった場合、稼働停止を余儀なくされます。
vSphere HAは、ホスト障害により止まってしまった仮想マシンを他の正常なホスト上で再稼働する機能を提供します。

HA-FT-3

例えば3台のホストがvSphere HAで構成されている上記の様なケースで、真ん中のホストが何らかの障害により止まってしまった場合、このホスト上で動いていた仮想マシンは停止してしまいます。この障害を検知すると、他の正常なホスト(上記の場合は左右ホスト)が仮想マシンを自動的に再度稼働させます。vSphere HA を利用することにより、ホスト障害の際にもサービスのダウンタイムを最小限に抑えることが可能となります。

物理環境の仮想化への移行の理由は、有り余る物理ホストのリソースの有効活用と、ホスト集約によるTCOの削減というところが多いのですが、仮想環境へ移行すると、vSphere HA が利用可能となり、可用性が飛躍的に向上するということも大きなメリットの1つです。なお、vSphere HA が利用可能なライセンスに関しては、こちらをご確認下さい。
続きを読む

押さえておきたいvSphere の基本~ネットワーク編 第2回~

「押さえておきたいvSphere の基本」のネットワーク編として、仮想化環境におけるネットワークの基本を3回に分けてご紹介していきます。第2回は、vSphere Enterprise Plus エディションに対応した分散スイッチ(vSphere Distributed Switch 以下vDS と記載)固有の機能のなかから、標準スイッチ(vSphere Standard Switch 以下vSS と記載)にはない下記3つのポイントについて解説を行います。

・複数のホストで使用するネットワークを効率的に管理する
・広帯域ネットワークに各種トラフィックを集約して使用する
・VXLAN を使用しネットワーク仮想化を実装する

■ 複数のホストで使用するネットワークを効率的に管理する
単一のホスト上に構成される標準スイッチ(vSS)に対し、分散スイッチ(vDS)は、複数のESXi ホストにまたがって構成することができます。

vsphere-nw-part2-01

トラフィックの処理を行うデータプレーンは、標準スイッチと同様にプロキシスイッチとして各ホストに配置されますが、管理プレーンをvCenter に配置することでネットワーク構成の一元管理を実現しています。例えば仮想マシン用ポートグループを作成する際、標準スイッチ(vSS)では各ESXi ホスト上で個々に設定を実施することになるのに対し、分散スイッチ(vDS)では、1回設定をするだけで構成が完了します。また、仮想マシンがvMotion によって異なるホストに移行した後も、分散仮想スイッチ(vDS)上では同じポートに接続されていることになり、統計情報やステート情報を引き継ぐことができます。

■ 広帯域ネットワークに各種トラフィックを集約して使用する
10Gbps のNIC を搭載したサーバが普及してきており、vSphere 5.5 からは40Gbps のNIC がサポートされてきています。こうした背景から、ESXi ホストのネットワークを構成する際に、トラフィックのタイプごとに個別の物理リンク(1Gbps)を使用する構成ではなく、1本の物理リンク(10Gbps)のなかに複数の種類のトラフィックを通す構成をとるケースがあるのではないでしょうか。このような構成では、異なる特性を持つトラフィックが単一の物理ネットワークを共有することになるため、トラフィックの特性に合わせた帯域の制御を考慮する必要があります。ESXi ホスト内でトラフィックを制御するための方法として、分散スイッチ(vDS)ではネットワークI/O コントロール(以下NIOC と記載)を提供します。

NIOC は、トラフィックの重要度に応じて使用帯域を制御します。例えば10Gbps の帯域を、NFS, FT, vMotion, 仮想マシンのトラフィックで共有する構成を考えてみましょう。NIOC が無効な環境では、vMotion 実施時に、vMotion のトラフィック(グラフ中の赤線)が他のトラフィックを圧迫します。これにより仮想マシンの提供するサービスに影響が発生し、FT 等遅延に敏感な機能にも影響がでます。

vsphere-nw-part2-02

一方、NIOC が有効な環境では、シェア値に基づいて各トラフィックが制御されるため、vMotion 時にも、FT, NFSといったトラフィックは圧迫されることなく、健全なパフォーマンスを維持します。

vsphere-nw-part2-03

分散スイッチ(vDS)を活用することで、このように広帯域ネットワークを使用する際に必須となるトラフィック管理の機能を実装することができます。NIOC の詳細については、「VMware® Network I/O Control: Architecture, Performance and Best Practices」を合わせてご参照ください。

■ VXLAN を使用しネットワーク仮想化を実装する
VXLAN を使用し、論理ネットワークを展開する際にも、分散スイッチ(vDS)は必須のコンポーネントとなります。VXLAN の論理ネットワーク(vCNS ではVirtual Wire, NSX for vSphere では論理スイッチと呼ばれる)は、分散スイッチ(vDS)上に仮想マシン用ポートグループとして実装されます。また、VXLAN のトンネルを終端するVTEP(VXLAN Tunnel End Point)は、分散スイッチ(vDS)上にVMkernel ポートとして実装されます。

なお、VXLAN の実装のためには分散スイッチ(vDS) の他に、vCNS(vCloud Networking and Security)もしくは、NSX for vSphere が必要となります。下記はNSX for vSphere の論理スイッチを構成する画面となります。

vsphere-nw-part2-06

これらのコンポーネント上で構成をおこなったVXLAN 論理ネットワークが、分散スイッチ(vDS)上に仮想マシン用ポートグループとして動的に展開されます。VXLAN の実装については、ネットワーク仮想化 – VXLAN の設定を合わせてご参照ください。

vsphere-nw-part2-04

さらに、vCloud Automation Center といったCMP(Cloud Management Platform)と連携を行うことで、仮想マシンの展開と同時に必要となる論理ネットワークを動的に作成し、分散スイッチ(vDS)上にポートグループを展開することが可能になります。 ネットワークの仮想化及び、SDDC(Software Defined Data-Center)環境において、分散スイッチ(vDS)は必須のコンポーネントとなります。

次回「押さえておきたいvSphereの基本」ネットワーク編第3回目は、仮想化環境でL3-L7 サービスを提供する 〜vCloud Network and Security編〜 という題目で、vCloud Suiteのコンポーネントとして、ネットワークの上位レイヤーのサービスを提供するvCloud Networking and Security(vCNS)についてご紹介します。

「押さえておきたいvSphereの基本」
~ストレージ編~
1.マニュアル操作でストレージ環境を最適化
2.ストレージと連携してパフォーマンスを最大化
3.優先度の定義付けと自動化

~ネットワーク編~
1.ホスト単位でネットワークを構築する 〜標準スイッチ編〜
2.スケーラブルで高機能なネットワークを構築する 〜分散スイッチ編〜
3.仮想化環境でL3-L7 サービスを提供する 〜vCloud Networking and Security〜

~可用性編~
・物理リソースの有効活用と仮想マシンの最適配置~DRSとリソースプール編~
・システム障害に備える仕組み~vSphere HAとFT編~

押さえておきたいvSphereの基本~ストレージ編 第2回~

~ストレージの能力を最大限に引き出す vSphere~
皆様こんにちは!前回は、vSphereのストレージ機能において比較的小規模環境(約ESXi2~3台)でも使用できる代表的な機能をご紹介しました。一般的に仮想基盤は小規模構成から運用開始することが多く、仮想基盤の運用に慣れていくに伴い、規模を拡張していくことが多いです。規模を拡張するにあたり、物理リソースを単に増やしてしまうとコストメリットがなかなか出しにくくなり、安全に統合率(ESXi上で稼動する仮想マシン数)を上げていくことも考慮していく必要があります。そこで安全に統合率を上げていく際、重要な役割を担うポイントの一つとしてストレージがあげられます。

図2-1
 

図1 仮想マシンの増加とIO増加
仮想マシンの台数が増えると、もちろんストレージへのアクセス(通常のIOに加え仮想マシンの作成、テンプレートから仮想マシンを展開、Storage vMotion等)は増えます。ここで忘れてはいけない点として、仮想基盤は物理リソースを「共有」しているという点です。これはIO競合が発生しやすい状態ともいえ、ストレージがボトルネックになりやすい環境にもなりかねません。ここで管理者は仮想マシンの配置を仮想基盤の特性を十分理解する必要がでてきます。ストレージ側に関してはなかなか手が回らず、余裕の持ちすぎたサイジングになってしまう傾向があります。そういった中、vSphereではストレージとより連携し、そもそもストレージが持っている能力を最大限引き出し、管理者に余計な負荷がからない様、下支えをする仕組みを持っております。

■仮想基盤特有、ストレージのボトルネックを抑える
前回VMFSと呼ばれるファイルシステムをvSphereでは持っているとご説明をしました。複数のホストからアクセスされているような環境では、データの整合性のためにファイルシステムのメタデータの更新が必要となる場合、排他制御の仕組みが必要になってきます。vSphere 環境におけるメタデータの更新が必要となる代表的なオペレーションとしては、仮想マシンを新規作成、仮想マシンの起動/停止、vMotion、仮想マシンスナップショット取得時、等実行するタイミングになります。vSphere では、排他制御のためにSCSI-2のディスクリザベーションを利用しており、「LUN全体をロック」して他のホストからのアクセスを抑制するという動作になります。非常に短い時間ではありますが、他のホストで稼動している仮想マシンは、一時的にI/O ができない瞬間が発生してしまいます。 (図2)

図2-2withoutVAAI
 

図2 排他制御が多くかかってしまうと他の仮想マシンに影響してしまう
1LUN上に多く仮想マシンを配置させた結果、排他制御を多く発生させる仮想マシンがあることにより、同じLUN上にある他の仮想マシンのパフォーマンスを劣化させてしまう可能性がでてきます。そのため管理者は、なるべくこの排他制御の影響が出ないよう多くLUNを作成して仮想マシンの配置を細かく分けたり(=管理の煩雑さ増)、必要最低限のみ仮想マシンを配置(=余剰リソース増)させてしまう手法をとってしまいます。ストレージとしては、まだまだ余裕があるにも関わらず、少しもったいない使い方ともいえます。ここでvSphereで持っているStorage APIs for Array Integration(以下VAAI)を使用し、vSphereとストレージが連携することによって、排他制御の単位をLUN全体ではなく、より粒度の小さい単位でロックすることができます。これにより排他制御処理が発生した瞬間もLUN全体がロックされませんので、多くの仮想マシンを1LUN上に配置しても、排他制御による他の仮想マシンへの影響を少なくすることができます。図3(LUNも必要以上に細かく分ける必要性も減ってきますね)

図2-3 VAAIon
 

図3 VAAIを使用した排他制御 他のホストへの影響は最低限に
■ストレージにお願いできることはストレージへお願いする
もう1つ、VAAIの機能でストレージの能力を引き出す機能を紹介します。仮想化基盤を運用、管理するためには、仮想マシンのIO 以外にストレージに対する様々なIOが発生します。具体的には、テンプレートから仮想マシンを展開したり、前回ご紹介したStorage vMotion があげられます。ストレージから見れば、ファイル(ブロック)を“コピー”したり“移動”するような操作です。そのような操作は通常、図4の左のように複製元のストレージからデータをESXiで読み込んだ後、複製先のストレージにデータを書き込むことになります。もちろんこの動作はESXi自身が実施しているので、ESXi側リソース(CPUやメモリ)、ESXiとストレージ間の帯域を多く消費してしまいます。そこでvSphereではこの動作をストレージと連携してストレージ側にお願い、実施してもらうこともVAAIを通じて可能になります。

図2-4
図4 VAAIを使うとストレージ内でコピーが実施される
ESXi側(ハイパーバイザー)で処理している内容をストレージにお願いすることによって、ESXi側の負荷が減り、その分他の仮想マシンへリソース供給できたりします。またコピー中もVAAIを使用すればESXi~ストレージ間の帯域をほとんど使用しないので、他の仮想マシンへの影響も抑えられます。実際にその効果を見てみましょう。図5は、VAAIの有無によるStorage vMotionの結果になります。

図2-5
図5 VAAIの有無におけるStorage vMotion中の帯域
この結果を見ていただくとわかるように、VAAIを使用することで、データの複製がストレージ内で実施されることになるため、ストレージネットワークには、ほとんどデータが流れていないことがわかります。(青い線)また、ストレージ側のCPU使用率も下がり(赤い線)、Storage vMotion に要する時間も短くなっていることがわかります。VAAIはあまり機能として目に見えない「地味な存在」ですが、vSphereとストレージの連携がより密になり、ストレージにお願いできることはストレージにお願いし、仮想基盤全体としてよりリソースの効率性を上げることが可能になります。
上でご紹介した機能は、Enterprise エディションで提供されているStorage APIs for Array Integrationという機能の一部です。(Storage APIs for Array Integrationを通して他に実現できる機能はありますが、詳細はホワイトペーパ をごらんください)
※VAAIを使用するには、事前にVMwareの互換性リストでストレージがVAAIに対応しているか確認します。現状、主要ストレージベンダーから出荷されているストレージ製品であれば、ほぼこの機能に対応しておりますが、Firmwareのバージョンによって差異ありますので、事前にご確認ください。

■サーバ~ストレージ間のパスを整える
最後にESXi~ストレージ間のパスについてご紹介します。
仮想マシンが増えていくことにより、ESXi~ストレージを結ぶ”パス”をより有効に、安全に使用する必要もあります。vSphereでは標準でマルチパス機能を提供しております。もちろん経路障害によるフェイルオーバー動作であったり、IOの振り分け機能も提供しておりますが、Enterpriseエディションにある“”MultiPath”があることにより、ストレージベンダが提供するマルチパスソフトを使用することが可能になります。提供されているマルチパスソフトにより特徴があり、例えばより高度なIOロードバランシングによる帯域の有効活用が可能になったり、経路上の健全性を常に把握し、プロアクティブに障害検知を実施し影響を最小限に抑える等、ESXi~ストレージ間のパスをより整えることが可能になります。また複数のストレージにデータが分散している際、マルチパスソフト側でどのストレージにどのデータがあるのか把握できるので、目的のデータへ一発でアクセスでき余分なIOを発生させない、という特徴をもったマルチパスソフトもあります。ストレージベンダーが提供するより高度なマルチパスを使用することにより、見逃してしまいがちなリソースである「パス」をより有効に活用していただけることも可能になります。

図2-6
図6 パスの凸凹を整える
■まとめ
今回は主にvSphere Enterprise エディションで提供している機能をご紹介させていただきました。最近のストレージにおいては、ご紹介したVAAIに対応しているストレージが多くなってきております。是非このvSphereとストレージの連携に注目していただき、高機能なストレージの能力をより引き出していただき、仮想基盤を有効に使っていただければ幸いです。次回「押さえておきたvSphereの基本~ストレージ編~」では仮想基盤におけるストレージ環境の優先度の定義付けと自動化、をテーマにお送りします。お楽しみに!!

VMware青山健二/中村朝之

「押さえておきたいvSphereの基本」
~ストレージ編~
1.マニュアル操作でストレージ環境を最適化
2.ストレージと連携してパフォーマンスを最大化
3.優先度の定義付けと自動化

~ネットワーク編~
1.ホスト単位でネットワークを構築する 〜標準スイッチ編〜
2.スケーラブルで高機能なネットワークを構築する 〜分散スイッチ編〜
3.仮想化環境でL3-L7 サービスを提供する 〜vCloud Networking and Security〜

~可用性編~
・物理リソースの有効活用と仮想マシンの最適配置~DRSとリソースプール編~
・システム障害に備える仕組み~vSphere HAとFT編~

押さえておきたいvSphereの基本-可用性編 vSphere DRS

押さえておきたいvSphere の基本」の可用性編として、2回に分けてvSphereのリソースコントロールの機能と可用性を高める機能のご紹介をしたいと思います。

1回目の今回は、vSphere上でゲストOSを運用する際、特定のESXiホストの負荷が高くなった場合、柔軟なリソースコントロールと稼働ホストの分散により、ゲストOSへの稼働に影響を最小限に抑える機能をご紹介します。

利用ケースとして、複数のESXiホストが稼働している状況で、各ホストのリソースを効率よく活用することにより、ゲストOS間のパフォーマンス劣化を防止することやより高い統合率での仮想環境の運用が可能になります。

その他、サーバリソースを追加した場合、新たに追加されたサーバのリソースの効率的な利用などもあります。

仮想マシンが増えてきた場合、それらの仮想マシンの負荷を想定して、どのサーバー上で稼働させればパフォーマンス最適化が図れるかを設計することは困難ですし、仮に設計が出来たとしても、時間の経過と共に負荷状態は変化していきますので常に最適な状態で運用し続けることは困難です。

そこで、非常に強力な機能としてvSphereにはDRS(vSphere Distributed Resource Scheduler)があります。

DRS5

どのエディションで利用可能かについては「vSphere のエディションの比較」サイトを参照ください。注意点としてDRS機能を有効にするにDRS利用可能なエディションでクラスタを作成する必要があります。

DRSには以下の役割を持っています。

  • ユーザーによる、VMパフォーマンス要件の最適化。
  • VMのリソースの分離と共有を提供。
  • 効率的なインフラストラクチャ活用とリソース管理。
  • 包括的なクラスタ管理。

上記役割を満たすためのメカニズムとして以下の機能があります。

  • 初期配置/ロードバランシング
  • QoSの施行:共有、予約、制限、リソースプール
  • ポリシーの施行:アフィニティルール、アンチアフィニティルール
  • ホストメンテナンス時の退避

1.初期配置/ロードバランシング

DRSの「初期配置/ロードバランシング」を利用する際に、一番重要な考え方となるのが「VM の要求を満たす」つまり「VMやアプリケーションが問題なく稼働する」と言うことです。

1つ例を示します。

図1のようにクラスタ内の特定ホストのリソース(CPU・メモリ)が不足した結果、そのホスト上で稼働するVMが十分な要求リソースを確保出来なくなった場合、DRSにより不均衡解消に働きます。一方、図2のようにクラスタ内のホストが十分にリソースが確保されている場合、ホスト上で稼働しているVM数に少々のバラつきがあっても、DRSは発動されません。

図1.クラスタ内の特定ホストのリソースが不足した場合

図2.クラスタ内のホストは十分にリソースが確保されている場合

では、どのような方法でホストの「負荷」と「ばらつき」を評価するかというと、構成するホストの負荷(ホストの負荷 = (VMの負荷の合計) / (ホストのキャパシティ))のばらつきを標準偏差として管理し、この標準偏差の値が、設定されたしきい値(保守的~積極的の5段階で設定)を超えた場合、vMotionを利用して仮想マシンをほかのサーバーに移行させます。

また、vMotionの実行も自動でVMがホスト間を移動するのではなく、管理者側に判断を仰ぐということも可能となっています(可用性ガイド参照)。

2.QoSの施行:共有、予約、制限、リソースプール

各VMの要求リソースリソースのコントロールをうまく行うことにより、VMの稼働を安定させることが可能となります。その方法としてリソースプールという機能がDRSでは設定可能となっています。

リソースプールの主な特徴は以下となっています。

  • リソースの分離のための、強力なリソース抽象化機能
  • ビジネス要件に応じて、リソースプールを作成可能
  • プール内でのリソース共有と、プール間でのリソース隔離

リソースプールをうまく活用することにより、ホスト毎のリソース管理ではなく、クラスタ単位でリソースの管理が行えます。

このリソースプールは「予約」「制限」「シェア値」の設定により柔軟なリソース管理が可能です。

また、それぞれの設定項目に関しては、次のガイドライン(リソース割り当て設定の推奨事項)に従うことにより、仮想マシンのパフォーマンスを向上させるのに役立ちます。
合計使用可能リソースが頻繁に変化することが予想される場合は、[シェア] を使用して、仮想マシン間で適正にリソースを割り当てます。[シェア] を使用していて、ホストをアップグレードする場合、各シェアがより多くのメモリ、CPU、またはストレージ I/O リソースを表していても、各仮想マシンの優先順位は変わりません (同じシェア数のままです)。

[予約] では、ユーザーが使用可能にしたい量ではなく、条件に合った最小の CPU またはメモリの量を指定します。ホストは、仮想マシンのシェア数、需要予測、および制限に基づいて、使用可能な追加のリソースを割り当てます。予約によって表される具体的なリソースの量は、仮想マシンの追加や削除など、環境を変更しても変化しません。

仮想マシンの予約を指定する場合、すべてのリソースをコミットしないでください (10% 以上を未予約にしてください)。システム内のすべての容量が完全に予約された状態に近づくほど、アドミッション コントロールに違反せずに予約とリソース プール階層に変更を加えることが困難になっていきます。DRS の有効なクラスタでは、クラスタの容量またはクラスタ内の個々のホストの容量を完全にコミットする予約によって、DRS が仮想マシンをホスト間で移行できなくなることがあります。次のガイドラインは、仮想マシンのパフォーマンスを向上させるのに役立ちます。

合計使用可能リソースが頻繁に変化することが予想される場合は、[シェア] を使用して、仮想マシン間で適正にリソースを割り当てます。[シェア] を使用していて、ホストをアップグレードする場合、各シェアがより多くのメモリ、CPU、またはストレージ I/O リソースを表していても、各仮想マシンの優先順位は変わりません (同じシェア数のままです)。

[予約] では、ユーザーが使用可能にしたい量ではなく、条件に合った最小の CPU またはメモリの量を指定します。ホストは、仮想マシンのシェア数、需要予測、および制限に基づいて、使用可能な追加のリソースを割り当てます。予約によって表される具体的なリソースの量は、仮想マシンの追加や削除など、環境を変更しても変化しません。

仮想マシンの予約を指定する場合、すべてのリソースをコミットしないでください (10% 以上を未予約にしてください)。システム内のすべての容量が完全に予約された状態に近づくほど、アドミッション コントロールに違反せずに予約とリソース プール階層に変更を加えることが困難になっていきます。DRS の有効なクラスタでは、クラスタの容量またはクラスタ内の個々のホストの容量を完全にコミットする予約によって、DRS が仮想マシンをホスト間で移行できなくなることがあります。

3.ポリシーの施行

DRSでは仮想マシン間の依存性を、ルール設定により制御が可能となっています。

それぞれの動きの特徴と利用シーンを下表でまとめます。

まとめ

以上のように、DRSをうまく活用していただき、効率よい仮想環境の構築・運用をしていただければと思います。

 

 

押さえておきたいvSphere の基本~ネットワーク編 第1回~

押さえておきたいvSphere の基本」のネットワーク編として、仮想化環境におけるネットワークの基本を3回に分けてご紹介していきます。第一回は一般的な仮想スイッチの役割と機能及び、vSphere Standardエディションで使用できる標準スイッチ(vSphere Standard Switch 以下vSS と表記)について、分散スイッチ(vSphere Distributed Switch 以下vDS と表記)との差異を中心に解説します。

仮想スイッチは、仮想マシンと物理ネットワークを接続するためハイパーバイザ内に作成されたL2 スイッチとして、サーバ仮想化環境での導入が進んでいます。サーバの仮想化に比例して、仮想スイッチの導入も進んでおり、下記のグラフから既に2012 年の時点でデータセンターにおけるアクセスポート(サーバが接続されるスイッチのポート)数で、仮想スイッチの提供するポート数が、物理スイッチの提供するポート数を上回っていることが分かります。

vsphere-nw-part1-01

また、仮想化環境において仮想スイッチは、仮想マシンを最初に接続するネットワーク機器となり、仮想マシンのトラフィックを集約する最初のポイントとなります。このことから、仮想スイッチは単に物理的なネットワークインターフェイスを共有させるだけではなく、下記ネットワーク関連機能の実装に、物理スイッチ以上に最適なポイントということができます。

・ネットワークポリシー(セキュリティ及び帯域制御)の適用
・ネットワーク統計情報の収集
・ネットワークトラフィックのモニタリング

このような背景から、今まで物理スイッチで実装してきた機能の多くを仮想スイッチでも実装してきています。また、パイパーバイザーと同様に集中管理可能であり、x86 ベースの豊富な機能といった仮想化環境特有の特徴を持っています。仮想スッチのアーキテクチャを表したのが下記の図となります。仮想マシンと物理ネットワーク機器の間に入り、ネットワーク機能を提供します。

vsphere-nw-part1-03

仮想マシンは仮想NIC を持ち、IP 及びMAC アドレスは仮想NIC に割り当てられます。この仮想NIC が接続されるのが、仮想スイッチ上にある仮想マシン用ポートグループとなります。物理スイッチと接続されるホスト上の物理NIC は、固有のIP アドレスを持たず トラフィックをバイパスするケーブルと同等の役割となります。この他に、ホスト管理、vMotion、iSCSI、NFS、FCoE、Fault Tolerance、VSAN、などのESXi サービスのトラフィックを処理するためにホスト固有のIP を持つVMkernel ポートがあります。

vsphere-nw-part1-04

なお、ネットワーク仮想化環境で提供されるVXLAN 論理ネットワーク(NSX では論理スイッチ、vCNS ではVirtual Wire と呼ばれる)は、仮想スイッチ上に仮想マシン用ポートグループとして作成されます。また、VXLAN トンネルを終端するVTEP(VXLAN Tunnel End Point)の実態はVMkernel ポートであり、VXLAN 構成時にVMkernel ポートが自動的にホスト上に作成されます。

VMware vSphere の実装では2種類の仮想スイッチがあります。vSphere Standard エディションで使用可能なホスト単位のネットワークを提供する標準スイッチ(vSS)、vSphere Enterprise Plus エディションで使用可能なデータセンター単位のネットワークを提供する分散スイッチ(vDS)です。ホスト単位でネットワークを構成し、分散スイッチ(vDS) が有する機能を使用する要件がない場合は標準スイッチ(vSS)のみで構成をとることが一般的です。L2 スイッチに求められる基本的なVLAN 機能や、標準的なチーミングを標準スイッチ(vSS)を用いて実装することが可能となります。

VLAN 構成及び設定については、「VLAN configuration on virtual switches, physical switches, and virtual machines (1003806)」、チーミング構成及び設定については、「NIC teaming in ESXi and ESX (1004088)」に解説があります。標準スイッチ(vSS)、分散スイッチ(vDS)の機能については下記表を参照ください。

vsphere-nw-part1-05

表の中で、(5.1)等の括弧内に書いてある番号が、新機能として実装されたvSphere のバージョンとなり、水色のセル部分が分散スイッチ(vDS)固有の機能となります。特に管理、トラフィック制御、及びネットワーク仮想化に伴い必要とされる各種機能が分散スイッチ(vDS)に実装されており、下記のような要件がある場合には分散スイッチ(vDS)の実装が適していると言えます。

・複数のホストで使用するネットワークを効率的に管理する
・広帯域ネットワーク(10G 以上)に各種トラフィックを集約して使用する
・ネットワーク仮想化(VXLAN ネットワーク)の展開を予定している

次回「押さえておきたいvSphereの基本」ネットワーク編第2回目は、スケーラブルで高機能なネットワークを構築する 〜分散スイッチ編〜 という題目で、上記ポイントを中心にお送りします。

「押さえておきたいvSphereの基本」
~ストレージ編~
1.マニュアル操作でストレージ環境を最適化
2.ストレージと連携してパフォーマンスを最大化
3.優先度の定義付けと自動化

~ネットワーク編~
1.ホスト単位でネットワークを構築する 〜標準スイッチ編〜
2.スケーラブルで高機能なネットワークを構築する 〜分散スイッチ編〜
3.仮想化環境でL3-L7 サービスを提供する 〜vCloud Networking and Security〜

~可用性編~
・物理リソースの有効活用と仮想マシンの最適配置~DRSとリソースプール編~
・システム障害に備える仕組み~vSphere HAとFT編~

押さえておきたいvSphereの基本~ストレージ編 第1回~

皆様こんにちは!
先週お伝えしたとおり「押さえておきたいvSphereの基本」と題して、仮想環境をご利用するにあたり押さえておきたい機能、ポイントをストレージ、ネットワーク可用性に分けてお伝えしておきます。
初回はストレージ編です。vSphere 環境に限りませんが、ストレージはシステムを稼動させる上で非常に重要なリソースの1つとなるため、ストレージ選定において、容量、可用性、パフォーマンス、コストなどを検討する上で重要なポイントとなります。そこでvSphereが持っているストレージ関連の機能で、どのようなことが実現できるかご紹介していきます。今回は第1回目ということで Standard エディションや標準的に利用できるストレージに関する代表的な機能を3つご紹介致します。

・ストレージ環境を最適化にするファイルシステム~VMFS~
仮想化環境では、物理サーバ(ESXi)とストレージ(ボリューム)の関係が1 : 1となるような形で導入いただくことも可能ですが、m : nとなるように共有ストレージと併せて導入していただくと、システムの運用効率や可用性を高めていただくことができます。

shared-Storage
 

図1 ESXiとストレージのイメージ
m:nのような環境を構成するためには、複数のESXiサーバが同じボリュームに同時にアクセスする必要があります。 FCやiSCSIを使用した共有ストレージ(ブロックデバイス)環境ではVMFSと呼ばれる共有可能なファイルシステム(Virtual Machine File System )を提供しており、このVMFS でフォーマットされた領域に対して複数のESXiホストからアクセス可能としております。ファイルシステムを複数のESXiホストから共有している以上、整合性を保つ何かしらの”仕組み”が必要になってきますが、VMFSの場合SCSI-2のディスクリザベーションを利用して排他制御を実現しています。

共有ファイルシステムといっても特に難しい設定はなく、それぞれのESXiからマウントするだけとなっておりますので、特殊な設定等はなく簡単に実装できてしまいます。ちなみにこの排他制御、標準のVMFSではLUN単位に動作しますが、規模等によってはさらに効率よく実施するための仕組み/VAAIをハードウエア側(ストレージ)と協力して実装しております。(その点は次回に触れていきます。)その他、ファイルシステムの拡張性ももちろん兼ね備えております。仮想環境に関してはディスク容量の拡張が頻繁に行われる傾向がありますがハード側(ストレージ側)における動的拡張の後VMFSのファイルシステム拡張も動的に行えますので拡張作業も安心ですネ。

パフォーマンスでも様々な工夫がされており、特徴的なのがVMFSのブロックサイズです。
一般的にフィルシステムでフラグメントが多発している状況では、連続領域にファイルが配置されていないためI/Oリクエストが複数ブロックに分断され性能劣化の可能性がありますが、VMFSのブロックサイズ(1MB)は一般的なゲストOSのブロックサイズと比較してかなり大きく、ブロック境界を跨ぐ機会が少ないため、仮にVMFS 自体にフラグメントが発生していても性能劣化の影響が少ないです。このようにVMFSは地味な存在ですが、仮想環境をより安心にご使用していただくため大きな役割を担っております。

・より多くの仮想マシンを配置するための工夫~シンプロビジョニング~
様々なストレージ関連の製品で実装されていることもあり、”シンプロビジョニング”という言葉を聞いたことある方も多いかと思います。 一般的にシンプロビジョニング機能を利用していただくと、実際に利用可能な容量以上のボリュームを予め作成できるようになるため、将来の容量増加の見込みがつかないシステムなどに対し、使用していない容量の初期投資を抑えることが可能になります。

例えば、5年間運用するためにディスクサイズを100GB と算出した仮想マシンを10 台作成するとします。本来であれば、約1TB の容量が必要になりますが、1 年間運用した結果、それぞれの仮想マシンは平均20GB ほどしか消費しなかったとすると、導入時200GB 準備すればよかったことになります。ストレージのシンプロビジョニング機能を利用すれば、計画的な増設が可能になります。また、仮想ディスクをシンプロビジョニング形式で作成することにより、約1TB の容量に対して、ディスクサイズを100GB を想定した仮想マシンは10 台以上配置することが可能になり未使用の割り当て領域が削減され、効率的にストレージ容量を使用できるようになります。

 

図2シンプロビジョニング:シンで作成された仮想マシンは使用領域のみストレージ側で消費されている
特に仮想環境では導入当初は小さく始め、その後拡張していく傾向があります。vSphereのシンプロビジョニングを使用して、小さく始めて、必要があれば拡張していくという方式も可能となります。このvSphereのシンプロビジョニング機能も、全てのエディションでご使用いただけます。

・ストレージにおける仮想マシン配置の最適化~Storage vMotion~
仮想環境では、仮想マシンの増加等で構成変更が頻繁に発生する傾向にあります。その際仮想マシンのストレージ配置等構成変更が多く発生するのも仮想環境の特徴のひとつです。仮想マシンはストレージ上のボリューム(LUN等)に格納されておりますが、仮想マシンが増えていくと、容量が枯渇したり、IO競合が多く発生する可能性がありますので、将来的に仮想マシンの配置を変える可能性が高いことも考慮する必要があります。そこでvSphereでは仮想マシンの配置変更をオンラインで実施するための機能”Storage vMotion”を提供しております。

 

図3 Storage vMotionのイメージ 異なるストレージへ仮想マシンをオンラインで移行
Storage vMotionの特徴としては仮想マシンを止めずに仮想マシンを配置しているストレージを変更できます。例えばFCストレージからiSCSIストレージへの移行も可能です。ストレージの容量が足りなくなってきたり、IOの激しい仮想マシンが他の仮想マシンに影響を及ぼす様であれば、IOの負荷分散として仮想マシンの配置変更をオンラインで実施できます。操作も以下のとおり数ステップでできてしまうので非常に簡単です。

Storage vMotionの操作
移行する仮想マシンを選んで「移行」を選択

「データストアの変更」を変更。ここで「ホストの変更」を選択するとvMotionになります

仮想マシンの移行先を選択します。

「終了」を押せばStorage vMotionが開始されます。

仮想環境では複数のシステムが物理的なリソースを共有している関係上、運用フェーズで仮想マシンの配置変更を実施することが多くなるかと思います。このStorage vMotionでシステムを止めずに仮想マシンの配置を変更できることは、私も通常業務で大変助かっております!

今回はvSphere Standard エディションで提供しているストレージに関する代表的な機能を3つご紹介させていただきました。今回ご紹介した機能、VMFSやシンプロビジョニング機能はエディションに関係なく標準的に実装されている機能です。Storage vMotionに関してはStandardエディションから実装されている機能になりますが、どの機能も仮想環境におけるストレージを下支えする重要な機能となっております。次回「押さえておきたいvSphereの基本」ストレージ編第2回目は、~ストレージと連携しパフォーマンスを最大化~するという題目でお送りします。

VMware青山健二/中村朝之

「押さえておきたいvSphereの基本」
~ストレージ編~
1.マニュアル操作でストレージ環境を最適化
2.ストレージと連携してパフォーマンスを最大化
3.優先度の定義付けと自動化

~ネットワーク編~
1.ホスト単位でネットワークを構築する 〜標準スイッチ編〜
2.スケーラブルで高機能なネットワークを構築する 〜分散スイッチ編〜
3.仮想化環境でL3-L7 サービスを提供する 〜vCloud Networking and Security〜

~可用性編~
・物理リソースの有効活用と仮想マシンの最適配置~DRSとリソースプール編~
・システム障害に備える仕組み~vSphere HAとFT編~