Home > Blogs > Japan Cloud Infrastructure Blog > 月別アーカイブ: 2013年9月

月別アーカイブ: 2013年9月

vSphere 5.5 の新機能紹介 – vCenter Serverの新機能

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は VMware vCenter Server 5.5(以下vCenter 5.5) の新機能についてご紹介します。
vCenter 5.5 の主な新機能は下記のとおりです。

  1. vCenter Single Sign-On の強化
  2. vCenter Server Appliace 内蔵データベースのスケーラビリティ向上
  3. vCenter 用データベースのクラスターテクノロジーの正式サポート

また新機能ではありませんが、vCenter Server の旧バージョン(4.1/5.0/5.1)からのアップグレード方法について、若干の注意点がありますので、それについても記載します。

1. vCenter Single Sign-On の強化

vCenter 5.1 に同梱されていた Single Sign-on サービス(以下SSO)は、vCenter 5.5 では全面的に刷新され、主にスケーラビリティ、信頼性などが大きく向上しています。
また、従来はデータ格納用として SQL Server など外部データベースシステムが必要でしたが、vCenter 5.5の SSO では外部データベースが不要となり、SSO 内部でデータを保持するよう変更されました。これにともない、SSO マルチサイト構成における、サイト間のデータの同期については、SSO モジュール自身の機能で行えるようになりました(従来は外部データベースのリプリケーション機能が必要でした)。
SSO の機能向上などの詳細については、あらためて別の項でご紹介します。

2. vCenter Server Appliace 内蔵データベースのスケーラビリティ向上

vCenter 5.5 でも引き続き、OSを同梱した仮想アプライアンス形式である vCenter Server Appliace (以下vCSA)を提供します。
従来の vCSA では、内蔵データベース(vPostgres)にて管理可能な ESXi ホスト、仮想マシンなどのオブジェクト数に大きな制限があり、最大 5ホスト、50VMまでのみ対応となっていました。
vCSA 5.5 ではこの制限が大幅に緩和され、最大 100ホスト、3,000VMまで対応できるよう向上しました。従来の数十倍のオブジェクトが管理可能になったわけです。
多くのオブジェクトを管理する環境で使用する際の注意点として、vCSA 5.5 デプロイ時のデフォルトの仮想CPU数、メモリサイズ、仮想ディスクのサイズでは不足する場合がありますので、その場合は仮想メモリ、ディスクサイズ等を増やす必要があります。
管理対象オブジェクト数に対する vCSA 仮想マシンのサイジングのガイドにつきましては、「vCenter Server およびホスト管理ガイド」に記載されていますが、メモリサイズについては下記のとおりです。

VMのメモリサイズ
オブジェクト数
4GB以上 10ホストおよび100VM未満
8GB以上 10から100ホスト、または100-1000VM
16GB以上 100から400ホスト、または1000から4000VM
24GB以上 400ホスト以上、または4000VM以上 (外部DB使用時)

内蔵データベース上にこれらのオブジェクトの情報を格納する場合は、vCSA 仮想マシンに仮想ディスク(VMDK)を別途追加する必要がある場合があります。仮想ディスクの追加方法につきましては、下記ナレッジベースを参照ください。
Increase the disk space in vCenter Server Appliance (2056764) ” (英語)
http://kb.vmware.com/kb/2058187

内蔵データベースに情報を格納する場合は vCSA 仮想マシンのディスク使用量が徐々に増加していきますので、ディスクの残り容量が枯渇していないかどうか、定期的に監視することを強く推奨します。
vCSA 仮想マシンのディスク使用率は、vCSA の管理ウェブコンソール(https://<vCSAのFQDN>:5480)にて監視することが可能(vCenter Server タブ > Summary リンク: 右図参照)ですが、より利便性を高めるために、自動で監視しアラートを通知するためのガイドを提供しています。設定方法につきましては、下記のナレッジベースを参照ください。
Monitor vCenter Server Appliance database disk usage (2058187) ” (英語)
http://kb.vmware.com/kb/2058187

3. vCenter 用データベースのクラスターテクノロジーの正式サポート

vCenter 5.5(Windows 版および vCSA)にて Oracle などの外部データベースを使用する場合、それらのデータベースシステムで利用可能な高可用性テクノロジー(Oracle RAC など)を、 vCenter Server 用データベースとして正式サポートするようになりました。サポートするクラスターテクノロジーの製品名およびバージョン等につきましては、弊社ナレッジベースにて提供する予定です。

4. 旧バージョンからのアップグレード

vCenter 5.1 から vCenter のサービスは、Single Sign-On, Inventory Service, vCenter の3つのモジュールに分割され、それぞれ別のシステムにインストールすることが可能になっています。また Web Client を利用するためには、さらに Web Client Service をインストールする必要があります。
vCenter 5.1 以降では、vCenter をインストールする場合、Simple Install、Custom Installの二つの方法が利用可能です。前者は、SSO、Inventory Service、vCenter を同一システムに一括してインストールする方法です。後者はそれぞれのサービスを別々のシステムに個別にインストールする場合に使用します。
vCenter 5.5 でもSimple Install、Custom Installのそれぞれが利用可能ですが、vCenter の旧バージョンからアップグレードする場合は、それぞれのモジュールのインストール場所およびアップグレード順序についても考慮点があります。
特に注意しなければならないのは、アップグレード順序で、下記の順番でアップグレードする必要があります。

  1. SSO
  2. Web Client
  3. Inventory Service
  4. vCenter

アップグレード元 vCenter のバージョン、および個々のモジュールの配置場所により、アップグレードの方法が異なりますので、下図を参照下さい。

vCenter 5.5 へのアップグレードについては、弊社ナレッジベースに詳細がありますので、そちらを参照ください。
Upgrading to vCenter Server 5.5 best practices (2053132) ” (英語)
http://kb.vmware.com/kb/2053132

ネットワーク仮想化 – VXLAN の設定1

VXLAN の設定

VXLANの概要で、VXLANのメリットやコンポーネントについて、ご紹介しました。今回は、VXLANの設定について、ご紹介します。

構成例 1: シングル L2(1 VDS)構成

この例では、VXLAN を構成し、3階層システム (Webサーバ、アプリケーションサーバ、DBサーバ) を展開します。
それぞれのサーバの種類毎に論理的 L2 ネットワーク、つまり仮想のネットワークワイヤを作成し、かつ VXLAN の外のネットワークからアクセスを提供する vCloud Networking and Security の Edge ゲートウェイを設定します。

この構成に必要なコンポーネントは、次のとおりです。

  • 同じ vCenter の データセンタ内の 2 クラスタ
    • クラスタ毎に 2 ホスト
    • ホスト毎に 2 NIC (10GbE が望ましい)
  • 2 物理スイッチ
  • 1 VDS
  • 管理クラスタ
    • vCenter サーバ
    • vCloud Networking and Security Manager

各コンポーネントのインストールについては、それぞれの製品のインストール ガイドをご参照ください。

設定を解説する構成は、以下のとおりです。

図 1: コンポーネントと構成

VXLAN ベースのネットワーク仮想化を設定する前に、まず、2 クラスタを用意し、物理ネットワークに接続します。物理ネットワークインフラの設定の推奨は、以下のとおりです。

  • VXLAN トラフィックを転送するための 2 クラスタ間の 1 VLAN を設定します。1 VLAN で構成した場合は、物理スイッチ上のマルチキャスト ルーティング、つまり L3 経由のマルチキャストの転送を利用可能にする要件を、排除できます。
  • 物理スイッチ上で、IGMP スヌーピングと IGMP クエリア機能を設定します。

この構成では、VLAN 2000 を VXLAN トラフィックを転送する物理スイッチ上で設定しており、vMotion や 管理、NFS 等の vSphere の展開に一般的に使われるトラフィックは別の VLAN で構成しており、この図には記載しておりません。

図 2 は、vSphere Client からみた、データセンタ VXLAN-DC の 2 クラスタのインベントリの画面です。

図 2: ホストとクラスターの構成画面

図 3 は、VXLAN-VDS のネットワーク構成です。全 4 ホストがこの VDS の一部です。

図 3: ネットワーク画面

ステップ 1: VXLAN の準備

このステップでは、VXLAN の準備をします。設定に必要なパラメータは、下記の通りです。

  • VXLAN VIB を展開したい VDS の名前 – 例) VXLAN-VDS
  • VXLAN トラフィックを転送したい VLAN 番号 – 例) VLAN 2000
  • チーミングアルゴリズム – 例) なし。明示的なフェールオーバを使用
  • VXLAN を転送する VLAN 上での DHCP サービス – 例) なし

VXLAN を準備するために、まず、左のパネル上の VXLAN-DC データセンタを
選択し、次に図 4 のように、右のパネルの Network Virtualization をクリック
します。

図 4: Network Virtualization – vCloud Networking and security プラグイン

Network Virtualization で、VXLAN の設定を開始するために、Preparation
クリックします。

図 5: VXLAN Preparation

Edit をクリックします。

図 6: VXLAN 設定 – Connectivity

ポップアップ画面が開き、VXLAN ファブリックに参加するクラスタを選択する画面が開きます。事前に設定済の 2 つのクラスタがあり、図 7 のように見えます。

図 7: VXLAN 設定 – Connectivity – クラスタの選択

クラスタを選択し、両方のクラスタで使用する VDSと、VXLAN を転送する VLAN 2000 を入力します。この例では、VXLAN-VDS が両方のクラスタに渡って使われます。その後、Next をクリックします。

図 8: VXLAN 設定 – Connectivity – VDS の選択と VLAN 番号の入力

次に、VXLAN を転送するポートグループで使うチーミングの選択と MTU サイズを設定し、Finish をクリックします。この例では、チーミングなしの設定のため、Fail Over チーミングを選択し、MTU サイズはデフォルトの 1600 バイトです。

図 9: VXLAN 設定 – Connectivity – チーミングの選択と MTU の設定

vCloud Networking and Security Manager で、それぞれの vSphere ホストで VXLAN モジュールが利用可能になります。VTEP の準備の一部として、vmknic とポートグループが自動的に設定されます。図 10 は、VTEP 設定のプロセスが完成した後のステータスを表示しています。

図 10: VXLAN 設定 – Connectivity – 完了

図 11 は、vCloud Networking and Security Manager 経由でそれぞれのホストにインストールしたコンポーネントを表示しています。

図 11: 新しい展開 – 準備ステップ後のコンポーネント

ステップ 2: Virtual Tunnel Endpoint IP 設定

それぞれの VTEP の IP 設定は、VXLAN を転送する VLAN に DHCP サーバ が構成された環境では自動的に取得されます。この例では、DHCP サーバがないため、このステップで、手動での IP 設定について、説明します。

設定は、適切な仮想アダプタをそれぞれのホストを選択し、編集する必要があります。
図 12 のように、まずホストを選択し、仮想アダプタの管理をクリックします。

図 12: VTEP の手動設定 – vmknic プロパティの編集

図 13 のように、仮想アダプタの管理画面で、前の VXLAN 準備プロセス中に作成された vmknic のプロパティを編集します。

図 13: VTEP の手動設定 – vmknic プロパティの編集 (vmk1)

図 14 で、VLAN 2000 のサブネットの IP を設定します。

図 14: VTEP の手動設定 – IP アドレスの設定

図 15 は、クラスタ内の 4 つ全てのホストで、IP アドレスを手動で設定後、vCloud Networking and Security Manager から確認している画面です。
IP アドレスが正しいことを確認後、次のステップはセグメント ID とマルチキャスト IP アドレスを設定します。セグメント IDとは、VXLAN の論理ネットワークを構成するための識別子で、標準では、VXLAN Network Identifier(VNI)と呼ばれています。設定を開始するために、Segment ID をクリックします。

図 15: VTEP の手動設定 – 全てのホストで繰り返す – VXLAN vmknic の設定

ステップ 3: セグメント ID とマルチキャスト グループ アドレス レンジの設定

ネットワーク管理者に、この設定で利用するマルチキャスト グループ アドレス レンジを確認します。また、論理的に作成した L2 ネットワークの数を決めます。
例えば、2000 論理 L2 ネットワークなら、セグメント ID は 5000 から6999 を使用する、のように決めます。この例では、10 論理ネットワークを構成し、9001 から 9010 を使用します。まず、Edit をクリックします。

図 16: VXLAN セグメント ID 設定 – Edit

マルチキャスト アドレス フィールドには、セグメント ID を結びつけて使用するマルチキャスト アドレス レンジを入力します。セグメント ID とマルチキャスト グループ アドレスは 1 対 1 が推奨です。

図 17: VXLAN セグメント ID 設定 – プールとマルチキャスト グループ IP アドレス レンジ

ベスト プラクティスとして、VXLAN を展開する環境で使うマルチキャスト アドレス レンジを確認するネットワーク担当者との作業は重要です。マルチキャストに関する要点は、下記のとおりです。

  1. 224.0.0.1 から 224.0.0.255 のレンジは使用しないでください。Well-knownアドレスとして、ルーティング プロトコル等の利用に予約されています。
  2. 224.0.1.0 から 239.255.255.255 の以外の残りのレンジ、つまり 239.0.0.0 から239.255.255.255 は社内のみの VXLAN 展開に使うことができます。IP アドレスの 10.0.0.0/8 レンジのようなプライベート アドレスに相当するものです。グローバルなインターネット トラフィックに使用することができません。
  3. 管理 ドメイン間で共有する VXLAN ネットワークの展開には、232.0.0.0/8 (232.0.0.0 から 232.225.225.225) の送信元固有ブロックから付与する必要があります。

ステップ 4: VXLAN ネットワーク スコープの定義

ネットワーク スコープでは、論理ネットワークのレンジを定義します。この例では、VXLAN ベースの論理ネットワーク レンジが両方のサーバ クラスタの範囲で定義されます。図 18 の画面で Network Scopes を、新しいネットワーク スコープを定義するために、図 19 の画面で “+” アイコンをクリックします。

図 18: VXLAN ネットワーク スコープの定義 – ネットワークスコープ タブの選択

図 19: VXLAN ネットワーク スコープの定義 – 追加をクリック

ネットワーク スコープの名前を入力し、そのスコープの一部となる両方のクラスタを選択し、Ok をクリックします。

図 20: VXLAN ネットワーク スコープの定義 – スコープの定義とクラスタの選択

この設定ステップを通じて、ネットワークのスコープを拡張、縮小する選択が可能で、必要に応じて、ネットワークスコープにクラスタを追加したり、削除したりすることが可能です。

ステップ 5: 物理スイッチの設定

この例で、物理スイッチ上に必要とされる設定は次のとおりです。

  1. 両方のスイッチ上に VLAN 2000 を設定
    a. vSphere ホストが接続するスイッチのポートで VLAN 2000 がトランク設定されており、ネットワークインフラ上で VLAN 2000 が設定されていること
    b. スイッチ間のポートチャネル上で VLAN 2000 を転送できること
  2. IGMP snooping の設定
  3. VLAN 2000 上に IGMP クエリアを有効化
  4. MTU サイズを 1600 以上 に拡大。一般的に、スイッチ全体で MTU サイズを変更、もしくはポート毎に MTU サイズを変更する機器があります。使用する機器の設定ガイド等をご確認ください。

以下は、一般的に利用されるスイッチの設定例です。

スイッチ 1 の設定 ( 図 12 の左のスイッチ )

1) VXLAN VLAN の設定

switch (config) # interface vlan 2000
switch (config-if) # ip address 40.0.0.251 255.255.255.0
switch (config-if) # no shutdown
switch (config-if) # exit

2) IGMP snooping の設定

switch (config) # ip igmp snooping

3) IGMP querier の設定

switch (config) # interface vlan 2000
switch (config-if) # ip igmp snooping querier
switch (config-if) # exit

4) MTU の設定 (1 ポートのみの設定例)

switch (config) # interface gigabitEthernet 1/1
switch (config-if) # mtu 9216

スイッチ 2 の設定 ( 図 12 の右のスイッチ )

1) VXLAN VLAN の設定

switch (config) # interface vlan 2000
switch (config-if) # ip address 40.0.0.252 255.255.255.0
switch (config-if) # no shutdown
switch (config-if) # exit

2) IGMP snooping の設定

switch (config) # ip igmp snooping

3) IGMP querier の設定

switch (config) # interface vlan 2000
switch (config-if) # ip igmp snooping querier
switch (config-if) # exit

4) MTU の設定 (1 ポートのみの設定例)

switch (config) # interface gigabitEthernet 1/1
switch (config-if) # mtu 9216

物理スイッチの設定については、こちらも合わせて、ご参照ください。

ステップ 6: 論理 L2 ネットワークの構成 (消費)

VXLAN ファブリックを作成後、物理ネットワークと分離されている論理的 L2 ネットワークを構成 (消費) します。この例では、3 階層型アプリケーションの仮想マシン用の 3 つの別々の論理ネットワークを作成します。作成の順序は次のとおりです。

  1. 仮想ネットワークワイヤを作成
  2. 仮想ネットワークワイヤに仮想マシンを接続
  3. 仮想ネットワークワイヤ上の仮想マシンに IP アドレスを付与

新しい仮想ネットワークワイヤを作成するために、最初に図 21 の画面で Networks をクリックし図 22 の画面で “+” アイコンをクリックします。

図 21: VXLAN 仮想ネットワーク ワイヤ – Networks をクリック

図 22: VXLAN 仮想ネットワーク ワイヤ – 追加

図 23 の画面で、仮想ネットワーク ワイヤの名前を入力し、Ok をクリックします。すると、図 24 の画面のように、セグメント ID 9001 と、マルチキャスト グループ アドレス 239.0.0.1 が自動的にこの仮想ネットワークワイヤに関連づけられていることがわかります。

図 23: VXLAN 仮想ネットワーク ワイヤ – Web-vWire

図 24: VXLAN 仮想ネットワーク ワイヤ – Web-vWire がセグメント ID 9001 で作成

このステップを繰り返し、さらに 2 つ、アプリケーション サーバと DB サーバ用の仮想ネットワーク ワイヤを作成します。

図 25: VXLAN 仮想ネットワーク ワイヤ – Application-vWire と DB-vWire 作成

ステップ 7: 仮想ネットワーク ワイヤに仮想マシンを接続

現在、図 26 のように 3 つのサーバがあります。

図 26: 3 階層システム アプリケーションの展開

仮想マシンを仮想ネットワーク ワイヤに接続する方法は 2 つあります。

  1. vCloud Networking and Security Manager を使用
  2. 仮想マシンの設定の編集で、ポートグループを変更

オプション 1: vCloud Networking and Security Manager を使用

このオプションでは、仮想マシンが接続したい仮想ネットワーク ワイヤを選択します。

図 27: vCloud Networking and Security Manager – Web-vWire を選択

図 28: vCloud Networking and Security Manager – Virtual Machines の選択

+” アイコンをクリック後、仮想マシンの名前の一部を入れて検索し、対象の仮想マシンの仮想 NIC を選択し、Next をクリックします。

図 29: vCloud Networking and Security Manager – Add をクリックし、web サーバ仮想マシンを検索

図 30 の画面で、web サーバ仮想マシンの接続プロセスを完了します。

図 30: vCloud Networking and Security Manager – 仮想マシンが接続される

オプション 2: 仮想マシンの設定の編集で、ポートグループを変更

vCloud Networking and Security Manager の代わりに、ネットワーク アダプタの設定の編集で、仮想マシンの接続を変更します。

VXLAN 環境に構成されたそれぞれの仮想ネットワーク ワイヤは、VDS 上のポートグループに関連づけされています。図 31 に、3 つのポートグループ、つまり 3 つの仮想ネットワーク ワイヤ ( Web, Application, DB 用 ) が確認できます。

図 31: 仮想ネットワーク ワイヤとポートグループの関連づけ

ホストおよびクラスタ ビューで、アプリケーション サーバ (この例では、ap-1-k) の仮想マシンを選択し、設定の編集 をクリックします。

図 32: アプリケーション サーバ – 仮想マシン 設定の編集 – ポートグループの変更

仮想ネットワーク ワイヤに接続するネットワーク アダプタを選択し、ネットワーク ラベルのドロップダウン メニューから、Application-vWire ポートグループを選択し、OK をクリックして保存します。

図 33: 仮想マシン 設定の編集 – Application-vWire に再マッピング

同様に、オプション 1 か 2 の方法で、DB サーバも DB-vWire 仮想ネットワーク ワイヤに接続します。

図 34 のように、3 つの仮想ネットワーク ワイヤに 3 階層システムアプリケーションが構成された状態になります。

図 34: 新しい展開 – 仮想ネットワークワイヤ上の 3 階層システムアプリケーション

ステップ 8: 仮想ネットワーク ワイヤ上の仮想マシンに IP アドレスを付与

仮想マシンにIPアドレスを手動で付与する、もしくは vCloud Networking and Security Edge ゲートウェイの DHCP サーバを使用して自動的に付与する、のどちらかを選択することができます。この例では、3 つの仮想ネットワークワイヤに次のサブネットを付与し、仮想マシンにはそれぞれのサブネットから IP アドレスを手動で設定します。

  1. Web-vWire – 192.168.10.0/24
  2. Application-vWire – 192.168.20.0/24
  3. DB-vWire – 192.168.30.0/24

仮想ネットワークワイヤに接続される 3 つの仮想マシンは、お互いに分離されています。アプリケーションのそれぞれの層の間で通信を提供するため、または VXLAN の外のネットワークと通信するために、vCloud Networking and Security Edge ゲートウェイを展開する必要があります。その設定については、次回、ご紹介します。

※このブログでは、vCloud Networking and Security 5.1 と、vCenter Server 5.1 Update 1および vSphere 5.1 Update 1を元に作成しました。それぞれの 5.5 リリースの場合も大きな変更はない予定です ( 2013 年 8 月 29 日現在 )。

 

VMware vCloud Director 5.5 – 新機能紹介

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、VMware vCloud Director 5.5で追加された主な新機能についてご紹介します。

vCloud Director 5.5では、大きく以下の3つのカテゴリについて機能向上及び追加がなされています。

■カタログ機能

  • 共有カタログに対する組織単位でのアクセス制限
  • 複数のvCloud Directorインスタンス間でのカタログの公開/購読
  • カタログ内のコンテンツに対する自動バージョン付け
  • 任意のファイル形式のサポート

vAppの展開及びライフサイクル管理

  • テンプレートからのvAppの展開時における仮想マシンハードウェア設定の編集
  • vAppテンプレートレベルでのゲストOSのカスタマイズ設定の編集(※)
  • 実行中の仮想マシンにおける仮想NICの追加、取り外し、接続及び切断(ホットアド/リムーブ)
  • 実行中/サスペンド中のvApp/仮想マシンのメモリ状態を含むクローンの作成
  • vAppの(カタログを介さない)直接展開及びエクスポート
  • OVAファイル形式のサポート

追加サポート

  • vCloud DirectorセルのオペレーティングシステムとしてCentOSのサポート
  • Google Chrome Webブラウザのサポート
  • Mac OS Xにおける仮想マシンコンソールアクセスのサポート

※注意事項:

「vAppテンプレートレベルでゲストOSのカスタマイズ設定を編集できる」機能は、本ブログ執筆時点では急遽リリース見送りになっています。この決定は各種デモやホワイトペーパーの作成後になされたとのことで、所々で言及されているケースがあります。この機能のご利用を検討されていた場合は、vCloud Director 5.5ではリリースされない予定ですのでご注意下さい。
詳しくは、以下のブログエントリの内容もご確認下さい。

A Summary of What’s New in vCloud Director 5.5
http://blogs.vmware.com/vsphere/2013/09/a-summary-of-whats-new-in-vcloud-director-5-5.html

また、前バージョンと同様にvCloud Directorセルの仮想アプライアンス(SLES 11 SP2ベース)も提供されますが、vCloud Director 5.5においてもPoC/評価目的限定での使用を想定しております。本番環境での使用はサポートされません。

■カタログ機能の向上

1. 共有カタログに対する組織単位でのアクセス制限

組織間でのカタログ共有機能は以前から存在していましたが、これまでは「すべての組織に発行(shared)」か「その他の組織にこのカタログを発行しない(nonshared)」のいずれかを選択することしかできませんでした。vCloud Director 5.5では、ユーザがカタログを共有する「特定の組織」を明示的に選択することが可能になり、よりきめ細やかなアクセス制御を行うことができます。なお、vCloud Director 5.1では組織間でのカタログ共有を「公開」タブで指定していましたが、5.5では「公開」は次節で説明する複数vCloud Directorインスタンスを跨いだ組織間でのカタログ公開/購読(外部公開)の意味となり、共有する組織の指定はメンバーの追加と合せて「共有」指定の一部となっています。

共有カタログに対する組織単位でのアクセス制限

2. 複数のvCloud Directorインスタンス間でのカタログの公開/購読

vCloud Director 5.1以前のバージョンでは、複数のサイト(異なるvCloud Directorインスタンス)で同じ内容のコンテンツを利用したい場合、サイト毎にカタログを管理する必要があり、運用管理にコストがかかっていました。vCloud Director 5.5では、あるvCloud Directorインスタンスのカタログを外部に「公開」し、利用者側で公開されたカタログを「購読」することで、vCloud間でコンテンツを共有することが可能になりました。この公開/購読機能を利用することで、同一のvAppテンプレートやメディアファイルの運用管理が非常に簡素化されます。

カタログの公開/購読

カタログの公開側では「サブスクリプションURL」を生成し、オプションでパスワードによる保護が可能です。一方購読側では、カタログの新規作成時に外部カタログへのサブスクライブを選択し、購読対象のURLとパスワードを(オプションで)指定します。カタログのコンテンツはデフォルトでは購読時に完全同期し、以降はカタログの更新に合せて自動的に同期します。この動作は変更可能で、購読時にはカタログのメタデータのみを取得し、オンデマンドで同期させることもできます(大規模なカタログを購読する場合に特に有効)。

カタログの公開/購読(2)

また、サイト間のコンテンツのレプリケーションは、デフォルトではVMware独自プロトコルであるhttpsベースのVCSP(VMware Content Subscription Protocol)により実行されます。カタログの公開側では、同期対象のコンテンツをスプール領域に事前エクスポート(キャッシング)することで、同期処理が高速化されます。さらに、スプール領域のコンテンツに対して、VCSPの代わりにサードパーティ製レプリケーションツールを使用することも可能です。

3. カタログ内のコンテンツに対する自動バージョン付け

vCloud Director 5.5では、vAppテンプレートやメディアファイルを含むカタログ上のすべてのコンテンツに対する、シンプルな自動バージョン付け機能が追加されています。バージョン番号は、コンテンツをカタログに追加する際に割り当てられ、更新される度に自動的に加算されます。この機能により、これまでのようなファイルの命名規則ベースの煩雑な方法に代わるシンプルなバージョン管理が可能になります。

コンテンツの」自動バージョン付け

なお、更新の際にはコンテンツが旧バージョンから新バージョンに置き換わりますが、例えば変更履歴や更新者履歴などの(変更監査のための)情報は保持されません。

4. 任意のファイル形式のサポート

これまでのバージョンでは、vAppテンプレート(OVF)及び仮想マシンへのマウントを目的としたメディア(ISO、フロッピーイメージ)のみがアップロード可能でした。vCloud Director 5.5では、カタログが任意のファイル形式をサポートするようになりました。この機能により、例えばログファイルやWord文書、vCenter Orchestratorのワークフローなど、組織間やvCloud Directorインスタンス間での様々なタイプのファイル共有が容易になります。

任意のファイル形式のサポート

vAppの展開及びライフサイクル管理

1. テンプレートからのvAppの展開時における仮想マシンハードウェア設定の編集

vCloud Director 5.5では、カタログからvAppテンプレートを選択して新しいvAppを展開するタイミングで、仮想マシンハードウェア設定(CPU、メモリ及びハードディスク)をカスタマイズできるようになっています。これまでは、構成毎にvAppテンプレートを用意しておく(もしくは一旦展開した後に個別の仮想マシンに対するプロパティを編集する)必要があり、ストレージ容量やテンプレート管理のコスト、あるいは展開時の手間がかかっていました。この機能により、1つのテンプレートでの複数vApp構成への対応や、操作が簡単になります。なお、展開時に設定を変更した場合も、元のvAppテンプレートの設定情報は保持されます。

vApp展開時の仮想マシンハードウェア設定の編集

なお余談ですが、vCloud Director 5.5ではCPU数の設定でソケット及びソケットあたりのコア数の指定も可能になっています。

2. 実行中の仮想マシンにおける仮想NICの追加、取り外し、接続及び切断(ホットアド/リムーブ)

実行中の仮想マシンに対してハードディスクを追加、取り外し及び拡張する機能はvCloud Director 5.1で導入されましたが、vCloud Director 5.5では仮想NICのホットアド/リムーブ及び接続/切断の機能が追加されました。これによって、仮想NICの構成変更の際に仮想マシンをシャットダウンする必要が無くなり、ダウンタイムが短縮されます。

仮想NICのホットアド/リムーブ

制限事項として、実行中の仮想マシンのプライマリNICに対しては、削除やネットワーク・IPモードの変更操作を実行することはできません。また、スナップショットを含む仮想マシンに関しては、NIC構成の変更自体が不可となります。

スナップショットを含む仮想マシンのNIC構成

3. 実行中/サスペンド中のvApp/仮想マシンのメモリ状態を含むクローンの作成

vCloud Director 5.1までは、実行中の仮想マシンのメモリ状態を含んだスナップショットの作成のみが可能でした。実行中やサスペンド中の仮想マシン群をメモリ状態も含めてクローンしたり、テンプレートとしてカタログに登録する機能は、特にアプリケーション開発やテスト、トラブルシューティング環境において求められてきましたが、vCloud Director 5.5で実装されています。

メモリ状態を含むクローンの作成

なお、この機能を利用するためにはvCenter Server 5.5が必要となります。また、カタログからのエクスポートやvCenter Serverインスタンス間でコピーされる場合にはメモリ状態が失われます。

4. vAppの(カタログを介さない)直接展開及びエクスポート

これまで、vCloud Director環境上にvAppを展開する際には、事前にvAppテンプレートをカタログに登録しておく必要がありました。vCloud Director 5.5では、カタログを介すことなくOVFパッケージから直接インポートして展開することが可能になりました。これにより、ストレージ容量やvApp展開までの時間が削減できます。

vAppの直接展開

また、vAppをOVFまたはOVA(単一)ファイルとしてローカルに直接ダウンロード(エクスポート)することも可能になっています。

vAppのダウンロード

5. OVAファイル形式のサポート

vCloud Director 5.5では、これまでのOVF形式のファイルに加えて最近使用するケースが増えつつあるOVA(単一)ファイル形式にも対応しています。

OVAファイル形式のサポート

追加サポート

最後に、vCloud Director 5.5で新たに追加された主なサポート項目についてご紹介します。

1. vCloud DirectorセルのオペレーティングシステムとしてCentOSのサポート

vCloud Directorセルを構築する際には、これまでは商用OSであるRed Hat Enterprise Linux(RHEL)のみがサポートされていました。vCloud Director 5.5では、これに加えてCentOS(V.6.1 – 6.4)がサポート対象として追加され、vCloud Director導入の際のコスト的な敷居が下がっています。

2. Google Chrome Webブラウザのサポート

これまでサポートされていたIE、Firefoxに加えて、Google Chromeブラウザのサポートが追加されています。

3. Mac OS Xにおける仮想マシンコンソールアクセスのサポート

これまで、Mac OS XではvCloud Directorの仮想マシンコンソールがサポートされておらず、Macユーザにとって不便な環境でした(WindowsやLinux環境を別途用意する必要があるなど)。vCloud Director 5.5では、Mac OS X上で利用可能なFirefoxおよびGoogle ChromeがHTML5ベースの仮想マシンコンソールをサポートしたことで、Macユーザに対するvCloud環境の利便性が高まっています。

なお、HTML5ベースの新しい仮想マシンコンソールの実装は、Mac OSのみで使用されます。Windows及びLinux環境では、従来どおりのVMRC(VMware Remote Console)プラグインが有効になります。また注意事項として、HTML5ベースの実装ではVMRCに比べて以下の機能制限があります。

  • デバイスのサポートなし(コンソールからのCD-ROMのマウント/アンマウント不可)
  • クリップボードのサポートなし(コンソールとの間でのコピー&ペースト不可)
  • コンソール上で自動的にマウスをつかむ/リリースする機能のサポートなし

まとめ

vCloud Director 5.5では、使いやすさ、機能性及び管理性の面で、大きく以下の3つのカテゴリについていくつかの重要な機能追加と向上がなされています。

  • カタログ機能
  • vAppの展開及びライフサイクル管理
  • 追加サポート

また、以下のホワイトペーパーも是非ご参照頂ければと思います。

What’s New with VMware vCloud Director 5.5
http://www.vmware.com/files/pdf/products/vCloud/Whats-New-VMware-vCloud-Director-55-Technical-Whitepaper.pdf

VMware vSphere 5.5 AppHAについて

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、VMware vSphere 5.5のAppHAの機能を紹介します。

VMware vSphere 5.5より、ゲストOS内で稼働するアプリケーションの状態監視を行えるようになりした。

監視対象アプリケーションのサービスが停止した際、「サービスの再起動」または「仮想マシンのリセット」が実行されます。また、同時にvCenterへのアラート通知と管理者へのメール通知を行うことも可能です。

従来、VMware vSphere HAではアプリケーションの監視を有効にするには、適切な SDK を入手し、これを使用して監視対象となるアプリケーションのハートビートの開発/設定する必要がありました。AppHAでは、特別な開発を必要とせず、仮想マシン内で稼働するサービスに対しての保護が可能となります。

AppHAは従来のvSphere HA機能と連携して、ホスト障害から仮想マシン内で稼働するアプリケーションの保護まで可能となりました。



 

 

 

現行バージョンで監視対象と出来る、アプリケーションは下記となります。
※ 2013/9/25追記:アプリーショーンの最新のサポート状況に関しては弊社マニュアルを参照ください。

  • Microsoft SQL Server2005
  • Microsoft SQL Server2008
  • Microsoft SQL Server2008R2
  • Microsoft SQL Server2012
  • Microsoft Internet Information Services6
  • Microsoft Internet Information Services7
  • Microsoft Internet Information Services8
  • VMware vFabric tc Server6
  • VMware vFabric tc Server7
  • Apache Tomcat6
  • Apache Tomcat7
  • Apache HTTP Server1.3
  • Apache HTTP Server2.0
  • Apache HTTP Server2.2

 1.稼働コンポーネントについて

AppHAを設定するには、下記のコンポーネントの導入が必要となります。

各コンポーネントの稼働要件については、弊社ドキュメントでご確認ください。

1.vCenterサーバ

2.AppHAサーバ(仮想アプライアンス)

3.vFabric Hyperic Server(仮想アプライアンス)

4.vFabric Hyperic Agent(監視対象となる仮想マシン内で稼働)

2.AppHAの設定について

仮想マシン内で稼働する、アプリケーションの監視方法はすべて、ユーザーが事前に定義するポリシーにより決定されます。

AppHAを利用して、監視対象アプリケーションの登録方法とポリシー設定について紹介します。

AppHAは、vFablic Hyperic Serverと連携して稼働するため、AppHAのデプロイ後、vFabric HQ Serverと監視対象となる仮想マシンにvFabric Hyperic Agentの登録が必要となります。vFablic Hyperic ServerとvFabric Hyperic Agentの導入方法については、マニュアルを参照ください。

1.AppHAの初期設定として、AppHA Plug-InよりvFablic Hyperic Serverの接続情報を指定します。

2.監視ポリシーを追加します。

3.ポリシー名とコメントを設定します。

4.監視対象となるサービスの種類を選択します。

5.監視対象のサービスが停止した場合の対処方法について設定をします。

6.vCenter Serverに対してアラートの設定とメール通知の設定をします。

7.すべての設定が完了後、仮想マシン内で稼働するサービスに対して作成したポリシーを割り当てます。

また事前に、vFabric Hyperic ServerにvCenterの登録をしておく必要がありますので、登録をしていない場合、名前を「VC」としてNew Server登録を行ってください。

設定の詳細に関してはマニュアル「Fabric Hyperic Resource Configuration and Metrics」の「vSphere」の章を参照ください。

8.設定が完了して、ステータスが「Available」となると監視が開始されます。

なお、VMware vSphere HAの設定は「仮想マシンとアプリケーションの監視」で設定する必要があります。

まとめ

仮想環境において仮想マシン内で稼働するアプリケーションの監視が容易に行えるようになりましたので、是非 ご利用ください。

vSphere 5.5 の新機能紹介 ネットワーク2 (トラフィックのフィルタリングとマーキング)

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上ご利用下さい。

今回は先日発表されましたVMware vSphere 5.5 で追加されたネットワークの新機能のなかから、トラフィックのフィルタリングとマーキングの概要をご紹介します。vSphere 5.5 では、分散仮想スイッチ(vDS)のポートグループレベルでトラフィックのフィルタリングとマーキング機能を実装します。フィルタリング機能は、物理スイッチのアクセスコントロールリスト(ACL)に相当するものとなり、パケットヘッダに基づいてトラフィックをコントロールしセキュリティを確保します。マーキング機能は、重要なトラフィックにタグ付けを行い、付与されたタグをもとに物理ネットワーク上でトラフィックを優先制御することで、End-to-End でサービス品質を確保します。

 

■特徴
・分散仮想スイッチ(vDS)のポートグループ単位で設定を行います。
・対象となるトラフィックを、MACアドレス、IPアドレス/プロトコルタイプ/ポート番号 、システムトラフィックから指定します。
・入力または出力、あるいはその両方をフィルタリング対象として選択します。
・マーキングでは、Differentiated Service Code Point (DSCP)、及び802.1p Class of Service (CoS)で定義されたタグを付与できます。
・仮想マシンにより近いポイントとなる分散仮想スイッチでフィルタリング及びマーキングを行うことで、End-to-End でのセキュリティとサービス品質を確保します。


なお、VXLAN 環境で付与されたDSCP タグは、オリジナルのIPヘッダからVXLAN でカプセル化した際に付加されるIPヘッダにコピーされるため、物理ネットワーク上でタグを認識し優先制御を実施することが可能です。


下記のキャプチャから、両方のIPヘッダ内にDSCP タグがセットされていることが確認できます。


■設定
「ネットワーク」で適用する「ポートグループ」を選択し、「管理」-「設定」-「ポリシー」画面で、「編集」を選択します。ポートグループの設定画面で、「トラフィックのフィルタリングとマーキング」を選択します。ステータスを有効にし、ルールを追加します。


フィルタリングを実施する場合は、「許可」もしくは「ドロップ」を選択します。マーキングを行う場合は、「タグ」を選択します。


タグを選択した場合、CoS もしくは、DSCP の値をセットします。


フィルタリングもしくはマーキングの対象となるトラフィックを指定します。


システムトラフィック、MACアドレス、IPアドレスの詳細を定義します。システムトラフィックでは、あらかじめ定義されたトラフィックを選択します。


以上、vSphere 5.5 のトラフィックのフィルタリングとマーキングの概要をご紹介いたしました。

vSphere 5.5 の新機能紹介 ネットワーク1 (ホストレベルのパケットキャプチャ)

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上ご利用下さい。

今回は先日発表されましたVMware vSphere 5.5 で追加されたネットワークの新機能のなかから、ホストレベルのパケットキャプチャの概要をご紹介します。vSphere 5.5 では、ホストレベルのパケットキャプチャ機能を新たに実装します。この機能によりトラブルシューティング時に必要となるパケットキャプチャにより詳細なオプションが提供されます。

 

■特徴
・ESXi ホスト上で、CLI からpktcap-uw コマンドでパケットキャプチャを実施します。vSphere Client、Web Client からは使用できません。
・標準仮想スイッチ(vSS) 及び分散仮想スイッチ(vDS)上のトラフィックをキャプチャすることが可能です。
・Uplink, 仮想スイッチポート, vmk NIC で発生するトラフィックに対し、キャプチャするポイントを指定することが可能です。

 

■オペレーション
・ヘルプを表示
# pktcap-uw –help

・各種オプション
-p, –port <Socket PORT>  Specify the port number of vsocket server.
-o, –outfile <FILE>  Specify the file name to dump the packets. If unset, output to console by default
-P, –ng (only working with ‘-o’) Using the pcapng format to dump into the file.
–console (by default if without ‘-o’) Output the captured packet info to console.
-s, –snaplen <length> Only capture the first <length> packet buffer.
-c, –count <NUMBER> How many count packets to capture.
-h Print this help.
-A, –availpoints List all capture points supported.
-F List all dynamic capture point functions supported.
–capture <capture point> Specify the capture point. Use ‘-A’ to get the list. If not specified, will select the capture point by –dir and –stage setting

・ポートオプション
–switchport <port ID> (Specify the switch port by ID)
–lifID <lif ID> (Specify the logical interface id of VDR port)
–vmk <vmk NIC> (Specify the switch port by vmk NIC)
–uplink <vmnic> (Specify the switch port by vmnic)

–switchportを使用する場合、esxtopの n オプションで対象のポートIDを確認します。


・キャプチャポイント
pktcap-uw –A コマンドで、サポートされるキャプチャポイントを表示します。キャプチャポイントは、–capture で指定することができます。キャプチャポイントの中にはポートオプションの指定やキャプチャポイントオプションの指定が必須のものがあります。なお、Dropを指定することで、ESXi でドロップしたパケットを収集することが可能です。
# pktcap-uw -A
Supported capture points:
1: Dynamic — The dynamic inserted runtime capture point.
2: UplinkRcv — The function that receives packets from uplink dev
3: UplinkSnd — Function to Tx packets on uplink
4: Vmxnet3Tx — Function in vnic backend to Tx packets from guest
5: Vmxnet3Rx — Function in vnic backend to Rx packets to guest
6: PortInput — Port_Input function of any given port
7: IOChain — The virtual switch port iochain capture point.
8: EtherswitchDispath — Function that receives packets for switch
9: EtherswitchOutput — Function that sends out packets, from switch
10: PortOutput — Port_Output function of any given port
11: TcpipDispatch — Tcpip Dispatch function
12: PreDVFilter — The DVFIlter capture point
13: PostDVFilter — The DVFilter capture point
14: Drop — Dropped Packets capture point
15: VdrRxLeaf — The Leaf Rx IOChain for VDR
16: VdrTxLeaf — The Leaf Tx IOChain for VDR
17: VdrRxTerminal — Terminal Rx IOChain for VDR
18: VdrTxTerminal — Terminal Tx IOChain for VDR
19: PktFree — Packets freeing point

・キャプチャポイントオプション
Dynamic, IOChain, TcpipDispatch といったキャプチャポイントでは、パラメータを追加し対象を指定します。
-f [module name.]<function name> The function name. The Default module name is ‘vmkernel’. (for ‘Dynamic’, ‘IOChain’ and ‘TcpipDispatch’ capture points)
–dvfilter <filter name> Specify the dvfilter name for DVFilter related points

・キャプチャポイントの簡易選択
–capture でキャプチャポイントを指定しない場合、トラフィックの方向(送信もしくは受信)を–dirで指定し、キャプチャするポイントを–stage で指定することができます。これらのオプションは、–switchport, –vmk, –uplink といったポートオプションと合わせて使用します。なお1つのモニタセッションで、送受信両方向のトラフィックの取得はできません。
–dir <0|1> (for –switchport, –vmk, –uplink) The direction of flow: 0- Rx (Default), 1- Tx
–stage <0|1> (for –switchport, –vmk, –uplink, –dvfilter) The stage at which to capture: 0- Pre: before, 1- Post:After

–dir で指定する際、トラフィックは仮想スイッチを基点とした方向となります。そのため–dir 1 でTx(送信)を指定した場合でも、ポートオプションによってキャプチャできる通信の方向が異なります。例えばポートオプションで、–uplink を指定した場合はホストの外部に向かって出て行くトラフィックとなり、–switchport 及び–vmk を指定した場合は、外部から入ってくるトラフィックをキャプチャすることになります。



・フィルターオプション
フィルターを適用することで特定のトラフィックを収集できます。
–srcmac <xx:xx:xx:xx:xx> (The Ethernet source MAC address)
–dstmac <xx:xx:xx:xx:xx> (The Ethernet destination MAC address)
–mac <xx:xx:xx:xx:xx> (The Ethernet MAC address(src or dst))
–ethtype 0x<ETHTYPE> (The Ethernet type. HEX format)
–vlan <VLANID> (The Ethernet VLAN ID)
–srcip <x.x.x.x[/<range>]> (The source IP address)
–dstip <x.x.x.x[/<range>]> (The destination IP address)
–ip <x.x.x.x> (The IP address(src or dst))
–proto 0x<IPPROTYPE> (The IP protocol)
–srcport <SRCPORT> (The TCP source port)
–dstport <DSTPORT> (The TCP destination port)
–tcpport <PORT> (The TCP port(src or dst))
–vxlan <vxlan id> (The vxlan id of flow)

 

■実行例
それぞれ、vmk NIC、仮想スイッチのポート、Uplink で取得する例を以下に記載します。

1. vmk NICで取得
vmk1 から外部に送信(仮想スイッチから見ると受信)する60個のパケットをキャプチャしファイルに保存する例
# pktcap-uw –vmk vmk1 –dir 0 -c 60 -o test01.pcap

2. 仮想スイッチのポートで取得
仮想スイッチのポートで受信する宛先172.16.161.234のパケットをキャプチャしファイルに保存する例(Port ID XXXXXXXX は、esxtop のn オプションで確認を行います)
# pktcap-uw –switchport XXXXXXXX –dir 0 –dstip 172.16.161.234 -o test02.pcap

3. Uplink で取得
vmnic1 から外部に送信するVXLAN カプセル化前のパケットをキャプチャしファイルに保存する例
# pktcap-uw –uplink vmnic1 –dir 1 –stage 0 -o test03.pcap

4. Uplink で取得
vmnic1 から外部に送信するVXLAN カプセル化後のパケットをキャプチャしファイルに保存する例
# pktcap-uw –uplink vmnic1 –dir 1 –stage 1 -o test04.pcap

 

■キャプチャしたパケットの確認
キャプチャしたパケットをローカルにダウンロードし、WireShark 等のネットワークプロトコルアナライザで中身の確認を行うことができます。SCP 等でESXi からキャプチャしたファイルをダウンロードします。


ダウンロードしたファイルをWireShark で開きます。下記のケースでは、実行例3(Uplink で取得)でキャプチャしたICMP パケットが確認できます。


下記のケースでは、実行例4(Uplink で取得)でキャプチャした、VXLAN でカプセル化されたパケットが確認できます。VXLAN でカプセル化されたパケットの中身を確認する際は、WireShark で「Decode As」を選択し、UDP Destination port 8472 をVXLAN でデコードします。(vSphere 5.5 のVXLAN 実装では、デフォルトでUDP port 8472 を使用します)


VXLAN ヘッダーを認識し、カプセル化されたオリジナルのパケット(ICMP)を確認できるようになります。


以上、vSphere 5.5 のホストレベルのパケットキャプチャの概要をご紹介いたしました。

vSphere 5.5 の新機能紹介 vSphere Replication (VR)

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、vSphere のバージョン5.1 より導入されているvSphere Replication に焦点を当て、先日発表されましたバージョン5.5 で追加された新機能・特徴の概要をご紹介します。(vSphere 5.0 では、vCenter Site Recovery Manager 5.0 を使用することでvSphere Replication の機能を利用可能でした。)

バージョン5.5 で追加されたvSphere Replication の主な新機能は以下となります。

1. レプリケーション先は、vCenter Server 1 台あたり最大10 か所
2. 複数の復帰ポイントの保持可能
3. Storage DRS との互換性

それぞれの機能について見ていきましょう。

1. レプリケーション先は、vCenter Server 1 台あたり最大10 か所
vSphere Replication では、レプリケーション先を複数登録することが可能です。
例えば、Site A の仮想マシン1 は、Site B へレプリケーションし、 Site A の仮想マシン2 は、Site C へレプリケーションをすることが可能です。(fan-out)
本バージョンでは、Site B やC のようなレプリケーション先のサイトを最大10か所登録することが可能になっております。
さらに、Site B の仮想マシン3 をSite A へレプリケーションし、Site C の仮想マシン4 をSite A へレプリケーションするような構成をとっていただくことも可能です。(fan-in)
これにより図1 のような柔軟な構成をとっていただくことが可能になります。

 

図1. vSphere Replication のトポロジー
2. 複数の復帰ポイントの保持可能
vSphere 5.1 で導入されたvSphere Replication では最新のレプリケーションが完了すると過去のレプリケーションは上書きされてしまうため、復帰可能なポイントは1 つしかありませんでした。レプリケーション元の仮想マシンが論理障害やウィルス感染してしまい、タイミングによっては、その状態がレプリケーションされてしまうことも想定されるため、復帰可能なポイントは複数あることが望まれます。それによりリカバリ時間を早めることが可能になります。
本バージョンでは、レプリケーション先に最大24 の復帰ポイントを保持することが可能になりました。

設定は、レプリケーションの構成ウィザード内の ”特定の時点のインスタンス” という項目で可能になりますが、この項目はWeb Client でのみ表示されます。Site Recovery Manager を導入している環境であっても、 vSphere Client では表示されませんので、ご注意ください。(図2)

 

図2. Web Client を使用したvSphere Replication の構成ウィザード画面
Web Client では、過去レプリケーションされた保持されている復帰ポイントを確認できます。(図3)

 

図3. Web Client を使用したvSphere Replication 監視画面
リカバリが完了した仮想マシンで、”スナップショットの管理”を確認すると、保持されている復帰ポイントがスナップショットとして表示されます。(図4)この時点では、最新のレプリケーションが完了した時点にリカバリしているので、希望する復帰ポイントを指定して、その時点に戻します。

 

図4. 仮想マシンのスナップショット管理画面
3. Storage DRS との互換性
vSphere 5.1 までは、Storage vMotion 実施後、前回のレプリケーションからの更新情報が維持されず、Storage vMotion 実施後の最初の同期が完全同期になっておりました。
(この時の完全同期は、すべてのデータが送られるのではなく、ソースとターゲットディスクの比較検証が実行されるため、レプリケーション完了まで時間が掛かっておりました。)
そのような理由から、vSphere Replication で保護している仮想マシンは、Storage vMotion をサポートしておらず、Storage DRS との互換性がありませんでした。

本バージョンより、Storage vMotion がサポートされ、Storage DRS との互換性を持ちますので、vSphere Replication 導入した環境におけるストレージの集約率向上及び、メンテナンス性の向上を図ることが可能になります。

図5 の画面はStorage DRS を有効にしているデータストアクラスタにて、あるデータストアをメンテナンスモードへ切り替えを実施した際に表示される移行の推奨画面になります。
移行の推奨の対象と表示された仮想マシン(w2k8r2-srm2)は、vSphere Replication 構成済みの仮想マシンになります。
vSphere 5.5 では、Storage DRS との互換性を持ちますので、推奨の適用を実施します。

 

図5. Storage DRS メンテナンスモード移行による推奨
データストア移行直後の仮想マシン(w2k8r2-srm2)を手動で同期させた際の結果が以下の画面になります。Storage vMotion が実行された後も更新情報を維持できているため、レプリケーション間での更新が少なければ、非常に短い所要時間でレプリケーションが完了していることが確認できます。(図6)

 

図6. Web Client を使用したvSphere Replication 監視画面
次回は、vSphere 5.5 で追加されたネットワークの新機能・特徴をご紹介いたします。

vSphere 5.5 の新機能紹介 vSphere Flash Read Cache (vFRC)

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、vSphere 5.5の新機能である、vSphere Flash Read Cacheをご紹介します。

NAND型のフラッシュメモリを利用した高速なストレージデバイスであるSSDは、既にコンシューマー用途からデータセンター用途まで幅広く利用されています。既存のvSphere5.1では、以下の2つの用途でSSDを利用することが可能でした。

1. 通常のデータストアやRDM (主に仮想マシンファイルを配置)
2. ESXホストのvmkernel swap領域 (ホストメモリ不足の際の待避場所として利用)

一言にSSDと言ってもSANやNAS、iSCSI等のリモートストレージに搭載されたSSDと、個々のServerに搭載されたLocal SSD がありますが、前者は1の目的で利用され、後者は共有ストレージとしての利用が難しいことから主に2の目的で利用されてきました。

vSphere5.5ではこの2つに加え、個々のServerに搭載されたLocal SSDを、仮想マシンのRead Cacheとして利用することが出来るようになります。これが、今回ご紹介するvSphere Flash Read Cache (vFRC)です。これまで限定されていたServer本体に搭載されたSSDの利用が、vSphere5.5からは仮想マシンのパフォーマンス向上のため、より簡単に利用できるようになります。

vFRC概要

vFRCは、仮想ディスク(VMDKファイル)のリードキャッシュとして、Localサーバに搭載したSSDを利用する仕組みを提供します。この機能を利用することにより、下記2つの効果が期待できます。

・仮想ディスクの読み込み速度の向上
・vmdkファイルが配置されたストレージ負荷の軽減

この機能を提供するため、ESXiホストは、自身に搭載されたSSD上にvFlash File System (VFFS)を作成します。このVFFSは仮想マシンへのキャッシュアクセスを提供する専用のDiskリソースで、通常のVMFS領域と異なりデータストアとしては見えません。VFFSが構成されたESXiホスト上の仮想マシンはvFRCの利用が可能となります。

vFRCの特徴

・Localサーバに搭載されたSSDを利用(リモートSSDは利用不可)
・仮想ディスクに対するリードキャッシュ、ライトスルーキャッシュとして機能
・ESXi 5.5以降及び、仮想マシンバージョン 10 以降が必要
・操作はvSphere Web Client でのみ可能(従来のc# 版での操作は不可)
・ホストに搭載したLocalのSSDのみ利用可能
指定可能なデバイスは最大8台
デバイス 1台の最大容量は4TB
ホストあたり最大32TB (4TB x 8台)*
・VFFSに指定したデバイスは、VMFS領域やvSAN領域として利用することは出来ない
・VFFSはホスト毎に1個作成される
・仮想Disk毎にvFRC利用の有無と容量の設定が可能(初期設定はDisable)
ブロックサイズは4KB~1024KBで設定が可能
・各仮想マシンに設定されたvFRC領域はパワーオン時にVFFS領域に対して予約される(VFFS領域のオーバーコミットは不可)
VFFSの容量が足りないと仮想マシンのパワーオンが出来ない
・VFFS はホスト固有であり、ホスト間でのシェアはされない
vMotion時、vFRC領域の同時移行も可能(破棄することも可能)
・vFRCをEnableに設定した仮想マシンは、vFRCがEnable化されたホストでのみ稼働可能
vFRC がDisableとなっているホストへのvMotionやHAは不可
・DRSのリソース管理においてはvFRCのアンバランスは考慮されない
・vFRC設定をされた仮想マシンは、DRSではホストとのSoft Affinity設定(可能な限り移行しない)となる

*ホストあたり管理可能なフラッシュの最大量です。うちvFRCで利用可能な領域は最大2TBとなります。
最新の情報は、構成の上限をご確認下さい。

vFRCの設定方法

vFRCの設定は極めて簡単です。ホスト側にVFFSを定義し、仮想マシン側でvFRCの利用設定を行います。

ホスト側の設定:VFFSの定義

1. vSphere Web Clientに接続
2. 設定を行うホストを選択し、”管理”タブ → ”設定” → ”仮想フラッシュリソース管理” を選択
3. 容量の追加をクリック

4. ホストに搭載されたSSDデバイスのリストが表示されますので、vFRCで利用するデバイスを選択します。

※ホスト側にこの設定を施すことにより、VFFS領域が作成されます。

次は仮想マシンに対する設定です。

仮想マシン側の設定:vFRCの設定

5. vFRC設定を行う仮想マシンを右クリックして”設定の編集”を選択
6. vFRC設定を行う仮想ディスクを展開し、”仮想フラッシュ”の詳細をクリック

7. 仮想フラッシュの有効化にチェックを入れ、キャッシュ容量とブロックサイズを指定します。

以上で完了です。

手順6、7を繰り返す事により、複数の仮想ディスクに対して設定を行うことも可能です。

また、この手順は仮想マシンがパワーオンの状態でも行うことが出来ます。

vFRCとvMotion

VFFSはホスト毎の管理となるため、仮想マシンがvMotionで移行してしまうと旧ホスト上のリードキャッシュは利用できなくなります。このためvSphere5.5のvMotionでは、vFRC設定が施された仮想マシンを移行する際、vFRC領域も同時にコピーを行う仕組みが提供されています。技術的には、vSphere5.1で実装された、XvMotion(Storage vMotionとvMotionの同時実行)の仕組みを利用しています。

リードキャッシュですので、vMotion時にドロップすることも可能です。この際は、移行先のホストで自動的に再作成されます。XvMotionの仕組みを使ってvFRCをコピーするか、ドロップするかは、vMotionウィザードの中で選択可能です。

コピーを選択すると、移行先でも蓄えたリードキャッシュをそのまま利用することが可能ですが、移行時にはvFRCのコピーにまつわる時間と負荷がかかります。

統計情報

vFRCに関する統計情報は、vSphere Web Clientやesxcliコマンドを利用して取得することが可能です。

1. vSphere Web Clientでは、該当する仮想ディスクに対し、以下のパラメータが新たに追加されました。

・vFRCキャッシュIOPs
・vFRCキャッシュスループット
・vFRCキャッシュ遅延

2. esxcliでは、”esxcli storage”に vflash というNamespaceが新たに追加され、例えば、esxcli storage vflash cache list コマンドでは作成されているvFRCのキャッシュファイルリスト、esxcli storage vflash cache stats get -c <Cache File Name> コマンドでは、特定のvFRCに対するキャッシュのヒット率やキャッシュIO数などの統計情報の確認が可能となりました。

まとめ

仮想ディスクへの読み込み速度の高速化とストレージ負荷の削減を実現するvFRC。以下のような環境に利用すると特に効果的です。

・読み込みの多いアプリケーションを仮想マシン上で稼働させる場合
・vmdkファイルを配置するStorageの性能よりも、VFFSを構成するSSDの性能が大幅に高い場合
・vmdkを配置したStorageの読み込み負荷が大きく、この負荷を軽減したい場合

是非ご利用下さい!

また、vFRCのパフォーマンスに関するTechPaperも公開されました。こちらも是非ご一読下さい。

http://www.vmware.com/files/pdf/techpaper/vfrc-perf-vsphere55.pdf

 

vSphere 5.5 新機能紹介 Web Clientについて

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、VMware vSphere 5.5のWeb Clientの機能を紹介します。

VMware vSphere 5.5(以下 vSphere5.5)では、前バージョンに引き続き、Web Clientでいくつかの機能強化が行われております。

従来利用していたvSphere Clientには、vSphere 5.5の新機能追加は行われておりませんので、vSphere 5.5で追加された機能を利用する場合は、Web Clientの使用が必須となります。

なお、vSphere 5.5から、vSphere Clientを起動した場合、ログイン画面に下図のような注意文が表示されるようになっております。

1.Web Clientでのオブジェクトのドラッグ&ドロップが可能

これまで、Web Clientではオブジェクトのドラッグ&ドロップは提供されておりませんでしたが、現バージョンより可能となりました。

この機能により、Web ClientにおいてもvSphere Clientと近い操作性で、各機能を実行することが可能となります。

 

2.クイックフィルター機能

同機能により、オブジェクトが大量にあった場合、目的に応じた絞り込みが可能となります。

クイックフィルターは、データストア、クラスタ、ホスト、VMにおいて利用可能です。

例えば、仮想マシンの状態が「パワーON状態」のVMのみや、「Toolsが未インストール」のVMといった絞り込みが可能となります。

3.最近アクセスしたオブジェクト/新規オブジェクトの表示

頻繁に利用するオブジェクトへ、1クリックでたどり着くことが可能となり、煩雑な画面遷移を軽減する工夫が行われております。

4.プラットフォームのサポートの向上

Web Clientのプラットフォームサポートに、OS Xからの使用が追加され「仮想マシン コンソールのアクセス」、「OVF テンプレートの展開」、「クライアント デバイスの接続」が可能となります。

 

VMware vSphere 5.5 新機能の概要について

2013年8月26日に「VMworld 2013 San Francisco」で、vSphereの次バージョンとなる、VMware vSphere 5.5(以下vSphere 5.5)が発表されましたので、こちらのバージョンで追加された新機能・特徴の概要をご紹介します。

ただしこのBlogは、製品出荷前のバイナリ及びマニュアルを参照して記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

1. Client
クライアントにつきましては、vSphere 5.1よりWeb Clientが大幅に機能強化されており、新機能に関してはWeb Clientにしか実装されておりませんでした。
この考え方は、vSphere 5.5に関しても同様となっております。
新機能部分としては、以下となります。

  • Web Clientでのオブジェクトのドラッグ&ドロップが可能
  • Web Client SDKによるカスタマイズ
  • vSphere Web Client でのOS Xサポート
  • クイックフィルター機能
  • ナビゲーションの利便性向上
  • 最近アクセスしたオブジェクト/新規オブジェクトの表示

2. ストレージ
ストレージとしては、下記の機能追加/強化があります。
注目すべき新機能としては、「Virtual SAN(以下VSAN)」と「vSphere Flash Read Cache (以下vFlash)」の2点大きな機能が追加されました。

i. VSAN

内蔵のHDD及び、SDDを共有ストレージとして利用することが可能となります。

この機能により共有ストレージが無い場合でも、vMotion、DRSおよびHAのような既存のVMwareのソリューションと連携が可能です。
ただし、VSANはvSphere5.5では「パブリックベータプログラムとして提供」となりますので、利用の際は注意が必要となります。

代表的な特徴として、以下があります。

  •  vSphereに完全に統合されたストレージソリューション
  • 「サーバー内蔵HDDとSSD」を利用した、低価格の階層型ストレージで、サーバー間でのデータリプリケーションにより冗長性を提供
  • ポリシーベースの採用により、VMの配置決定を簡素化
  • ESXiによりデータのレプリケーションを提供することにより、冗長構成可能
  • サーバ増設により、スケールアウトするストレージシステム

ii. vSphere Flash Read Cache
vSphere 5.1 まで、ESXiのVMkernelのスワップ領域として利用可能であった、サーバ内蔵のSSDが仮想マシン毎に対しても、キャッシュ領域として利用可能となりました。
この機能を利用した場合でも、vMotion、DRSおよびHAのような既存のVMwareのソリューションと連携が可能です。

iii. VMFS、NFS、仮想互換RDMで62TBまでのVMDKに対応
iv. VAAIでのUNMAPサポート

3. ネットワーク
ネットワークの機能拡張は下記となります。

ⅰ.LACP の拡張
・・・vSphere 5.1 での構成上の制約が緩和され柔軟なネットワーク構成が可能になります。
ⅱ.トラフィックのフィルタリングと、QoS マーキング
・・・入出力トラフィックのフィルタリングと、QoS マーキングが可能になります。
ⅲ.パケットキャプチャ
・・・様々なレベル(vNIC, vSwitch, アップリンク)でのパケットキャプチャが可能になります。
ⅳ.SR-IOV
・・・SR-IOV の設定が、ポートグループのプロパティとしてパススルーNIC に適用されます。
ⅴ.40 Gb NIC
・・・Mellanox の40 GB NIC をサポートしホストが使用できる帯域幅を拡張します。

4. ESXi/vCenter
i. ホスト1台あたりの構成上限が拡張されます。

vSphere5.1 vSphere5.5
160個の物理CPU 320個の物理CPU
2TBのメモリ 4TBのメモリ
8個のNUMAノード 16個のNUMAノード
2048個の仮想CPU 4096個の仮想CPU

ii. Reliable Memoryのサポート※
・・・ハードウェアによりマップアウトされたメモリをESXiが認識し、その領域にアクセスしないようにするため、「メモリ障害」が原因となるPSODを軽減します。

※2013/9/26追記:こちらの機能は、ハードウェア側でのサポートが必要となります。
詳細は互換性ガイドを参照ください。

iii. AMD、IntelのGPUサポート追加
・・・GPUの利用で仮想マシンのハードウェレンダリングとGP-GPUをサポートします。

iv. PCIe SSDのHot-Pluggleサポート
・・・ダウンタイムなしで SSD デバイスをホット アド / ホット リムーブを提供します。

ⅴ-ⅰ.vSphere AppHA

・・・アプリケーションダウンタイムを最小化します。

v-ⅱ. vSphereHAの改善

    • アドミッションコントロール(改善)・・・アンチアフィニティルールを反映し、同一ホストに再起動させないようにします。

vi. vSphere Replication

  • レプリケーション先は、vCenter Server 1 台あたり最大 10 か所まで、可能となります。
  • 複数の復帰ポイントの保持可能となります。
  • Storage DRSとの互換性が提供されます。

vii. MSCS Clustering利用時の機能強化

  • FCoE と iSCSI の各プロトコルをサポートします。
  • FCoE Hardware Adapters・・・ラウンドロビンマルチパスポリシーに対応します。

viii. vCenterServer組み込みデータベースのスケーラビリティ (vPostgres)
・・・最大 100 台の vSphere ホスト / 3,000 台の仮想マシンをサポートします。※

※2013/10/6修正

ⅸ. リアルタイムアプリケーションへの対応機能 ・・・ 仮想マシン毎にLatency Sensitivity(待ち時間感度)を設定することにより、物理環境に近いパフォーマンスにすることが可能です。

5. 仮想マシン

  • ハードウェアバージョンのアップデート(ESXi 5.5以降:Virtual Hardware version 10)
  • ゲストOSサポートの変更・・・いくつかの、ゲストOSのサポート終了します(詳細はvSphere5.1 リリースノートを参照ください)

6.VDP(VMware vSphere Data Protection)

  • vCenter Serverに依存せず、ESXiホストを利用して仮想マシンのリストアが可能となります。
  • VMDKファイル単位での、バックアップとリストアが可能となります。
  • バックアップスケジュールの設定が可能になります。
  • クラウド環境へのバックアップが可能となります。

次回から、各機能の詳細な情報をご紹介したいと思います。