Home > Blogs > Japan Cloud Infrastructure Blog

ここが変わった! VMware vSphere 6.5

日本ヒューレット・パッカード株式会社の中川明美です。

vSphere 6.0とvSphere 6.5の違いを尋ねられることが多くなりました。そのご質問に、こちらのBlogで回答します!

また、バージョンアップ時にプリセールスのみなさまからよくご質問をいただく内容をふまえ、vSphere 6.5の変更点をお伝えします。次の6回構成です。

 

#1: vCenter Sever Appliance_1 (コンポーネントおよびサービス / スケーラビリティ)

#2: vCenter Sever Appliance_2 (高可用性 / バックアップとリストア)

#3: 仮想ハードウェア Version 13 / VMware Tools Version 10.1

#4: 3つの管理ツール (vSphere Host Client / vSphere Client / vSphere Web Client)

#5: vSphere HA (Proactive HA / ホスト障害への応答 / 仮想マシンで許容するパフォーマンス低下)

#6: vSphere DRS (Predictive DRS / その他のオプション)

 

 

1回目と2回目は、vCenter Server Applianceのアップデートについてです。併せてWindows版との違いも説明します。

 

■ vCenter Server Applianceに含まれるソフトウェア ■

vCenter Server Appliance 6.5は、下表のソフトウェアで構成されます。

6.5からPlatform Services ControllerとvCenter ServerはPhoton OS上で動作します。Project PhotonはVMwareがコンテナ向けにリリースした軽量Linux OSです。

Update ManagerはvCenter Server Appliance 6.5ではサービスとして提供されます。そのためインストール不要です。Windows版のUpdate Managerはコンポーネントとして提供されるため、従来通りインストールが必要です。

1

vCenter Server Appliance 6.5は仮想ハードウェアバージョン10 (ESXi 5.5以降でサポートされるバージョン) で提供されます。仮想ハードウェアバージョン10ですから、vCenter Server 6.5は、ESXi 5.5以降のホストまたはvCenter Server 5.5 以降のインスタンスのインベントリに含まれる ESXi ホストまたは DRS クラスタにデプロイできます。

 

~ハードウェアリプレース時~

ハードウェアリプレース時には、vSphereの移行方法(導入手順)に関わるため、最新のvCenter Serverの配下に既存のESXiホストが動作可能なのかをよく尋ねられます。

下図は、「VMware Product Interoperability Matrices」の画面ショットです。vCenter Server 6.5ではESXi5.5以降のホストを配置可能です。

2

■ vCenter Serverのコンポーネントとサービス ■

6.0と6.5で、「Platform Services Controller」と「vCenter Server」のコンポーネントがインストールされるのは変わりません。「Platform Services Controller」は6.0から提供されているコンポーネントです。

6.5で追加されたサービスは、Webブラウザを使用するvSphere ClientとUpdate Managerです。先に述べたとおり、Update ManagerはAppliance版に追加されます。

Syslog CollectorはWindowsと明記しているとおり、Windows OS上にインストールするサービスです。vCenter Server ApplianceでのLog収集はLinux OS に組み込みの Rsyslogサービスを使用します。

ESXiホストにLocalディスクを搭載しない場合は、トラブルシューティングのためにDump CollectorやSyslog Serverを別途準備しておく方がよいですね。

3

■ vCenter Serverのスケーラビリティ ■

vCenter Serverのキャパシティについてです。6.0と6.5では約2倍の差があります。

Appliance版とWindow版のデータベースにかかるコストで比較すると、ESXiホストを20台以上管理する場合、vCenter Server Appliance  6.5に分がありますね。

4

最大構成数は、パブリックのドキュメントを参照しています。

vCenter Server Appliance 6.5は上表から判断できるように、外部データベースをサポートしません。Window版でサポートしている外部データベースの詳細はこちらでご確認ください。

http://www.vmware.com/resources/compatibility/sim/interop_matrix.php#db

 

◆参考情報◆

ハードウェア要件とポート情報を付記します。

 

■ Platform Services Controllerのハードウェア要件 ■

規模に関わらず、2 個の vCPU と 4 GB メモリです。

 

■ vCenter Serverのハードウェア要件 ■

規模に合わせて、ハードウェア要件は異なります。Window版は最小推奨ハードウェア要件となりますから、vCenter Serverに同居するサービスによってメモリサイズを考慮した方がよいと思います。

5

■ Platform Services Controller アプライアンスのストレージ要件 ■

Platform Services Controller アプライアンスのストレージ要件は 60 GB です。

 

■ vCenter Server Applianceのストレージ要件 ■

このストレージ要件には、vCenter Server Appliance でサービスとして実行される vSphere Update Manager の要件も含まれています。

6

■ Windows での vCenter Server および Platform Services Controller の最小ストレージ要件 ■

各フォルダの最小ストレージ要件は、インストール時のデプロイ モデルによって異なります。

7

■ vCenter ServerおよびPlatform Services Controllerに必要なポート ■

必要なポートはこちらで確認できます。

http://pubs.vmware.com/vsphere-65/index.jsp#com.vmware.vsphere.install.doc/GUID-925370DD-E3D1-455B-81C7-CB28AAF20617.html

 

◆まとめ◆

1回目は、Platform Services ControllerとvCenter Serverの概要についてでした。

プリセールスの方には必要なコンポーネントやハードウェア要件を、導入エンジニアの方には設定値レベルで必要な情報と思われるものをリストアップしました。

今後は、vSphere 5.5からvSphere 6.xにアップグレードされるお客様が増えてくるのではないかと思います。今回のテーマの5.5と6.xの違いは、vCenter Single Sign-OnがvCenter Serverコンポーネントに存在するか否かです。

6.5のアップデートでは、Enterprise Plusを前提とする機能も散見しますが、それらはパフォーマンスを改善する機能として提供されます。

2回目はvCenter Server Applianceの高可用性とバックアップです。お楽しみに!

 

 

 

ちょっとした技術的な TIPs のご紹介

みなさん、こんにちは。VMwareでパートナー様を担当させて頂いてますSEの北村です。

今回は Cloud Infrastructure Blog に次の3つをTIPs として投稿したいと思います。

1. vSphere Replication の数の制限について
2. vSphere Replication と Site Recovery Manager を共に使用する場合の構成について
3. vSphere 5.x と 6.x の Products Offering の KB (Knowledge Base) 紹介

では、それぞれについて記載していきます。

 

1. vSphere Replication の数の制限について

vSphere Replication は、ハイパーバイザー ベースで仮想マシンのレプリケーションを行う vCenter Server の拡張機能です。ストレージ・アレイ・ベースのレプリケーションを代替する機能なため、弊社の Disaster Recovery ソリューションである、Site Recovery Manager と共に使用するケースが多いですが、vSphere Replication を使用してれ保護 (レプリケーション) できる仮想マシンの数には制限 (上限) がある事はご存知でしょうか?

Operational Limits for vSphere Replication 6.x (2102453)

上記のKBでその数の制限 (上限) について説明しています。KBの中には以下の表があり、この表から、1台の vCenter Server 環境で最大 2,000台の仮想マシンを保護することができ、その際に必要となる vSphere Replication Appliance は1台、vSphere Replication Server が9台である事がわかります。つまり、1台の vSphere Replication Appliance と、9台の vSphere Replication Server が、それぞれ 200台の仮想マシンの保護を担う事で、合計 2,000 台の仮想マシンの保護を可能としています。

KB2102453_table

では、vSphere Replication Appliance と vSphere Replication Server ですが、何が違うのでしょうか?

vSphere Replication Appliance には、以下の 2つの役割があります。

  1. vSphere Replication Management Server:vCenter Server や vSphere Replication Server の構成と管理
  2. vSphere Replication Server:データの受信と書き込み

vSphere Replicationを使用する環境に最初に展開される Appliance は①と②の機能を有しており、200台を超える仮想マシンを保護したい環境に追加で展開される Appliance は②の機能のみ有しているという違いがあります。そして、①と②の機能を有している Appliance を vSphere Replication Appliance、②の機能のみを有している Appliance を vSphere Replication Server と呼びます。

 

2. vSphere Replication と Site Recovery Manager を共に使用する場合の構成について

では、Site Recovery Manager と共に使用する場合、vSphere Replication Appliance とvSphere Replication Server は、保護サイトと災害対策サイトのそれぞれにどのように配置する事になるでしょうか?

  1. まず、保護サイトと災害対策サイトの双方に vSphere Replication Appliance を展開します。
  2. 次に、保護対象の仮想マシンの数が 200 台以上の場合、災害対策サイトに、200 台の仮想マシン毎に vSphere Replication Server を展開します。
  3. 保護サイトから災害対策サイトへの片方向のレプリケーション構成の場合、受信側となる災害対策サイトだけにvSphere Replication Server を展開すればいいとなりますが、Site Recovery Manager と共に使用している DR (Disaster Recovery) システムとして考慮するならば、サイト・フェイルオーバ後のサイト・フェイルバックまでを想定した Appliance の配置をしておくのが一般的と言えますので、保護サイトと災害対策サイトの両サイトに同じ台数の vSphere Replication Server を展開しておく事を弊社としては推奨しています。
  4. 尚、当然ですが、保護サイトと災害対策サイトが双方向のレプリケーション構成の場合は、両サイトに必要な数 (仮想マシン数に応じた) だけの vSphere Replication Server を展開する事になります。

例えば、500台の仮想マシンを vSphere Replication と Site Recovery Manager を使用して、片方向のレプリケーション構成としたDRシステムの場合、保護サイトと災害対策サイトに、それぞれ、1台の vSphere Replication Appliance と、2台の vSphere Replication Server を配置する、と言う事になりますので、図にすると以下のようなイメージになります。

SRM+vSR

 

3. vSphere 5.x と 6.x の Products Offering の KB (Knowledge Base) 紹介

皆さん、以下の KB はご存知でしょうか?

vSphere 5.x の各エディション (一部、キット) で提供されているる機能:

  • 英語版 :Product offerings for vSphere 5.x (2001113)
  • 日本語版:vSphere 5.x プロダクト提供 (2073973)

vSphere 6.x の各エディション (一部、キット) で提供されているる機能:

  • 英語版 :Product offerings for vSphere 6.x (2109507)
  • 日本語版:vSphere 6.x の各エディションにおける機能一覧 (2111426)

これらの KB は、それぞれ vSphere で利用可能な機能を一覧表にしていますが、“ある機能が、vSphere の、どのバージョン、どのエディション (一部、キット)” で利用できるのか、という事が解るようになっています。

 

ではどんな時に役に立つのかと言うと、例えば、次のような疑問を持った場合に上記の KB 参照する事で疑問を解決できます。

  1. Storage vMotion はどのバージョンのどのエディション (キット) でサポートされている機能なのか?
  2. vSphere Replication はどのバージョンのどのエディション (キット) でサポートされている機能なのか?
  3. vSphere Fault Tolerance どのバージョンのどのエディション (キット) でサポートされている機能なのか?

KBから上記の 1 から 3 の答えは、それぞれ以下である事が解ります。

vSphere 5.x の場合;

  1. vSphere 5.0 の Enterprise、Enterprise Plus と、vSphere 5.1 以降の Standard、Enterprise、Enterprise Plus でサポートされる機能です。
  2. vSphere 5.1 以降の Essentials Plus と、vSphere 5.0 以降の Standard、Enterprise、Enterprise Plus でサポートされる機能です。
  3. vSphere 5.0 の Enterprise、Enterprise Plus と、vSphere 5.1 以降の Standard、Enterprise、Enterprise Plus でサポートされる機能です。

vSphere 6.0 の場合;

  1. vSphere 6.0 の Standard、Enterprise、Enterprise Plus でサポートされる機能です。
  2. vSphere 6.0 の Essentials Plus、Standard、Enterprise、Enterprise Plus でサポートされる機能です。
  3. vSphere 6.0 の Standard、Enterprise、Enterprise Plus でサポートされる機能で、サポートされる vCPU の数がエディションによって異なるので注意が必要です (Standard と Enterprise の場合は 最大で 2 vCPU、Enterprise Plus は最大で 4 vCPU の vCPU を搭載した仮想マシンを Fault Tolerance 化する事が出来ます)。

注) “Product offerings for vSphere 6.x (2109507)” と “vSphere 6.x の各エディションにおける機能一覧 (2111426)” に vSphere 6.5 に関する情報の追記を関係部門に依頼中 (2017年4月28日 (金) の時点)。

 

最後まで読んで頂きありがとうございます。今回は以上となります。またの機会をお楽しみに。

VMware NSX for vSphereへの移行

4回目:VMware NSX for vShield Endpointへの移行検証サマリー (パート2)

-Back Number-
#1_ vCloud Networking and Security (vCNS) の販売終了
#2_Deep Securityを実装するためのNSX
#3_ VMware NSX for vShield Endpointへの移行検証サマリー
#4_ VMware NSX for vShield Endpointへの移行検証サマリー(パート2)

こんにちは、ソフトバンク コマース&サービスの中川明美です。
12月に投稿しました3回目ではvSphere 6.0環境下での移行方法をご紹介しました。
今回は、vSphere 5.5環境下での「vShield Endpoint(vCNS)からNSX for vShield Endpointへのアップグレード手順をご紹介します。vSphere 5.5からの移行を計画されている方はぜひご参考にしてください!
このBlogでは簡易手順を共有します。詳細手順をお知りになりたい方は、ページ下部でご紹介するURLからご入手ください。

◆構成図◆
下図は、Upgrade前の構成図と、Upgrade後の構成図です。
Upgrade前はvSphere 5.5 U1環境下でvShield Endpoint(vCNS)を使用、Upgrade後はvSphere 6.0 U2環境下でNSX for vShield Endpointへ移行します。
<Upgrade前>

before

<Upgrade後>

after

◆アップグレード手順◆
次の16ステップを進めます。

1.DSVA(Deep Security Virtual Appliance)の無効化/停止/削除

1

2

3

2.各ESXiホストから Filter Driverを削除

4

3.vShield Managerの停止

5

4.Deep Security ManagerとvCNS / vCenterサーバーの連携解除

6

5. vCenterサーバー / ESXiホスト のアップグレード

7


8

6.Horizon Viewのアップグレード

9

7. Deep Security ManagerのDBスキーマのアップグレード

10

8. Deep Security Manager のアップグレード

11

9. NSX Managerのデプロイ

12

10.Deep Security ManagerとNSXの連携設定

13

11.Guest Introspectionのデプロイ ※詳細手順では、仮想標準スイッチ使用時の注意点を追記

14

12.DSVA(Deep Security Virtual Appliance)のデプロイ ※詳細手順では、既知の問題について追記

15

13.Security Policy / Security Groupの作成等

16

17

14.対象VMを順次有効化

18

15. 新規VMの自動有効化設定

19

16.vShield Managerを削除 手順3で停止した、「vShield Manager」仮想マシンを削除
※画面ショットは手順3の画面

20

◆アップグレードの詳細手順◆
詳細手順をダウンロードできます。
https://app.box.com/s/5n62ebuw8c30yg5vzwki22g4qblwdp17

◆トラブルシューティングガイド◆
Deep Security + NSXのトラブルシューティングガイドをダウンロードできます。http://campaign.vmware.com/imgs/apac/jp_dwn/PDF/DSVA_9.5-6TroubleshootingTips_NSX.pdf?elqTrackId=9bc23ac857cc422897d92420f93dc17b&elqaid=979&elqat=2

◆まとめ◆
今回のBlogでは、vSphere 5.5環境でのアップグレード手順を共有いたしました。
今回のアップグレードは仮想基盤も含まれているため、事前にどのような手順で進めるのかを知ることは有益ですよね。詳細手順ではアップグレード中に認識できた注意点についても付記しています。こちらの手順をガイドに、工数の見積り、トラブルのない導入に活用いただけましたら幸いです。

nakagawa

VMware vRealize Operations Manager (vROps) をパワーアップしよう! パート2

6回目:V4HでHorizon RDSホストの監視

– Back Number –
#1…最新のV4Hが使いやすくなっている!
#2…ビューの活用方法①
#3…ビューの活用方法②
#4…レポートの活用方法
#5…vRealize Log Insightとの連携
#6…V4HでHorizon RDSホストの監視

こんにちは、ソフトバンク コマース&サービスの中川明美です。
今回は、番外編として、VMware vRealize Operations for Horizon (V4H)の「Horizon RDSホスト」の監視を取りあげます。なぜ追加で取りあげることになったのか?
RDSホスト(RDSH)を使用する環境で、V4Hのよさを伝えるためにはどうしたらよいかとご相談を受けたからです。その相談に回答するように、RDSHの監視のポイントをご紹介します。

◆V4Hでは何を監視する?
最新のV4Hが使いやすくなっている!」でお伝えした通り、V4Hはセッションやログオン時間などユーザーに関連するデータを監視します。
RDS(リモートデスクトップサービス)は、セッションの仮想化(Server Based Computing)とも言いますから、RDSホストをV4Hで監視するのは適していますね。

◆SBC(Server Based Computing)とVDI(Virtual Desktop Infrastructure)の違いは?
左図がSBC、右図がVDIの違いを説明するイメージ図です。では、これらの環境を準備する目的は何でしょうか?
「OS/アプリケーションの運用管理コストを削減したい」「働き方変革に取り組みたい」というご要望から、OS/アプリケーションの仮想化が検討されます。そして、その環境をユーザーへ提供するための方法として、SBCまたはVDIが選択肢にあげられますね。

1

先の目的をふまえ、ユーザーがアプリケーションを使用するための接続先として、次の3つがあげられます。「仮想マシンベースのデスクトップ」「セッションベースのデスクトップ」「セッションベースのアプリケーション」です。この環境があれば、ユーザーは場所を意識することなく、業務を実施することができます。

VMware Horizon 6.x以降では、「セッションベースのデスクトップ」はRDSデスクトッププールで、「セッションベースのアプリケーション」はアプリケーションプールで構成します。RDS(リモートデスクトップサービス)はWindows Server 2008 R2以降から提供されているサービスです。それ以前はターミナルサービスと呼ばれていました。
そして、RDSのサービスの1つである「RDSホスト(RDセッションホスト)」が、ユーザーにデスクトップセッションアプリケーションセッションを提供します。

各種プールをまとめます!

  • 「手動/自動デスクトッププール」は、物理/仮想マシンが対象であり、デフォルトは1台のマシンに1人のユーザーがリモートアクセス可能です。「仮想マシンのデスクトップ」を提供する方法です。
  • 「RDSデスクトッププール」はセッションが対象であり、RDSホストにおけるデスクトップセッションをユーザーに提供します。RDSホスト上のデスクトップセッションは複数のユーザーによる同時利用が可能です。
  • 「アプリケーションプール」もセッションが対象であり、複数のユーザーにアプリケーション配布が可能です。アプリケーションは、ファーム内のRDSホスト上で実行されます。

RDS環境で、「OS/アプリケーションの仮想化」を運用管理する場合、セッションがポイントとなりますね!

では、V4Hの画面から、RDSに関するどんな情報が得られるのかを、ダッシュボードごとに確認します。

◆Horizon RDS プール
「Horizon RDS プール」タブでは、「ファーム」「RDSデスクトッププールと「アプリケーションプール」のセッション数を確認することが可能です。
ファームは、RDSホストの集まりです。ユーザーが接続すると、ファーム内のRDSホストが選択され、セッションが提供されます。ファーム内のRDSホストの数は、ロードバランスの可否や提供したいアプリケーションによって検討する必要があります。
下図では、ファーム内でデスクトップとアプリケーション(ここではInternet Explore)のセッションが1つずつ提供されています。RDSホストの最大セッション数(接続数)は、デフォルト150です。設定値を無制限にすることも可能です。設定値は、RDSホストのキャパシティに応じて決めることをお勧めします。V4Hを導入後、最適な値を設定するのも一つの方法です。

2

キャパシティを判断する際に参考になるのが、同じタブ内にある次の情報です。
ヒートマップの健全性、トップN のCPUワークロードやPCoIP遅延などのリソース状況です。この情報から、現在のキャパシティに適した接続数であるかを判断できますね。
ファーム内に複数のRDSホストが追加されている場合は、ロードバランス(負荷分散)されます。ユーザーに新規セッションが提供される際、ファーム内で利用可能なセッション数が多いRDSホストや、CPU/メモリの負荷が低いRDSホストが選択されます。リソースでのロードバランスは、事前にスクリプトを構成する必要があります。

https://pubs.vmware.com/horizon-7-view/index.jsp#com.vmware.horizon-view.administration.doc/GUID-54966EA2-8542-43B1-A5D4-60C8B21C0AC8.htm


3

◆Horizon RDS ホストの詳細
「Horizon RDS ホストの詳細」タブでは、各RDSホストの情報が得られます。
V4Hは同じデータの視点を変えて表示されます。RDSホストのキャパシティに関する情報はこちらのタブの方が多くを確認できますね。

4

また、ユーザーがどの程度リソースを使用しているかは、管理者にとって気になるところです。「RDSホストのプロセスとユーザー」では、「サーバーサービス」「サーバープロセス」「サーバーユーザー」のリソース使用状況を取得できます。下図は、「サーバーユーザー」を取得した画面ショットです。

「ユーザーリソース消費量」では、デスクトップセッションとアプリケーションセッションを別に確認することも可能です。


5

6

◆Horizon アプリケーション
「Horizon アプリケーション」タブでは、アプリケーションプールで構成したアプリケーションの状況を確認することができます。
左の「アプリケーションプール」では、アプリケーションのインスタンス数(起動数)と起動平均時間(秒)、相関関係の情報を得られます。「アプリケーションプールの関係」では、そのアプリケーションセッションを利用するユーザー名や提供するRDSホストが存在するファームの名前を確認することができます。


7

「アプリケーションインスタンス」では、アプリケーションセッションを提供するRDSホストの名前や、そのセッションのリソース使用状況を確認することができます。

8

◆セッション
最後に、セッションのカウント方法をご紹介します。接続するRDSホストの数=セッション数です。
たとえば、左図は複数のアプリケーションが1台のRDSホストで提供されているパターンです。アクセスするRDSホストは1台ですから、セッションは「1」です。
右図は、各アプリケーションが各RDSホストで提供されているパターンです。接続するRDSホストごとにセッションをカウントしますから、セッションは「2」です。

9

次は、ファームで提供するアプリケーションが異なるパターンです。これは上図のパターン2と同様の考え方です。アクセスするRDSホストは2台ですから、セッションは「2」です。セッション数のカウント方法はシンプルですね!


10

◆まとめ
V4Hでの監視対象はおもにユーザーセッション関連です。
仮想デスクトップもRDSHも、セッションやPCoIP遅延の情報を監視するのは同じです。異なるのは、基盤の部分です。
仮想デスクトップは1ユーザーにつき仮想マシンが1台提供され、RDSは複数のユーザーにRDSホストのセッションが提供されます。
vROpsは仮想マシンのリソース状況を監視しますね。V4Hは、vROpsで対象となる仮想マシンを、提供するサービスによって「仮想デスクトップ」や「RDSホスト」と呼び、セッション状況を監視します。
1ユーザーが使用する仮想マシン(仮想デスクトップ)のセッション/リソース状況を確認するのか、複数ユーザーが使用する仮想マシン(RDSホスト)のセッション/リソース状況を確認するのか、の違いです。
呼び方が変わる、機能がAdd-Onされると、複雑に感じますね。しかし、何を監視対象としているのかの区別がつけばシンプルになります。
アプリケーションの仮想化は、働き方改革により注目されていますね!
VMware Horizon環境下で、RDSHを使用する場合は、合わせてV4Hでの運用管理も検討いただければと思います。

nakagawa

ソフトバンクC&SのサイトでvROpsを使用した仮想化健康診断の事例を紹介しています。ここでは、「vSphere環境を運用管理している方が何に困っているのか」「その困ったことにパートナーのみなさまがどのようにアプローチされているのか」を載せています。インタビュー形式で構成しています。ぜひお仕事に役立つ情報を手に入れてください!

voa

ちょっとした技術的な TIPs のご紹介

みなさん、こんにちは。VMwareでパートナー様を担当させて頂いてますSEの北村です。

今後、月に1回の頻度で VMware Blog (Cloud Infrastructure Blog と End-User Computing Blog) で、ちょっとした技術的なTIPs を投稿していこうと思っておりますので、お付き合いください。

今回は次の 2点をお伝えします。

1. vSphere (vCenter Server と ESXi) がサポート対象としている Active Directory の Domain Function Level について
2. CPU の EVC 互換の確認方法

では、それぞれについて記載していきます。

1. vSphere (vCenter Server と ESXi) がサポート対象としている Active Directory の Domain Function Level について
みなさん、VMware の Knowledge Base サイト (kb.vmware.com) はご存知でしょうか? 弊社製品におけるトラブルシューティングやサポート関連の情報などを公開しているサイトになるので、是非、ご活用頂けると幸いです。

さて、以下の Knowledge Base (略して KB という言い方をします) は、vCenter Server と ESXi がサポート対象としている Active Directory の Domain Function Level について記載しているのですが、最近、この KB が更新され、昨年末にリリースされた、vSphere 6.5 の情報が追記されました。

Versions of Active Directory supported in vCenter Server (2071592)
Versions of Active Directory supported in VMware ESXi (2113023)

ここで、大事な事をお伝えしますが、vSphere 6.5 から Windows 2003 Domain Function Level がサポートから外れました (Windows Server 2003 の延長サポートが既に終了となっていますので、その結果が繁栄されていると思われます)。

Versions of Active Directory supported in vCenter Server (2071592) より抜粋 (詳細は KBをご参照ください):
KB2071592

Versions of Active Directory supported in VMware ESXi (2113023) より抜粋 (詳細は KBをご参照ください):
KB2113023

それに伴い、「以前のバージョンの vSphere」 と 「Windows 2003 Domain Function Level」 で利用している環境を、vSphere 6.5 へバージョンアップすると、動作の可否に関わらず、vSphere 6.5としてはサポート外の構成となってしまいますので、バージョンアップをご検討されている場合はこの点ご注意ください。

vSphere 6.5 へのアップグレードには以下のドキュメントを参考にして下さい。

1. ブラウザで、http://www.vmware.com/jp/support/support-resources/pubs/vsphere-esxi-vcenter-server-6-pubs.html へ。
2. 「vSphere アップグレード ガイド」の PDF をクリック頂き、PDF版を参照するか、「vSphere 6.5 ドキュメント センター」リンクをクリック頂き、ブラウザの左側の「目次」で、「ESXi および vCenter Server 6.5 のドキュメント」→ 「vSphere のアップグレード」 の順で、クリック頂く事で、ブラウザ上で PDF 版と同じ内容を参照頂けます。

2. CPU の EVC 互換の確認方法
みなさんは、弊社の Compatibility Guide のサイトはご存知でしょうか? このサイトでは、弊社製品がサポートするハードウェア関連 (一部ソフトウェア) の情報を掲載しており、どのサーバ、どのCPU 、どのIOカード (NICやHBAなど) が弊社製品でサポートされているのかを確認頂く事ができます。

ちなみに、このページに掲載されている情報は、弊社が認定作業を実施していると思われがちですが、基本的には各ハードウェア・ベンダー様に認定作業を実施頂き、認定をパスしたハードウェアの情報を頂戴して弊社が掲載しています。

話を元に戻しますが、このサイトの1つとして、CPU Series というページがあります。ここでは、ESXi の各バージョンがサポート対象としている CPU や、Fault Tolerant 機能がサポート対象としている CPU、また、世代の異なる CPU 間での vMotion をサポートする為の機能、Enhanced vMotion Compatibility (EVC) を確認する事ができます。

特に、EVC は既存環境に新たに ESXi を追加する際に、既存サーバに搭載されている CPU と新たに追加するサーバに搭載されている CPU 間で vMotion、もしくは、DRS (DRSは仮想マシンの再配置を行う際に vMotion を利用しています) の互換性があるか、また、互換性を持たせる為に設定すべき EVC モードは何かを確認する事ができます。

例えば、既存環境では、① Intel Xeon E5-2690 を搭載しているサーバを使用していて、②その環境に新たに Intel Xeon E5-2690 v4 を搭載しているサーバを追加したいとします。かつ、①と②の間で vMotion または DRS を利用したいとします。

①の Intel Xeon E5-2690 は、Intel Xeon E5-2600 Series、②の Intel Xeon E5-2690 v4 は、Intel Xeon E5-2600-v4 Series になりますので、CPU Series のページで、それらを選択します。
HCL_EVC1

次に、”CPU / EVC Matrix” ボタンをクリックします。
HCL_EVC2

その結果 (上記) から、Intel Xeon E5-2690 (Intel Xeon E5-2600 Series) と Intel Xeon E5-2690 v4 (Intel Xeon E5-2600-v4 Series) の EVC モードが、Intel® Sandy-Bridge Generation である事がわかります。ちなみに、赤枠で囲まれた “Intel Xeon E5-2600 Series” や “Intel Xeon E5-2600-v4 Series” をクリックすると、それぞれの CPU のコードネーム (Code Name) を確認する事もできます。

どうでしょう、一見難しい様に思える異なる世代の CPU 間の EVC モードの確認が簡単に行える事をご理解頂けたと思います。

最後まで読んで頂きありがとうございます。今回は以上となります。またの機会をお楽しみに。

仮想スイッチのお作法~標準スイッチから分散スイッチへの道~

2回目:仮想スイッチのお作法#2 (分散スイッチはいつ使用する?)

– Back Number –
#1…仮想スイッチのお作法#1
#2…仮想スイッチのお作法#2

こんにちは、ソフトバンク コマース&サービスの中川明美です。
前回、仮想スイッチの歴史とロードバランスの1つであるポートIDベースについてとりあげました。なぜポートIDベースについてとりあげたのか?
それは、なぜその設定が必要なのか、なぜその機能が追加されたのかを理解するためには、ポートIDベースを理解することが早道だからです。
現在、NICチーミングをデフォルト設定のまま構成することは少なくなりましたね。それらの設定を変更する際、状況に応じては、分散スイッチを選択する方が運用管理の煩雑さを避けることができます。今回は、あらためて分散スイッチのよさと、いつ使うのがよいのかをご紹介します。

◆標準スイッチと分散スイッチの違い
最初に、標準スイッチと分散スイッチの異なるところ/同じところを復習します。

<異なるところ>
異なるところは、ネットワークポリシーを管理する場所です。ネットワークポリシーには、「セキュリティ」「トラフィックシェーピング」「NICチーミング」があります。
「標準スイッチ」は各ESXiホストで作成しますが、ネットワークポリシーも各ESXiホストで管理します。

1

「分散スイッチ」は複数のESXiホストにまたがって作成され、ネットワークポリシーはvCenterサーバーで一元管理します。仮想マシンを複数のホスト間で移行する場合でも、仮想マシンに対して一貫したネットワーク構成を提供することができます。
ポリシーは各ESXiホストにプッシュインストールされます。vCenterサーバーとの通信が遮断されたとしても、ポリシーで設定した動作に支障がない仕組みを持っています。


2

<同じところ>
構成するコンポーネントの概念は同じです。先に、標準スイッチからコンポーネントの名前を確認します。


3

Port/Port Group
仮想NICが接続する仮想スイッチのポート(出入口)です。ポートには、「仮想マシンポートグループ」と「VMkernelポート」があります。仮想マシンポートグループは、名前の通り複数の仮想マシン用のポートです。

vmk#(0
から連番)
VMkernelポートに接続されている仮想NICには、「vmk#」という特別な名前が付けられます。ESXiホストが通信するために、vmk#にIPアドレスを付与します。

Uplink Port

物理NIC(Uplink)が接続する仮想スイッチのポート(出入口)です。

vmnic#(0から連番)
物理NICのことです。

Port/Port Group
の識別名:
左図では、MGMT/Production/vMotionが該当します。ネットワークポリシーの識別名でもあります。

次に分散スイッチです。


4

分散スイッチが標準スイッチと異なるのは次の2つです。

dvPort Group
分散スイッチのポートグループをdvPort Groupと呼びます。ポートは複数のESXiホストに分散配置されます。

dvUplink Ports
論理的な物理NICのポートです。論理的と表現したのは、複数のESXiホストの物理NICをグループ化し、1つのdvUplink Portに割り当てるからです。
分散スイッチでは、いくつの物理NICを割り当てるかを、「dvUplink Ports」の数として指定します。そして各dvUplink PortsにESXiホストの該当物理NICをアサインします。左図では、dvUplink Port 1に3台のESXiホストのvmnic2が割り当てられています。

※dvは「Distributed Virtual」の略

図3と図4の仮想マシンポートグループ「Production」に注目してください。
標準スイッチと分散スイッチを構成するPortとUplink Port(dvUplink Ports)は、同じ構成(図形)で描かれています。標準スイッチと分散スイッチは、単体のESXiホストで構成されるのか、複数のESXiホストにまたがって構成されるかだけの違いです!

本題に入ります!

◆vMotionを例にしたネットワークポリシー設定
前回のBlogで、下図のようにvMotion用にNICチーミングを構成することで、冗長化だけではなく、パフォーマンスの向上も期待できることをご紹介しました。それは2つの物理NICを活用できるからでしたね。

5

vMotionで必要な設定は次の通りです。

6

ESXiホストの台数が多くなると、なかなか煩雑な作業です。
たとえば、2つの物理NICを割り当てた標準スイッチで、vMotion用の設定を10台のESXiホストで構成するとなると・・・標準スイッチで、vMotion用のVMkernelポートを2つ作成し、各々でNICチーミングの設定をします。これを10回繰り返すことになります。
入力ミスや設定ミスが生じるかもしれません。分散スイッチであれば、ESXiホストが何台であろうと、ネットワークポリシーの設定は1回の作業で完了します。
管理するESXiホストの台数が多くなれば、分散スイッチに分がありますね。

◆分散スイッチはいつ使うの?
分散スイッチはいつ使うのがよいのでしょう。分散スイッチで提供される、「物理NIC負荷に基づいたルート」と「ネットワーク I/O コントロール」を例に説明します。

<物理NIC負荷に基づいたルート>
分散スイッチのみで提供しているロードバランスの方法(物理NICの選択方法)が、「物理NIC負荷に基づいたルート」です。
物理NIC負荷に基づいたルートは、ポートID と複数物理NICのアップリンク(物理NIC)数を取得し、仮想マシンのアップリンクの負荷を計算します。30 秒ごとにアップリンクを監視し、その負荷が使用量の75 パーセントを超えると、I/O の使用率が最も高い仮想マシンのポート ID を別のアップリンクへ移動します。名前の通り、負荷状況に応じて最適な物理NICを選択する方法です。
デフォルトのポートIDベースはポートによって物理NICが選択されるシンプルな方法ですから、アップリンクの負荷までは見ていません。
仮想マシンの台数が多い仮想デスクトップ環境の場合は、「物理NIC負荷に基づいたルート」を選択することをお勧めします。Horizon Bundleのライセンスでは、vSphere Desktop(vSphere Enterprise Plusと同等の機能) が含まれます。このライセンスであれば、分散スイッチを使用できますね!

<ネットワーク I/O コントロール>
CPUやメモリーのリソースコントロールと同様に、ネットワークリソースのコントロールができる機能です。設定値には、「シェア」「予約」「制限」があります。

7

最近注目されているHCI基盤を例に説明します。10Gbpsの物理NIC2枚構成の場合、図3のようなトラフィックごとの仮想スイッチを準備することができません。物理NICは仮想スイッチ間で共有できませんから、1つの仮想スイッチに複数のトラフィック(役割)を構成することになります。
ここで、パフォーマンスが気になりますね。分散スイッチであれば、トラフィックごとにネットワークリソースのコントロールが可能です。
デフォルトのネットワークリソースの割り当ては、すべて無制限です。帯域幅が飽和した場合に、ネットワーク I/O コントロールの「シェア値」を使用することで、帯域幅の割り当てをコントロールできます。管理者としては、より多くの仮想マシントラフィックに、より多くのiSCSIトラフィックに十分な帯域を割り当てたい、優先順位を付けたいと考えますよね。そのような場合に備え、ネットワークリソースのコントロールをご検討いただければと思います。

下図は、vSphere Web Clientのネットワークリソース割り当ての画面ショットです。


8

実際の設計/導入の場面では、下図のように1Gbps物理NICを接続した標準スイッチに管理ネットワークを、10Gbps物理NICを接続した分散スイッチにそれ以外のトラフィックを構成されることが多いと思います。下図は設計例の1つです。
この場合も複数のトラフィックを構成している分散スイッチは、ネットワーク I/O コントロールでのリソースコントロールをお勧めします!
1Gbpsと10Gbpsの混在環境では、「構成の上限(※)」にご注意ください。vSphere 6.5では、1Gbpsは4、10Gbpsは16です。

(※)vSphereの各バージョン毎に準備されているConfiguration maximum ガイドを参照下さい。
vSphere6.5のConfiguration maximum ガイドはこちら

9

◆まとめ
今回はあらためて仮想スイッチをとりあげました。分散スイッチは、Version 4.0から「vSphere Enterprise Plus」ライセンスで提供されています。上位ライセンスのため、標準スイッチと比べて、頻繁に導入する機会はなかったのではないかと思います。
しかし、この数年注目されつつある「VMware NSX」では、分散スイッチが前提となります。また、物理NICも10Gbpsが一般的になってきましたから、ネットワーク I/O コントロールの提案もしやすくなっている状況ではないでしょうか。
提案時のエンドユーザー様はコスト重視の傾向がありますが、導入後のトレーニングでは、「先に話してくれれば。。。」とよく言われました(笑)
費用がかかるからこそ、その効果を知っていただくために、事前の勉強会も必要なのでは?と特に感じています。その際にはこちらのBlogをテキストに勉強会を企画いただけたら嬉しく思います。

8

nakagawa

仮想スイッチのお作法~標準スイッチから分散スイッチへの道~

1回目:仮想スイッチのお作法#1 (仮想スイッチの歴史とポートIDベースロードバランス)

– Back Number –
#1…仮想スイッチのお作法#1
#2…仮想スイッチのお作法#2

こんにちは、ソフトバンク コマース&サービスの中川明美です。
今回は、あらためて「仮想スイッチ」について取りあげます!!
私は、2009年から2015年までVMware認定インストラクターとして、「VMware vSphere : Install, Configure, Manage (5日間)」等の公認コースを実施してきました。
インストラクターとして得た、「ここがポイントですよ!」を共有しながら、標準スイッチと分散スイッチの同じところ/異なるところをご紹介していきます。
第1回目は、仮想スイッチの歴史とロードバランスのポートIDベースについてご紹介します。

◆仮想スイッチの歴史
Version3.5の知識のままvSphereを管理運用されているエンドユーザー様にお会いすることがあります。たとえば、vSphere HAや仮想スイッチです。仮想スイッチの1つである標準スイッチは3.5から変更点はありませんから支障がないのかもしれません。
しかし「ESXiホストの管理台数が増える」「ハードウェアの進化を活用する」となると、新しい知識(機能)が必要になります。そしてベストプラクティスも変更されていきます。
私は、エンドユーザー様にアップデートされた機能に興味をもっていただきたい場合、歴史(機能の変遷)の話をします。ご存知の時点から順に歴史の話をすると、興味をもっていただける傾向があります。では、歴史のお話を!
仮想スイッチの歴史は、公認コースのテキストを使用します。
Versionが上がれば機能が増えます。機能が増えればコースのスライド内容が変わるのは当然と思うかもしれません。しかし比較してみると、機能だけではなく、「思い(ベストプラクティス)」も伝わってくる気がします。順次見ていきましょう。

◆Version 3.5
古くからVMware製品に携わっている方には、懐かしい「サービスコンソールポート」です。3.xまでは管理ネットワークの接続タイプが必要でした。この図では、1つの「標準スイッチ」に複数の接続タイプが構成されています。1Gbps物理NIC3つの構成では、パフォーマンスに支障が出そうですね。
接続タイプ:3種類のネットワーク接続

1

◆Version 4.0
4.0になって、用途によって仮想スイッチを分ける例が紹介されています。この時は、用途別に仮想スイッチを分けるのは一般的でしたね。課題はESXホストの物理NICの数でした。冗長化を考慮するなら、最低2倍の物理NICが必要です。

2

◆Version 4.1
4.1になると、冗長化を意識した、複数の物理NICが搭載された図になっています。1Gbps物理NICが主流の時のベストプラクティスが見えてきますね。上の構成図は、10Gbps物理NICを使用した分散スイッチに適していますね!

3

◆Version 5.5
スライドの構成は、4.1以降変更はありません。しかし、各役割のVMkernelポートが1つという構成は最近ありませんね。vMotionであれば帯域確保や、iSCSIであればパスを増やす必要があります。その場合、複数のVMkernelポートを構成します。

4

◆なぜVMkernelポートは複数必要?
なぜVMkernleポートが複数必要なのかを知る前に、NICチーミングの「ロードバランス」を復習します。ロードバランスは物理NICの選択方法です。デフォルト値はポートIDベースです。ここでは仮想マシンポートグループを使用して、ポートIDベース確認します。物理NICは、仮想NICが割り当てられた仮想スイッチのポートによって選択されます。たとえば、下図は、VM①の仮想NICはポート0に割り当てられています。ポート0に接続されたVM①の通信は物理NICのvmnic0を使用します。同様にVM②はvmnic1を、VM③はvmnic2を使用します。すべての物理NICが選択されたため、残りのVM④は再びvmnic0を使用して通信をします。この説明はあくまでもイメージです。ポートIDベースは名前の通り、仮想NICが割り当てられたポートをベースに物理NICを選択し、ロードバランスをします。シンプルな物理NICの選択方法ですね。デフォルト値であることは納得です!

5

次に、VMkernelポートはどうでしょうか?
下図は、vMotionの構成例です。この仮想スイッチには、vMotion用のVMkernelポート(vmk0)が1つ構成され、物理NICが2つ(vmnic0/vmnic1)割り当てられています。VMkernelポートはESXiホストが通信をするために必要なポートですから、IPを付与するだけなら、1つでも支障はなさそうです。ただし、デフォルトのロードバランス設定はポートIDベースですから、フェイルオーバーが起きなければvmnic1は使用されません。ポートIDベースは、仮想NICが割り当てられた仮想スイッチのポートによって物理NICが選ばれるから。。。でしたね。この構成で冗長性は満たしていますが、2つの物理NICを十分に活用しているとは言えません。

6

ではどのように構成するのがベストでしょうか。参考までに次のKBをご確認ください。

-vSphere における複数 NIC の vMotion-
https://kb.vmware.com/kb/2014840

VMkernelはデフォルトのポートIDベースを使用します。複数の物理NICを活用するには、活用できるように構成をする必要があります。下図のように物理NICが2つあれば、VMkernelも2つ作成し、それぞれにActive-Standbyの設定をします。この構成をすることによって、2つの物理NICを活用し、帯域を拡張することができます。パフォーマンスを上げられますね。

7

VMkernelポートは、vMotion以外の用途として、「管理ネットワーク」「iSCSI/NFS」「FT」がありますね。管理ネットワークは、vSphere HAハートビートに影響がありますから、私は念には念を入れてロードバランスの値として、「明示的なフェイルオーバー」の設定を行っています。iSCSIでは、ポートバインドの設定が必要な場合もあります。参考までに次のポートバインドのBlogをご確認ください。

http://ja.community.dell.com/techcenter/b/weblog/archive/2012/04/05/equallogic-vsphere-portbind

◆まとめ
ポートIDベースの物理NICの選択方法を知ると、特にVMkernelポートではNICチーミングが必要な構成であることをご理解いただけたと思います。ESXiホストが少ない場合は、複数の標準スイッチにポリシーを構成するのも煩雑ではないかもしれません。しかし、VDI環境など多くのESXiホストがある環境では、ポリシーを一元管理できる分散スイッチが注目されてきますね。
次回は、分散スイッチを活用するシチュエーションについてご紹介します。

8

nakagawa

VMware vRealize Operations Manager (vROps) をパワーアップしよう! パート2

5回目:vRealize Log Insightとの連携

– Back Number –
#1…最新のV4Hが使いやすくなっている!
#2…ビューの活用方法①
#3…ビューの活用方法②
#4…レポートの活用方法
#5…vRealize Log Insightとの連携
#6…V4HでHorizon RDSホストの監視

こんにちは、ソフトバンク コマース&サービスの中川明美です。
今回はvRealize Operations ManagerとvRealize Log Insightを連携した活用法をご紹介します。

仮想化健康診断では、「ワークロード」と「ストレス」の値を参考に、分析してくださいとお話しています。「ワークロード」は現在の状態を、「ストレス」は過去6週間の平均値を表わしています。
下図の「ストレス」の結果から、木曜の16時から18時、19時から20時の間で負荷が高いことがわかります。たとえば、バックアップなど定時に高負荷な状態が起きる場合は、この画面から原因を推察することができます。しかし突発的な負荷が起きた場合は、原因を調査する必要があります。その際、Log Insightで収集されたイベントから何が起きたかを調査すれば、より早く原因を特定することができます。vROpsとLog Insightを連携することで、よりパワーアップできますね。
stress

このBlogでは、ネットワークの負荷を高めた状態を準備し、原因を特定するまでのプロセスを、連携の活用法としてご紹介します。
ネットワークの負荷を高める方法は、仮想マシン「Win7-01(192.168.250.202)」から、仮想マシン「Win7-02(192.168.250.200)」へPingコマンドを実行します。
Pingコマンドは、「-t:パケットの送受信を無限に繰り返す」と「-l:パケットのデータサイズ(バイト単位)を指定する」の2つのオプションを追加しています。今回は負荷を高めるため「-l 1000」を指定しました。-lのデフォルト値は32バイトです。
実行してしばらく経つと、「推奨」タブに、Win7-01でCPU使用量が高いためストレスが発生しているとアラートが表示されました。
alert

◆vROpsでの分析◆
ここから順に原因を特定していきます!
「Win7-01」の「分析」タブで詳細な状況を確認します。通常とは異なる状態であることを表わす「アノマリ」が高い値を示しています。
anomaly
どのリソースが高い値を引き起こしているかを、画面下部の詳細情報から確認します。
これらの情報から、「ネットワークリソース」に原因があることがわかります。
Detail
「詳細」タブの「仮想マシンのネットワークI/O診断」からは、14:40以降に受信/送信パケット数が上がっていることもわかります。
Detail2
ここで、あらためてネットワークのパフォーマンスについて確認します。

◆仮想ネットワークのパフォーマンス◆
仮想ネットワークは、「スループット」や「パケットドロップ」のメトリックを使用してパフォーマンスを監視します。特に「パケットドロップ」が発生しているかを確認することはパフォーマンス劣化の原因を特定する有効な方法です。
パケットドロップは、受信と送信でパフォーマンス劣化の原因が異なります。そのため対応方法もそれぞれ異なります。

<ドロップ送信パケット>
送信パケットは、ネットワークキャパシティが足りない場合に、仮想NICから仮想スイッチポートの順でキューイングされ、いずれもキューがあふれるとドロップされます。

<ドロップ受信パケット>
受信パケットは、準備できていない場合に、仮想NICから仮想スイッチポートの順でキューイングされ、いずれもキューがあふれるとドロップされます。

「準備できる」というのは、受信する仮想マシンで、仮想CPUに物理CPUが割り当てられた状態です。物理CPUが割り当てられなければ、受信処理を行うことができません。
仮想マシンのCPU使用率は、受信パケットのドロップ数にも影響を与えます。

◆Log Insightでイベントの検索◆
下図は、「IPアドレス」と「dropped」をキーワードに、仮想マシン「Win7-01」のLogを検索した結果です。木曜(12/8)の17時前後にドロップされているイベントがあります。vROpsの「ストレス」で確認した曜日と時間が一致しています。ドロップによるパフォーマンスが劣化していることは確定しました。
LI
参考までに、受信側の仮想マシン「Win7-02」の状況も確認してみます。
こちらの仮想マシンも、「アノマリ」で高い値を示しています。送信側の仮想マシン「Win7-01」と異なるのは、「CPU|準備完了」の値も上がっています。仮想CPUに物理CPUに割り当てられず、受信処理が行われていないことがわかります。
ネットワークのパフォーマンスが劣化している場合は、原因特定にCPUの状況も確認する必要がありますね。
Detail3

◆まとめ◆
Log Insightと連携することで、詳細な日時で何が起きたのかを確認することができます。
vROpsの「詳細」タブでは日時までは確認できますが、具体的に何が起きているかまでは調査するのは厳しいですね。
仮想化健康診断で、具体的な日時で何が起きているのでしょうかと聞かれます。連携すると、このご質問にも対応できますね。ぜひご活用いただきたいと思います。
計9回(パート1 x4回パート2 x5回)にわたり、vROpsの活用法をご紹介してきました。「このBlogで勉強しています」と声をかけていただくこともあり、嬉しいフィードバックでした。
今後も、様々な製品の活用法をご紹介していけたらと思います!

nakagawa
ソフトバンクC&SのサイトでvROpsを使用した仮想化健康診断の事例を紹介しています。ここでは、「vSphere環境を運用管理している方が何に困っているのか」「その困ったことにパートナーのみなさまがどのようにアプローチされているのか」を載せています。インタビュー形式で構成しています。ぜひお仕事に役立つ情報を手に入れてください!
voa

VMware vRealize Operations Manager (vROps) をパワーアップしよう! パート2

4回目:レポートの活用方法

– Back Number –
#1…最新のV4Hが使いやすくなっている!
#2…ビューの活用方法①
#3…ビューの活用方法②
#4…レポートの活用方法
#5…vRealize Log Insightとの連携
#6…V4HでHorizon RDSホストの監視

こんにちは、ソフトバンク コマース&サービスの中川明美です。
今回はレポートの活用方法をご紹介します。レポートを活用するためには、カスタマイズが必要です!!

◆よくあるご質問◆

「レポートの出力期間を変更したい」と質問を受けることがあります。その場合はレポートの元となる「ビュー」の日付範囲を変更します。
レポートは、1つ以上の「ビュー」または「ダッシュボード」、もしくは両方から構成されます。データの表示は「ビュー」または「ダッシュボード」を使用し、レイアウト(配置)や出力形式(PDF/CSV)をレポートの作成ウィザードで指定します。

◆カスタムレポートの作成①◆

既存レポートの出力期間(過去の期間)をデフォルトの30日から特定の2ヶ月間に変更します。
<データタイプの確認>
ここでは、「ホストのCPUデマンドおよび使用量(%)トレンドビューレポート」をカスタムの対象にします。どのビューを元にレポートが構成されているかを確認します。レポートを選択し、「テンプレートの編集」アイコンをクリックします。

edit-report-template

「2.ビューとダッシュボード」の「データタイプ」が表示されます。このレポートは、「ホストのCPUデマンドおよび使用量(%)トレンドビュー」というビューで構成されていることがわかります。

edit-report-template2

<ビュー/レポートの編集>
レポートのデータ表示期間を変更するには、レポートのデータタイプで指定されたビューの日付範囲を変更します。その後、変更したビューに差し替えます。この場合、ビューもレポートもコピーを作成し、変更することをお勧めします。

■ビューの編集
edit-view

■レポートの編集
edit-report
edit-report2

◆レポートの出力◆
レポートのテンプレートを実行し、レポートを出力(ダウンロード)します。
download-report

下図は、日付範囲を変更したレポートをPDFで出力した結果です。「特定の日付範囲」で指定した8月~9月の過去データが表示されています。

display-report

◆カスタムレポートの作成②◆
新規レポートを作成します。前回のBlogで作成したカスタムビューを元にレポートを作成します。
下図は、前回のBlogで作成したカスタムビューです。
custom-view

<レポートの新規作成>
create-report
create-report2

◆まとめ
2つのカスタムレポートの作成方法をご紹介しました。ぜひ活用してみてください!
全体を通したお話となりますが、vROpsに慣れるまでは標準の機能(ダッシュボード/ビュー/レポート)を使用してみてください。vROpsを知る段階で、カスタム機能までを習得しようとすると、「やることがいっぱい」「カスタム機能は難しい」と思ってしまうようです。
まずは、「vROpsで何ができるの?」を知ることから始めてください。その後、カスタム機能を習得するのが理想的です。カスタム機能については、ぜひこちらのBlogをご活用いただけたらと思います。

次回は、vRealize Log Insightとの連携をご紹介します。

nakagawaソフトバンクC&SのサイトでvROpsを使用した仮想化健康診断の事例を紹介しています。ここでは、「vSphere環境を運用管理している方 が何に困っているのか」「その困ったことにパートナーのみなさまがどのようにアプローチされているのか」を載せています。
インタビュー形式で構成しています。ぜひお仕事に役立つ情報を手に入れてください!
voa

VSAN で DR / BCP を実現する VSAN Stretched Cluster !! ~ vSAN stretched clusterとは? ~

第1回 vSAN stretched clusterとは?

img_0284

皆さん、こんにちは。JBCC株式会社の美谷島と申します。

突然ですが、VSAN Stretched Cluster をご存知でしょうか?

先日のvForum 2016 の VSAN Deep Dive セッションでも紹介されていました vSAN stretched Clusterの概要、構築方法などを 今回から4回にわたってご紹介していきたいと思います。

第1回ではvSAN stretched clusterとは?と題してvSAN stretched clusterの概要・メリット、サイジング方法をご紹介します。

弊社では、VMware社のvSphereやHorizonのような仮想化製品のインテグレーションに力を入れています。

その中でも、特に注目したのが ” Software Defined Storage(以下SDS)”です。SDS は一言でいうとソフトウェアでストレージ機能を実装するという技術です。仮想化基盤では可用性を持たせるために共有ストレージ装置が必要となりますが、SDS を導入すれば汎用的なx86サーバだけで共有ストレージ機能を実現できるのが強みです。また、x86サーバを追加するだけで簡単に容量とパフォーマンスを増強することができますので、オンプレミス環境であってもクラウド環境のような柔軟な拡張性が実現できるようなりました。ちなみに SDS は近ごろ大変脚光を浴びている Hyper-Converged Infrastructure のコアテクノロジーでもあります。

現在各社からたくさんの SDS 製品がリリースされておりますが、その中でも VMware 社の vSAN stretched cluster 機能 は BCP 対策も可能な高度な機能を有したストレージです。

私共はこの vSAN stretched cluster に着目して、お客様に新たな選択肢となり得るであろう BCP ソリューションをお届けするためにこれを検証することにしました。

 

vSAN概要

1

まず、stretched clusterを語る前に簡単に vSAN のおさらいをしておきますが、 vSAN は SDS 製品の中でも代表格となる製品です。 従って、 vSAN によって SDS のメリットがもれなく享受でき、その上、各ノードに SSD を配置することで、これをディスクの Read Write の IO のキャッシュとして利用することができパフォーマンス向上も期待できます。さらには、仮想マシン毎に可用性のレベルや QoS をセットすることが可能で、ポリシーベースで柔軟性があるところも他の SDS にはない、非常に大きな強みとなっています。

 

 

vSAN Stretched Cluster概要

ここからが本題となりますが、 Stretched Cluster は通常の vSAN 構成と何が違うのでしょうか。

端的にご説明しますと地理的に離れたサイト間で vSAN が組めるということです。普通に考えれば2サイトにロケーションが分かれればストレージは2つ独立して存在することになるのですが、 Stretched Cluster は2つのサイト間(地理的に離れたサーバ同士)でも1つの共有ストレージとして扱うことができます。

 

2

 

また、災害対策と言うと一般的には Active – Standby 構成となり、災害対策サイト側の機器は普段は稼働することなく、遊んでしまっている状態になってしまい、ちょっと勿体ない構成となってしまいますが vSAN Stretched Cluster は本番サイト、災対サイト 共に Active – Activeで構成できる ことがポイントです。

Active – Active構成にすることで以下のメリットが挙げられます。

 

・災害対策サイト側も Active なのでリソースを有効活用

・ゼロRTO * 1(サイト間でデータは完全同期レプリケーション)

*1 RTO ・・・ Recovery Time Objective

・各サイトにvCenterを配置する必要がなく、本番サイト1つで良い

・本番サイトから災害対策サイトへの切り替え作業が不要

(基本的にL2延伸でサイト間は利用しますので、DNSによるレコード切替、IPアドレス変更といったサイトを切り替える手順を実施する手間が省けます。)

 

シンプルな構成で DR 構成を組みたいといったユーザ様にとってはメリットが大きい構成だと思います。

また、通常の vSANは 同じデータを別ホストにも書き込むことで冗長性を担保していることが特徴ですが、 vSAN Stretched Cluster構成であれば別サイトのホストに可用性のためのデータを書込むことが可能になりますので、サイト障害にも、もちろん データロスなしで対応できます。

 

その他に必要となるコンポーネントとして witness サーバがあります。 Witness サーバとは監視サーバのことであり、サイトの死活監視をしていますので Witness サーバは両サイトとは別のセグメントで立てる必要があります。

vSAN Stretched Cluster 環境では2フォルトドメインまで立てられ、各フォルトドメインに15ホストまで構築可能です。フォルトドメインとは Disk グループで構成される障害の単位になります。

 

vSAN Stretched cluster の要件は以下の通りです。(一般的な vSAN の必要条件はここでは割愛します。)

 

・vSphere 6.0 update1以上

・最適な仮想マシンの挙動を行うためにDRSのアフィニティルールが必要となりますので、エディションはEnterprise Plus以上

・10 Gbps以上のネットワーク帯域(サイト間)

・100 Mbps以上のネットワーク帯域(サイト ー witness間)

・5 msec以下のlatency(サイト間)

・100 msec以下のlatency(サイト ー witness間)

・サイト間はL2接続

・サイト – witness間は L3 接続

 

3

 

既にお気づきかと思いますが、ここで肝となるのがネットワーク(vSANネットワーク)です。

そこで、vSAN ネットワークのサイジング方法をご紹介します。

 

 

サイジング

ここからはサイジングの話となります。まず、CPUやメモリ、 Diskといったサイジングについては通常のvSAN 構成と同様なので以下の VMware 社 川崎様記載のブログを参照ください。

http://blogs.vmware.com/jp-cim/2016/04/vSAN_04.html

 

通常のvSAN構成と違う点としては、片方のサイトが被災した場合も考慮しなければいけないのでCPU、メモリは片方のサイトで賄えるようにサイジングする必要があります。

ネットワークのサイジングについては write のスループットがポイントとなってきます。データを書き込む際の処理の動きは図4の通りとなり、サイト間の vSAN ネットワークが 5msec以内であることが必須要件となります。

データの読み込みは仮想マシンが稼働しているプライマリホスト群から直接読み込みますので別サイトにあるホストにアクセスすることはなく、WAN経由してまでvSANネットワークを使うことはありません。(図5)

 

4

 

5

 

そこで各ホストの write のスループットを算出することで必要となる vSAN ネットワーク帯域が判明できますのでネットワークをサイジングするときは write スループットの算出がお勧めです。

 

※ JBCC社における構成時の参考値

・既存に vSAN を導入している場合

…ESXTOPで算出

・vSphere 環境のみであり、新規に vSAN Stretched Cluster を導入する場合

…既存ストレージの管理画面から取得

 

(例) writeスループット:1 Gbpsの場合

vSAN ネットワーク=1 Gbps ( writeスループット)×1.4(オーバーヘッド)×1.25(障害時に走るtraffic 25 % 込)=1.75 Gbps

 

この場合であれば10 Gbpsの帯域で余裕ですね。

 

以上が vSAN Stretched Clusterの概要、サイジング方法でした。

 

尚、弊社ではストレージのワークロードを分析しお客様環境のIO分析をするストレージクリニックと呼ばれる無償サービスを実施していますのでwriteスループットの算出のみでなく仮想環境のサイジングを実施する際は是非ともご活用ください。

http://www.jbcc.co.jp/products/plan/storage_clinic/index.html

 

ただ、障害時にどのような挙動になるか気になりますよね?

JBCC は日本で最初にvSAN Stretched Clusterをお客様に提案し、ご採用頂きました。

ご採用頂くにあたり私共は、様々な検証をしました。そのときの内容を元に、次回は障害時の挙動に関してご紹介しますので是非ともご確認ください。

 

vSAN Stretched Clusterブログ

第1回 vSAN Stretched Clusterとは?

第2回 障害時の挙動

第3回 構築、運用ポイント

第4回 JBCC推奨構成