作者: Colin Jao 饒康立 – VMware資深技術顧問,主要負責VMware NSX產品線,目前致力於網路虛擬化、分散式安全防護技術與新應用遞送方案的介紹與推廣。

回憶一下整個流程,在前一篇我們走完了前四個,接下來要由第五個開始:

當我們要把各台compute cluster的雙網卡納入NSX-T管理時,事實上我們講的是下面這幾件事:

 

  • 兩張實體網卡在vSphere內是被N-VDS管理,不是原來的VSS or VDS。

 

  • 因此除了業務虛機的流量外,vSphere本身的各種vmkernel port也要轉移到N-VDS上

 

  • 雖然只有兩張網卡,通常大家也會想要做不同用途流量間的線路控制。比如說下面這張圖:

在這個配置的例子內,我們會依據需求把管理 / vMotion / 儲存等主線路分開。在上圖內,兩張網卡分別我們稱為U1 / U2。規劃上希望要這樣做:

 

  • Management的vmk0流量主要在左邊的U1線路,右邊的U2介面備援。

 

  • vMotion / Storage的vmkernal port則相反,正常狀況下主流量在右邊的U2線路,左邊備援

 

  • 業務虛機或容器的流量,無論是在NSX-T的overlay交換器上或是採用vlan形式,採用兩個介面同時使用 (active / active) 的配置方式

 

上面的需求,相信大家知道在VSS / VDS上面怎麼做。既然NSX-T要在雙網卡架構內完全取代VSS / VDS的功能,當然也必須要做得到。所以接著我們討論第五個步驟:

 

步驟五:配置 2 vmnic vsphere uplink profile,並配置teaming policy

 

請大家回憶一下NSX-T的安裝步驟。uplink profile是用來做什麼的呢?是用來指定在特定的機器上,要不要做LACP,MTU大小多少,如果要走overlay,TEP使用的vlan ID是哪個。此外,這個形態的server有幾張網卡要歸NSX-T管,active-standby要怎麼配…上面的相關資訊,我們使用 “Uplink Profile” 來進行配置。

 

所以如果我們的伺服器是雙網卡架構,而且希望不同的流量可以有不同的網卡選擇,此時uplink profile的配置大概像下面這樣:

我們建立了一個叫做2vmnic-vsphere-profile的uplink profile。在這個配置樣板內,沒有設定LACP,Overlay-TEP的VLAN是8,底層的MTU是1700。但特殊的在於中間的Teamings部分:

 

  • Default Teaming是後續給所有overlay-type交換器,以及沒有特殊指定teaming要求的vlan-type交換器預設值。上圖內,我們選擇兩張網卡(定名為uplink-1 / uplink-2)都要active,透過Load Balance Source by Port的方式進行負載平衡

 

  • 如本篇前面,我們希望Management的traffic可以走第一張網卡,第二張網卡備援。因此在Teaming內另外新增了一個Mgmt,Teaming Policy是Failover,而uplink-1是active, uplink-2是standby

 

  • 同理,vMotion的Teaming則採相反配置,uplink-1是standby,uplink-2是active

 

這個步驟要先配置完成。接著再下一個步驟再來配vlan-based Transport Zone

 

步驟六:配置 vlan-based Transport Zone 並指定 teaming policy

 

NSX-T的標準安裝架構內,Transport Zone與N-VDS的搭配用來指定在使用這個N-VDS的實體網卡上,可以配置採用vlan-type型態或是以Geneve封裝的overlay-type型態交換器。此外也可以選擇是否要開啟特殊的Enhanced Datapath模式。請大家回憶一下,通常在一個NSX-T的標準安裝,我們會配置三個Transport Zone:

 

  • Type-1: Edge對外實體網路連接的vlan-type TZ。要對外部實體網路 / 路由器間接取的邏輯交換器,會選擇這個TZ型態

 

  • Type-2: NSX-T內部環境,包含各台Edge與vSphere間都能認到的overley-type TZ。透過這個TZ,用戶就可以建立無需更動底層,動態建立的內部overlay型態交換器

 

  • Type-3: 但我們也會為了與傳統vlan網路可相通,因此在NSX-T內部環境也要支援vlan-type transport zone。這樣管理者也可以選擇讓vSphere上的虛機或是vmkernel port與vlan實體網路直接二層相連,或讓Edge上面的stateful服務如load balancer等提供給vlan網路使用

 

而Type-2 / Type-3的兩個transport zone因為會在同一個N-VDS(所管理的同一張網卡)上運作,因此會取同一個N-VDS名稱

 

請問大家,在雙網卡架構內我們需要把vmkernel放在哪邊?應該不是overlay形態的交換器,而是要和底層管理網路或儲存網路直接接取的vlan-type交換器吧。簡而言之,上面提到的第三種,會能在vSphere上面運作的vlan-type transport zone,我們可以進行下列的配置:

上圖內,這個Transport Zone的名稱,N-VDS Name,標準型態,Traffic Type選為VLAN這些大家應該都熟悉了。特別的點是在Uplink Teaming Policy Names。這邊,各位請把前面步驟五內所額外配置的兩個Teaming輸入進來,名稱要一模一樣。此時要使用這個Transport Zone的交換器,就會知道除了預設值的teaming policy外,還有兩種額外的方式 (Mgmt / vMotion) 可以選擇。

 

步驟七:配置對應各管理 vmkernel 的邏輯交換器

 

想像一下在VSS / VDS上面,大家應該會建不同的Port Group來給management / vMotion / storage等vmkernel使用吧。而在雙網卡配置,VMkernel要轉移到N-VDS上,此時對應到各個VMkernel,我們也會建立對應的vlan-type邏輯交換器。

 

要用傳統的Advanced UI或新的Simplified UI均可,依據下面的步驟我們建置對應的交換器:

 

  • 輸入邏輯交換器的名稱。如果在Simplified UI,不要接到T0/T1 Gateway上

 

  • 選擇Transport Zone是前面步驟建的內部vlan-type TZ

 

  • 既然是vlan-type,輸入對應的vlan ID

 

  • 重點:我們需要修改這個邏輯交換器的teaming配置。目前這個配置只有在Advanced UI上有 (2.5版),Simplified UI後續才會做出來。在這邊,如果大家不要用預設的teaming設定,就選擇為在前面兩個步驟有配出的其他policy

 

在這個範例內我建了兩個vlan-type交換器:VLAN6-Management以及VLAN7-vMotion,下圖內是VLAN6-Management的配置。各位可以看到Uplink Teaming Policy Name的地方可以進行修改。

本篇內我們進行了對應到雙網卡架構,NSX-T內包含Uplink Profile / Transport Zone / 對應VMkernel的邏輯交換器等等配置準備。再下一篇,我們要開始把NSX-T安裝到各台僅有雙網卡的vSphere上。