vSphere NIC チーミング Deep Dive:発信元の仮想ポートIDに基づいたルート
以前の記事を受けて、更にDeep Diveをしてチーミングポリシーの負荷分散の様子をesxtopで確認してみました。
検証環境
今回はVMware Hands on LABを使い検証を行いました。
- 標準スイッチを作成(3つのアップリンクを構成)
- 仮想マシンポートグループを1つ作成
- 仮想マシンを3台準備(準備時点では仮想NICの数は、仮想マシンに対し1つ)
”発信元の仮想ポートに基づいたルート”の復習
このポリシーは、vSphere ESXiにおいてデフォルトの負荷分散ポリシーとなっています。
上図で示すように、物理NIC(pNIC)を交互に使うという手法の負荷分散ポリシーです。
なお、電源が投入された仮想マシンの仮想NICが、負荷分散対象となります。(電源停止状態の仮想マシンは、仮想スイッチからは切り離されます)
検証1:3台の仮想マシン(各仮想マシンは1つのvNICを搭載)を、共通のポートグループに接続した場合
こちらの図からは、仮想マシンの台数、仮想スイッチの様子、各仮想マシンがどの物理NICを利用しているかが確認可能です。
図をご覧頂くと分かるように、事前の説明と異なる動きになっています。(vmnic2が集中的に利用されているように見えます)
検証2:3台の仮想マシン(各仮想マシンは2つのvNICを搭載)を、共通のポートグループに接続した場合
今度は3台の仮想マシンのvNIC(仮想NIC)数を2つ、合計6つのvNICが登場する環境に変更しました。
ご覧頂いておわかりのように、6つのvNICを仮想スイッチに接続をした所、綺麗に分散されました。
(各物理NICには、2つのvNICを接続してから、次の物理NICをアサインするような動きなんですね)
検証3:1台の仮想マシン(6つのvNICを搭載)を、ポートグループに接続した場合
更に検証を加えました。1台の仮想マシンに搭載する仮想NICの数を6つにして同様の検証を行います。
上記仮想マシンは、6つのvNICを搭載していることが確認出来ました。
上図でご覧頂いて分かる通り、単一の仮想マシンで複数の仮想NICを保有する場合でも、同じように分散されました。
ここから更にvNICを6つ搭載する仮想マシンをクローンで増やしました。
結果はやはり同じように、2つの仮想NIC当たり1つの物理アダプターがアサインされました。
結論
結論としては、”vNICの数に対して物理NICをアサインする”というシンプルなものでしたが、実際の動きとしては2つのvNICに対して1つの物理NICがアサインされている動きでした。
また、アサインされる物理NICは仮想マシンを一旦シャットダウンし、その後起動をすると、その時点での物理NICアサイン状況に応じて物理NICが変わる可能性があります。(再起動操作の場合は、電源ステータスは変わらないので変化しません)最後に、1つのvNIC自体は常時1つの物理NICを使って通信を行うため、最大通信速度はアサインされた物理NICの帯域幅に限定されます。
コメント