vSphere NIC チーミング Deep Dive:発信元の仮想ポートIDに基づいたルート

VMware

vSphere NIC チーミング Deep Dive:発信元の仮想ポートIDに基づいたルート

以前の記事を受けて、更にDeep Diveをしてチーミングポリシーの負荷分散の様子をesxtopで確認してみました。

検証環境

今回はVMware Hands on LABを使い検証を行いました。

  • 標準スイッチを作成(3つのアップリンクを構成)
  • 仮想マシンポートグループを1つ作成
  • 仮想マシンを3台準備(準備時点では仮想NICの数は、仮想マシンに対し1つ)

”発信元の仮想ポートに基づいたルート”の復習

このポリシーは、vSphere ESXiにおいてデフォルトの負荷分散ポリシーとなっています。

上図で示すように、物理NIC(pNIC)を交互に使うという手法の負荷分散ポリシーです。
なお、電源が投入された仮想マシンの仮想NICが、負荷分散対象となります。(電源停止状態の仮想マシンは、仮想スイッチからは切り離されます)

検証1:3台の仮想マシン(各仮想マシンは1つのvNICを搭載)を、共通のポートグループに接続した場合

こちらの図からは、仮想マシンの台数、仮想スイッチの様子、各仮想マシンがどの物理NICを利用しているかが確認可能です。

図をご覧頂くと分かるように、事前の説明と異なる動きになっています。(vmnic2が集中的に利用されているように見えます)

検証2:3台の仮想マシン(各仮想マシンは2つのvNICを搭載)を、共通のポートグループに接続した場合

今度は3台の仮想マシンのvNIC(仮想NIC)数を2つ、合計6つのvNICが登場する環境に変更しました。

ご覧頂いておわかりのように、6つのvNICを仮想スイッチに接続をした所、綺麗に分散されました。
(各物理NICには、2つのvNICを接続してから、次の物理NICをアサインするような動きなんですね)

検証3:1台の仮想マシン(6つのvNICを搭載)を、ポートグループに接続した場合

更に検証を加えました。1台の仮想マシンに搭載する仮想NICの数を6つにして同様の検証を行います。

上記仮想マシンは、6つのvNICを搭載していることが確認出来ました。

そして仮想マシンを起動します。

上図でご覧頂いて分かる通り、単一の仮想マシンで複数の仮想NICを保有する場合でも、同じように分散されました。

ここから更にvNICを6つ搭載する仮想マシンをクローンで増やしました。


結果はやはり同じように、2つの仮想NIC当たり1つの物理アダプターがアサインされました。

結論

結論としては、”vNICの数に対して物理NICをアサインする”というシンプルなものでしたが、実際の動きとしては2つのvNICに対して1つの物理NICがアサインされている動きでした。

また、アサインされる物理NICは仮想マシンを一旦シャットダウンし、その後起動をすると、その時点での物理NICアサイン状況に応じて物理NICが変わる可能性があります。(再起動操作の場合は、電源ステータスは変わらないので変化しません)最後に、1つのvNIC自体は常時1つの物理NICを使って通信を行うため、最大通信速度はアサインされた物理NICの帯域幅に限定されます。

コメント