NetScaler VPX

サポートマトリックスと使用ガイドライン

このドキュメントでは、NetScaler VPXインスタンスでサポートされているさまざまなハイパーバイザーと機能について説明します。また、使用ガイドラインと既知の制限事項についても記載しています。

XenServerまたはCitrix Hypervisor上のVPXインスタンス

Citrix Hypervisorバージョン SysID パフォーマンス範囲
8.2 (13.0 64.x以降をサポート), 8.0, 7.6, 7.1 450000 10 Mbps~40 Gbps

VMware ESXiハイパーバイザー上のVPXインスタンス

ESXiバージョン ESXiリリース日 (YYYY/MM/DD) ESXiビルド番号 NetScaler VPXバージョン パフォーマンス範囲
ESXi 8.0 update 3f 2025/07/15 24784735 13.1-58.x以降のビルド 10 Mbps~100 Gbps























ESXi 8.0 update 3e 2025/04/10 24674464 13.1-58.x以降のビルド
ESXi 8.0 update 3d 2025/03/04 24585383 13.1-56.x以降のビルド
ESXi 8.0 update 3c 2025/01/23 24414501 13.1-55.x以降のビルド
ESXi 8.0 update 3b 2024/09/17 24280767 13.1-53.x以降のビルド
ESXi 8.0 update 3 2024/06/25 24022510 13.1-53.x以降のビルド
ESXi 8.0 update 2c 2024/05/21 23825572 13.1-53.x以降のビルド
ESXi 8.0 update 2b 2024/02/29 23305546 13.1–49.15、および13.1-52.x以降のビルド
ESXi 8.0 update 2 2023/09/21 22380479 13.1-52.x以降のビルド
ESXi 8.0 update 1 2023/04/18 21495797 13.1-45.x以降のビルド
ESXi 8.0c 2023/03/30 21493926 13.1-45.x以降のビルド
ESXi 8.0 2022/10/11 20513097 13.1-42.x以降のビルド
ESXi 7.0 update 3s 2025/03/04 24585291 13.1-55.x以降のビルド
ESXi 7.0 update 3r 2024/12/12 24411414 13.1-55.x以降のビルド
ESXi 7.0 update 3q 2024/05/21 23794027 13.1-53.x以降のビルド
ESXi 7.0 update 3p 2024/03/05 23307199 13.1-52.x以降のビルド
ESXi 7.0 update 3o 2023/09/28 22348816 13.1-51.x以降のビルド
ESXi 7.0 update 3n 2023/07/06 21930508 13.1-49.x以降のビルド
ESXi 7.0 update 3m 2023/05/03 21686933 13.1-48.x以降のビルド
ESXi 7.0 update 3i 2022/12/08 20842708 13.1-37.x以降のビルド
ESXi 7.0 update 3f 2022/07/12 20036589 13.1-33.x以降のビルド
ESXi 7.0 update 3d 2022/03/29 19482537 13.1-27.x以降のビルド
ESXi 7.0 update 3c 2022/01/27 19193900 13.1-21.x以降のビルド
ESX 7.0 update 2d 2021/09/14 18538813 13.1-9.x以降のビルド
ESX 7.0 update 2a 2021/04/29 17867351 13.1-4.x以降のビルド

注記:

各ESXiパッチのサポートは、上記の表で指定されたNetScaler VPXバージョンで検証されており、NetScaler VPX 13.1バージョンのすべてのそれ以降のビルドに適用されます。

Microsoft Hyper-V上のVPXインスタンス

Hyper-Vバージョン SysID パフォーマンス範囲
2016, 2019 450020 10 Mbps~3 Gbps

Nutanix AHV上のVPXインスタンス

NetScaler VPXは、Citrix Readyパートナーシップを通じてNutanix AHVでサポートされています。Citrix Readyは、ソフトウェアおよびハードウェアベンダーがデジタルワークスペース、ネットワーキング、およびアナリティクス向けのNetScalerテクノロジーと製品を開発および統合するのに役立つテクノロジーパートナープログラムです。

Nutanix AHVにNetScaler VPXインスタンスを展開するステップバイステップの方法の詳細については、「Nutanix AHVへのNetScaler VPXの展開」を参照してください。

サードパーティのサポート:

NetScaler環境で特定のサードパーティ(Nutanix AHV)統合に関する問題が発生した場合は、サードパーティパートナー(Nutanix)に直接サポートインシデントをオープンしてください。

パートナーが問題がNetScalerにあると判断した場合、パートナーはNetScalerサポートに連絡してさらなる支援を求めることができます。パートナーの専任の技術リソースが、問題が解決されるまでNetScalerサポートチームと協力します。

汎用KVM上のVPXインスタンス

汎用KVMバージョン SysID パフォーマンス範囲
RHEL 7.6, RHEL 8.0, RHEL 9.3 450070
10 Mbps~100 Gbps
Ubuntu 16.04, Ubuntu 18.04, Ubuntu 22.04

留意事項:

KVMハイパーバイザーを使用する際は、以下の点に留意してください。

  • VPXインスタンスは、表1~4に記載されているハイパーバイザーのリリースバージョンに対して認定されており、バージョン内のパッチリリースに対しては認定されていません。ただし、VPXインスタンスは、サポートされているバージョンのパッチリリースでもシームレスに動作することが期待されます。動作しない場合は、トラブルシューティングとデバッグのためにサポートケースをログに記録してください。

  • RHEL 7.6を使用する前に、KVMホストで以下の手順を完了してください。
    1. /etc/default/grubを編集し、"kvm_intel.preemption_timer=0"GRUB_CMDLINE_LINUX変数に追加します。

    2. "# grub2-mkconfig -o /boot/grub2/grub.cfg"コマンドを使用してgrub.cfgを再生成します。

    3. ホストマシンを再起動します。

  • Ubuntu 18.04を使用する前に、KVMホストで以下の手順を完了してください。

    1. /etc/default/grubを編集し、"kvm_intel.preemption_timer=0"GRUB_CMDLINE_LINUX変数に追加します。
    2. "# grub-mkconfig -o /boot/grub/grub.cfg “コマンドを使用してgrub.cfgを再生成します。
    3. ホストマシンを再起動します。

パブリッククラウド上のVPXインスタンス

パブリッククラウド SysID パフォーマンス範囲
AWS 450040 10 Mbps~30 Gbps
Azure 450020 10 Mbps~10 Gbps
GCP 450070 10 Mbps~10 Gbps

ハイパーバイザーでサポートされるVPX機能

ハイパーバイザー →
機能 ↓
XenServer上のVPX
VMware ESX上のVPX
Microsoft Hyper-V上のVPX
汎用KVM上のVPX
 
 
インターフェース → PV SR-IOV エミュレート PCIパススルー PV SR-IOV エミュレート PCIパススルー PV SR-IOV PCIパススルー
マルチPEサポート はい はい はい はい はい はい はい はい はい はい はい
クラスタリングサポート はい はい¹ はい はい¹ はい はい はい はい はい¹ はい はい
VLANタギング はい はい はい はい はい はい はい (2012R2のみ) はい はい はい はい
リンクイベント/HAMonの検出 いいえ² はい³ いいえ² はい³ いいえ² はい³ いいえ² いいえ² はい³ はい³ はい³
インターフェースパラメータ設定 いいえ いいえ いいえ いいえ いいえ はい いいえ いいえ いいえ はい はい
スタティックLA はい² はい³ はい² いいえ はい² はい³ はい² はい² はい³ はい³ はい³
LACP いいえ はい³ はい² いいえ はい² はい³ いいえ はい² はい³ はい³ はい³
スタティックCLAG いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ
LACP CLAG いいえ いいえ はい² いいえ はい² はい³ いいえ はい² はい³ はい³ はい³
ホットプラグ いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ いいえ

パブリッククラウドでサポートされるVPX機能

パブリッククラウド →
機能 ↓
AWS上のVPX
Azure上のVPX
GCP上のVPX
マルチPEサポート はい はい はい
クラスタリングサポート いいえ いいえ いいえ
VLANタギング いいえ いいえ いいえ
リンクイベント/HAMonの検出 いいえ² いいえ² いいえ²
インターフェースパラメータ設定 いいえ いいえ いいえ
スタティックLA いいえ いいえ いいえ
LACP いいえ いいえ いいえ
スタティックCLAG いいえ いいえ いいえ
LACP CLAG いいえ いいえ いいえ
ホットプラグ はい いいえ いいえ

上記の2つの表で使用されている上付き文字の番号(1、2、3)は、それぞれの番号に対応する以下の点を指します。

  1. クライアント側およびサーバー側インターフェースのSRIOVでクラスタリングがサポートされており、バックプレーンではサポートされていません。
  2. NetScaler VPXインスタンスでは、インターフェースのDOWNイベントは記録されません。
  3. スタティックLAの場合、物理ステータスがDOWNのインターフェースでもトラフィックが送信される可能性があります。

以下の点は、上記の2つの表に示されているそれぞれの機能に適用されます。

  • LACPの場合、ピアデバイスはLACPタイムアウトメカニズムに基づいてインターフェースのDOWNイベントを認識します。

    • ショートタイムアウト: 3秒
    • ロングタイムアウト: 90秒
  • LACPの場合、VM間でインターフェースを共有しないでください。
  • 動的ルーティングの場合、リンクイベントが検出されないため、収束時間はルーティングプロトコルに依存します。
  • ルートの状態はVLANステータスに依存し、VLANステータスはリンクステータスに依存するため、モニターをスタティックルートにバインドしない場合、監視対象のスタティックルート機能は失敗します。
  • リンク障害が発生した場合、高可用性では部分的な障害検出は行われません。リンク障害が発生した場合、高可用性のスプリットブレイン状態が発生する可能性があります。
    • VPXインスタンスからリンクイベント(無効化、有効化、リセット)が生成されても、リンクの物理ステータスは変更されません。スタティックLAの場合、ピアによって開始されたトラフィックはインスタンスで破棄されます。
    • VMware ESXでVLANタギング機能が動作するようにするには、VMware ESXサーバーのvSwitchでポートグループのVLAN IDを1~4095に設定します。
  • AWS上のNetScalerでは、PVおよびSRIOVインターフェースのみホットアドがサポートされています。ENAインターフェースを持つVPXインスタンスはホットプラグをサポートしておらず、ホットプラグを試みるとインスタンスの動作が予測不能になる可能性があります。
  • NetScalerのPV、SRIOV、およびENAインターフェースでは、AWS WebコンソールまたはAWS CLIインターフェースを介したホットリムーブはサポートされていません。ホットリムーブを試みると、インスタンスの動作が予測不能になる可能性があります。

サポートされるブラウザー

NetScaler GUIバージョン14.1および13.1へのアクセスでサポートされるブラウザーについては、「互換性のあるブラウザー」を参照してください。

NetScaler VPXでサポートされるプロセッサー

プラットフォーム Intelプロセッサー AMDプロセッサー
Citrix Hypervisor はい いいえ
ESXi Hypervisor はい はい
Hyper-V はい いいえ
KVM はい いいえ
AWS はい はい
Azure はい はい
GCP はい はい

NetScaler VPXでサポートされるNIC

次の表に、VPXプラットフォームまたはクラウドでサポートされているNICを示します。

NIC → Mellanox CX-3 Mellanox CX-4 Mellanox CX-5 Intel 82599 SRIOV VF Intel X710/X722/XL710 SRIOV VF Intel X710/XL710/XXV710 PCIパススルーモード
^^プラットフォーム ↓ ^^ ^^ ^^ ^^ ^^ ^^
Citrix Hypervisor NA NA NA はい はい いいえ
ESXi Hypervisor いいえ はい いいえ はい いいえ はい
Hyper-V NA NA NA いいえ いいえ いいえ
KVM いいえ はい はい はい はい いいえ
AWS NA NA NA はい NA NA
Azure はい はい はい NA NA NA
GCP NA NA NA NA NA NA

使用ガイドライン

以下の使用ガイドラインに従ってください。

  • VPXインスタンスは、サーバーのローカルディスクまたはSANベースのストレージボリュームに展開することをお勧めします。

Performance Best Practices for VMware vSphere 6.5ドキュメントの「VMware ESXi CPUに関する考慮事項」セクションを参照してください。以下に抜粋を示します。

  • CPU/メモリ要求の高い仮想マシンが、オーバーコミットされたホストまたはクラスター上に配置されることは推奨されません。

  • ほとんどの環境では、ESXiは仮想マシンのパフォーマンスに影響を与えることなく、かなりのレベルのCPUオーバーコミットを許可します。ホスト上では、そのホストの物理プロセッサーコアの総数よりも多くのvCPUを実行できます。

  • ESXiホストがCPU飽和状態になった場合、つまり、ホスト上の仮想マシンやその他の負荷がホストのすべてのCPUリソースを要求した場合、レイテンシーに敏感なワークロードはうまく機能しない可能性があります。この場合、一部の仮想マシンをパワーオフしたり、別のホストに移行したり(またはDRSに自動的に移行させたりする)ことで、CPU負荷を軽減したいと考えるかもしれません。

  • Citrixは、仮想マシン向けにESXiハイパーバイザーの最新の機能セットを利用するために、最新のハードウェア互換性バージョンを推奨しています。ハードウェアとESXiバージョンの互換性の詳細については、VMwareドキュメントを参照してください。

  • NetScaler VPXは、レイテンシーに敏感な高性能仮想アプライアンスです。期待されるパフォーマンスを提供するには、アプライアンスはvCPU予約、メモリ予約、ホスト上のvCPUピンニングを必要とします。また、ホストではハイパースレッディングを無効にする必要があります。ホストがこれらの要件を満たさない場合、高可用性フェイルオーバー、VPXインスタンス内のCPUスパイク、VPX CLIへのアクセスのもたつき、ピットボスデーモンのクラッシュ、パケットドロップ、低スループットなどの問題が発生します。

ハイパーバイザーは、以下の2つの条件のいずれかが満たされた場合にオーバープロビジョニングされていると見なされます。

  • ホストにプロビジョニングされた仮想コア(vCPU)の総数が、物理コア(pCPU)の総数よりも多い場合。

  • プロビジョニングされたVMの総数が、pCPUの総数よりも多くのvCPUを消費する場合。

    インスタンスがオーバープロビジョニングされている場合、ハイパーバイザーのスケジューリングオーバーヘッド、バグ、またはハイパーバイザーの制限により、ハイパーバイザーはインスタンスに予約されたリソース(CPU、メモリなど)を保証できない可能性があります。この動作は、NetScalerのCPUリソース不足を引き起こし、「使用ガイドライン」の最初の項目で述べた問題につながる可能性があります。管理者としては、ホスト上のテナンシーを減らし、ホストにプロビジョニングされるvCPUの総数がpCPUの総数以下になるようにすることをお勧めします。

    ESXハイパーバイザーの場合、esxtopコマンド出力でVPX vCPUの%RDY%パラメーターが0より大きい場合、ESXホストはスケジューリングオーバーヘッドを抱えているとされ、VPXインスタンスのレイテンシー関連の問題を引き起こす可能性があります。

    このような状況では、%RDY%が常に0に戻るようにホスト上のテナンシーを減らしてください。または、リソース予約が尊重されない理由をトリアージするために、ハイパーバイザーベンダーに連絡してください。

  • AWS上のNetScalerでは、PVおよびSRIOVインターフェースのみホットアドがサポートされています。ENAインターフェースを持つVPXインスタンスはホットプラグをサポートしておらず、ホットプラグを試みるとインスタンスの動作が予測不能になる可能性があります。
  • NetScalerのPV、SRIOV、およびENAインターフェースでは、AWS WebコンソールまたはAWS CLIインターフェースを介したホットリムーブはサポートされていません。ホットリムーブを試みると、インスタンスの動作が予測不能になる可能性があります。

パケットエンジンCPU使用率を制御するコマンド

ハイパーバイザーおよびクラウド環境におけるVPXインスタンスのパケットエンジン(非管理)CPU使用率の動作を制御するには、2つのコマンド(set ns vpxparamshow ns vpxparam)を使用できます。

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    各VMが、別のVMに割り当てられているが使用されていないCPUリソースを使用できるようにします。

    Set ns vpxparamパラメーター:

    -cpuyield: 割り当て済みだが未使用のCPUリソースを解放するか、解放しないか。

    • YES: 割り当て済みだが未使用のCPUリソースを別のVMが使用できるようにします。

    • NO: 割り当てられたVMのためにすべてのCPUリソースを予約します。このオプションは、ハイパーバイザーおよびクラウド環境でVPX CPU使用率のより高いパーセンテージを示します。

    • DEFAULT: いいえ。

    注記:

    すべてのNetScaler VPXプラットフォームで、ホストシステムのvCPU使用率は100パーセントです。この使用率を上書きするには、set ns vpxparam –cpuyield YESコマンドを入力します。

    クラスターノードを「yield」に設定する場合は、CCOで以下の追加設定を実行する必要があります。

    • クラスターが形成されると、すべてのノードは「yield=DEFAULT」で起動します。
    • すでに「yield=YES」に設定されているノードを使用してクラスターが形成された場合、ノードは「DEFAULT」yieldを使用してクラスターに追加されます。

    注記:

    クラスターノードを「yield=YES」に設定する場合は、クラスター形成後のみ設定可能であり、クラスター形成前には設定できません。

    -masterclockcpu1: メインクロックソースをCPU0(管理CPU)からCPU1に移動できます。このパラメーターには以下のオプションがあります。

    • YES: VMがメインクロックソースをCPU0からCPU1に移動できるようにします。

    • NO: VMはCPU0をメインクロックソースとして使用します。デフォルトでは、CPU0がメインクロックソースです。

  • show ns vpxparam

    現在のvpxparam設定を表示します。

その他の参照情報