ADC

サポート・マトリックスと使用ガイドライン

このドキュメントでは、NetScaler VPXインスタンスでサポートされているさまざまなハイパーバイザーと機能について説明します。また、使用上のガイドラインと既知の制限事項についても説明します。

表1. Citrix Hypervisor 上の VPX インスタンス

Citrix Hypervisor のバージョン SysID VPX モデル
8.2 は 13.0 64.x 以降をサポート、8.0、7.6、7.1 450000 VPX 10、VPX 25、VPX 200、VPX 1000、VPX 3000、VPX 5000、VPX 8000、VPX 10G、VPX 15G、VPX 25G、VPX 40G

表2. VMware ESXi ハイパーバイザー上の VPX インスタンス

450010(システムID)を備えた以下のVPXモデルは、表に記載されているVMware ESXのバージョンをサポートします。

VPX モデル:VPX 10、VPX 25、VPX 200、VPX 1000、VPX 3000、VPX 5000、VPX 8000、VPX 10G、VPX 15G、VPX 25G、VPX 40G、VPX 100G。

ESXi バージョン ESXiリリース日のMM/DD/YYYYフォーマット ESXi ビルド番号 NetScaler VPXバージョン
ESXi 8.0 アップデート 2 09/21/2023 22380479 13.0-92.x およびそれ以降のビルド
ESXi 8.0 アップデート 1 04/18/2023 21495797 13.0-90.x およびそれ以降のビルド
ESXi 8.0c 03/30/2023 21493926 13.0-90.x およびそれ以降のビルド
ESXi 8.0 10/11/2022 20513097 13.0-90.x およびそれ以降のビルド
ESXi 7.0 update 3n 07/06/2023 21930508 13.0-91.x およびそれ以降のビルド
ESXi 7.0 update 3m 05/03/2023 21686933 13.0-91.x およびそれ以降のビルド
ESXi 7.0 update 3i 12/08/2022 20842708 13.0-90.x およびそれ以降のビルド
ESXi 7.0 update 3f 07/12/2022 20036589 13.0-86.x およびそれ以降のビルド
ESXi 7.0 update 3d 03/29/2022 19482537 13.0-86.x およびそれ以降のビルド
ESXi 7.0 update 3c 01/27/2022 19193900 13.0-85.x およびそれ以降のビルド
ESXi 7.0 アップデート 2d 09/14/2021 18538813 13.0-83.x およびそれ以降のビルド
ESXi 7.0 update 2a 12/17/2020 17867351 13.0-82.x およびそれ以降のビルド
ESXi 6.7 P04 11/19/2020 17167734 13.0-67.x およびそれ以降のビルド
ESXi 6.7 P03 08/20/2020 16713306 13.0-67.x およびそれ以降のビルド
ESXi 6.7 P02 04/28/2020 16075168 13.0-67.x およびそれ以降のビルド
ESXi 6.7 アップデート 3 08/20/2019 14320388 13.0-58.x およびそれ以降のビルド
ESXi 6.5 U1g 3/20/2018 7967591 13.0 47.x およびそれ以降のビルド

注:

各ESXiパッチサポートは、前の表で指定されているCitrix ADC VPXバージョンで検証されており、Citrix ADC 13.0バージョンのすべての上位ビルドに適用されます。

表3. Microsoft Hyper-V上のVPX

Hyper-V版 SysID VPX モデル
2012、2012R2、2016、2019 450020 VPX 10、VPX 25、VPX 200、VPX 1000、VPX 3000

Nutanix AHV の VPX インスタンス

NetScaler VPXは、Citrix Readyパートナーシップを通じてNutanix AHVでサポートされています。Citrix Readyは、ソフトウェアおよびハードウェアのベンダーが自社製品を開発し、デジタルワークスペース、ネットワーキング、および分析用のNetScalerテクノロジーと統合するのを支援するテクノロジーパートナープログラムです。

NetScaler VPXインスタンスをNutanix AHVにデプロイする段階的な方法の詳細については、「Nutanix AHVへのNetScaler VPX デプロイ」を参照してください。

サードパーティサポート:

NetScaler環境での特定のサードパーティ(Nutanix AHV)の統合で問題が発生した場合は、サードパーティパートナー(Nutanix)に直接サポートインシデントをオープンしてください。

パートナーが問題がNetScalerにあると判断した場合、パートナーはNetScalerサポートに連絡してさらにサポートを受けることができます。問題が解決するまで、パートナーからの専任技術リソースがNetScalerサポートと協力します。

詳しくは、「 Citrix Readyパートナープログラムに関するよくある質問」を参照してください。

表4. 汎用 KVM 上の VPX インスタンス

汎用 KVM バージョン SysID VPX モデル
レール 7.6、レール 8.0、レール 9.3 450070
VPX 10、VPX 25、VPX 200、VPX 1000、VPX 3000、VPX 5000、VPX 8000、VPX 10G、VPX 15G。VPX 25G, VPX 40G, VPX 100G
Ubuntu 16.04、Ubuntu 18.04、RHV 4.2

注意事項:

KVM ハイパーバイザーを使用するときは、次の点を考慮してください。

  • VPXインスタンスは、表1-4に記載されているHypervisor リリースバージョンに対して認定されており、バージョン内のパッチリリースには適していません。ただし、VPXインスタンスは、サポートされているバージョンのパッチリリースとシームレスに動作することが期待されます。そうでない場合は、トラブルシューティングとデバッグのためのサポートケースを記録します。

  • ip link コマンドを使用して RHEL 8.2 ネットワークブリッジを設定します。

  • RHEL 7.6 を使用する前に、KVM ホストで以下のステップを完了します。
    1. /etc/default/grubを編集して"kvm_intel.preemption_timer=0"GRUB_CMDLINE_LINUX変数に追加します。

    2. コマンド"# grub2-mkconfig -o /boot/grub2/grub.cfg"でgrub.cfgを再生成します。

    3. ホストマシンを再起動します。

  • Ubuntu 18.04 を使用する前に、KVM ホストで以下のステップを完了してください。

    1. /etc/default/grubを編集して"kvm_intel.preemption_timer=0"GRUB_CMDLINE_LINUX変数に追加します。
    2. コマンド"# grub-mkconfig -o /boot/grub/grub.cfg “でgrub.cfgを再生成します。
    3. ホストマシンを再起動します。

表5. AWS 上の VPX インスタンス

AWS バージョン SysID VPX モデル
- 450040 VPX 10、VPX 200、VPX 1000、VPX 3000、VPX 5000、VPX BYOL、VPX 8000、VPX 10G、VPX 15G、VPX 25G は、EC2 インスタンスタイプ(C5、M5、および C5n)での BYOL でのみ使用できます。

注:

VPX 25G オファリングでは、AWS で希望する 25G スループットが得られませんが、VPX 15G オファリングに比べて SSL トランザクションレートが高くなる可能性があります。

表 6. Azure 上の VPX インスタンス

Azure バージョン SysID VPX モデル
- 450020 VPX 10、VPX 200、VPX 1000、VPX 3000、VPX 5000、VPX BYOL

表7. VPX 機能マトリックス

VPX-feature

前の表で使用されている上付き番号 (1、2、3) は、それぞれの番号付けで次の点を指します。

  1. SRIOV では、バックプレーンではなく、クライアント側およびサーバ側インターフェイス用のクラスタリングサポートを利用できます。

  2. インターフェイスダウンイベントは、NetScaler VPXインスタンスには記録されません。

  3. スタティック LA の場合、物理ステータスが DOWN のインターフェイスでトラフィックが送信される場合もあります。

  4. LACP の場合、ピアデバイスは LACP タイムアウトメカニズムに基づいてインターフェイス DOWN イベントを認識します。

    • 短いタイムアウト:3秒
    • 長いタイムアウト:90秒
  5. LACP では、VM 間でインターフェイスを共有しないでください。

  6. ダイナミックルーティングの場合、リンクイベントが検出されないため、コンバージェンス時間はルーティングプロトコルによって異なります。

  7. モニタ対象スタティックルート機能は、ルータの状態が VLAN ステータスに依存するため、モニタをスタティックルートにバインドしないと失敗します。VLAN ステータスは、リンクステータスによって異なります。

  8. リンク障害がある場合、高可用性では部分的な障害検出は行われません。リンク障害があると、高可用性の分割脳の状態が発生する可能性があります。

    • VPXインスタンスからリンクイベント(無効/有効化、リセット)が生成された場合、リンクの物理ステータスは変わりません。静的 LA の場合、ピアによって開始されたトラフィックはすべてインスタンスでドロップされます。

    • VLAN タギング機能を機能させるには、次の手順を実行します。

    VMware ESX で、VMware ESX サーバの vSwitch でポートグループの VLAN ID を 1 ~ 4095 に設定します。VMware ESX サーバの vSwitch での VLAN ID の設定の詳細については、「 VMware ESX Server 3 802.1Q VLAN ソリューション」を参照してください。

表 8. サポートされているブラウザー

オペレーティングシステム ブラウザとバージョン
Windows 7 Internet Explorer-8, 9, 10, 11; Mozilla Firefox 3.6.25 以降; Google Chrome-15以降
Windows 64ビット Internet Explorer-8、9; Google Chrome-15 以降
MAC Mozilla Firefox-12以降; Safari-5.1.3; Google Chrome-15以降

使用ガイドライン

使用上のガイドラインに従ってください。

  • VPXインスタンスは、サーバーのローカルディスクまたはSANベースのストレージボリュームにデプロイすることをお勧めします。

VMware vSphere 6.5 のパフォーマンスのベストプラクティス』の「VMware ESXi CPU に関する考慮事項」セクションを参照してください。ここに抽出があります:

  • CPU/メモリの需要が高い仮想マシンを、オーバーコミットされたホスト/クラスタに置くことは推奨されません。

  • ほとんどの環境では、ESXiは、仮想マシンのパフォーマンスに影響を与えることなく、かなりのレベルのCPUオーバーコミットメントを許可します。ホストでは、そのホスト内の物理プロセッサコアの総数よりも多くの vCPU を実行できます。

  • ESXi ホストが CPU 飽和状態になった場合、つまり、仮想マシンおよびホスト上のその他の負荷がホストにあるすべての CPU リソースを要求すると、レイテンシの影響を受けやすいワークロードがうまく動作しない可能性があります。この場合は、たとえば、一部の仮想マシンをパワーオフしたり、別のホストに移行したり、DRS による仮想マシンの自動移行を許可したりして、CPU の負荷を軽減できます。

  • 仮想マシンでESXi Hypervisorの最新の機能セットを利用するには、最新のハードウェア互換性バージョンを使用することをお勧めします。ハードウェアと ESXi バージョンの互換性の詳細については、 VMware のドキュメントを参照してください

  • NetScaler VPXは、レイテンシーに敏感で高性能な仮想アプライアンスです。期待されるパフォーマンスを実現するには、アプライアンスに vCPU 予約、メモリ予約、ホストでの vCPU ピン接続が必要です。また、ホスト上でハイパースレッディングを無効にする必要があります。ホストがこれらの要件を満たさない場合、高可用性フェイルオーバー、VPXインスタンス内のCPUスパイク、VPX CLIへのアクセスにおける低速化、ピットボスデーモンのクラッシュ、パケットドロップ、低スループットなどの問題が発生します。

Hypervisor は、次の 2 つの条件のいずれかが満たされると、過剰プロビジョニングと見なされます:

  • ホストにプロビジョニングされた仮想コア (vCPU) の総数が、物理コア (pCPU) の総数を超えています。

  • プロビジョニングされた仮想マシンの合計数は、pCPU の合計数よりも多くの vCPU を消費します。

    インスタンスが過剰プロビジョニングされている場合、ハイパーバイザーのスケジューリングオーバーヘッド、バグ、またはハイパーバイザーの制限により、ハイパーバイザーがインスタンスのリザーブドリソース(CPU、メモリなど)を保証しない場合があります。この動作により、NetScaler CPUリソースが不足し、 使用ガイドラインの最初のポイントで説明されている問題が発生する可能性があります。管理者は、ホスト上でプロビジョニングされる vCPU の総数が pCPU の総数より少なくなるように、ホストのテナント数を減らすことをお勧めします。

    ESXハイパーバイザーの場合、 esxtopコマンド出力でVPX vCPUの%RDY%パラメータが0より大きい場合、ESXホストにスケジューリングオーバーヘッドがあると言われ、VPXインスタンスのレイテンシー関連の問題が発生する可能性があります。

    このような状況では、%RDY%が常に0に戻るように、ホストのテナンシーを減らします。または、ハイパーバイザーベンダーに連絡して、リソース予約が完了していない理由をトリアージします。

  • ホットアドは、AWS 上の NetScaler を使用した PV および SRIOV インターフェイスでのみサポートされます。ENAインターフェイスを持つVPXインスタンスはホットプラグをサポートしていないため、ホットプラグを試みるとインスタンスの動作が予測できない場合があります。
  • AWS ウェブコンソールまたは AWS CLI インターフェイスを介したホット削除は、NetScaler の PV、SRIOV、および ENA インターフェイスではサポートされていません。ホット削除を試みると、インスタンスの動作が予測できなくなる可能性があります。

パケットエンジンの CPU 使用率を制御するコマンド

ハイパーバイザーおよびクラウド環境における VPX インスタンスのパケットエンジン(非管理)CPU 使用率の動作を制御するには、2 つのコマンド(set ns vpxparamおよびshow ns vpxparam)を使用できます:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    各 VM が、別の VM に割り当てられているが、使用されていない CPU リソースの使用を許可します。

    Set ns vpxparam パラメータ:

    -cpuyield: 割り当てられているが未使用の CPU リソースを解放または解放しません。

    • はい:割り当てられているが未使用の CPU リソースを別の VM で使用できるようにします。

    • いいえ:割り当てられている VM のすべての CPU リソースを予約します。このオプションは、ハイパーバイザーおよびクラウド環境でVPX CPU使用率が高い割合を示します。

    • デフォルト:いいえ。

    注:

    すべてのNetScaler VPXプラットフォームで、ホストシステムのvCPU使用率は100%です。set ns vpxparam –cpuyield YESコマンドを入力して、この使用方法を上書きします。

    クラスタノードを「yield」に設定する場合は、CCO で次の追加設定を実行する必要があります:

    • クラスタが形成されると、すべてのノードに「yield=Default」が表示されます。
    • すでに「yield=Yes」に設定されたノードを使用してクラスターが形成されている場合、ノードは「DEFAULT」のイールドを使用してクラスターに追加されます。

    注:

    クラスタノードを「yield=YES」に設定する場合は、クラスタの形成後にのみ構成でき、クラスタが形成される前には設定できません。

    -masterclockcpu1: メインクロックソースを CPU0 (管理 CPU) から CPU1 に移動できます。このパラメータには、次のオプションがあります。

    • はい:仮想マシンがメインクロックソースを CPU0 から CPU1 に移動できるようにします。

    • いいえ:VM はメインクロックソースに CPU0 を使用します。デフォルトでは、CPU0 がメインクロックソースです。

  • show ns vpxparam

    現在のvpxparam設定を表示します。

その他の参考文献

サポート・マトリックスと使用ガイドライン