-
-
-
VMware ESX、Linux KVM、およびCitrix HypervisorでNetScaler ADC VPXのパフォーマンスを最適化する
-
Linux-KVMプラットフォームへのNetScaler ADC VPXインスタンスのインストール
-
Linux-KVMプラットフォームでNetScaler ADC VPX仮想アプライアンスをインストールするための前提条件
-
SR-IOVモードでのSSLアクセラレーションにIntel QATを使用するようにKVMハイパーバイザー上のNetScaler VPXを構成する
-
OVS DPDKベースのホストインターフェイスを使用するようにKVM上のNetScaler ADC VPXインスタンスを構成する
-
KVMハイパーバイザーでのNetScaler ADCアプライアンスの初回起動時にNetScaler ADC VPXの構成を適用する
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已经过机器动态翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
이 콘텐츠는 동적으로 기계 번역되었습니다. 책임 부인
Este texto foi traduzido automaticamente. (Aviso legal)
Questo contenuto è stato tradotto dinamicamente con traduzione automatica.(Esclusione di responsabilità))
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.책임 부인
Este artigo foi traduzido automaticamente.(Aviso legal)
这篇文章已经过机器翻译.放弃
Questo articolo è stato tradotto automaticamente.(Esclusione di responsabilità))
Translation failed!
Linux-KVMプラットフォームにCitrix ADC VPXインスタンスをインストールするための前提条件
NetScaler VPXインスタンスで実行されているLinux-KVMサーバーの最小システム要件を確認します。
CPU 要件:
- Intel VT-X プロセッサーに含まれるハードウェア仮想化機能を備えた 64 ビット x86 プロセッサー。
CPU が Linux ホストをサポートしているかどうかをテストするには、ホスト Linux シェルプロンプトで次のコマンドを入力します。
\*.egrep '^flags.\*(vmx|svm)' /proc/cpuinfo*
<!--NeedCopy-->
前の拡張機能の BIOS 設定が無効になっている場合は、BIOS でそれらを有効にする必要があります。
-
ホストLinuxに2つ以上のCPUコアを指定します。
-
プロセッサ速度に対する特定の推奨設定はありませんが、速度が速ければ速いほどVMアプリケーションのパフォーマンスはよくなります。
メモリ (RAM) 要件:
ホストLinuxカーネルに対して4GB以上。VM が必要とするメモリを追加します。
ハードディスク要件:
ホストLinuxカーネルおよびVM要件の領域を計算します。単一のNetScaler VPX VMは20GBのディスク領域を必要とします。
ソフトウェア要件
使用されるホストカーネルは、リリース2.6.20以降で、すべての仮想化ツールがある64ビットのLinuxカーネルである必要があります。3.6.11-4以降といったより新しいカーネルを推奨します。
Red Hat、CentOS、Fedora などの多くのLinuxディストリビューションでは、カーネルのバージョンと関連する仮想化ツールのテストが行われています。
ゲスト VM のハードウェア要件
NetScaler VPXでサポートされるハードディスクの種類はIDEとvirtIOです。ハードディスクの種類は、NetScalerパッケージに含まれるXMLファイルで構成されています。
ネットワーク要件
NetScaler VPXは、VirtIO準仮想化、SR-IOV、およびPCIパススルーネットワークインターフェイスをサポートします。
サポートされるネットワークインターフェースの詳細については、以下を参照してください。
- 仮想マシンマネージャーを使用してNetScaler VPXインスタンスをプロビジョニングします
- SR-IOVネットワークインターフェースを使用するようにNetScaler VPXインスタンスを構成する
- PCIパススルーネットワークインターフェイスを使用するようにNetScaler VPXインスタンスを構成する
ソースインターフェイスおよびモード
ソースデバイスの種類は、BridgeまたはMacVTapのいずれかにできます。MacvTapでは、VEPAモード、ブリッジ、プライベート、パススルーの4つのモードが可能です。次のように、使用できるインターフェイスのタイプとサポートされているトラフィックタイプを確認します。
ブリッジ:
- Linux Bridge。
- 正しい設定を選択したり、
IPtable
サービスを無効にしたりしないと、ホスト Linux のEbtables
およびiptables
設定によってブリッジのトラフィックがフィルタリングされることがあります。
MacVタップ (VEPA モード):
- パフォーマンスはBridgeより向上します。
- 同じ下位デバイスからのインターフェイスをVM間で共有できます。
- 仮想マシン間通信(同じ
- 下位のデバイスは、アップストリームスイッチまたはダウンストリームスイッチが VEPAモードをサポートしている場合にのみ可能です。
MacVTap (プライベートモード):
- パフォーマンスはBridgeより向上します。
- 同じ下位デバイスからのインターフェイスをVM間で共有できます。
- 同じ下位デバイスを使った内部VM通信を実行できません。
MacVTap (ブリッジモード):
- Bridgeと比べてよい。
- 同じ下位デバイスのインターフェイスは、VM 間で共有できます。
- 下位のデバイスリンクがアップしている場合は、同じ下位デバイスを使用する VM 間通信が可能です。
MacVTap (パススルーモード):
- Bridgeと比べてよい。
- 同じ下位デバイスのインターフェイスは、仮想マシン間で共有できません。
- 1つのVMのみ、下位デバイスを使用できます。
注:VPX インスタンスで最適なパフォーマンスを得るには、ソースインターフェイスで
gro
およびlro
機能がオフになっていることを確認してください。
送信元インターフェイスのプロパティ
ソースインターフェイスの Generic-receive-offload(gro
)および大規模受信オフロード(lro
)機能をオフにします。 gro
およびlro
機能をオフにするには、ホスト Linux シェルプロンプトで次のコマンドを実行します。
ethtool -K eth6 gro off
ethool -K eth6 lro off
例:
[root@localhost ~]# ethtool -K eth6
Offload parameters for eth6:
rx-checksumming: on
tx-checksumming: on
scatter-gather: on
tcp-segmentation-offload: on
udp-fragmentation-offload: off
generic-segmentation-offload: on
generic-receive-offload: off
large-receive-offload: off
rx-vlan-offload: on
tx-vlan-offload: on
ntuple-filters: off
receive-hashing: on
[root@localhost ~]#
<!--NeedCopy-->
例:
次の例のように、ホスト Linux ブリッジをソースデバイスとして使用する場合、ホストとゲスト VM を接続する仮想インターフェイスである VNet インターフェイスでlro
機能をオフにする必要があります。
[root@localhost ~]# brctl show eth6_br
bridge name bridge id STP enabled interfaces
eth6_br 8000.00e0ed1861ae no eth6
vnet0
vnet2
[root@localhost ~]#
<!--NeedCopy-->
上記の例では、2 つの仮想インターフェイスは eth6_br から派生し、vnet0 および vnet2 として表されます。次のコマンドを実行して、これらのインターフェイスのgro
機能とlro
機能をオフにします。
ethtool -K vnet0 gro off
ethtool -K vnet2 gro off
ethtool -K vnet0 lro off
ethtool -K vnet2 lro off
<!--NeedCopy-->
無差別モード
次の機能を動作させるには、無差別モードを有効にする必要があります。
- L2モード
- マルチキャストトラフィック処理
- ブロードキャスト
- IPV6トラフィック
- 仮想MAC
- 動的ルーティング
次のコマンドを使用して、無差別モードを有効にします。
[root@localhost ~]# ifconfig eth6 promisc
[root@localhost ~]# ifconfig eth6
eth6 Link encap:Ethernet HWaddr 78:2b:cb:51:54:a3
inet6 addr: fe80::7a2b:cbff:fe51:54a3/64 Scope:Link
UP BROADCAST RUNNING PROMISC MULTICAST MTU:9000 Metric:1
RX packets:142961 errors:0 dropped:0 overruns:0 frame:0
TX packets:2895843 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:14330008 (14.3 MB) TX bytes:1019416071 (1.0 GB)
[root@localhost ~]#
<!--NeedCopy-->
必要なモジュール
ネットワークパフォーマンスを向上させるには、Linux ホストに vhost_net モジュールが存在することを確認してください。vhost_net モジュールの存在を確認するには、Linux ホストで次のコマンドを実行します。
lsmod | grep "vhost_net"
<!--NeedCopy-->
vhost_net がまだ実行されていない場合は、次のコマンドを入力して実行します。
modprobe vhost_net
<!--NeedCopy-->
共有
共有
This Preview product documentation is Cloud Software Group Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Cloud Software Group Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Cloud Software Group product purchase decisions.
If you do not agree, select I DO NOT AGREE to exit.