Matrice de prise en charge et directives d’utilisation
Ce document répertorie les différents hyperviseurs et fonctionnalités pris en charge sur une instance NetScaler VPX. Le document décrit également leurs consignes d’utilisation et leurs limitations connues.
Instance VPX sur XenServer ou Citrix Hypervisor
Version Citrix Hypervisor | SysID | Gamme de performances |
---|---|---|
8.2 pris en charge à partir de 13.0, 64.x, 8.0, 7.6, 7.1 | 450000 | 10 Mbps à 40 Gbps |
Instance VPX sur l’hyperviseur VMware ESXi
| Version ESXi | Date de sortie d’ESXi (AAAA/MM/JJ) | Numéro de build ESXi | Version de NetScaler VPX | Gamme de performances | | ————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————- | ———————————- | ——————– | ——————————————— | ——————— | | ESXi 8.0 mise à jour 3 | 2024/06/25 | 24022510 | Versions 13.1-49.15, 13.1-52.x et ultérieures | 10 Mbps à 100 Gbps | | ESXi 8.0 mise à jour 2b | 2024/03/05 | 23825572 | Versions 13.1-49.15, 13.1-52.x et ultérieures | ^^ | | ESXi 8.0 mise à jour 2 | 2024/02/29 | 23305546 | Versions 13.1-52.x et supérieures | ^^ | | ESXi 8.0 mise à jour 2 | 2023/09/21 | 22380479 | Versions 13.1-45.x et supérieures | ^^ | | ESXi 8.0 mise à jour 1 | 2023/04/18 | 21495797 | Versions 13.1-42.x et supérieures | ^^ | | ESXi 8.0 c | 2023/03/30 | 21493926 | Versions 13.1-42.x et supérieures | ^^ | | ESXi 8.0 | 10/2022/11 | 20513097 | Versions 13.1-52.x et supérieures | ^^ | | ESXi 7.0 mise à jour 3o | 2024/03/05 | 23794027 | Versions 13.1-49.15, 13.1-52.x et ultérieures | ^^ | | Mise à jour 3n d’ESXi 7.0 | 2024/03/05 | 23307199 | Versions 13.1-45.x et supérieures | ^^ | | Mise à jour ESXi 7.0 3m | 2023/09/28 | 22348816 | Versions 13.1-48.x et supérieures | ^^ | | Mise à jour 3n d’ESXi 7.0 | 2023/07/06 | 21930508 | Versions 13.1-37.x et supérieures | ^^ | | Mise à jour ESXi 7.0 3m | 2023/05/03 | 21686933 | Versions 13.1-33.x et supérieures | ^^ | | Mise à jour 3i d’ESXi 7.0 | 2022/12/08 | 20842708 | Versions 13.1-27.x et supérieures | ^^ | | Mise à jour 3f d’ESXi 7.0 | 2022/07/12 | 20036589 | Versions 13.1-21.x et supérieures | ^^ | | Mise à jour d’ESXi 7.0 3d | 2022/03/29 | 19482537 | Versions 13.1-9.x et supérieures | ^^ | | ESXi 7.0 update 3c | 2022/01/27 | 19193900 | Versions 13.1-4.x et supérieures | ^^ | | [NetScaler VPX est pris en charge sur Nutanix AHV dans le cadre du partenariat Citrix Ready.](https://citrixready.citrix.com/nutanix/nutanix-acropolis-hypervisor.html) Citrix Ready est un programme de partenariat technologique qui aide les fournisseurs de logiciels et de matériel à développer et à intégrer leurs produits avec la technologie NetScaler pour les espaces de travail numériques, les réseaux et les analyses. | 2021/09/14 | 18538813 | Versions 13.1-9.x et supérieures | ^^ | | ESX 7.0 update 2a | 2021/04/29 | 17867351 | Versions 13.1-4.x et supérieures | ^^ |
Remarque :
La prise en charge de chaque correctif ESXi est validée sur la version de NetScaler VPX spécifiée dans le tableau précédent et s’applique à toutes les versions supérieures de la version NetScaler VPX 13.1.
Instance VPX sur Microsoft Hyper-V
Version Hyper-V | SysID | Gamme de performances |
---|---|---|
2016, 2019 | 450020 | 10 Mbps à 3 Gbps |
Instance VPX sur Nutanix AHV
NetScaler VPX est pris en charge sur Nutanix AHV dans le cadre du partenariat Citrix Ready. Citrix Ready est un programme de partenariat technologique qui aide les fournisseurs de logiciels et de matériel à développer et à intégrer leurs produits avec la technologie NetScaler pour les espaces de travail numériques, les réseaux et les analyses. Citrix Ready est un programme de partenariat technologique qui aide les fournisseurs de logiciels et de matériel à développer et à intégrer leurs produits avec la technologie NetScaler pour l’espace de travail numérique, la mise en réseau et l’analyse.
Pour plus d’informations sur la méthode étape par étape permettant de déployer une instance NetScaler VPX sur Nutanix AHV, consultez Déploiement d’un NetScaler VPX sur Nutanix AHV.
Assistance par des tiers :
Si vous rencontrez des problèmes lors de l’intégration d’un tiers en particulier (Nutanix AHV) dans un environnement NetScaler, signalez un incident de support directement auprès du partenaire tiers (Nutanix).
Si le partenaire détermine que le problème semble provenir de NetScaler, il peut contacter le support NetScaler pour obtenir une assistance supplémentaire. Une ressource technique dédiée issue de partenaires travaille avec le support NetScaler jusqu’à ce que le problème soit résolu.
Instance VPX sur KVM générique
Version KVM générique | SysID | Gamme de performances |
---|---|---|
RHEL 7.6, RHEL 8.0, RHEL 9.3 | 450070
|
10 Mbps à 100 Gbps
|
Ubuntu 16.04, Ubuntu 18.04, Ubuntu 22.04 |
Points à noter :
Lorsque vous utilisez les hyperviseurs KVM, tenez compte des points suivants.
-
L’instance VPX est qualifiée pour les versions de version de l’Hypervisor mentionnées dans le tableau 1—4, et non pour les versions de correctifs dans une version. Toutefois, l’instance VPX devrait fonctionner de manière transparente avec les versions de correctifs d’une version prise en charge. Si ce n’est pas le cas, consignez un dossier de support pour le dépannage et le débogage.
- Avant d’utiliser RHEL 7.6, effectuez les étapes suivantes sur l’hôte KVM :
-
Modifiez /etc/default/grub et ajoutez
"kvm_intel.preemption_timer=0"
à la variableGRUB_CMDLINE_LINUX
. -
Régénérez le fichier grub.cfg à l’aide de la commande
"# grub2-mkconfig -o /boot/grub2/grub.cfg"
. -
Redémarrez la machine hôte.
-
-
Avant d’utiliser Ubuntu 18.04, effectuez les étapes suivantes sur l’hôte KVM :
- Modifiez /etc/default/grub et ajoutez
"kvm_intel.preemption_timer=0"
à la variableGRUB_CMDLINE_LINUX
. - Régénérez le fichier grub.cfg à l’aide de la commande
"# grub-mkconfig -o /boot/grub/grub.cfg “
. - Redémarrez la machine hôte.
- Modifiez /etc/default/grub et ajoutez
Instance VPX sur AWS
| Version AWS | SysID | Gamme de performances | | ———– | —— | ——————— | | S/O | 450040 | 10 Mbps à 30 Gbps |
Remarque :
L’offre VPX 25G ne fournit pas le débit de 25 Go d’AWS mais peut offrir un taux de transactions SSL plus élevé que l’offre VPX 15G.
Instance VPX sur Azure
Version Azure | SysID | Gamme de performances |
---|---|---|
S/O | 450020 | 10 Mbps à 10 Gbps |
Instance VPX sur GCP
Version GCP | SysID | Gamme de performances |
---|---|---|
S/O | 450070 | 10 Mbps à 10 Gbps |
Matrice des fonctionnalités VPX
Les nombres en exposant (1, 2, 3) utilisés dans le tableau précédent se réfèrent aux points suivants avec une numérotation respective :
-
La prise en charge du clustering est disponible sur SRIOV pour les interfaces côté client et côté serveur, et non pour le fond de panier.
-
Les événements Interface DOWN ne sont pas enregistrés dans les instances NetScaler VPX.
-
Pour LA statique, le trafic peut toujours être envoyé sur l’interface dont l’état physique est DOWN.
-
Pour LACP, le périphérique homologue connaît l’événement DOWN de l’interface basé sur le mécanisme de délai d’expiration LACP.
- Délai d’expiration court : 3 secondes
- Délai d’attente long : 90 secondes
-
Pour LACP, ne partagez pas les interfaces entre les machines virtuelles.
-
Pour le routage dynamique, le temps de convergence dépend du protocole de routage car les événements de liaison ne sont pas détectés.
-
La fonctionnalité Routage statique surveillé échoue si vous ne liez pas les moniteurs à des routes statiques, car l’état de l’itinéraire dépend de l’état du VLAN. L’état du VLAN dépend de l’état de la liaison.
-
La détection de défaillance partielle ne se produit pas en haute disponibilité en cas de défaillance de liaison. Une condition cérébrale divisée à haute disponibilité peut se produire en cas de défaillance de liaison.
-
Lorsqu’un événement de lien (désactiver/activer, réinitialiser) est généré à partir d’une instance VPX, l’état physique du lien ne change pas. Pour LA statique, tout trafic initié par le pair est supprimé sur l’instance.
-
Pour que la fonctionnalité de balisage VLAN fonctionne, procédez comme suit :
Sur VMware ESX, définissez l’ID VLAN du groupe de ports sur 1 à 4095 sur le vSwitch du serveur VMware ESX.
-
Navigateurs pris en charge
Système d’exploitation | Navigateur et versions |
---|---|
Windows 7 | Internet Explorer - 8, 9, 10 et 11 ; Mozilla Firefox 3.6.25 et versions ultérieures ; Google Chrome - 15 et versions ultérieures |
Windows 64 bits | Internet Explorer - 8, 9 ; Google Chrome - 15 et versions ultérieures |
MAC | Mozilla Firefox - 12 et versions ultérieures ; Safari - 5.1.3 ; Google Chrome - 15 et versions ultérieures |
Prise en charge des processeurs AMD pour les instances VPX
À partir de la version 13.1 de NetScaler, l’instance VPX prend en charge à la fois les processeurs Intel et AMD. Les appliances virtuelles VPX peuvent être déployées sur n’importe quel type d’instance doté d’au moins deux cœurs virtualisés et de plus de 2 Go de mémoire. Pour plus d’informations sur la configuration système requise, consultez la fiche technique de NetScaler VPX.
Plateformes VPX vs. Tableau de matrice NIC
Le tableau suivant répertorie les cartes réseau prises en charge sur une plate-forme VPX ou un cloud.
Mellanox CX-3 | Mellanox CX-4 | Mellanox CX-5 | Intel 82599 SRIOV VF | Intel X710/X722/XL710 SRIOV VF | Mode PCI-Passthrough Intel X710/XL710 | |
---|---|---|---|---|---|---|
VPX (ESXi) | Non | Oui | Non | Oui | Non | Oui |
VPX (Citrix Hypervisor) | S/O | S/O | S/O | Oui | Oui | Non |
VPX (KVM) | Non | Oui | Oui | Oui | Oui | Oui |
VPX (Hyper-V) | S/O | S/O | S/O | Non | Non | Non |
VPX (AWS) | S/O | S/O | S/O | Oui | S/O | S/O |
VPX (Azure) | Oui | Oui | Oui | S/O | S/O | S/O |
VPX (GCP) | S/O | S/O | S/O | S/O | S/O | S/O |
Directives d’utilisation
Suivez ces instructions d’utilisation :
- Nous vous recommandons de déployer une instance VPX sur les disques locaux du serveur ou sur des volumes de stockage SAN.
Consultez la section Considérations relatives au processeur VMware ESXi dans le document Meilleures pratiques en matière de performances pour VMware vSphere 6.5. Voici un extrait :
-
Il n’est pas recommandé que les machines virtuelles nécessitant beaucoup de CPU ou de mémoire soient installées sur un hôte ou un cluster surchargé.
-
Dans la plupart des environnements, ESXi permet des niveaux significatifs de surcharge du processeur sans affecter les performances des machines virtuelles. Sur un hôte, vous pouvez exécuter plus de processeurs virtuels que le nombre total de cœurs de processeur physiques de cet hôte.
-
Si un hôte ESXi devient saturé en processeur, c’est-à-dire que les machines virtuelles et les autres charges sur l’hôte exigent toutes les ressources CPU dont dispose l’hôte, les charges de travail sensibles à la latence risquent de ne pas fonctionner correctement. Dans ce cas, vous pouvez réduire la charge du processeur, par exemple en mettant hors tension certaines machines virtuelles ou en les migrant vers un autre hôte (ou en autorisant DRS à les migrer automatiquement).
-
Citrix recommande la dernière version de compatibilité matérielle pour bénéficier des derniers ensembles de fonctionnalités de l’hyperviseur ESXi pour la machine virtuelle. Pour plus d’informations sur la compatibilité matérielle et la version ESXi, consultez la documentation VMware.
-
Le NetScaler VPX est une appliance virtuelle haute performance sensible à la latence. Pour fournir les performances attendues, le dispositif nécessite la réservation du processeur virtuel, la réservation de la mémoire et l’épinglage du processeur virtuel sur l’hôte. En outre, l’hyper thread doit être désactivé sur l’hôte. Si l’hôte ne répond pas à ces exigences, des problèmes tels que basculement haute disponibilité, pic de processeur dans l’instance VPX, lenteur dans l’accès à l’interface de ligne de commande VPX, plantage du démon pit boss, pertes de paquets et faible débit se produisent.
Un Hypervisor est considéré comme surapprovisionné si l’une des deux conditions suivantes est remplie :
-
Le nombre total de cœurs virtuels (vCPU) provisionnés sur l’hôte est supérieur au nombre total de cœurs physiques (PCPU).
-
Le nombre total de machines virtuelles provisionnées consomme plus de vCPU que le nombre total de processeurs physiques.
Si une instance est surapprovisionnée, il se peut que l’hyperviseur ne garantisse pas les ressources réservées (telles que le processeur, la mémoire et autres) pour l’instance en raison des surcharges de planification de l’hyperviseur, des bogues ou des limitations avec l’hyperviseur. Ce comportement peut entraîner un manque de ressources CPU pour NetScaler et entraîner les problèmes mentionnés au premier point de la section Consignes d’utilisation. En tant qu’administrateurs, il est recommandé de réduire la location de l’hôte afin que le nombre total de vCPU provisionnés sur l’hôte soit inférieur ou égal au nombre total de processeurs physiques.
Exemple :
Pour l’hyperviseur ESX, si le paramètre
%RDY%
d’un vCPU VPX est supérieur à 0 dans la sortie de la commandeesxtop
, l’hôte ESX est dit avoir des surcharges de planification, ce qui peut entraîner des problèmes de latence pour l’instance VPX.Dans ce cas, réduisez la location sur l’hôte afin que
%RDY%
revienne toujours à 0. Vous pouvez également contacter le fournisseur de l’hyperviseur pour trier la raison du non-respect de la réservation de ressources effectuée. - L’ajout à chaud n’est pris en charge que pour les interfaces PV et SRIOV avec NetScaler sur AWS. Les instances VPX avec interfaces ENA ne prennent pas en charge le branchement à chaud, et le comportement des instances peut être imprévisible en cas de tentative de connexion à chaud.
- La suppression à chaud via la console Web AWS ou l’interface CLI AWS n’est pas prise en charge avec les interfaces PV, SRIOV et ENA pour NetScaler. Le comportement des instances peut être imprévisible si la suppression à chaud est tentée.
Commandes pour contrôler l’utilisation du processeur du moteur de paquets
Vous pouvez utiliser deux commandes (set ns vpxparam
et show ns vpxparam
) pour contrôler le comportement d’utilisation du processeur du moteur de paquets (hors gestion) des instances VPX dans les environnements d’hyperviseur et de cloud :
-
set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]
Autoriser chaque machine virtuelle à utiliser des ressources CPU qui ont été allouées à une autre machine virtuelle mais qui ne sont pas utilisées.
Paramètres
Set ns vpxparam
:-cpuyield : libère ou ne libère pas des ressources CPU allouées mais inutilisées.
-
OUI : autorise l’utilisation des ressources CPU allouées mais inutilisées par une autre machine virtuelle.
-
NON : réservez toutes les ressources CPU pour la machine virtuelle à laquelle elles ont été allouées. Cette option affiche un pourcentage plus élevé dans les environnements d’hyperviseur et de cloud pour l’utilisation du processeur VPX.
-
DEFAULT : Non.
Remarque :
Sur toutes les plateformes NetScaler VPX, l’utilisation du processeur virtuel sur le système hôte est de 100 %. Tapez la commande
set ns vpxparam –cpuyield YES
pour remplacer cette utilisation.Si vous souhaitez définir les nœuds du cluster sur « rendement », vous devez effectuer les configurations supplémentaires suivantes sur CCO :
- Si un cluster est formé, tous les nœuds présentent « Yield=Default ».
- Si un cluster est formé à l’aide des nœuds déjà définis sur « Yield=YES », les nœuds sont ajoutés au cluster en utilisant le rendement « DEFAULT ».
Remarque :
Si vous souhaitez définir les nœuds du cluster sur « YIELD=YES », vous pouvez configurer uniquement après la formation du cluster, mais pas avant la formation du cluster.
-masterclockcpu1 : Vous pouvez déplacer la source d’horloge principale de CPU0 (CPU de gestion) vers CPU1. Ce paramètre a les options suivantes :
-
OUI : Autorisez la machine virtuelle à déplacer la source d’horloge principale de CPU0 vers CPU1.
-
NON : VM utilise CPU0 pour la source d’horloge principale. Par défaut, CPU0 est la principale source d’horloge.
-
-
show ns vpxparam
Affichez les paramètres
vpxparam
actuels.
Autres références
-
Pour les produits Citrix Ready, visitez Citrix Ready Marketplace.
-
Pour obtenir le support produit Citrix Ready, consultez la page FAQ.
-
Pour les versions matérielles VMware ESX, consultez Mise à niveau de VMware Tools.
Dans cet article
- Instance VPX sur XenServer ou Citrix Hypervisor
- Instance VPX sur l’hyperviseur VMware ESXi
- Instance VPX sur Microsoft Hyper-V
- Instance VPX sur Nutanix AHV
- Instance VPX sur KVM générique
- Instance VPX sur AWS
- Instance VPX sur Azure
- Instance VPX sur GCP
- Matrice des fonctionnalités VPX
- Navigateurs pris en charge
- Prise en charge des processeurs AMD pour les instances VPX
- Plateformes VPX vs. Tableau de matrice NIC
- Directives d’utilisation
- Commandes pour contrôler l’utilisation du processeur du moteur de paquets
- Autres références