Matriz de compatibilidad y directrices de uso
Este documento enumera los diferentes hipervisores y características compatibles con una instancia de NetScaler VPX. El documento también describe sus directrices de uso y limitaciones conocidas.
Instancia VPX en XenServer o Citrix Hypervisor
Versión de Citrix Hypervisor | ID de sistema | Rango de rendimiento |
---|---|---|
8.2 compatible con 13.0 64.x en adelante, 8.0, 7.6, 7.1 | 450000 | De 10 Mbps a 40 Gbps |
Instancia VPX en el hipervisor VMware ESXi
Versión de ESXi | Fecha de lanzamiento de ESXi (AAAA/MM/DD) | Número de compilación de ESXi | Versión de NetScaler VPX | Rango de rendimiento |
---|---|---|---|---|
ESXi 8.0 actualización 3e | 2025/04/10 | 24674464 | 13.1-58.x y compilaciones posteriores | De 10 Mbps a 100 Gbps |
ESXi 8.0 actualización 3d | 2025/03/04 | 24585383 | 13.1-56.x y compilaciones posteriores | Igual |
ESXi 8.0 actualización 3c | 2025/01/23 | 24414501 | 13.1-55.x y compilaciones posteriores | Igual |
ESXi 8.0 actualización 3b | 2024/09/17 | 24280767 | 13.1-53.x y compilaciones posteriores | Igual |
ESXi 8.0 actualización 3 | 2024/06/25 | 24022510 | 13.1-53.x y compilaciones posteriores | Igual |
ESXi 8.0 actualización 2c | 2024/05/21 | 23825572 | 13.1-53.x y compilaciones posteriores | Igual |
ESXi 8.0 actualización 2b | 2024/02/29 | 23305546 | 13.1-49.15, y 13.1-52.x y compilaciones posteriores | Igual |
ESXi 8.0 actualización 2 | 2023/09/21 | 22380479 | 13.1-52.x y compilaciones posteriores | Igual |
ESXi 8.0 actualización 1 | 2023/04/18 | 21495797 | 13.1-45.x y compilaciones posteriores | Igual |
ESXi 8.0c | 2023/03/30 | 21493926 | 13.1-45.x y compilaciones posteriores | Igual |
ESXi 8.0 | 2022/10/11 | 20513097 | 13.1-42.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3s | 2025/03/04 | 24585291 | 13.1-55.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3r | 2024/12/12 | 24411414 | 13.1-55.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3q | 2024/05/21 | 23794027 | 13.1-53.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3p | 2024/03/05 | 23307199 | 13.1-52.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3o | 2023/09/28 | 22348816 | 13.1-51.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3n | 2023/07/06 | 21930508 | 13.1-49.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3m | 2023/05/03 | 21686933 | 13.1-48.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3i | 2022/12/08 | 20842708 | 13.1-37.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3f | 2022/07/12 | 20036589 | 13.1-33.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3d | 2022/03/29 | 19482537 | 13.1-27.x y compilaciones posteriores | Igual |
ESXi 7.0 actualización 3c | 2022/01/27 | 19193900 | 13.1-21.x y compilaciones posteriores | Igual |
ESX 7.0 actualización 2d | 2021/09/14 | 18538813 | 13.1-9.x y compilaciones posteriores | Igual |
ESX 7.0 actualización 2a | 2021/04/29 | 17867351 | 13.1-4.x y compilaciones posteriores | Igual |
Nota:
Cada parche de ESXi se valida en la versión de NetScaler VPX especificada en la tabla anterior y es aplicable a todas las compilaciones posteriores de la versión 13.1 de NetScaler VPX.
Instancia VPX en Microsoft Hyper-V
Versión de Hyper-V | ID de sistema | Rango de rendimiento |
---|---|---|
2016, 2019 | 450020 | De 10 Mbps a 3 Gbps |
Instancia VPX en Nutanix AHV
NetScaler VPX es compatible con Nutanix AHV a través de la asociación Citrix Ready. Citrix Ready es un programa de socios tecnológicos que ayuda a los proveedores de software y hardware a desarrollar e integrar sus productos con la tecnología NetScaler para espacios de trabajo digitales, redes y análisis.
Para obtener más información sobre un método paso a paso para implementar una instancia de NetScaler VPX en Nutanix AHV, consulta Implementación de una instancia de NetScaler VPX en Nutanix AHV.
Asistencia de terceros:
Si experimentas algún problema con una integración de terceros (Nutanix AHV) en un entorno NetScaler, abre un incidente de asistencia directamente con el socio externo (Nutanix).
Si el socio determina que el problema parece estar relacionado con NetScaler, el socio puede ponerse en contacto con la asistencia de NetScaler para obtener más ayuda. Un recurso técnico dedicado de los socios trabaja con la asistencia de NetScaler hasta que se resuelve el problema.
Instancia VPX en KVM genérico
Versión de KVM genérico | ID de sistema | Rango de rendimiento |
---|---|---|
RHEL 7.6, RHEL 8.0, RHEL 9.3 | 450070 | De 10 Mbps a 100 Gbps |
Ubuntu 16.04, Ubuntu 18.04, Ubuntu 22.04 | Igual | Igual |
Puntos a tener en cuenta:
Ten en cuenta los siguientes puntos al usar hipervisores KVM.
-
La instancia VPX está cualificada para las versiones de lanzamiento del hipervisor mencionadas en las tablas 1 a 4, y no para las versiones de parche dentro de una versión. Sin embargo, se espera que la instancia VPX funcione sin problemas con las versiones de parche de una versión compatible. Si no es así, abre un caso de asistencia para la resolución de problemas y la depuración.
- Antes de usar RHEL 7.6, completa los siguientes pasos en el host KVM:
-
Edita /etc/default/grub y anexa
"kvm_intel.preemption_timer=0"
a la variableGRUB_CMDLINE_LINUX
. -
Regenera grub.cfg con el comando
"# grub2-mkconfig -o /boot/grub2/grub.cfg"
. -
Reinicia la máquina host.
-
-
Antes de usar Ubuntu 18.04, completa los siguientes pasos en el host KVM:
- Edita /etc/default/grub y anexa
"kvm_intel.preemption_timer=0"
a la variableGRUB_CMDLINE_LINUX
. - Regenera grub.cfg con el comando
"# grub-mkconfig -o /boot/grub/grub.cfg “
. - Reinicia la máquina host.
- Edita /etc/default/grub y anexa
Instancia VPX en nubes públicas
Nube pública | ID de sistema | Rango de rendimiento |
---|---|---|
AWS | 450040 | De 10 Mbps a 30 Gbps |
Azure | 450020 | De 10 Mbps a 10 Gbps |
GCP | 450070 | De 10 Mbps a 10 Gbps |
Características de VPX compatibles con hipervisores
Hipervisores → | VPX en XenServer | VPX en VMware ESX |
^^Características ↓ | ^^ | ^^ | ^^ | ^^ | ||||||
---|---|---|---|---|---|---|---|---|---|---|
Interfaces → | PV | SR-IOV | PV | SR-IOV | Emulado | Transferencia PCI | PV | PV | SR-IOV | Transferencia PCI |
Compatibilidad con Multi-PE | Sí | Sí | Sí | Sí | Sí | Sí | Sí | Sí | Sí | Sí |
Compatibilidad con clústeres | Sí | Sí¹ | Sí | Sí¹ | Sí | Sí | Sí | Sí | Sí¹ | Sí |
Etiquetado de VLAN | Sí | Sí | Sí | Sí | Sí | Sí | Sí (solo en 2012R2) | Sí | Sí | Sí |
Detección de eventos de enlace/HAMon | No² | Sí³ | No² | Sí³ | No² | Sí³ | No² | No² | Sí³ | Sí³ |
Configuración de parámetros de interfaz | No | No | No | No | No | Sí | No | No | No | Sí |
LA estático | Sí² | Sí³ | Sí² | No | Sí² | Sí³ | Sí² | Sí² | Sí³ | Sí³ |
LACP | No | Sí³ | Sí² | No | Sí² | Sí³ | No | Sí² | Sí³ | Sí³ |
CLAG estático | No | No | No | No | No | No | No | No | No | No |
CLAG LACP | No | No | Sí² | No | Sí² | Sí³ | No | Sí² | Sí³ | Sí³ |
Conexión en caliente | No | No | No | No | No | No | No | No | No | No |
Características de VPX compatibles con nubes públicas
Nubes públicas → | VPX en AWS | VPX en Azure | VPX en GCP |
^^Características ↓ | ^^ | ^^ | ^^ |
---|---|---|---|
Compatibilidad con Multi-PE | Sí | Sí | Sí |
Compatibilidad con clústeres | No | No | No |
Etiquetado de VLAN | No | No | No |
Detección de eventos de enlace/HAMon | No² | No² | No² |
Configuración de parámetros de interfaz | No | No | No |
LA estático | No | No | No |
LACP | No | No | No |
CLAG estático | No | No | No |
CLAG LACP | No | No | No |
Conexión en caliente | Sí | No | No |
Los números en superíndice (1, 2, 3) utilizados en las dos tablas anteriores se refieren a los siguientes puntos con la numeración respectiva:
- La compatibilidad con clústeres está disponible en SRIOV para interfaces orientadas al cliente y al servidor, y no para el plano posterior.
- Los eventos de interfaz BAJA no se registran en las instancias de NetScaler VPX.
- Para LA estático, el tráfico aún podría enviarse a la interfaz cuyo estado físico es BAJO.
Los siguientes puntos se aplican a las características respectivas capturadas en las dos tablas anteriores:
-
Para LACP, el dispositivo par conoce el evento de interfaz BAJA basándose en el mecanismo de tiempo de espera de LACP.
- Tiempo de espera corto: 3 segundos
- Tiempo de espera largo: 90 segundos
- Para LACP, no compartas interfaces entre máquinas virtuales.
- Para el enrutamiento dinámico, el tiempo de convergencia depende del protocolo de enrutamiento, ya que no se detectan eventos de enlace.
- La funcionalidad de ruta estática supervisada falla si no vinculas monitores a rutas estáticas porque el estado de la ruta depende del estado de la VLAN. El estado de la VLAN depende del estado del enlace.
- La detección de fallos parciales no ocurre en alta disponibilidad si hay un fallo de enlace. La condición de cerebro dividido de alta disponibilidad podría ocurrir si hay un fallo de enlace.
- Cuando se genera cualquier evento de enlace (deshabilitar, habilitar, restablecer) desde una instancia VPX, el estado físico del enlace no cambia. Para LA estático, cualquier tráfico iniciado por el par se descarta en la instancia.
- Para que la característica de etiquetado de VLAN funcione en VMware ESX, establece el ID de VLAN del grupo de puertos en 1-4095 en el vSwitch del servidor VMware ESX.
- La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS. Las instancias VPX con interfaces ENA no son compatibles con la conexión en caliente, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente.
- La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.
Navegadores compatibles
Para obtener información sobre los navegadores compatibles para acceder a las versiones 14.1 y 13.1 de la GUI de NetScaler, consulta Navegadores compatibles.
Procesadores compatibles con NetScaler VPX
Plataformas | Procesador Intel | Procesador AMD |
---|---|---|
Citrix Hypervisor | Sí | No |
ESXi Hypervisor | Sí | Sí |
Hyper-V | Sí | No |
KVM | Sí | No |
AWS | Sí | Sí |
Azure | Sí | Sí |
GCP | Sí | Sí |
NIC compatibles con NetScaler VPX
La siguiente tabla enumera las NIC compatibles con una plataforma o nube VPX.
NIC → | Mellanox CX-3 | Mellanox CX-4 | Mellanox CX-5 | Intel 82599 SRIOV VF | Intel X710/X722/XL710 PCI-Passthrough Mode |
^^Plataformas ↓ | ^^ | ^^ | ^^ | ^^ | ^^ | ^^ |
---|---|---|---|---|---|---|
Citrix Hypervisor | N/A | N/A | N/A | Sí | Sí | No |
ESXi Hypervisor | No | Sí | No | Sí | No | Sí |
Hyper-V | N/A | N/A | N/A | No | No | No |
KVM | No | Sí | Sí | Sí | Sí | No |
AWS | N/A | N/A | N/A | Sí | N/A | N/A |
Azure | Sí | Sí | Sí | N/A | N/A | N/A |
GCP | N/A | N/A | N/A | N/A | N/A | N/A |
Directrices de uso
Sigue estas directrices de uso:
- Te recomendamos implementar una instancia VPX en discos locales del servidor o en volúmenes de almacenamiento basados en SAN.
Consulta la sección Consideraciones de CPU de VMware ESXi en el documento Prácticas recomendadas de rendimiento para VMware vSphere 6.5. Aquí tienes un extracto:
-
No se recomienda que las máquinas virtuales con alta demanda de CPU/memoria residan en un host o clúster sobrecomprometido.
-
En la mayoría de los entornos, ESXi permite niveles significativos de sobrecompromiso de CPU sin afectar el rendimiento de la máquina virtual. En un host, puedes ejecutar más vCPU que el número total de núcleos de procesador físicos en ese host.
-
Si un host ESXi se satura de CPU, es decir, las máquinas virtuales y otras cargas en el host demandan todos los recursos de CPU que tiene el host, las cargas de trabajo sensibles a la latencia podrían no funcionar bien. En este caso, es posible que desees reducir la carga de CPU, por ejemplo, apagando algunas máquinas virtuales o migrándolas a un host diferente (o permitiendo que DRS las migre automáticamente).
-
Citrix recomienda la última versión de compatibilidad de hardware para aprovechar los conjuntos de características más recientes del hipervisor ESXi para la máquina virtual. Para obtener más información sobre la compatibilidad de hardware y la versión de ESXi, consulta la documentación de VMware.
-
NetScaler VPX es un dispositivo virtual de alto rendimiento y sensible a la latencia. Para ofrecer el rendimiento esperado, el dispositivo requiere reserva de vCPU, reserva de memoria y anclaje de vCPU en el host. Además, la tecnología Hyper-Threading debe estar deshabilitada en el host. Si el host no cumple estos requisitos, pueden producirse problemas como conmutación por error de alta disponibilidad, picos de CPU dentro de la instancia VPX, lentitud al acceder a la CLI de VPX, bloqueo del demonio pit boss, pérdida de paquetes y bajo rendimiento.
Un hipervisor se considera sobreaprovisionado si se cumple una de las dos condiciones siguientes:
-
El número total de núcleos virtuales (vCPU) aprovisionados en el host es mayor que el número total de núcleos físicos (pCPU).
-
El número total de máquinas virtuales aprovisionadas consume más vCPU que el número total de pCPU.
Si una instancia está sobreaprovisionada, el hipervisor podría no garantizar los recursos reservados (como CPU, memoria y otros) para la instancia debido a sobrecargas de programación del hipervisor, errores o limitaciones del hipervisor. Este comportamiento puede causar una falta de recursos de CPU para NetScaler y podría conducir a los problemas mencionados en el primer punto de las Directrices de uso. Como administradores, se recomienda reducir la ocupación en el host para que el número total de vCPU aprovisionadas en el host sea menor o igual que el número total de pCPU.
Ejemplo
Para el hipervisor ESX, si el parámetro
%RDY%
de una vCPU VPX es mayor que 0 en la salida del comandoesxtop
, se dice que el host ESX tiene sobrecargas de programación, lo que puede causar problemas relacionados con la latencia para la instancia VPX.En tal situación, reduce la ocupación en el host para que
%RDY%
siempre vuelva a 0. Alternativamente, ponte en contacto con el proveedor del hipervisor para determinar la razón por la que no se respeta la reserva de recursos realizada. - La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS. Las instancias VPX con interfaces ENA no son compatibles con la conexión en caliente, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente.
- La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.
Comandos para controlar el uso de CPU del motor de paquetes
Puedes usar dos comandos (set ns vpxparam
y show ns vpxparam
) para controlar el comportamiento del uso de CPU del motor de paquetes (no de administración) de las instancias VPX en entornos de hipervisor y nube:
-
set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]
Permite que cada máquina virtual use los recursos de CPU que se han asignado a otra máquina virtual pero que no se están utilizando.
Parámetros de
Set ns vpxparam
:-cpuyield: Libera o no libera los recursos de CPU asignados pero no utilizados.
-
YES: Permite que los recursos de CPU asignados pero no utilizados sean usados por otra máquina virtual.
-
NO: Reserva todos los recursos de CPU para la máquina virtual a la que se han asignado. Esta opción muestra un porcentaje más alto en entornos de hipervisor y nube para el uso de CPU de VPX.
-
DEFAULT: No.
Nota:
En todas las plataformas NetScaler VPX, el uso de vCPU en el sistema host es del 100 por ciento. Escribe el comando
set ns vpxparam –cpuyield YES
para anular este uso.Si deseas configurar los nodos del clúster para que “cedan”, debes realizar las siguientes configuraciones adicionales en CCO:
- Si se forma un clúster, todos los nodos se inician con “yield=DEFAULT”.
- Si se forma un clúster utilizando los nodos que ya están configurados en “yield=YES”, los nodos se agregan al clúster utilizando el rendimiento “DEFAULT”.
Nota:
Si deseas configurar los nodos del clúster en “yield=YES”, solo puedes configurarlos después de formar el clúster, no antes de que se forme el clúster.
-masterclockcpu1: Puedes mover la fuente de reloj principal de CPU0 (CPU de administración) a CPU1. Este parámetro tiene las siguientes opciones:
-
YES: Permite que la máquina virtual mueva la fuente de reloj principal de CPU0 a CPU1.
-
NO: La máquina virtual usa CPU0 como fuente de reloj principal. Por defecto, CPU0 es la fuente de reloj principal.
-
-
show ns vpxparam
Muestra la configuración actual de
vpxparam
.
Otras referencias
-
Para productos Citrix Ready, visita Citrix Ready Marketplace.
-
Para asistencia con productos Citrix Ready, consulta la página de socios de Citrix Ready.
-
Para versiones de hardware de VMware ESX, consulta Actualización de VMware Tools.
En este artículo
- Instancia VPX en XenServer o Citrix Hypervisor
- Instancia VPX en el hipervisor VMware ESXi
- Instancia VPX en Microsoft Hyper-V
- Instancia VPX en Nutanix AHV
- Instancia VPX en KVM genérico
- Instancia VPX en nubes públicas
- Características de VPX compatibles con hipervisores
- Características de VPX compatibles con nubes públicas
- Navegadores compatibles
- Procesadores compatibles con NetScaler VPX
- NIC compatibles con NetScaler VPX
- Directrices de uso
- Comandos para controlar el uso de CPU del motor de paquetes
- Otras referencias