NetScaler VPX

Matriz de compatibilidad y pautas de uso

Este documento enumera los diferentes hipervisores y características compatibles con una instancia de NetScaler VPX. El documento también describe sus pautas de uso y limitaciones conocidas.

Instancia de VPX en XenServer o Citrix Hypervisor

Versión de Citrix Hypervisor SysID Rango de rendimiento
8.2 compatible con 13.0 64.x en adelante, 8.0, 7.6, 7.1 450000 10 Mbps a 40 Gbps

Instancia de VPX en el hipervisor VMware ESXi

Versión de ESXi Fecha de lanzamiento de ESXi (AAAA/MM/DD) Número de compilación de ESXi Versión de NetScaler VPX Rango de rendimiento
ESXi 8.0 update 3f 2025/07/15 24784735 13.1-58.x y compilaciones superiores 10 Mbps a 100 Gbps























ESXi 8.0 update 3e 2025/04/10 24674464 13.1-58.x y compilaciones superiores
ESXi 8.0 update 3d 2025/03/04 24585383 13.1-56.x y compilaciones superiores
ESXi 8.0 update 3c 2025/01/23 24414501 13.1-55.x y compilaciones superiores
ESXi 8.0 update 3b 2024/09/17 24280767 13.1-53.x y compilaciones superiores
ESXi 8.0 update 3 2024/06/25 24022510 13.1-53.x y compilaciones superiores
ESXi 8.0 update 2c 2024/05/21 23825572 13.1-53.x y compilaciones superiores
ESXi 8.0 update 2b 2024/02/29 23305546 13.1–49.15, y 13.1-52.x y compilaciones superiores
ESXi 8.0 update 2 2023/09/21 22380479 13.1-52.x y compilaciones superiores
ESXi 8.0 update 1 2023/04/18 21495797 13.1-45.x y compilaciones superiores
ESXi 8.0c 2023/03/30 21493926 13.1-45.x y compilaciones superiores
ESXi 8.0 2022/10/11 20513097 13.1-42.x y compilaciones superiores
ESXi 7.0 update 3s 2025/03/04 24585291 13.1-55.x y compilaciones superiores
ESXi 7.0 update 3r 2024/12/12 24411414 13.1-55.x y compilaciones superiores
ESXi 7.0 update 3q 2024/05/21 23794027 13.1-53.x y compilaciones superiores
ESXi 7.0 update 3p 2024/03/05 23307199 13.1-52.x y compilaciones superiores
ESXi 7.0 update 3o 2023/09/28 22348816 13.1-51.x y compilaciones superiores
ESXi 7.0 update 3n 2023/07/06 21930508 13.1-49.x y compilaciones superiores
ESXi 7.0 update 3m 2023/05/03 21686933 13.1-48.x y compilaciones superiores
ESXi 7.0 update 3i 2022/12/08 20842708 13.1-37.x y compilaciones superiores
ESXi 7.0 update 3f 2022/07/12 20036589 13.1-33.x y compilaciones superiores
ESXi 7.0 update 3d 2022/03/29 19482537 13.1-27.x y compilaciones superiores
ESXi 7.0 update 3c 2022/01/27 19193900 13.1-21.x y compilaciones superiores
ESX 7.0 update 2d 2021/09/14 18538813 13.1-9.x y compilaciones superiores
ESX 7.0 update 2a 2021/04/29 17867351 13.1-4.x y compilaciones superiores

Nota:

Cada parche de ESXi es compatible con la versión de NetScaler VPX especificada en la tabla anterior y es aplicable a todas las compilaciones superiores de la versión 13.1 de NetScaler VPX.

Instancia de VPX en Microsoft Hyper-V

Versión de Hyper-V SysID Rango de rendimiento
2016, 2019 450020 10 Mbps a 3 Gbps

Instancia de VPX en Nutanix AHV

NetScaler VPX es compatible con Nutanix AHV a través de la asociación Citrix Ready. Citrix Ready es un programa de socios tecnológicos que ayuda a los proveedores de software y hardware a desarrollar e integrar sus productos con la tecnología NetScaler para espacios de trabajo digitales, redes y análisis.

Para obtener más información sobre un método paso a paso para implementar una instancia de NetScaler VPX en Nutanix AHV, consulta Implementar un NetScaler VPX en Nutanix AHV.

Compatibilidad con terceros:

Si experimentas algún problema con una integración de terceros (Nutanix AHV) en un entorno NetScaler, abre un incidente de asistencia directamente con el socio externo (Nutanix).

Si el socio determina que el problema parece estar en NetScaler, el socio puede contactar con el soporte de NetScaler para obtener más asistencia. Un recurso técnico dedicado de los socios colabora con el equipo de soporte de NetScaler hasta que se resuelve el problema.

Instancia de VPX en KVM genérico

Versión de KVM genérico SysID Rango de rendimiento
RHEL 7.6, RHEL 8.0, RHEL 9.3 450070
10 Mbps a 100 Gbps
Ubuntu 16.04, Ubuntu 18.04, Ubuntu 22.04

Puntos a tener en cuenta:

Considera los siguientes puntos al usar hipervisores KVM.

  • La instancia de VPX está cualificada para las versiones de lanzamiento de hipervisor mencionadas en la tabla 1–4, y no para las versiones de parche dentro de una versión. Sin embargo, se espera que la instancia de VPX funcione sin problemas con las versiones de parche de una versión compatible. Si no es así, abre un caso de asistencia para la resolución de problemas y la depuración.

  • Antes de usar RHEL 7.6, completa los siguientes pasos en el host KVM:
    1. Modifica /etc/default/grub y agrega "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.

    2. Regenera grub.cfg usando el comando "# grub2-mkconfig -o /boot/grub2/grub.cfg".

    3. Reinicia la máquina host.

  • Antes de usar Ubuntu 18.04, completa los siguientes pasos en el host KVM:

    1. Modifica /etc/default/grub y agrega "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.
    2. Regenera grub.cfg usando el comando "# grub-mkconfig -o /boot/grub/grub.cfg “.
    3. Reinicia la máquina host.

Instancia de VPX en nubes públicas

Nube pública SysID Rango de rendimiento
AWS 450040 10 Mbps a 30 Gbps
Azure 450020 10 Mbps a 10 Gbps
GCP 450070 10 Mbps a 10 Gbps

Características de VPX compatibles con hipervisores

Hipervisores → VPX en XenServer VPX en VMware ESX
^^Características ↓ ^^ ^^ ^^ ^^
Interfaces → PV SR-IOV PV SR-IOV Emulado PCI Passthrough PV PV SR-IOV PCI Passthrough
Compatibilidad con Multi-PE
Compatibilidad con clústeres Sí¹ Sí¹ Sí¹
Etiquetado de VLAN Sí (solo en 2012R2)
Detección de eventos de enlace/HAMon No² Sí³ No² Sí³ No² Sí³ No² No² Sí³ Sí³
Configuración de parámetros de interfaz No No No No No No No No
LA estático Sí² Sí³ Sí² No Sí² Sí³ Sí² Sí² Sí³ Sí³
LACP No Sí³ Sí² No Sí² Sí³ No Sí² Sí³ Sí³
CLAG estático No No No No No No No No No No
LACP CLAG No No Sí² No Sí² Sí³ No Sí² Sí³ Sí³
Conexión en caliente No No No No No No No No No No

Características de VPX compatibles con nubes públicas

Nubes públicas → VPX en AWS VPX en Azure VPX en GCP
^^Características ↓ ^^ ^^ ^^
Compatibilidad con Multi-PE
Compatibilidad con clústeres No No No
Etiquetado de VLAN No No No
Detección de eventos de enlace/HAMon No² No² No²
Configuración de parámetros de interfaz No No No
LA estático No No No
LACP No No No
CLAG estático No No No
LACP CLAG No No No
Conexión en caliente No No

Los números en superíndice (1, 2, 3) utilizados en las dos tablas anteriores se refieren a los siguientes puntos con su numeración respectiva:

  1. La compatibilidad con clústeres está disponible en SRIOV para interfaces orientadas al cliente y al servidor, y no para el backplane.
  2. Los eventos de INTERFAZ CAÍDA no se registran en las instancias de NetScaler VPX.
  3. Para LA estático, el tráfico aún podría enviarse a la interfaz cuyo estado físico es CAÍDA.

Los siguientes puntos se aplican a las características respectivas capturadas en las dos tablas anteriores:

  • Para LACP, el dispositivo par conoce el evento de INTERFAZ CAÍDA basándose en el mecanismo de tiempo de espera de LACP.

    • Tiempo de espera corto: 3 segundos
    • Tiempo de espera largo: 90 segundos
  • Para LACP, no compartas interfaces entre máquinas virtuales.
  • Para el enrutamiento dinámico, el tiempo de convergencia depende del protocolo de enrutamiento, ya que no se detectan eventos de enlace.
  • La funcionalidad de ruta estática supervisada falla si no vinculas monitores a rutas estáticas porque el estado de la ruta depende del estado de la VLAN. El estado de la VLAN depende del estado del enlace.
  • La detección de fallos parciales no ocurre en alta disponibilidad si hay un fallo de enlace. Podría ocurrir una condición de cerebro dividido de alta disponibilidad si hay un fallo de enlace.
    • Cuando se genera cualquier evento de enlace (deshabilitar, habilitar, restablecer) desde una instancia de VPX, el estado físico del enlace no cambia. Para LA estático, cualquier tráfico iniciado por el par se descarta en la instancia.
    • Para que la característica de etiquetado de VLAN funcione en VMware ESX, establece el ID de VLAN del grupo de puertos en 1–4095 en el vSwitch del servidor VMware ESX.
  • La conexión en caliente no es compatible con instancias de VPX con interfaces ENA, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente. La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS.
  • La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.

Para obtener información sobre los navegadores compatibles para acceder a las versiones 14.1 y 13.1 de la GUI de NetScaler, consulta Navegadores compatibles.

Procesadores compatibles para NetScaler VPX

Plataformas Procesador Intel Procesador AMD
Citrix Hypervisor No
Hipervisor ESXi
Hyper-V No
KVM No
AWS
Azure
GCP

NIC compatibles para NetScaler VPX

La siguiente tabla enumera las NIC compatibles con una plataforma o nube VPX.

NIC → Mellanox CX-3 Mellanox CX-4 Mellanox CX-5 Intel 82599 SRIOV VF Intel X710/X722/XL710 SRIOV VF Intel X710/XL710/XXV710 PCI-Passthrough Mode
^^Plataformas ↓ ^^ ^^ ^^ ^^ ^^ ^^
Citrix Hypervisor NA NA NA No
Hipervisor ESXi No No No
Hyper-V NA NA NA No No No
KVM No No
AWS NA NA NA NA NA
Azure NA NA NA
GCP NA NA NA NA NA NA

Pautas de uso

Sigue estas pautas de uso:

  • Te recomendamos implementar una instancia de VPX en discos locales del servidor o en volúmenes de almacenamiento basados en SAN.

Consulta la sección VMware ESXi CPU Considerations en el documento Performance Best Practices for VMware vSphere 6.5. Aquí tienes un extracto:

  • No se recomienda que las máquinas virtuales con alta demanda de CPU/memoria se ubiquen en un host o clúster sobrecomprometido.

  • En la mayoría de los entornos, ESXi permite niveles significativos de sobrecompromiso de CPU sin afectar el rendimiento de la máquina virtual. En un host, puedes ejecutar más vCPU que el número total de núcleos de procesador físicos en ese host.

  • Si un host ESXi se satura de CPU, es decir, las máquinas virtuales y otras cargas en el host demandan todos los recursos de CPU que tiene el host, las cargas de trabajo sensibles a la latencia podrían no funcionar bien. En este caso, es posible que desees reducir la carga de CPU, por ejemplo, apagando algunas máquinas virtuales o migrándolas a un host diferente (o permitiendo que DRS las migre automáticamente).

  • Citrix recomienda la última versión de compatibilidad de hardware para aprovechar las últimas características del hipervisor ESXi para la máquina virtual. Para obtener más información sobre la compatibilidad de hardware y la versión de ESXi, consulta la documentación de VMware.

  • NetScaler VPX es un dispositivo virtual de alto rendimiento y sensible a la latencia. Para ofrecer el rendimiento esperado, el dispositivo requiere reserva de vCPU, reserva de memoria y anclaje de vCPU en el host. Además, la hiperprocesamiento debe estar deshabilitado en el host. Si el host no cumple con estos requisitos, ocurren problemas como la conmutación por error de alta disponibilidad, picos de CPU dentro de la instancia de VPX, lentitud al acceder a la CLI de VPX, fallos del demonio pit boss, pérdida de paquetes y bajo rendimiento.

Un hipervisor se considera sobreaprovisionado si se cumple una de las dos condiciones siguientes:

  • El número total de núcleos virtuales (vCPU) aprovisionados en el host es mayor que el número total de núcleos físicos (pCPU).

  • El número total de máquinas virtuales aprovisionadas consume más vCPU que el número total de pCPU.

    Si una instancia está sobreaprovisionada, el hipervisor podría no garantizar los recursos reservados (como CPU, memoria y otros) para la instancia debido a la sobrecarga de programación del hipervisor, errores o limitaciones del hipervisor. Este comportamiento puede causar falta de recursos de CPU para NetScaler y podría llevar a los problemas mencionados en el primer punto de las Pautas de uso. Como administradores, se recomienda reducir la ocupación en el host para que el número total de vCPU aprovisionadas en el host sea menor o igual al número total de pCPU.

    Ejemplo

    Para el hipervisor ESX, si el parámetro %RDY% de una vCPU de VPX es mayor que 0 en la salida del comando esxtop, se dice que el host ESX tiene sobrecargas de programación, lo que puede causar problemas relacionados con la latencia para la instancia de VPX.

    En tal situación, reduce la ocupación en el host para que %RDY% siempre regrese a 0. Alternativamente, contacta al proveedor del hipervisor para investigar la razón por la que no se respeta la reserva de recursos realizada.

  • La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS. Las instancias de VPX con interfaces ENA no son compatibles con la conexión en caliente, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente.
  • La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.

Comandos para controlar el uso de CPU del motor de paquetes

Puedes usar dos comandos (set ns vpxparam y show ns vpxparam) para controlar el comportamiento de uso de CPU del motor de paquetes (no de administración) de las instancias de VPX en entornos de hipervisor y nube:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    Permite que cada máquina virtual use los recursos de CPU que se han asignado a otra máquina virtual pero que no se están utilizando.

    Parámetros de Set ns vpxparam:

    -cpuyield: Libera o no libera los recursos de CPU asignados pero no utilizados.

    • YES: Permite que los recursos de CPU asignados pero no utilizados sean usados por otra máquina virtual.

    • NO: Reserva todos los recursos de CPU para la máquina virtual a la que se han asignado. Esta opción muestra un porcentaje más alto en entornos de hipervisor y nube para el uso de CPU de VPX.

    • DEFAULT: No.

    Nota:

    En todas las plataformas NetScaler VPX, el uso de vCPU en el sistema host es del 100 por ciento. Escribe el comando set ns vpxparam –cpuyield YES para anular este uso.

    Si quieres establecer los nodos del clúster en “yield”, debes realizar las siguientes configuraciones adicionales en CCO:

    • Si se forma un clúster, todos los nodos se inician con “yield=DEFAULT”.
    • Si se forma un clúster usando los nodos que ya están configurados en “yield=YES”, entonces los nodos se agregan al clúster usando el “DEFAULT” yield.

    Nota:

    Si quieres establecer los nodos del clúster en “yield=YES”, solo puedes configurarlo después de formar el clúster, no antes de que se forme el clúster.

    -masterclockcpu1: Puedes mover la fuente del reloj principal de CPU0 (CPU de administración) a CPU1. Este parámetro tiene las siguientes opciones:

    • YES: Permite que la máquina virtual mueva la fuente del reloj principal de CPU0 a CPU1.

    • NO: La máquina virtual usa CPU0 como fuente del reloj principal. Por defecto, CPU0 es la fuente del reloj principal.

  • show ns vpxparam

    Muestra la configuración actual de vpxparam.

Otras referencias