NetScaler VPX

Matriz de compatibilidad y directrices de uso

Este documento enumera los diferentes hipervisores y características compatibles con una instancia de NetScaler VPX. El documento también describe sus directrices de uso y limitaciones conocidas.

Instancia VPX en XenServer o Citrix Hypervisor

Versión de Citrix Hypervisor ID de sistema Rango de rendimiento
8.2 compatible con 13.0 64.x en adelante, 8.0, 7.6, 7.1 450000 De 10 Mbps a 40 Gbps

Instancia VPX en el hipervisor VMware ESXi

Versión de ESXi Fecha de lanzamiento de ESXi (AAAA/MM/DD) Número de compilación de ESXi Versión de NetScaler VPX Rango de rendimiento
ESXi 8.0 actualización 3e 2025/04/10 24674464 13.1-58.x y compilaciones posteriores De 10 Mbps a 100 Gbps
ESXi 8.0 actualización 3d 2025/03/04 24585383 13.1-56.x y compilaciones posteriores Igual
ESXi 8.0 actualización 3c 2025/01/23 24414501 13.1-55.x y compilaciones posteriores Igual
ESXi 8.0 actualización 3b 2024/09/17 24280767 13.1-53.x y compilaciones posteriores Igual
ESXi 8.0 actualización 3 2024/06/25 24022510 13.1-53.x y compilaciones posteriores Igual
ESXi 8.0 actualización 2c 2024/05/21 23825572 13.1-53.x y compilaciones posteriores Igual
ESXi 8.0 actualización 2b 2024/02/29 23305546 13.1-49.15, y 13.1-52.x y compilaciones posteriores Igual
ESXi 8.0 actualización 2 2023/09/21 22380479 13.1-52.x y compilaciones posteriores Igual
ESXi 8.0 actualización 1 2023/04/18 21495797 13.1-45.x y compilaciones posteriores Igual
ESXi 8.0c 2023/03/30 21493926 13.1-45.x y compilaciones posteriores Igual
ESXi 8.0 2022/10/11 20513097 13.1-42.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3s 2025/03/04 24585291 13.1-55.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3r 2024/12/12 24411414 13.1-55.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3q 2024/05/21 23794027 13.1-53.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3p 2024/03/05 23307199 13.1-52.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3o 2023/09/28 22348816 13.1-51.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3n 2023/07/06 21930508 13.1-49.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3m 2023/05/03 21686933 13.1-48.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3i 2022/12/08 20842708 13.1-37.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3f 2022/07/12 20036589 13.1-33.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3d 2022/03/29 19482537 13.1-27.x y compilaciones posteriores Igual
ESXi 7.0 actualización 3c 2022/01/27 19193900 13.1-21.x y compilaciones posteriores Igual
ESX 7.0 actualización 2d 2021/09/14 18538813 13.1-9.x y compilaciones posteriores Igual
ESX 7.0 actualización 2a 2021/04/29 17867351 13.1-4.x y compilaciones posteriores Igual

Nota:

Cada parche de ESXi se valida en la versión de NetScaler VPX especificada en la tabla anterior y es aplicable a todas las compilaciones posteriores de la versión 13.1 de NetScaler VPX.

Instancia VPX en Microsoft Hyper-V

Versión de Hyper-V ID de sistema Rango de rendimiento
2016, 2019 450020 De 10 Mbps a 3 Gbps

Instancia VPX en Nutanix AHV

NetScaler VPX es compatible con Nutanix AHV a través de la asociación Citrix Ready. Citrix Ready es un programa de socios tecnológicos que ayuda a los proveedores de software y hardware a desarrollar e integrar sus productos con la tecnología NetScaler para espacios de trabajo digitales, redes y análisis.

Para obtener más información sobre un método paso a paso para implementar una instancia de NetScaler VPX en Nutanix AHV, consulta Implementación de una instancia de NetScaler VPX en Nutanix AHV.

Asistencia de terceros:

Si experimentas algún problema con una integración de terceros (Nutanix AHV) en un entorno NetScaler, abre un incidente de asistencia directamente con el socio externo (Nutanix).

Si el socio determina que el problema parece estar relacionado con NetScaler, el socio puede ponerse en contacto con la asistencia de NetScaler para obtener más ayuda. Un recurso técnico dedicado de los socios trabaja con la asistencia de NetScaler hasta que se resuelve el problema.

Instancia VPX en KVM genérico

Versión de KVM genérico ID de sistema Rango de rendimiento
RHEL 7.6, RHEL 8.0, RHEL 9.3 450070 De 10 Mbps a 100 Gbps
Ubuntu 16.04, Ubuntu 18.04, Ubuntu 22.04 Igual Igual

Puntos a tener en cuenta:

Ten en cuenta los siguientes puntos al usar hipervisores KVM.

  • La instancia VPX está cualificada para las versiones de lanzamiento del hipervisor mencionadas en las tablas 1 a 4, y no para las versiones de parche dentro de una versión. Sin embargo, se espera que la instancia VPX funcione sin problemas con las versiones de parche de una versión compatible. Si no es así, abre un caso de asistencia para la resolución de problemas y la depuración.

  • Antes de usar RHEL 7.6, completa los siguientes pasos en el host KVM:
    1. Edita /etc/default/grub y anexa "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.

    2. Regenera grub.cfg con el comando "# grub2-mkconfig -o /boot/grub2/grub.cfg".

    3. Reinicia la máquina host.

  • Antes de usar Ubuntu 18.04, completa los siguientes pasos en el host KVM:

    1. Edita /etc/default/grub y anexa "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.
    2. Regenera grub.cfg con el comando "# grub-mkconfig -o /boot/grub/grub.cfg “.
    3. Reinicia la máquina host.

Instancia VPX en nubes públicas

Nube pública ID de sistema Rango de rendimiento
AWS 450040 De 10 Mbps a 30 Gbps
Azure 450020 De 10 Mbps a 10 Gbps
GCP 450070 De 10 Mbps a 10 Gbps

Características de VPX compatibles con hipervisores

Hipervisores → VPX en XenServer VPX en VMware ESX
^^Características ↓ ^^ ^^ ^^ ^^
Interfaces → PV SR-IOV PV SR-IOV Emulado Transferencia PCI PV PV SR-IOV Transferencia PCI
Compatibilidad con Multi-PE
Compatibilidad con clústeres Sí¹ Sí¹ Sí¹
Etiquetado de VLAN Sí (solo en 2012R2)
Detección de eventos de enlace/HAMon No² Sí³ No² Sí³ No² Sí³ No² No² Sí³ Sí³
Configuración de parámetros de interfaz No No No No No No No No
LA estático Sí² Sí³ Sí² No Sí² Sí³ Sí² Sí² Sí³ Sí³
LACP No Sí³ Sí² No Sí² Sí³ No Sí² Sí³ Sí³
CLAG estático No No No No No No No No No No
CLAG LACP No No Sí² No Sí² Sí³ No Sí² Sí³ Sí³
Conexión en caliente No No No No No No No No No No

Características de VPX compatibles con nubes públicas

Nubes públicas → VPX en AWS VPX en Azure VPX en GCP
^^Características ↓ ^^ ^^ ^^
Compatibilidad con Multi-PE
Compatibilidad con clústeres No No No
Etiquetado de VLAN No No No
Detección de eventos de enlace/HAMon No² No² No²
Configuración de parámetros de interfaz No No No
LA estático No No No
LACP No No No
CLAG estático No No No
CLAG LACP No No No
Conexión en caliente No No

Los números en superíndice (1, 2, 3) utilizados en las dos tablas anteriores se refieren a los siguientes puntos con la numeración respectiva:

  1. La compatibilidad con clústeres está disponible en SRIOV para interfaces orientadas al cliente y al servidor, y no para el plano posterior.
  2. Los eventos de interfaz BAJA no se registran en las instancias de NetScaler VPX.
  3. Para LA estático, el tráfico aún podría enviarse a la interfaz cuyo estado físico es BAJO.

Los siguientes puntos se aplican a las características respectivas capturadas en las dos tablas anteriores:

  • Para LACP, el dispositivo par conoce el evento de interfaz BAJA basándose en el mecanismo de tiempo de espera de LACP.

    • Tiempo de espera corto: 3 segundos
    • Tiempo de espera largo: 90 segundos
  • Para LACP, no compartas interfaces entre máquinas virtuales.
  • Para el enrutamiento dinámico, el tiempo de convergencia depende del protocolo de enrutamiento, ya que no se detectan eventos de enlace.
  • La funcionalidad de ruta estática supervisada falla si no vinculas monitores a rutas estáticas porque el estado de la ruta depende del estado de la VLAN. El estado de la VLAN depende del estado del enlace.
  • La detección de fallos parciales no ocurre en alta disponibilidad si hay un fallo de enlace. La condición de cerebro dividido de alta disponibilidad podría ocurrir si hay un fallo de enlace.
    • Cuando se genera cualquier evento de enlace (deshabilitar, habilitar, restablecer) desde una instancia VPX, el estado físico del enlace no cambia. Para LA estático, cualquier tráfico iniciado por el par se descarta en la instancia.
    • Para que la característica de etiquetado de VLAN funcione en VMware ESX, establece el ID de VLAN del grupo de puertos en 1-4095 en el vSwitch del servidor VMware ESX.
  • La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS. Las instancias VPX con interfaces ENA no son compatibles con la conexión en caliente, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente.
  • La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.

Para obtener información sobre los navegadores compatibles para acceder a las versiones 14.1 y 13.1 de la GUI de NetScaler, consulta Navegadores compatibles.

Procesadores compatibles con NetScaler VPX

Plataformas Procesador Intel Procesador AMD
Citrix Hypervisor No
ESXi Hypervisor
Hyper-V No
KVM No
AWS
Azure
GCP

NIC compatibles con NetScaler VPX

La siguiente tabla enumera las NIC compatibles con una plataforma o nube VPX.

NIC → Mellanox CX-3 Mellanox CX-4 Mellanox CX-5 Intel 82599 SRIOV VF Intel X710/X722/XL710 PCI-Passthrough Mode
^^Plataformas ↓ ^^ ^^ ^^ ^^ ^^ ^^
Citrix Hypervisor N/A N/A N/A No
ESXi Hypervisor No No No
Hyper-V N/A N/A N/A No No No
KVM No No
AWS N/A N/A N/A N/A N/A
Azure N/A N/A N/A
GCP N/A N/A N/A N/A N/A N/A

Directrices de uso

Sigue estas directrices de uso:

  • Te recomendamos implementar una instancia VPX en discos locales del servidor o en volúmenes de almacenamiento basados en SAN.

Consulta la sección Consideraciones de CPU de VMware ESXi en el documento Prácticas recomendadas de rendimiento para VMware vSphere 6.5. Aquí tienes un extracto:

  • No se recomienda que las máquinas virtuales con alta demanda de CPU/memoria residan en un host o clúster sobrecomprometido.

  • En la mayoría de los entornos, ESXi permite niveles significativos de sobrecompromiso de CPU sin afectar el rendimiento de la máquina virtual. En un host, puedes ejecutar más vCPU que el número total de núcleos de procesador físicos en ese host.

  • Si un host ESXi se satura de CPU, es decir, las máquinas virtuales y otras cargas en el host demandan todos los recursos de CPU que tiene el host, las cargas de trabajo sensibles a la latencia podrían no funcionar bien. En este caso, es posible que desees reducir la carga de CPU, por ejemplo, apagando algunas máquinas virtuales o migrándolas a un host diferente (o permitiendo que DRS las migre automáticamente).

  • Citrix recomienda la última versión de compatibilidad de hardware para aprovechar los conjuntos de características más recientes del hipervisor ESXi para la máquina virtual. Para obtener más información sobre la compatibilidad de hardware y la versión de ESXi, consulta la documentación de VMware.

  • NetScaler VPX es un dispositivo virtual de alto rendimiento y sensible a la latencia. Para ofrecer el rendimiento esperado, el dispositivo requiere reserva de vCPU, reserva de memoria y anclaje de vCPU en el host. Además, la tecnología Hyper-Threading debe estar deshabilitada en el host. Si el host no cumple estos requisitos, pueden producirse problemas como conmutación por error de alta disponibilidad, picos de CPU dentro de la instancia VPX, lentitud al acceder a la CLI de VPX, bloqueo del demonio pit boss, pérdida de paquetes y bajo rendimiento.

Un hipervisor se considera sobreaprovisionado si se cumple una de las dos condiciones siguientes:

  • El número total de núcleos virtuales (vCPU) aprovisionados en el host es mayor que el número total de núcleos físicos (pCPU).

  • El número total de máquinas virtuales aprovisionadas consume más vCPU que el número total de pCPU.

    Si una instancia está sobreaprovisionada, el hipervisor podría no garantizar los recursos reservados (como CPU, memoria y otros) para la instancia debido a sobrecargas de programación del hipervisor, errores o limitaciones del hipervisor. Este comportamiento puede causar una falta de recursos de CPU para NetScaler y podría conducir a los problemas mencionados en el primer punto de las Directrices de uso. Como administradores, se recomienda reducir la ocupación en el host para que el número total de vCPU aprovisionadas en el host sea menor o igual que el número total de pCPU.

    Ejemplo

    Para el hipervisor ESX, si el parámetro %RDY% de una vCPU VPX es mayor que 0 en la salida del comando esxtop, se dice que el host ESX tiene sobrecargas de programación, lo que puede causar problemas relacionados con la latencia para la instancia VPX.

    En tal situación, reduce la ocupación en el host para que %RDY% siempre vuelva a 0. Alternativamente, ponte en contacto con el proveedor del hipervisor para determinar la razón por la que no se respeta la reserva de recursos realizada.

  • La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS. Las instancias VPX con interfaces ENA no son compatibles con la conexión en caliente, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente.
  • La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.

Comandos para controlar el uso de CPU del motor de paquetes

Puedes usar dos comandos (set ns vpxparam y show ns vpxparam) para controlar el comportamiento del uso de CPU del motor de paquetes (no de administración) de las instancias VPX en entornos de hipervisor y nube:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    Permite que cada máquina virtual use los recursos de CPU que se han asignado a otra máquina virtual pero que no se están utilizando.

    Parámetros de Set ns vpxparam:

    -cpuyield: Libera o no libera los recursos de CPU asignados pero no utilizados.

    • YES: Permite que los recursos de CPU asignados pero no utilizados sean usados por otra máquina virtual.

    • NO: Reserva todos los recursos de CPU para la máquina virtual a la que se han asignado. Esta opción muestra un porcentaje más alto en entornos de hipervisor y nube para el uso de CPU de VPX.

    • DEFAULT: No.

    Nota:

    En todas las plataformas NetScaler VPX, el uso de vCPU en el sistema host es del 100 por ciento. Escribe el comando set ns vpxparam –cpuyield YES para anular este uso.

    Si deseas configurar los nodos del clúster para que “cedan”, debes realizar las siguientes configuraciones adicionales en CCO:

    • Si se forma un clúster, todos los nodos se inician con “yield=DEFAULT”.
    • Si se forma un clúster utilizando los nodos que ya están configurados en “yield=YES”, los nodos se agregan al clúster utilizando el rendimiento “DEFAULT”.

    Nota:

    Si deseas configurar los nodos del clúster en “yield=YES”, solo puedes configurarlos después de formar el clúster, no antes de que se forme el clúster.

    -masterclockcpu1: Puedes mover la fuente de reloj principal de CPU0 (CPU de administración) a CPU1. Este parámetro tiene las siguientes opciones:

    • YES: Permite que la máquina virtual mueva la fuente de reloj principal de CPU0 a CPU1.

    • NO: La máquina virtual usa CPU0 como fuente de reloj principal. Por defecto, CPU0 es la fuente de reloj principal.

  • show ns vpxparam

    Muestra la configuración actual de vpxparam.

Otras referencias