Matriz de compatibilidad y pautas de uso
Este documento enumera los diferentes hipervisores y características compatibles con una instancia de NetScaler VPX. El documento también describe sus pautas de uso y limitaciones conocidas.
Instancia de VPX en XenServer o Citrix Hypervisor
| Versión de Citrix Hypervisor | SysID | Rango de rendimiento |
|---|---|---|
| 8.2 compatible con 13.0 64.x en adelante, 8.0, 7.6, 7.1 | 450000 | 10 Mbps a 40 Gbps |
Instancia de VPX en el hipervisor VMware ESXi
| Versión de ESXi | Fecha de lanzamiento de ESXi (AAAA/MM/DD) | Número de compilación de ESXi | Versión de NetScaler VPX | Rango de rendimiento |
|---|---|---|---|---|
| ESXi 8.0 update 3f | 2025/07/15 | 24784735 | 13.1-58.x y compilaciones superiores | 10 Mbps a 100 Gbps
|
| ESXi 8.0 update 3e | 2025/04/10 | 24674464 | 13.1-58.x y compilaciones superiores | |
| ESXi 8.0 update 3d | 2025/03/04 | 24585383 | 13.1-56.x y compilaciones superiores | |
| ESXi 8.0 update 3c | 2025/01/23 | 24414501 | 13.1-55.x y compilaciones superiores | |
| ESXi 8.0 update 3b | 2024/09/17 | 24280767 | 13.1-53.x y compilaciones superiores | |
| ESXi 8.0 update 3 | 2024/06/25 | 24022510 | 13.1-53.x y compilaciones superiores | |
| ESXi 8.0 update 2c | 2024/05/21 | 23825572 | 13.1-53.x y compilaciones superiores | |
| ESXi 8.0 update 2b | 2024/02/29 | 23305546 | 13.1–49.15, y 13.1-52.x y compilaciones superiores | |
| ESXi 8.0 update 2 | 2023/09/21 | 22380479 | 13.1-52.x y compilaciones superiores | |
| ESXi 8.0 update 1 | 2023/04/18 | 21495797 | 13.1-45.x y compilaciones superiores | |
| ESXi 8.0c | 2023/03/30 | 21493926 | 13.1-45.x y compilaciones superiores | |
| ESXi 8.0 | 2022/10/11 | 20513097 | 13.1-42.x y compilaciones superiores | |
| ESXi 7.0 update 3s | 2025/03/04 | 24585291 | 13.1-55.x y compilaciones superiores | |
| ESXi 7.0 update 3r | 2024/12/12 | 24411414 | 13.1-55.x y compilaciones superiores | |
| ESXi 7.0 update 3q | 2024/05/21 | 23794027 | 13.1-53.x y compilaciones superiores | |
| ESXi 7.0 update 3p | 2024/03/05 | 23307199 | 13.1-52.x y compilaciones superiores | |
| ESXi 7.0 update 3o | 2023/09/28 | 22348816 | 13.1-51.x y compilaciones superiores | |
| ESXi 7.0 update 3n | 2023/07/06 | 21930508 | 13.1-49.x y compilaciones superiores | |
| ESXi 7.0 update 3m | 2023/05/03 | 21686933 | 13.1-48.x y compilaciones superiores | |
| ESXi 7.0 update 3i | 2022/12/08 | 20842708 | 13.1-37.x y compilaciones superiores | |
| ESXi 7.0 update 3f | 2022/07/12 | 20036589 | 13.1-33.x y compilaciones superiores | |
| ESXi 7.0 update 3d | 2022/03/29 | 19482537 | 13.1-27.x y compilaciones superiores | |
| ESXi 7.0 update 3c | 2022/01/27 | 19193900 | 13.1-21.x y compilaciones superiores | |
| ESX 7.0 update 2d | 2021/09/14 | 18538813 | 13.1-9.x y compilaciones superiores | |
| ESX 7.0 update 2a | 2021/04/29 | 17867351 | 13.1-4.x y compilaciones superiores |
Nota:
Cada parche de ESXi es compatible con la versión de NetScaler VPX especificada en la tabla anterior y es aplicable a todas las compilaciones superiores de la versión 13.1 de NetScaler VPX.
Instancia de VPX en Microsoft Hyper-V
| Versión de Hyper-V | SysID | Rango de rendimiento |
|---|---|---|
| 2016, 2019 | 450020 | 10 Mbps a 3 Gbps |
Instancia de VPX en Nutanix AHV
NetScaler VPX es compatible con Nutanix AHV a través de la asociación Citrix Ready. Citrix Ready es un programa de socios tecnológicos que ayuda a los proveedores de software y hardware a desarrollar e integrar sus productos con la tecnología NetScaler para espacios de trabajo digitales, redes y análisis.
Para obtener más información sobre un método paso a paso para implementar una instancia de NetScaler VPX en Nutanix AHV, consulta Implementar un NetScaler VPX en Nutanix AHV.
Compatibilidad con terceros:
Si experimentas algún problema con una integración de terceros (Nutanix AHV) en un entorno NetScaler, abre un incidente de asistencia directamente con el socio externo (Nutanix).
Si el socio determina que el problema parece estar en NetScaler, el socio puede contactar con el soporte de NetScaler para obtener más asistencia. Un recurso técnico dedicado de los socios colabora con el equipo de soporte de NetScaler hasta que se resuelve el problema.
Instancia de VPX en KVM genérico
| Versión de KVM genérico | SysID | Rango de rendimiento |
|---|---|---|
| RHEL 7.6, RHEL 8.0, RHEL 9.3 | 450070
|
10 Mbps a 100 Gbps
|
| Ubuntu 16.04, Ubuntu 18.04, Ubuntu 22.04 |
Puntos a tener en cuenta:
Considera los siguientes puntos al usar hipervisores KVM.
-
La instancia de VPX está cualificada para las versiones de lanzamiento de hipervisor mencionadas en la tabla 1–4, y no para las versiones de parche dentro de una versión. Sin embargo, se espera que la instancia de VPX funcione sin problemas con las versiones de parche de una versión compatible. Si no es así, abre un caso de asistencia para la resolución de problemas y la depuración.
- Antes de usar RHEL 7.6, completa los siguientes pasos en el host KVM:
-
Modifica /etc/default/grub y agrega
"kvm_intel.preemption_timer=0"a la variableGRUB_CMDLINE_LINUX. -
Regenera grub.cfg usando el comando
"# grub2-mkconfig -o /boot/grub2/grub.cfg". -
Reinicia la máquina host.
-
-
Antes de usar Ubuntu 18.04, completa los siguientes pasos en el host KVM:
- Modifica /etc/default/grub y agrega
"kvm_intel.preemption_timer=0"a la variableGRUB_CMDLINE_LINUX. - Regenera grub.cfg usando el comando
"# grub-mkconfig -o /boot/grub/grub.cfg “. - Reinicia la máquina host.
- Modifica /etc/default/grub y agrega
Instancia de VPX en nubes públicas
| Nube pública | SysID | Rango de rendimiento |
|---|---|---|
| AWS | 450040 | 10 Mbps a 30 Gbps |
| Azure | 450020 | 10 Mbps a 10 Gbps |
| GCP | 450070 | 10 Mbps a 10 Gbps |
Características de VPX compatibles con hipervisores
| Hipervisores → | VPX en XenServer | VPX en VMware ESX | ||||
| ^^Características ↓ | ^^ | ^^ | ^^ | ^^ | ||||||
|---|---|---|---|---|---|---|---|---|---|---|
| Interfaces → | PV | SR-IOV | PV | SR-IOV | Emulado | PCI Passthrough | PV | PV | SR-IOV | PCI Passthrough |
| Compatibilidad con Multi-PE | Sí | Sí | Sí | Sí | Sí | Sí | Sí | Sí | Sí | Sí |
| Compatibilidad con clústeres | Sí | Sí¹ | Sí | Sí¹ | Sí | Sí | Sí | Sí | Sí¹ | Sí |
| Etiquetado de VLAN | Sí | Sí | Sí | Sí | Sí | Sí | Sí (solo en 2012R2) | Sí | Sí | Sí |
| Detección de eventos de enlace/HAMon | No² | Sí³ | No² | Sí³ | No² | Sí³ | No² | No² | Sí³ | Sí³ |
| Configuración de parámetros de interfaz | No | No | No | No | No | Sí | No | No | No | Sí |
| LA estático | Sí² | Sí³ | Sí² | No | Sí² | Sí³ | Sí² | Sí² | Sí³ | Sí³ |
| LACP | No | Sí³ | Sí² | No | Sí² | Sí³ | No | Sí² | Sí³ | Sí³ |
| CLAG estático | No | No | No | No | No | No | No | No | No | No |
| LACP CLAG | No | No | Sí² | No | Sí² | Sí³ | No | Sí² | Sí³ | Sí³ |
| Conexión en caliente | No | No | No | No | No | No | No | No | No | No |
Características de VPX compatibles con nubes públicas
| Nubes públicas → | VPX en AWS | VPX en Azure | VPX en GCP |
| ^^Características ↓ | ^^ | ^^ | ^^ |
|---|---|---|---|
| Compatibilidad con Multi-PE | Sí | Sí | Sí |
| Compatibilidad con clústeres | No | No | No |
| Etiquetado de VLAN | No | No | No |
| Detección de eventos de enlace/HAMon | No² | No² | No² |
| Configuración de parámetros de interfaz | No | No | No |
| LA estático | No | No | No |
| LACP | No | No | No |
| CLAG estático | No | No | No |
| LACP CLAG | No | No | No |
| Conexión en caliente | Sí | No | No |
Los números en superíndice (1, 2, 3) utilizados en las dos tablas anteriores se refieren a los siguientes puntos con su numeración respectiva:
- La compatibilidad con clústeres está disponible en SRIOV para interfaces orientadas al cliente y al servidor, y no para el backplane.
- Los eventos de INTERFAZ CAÍDA no se registran en las instancias de NetScaler VPX.
- Para LA estático, el tráfico aún podría enviarse a la interfaz cuyo estado físico es CAÍDA.
Los siguientes puntos se aplican a las características respectivas capturadas en las dos tablas anteriores:
-
Para LACP, el dispositivo par conoce el evento de INTERFAZ CAÍDA basándose en el mecanismo de tiempo de espera de LACP.
- Tiempo de espera corto: 3 segundos
- Tiempo de espera largo: 90 segundos
- Para LACP, no compartas interfaces entre máquinas virtuales.
- Para el enrutamiento dinámico, el tiempo de convergencia depende del protocolo de enrutamiento, ya que no se detectan eventos de enlace.
- La funcionalidad de ruta estática supervisada falla si no vinculas monitores a rutas estáticas porque el estado de la ruta depende del estado de la VLAN. El estado de la VLAN depende del estado del enlace.
- La detección de fallos parciales no ocurre en alta disponibilidad si hay un fallo de enlace. Podría ocurrir una condición de cerebro dividido de alta disponibilidad si hay un fallo de enlace.
- Cuando se genera cualquier evento de enlace (deshabilitar, habilitar, restablecer) desde una instancia de VPX, el estado físico del enlace no cambia. Para LA estático, cualquier tráfico iniciado por el par se descarta en la instancia.
- Para que la característica de etiquetado de VLAN funcione en VMware ESX, establece el ID de VLAN del grupo de puertos en 1–4095 en el vSwitch del servidor VMware ESX.
- La conexión en caliente no es compatible con instancias de VPX con interfaces ENA, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente. La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS.
- La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.
Navegadores compatibles
Para obtener información sobre los navegadores compatibles para acceder a las versiones 14.1 y 13.1 de la GUI de NetScaler, consulta Navegadores compatibles.
Procesadores compatibles para NetScaler VPX
| Plataformas | Procesador Intel | Procesador AMD |
|---|---|---|
| Citrix Hypervisor | Sí | No |
| Hipervisor ESXi | Sí | Sí |
| Hyper-V | Sí | No |
| KVM | Sí | No |
| AWS | Sí | Sí |
| Azure | Sí | Sí |
| GCP | Sí | Sí |
NIC compatibles para NetScaler VPX
La siguiente tabla enumera las NIC compatibles con una plataforma o nube VPX.
| NIC → | Mellanox CX-3 | Mellanox CX-4 | Mellanox CX-5 | Intel 82599 SRIOV VF | Intel X710/X722/XL710 SRIOV VF | Intel X710/XL710/XXV710 PCI-Passthrough Mode |
| ^^Plataformas ↓ | ^^ | ^^ | ^^ | ^^ | ^^ | ^^ |
|---|---|---|---|---|---|---|
| Citrix Hypervisor | NA | NA | NA | Sí | Sí | No |
| Hipervisor ESXi | No | Sí | No | Sí | No | Sí |
| Hyper-V | NA | NA | NA | No | No | No |
| KVM | No | Sí | Sí | Sí | Sí | No |
| AWS | NA | NA | NA | Sí | NA | NA |
| Azure | Sí | Sí | Sí | NA | NA | NA |
| GCP | NA | NA | NA | NA | NA | NA |
Pautas de uso
Sigue estas pautas de uso:
- Te recomendamos implementar una instancia de VPX en discos locales del servidor o en volúmenes de almacenamiento basados en SAN.
Consulta la sección VMware ESXi CPU Considerations en el documento Performance Best Practices for VMware vSphere 6.5. Aquí tienes un extracto:
-
No se recomienda que las máquinas virtuales con alta demanda de CPU/memoria se ubiquen en un host o clúster sobrecomprometido.
-
En la mayoría de los entornos, ESXi permite niveles significativos de sobrecompromiso de CPU sin afectar el rendimiento de la máquina virtual. En un host, puedes ejecutar más vCPU que el número total de núcleos de procesador físicos en ese host.
-
Si un host ESXi se satura de CPU, es decir, las máquinas virtuales y otras cargas en el host demandan todos los recursos de CPU que tiene el host, las cargas de trabajo sensibles a la latencia podrían no funcionar bien. En este caso, es posible que desees reducir la carga de CPU, por ejemplo, apagando algunas máquinas virtuales o migrándolas a un host diferente (o permitiendo que DRS las migre automáticamente).
-
Citrix recomienda la última versión de compatibilidad de hardware para aprovechar las últimas características del hipervisor ESXi para la máquina virtual. Para obtener más información sobre la compatibilidad de hardware y la versión de ESXi, consulta la documentación de VMware.
-
NetScaler VPX es un dispositivo virtual de alto rendimiento y sensible a la latencia. Para ofrecer el rendimiento esperado, el dispositivo requiere reserva de vCPU, reserva de memoria y anclaje de vCPU en el host. Además, la hiperprocesamiento debe estar deshabilitado en el host. Si el host no cumple con estos requisitos, ocurren problemas como la conmutación por error de alta disponibilidad, picos de CPU dentro de la instancia de VPX, lentitud al acceder a la CLI de VPX, fallos del demonio pit boss, pérdida de paquetes y bajo rendimiento.
Un hipervisor se considera sobreaprovisionado si se cumple una de las dos condiciones siguientes:
-
El número total de núcleos virtuales (vCPU) aprovisionados en el host es mayor que el número total de núcleos físicos (pCPU).
-
El número total de máquinas virtuales aprovisionadas consume más vCPU que el número total de pCPU.
Si una instancia está sobreaprovisionada, el hipervisor podría no garantizar los recursos reservados (como CPU, memoria y otros) para la instancia debido a la sobrecarga de programación del hipervisor, errores o limitaciones del hipervisor. Este comportamiento puede causar falta de recursos de CPU para NetScaler y podría llevar a los problemas mencionados en el primer punto de las Pautas de uso. Como administradores, se recomienda reducir la ocupación en el host para que el número total de vCPU aprovisionadas en el host sea menor o igual al número total de pCPU.
Ejemplo
Para el hipervisor ESX, si el parámetro
%RDY%de una vCPU de VPX es mayor que 0 en la salida del comandoesxtop, se dice que el host ESX tiene sobrecargas de programación, lo que puede causar problemas relacionados con la latencia para la instancia de VPX.En tal situación, reduce la ocupación en el host para que
%RDY%siempre regrese a 0. Alternativamente, contacta al proveedor del hipervisor para investigar la razón por la que no se respeta la reserva de recursos realizada. - La adición en caliente solo es compatible con interfaces PV y SRIOV con NetScaler en AWS. Las instancias de VPX con interfaces ENA no son compatibles con la conexión en caliente, y el comportamiento de las instancias puede ser impredecible si se intenta la conexión en caliente.
- La eliminación en caliente, ya sea a través de la consola web de AWS o la interfaz CLI de AWS, no es compatible con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta la eliminación en caliente.
Comandos para controlar el uso de CPU del motor de paquetes
Puedes usar dos comandos (set ns vpxparam y show ns vpxparam) para controlar el comportamiento de uso de CPU del motor de paquetes (no de administración) de las instancias de VPX en entornos de hipervisor y nube:
-
set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]Permite que cada máquina virtual use los recursos de CPU que se han asignado a otra máquina virtual pero que no se están utilizando.
Parámetros de
Set ns vpxparam:-cpuyield: Libera o no libera los recursos de CPU asignados pero no utilizados.
-
YES: Permite que los recursos de CPU asignados pero no utilizados sean usados por otra máquina virtual.
-
NO: Reserva todos los recursos de CPU para la máquina virtual a la que se han asignado. Esta opción muestra un porcentaje más alto en entornos de hipervisor y nube para el uso de CPU de VPX.
-
DEFAULT: No.
Nota:
En todas las plataformas NetScaler VPX, el uso de vCPU en el sistema host es del 100 por ciento. Escribe el comando
set ns vpxparam –cpuyield YESpara anular este uso.Si quieres establecer los nodos del clúster en “yield”, debes realizar las siguientes configuraciones adicionales en CCO:
- Si se forma un clúster, todos los nodos se inician con “yield=DEFAULT”.
- Si se forma un clúster usando los nodos que ya están configurados en “yield=YES”, entonces los nodos se agregan al clúster usando el “DEFAULT” yield.
Nota:
Si quieres establecer los nodos del clúster en “yield=YES”, solo puedes configurarlo después de formar el clúster, no antes de que se forme el clúster.
-masterclockcpu1: Puedes mover la fuente del reloj principal de CPU0 (CPU de administración) a CPU1. Este parámetro tiene las siguientes opciones:
-
YES: Permite que la máquina virtual mueva la fuente del reloj principal de CPU0 a CPU1.
-
NO: La máquina virtual usa CPU0 como fuente del reloj principal. Por defecto, CPU0 es la fuente del reloj principal.
-
-
show ns vpxparamMuestra la configuración actual de
vpxparam.
Otras referencias
-
Para productos Citrix Ready, visita Citrix Ready Marketplace.
-
Para obtener asistencia con productos Citrix Ready, consulta la página de socios de Citrix Ready.
-
Para las versiones de hardware de VMware ESX, consulta Actualizar VMware Tools.
En este artículo
- Instancia de VPX en XenServer o Citrix Hypervisor
- Instancia de VPX en el hipervisor VMware ESXi
- Instancia de VPX en Microsoft Hyper-V
- Instancia de VPX en Nutanix AHV
- Instancia de VPX en KVM genérico
- Instancia de VPX en nubes públicas
- Características de VPX compatibles con hipervisores
- Características de VPX compatibles con nubes públicas
- Navegadores compatibles
- Procesadores compatibles para NetScaler VPX
- NIC compatibles para NetScaler VPX
- Pautas de uso
- Comandos para controlar el uso de CPU del motor de paquetes
- Otras referencias