ADC

Tabla de compatibilidad y pautas de uso

En este documento se enumeran los diferentes hipervisores y funciones admitidos en una instancia de NetScaler VPX. El documento también describe sus pautas de uso y las limitaciones conocidas.

Instancia VPX en Citrix Hypervisor

Versión de Citrix Hypervisor SysID Modelos VPX
8.2 era compatible con 13.0 64.x y versiones posteriores, 8.0, 7.6, 7.1 450000 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10 G, VPX 15 G, VPX 25 G, VPX 40 G

Instancia VPX en hipervisor VMware ESXi

Los siguientes modelos VPX con 450010 (Sys ID) son compatibles con las versiones de VMware ESX que se muestran en la tabla.

Modelos VPX: VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G y VPX 100G.

versión ESXi Fecha de lanzamiento de ESXi (AAA/MM/DD) Número de compilación ESXi Versión de NetScaler VPX
Actualización 2c de ESXi 8.0 2024/05/21 23825572 Compilaciones 13.1-53.x y posteriores
Actualización 2b de ESXi 8.0 2024/02/29 23305546 compilaciones 13.1-49.15 y 13.1-52.x y posteriores
Actualización 2 de ESXi 8.0 2023/09/21 22380479 compilaciones 13.1-52.x y posteriores
Actualización 1 de ESXi 8.0 2023/04/18 21495797 compilaciones 13.1-45.x y posteriores
ESXi 8.0c 2023/03/30 21493926 compilaciones 13.1-45.x y posteriores
ESXi 8.0 2022/10/11 20513097 13.1-42.x y versiones superiores
Actualización 3q de ESXi 7.0 2024/05/21 23794027 Compilaciones 13.1-53.x y posteriores
Actualización 3p de ESXi 7.0 2024/03/05 23307199 compilaciones 13.1-52.x y posteriores
Actualización 3o de ESXi 7.0 2023/09/28 22348816 versiones 13.1-51.x y superiores
Actualización 3n de ESXi 7.0 2023/07/06 21930508 Compilaciones 13.1-49.x y superiores
Actualización 3m de ESXi 7.0 2023/05/03 21686933 Compilaciones 13.1-48.x y superiores
Actualización 3i de ESXi 7.0 2022/12/08 20842708 versiones 13.1-37.x y superiores
ESXi 7.0, actualización 3f 2022/07/12 20036589 Compilaciones 13.1-33.x y superiores
Actualización 3D de ESXi 7.0 2022/03/29 19482537 versiones 13.1-27.x y superiores
Actualización 3c de ESXi 7.0 2022/01/27 19193900 13.1-21.x y versiones superiores
Actualización 2d de ESX 7.0 2021/09/14 18538813 Compilaciones 13.1-9.x y superiores
Actualización 2a de ESX 7.0 2021/04/29 17867351 Compilaciones 13.1-4.x y superiores

Nota:

La compatibilidad con cada parche de ESXi se valida en la versión de NetScaler VPX especificada en la tabla anterior y se aplica a todas las versiones superiores de la versión 13.1 de NetScaler VPX.

Instancia de VPX en Microsoft Hyper-V

Versión Hyper-V SysID Modelos VPX
2016, 2019 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000

Instancia VPX en Nutanix AHV

NetScaler VPX es compatible con Nutanix AHV a través de la asociación Citrix Ready. Citrix Ready es un programa de socios tecnológicos que ayuda a los proveedores de software y hardware a desarrollar e integrar sus productos con la tecnología NetScaler para el espacio de trabajo digital, las redes y el análisis.

Para obtener más información sobre un método paso a paso para implementar una instancia de NetScaler VPX en Nutanix AHV, consulte Implementación de un NetScaler VPX en Nutanix AHV.

Soporte de terceros:

Si tiene algún problema con una integración específica de un tercero (Nutanix AHV) en un entorno de NetScaler, abra un incidente de soporte directamente con el socio externo (Nutanix).

Si el socio determina que el problema parece estar relacionado con NetScaler, puede ponerse en contacto con el soporte de NetScaler para obtener más ayuda. Un recurso técnico dedicado de los socios trabaja con el soporte de NetScaler hasta que se resuelva el problema.

Para obtener más información, consulte Preguntas frecuentes sobre el programa Citrix Ready Partner.

Instancia VPX en KVM genérico

Versión KVM genérica SysID Modelos VPX
RHEL 7.6, RHEL 8.0, RHEL 9.3 450070
VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10 G, VPX 15 G. VPX 25G, VPX 40G, VPX 100G
Ubuntu 16.04, Ubuntu 18.04, RHV 4.2

Puntos a tener en cuenta:

Tenga en cuenta los siguientes puntos al utilizar hipervisores KVM.

  • La instancia VPX está calificada para las versiones de versión de Hypervisor mencionadas en la tabla 1—4, y no para las versiones de parche de una versión. Sin embargo, se espera que la instancia VPX funcione sin problemas con las versiones de parches de una versión compatible. Si no es así, registre un caso de asistencia para solucionar problemas y depurar.

  • Antes de utilizar RHEL 7.6, siga los pasos siguientes en el host KVM:
    1. Modifique /etc/default/grub y agregue "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.

    2. Vuelva a generar grub.cfg con el comando "# grub2-mkconfig -o /boot/grub2/grub.cfg".

    3. Reinicie el equipo host.

  • Antes de utilizar Ubuntu 18.04, siga los pasos siguientes en el host KVM:

    1. Modifique /etc/default/grub y agregue "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.
    2. Vuelva a generar grub.cfg con el comando "# grub-mkconfig -o /boot/grub/grub.cfg “.
    3. Reinicie el equipo host.

Instancia VPX en AWS

Versión AWS SysID Modelos VPX
N/D 450040 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL, VPX 8000, VPX 10G, VPX 15G y VPX 25G solo están disponibles con BYOL con tipos de instancia EC2 (C5, M5 y C5n)

Nota:

La oferta VPX 25G no ofrece el rendimiento de 25 G de AWS, pero puede ofrecer una tasa de transacciones SSL más alta en comparación con la oferta VPX 15G.

Instancia VPX en Azure

Versión Azure SysID Modelos VPX
N/D 450020 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL

Matriz de funciones de VPX

Tabla de tabla de funciones VPX

Los números en superíndice (1, 2, 3) utilizados en la tabla anterior se refieren a los siguientes puntos con la numeración respectiva:

  1. La compatibilidad con clústeres está disponible en SRIOV para las interfaces orientadas al cliente y al servidor, y no para el plano posterior.

  2. Los eventos de interfaz DOWN no se registran en instancias de NetScaler VPX.

  3. Para LA estática, es posible que aún se envíe tráfico en la interfaz cuyo estado físico sea DOWN.

  4. Para LACP, el dispositivo del mismo nivel conoce el evento DOWN de la interfaz basado en el mecanismo de tiempo de espera de LACP.

    • Tiempo de espera corto: 3 segundos
    • Tiempo de espera prolongado: 90 segundos
  5. En el caso de LACP, no comparta interfaces entre máquinas virtuales.

  6. Para la redirección dinámica, el tiempo de convergencia depende del Protocolo de redirección, ya que no se detectan eventos de vínculo.

  7. La funcionalidad Ruta estática supervisada falla si no vincula monitores a rutas estáticas porque el estado de la ruta depende del estado de la VLAN. El estado de la VLAN depende del estado del vínculo.

  8. La detección de fallos parciales no se produce en alta disponibilidad si se produce un error de enlace. Una afección cerebral dividida de alta disponibilidad podría ocurrir si se produce un fallo de enlace.

    • Cuando se genera cualquier evento de enlace (desactivar/habilitar, restablecer) desde una instancia VPX, el estado físico del enlace no cambia. Para LA estática, cualquier tráfico iniciado por el par se elimina en la instancia.

    • Para que funcione la función de etiquetado de VLAN, haga lo siguiente:

    En VMware ESX, establezca el ID de VLAN del grupo de puertos en 1-4095 en el vSwitch del servidor VMware ESX. Para obtener más información sobre la configuración de un ID de VLAN en el vSwitch del servidor VMware ESX, consulte Soluciones VLAN VMware ESX Server 3 802.1Q.

Exploradores web compatibles

Sistema operativo Explorador y versiones
Windows 7 Internet Explorer: 8, 9, 10 y 11; Mozilla Firefox 3.6.25 y superior; Google Chrome: 15 y superior
Windows de 64 bits Internet Explorer: 8, 9; Google Chrome: 15 y superior
MAC Mozilla Firefox - 12 y superior; Safari - 5.1.3; Google Chrome: 15 y superior

Compatibilidad con procesadores AMD para instancias de VPX

A partir de la versión 13.1 de NetScaler, la instancia de VPX admite los procesadores Intel y AMD. Los dispositivos virtuales VPX se pueden implementar en cualquier tipo de instancia que tenga dos o más núcleos virtualizados y más de 2 GB de memoria. Para obtener más información sobre los requisitos del sistema, consulte la hoja de datos de NetScaler VPX.

Plataformas VPX frente a Tabla matricial de NIC

La siguiente tabla muestra las NIC compatibles con una plataforma o nube VPX.

Mellanox CX-3 Mellanox CX-4 Mellanox CX-5 Intel 82599 SRIOV VF Intel X710/X722/XL710 SRIOV VF Modo de transferencia PCI Intel X710/XL710
  VPX (ESXi) No No No
  VPX (Citrix Hypervisor) NA NA NA No
  VPX (KVM) No
  VPX (Hyper-V) NA NA NA No No No
  VPX (AWS) NA NA NA NA NA
  VPX (Azure) NA NA NA
  VPX (GCP) NA NA NA NA NA NA

Directrices de uso

Siga estas pautas de uso:

  • Le recomendamos que implemente una instancia VPX en los discos locales del servidor o en los volúmenes de almacenamiento basados en SAN.

Consulte la sección Consideraciones sobre la CPU de VMware ESXi en el documento Mejores prácticas de rendimiento para VMware vSphere 6.5. Aquí hay un extracto:

  • No se recomienda que las máquinas virtuales con una alta demanda de CPU o memoria se alojen en un host o clúster que esté sobrecomprometido.

  • En la mayoría de los entornos, ESXi permite niveles significativos de compromiso excesivo de CPU sin afectar el rendimiento de la máquina virtual. En un host, puede ejecutar más CPU virtuales que el número total de núcleos de procesador físicos de ese host.

  • Si un host ESXi se satura de la CPU, es decir, las máquinas virtuales y otras cargas del host exigen todos los recursos de CPU que tiene el host, las cargas de trabajo sensibles a la latencia podrían no funcionar bien. En este caso, es posible que quiera reducir la carga de la CPU, por ejemplo apagando algunas máquinas virtuales o migrándolas a un host diferente (o permitiendo que DRS las migre automáticamente).

  • Citrix recomienda la versión de compatibilidad de hardware más reciente para aprovechar los conjuntos de funciones más recientes del hipervisor ESXi para la máquina virtual. Para obtener más información sobre la compatibilidad de hardware y versiones de ESXi, consulte la documentación de VMware.

  • El NetScaler VPX es un dispositivo virtual de alto rendimiento y sensible a la latencia. Para ofrecer el rendimiento esperado, el dispositivo requiere reserva de CPU virtuales, reserva de memoria y fijación de vCPU en el host. Además, el hipersubproceso debe estar inhabilitado en el host. Si el host no cumple estos requisitos, se producen problemas como conmutación por error de alta disponibilidad, picos de CPU dentro de la instancia VPX, lentitud en el acceso a la CLI VPX, fallo del demonio de pit boss, caídas de paquetes y bajo rendimiento.

Un Hypervisor se considera sobreaprovisionado si se cumple una de las dos condiciones siguientes:

  • El número total de núcleos virtuales (CPU virtuales) aprovisionados en el host es mayor que el número total de núcleos físicos (CPU físicas).

  • El número total de máquinas virtuales aprovisionadas consume más CPU virtuales que el número total de CPU físicas.

    Si una instancia está sobreaprovisionada, es posible que el hipervisor no garantice los recursos reservados (como CPU, memoria y otros) para la instancia debido a los gastos generales de programación del hipervisor, errores o limitaciones con el hipervisor. Este comportamiento puede provocar la falta de recursos de CPU para NetScaler y puede provocar los problemas mencionados en el primer punto de las Directrices de uso. Como administradores, se recomienda reducir el alquiler en el host para que el número total de CPU virtuales aprovisionadas en el host sea menor o igual al número total de CPU físicas.

    Ejemplo

    En el caso del hipervisor ESX, si el parámetro %RDY% de una CPU virtual de VPX es mayor que 0 en el resultado del comando esxtop, se dice que el host ESX tiene gastos generales de programación, lo que puede causar problemas relacionados con la latencia en la instancia VPX.

    En tal situación, reduzca la tenencia en el host para que %RDY% siempre vuelva a 0. También puede ponerse en contacto con el proveedor del hipervisor para seleccionar el motivo por el que no se ha respetado la reserva de recursos realizada.

  • La adición en caliente solo se admite en las interfaces PV y SRIOV con NetScaler en AWS. Las instancias VPX con interfaces ENA no admiten conexión en marcha y el comportamiento de las instancias puede ser impredecible si se intenta conectar en caliente.
  • La eliminación en caliente a través de la consola web de AWS o la interfaz CLI de AWS no se admite con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta eliminar en caliente.

Comandos para controlar el uso de la CPU del motor de paquetes

Puede utilizar dos comandos (set ns vpxparam y show ns vpxparam) para controlar el comportamiento de uso de CPU del motor de paquetes (no administrativo) de las instancias VPX en entornos de hipervisor y nube:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    Permitir que cada máquina virtual utilice recursos de CPU que se hayan asignado a otra máquina virtual pero que no se estén usando.

    Set ns vpxparam parámetros:

    -cpuyield: Libere o no libere recursos de CPU asignados pero no utilizados.

    • : Permitir que otra máquina virtual utilice recursos de CPU asignados pero no utilizados.

    • NO: Reserve todos los recursos de CPU para la máquina virtual a la que se han asignado. Esta opción muestra un porcentaje más alto en entornos de hipervisores y nube para el uso de CPU VPX.

    • PREDETERMINADO: No.

    Nota:

    En todas las plataformas NetScaler VPX, el uso de CPU virtuales en el sistema host es del 100 por ciento. Escriba el comando set ns vpxparam –cpuyield YES para supeditar este uso.

    Si quiere configurar los nodos de clúster en “yield”, debe realizar las siguientes configuraciones adicionales en CCO:

    • Si se forma un clúster, todos los nodos aparecen con “yield=Default”.
    • Si se forma un clúster mediante los nodos que ya están configurados en “Yield=yes”, los nodos se agregan al clúster mediante el rendimiento “DEFAULT”.

    Nota:

    Si quiere establecer los nodos del clúster en “Yield=Sí”, puede configurarlos solo después de formar el clúster, pero no antes de que se forme el clúster.

    -masterclockcpu1: Puede mover la fuente de reloj principal de la CPU0 (CPU de administración) a la CPU1. Este parámetro tiene las siguientes opciones:

    • : Permita que la VM mueva la fuente de reloj principal de la CPU0 a la CPU1.

    • NO: La máquina virtual utiliza CPU0 para la fuente de reloj principal. De forma predeterminada, CPU0 es la principal fuente de reloj.

  • show ns vpxparam

    Muestra los parámetros de vpxparam actuales.

Otras referencias