ADC

Tabla de compatibilidad y pautas de uso

En este documento se enumeran los diferentes hipervisores y funciones admitidos en una instancia de NetScaler VPX. El documento también describe sus pautas de uso y las limitaciones conocidas.

Instancia VPX en Citrix Hypervisor

Versión de Citrix Hypervisor SysID Modelos VPX
8.2 era compatible con 13.0 64.x y versiones posteriores, 8.0, 7.6, 7.1 450000 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10 G, VPX 15 G, VPX 25 G, VPX 40 G

Instancia VPX en hipervisor VMware ESXi

Versión ESX Fecha de lanzamiento de ESX (AAAA/MM/DD) Número de compilación de ESX Versión de NetScaler VPX SysID Modelos VPX
ESXi 8.0 2022/10/11 20513097 13.1-42.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 3i de ESXi 7.0 2022/12/08 20842708 A partir de 13.1-37.x 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0, actualización 3f 2022/07/12 20036589 13.1-33.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 3D de ESXi 7.0 2022/03/29 19482537 A partir de 13.1-27.x 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 3c de ESXi 7.0 2022/01/27 19193900 13.1-21.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 2d de ESX 7.0 2021/09/14 18538813 13.1-9.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 2a de ESX 7.0 2021/04/29 17867351 13.1-4.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 1d de ESX 7.0 2021/02/02 17551050 13.0-82.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 1c de ESX 7.0 2020/12/17 17325551 13.0-79.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 1b de ESX 7.0 2020/10/06 16850804 13.0-76.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0b 2020/06/23 16324942 13.0-71.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 GA 2020/04/02 15843807 13.0-71.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P04 2020/11/19 17167734 A partir de 13.0-67.x 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P03 2020/08/20 16713306 A partir de 13.0-67.x 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P02 2020/04/28 16075168 A partir de 13.0-67.x 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P01 2019/12/05 15160138 A partir de 13.0-67.x 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 Actualización 3 2019/08/20 14320388 13.0-58.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 U2 2019/04/11 13006603 13.0-47.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.5 GA 2016/11/15 4564106 13.0-47.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.5 U1g 2018/3/20 7967591 13.0 47.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 3 de ESXi 6.0 2017/2/24 5050593 12.0-51.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Parche 11 de ESXi 6.0 Express 2017/10/5 6765062 12.0-56.x en adelante 450010 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G

Instancia de VPX en Microsoft Hyper-V

Versión Hyper-V SysID Modelos VPX
2012, 2012 R2, 2016, 2019 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000

Instancia VPX en KVM genérico

Versión KVM genérica SysID Modelos VPX
RHEL 7.4, RHEL 7.5 (a partir de la versión 12.1 50.x de NetScaler), RHEL 7.6, RHEL 8.0, Ubuntu 16.04, Ubuntu 18.04, RHV 4.2 450070 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10 G, VPX 15 G. VPX 25G, VPX 40G, VPX 100G

Puntos a tener en cuenta:

Tenga en cuenta los siguientes puntos al utilizar hipervisores KVM.

  • La instancia VPX está calificada para las versiones de versión de Hypervisor mencionadas en la tabla 1—4, y no para las versiones de parche de una versión. Sin embargo, se espera que la instancia VPX funcione sin problemas con las versiones de parches de una versión compatible. Si no es así, registre un caso de asistencia para solucionar problemas y depurar.

  • Antes de utilizar RHEL 7.6, siga los pasos siguientes en el host KVM:
    1. Modifique /etc/default/grub y agregue "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.

    2. Vuelva a generar grub.cfg con el comando "# grub2-mkconfig -o /boot/grub2/grub.cfg".

    3. Reinicie el equipo host.

  • Antes de utilizar Ubuntu 18.04, siga los pasos siguientes en el host KVM:

    1. Modifique /etc/default/grub y agregue "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.
    2. Vuelva a generar grub.cfg con el comando "# grub-mkconfig -o /boot/grub/grub.cfg “.
    3. Reinicie el equipo host.

Instancia VPX en AWS

Versión AWS SysID Modelos VPX
N/D 450040 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL, VPX 8000, VPX 10G, VPX 15G y VPX 25G solo están disponibles con BYOL con tipos de instancia EC2 (C5, M5 y C5n)

Nota:

La oferta VPX 25G no ofrece el rendimiento de 25 G de AWS, pero puede ofrecer una tasa de transacciones SSL más alta en comparación con la oferta VPX 15G.

Instancia VPX en Azure

Versión Azure SysID Modelos VPX
N/D 450020 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL

Matriz de funciones de VPX

Tabla de tabla de funciones VPX

Los números en superíndice (1, 2, 3) utilizados en la tabla anterior se refieren a los siguientes puntos con la numeración respectiva:

  1. La compatibilidad con clústeres está disponible en SRIOV para las interfaces orientadas al cliente y al servidor, y no para el plano posterior.

  2. Los eventos de interfaz DOWN no se registran en instancias de NetScaler VPX.

  3. Para LA estática, es posible que aún se envíe tráfico en la interfaz cuyo estado físico sea DOWN.

  4. Para LACP, el dispositivo del mismo nivel conoce el evento DOWN de la interfaz basado en el mecanismo de tiempo de espera de LACP.

    • Tiempo de espera corto: 3 segundos
    • Tiempo de espera prolongado: 90 segundos
  5. En el caso de LACP, no comparta interfaces entre máquinas virtuales.

  6. Para la redirección dinámica, el tiempo de convergencia depende del Protocolo de redirección, ya que no se detectan eventos de vínculo.

  7. La funcionalidad Ruta estática supervisada falla si no vincula monitores a rutas estáticas porque el estado de la ruta depende del estado de la VLAN. El estado de la VLAN depende del estado del vínculo.

  8. La detección de fallos parciales no se produce en alta disponibilidad si se produce un error de enlace. Una afección cerebral dividida de alta disponibilidad podría ocurrir si se produce un fallo de enlace.

    • Cuando se genera cualquier evento de enlace (desactivar/habilitar, restablecer) desde una instancia VPX, el estado físico del enlace no cambia. Para LA estática, cualquier tráfico iniciado por el par se elimina en la instancia.

    • Para que funcione la función de etiquetado de VLAN, haga lo siguiente:

    En VMware ESX, establezca el ID de VLAN del grupo de puertos en 1-4095 en el vSwitch del servidor VMware ESX. Para obtener más información sobre la configuración de un ID de VLAN en el vSwitch del servidor VMware ESX, consulte Soluciones VLAN VMware ESX Server 3 802.1Q.

Exploradores web compatibles

Sistema operativo Explorador y versiones
Windows 7 Internet Explorer: 8, 9, 10 y 11; Mozilla Firefox 3.6.25 y superior; Google Chrome: 15 y superior
Windows de 64 bits Internet Explorer: 8, 9; Google Chrome: 15 y superior
MAC Mozilla Firefox - 12 y superior; Safari - 5.1.3; Google Chrome: 15 y superior

Compatibilidad con procesadores AMD para instancias de VPX

A partir de la versión 13.1 de NetScaler, la instancia de VPX admite los procesadores Intel y AMD. Los dispositivos virtuales VPX se pueden implementar en cualquier tipo de instancia que tenga dos o más núcleos virtualizados y más de 2 GB de memoria. Para obtener más información sobre los requisitos del sistema, consulte la hoja de datos de NetScaler VPX.

Plataformas VPX frente a Tabla matricial de NIC

La siguiente tabla muestra las NIC compatibles con una plataforma o nube VPX.

  Mellanox CX-3 Mellanox CX-4 Mellanox CX-5 Intel 82599 SRIOV VF Intel X710/X722/XL710 SRIOV VF Modo de transferencia PCI Intel X710/XL710
VPX (ESXi) No No No
VPX (hipervisor Citrix) NA NA NA No
VPX (KVM) No No
VPX (Hyper-V) NA NA NA No No No
VPX (AWS) NA NA NA NA NA
VPX (Azure) NA NA NA
VPX (GCP) NA NA NA NA NA NA

Directrices de uso

Siga estas pautas de uso:

  • Le recomendamos que implemente una instancia VPX en los discos locales del servidor o en los volúmenes de almacenamiento basados en SAN.

Consulte la sección Consideraciones sobre la CPU de VMware ESXi en el documento Mejores prácticas de rendimiento para VMware vSphere 6.5. Aquí hay un extracto:

  • No se recomienda que las máquinas virtuales con una alta demanda de CPU o memoria se alojen en un host o clúster que esté sobrecomprometido.

  • En la mayoría de los entornos, ESXi permite niveles significativos de compromiso excesivo de CPU sin afectar el rendimiento de la máquina virtual. En un host, puede ejecutar más CPU virtuales que el número total de núcleos de procesador físicos de ese host.

  • Si un host ESXi se satura de la CPU, es decir, las máquinas virtuales y otras cargas del host exigen todos los recursos de CPU que tiene el host, las cargas de trabajo sensibles a la latencia podrían no funcionar bien. En este caso, es posible que quiera reducir la carga de la CPU, por ejemplo apagando algunas máquinas virtuales o migrándolas a un host diferente (o permitiendo que DRS las migre automáticamente).

  • Citrix recomienda la versión de compatibilidad de hardware más reciente para aprovechar los conjuntos de funciones más recientes del hipervisor ESXi para la máquina virtual. Para obtener más información sobre la compatibilidad de hardware y versiones de ESXi, consulte la documentación de VMware.

  • El NetScaler VPX es un dispositivo virtual de alto rendimiento y sensible a la latencia. Para ofrecer el rendimiento esperado, el dispositivo requiere reserva de CPU virtuales, reserva de memoria y fijación de vCPU en el host. Además, el hipersubproceso debe estar inhabilitado en el host. Si el host no cumple estos requisitos, se producen problemas como conmutación por error de alta disponibilidad, picos de CPU dentro de la instancia VPX, lentitud en el acceso a la CLI VPX, fallo del demonio de pit boss, caídas de paquetes y bajo rendimiento.

Un Hypervisor se considera sobreaprovisionado si se cumple una de las dos condiciones siguientes:

  • El número total de núcleos virtuales (CPU virtuales) aprovisionados en el host es mayor que el número total de núcleos físicos (CPU físicas).

  • El número total de máquinas virtuales aprovisionadas consume más CPU virtuales que el número total de CPU físicas.

    Si una instancia está sobreaprovisionada, es posible que el hipervisor no garantice los recursos reservados (como CPU, memoria y otros) para la instancia debido a los gastos generales de programación del hipervisor, errores o limitaciones con el hipervisor. Este comportamiento puede provocar la falta de recursos de CPU para NetScaler y puede provocar los problemas mencionados en el primer punto de las Directrices de uso. Como administradores, se recomienda reducir el alquiler en el host para que el número total de CPU virtuales aprovisionadas en el host sea menor o igual al número total de CPU físicas.

    Ejemplo

    En el caso del hipervisor ESX, si el parámetro %RDY% de una CPU virtual de VPX es mayor que 0 en el resultado del comando esxtop, se dice que el host ESX tiene gastos generales de programación, lo que puede causar problemas relacionados con la latencia en la instancia VPX.

    En tal situación, reduzca la tenencia en el host para que %RDY% siempre vuelva a 0. También puede ponerse en contacto con el proveedor del hipervisor para seleccionar el motivo por el que no se ha respetado la reserva de recursos realizada.

  • La adición en caliente solo se admite en las interfaces PV y SRIOV con NetScaler en AWS. Las instancias VPX con interfaces ENA no admiten conexión en marcha y el comportamiento de las instancias puede ser impredecible si se intenta conectar en caliente.
  • La eliminación en caliente a través de la consola web de AWS o la interfaz CLI de AWS no se admite con las interfaces PV, SRIOV y ENA para NetScaler. El comportamiento de las instancias puede ser impredecible si se intenta eliminar en caliente.

Comandos para controlar el uso de la CPU del motor de paquetes

Puede utilizar dos comandos (set ns vpxparam y show ns vpxparam) para controlar el comportamiento de uso de CPU del motor de paquetes (no administrativo) de las instancias VPX en entornos de hipervisor y nube:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    Permitir que cada máquina virtual utilice recursos de CPU que se hayan asignado a otra máquina virtual pero que no se estén usando.

    Set ns vpxparam parámetros:

    -cpuyield: Libere o no libere recursos de CPU asignados pero no utilizados.

    • : Permitir que otra máquina virtual utilice recursos de CPU asignados pero no utilizados.

    • NO: Reserve todos los recursos de CPU para la máquina virtual a la que se han asignado. Esta opción muestra un porcentaje más alto en entornos de hipervisores y nube para el uso de CPU VPX.

    • PREDETERMINADO: No.

    Nota:

    En todas las plataformas NetScaler VPX, el uso de CPU virtuales en el sistema host es del 100 por ciento. Escriba el comando set ns vpxparam –cpuyield YES para supeditar este uso.

    Si quiere configurar los nodos de clúster en “yield”, debe realizar las siguientes configuraciones adicionales en CCO:

    • Si se forma un clúster, todos los nodos aparecen con “yield=Default”.
    • Si se forma un clúster mediante los nodos que ya están configurados en “Yield=yes”, los nodos se agregan al clúster mediante el rendimiento “DEFAULT”.

    Nota:

    Si quiere establecer los nodos del clúster en “Yield=Sí”, puede configurarlos solo después de formar el clúster, pero no antes de que se forme el clúster.

    -masterclockcpu1: Puede mover la fuente de reloj principal de la CPU0 (CPU de administración) a la CPU1. Este parámetro tiene las siguientes opciones:

    • : Permita que la VM mueva la fuente de reloj principal de la CPU0 a la CPU1.

    • NO: La máquina virtual utiliza CPU0 para la fuente de reloj principal. De forma predeterminada, CPU0 es la principal fuente de reloj.

  • show ns vpxparam

    Muestra los parámetros de vpxparam actuales.

Otras referencias