NetScaler VPX

支持矩阵和使用指南

本文列出了 NetScaler VPX 实例支持的不同虚拟机管理程序和功能。本文还介绍了它们的使用指南和已知限制。

NetScaler VPX 实例在 XenServer 或 Citrix Hypervisor 上的支持

Citrix Hypervisor 版本 SysID 性能范围
8.2 支持 13.0 64.x 及更高版本、8.0、7.6、7.1 450000 10 Mbps 至 40 Gbps

NetScaler VPX 实例在 VMware ESXi 虚拟机管理程序上的支持

ESXi 版本 ESXi 发布日期 (YYYY/MM/DD) ESXi 内部版本号 NetScaler VPX 版本 性能范围
ESXi 8.0 update 3e 2025/04/10 24674464 13.1-58.x 及更高版本 10 Mbps 至 100 Gbps






















ESXi 8.0 update 3d 2025/03/04 24585383 13.1-56.x 及更高版本
ESXi 8.0 update 3c 2025/01/23 24414501 13.1-55.x 及更高版本
ESXi 8.0 update 3b 2024/09/17 24280767 13.1-53.x 及更高版本
ESXi 8.0 update 3 2024/06/25 24022510 13.1-53.x 及更高版本
ESXi 8.0 update 2c 2024/05/21 23825572 13.1-53.x 及更高版本
ESXi 8.0 update 2b 2024/02/29 23305546 13.1-49.15, and 13.1-52.x 及更高版本
ESXi 8.0 update 2 2023/09/21 22380479 13.1-52.x 及更高版本
ESXi 8.0 update 1 2023/04/18 21495797 13.1-45.x 及更高版本
ESXi 8.0c 2023/03/30 21493926 13.1-45.x 及更高版本
ESXi 8.0 2022/10/11 20513097 13.1-42.x 及更高版本
ESXi 7.0 update 3s 2025/03/04 24585291 13.1-55.x 及更高版本
ESXi 7.0 update 3r 2024/12/12 24411414 13.1-55.x 及更高版本
ESXi 7.0 update 3q 2024/05/21 23794027 13.1-53.x 及更高版本
ESXi 7.0 update 3p 2024/03/05 23307199 13.1-52.x 及更高版本
ESXi 7.0 update 3o 2023/09/28 22348816 13.1-51.x 及更高版本
ESXi 7.0 update 3n 2023/07/06 21930508 13.1-49.x 及更高版本
ESXi 7.0 update 3m 2023/05/03 21686933 13.1-48.x 及更高版本
ESXi 7.0 update 3i 2022/12/08 20842708 13.1-37.x 及更高版本
ESXi 7.0 update 3f 2022/07/12 20036589 13.1-33.x 及更高版本
ESXi 7.0 update 3d 2022/03/29 19482537 13.1-27.x 及更高版本
ESXi 7.0 update 3c 2022/01/27 19193900 13.1-21.x 及更高版本
ESX 7.0 update 2d 2021/09/14 18538813 13.1-9.x 及更高版本
ESX 7.0 update 2a 2021/04/29 17867351 13.1-4.x 及更高版本

注意:

每个 ESXi 补丁支持都在前面表格中指定的 NetScaler VPX 版本上进行了验证,并且适用于 NetScaler VPX 13.1 版本的所有更高版本。

NetScaler VPX 实例在 Microsoft Hyper-V 上的支持

Hyper-V 版本 SysID 性能范围
2016, 2019 450020 10 Mbps 至 3 Gbps

NetScaler VPX 实例在 Nutanix AHV 上的支持

NetScaler VPX 通过 Citrix Ready 合作伙伴关系在 Nutanix AHV 上受支持。Citrix Ready 是一项技术合作伙伴计划,旨在帮助软件和硬件供应商开发其产品并将其与 NetScaler 技术集成,以实现数字工作区、网络和分析。

有关在 Nutanix AHV 上部署 NetScaler VPX 实例的分步方法,请参阅在 Nutanix AHV 上部署 NetScaler VPX

第三方支持:

如果您在 NetScaler 环境中遇到特定第三方 (Nutanix AHV) 集成方面的任何问题,请直接向第三方合作伙伴 (Nutanix) 提交支持事件。

如果合作伙伴确定问题似乎出在 NetScaler 上,则合作伙伴可以联系 NetScaler 支持以获得进一步帮助。合作伙伴的专属技术资源将与 NetScaler 支持团队合作,直到问题解决。

NetScaler VPX 实例在通用 KVM 上的支持

通用 KVM 版本 SysID 性能范围
RHEL 7.6, RHEL 8.0, RHEL 9.3 450070
10 Mbps 至 100 Gbps
Ubuntu 16.04, Ubuntu 18.04, Ubuntu 22.04

注意事项:

使用 KVM 虚拟机管理程序时,请考虑以下几点。

  • VPX 实例适用于表 1-4 中提及的虚拟机管理程序发布版本,而不适用于版本内的补丁发布。但是,VPX 实例应与受支持版本的补丁发布无缝协作。如果未能无缝协作,请记录支持案例以进行故障排除和调试。

  • 在使用 RHEL 7.6 之前,请在 KVM 主机上完成以下步骤:
    1. 编辑 /etc/default/grub 并将 "kvm_intel.preemption_timer=0" 附加到 GRUB_CMDLINE_LINUX 变量。

    2. 使用命令 "# grub2-mkconfig -o /boot/grub2/grub.cfg" 重新生成 grub.cfg

    3. 重新启动主机。

  • 在使用 Ubuntu 18.04 之前,请在 KVM 主机上完成以下步骤:

    1. 编辑 /etc/default/grub 并将 "kvm_intel.preemption_timer=0" 附加到 GRUB_CMDLINE_LINUX 变量。
    2. 使用命令 "# grub-mkconfig -o /boot/grub/grub.cfg “ 重新生成 grub.cfg
    3. 重新启动主机。

NetScaler VPX 实例在公共云上的支持

公共云 SysID 性能范围
AWS 450040 10 Mbps 至 30 Gbps
Azure 450020 10 Mbps 至 10 Gbps
GCP 450070 10 Mbps 至 10 Gbps

虚拟机管理程序支持的 NetScaler VPX 功能

虚拟机管理程序 → XenServer 上的 VPX VMware ESX 上的 VPX
^^功能 ↓ ^^ ^^ ^^ ^^
接口 → PV SR-IOV PV SR-IOV 模拟 PCI 直通 PV PV SR-IOV PCI 直通
多 PE 支持
群集支持 是¹ 是¹ 是¹
VLAN 标记 是 (仅限 2012R2)
检测链接事件/HAMon 否² 是³ 否² 是³ 否² 是³ 否² 否² 是³ 是³
接口参数配置
静态 LA 是² 是³ 是² 是² 是³ 是² 是² 是³ 是³
LACP 是³ 是² 是² 是³ 是² 是³ 是³
静态 CLAG
LACP CLAG 是² 是² 是³ 是² 是³ 是³
热插拔

公共云支持的 NetScaler VPX 功能

公共云 → AWS 上的 VPX Azure 上的 VPX GCP 上的 VPX
^^功能 ↓ ^^ ^^ ^^
多 PE 支持
群集支持
VLAN 标记
检测链接事件/HAMon 否² 否² 否²
接口参数配置
静态 LA
LACP
静态 CLAG
LACP CLAG
热插拔

前面两个表格中使用的上标数字(1、2、3)分别指代以下几点:

  1. SRIOV 上的群集支持适用于面向客户端和面向服务器的接口,而不适用于背板。
  2. NetScaler VPX 实例中不记录接口 DOWN 事件。
  3. 对于静态 LA,流量可能仍会发送到物理状态为 DOWN 的接口。

以下几点适用于前面两个表格中捕获的相应功能:

  • 对于 LACP,对等设备根据 LACP 超时机制了解接口 DOWN 事件。

    • 短超时:3 秒
    • 长超时:90 秒
  • 对于 LACP,请勿在虚拟机之间共享接口。
  • 对于动态路由,收敛时间取决于路由协议,因为未检测到链接事件。
  • 如果未将监视器绑定到静态路由,则受监视的静态路由功能将失败,因为路由状态取决于 VLAN 状态。VLAN 状态取决于链接状态。
  • 如果发生链接故障,高可用性中不会发生部分故障检测。如果发生链接故障,可能会出现高可用性裂脑情况。
    • 当从 VPX 实例生成任何链接事件(禁用、启用、重置)时,链接的物理状态不会改变。对于静态 LA,对等方发起的任何流量都会在该实例上丢弃。
    • 要在 VMware ESX 上使用 VLAN 标记功能,请将 VMware ESX 服务器 vSwitch 上的端口组 VLAN ID 设置为 1–4095。
  • 热添加仅支持 AWS 上 NetScaler 的 PV 和 SRIOV 接口。具有 ENA 接口的 VPX 实例不支持热插拔,如果尝试热插拔,实例的行为可能无法预测。
  • 通过 AWS Web 控制台或 AWS CLI 接口热移除 NetScaler 的 PV、SRIOV 和 ENA 接口不受支持。如果尝试热移除,实例的行为可能无法预测。

支持的浏览器

有关访问 NetScaler GUI 14.1 和 13.1 版本所支持的浏览器信息,请参阅兼容的浏览器

NetScaler VPX 支持的处理器

平台 Intel 处理器 AMD 处理器
Citrix Hypervisor
ESXi Hypervisor
Hyper-V
KVM
AWS
Azure
GCP

NetScaler VPX 支持的网卡

下表列出了 VPX 平台或云上支持的网卡。

网卡 → Mellanox CX-3 Mellanox CX-4 Mellanox CX-5 Intel 82599 SRIOV VF Intel X710/X722/XL710 SRIOV VF Intel X710/XL710/XXV710 PCI 直通模式
^^平台 ↓ ^^ ^^ ^^ ^^ ^^ ^^
Citrix Hypervisor NA NA NA
ESXi Hypervisor
Hyper-V NA NA NA
KVM
AWS NA NA NA NA NA
Azure NA NA NA
GCP NA NA NA NA NA NA

使用指南

请遵循以下使用指南:

  • 我们建议您将 VPX 实例部署在服务器的本地磁盘或基于 SAN 的存储卷上。

请参阅 Performance Best Practices for VMware vSphere 6.5 文档中的“VMware ESXi CPU 考量”部分。以下是摘录:

  • 不建议将具有高 CPU/内存需求的虚拟机放置在过度承诺的主机或群集上。

  • 在大多数环境中,ESXi 允许在不影响虚拟机性能的情况下进行显著级别的 CPU 过度承诺。在主机上,您可以运行比该主机中物理处理器核心总数更多的 vCPU。

  • 如果 ESXi 主机 CPU 饱和,即主机上的虚拟机和其他负载需要主机拥有的所有 CPU 资源,则对延迟敏感的工作负载可能无法很好地执行。在这种情况下,您可能需要减少 CPU 负载,例如通过关闭某些虚拟机或将其迁移到不同的主机(或允许 DRS 自动迁移它们)。

  • Citrix 建议使用最新的硬件兼容性版本,以利用 ESXi 虚拟机管理程序为虚拟机提供的最新功能集。有关硬件和 ESXi 版本兼容性的更多信息,请参阅 VMware 文档

  • NetScaler VPX 是一种对延迟敏感的高性能虚拟设备。为了提供其预期的性能,该设备需要在主机上进行 vCPU 预留、内存预留和 vCPU 绑定。此外,必须在主机上禁用超线程。如果主机不满足这些要求,则会出现高可用性故障转移、VPX 实例内的 CPU 峰值、访问 VPX CLI 时的迟钝、pit boss 守护程序崩溃、数据包丢失和低吞吐量等问题。

如果满足以下两个条件之一,则虚拟机管理程序被视为过度配置:

  • 主机上配置的虚拟核心 (vCPU) 总数大于物理核心 (pCPU) 总数。

  • 配置的虚拟机总数消耗的 vCPU 数量多于 pCPU 总数。

    如果实例过度配置,虚拟机管理程序可能无法保证为该实例预留的资源(例如 CPU、内存等),这可能是由于虚拟机管理程序调度开销、错误或虚拟机管理程序的限制所致。此行为可能导致 NetScaler 缺少 CPU 资源,并可能导致“使用指南”下第一点中提及的问题。建议管理员减少主机上的租用,以便主机上配置的 vCPU 总数小于或等于 pCPU 总数。

    示例

    对于 ESX 虚拟机管理程序,如果 VPX vCPU 的 %RDY% 参数在 esxtop 命令输出中大于 0,则表示 ESX 主机存在调度开销,这可能导致 VPX 实例出现与延迟相关的问题。

    在这种情况下,请减少主机上的租用,以便 %RDY% 始终返回 0。或者,联系虚拟机管理程序供应商,以排查未遵守资源预留的原因。

  • 热添加仅支持 AWS 上 NetScaler 的 PV 和 SRIOV 接口。具有 ENA 接口的 VPX 实例不支持热插拔,如果尝试热插拔,实例的行为可能无法预测。
  • 通过 AWS Web 控制台或 AWS CLI 接口热移除 NetScaler 的 PV、SRIOV 和 ENA 接口不受支持。如果尝试热移除,实例的行为可能无法预测。

控制数据包引擎 CPU 使用率的命令

您可以使用两个命令(set ns vpxparamshow ns vpxparam)来控制虚拟机管理程序和云环境中 VPX 实例的数据包引擎(非管理)CPU 使用行为:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    允许每个虚拟机使用已分配给另一个虚拟机但未使用的 CPU 资源。

    Set ns vpxparam 参数:

    -cpuyield:释放或不释放已分配但未使用的 CPU 资源。

    • YES:允许已分配但未使用的 CPU 资源由另一个虚拟机使用。

    • NO:为已分配的虚拟机保留所有 CPU 资源。此选项在虚拟机管理程序和云环境中显示更高的 VPX CPU 使用率百分比。

    • DEFAULT:否。

    注意:

    在所有 NetScaler VPX 平台上,主机系统上的 vCPU 使用率为 100%。键入 set ns vpxparam –cpuyield YES 命令可覆盖此使用率。

    如果要将群集节点设置为“yield”,则必须在 CCO 上执行以下额外配置:

    • 如果形成群集,所有节点都将以“yield=DEFAULT”启动。
    • 如果使用已设置为“yield=YES”的节点形成群集,则使用“DEFAULT”yield 将节点添加到群集。

    注意:

    如果要将群集节点设置为“yield=YES”,则只能在形成群集后进行配置,而不能在形成群集之前进行配置。

    -masterclockcpu1:您可以将主时钟源从 CPU0(管理 CPU)移动到 CPU1。此参数具有以下选项:

    • YES:允许虚拟机将主时钟源从 CPU0 移动到 CPU1。

    • NO:虚拟机使用 CPU0 作为主时钟源。默认情况下,CPU0 是主时钟源。

  • show ns vpxparam

    显示当前的 vpxparam 设置。

其他参考