NetScaler VPX

在 VMware ESX、Linux KVM 和 Citrix Hypervisor 上优化 NetScaler VPX 性能

NetScaler VPX 的性能因虚拟机管理程序、分配的系统资源和主机配置而异。 要获得所需的性能,请首先遵循 VPX 数据手册中的建议,然后使用本文档中提供的最佳实践进一步优化它。

VMware ESX 虚拟机管理程序上的 NetScaler VPX 实例

本部分包含可配置选项和设置的详细信息,以及其他有助于您在 VMware ESX 虚拟机管理程序上实现 NetScaler VPX 实例的最佳性能的建议。

To achieve high performance for VPX with E1000, VMXNET3, SR-IOV, and PCI passthrough network interfaces, follow these recommendations:

  • The total number of virtual CPUs (vCPUs) provisioned on the ESX host must be less than or equal to the total number of physical CPUs (pCPUs) on the ESX host.
  • Non-uniform Memory Access (NUMA) affinity and CPU affinity must be set for the ESX host to achieve good results.

    – To find the NUMA affinity of a Vmnic, log in to the host locally or remotely, and type:

       #vsish -e get /net/pNics/vmnic7/properties | grep NUMA
       Device NUMA Node: 0
     <!--NeedCopy-->
    

带有 E1000 网络接口的 NetScaler VPX

Perform the following settings on the VMware ESX host:

  • On the VMware ESX host, create two vNICs from one pNIC vSwitch. Multiple vNICs create multiple Rx threads in the ESX host. This increases the Rx throughput of the pNIC interface. 多个 vNIC 在 ESX 主机中创建多个接收 (Rx) 线程。 这会增加 pNIC 接口的 Rx 吞吐量。
  • Enable VLANs on the vSwitch port group level for each vNIC that you have created.
  • 要提高 vNIC 传输 (Tx) 吞吐量,请在每个 vNIC 的 ESX 主机中使用单独的 Tx 线程。 使用以下 ESX 命令:
    • For ESX version 5.5:

         esxcli system settings advanced set –o /Net/NetTxWorldlet –i
       <!--NeedCopy-->
      
    • For ESX version 6.0 onwards:

         esxcli system settings advanced set -o /Net/NetVMTxType –i 1
       <!--NeedCopy-->
      
  • To further increase the vNIC Tx throughput, use a separate Tx completion thread and Rx threads per device (NIC) queue. Use the following ESX command: 使用以下 ESX 命令:

       esxcli system settings advanced set -o /Net/NetNetqRxQueueFeatPairEnable -i 0
     <!--NeedCopy-->
    

注意:

Make sure that you reboot the VMware ESX host to apply the updated settings.

Two vNICs per pNIC deployment

The following is a sample topology and configuration commands for the Two vNICs per pNIC model of deployment that delivers better network performance.

Two vNICs per pNIC deployment

NetScaler VPX 示例配置:

要实现上述示例拓扑中显示的部署,请在 NetScaler VPX 实例上执行以下配置:

  • On the client side, bind the SNIP (1.1.1.2) to network interface 1/1 and enable the VLAN tag mode.

       bind vlan 2 -ifnum 1/1 –tagged
       bind vlan 2 -IPAddress 1.1.1.2 255.255.255.0
     <!--NeedCopy-->
    
  • On the server side, bind the SNIP (2.2.2.2) to network interface 1/1 and enable the VLAN tag mode.

       bind vlan 3 -ifnum 1/2 –tagged
       bind vlan 3 -IPAddress 2.2.2.2 255.255.255.0
     <!--NeedCopy-->
    
  • Add an HTTP virtual server (1.1.1.100) and bind it to a service (2.2.2.100).

       add lb vserver v1 HTTP 1.1.1.100 80 -persistenceType NONE -Listenpolicy None -cltTimeout 180
       add service s1 2.2.2.100 HTTP 80 -gslb NONE -maxClient 0 -maxReq 0 -cip DISABLED -usip NO -useproxyport YES -sp ON -cltTimeout 180 -svrTimeout 360 -CKA NO -TCPB NO -CMP NO
       bind lb vserver v1 s1
     <!--NeedCopy-->
    

注意:

Make sure that you include the following two entries in the route table:

  • 1.1.1.0/24 subnet with gateway pointing to SNIP 1.1.1.2
  • 2.2.2.0/24 subnet with gateway pointing to SNIP 2.2.2.2

带有 VMXNET3 网络接口的 NetScaler VPX

To achieve high performance for VPX with VMXNET3 network interfaces, do the following settings on the VMware ESX host:

  • 从一台 pNIC vSwitch 创建两个虚拟网卡。 多个虚拟网卡在 ESX 主机中创建多个 Rx 线程。 这会增加 pNIC 接口的 Rx 吞吐量。
  • Enable VLANs on the vSwitch port group level for each vNIC that you have created.
  • 要提高 vNIC 传输 (Tx) 吞吐量,请在每个 vNIC 的 ESX 主机中使用单独的 Tx 线程。 使用以下 ESX 命令:
    • For ESX version 5.5:
       esxcli system settings advanced set –o /Net/NetTxWorldlet –i
     <!--NeedCopy-->
    
    • For ESX version 6.0 onwards:
        esxcli system settings advanced set -o /Net/NetVMTxType –i 1
      <!--NeedCopy-->
    

On the VMware ESX host, perform the following configuration:

  • 在 VMware ESX 主机上,从一台 pNIC 虚拟交换机创建两个虚拟网卡。 On the VMware ESX host, create two vNICs from 1 pNIC vSwitch. Multiple vNICs create multiple Tx and Rx threads in the ESX host. This increases the Tx and Rx throughput of the pNIC interface. 这会增加 pNIC 接口的 Tx 和 Rx 吞吐量。
  • Enable VLANs on the vSwitch port group level for each vNIC that you have created.
  • To increase Tx throughput of a vNIC, use a separate Tx completion thread and Rx threads per device (NIC) queue. Use the following command: 使用以下命令:

       esxcli system settings advanced set -o /Net/NetNetqRxQueueFeatPairEnable -i 0
     <!--NeedCopy-->
    
  • Configure a VM to use one transmit thread per vNIC, by adding the following setting to the VM’s configuration:

       ethernetX.ctxPerDev = "1"
     <!--NeedCopy-->
    
  • 通过在虚拟机的配置中添加以下设置,将虚拟机配置为每个 vNIC 最多使用 8 个传输线程:

       ethernetX.ctxPerDev = "3"
     <!--NeedCopy-->
    

    注意:

    增加每个 vNIC 的传输线程需要在 ESX 主机上使用更多 CPU 资源(最多 8 个)。 在进行上述设置之前,请确保有足够的 CPU 资源可用。

注意:

Make sure that you reboot the VMware ESX host to apply the updated settings.

You can configure VMXNET3 as a Two vNICs per pNIC deployment. For more information, see Two vNICs per pNIC deployment. 有关详细信息,请参阅 每个 pNIC 部署两个 vNIC

在 VMware ESX 上为 VMXNET3 设备配置多队列和 RSS 支持

默认情况下,VMXNET3 设备仅支持 8 个 Rx 和 Tx 队列。 当 VPX 上的 vCPU 数量超过 8 时,默认情况下,为 VMXNET3 接口配置的 Rx 和 Tx 队列数量会切换为 1。 通过更改 ESX 上的某些配置,您可以为 VMXNET3 设备配置多达 19 个 Rx 和 Tx 队列。 此选项可提高数据包在 VPX 实例的 vCPU 间的性能和均匀分布。

注意:

从 NetScaler 版本 13.1 build 48.x 开始,NetScaler VPX 在 ESX 上支持多达 19 个 VMXNET3 设备的 Rx 和 Tx 队列。

必备条件:

要在 ESX 上为 VMXNET3 设备配置多达 19 个 Rx 和 Tx 队列,请确保满足以下先决条件:

  • NetScaler VPX 版本是 13.1 版本 48.X 及更高版本。
  • NetScaler VPX 配置了硬件版本 17 及更高版本的虚拟机,VMware ESX 7.0 及更高版本支持该虚拟机。

将 VMXNET3 接口配置为支持 8 个以上的 Rx 和 Tx 队列:

  1. 打开虚拟机配置文件 (.vmx) 文件。
  2. 通过配置和 ethernetX.maxRxQueues 值来指定 Rx 和 TX 队列的 ethernetX.maxTxQueues 数量(其中 X 是要配置的虚拟 NIC 的数量)。 配置的最大队列数不得大于虚拟机中的 vCPU 数量。

    注意:

    增加队列数量还会增加 ESX 主机的处理器开销。 因此,在增加队列之前,请确保 ESX 主机中有足够的 CPU 资源可用。 在队列数量被确定为性能瓶颈的情况下,您可以增加支持的最大队列数。 在这些情况下,我们建议逐渐增加队列数量。 例如,从 8 到 12,然后是 16,然后是 20,依此类推。 评估每种设置下的性能,而不是直接提高到最大限制。

具有 SR-IOV 和 PCI 直通网络接口的 NetScaler VPX

要使用 SR-IOV 和 PCI 直通网络接口实现 NetScaler VPX 的高性能,请参阅 ESX 主机上的推荐配置

VMware ESXi 虚拟机管理程序的使用指南

  • 我们建议您在服务器的本地磁盘或基于 SAN 的存储卷上部署 NetScaler VPX 实例。

    请参阅 VMware vSphere 6.5 性能最佳实践文档中的 VMware ESXi CPU 注意事项部分。 下面是一段摘录:

  • 不建议在过度使用的主机或群集上部署 CPU 或内存需求高的虚拟机。

  • 在大多数环境中,ESXi 允许大量 CPU 过载,而不会影响虚拟机性能。 在主机上,您可以运行的 vCPU 数量超过该主机中的物理处理器核心总数。

  • 如果 ESXi 主机变得 CPU 饱和,即主机上的虚拟机和其他负载需要主机拥有的所有 CPU 资源,则延迟敏感型工作负载可能无法良好运行。 在这种情况下,例如,通过关闭某些虚拟机或将其迁移到其他主机(或允许 DRS 自动迁移它们)来降低 CPU 负载。

  • NetScaler 建议使用最新的硬件兼容版本来为虚拟机使用 ESXi 虚拟机管理程序的最新功能集。 有关硬件和 ESXi 版本兼容性的更多信息,请参阅 VMware 文档

  • NetScaler VPX 是一款延迟敏感的高性能虚拟设备。 为了提供预期的性能,该设备需要在主机上预留 vCPU、内存预留和 vCPU 固定。 此外,必须在主机上禁用超线程。 如果主机不满足这些要求,则可能会出现以下问题:

    • 高可用性故障转移
    • VPX 实例内的 CPU 峰值
    • 访问 VPX CLI 时运行缓慢
    • Pit boss 守护程序崩溃
    • 数据包丢失
    • 低吞吐量
  • 如果满足以下两个条件之一,虚拟机管理程序将被视为过度预配:

    • 在主机上配置的虚拟核心 (vCPU) 总数大于物理核心 (pCPU) 总数。

    • 预配的 VM 总数占用的 vCPU 数量超过 pCPU 总数。

      如果实例配置过度,虚拟机管理程序可能无法保证为实例预留的资源(例如 CPU、内存和其他资源),原因是管理程序计划开销、错误或管理程序的限制。 这种行为可能导致 NetScaler 缺乏 CPU 资源,并可能导致使用指南下第一点中提到的问题。 我们建议管理员减少主机的租期,使主机上配置的 vCPU 总数小于或等于 PCPU 的总数。

      Example:

      对于 ESX 虚拟机管理程序,如果 esxtop 命令输出中 VPX vCPU 的 %RDY% 参数大于 0,则说 ESX 主机存在调度开销,这可能会导致 VPX 实例出现延迟相关问题。

      在这种情况下,请减少主机上的租赁,以便 %RDY% 始终返回 0。 或者,联系虚拟机管理程序供应商,对不履行资源预留的原因进行分类。

控制数据包引擎 CPU 使用率的命令

您可以使用两个命令(set ns vpxparamshow ns vpxparam)来控制虚拟机管理程序和云环境中 VPX 实例的数据包引擎(非管理)CPU 使用行为:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    允许每个 VM 使用分配给另一个 VM 但未被使用的 CPU 资源。

    Set ns vpxparam 参数:

    -cpuyield:释放或不释放已分配但未使用的 CPU 资源。

    • YES:允许另一个 VM 使用已分配但未使用的 CPU 资源。

    • :为分配的虚拟机保留所有 CPU 资源。 此选项显示,在虚拟机管理程序和云环境中,VPX CPU 使用率的百分比更高。

    • DEFAULT:No。

    注意:

    在所有 NetScaler VPX 平台上,主机系统上的 vCPU 使用率为 100%。 使用 set ns vpxparam –cpuyield YES 命令覆盖此用法。

    如果要将群集节点设置为“yield”,则必须在 CCO 上执行以下额外配置:

    • 如果形成群集,则所有节点都设置为“yield=DEFAULT”。
    • 如果使用已设置为“yield=YES”的节点组成群集,则使用“DEFAULT”收益率将节点添加到群集中。

    注意:

    如果要将群集节点设置为“yield=YES”,则只能在形成群集之后进行配置,而不能在群集形成之前进行配置。

    -masterclockcpu1:可以将主时钟源从 CPU0(管理 CPU)移动到 CPU1。 此参数具有以下选项:

    • :允许虚拟机将主时钟源从 CPU0 移动到 CPU1。

    • NO:VM 使用 CPU0 作为主时钟源。 默认情况下,CPU0 是主时钟源。

  • show ns vpxparam

    此命令显示当前 vpxparam 设置。

Linux-KVM 平台上的 NetScaler VPX 实例

本部分包含可配置选项和设置的详细信息,以及其他有助于您在 Linux-KVM 平台上实现 NetScaler VPX 实例的最佳性能的建议。

KVM 的性能设置

Perform the following settings on the KVM host:

Find the NUMA domain of the NIC using the lstopo command:

Make sure that memory for the VPX and the CPU is pinned to the same location. In the following output, the 10G NIC “ens2” is tied to NUMA domain #1. 在以下输出中,10G 网卡“ens2”与 NUMA 域 #1 关联。

NUMA domain #1

Allocate the VPX memory from the NUMA domain.

numactl 命令指示从中分配内存的 NUMA 域。 The numactl command indicates the NUMA domain from which the memory is allocated. In the following output, around 10 GB RAM is allocated from NUMA node #0.

NUMA node #0

To change the NUMA node mapping, follow these steps.

  1. 在主机上编辑 VPX 的 .xml。

      /etc/libvirt/qemu/<VPX_name>.xml
    <!--NeedCopy-->
    
  2. 添加以下标签:

      <numatune>
      <memory mode="strict" nodeset="1"/>    This is the NUMA domain name
      </numatune>
    <!--NeedCopy-->
    
  3. 关闭 VPX。

  4. 运行以下命令:

      virsh define /etc/libvirt/qemu/<VPX_name>.xml
    <!--NeedCopy-->
    

    此命令使用 NUMA 节点映射更新 VM 的配置信息。

  5. 打开 VPX 的电源。 然后检查主机上的 numactl –hardware 命令输出以查看 VPX 的更新内存分配。

    numactl 硬件命令的输出

Pin vCPUs of VPX to physical cores.

  • 要查看 VPX 的 vCPU 到 pCPU 的映射,请键入以下命令

       virsh vcpupin <VPX name>
     <!--NeedCopy-->
    

    virsh-vcpupin 命令的输出

    vCPU 0—4 映射到物理内核 8—11。

  • 要查看当前的 pCPU 使用情况,请键入以下命令:

       mpstat -P ALL 5
     <!--NeedCopy-->
    

    mpstat 命令的输出

    在此输出中,8 是管理 CPU,9—11 是数据包引擎。

  • 要将 vCPU 更改为 PCU 固定,有两个选项。

    • 使用以下命令在 VPX 启动后在运行时更改它:

         virsh vcpupin <VPX name> <vCPU id>  <pCPU number>
         virsh vcpupin NetScaler-VPX-XML 0 8
         virsh vcpupin NetScaler-VPX-XML 1 9
         virsh vcpupin NetScaler-VPX-XML 2 10
         virsh vcpupin NetScaler-VPX-XML 3 11
       <!--NeedCopy-->
      
    • 要对 VPX 进行静态更改,请使用以下标签像以前一样编辑 .xml 文件:

      1. 在主机上编辑 VPX 的 .xml 文件

          /etc/libvirt/qemu/<VPX_name>.xml
        <!--NeedCopy-->
        
      2. 添加以下标签:

          <vcpu placement='static' cpuset='8-11'>4</vcpu>
              <cputune>
                  <vcpupin vcpu='0' cpuset='8'/>
                  <vcpupin vcpu='1' cpuset='9'/>
                  <vcpupin vcpu='2' cpuset='10'/>
                  <vcpupin vcpu='3' cpuset='11'/>
              </cputune>
        <!--NeedCopy-->
        
      3. 关闭 VPX。

      4. 使用以下命令使用 NUMA 节点映射更新 VM 的配置信息:

          virsh define /etc/libvirt/qemu/ <VPX_name>.xml
        <!--NeedCopy-->
        
      5. 打开 VPX 的电源。 然后检查主机上的 virsh vcpupin &lt;VPX name&gt; 命令输出以查看更新的 CPU 固定。

Eliminate host interrupt overhead.

  • 使用 kvm_stat 命令检测 VM_EXITS。

    在虚拟机管理程序级别,主机中断映射到固定 VPX vCPU 的相同 PCU。 这可能会导致 VPX 上的 vCPU 定期被踢出。

    要查找运行主机的虚拟机完成的 VM 退出,请使用 kvm_stat 命令。

       [root@localhost ~]# kvm_stat -1  | grep EXTERNAL
       kvm_exit(EXTERNAL_INTERRUPT)  1728349 27738
       [root@localhost ~]#
     <!--NeedCopy-->
    

    大小为 1+M 的较高值表示存在问题。

    如果存在单个虚拟机,则预期值为 30–100 K。 除此之外的任何值都可能表明有一个或多个主机中断向量映射到同一个 pCPU。

  • 检测主机中断并迁移主机中断。

    当您运行“/proc/interrupts”文件的 concatenate 命令时,它会显示所有主机中断映射。 如果一个或多个活动 IRQ 映射到同一个 PCU,则其对应的计数器会增加。

    将与 NetScaler VPX 的 PCU 重叠的所有中断移动到未使用的 PCU 中:

       echo 0000000f > /proc/irq/55/smp_affinity
       0000000f - - > it is a bitmap, LSBs indicates that IRQ 55 can only be scheduled on pCPUs 0 – 3
     <!--NeedCopy-->
    
  • 禁用 IRQ 余额。

    禁用 IRQ 余额守护进程,这样即时不会进行重新安排。

       service irqbalance stop
       service irqbalance show - To check the status
       service irqbalance start - Enable if needed
     <!--NeedCopy-->
    

    确保运行 kvm_stat 命令以确保计数器不多。

具有光伏网络接口的 NetScaler VPX

You can configure para-virtualization (PV), SR-IOV, and PCIe passthrough network interfaces as a Two vNICs per pNIC deployment. For more information, see Two vNICs per pNIC deployment. 有关详细信息,请参阅 每个 pNIC 部署两个 vNIC

For optimal performance of PV (virtio) interfaces, follow these steps:

  • 确定 PCIe 插槽/网卡所属的 NUMA 域。
  • VPX 的内存和 vCPU 必须固定到同一个 NUMA 域。
  • 虚拟主机线程必须绑定到同一 NUMA 域中的 CPU。

Bind the virtual host threads to the corresponding CPUs:

  1. 流量启动后,在主机上运行 top 命令。

    运行 top 命令

  2. 确定虚拟主机进程(命名为 vhost-&lt;pid-of-qemu&gt;)关联性。
  3. 使用以下命令将 vHost 进程绑定到之前确定的 NUMA 域中的物理核心:

      taskset –pc <core-id> <process-id>
    <!--NeedCopy-->
    

    Example:

      taskset –pc 12 29838
    <!--NeedCopy-->
    
  4. 可以使用以下命令识别与 NUMA 域对应的处理器内核:

      [root@localhost ~]# virsh capabilities | grep cpu
      <cpu>
          </cpu>
              <cpus num='8'>
                  <cpu id='0' socket_id='0' core_id='0' siblings='0'/>
                  <cpu id='1' socket_id='0' core_id='1' siblings='1'/>
                  <cpu id='2' socket_id='0' core_id='2' siblings='2'/>
                  <cpu id='3' socket_id='0' core_id='3' siblings='3'/>
                  <cpu id='4' socket_id='0' core_id='4' siblings='4'/>
                  <cpu id='5' socket_id='0' core_id='5' siblings='5'/>
                  <cpu id='6' socket_id='0' core_id='6' siblings='6'/>
                  <cpu id='7' socket_id='0' core_id='7' siblings='7'/>
              </cpus>
    
              <cpus num='8'>
              <cpu id='8' socket_id='1' core_id='0' siblings='8'/>
              <cpu id='9' socket_id='1' core_id='1' siblings='9'/>
              <cpu id='10' socket_id='1' core_id='2' siblings='10'/>
              <cpu id='11' socket_id='1' core_id='3' siblings='11'/>
              <cpu id='12' socket_id='1' core_id='4' siblings='12'/>
              <cpu id='13' socket_id='1' core_id='5' siblings='13'/>
              <cpu id='14' socket_id='1' core_id='6' siblings='14'/>
              <cpu id='15' socket_id='1' core_id='7' siblings='15'/>
              </cpus>
    
          <cpuselection/>
          <cpuselection/>
    
    <!--NeedCopy-->
    

Bind the QEMU process to the corresponding physical core:

  1. 确定运行 QEMU 进程的物理核心。 有关更多信息,请参阅前面的输出。
  2. 使用以下命令将 QEMU 进程绑定到与 vCPU 绑定到的相同物理核心:

      taskset –pc 8-11 29824
    <!--NeedCopy-->
    

配备 SR-IOV 和福特维尔 PCIe 直通网络接口的 NetScaler VPX

For optimal performance of the SR-IOV and Fortville PCIe passthrough network interfaces, follow these steps:

  • 确定 PCIe 插槽/网卡所属的 NUMA 域。
  • NetScaler VPX 的内存和 vCPU 必须固定到同一个 NUMA 域。

Sample VPX XML file for vCPU and memory pinning for Linux KVM:

      <domain type='kvm'>
          <name>NetScaler-VPX</name>
          <uuid>138f7782-1cd3-484b-8b6d-7604f35b14f4</uuid>
          <memory unit='KiB'>8097152</memory>
          <currentMemory unit='KiB'>8097152</currentMemory>
          <vcpu placement='static'>4</vcpu>

      <cputune>
          <vcpupin vcpu='0' cpuset='8'/>
          <vcpupin vcpu='1' cpuset='9'/>
          <vcpupin vcpu='2' cpuset='10'/>
          <vcpupin vcpu='3' cpuset='11'/>
      </cputune>

      <numatune>
      <memory mode='strict' nodeset='1'/>
      </numatune>

      </domain>
<!--NeedCopy-->

Citrix Hypervisor 上的 NetScaler VPX 实例

本部分包含可配置选项和设置的详细信息,以及可帮助您在 Citrix Hypervisor 上实现 NetScaler VPX 实例的最佳性能的其他建议。

Citrix Hypervisor 的性能设置

Find the NUMA domain of the NIC using the “xl” command:

  xl info -n
<!--NeedCopy-->

Pin vCPUs of VPX to physical cores.

  xl vcpu-pin <Netsclaer VM Name>  <vCPU id>  <physical CPU id>
<!--NeedCopy-->

Check binding of vCPUs.

  xl vcpu-list
<!--NeedCopy-->

向 NetScaler 虚拟机分配 8 个以上的 vCPU。

For configuring more than 8 vCPUs, run the following commands from the Citrix Hypervisor console:

  xe vm-param-set uuid=your_vms_uuid VCPUs-max=16
  xe vm-param-set uuid=your_vms_uuid VCPUs-at-startup=16
<!--NeedCopy-->

具有 SR-IOV 网络接口的 NetScaler VPX

For optimal performance of the SR-IOV network interfaces, follow these steps:

  • Identify the NUMA domain to which the PCIe slot or NIC is tied to.
  • 将 VPX 的内存和 vCPU 固定到同一个 NUMA 域。
  • 将域 0 vCPU 绑定到剩余的 CPU。

具有半虚拟化接口的 NetScaler VPX

For optimal performance, two vNICs per pNIC and one vNIC per pNIC configurations are advised, as in other PV environments.

To achieve optimal performance of para-virtualized (netfront) interfaces, follow these steps:

  • 确定 PCIe 插槽或 NIC 所属的 NUMA 域。
  • 将 VPX 的内存和 vCPU 固定到同一个 NUMA 域。
  • 将域 0 vCPU 绑定到同一 NUMA 域的剩余 CPU。
  • 将 vNIC 的主机 Rx/Tx 线程固定到域 0 vCPU。

Pin host threads to Domain-0 vCPUs:

  1. 使用 Citrix Hypervisor 主机 shell 上的 xl list 命令查找 NetScaler VPX 的 Xen-ID。
  2. 使用以下命令识别主机线程:

      ps -ax | grep vif <Xen-ID>
    <!--NeedCopy-->
    

    在以下示例中,这些值表示:

    • vif5.0 -在 XenCenter 中分配给 VPX 的第一个接口的线程(管理接口)。
    • vif5.1 -分配给 VPX 的第二个接口的线程等等。

    xl list 命令的输出

  3. 使用以下命令将线程固定到 Domain-0 vCPU:

      taskset –pc <core-id> <process-id>
    <!--NeedCopy-->
    

    Example:

      taskset -pc 1 29189
    <!--NeedCopy-->
    
在 VMware ESX、Linux KVM 和 Citrix Hypervisor 上优化 NetScaler VPX 性能