NetScaler SDX

Convertir une appliance NetScaler MPX 15000 en une appliance NetScaler SDX 15000

Vous pouvez convertir une appliance NetScaler MPX en une appliance NetScaler SDX en mettant à niveau le logiciel via un nouveau disque SSD. NetScaler fournit un kit de conversion de terrain pour migrer une appliance NetScaler MPX vers une appliance SDX.

La conversion nécessite les huit SSD.

Remarque

Citrix recommande de configurer le port de gestion de la mise sous/hors tension (LOM) de l’appliance avant de démarrer le processus de conversion. Pour plus d’informations sur le port LOM de l’appliance ADC, consultez la section Port de gestion de la mise sous/hors tension de l’appliance NetScaler SDX.

Pour convertir une appliance MPX en matériel SDX, vous devez y accéder via un câble de console connecté à un ordinateur ou à un terminal. Avant de connecter le câble de la console, configurez l’ordinateur ou le terminal pour prendre en charge la configuration suivante :

  • Emulation de terminal VT100
  • 9600 bauds
  • 8 bits de données
  • 1 embout d’arrêt
  • Contrôle de parité et de flux réglés sur NONE

Connectez une extrémité du câble de la console au port série RS232 de l’appliance et l’autre extrémité à l’ordinateur ou au terminal.

Remarque

Pour utiliser un câble avec un convertisseur RJ-45, insérez le convertisseur optionnel dans le port de la console et fixez le câble à celui-ci.

Citrix vous recommande de connecter un moniteur VGA à l’appliance pour surveiller le processus de conversion, car la connexion LOM est perdue pendant le processus de conversion.

Une fois le câble connecté, vérifiez que les composants de l’appliance MPX fonctionnent correctement. Vous êtes alors prêt à commencer la conversion. Le processus de conversion modifie le BIOS, installe un Citrix Hypervisor et une image de machine virtuelle de service, et copie l’image NetScaler VPX sur le lecteur SSD.

Le processus de conversion met également en place un contrôleur RAID (Redundant Array of Independent Disks) pour le stockage local et le stockage NetScaler VPX. Les emplacements SSD #1 et #2 sont utilisés pour le stockage local et les emplacements SSD #3 et #4 sont utilisés pour le stockage NetScaler VPX.

Après le processus de conversion, modifiez la configuration de l’appliance et appliquez une nouvelle licence. Vous pouvez ensuite provisionner les instances VPX via le service de gestion sur ce qui est désormais une appliance NetScaler SDX.

Vérifier le bon fonctionnement des composants de l’appliance MPX

  1. Accédez au port de la console et entrez les informations d’identification de l’administrateur.
  2. Exécutez la commande suivante à partir de l’interface de ligne de commande de l’appliance pour afficher le numéro de série : show hardware. Vous aurez peut-être besoin du numéro de série pour vous connecter à l’appliance après la conversion.

    Exemple

    > show hardware
    Platform: NSMPX-15000-50G 16\*CPU+128GB+4\*MLX(50)+8\*F1X+2\*E1K+2*2-CHIP COL 520400
    Manufactured on: 9/13/2017
    CPU: 2100MHZ
    Host Id: 1862303878
    Serial no: 4VCX9CUFN6
    Encoded serial no: 4VCX9CUFN6
    Netscaler UUID: d9de2de3-dc89-11e7-ab53-00e0ed5de5aa
    BMC Revision: 5.56
    Done
    <!--NeedCopy-->
    

    Le numéro de série peut être utile lorsque vous souhaitez contacter le support technique de Citrix.

  3. Exécutez la commande suivante pour afficher l’état des interfaces actives :

    show interface

    Exemple

    > show interface
    
    1)  Interface 0/1 (Gig Ethernet 10/100/1000 MBits) #4
        flags=0xc020 <ENABLED, UP, UP, autoneg, HAMON, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=0c:c4:7a:e5:3c:50, uptime 1h08m02s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        Actual: media UTP, speed 1000, duplex FULL, fctl OFF, throughput 1000
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(19446) Bytes(1797757) Errs(0) Drops(19096) Stalls(0)
        TX: Pkts(368) Bytes(75619) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
    
    2)  Interface 0/2 (Gig Ethernet 10/100/1000 MBits) #5
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=0c:c4:7a:e5:3c:51, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
    
    3)  Interface 10/1 (10G Ethernet) #6
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HAMON, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=200, MAC=00:e0:ed:5d:e5:76, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    4)  Interface 10/2 (10G Ethernet) #7
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=200, MAC=00:e0:ed:5d:e5:77, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    5)  Interface 10/3 (10G Ethernet) #8
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:78, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    6)  Interface 10/4 (10G Ethernet) #9
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:79, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    7)  Interface 10/5 (10G Ethernet) #0
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:aa, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    8)  Interface 10/6 (10G Ethernet) #1
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:ab, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    9)  Interface 10/7 (10G Ethernet) #2
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:ac, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    10) Interface 10/8 (10G Ethernet) #3
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:ad, downtime 1h08m15s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
        Rx Ring: Configured size=2048, Actual size=512, Type: Elastic
    
    11) Interface 50/1 (50G Ethernet) #13
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=24:8a:07:a3:1f:84, downtime 1h08m22s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
    
    12) Interface 50/2 (50G Ethernet) #12
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=24:8a:07:a3:1f:6c, downtime 1h08m22s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
    
    13) Interface 50/3 (50G Ethernet) #11
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=24:8a:07:a3:1f:98, downtime 1h08m22s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
    
    14) Interface 50/4 (50G Ethernet) #10
        flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q>
        MTU=1500, native vlan=1, MAC=24:8a:07:94:b9:b6, downtime 1h08m22s
        Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF,
                 throughput 0
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0)
        NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0)
        Bandwidth thresholds are not set.
    
    15) Interface LO/1 (Netscaler Loopback interface) #14
        flags=0x20008020 <ENABLED, UP, UP>
        MTU=1500, native vlan=1, MAC=0c:c4:7a:e5:3c:50, uptime 1h08m18s
        LLDP Mode: NONE,                 LR Priority: 1024
    
        RX: Pkts(5073645) Bytes(848299459) Errs(0) Drops(0) Stalls(0)
        TX: Pkts(9923625) Bytes(968741778) Errs(0) Drops(0) Stalls(0)
        Bandwidth thresholds are not set.
    
    Done
    <!--NeedCopy-->
    
  4. Dans la sortie de la commande show interface, vérifiez que toutes les interfaces sont activées et que l’état de chaque interface est affiché comme UP/UP.

    Remarques :

    >\-  L'état de l'interface est affiché en tant que UP/UP uniquement si les câbles sont connectés aux interfaces.
    
    >\-  Si vous n'avez pas d'émetteur-récepteur SFP+ pour chaque port, vérifiez les interfaces par étapes. Après avoir vérifié le premier ensemble d'interfaces, débranchez les émetteurs-récepteurs SFP+ et branchez-les au jeu de ports suivant.
    
  5. Exécutez la commande suivante pour chacune des interfaces qui ne sont pas dans l’état UP/UP :

    > enable interface 50/1
      Done
    > enable interface 50/2
      Done
    > enable interface 50/3
      Done
    > enable interface 50/4
      Done
    <!--NeedCopy-->
    

    Où x est le nouveau numéro d’interface

  6. Exécutez la commande suivante pour vérifier que l’état des blocs d’alimentation est normal :

    stat system –detail

    Exemple

    > stat system -detail
    
    NetScaler Executive View
    
    System Information:
    Up since        Sat Dec  5 04:17:29 2020
    Up since(Local) Sat Dec  5 04:17:29 2020
    Memory usage (MB)                   4836
    InUse Memory (%)                    4.08
    Number of CPUs                        13
    
    System Health Statistics (Standard):
    CPU 0 Core Voltage (Volts)                      1.80
    CPU 1 Core Voltage (Volts)                      1.80
    Main 3.3 V Supply Voltage                       3.35
    Standby 3.3 V Supply Voltage                    3.23
    +5.0 V Supply Voltage                           5.00
    +12.0 V Supply Voltage                         12.06
    Battery Voltage (Volts)                         3.02
    Intel CPU Vtt Power(Volts)                      0.00
    5V Standby Voltage(Volts)                       4.95
    Voltage Sensor2(Volts)                          0.00
    CPU Fan 0 Speed (RPM)                           3500
    CPU Fan 1 Speed (RPM)                           3600
    System Fan Speed (RPM)                          3600
    System Fan 1 Speed (RPM)                        3600
    System Fan 2 Speed (RPM)                        3500
    CPU 0 Temperature (Celsius)                       37
    CPU 1 Temperature (Celsius)                       47
    Internal Temperature (Celsius)                    26
    Power supply 1 status                         NORMAL
    Power supply 2 status                         NORMAL
    Power supply 3 status                  NOT SUPPORTED
    Power supply 4 status                  NOT SUPPORTED
    
    System Disk Statistics:
    /flash Size (MB)                               23801
    /flash Used (MB)                                7009
    /flash Available (MB)                          14887
    /flash Used (%)                                   32
    /var Size (MB)                                341167
    /var Used (MB)                                 56502
    /var Available (MB)                           257371
    /var Used (%)                                     18
    
    System Health Statistics(Auxiliary):
    Voltage 0 (Volts)                               1.20
    Voltage 1 (Volts)                               1.20
    Voltage 2 (Volts)                               1.20
    Voltage 3 (Volts)                               1.20
    Voltage 4 (Volts)                               1.54
    Voltage 5 (Volts)                               0.00
    Voltage 6 (Volts)                               0.00
    Voltage 7 (Volts)                               0.00
    Fan 0 Speed (RPM)                               3600
    Fan 1 Speed (RPM)                                  0
    Fan 2 Speed (RPM)                                  0
    Fan 3 Speed (RPM)                                  0
    Temperature 0 (Celsius)                           24
    Temperature 1 (Celsius)                           30
    Temperature 2 (Celsius)                            0
    Temperature 3 (Celsius)                            0
    Done
    <!--NeedCopy-->
    
  7. Exécutez la commande suivante pour générer un tar de données et de statistiques de configuration système :

    show techsupport

    Exemple

    > show techsupport
    
    showtechsupport data collector tool - $Revision$!
    NetScaler version 13.0
    The NS IP of this box is 10.217.206.43
    This is not HA configuration
    Copying selected configuration files ....
    Running shell commands ....
    Running CLI show commands ....
    Collecting ns running configuration....
    Collecting running gslb configuration....
    Running CLI stat commands ....
    Running vtysh commands ....
    Copying newnslog files ....
    Copying core files from /var/core ....
    Copying core files from /var/crash ....
    Copying GSLB location database files ....
    Copying GSLB auto sync log files ....
    Copying Safenet Gateway log files ....
    Copying messages, ns.log, dmesg and other log files ....
    Creating archive ....
    /var/tmp/support/support.tgz  ---- points to ---> /var/tmp/support/collector_P_10.217.206.43_5Dec2020_05_32.tar.gz
    
    showtechsupport script took 1 minute(s) and 17 second(s) to execute.
    Done
    <!--NeedCopy-->
    
    Remarque

    la sortie de la commande est disponible dans le fichier /var/tmp/support/collector_<IP_address>_P_<date>.tar.gz. Copiez ce fichier sur un autre ordinateur pour référence ultérieure. La sortie de la commande peut être utile lorsque vous souhaitez contacter le support technique de Citrix.

  8. À l’interface de ligne de commande, passez à l’invite shell. Type : shell

    Exemple

    > shell
    Copyright (c) 1992-2013 The FreeBSD Project.
    Copyright (c) 1979, 1980, 1983, 1986, 1988, 1989, 1991, 1992, 1993, 1994
        The Regents of the University of California. All rights reserved.
    
    root@ns#
    <!--NeedCopy-->
    
  9. Exécutez la commande suivante pour vérifier le nombre de cartes Cavium disponibles en fonction de votre appliance :

    root@ns# grep "memory" /var/nslog/dmesg.boot

    Exemple

    root@ns# grep "memory" /var/nslog/dmesg.boot
    real memory  = 139586437120 (133120 MB)
    avail memory = 132710871040 (126562 MB)
    root@ns#
    <!--NeedCopy-->
    
  10. Exécutez la commande suivante pour vérifier le nombre de cœurs CPU en fonction de votre appliance :

    root@ns# grep "cpu" /var/nslog/dmesg.boot

    Exemple

    root@ns# grep "cpu" /var/nslog/dmesg.boot
    cpu0 (BSP): APIC ID:  0
    cpu1 (AP): APIC ID:  2
    cpu2 (AP): APIC ID:  4
    cpu3 (AP): APIC ID:  6
    cpu4 (AP): APIC ID:  8
    cpu5 (AP): APIC ID: 10
    cpu6 (AP): APIC ID: 12
    cpu7 (AP): APIC ID: 14
    cpu8 (AP): APIC ID: 16
    cpu9 (AP): APIC ID: 18
    cpu10 (AP): APIC ID: 20
    cpu11 (AP): APIC ID: 22
    cpu12 (AP): APIC ID: 24
    cpu13 (AP): APIC ID: 26
    cpu14 (AP): APIC ID: 28
    cpu15 (AP): APIC ID: 30
    cpu0: <ACPI CPU> on acpi0
    cpu1: <ACPI CPU> on acpi0
    cpu2: <ACPI CPU> on acpi0
    cpu3: <ACPI CPU> on acpi0
    cpu4: <ACPI CPU> on acpi0
    cpu5: <ACPI CPU> on acpi0
    cpu6: <ACPI CPU> on acpi0
    cpu7: <ACPI CPU> on acpi0
    cpu8: <ACPI CPU> on acpi0
    cpu9: <ACPI CPU> on acpi0
    cpu10: <ACPI CPU> on acpi0
    cpu11: <ACPI CPU> on acpi0
    cpu12: <ACPI CPU> on acpi0
    cpu13: <ACPI CPU> on acpi0
    cpu14: <ACPI CPU> on acpi0
    cpu15: <ACPI CPU> on acpi0
    est0: <Enhanced SpeedStep Frequency Control> on cpu0
    p4tcc0: <CPU Frequency Thermal Control> on cpu0
    est1: <Enhanced SpeedStep Frequency Control> on cpu1
    p4tcc1: <CPU Frequency Thermal Control> on cpu1
    est2: <Enhanced SpeedStep Frequency Control> on cpu2
    p4tcc2: <CPU Frequency Thermal Control> on cpu2
    est3: <Enhanced SpeedStep Frequency Control> on cpu3
    p4tcc3: <CPU Frequency Thermal Control> on cpu3
    est4: <Enhanced SpeedStep Frequency Control> on cpu4
    p4tcc4: <CPU Frequency Thermal Control> on cpu4
    est5: <Enhanced SpeedStep Frequency Control> on cpu5
    p4tcc5: <CPU Frequency Thermal Control> on cpu5
    est6: <Enhanced SpeedStep Frequency Control> on cpu6
    p4tcc6: <CPU Frequency Thermal Control> on cpu6
    est7: <Enhanced SpeedStep Frequency Control> on cpu7
    p4tcc7: <CPU Frequency Thermal Control> on cpu7
    est8: <Enhanced SpeedStep Frequency Control> on cpu8
    p4tcc8: <CPU Frequency Thermal Control> on cpu8
    est9: <Enhanced SpeedStep Frequency Control> on cpu9
    p4tcc9: <CPU Frequency Thermal Control> on cpu9
    est10: <Enhanced SpeedStep Frequency Control> on cpu10
    p4tcc10: <CPU Frequency Thermal Control> on cpu10
    est11: <Enhanced SpeedStep Frequency Control> on cpu11
    p4tcc11: <CPU Frequency Thermal Control> on cpu11
    est12: <Enhanced SpeedStep Frequency Control> on cpu12
    p4tcc12: <CPU Frequency Thermal Control> on cpu12
    est13: <Enhanced SpeedStep Frequency Control> on cpu13
    p4tcc13: <CPU Frequency Thermal Control> on cpu13
    est14: <Enhanced SpeedStep Frequency Control> on cpu14
    p4tcc14: <CPU Frequency Thermal Control> on cpu14
    est15: <Enhanced SpeedStep Frequency Control> on cpu15
    p4tcc15: <CPU Frequency Thermal Control> on cpu15
    root@ns#
    <!--NeedCopy-->
    
  11. Exécutez la commande suivante pour vérifier que le lecteur /var est monté en tant que /dev/ ar0s1a: root@ns# df –h

    Exemple

    root@ns# df -h
    Filesystem     Size    Used   Avail Capacity  Mounted on
    /dev/md0       422M    404M    9.1M    98%    /
    devfs          1.0k    1.0k      0B   100%    /dev
    procfs         4.0k    4.0k      0B   100%    /proc
    /dev/ar0s1a     23G    6.9G     14G    32%    /flash
    /dev/ar0s1e    333G     32G    274G    10%    /var
    root@ns#
    <!--NeedCopy-->
    
  12. Tapez la commande suivante pour exécuter le script ns_hw_err.bash, qui vérifie les erreurs matérielles latentes : root @ns

    # ns_hw_err.bash

    Exemple

    root@ns# ns_hw_err.bash
    NetScaler NS13.0: Build 71.3602.nc, Date: Nov 12 2020, 07:26:41   (64-bit)
    platform: serial 4VCX9CUFN6
    platform: sysid 520400 - NSMPX-15000-50G 16\*CPU+128GB+4\*MLX(50)+8\*F1X+2\*E1K+2*2-CHIP COL 8955
    HDD MODEL: ar0: 434992MB <Intel MatrixRAID RAID1> status: READY
    
    Generating the list of newnslog files to be processed...
    Generating the events from newnslog files...
    Checking for HDD errors...
    Checking for HDD SMART errors...
    Checking for Flash errors...
    Checking for Mega Raid Controller errors...
    Checking for SSL errors...
    Dec  5 06:00:31 <daemon.err> ns monit[996]: 'safenet_gw' process is not running
    Checking for BIOS errors...
    Checking for SMB errors...
    Checking for MotherBoard errors...
    Checking for CMOS errors...
    License year: 2020: OK
    Checking for SFP/NIC errors...
    Dec  5 06:02:32 <daemon.err> ns monit[996]: 'safenet_gw' process is not running
    Checking for Firmware errors...
    Checking for License errors...
    Checking for Undetected CPUs...
    Checking for DIMM flaps...
    Checking for Memory Channel errors...
    Checking for LOM errors...
    Checking the Power Supply Errors...
    Checking for Hardware Clock errors...
    Script Done.
    root@ns#
    <!--NeedCopy-->
    
  13. Important : déconnectez physiquement du réseau tous les ports à l’exception du port LOM, y compris le port de gestion.

  14. À l’invite de l’interpréteur de commandes, passez à la ligne de commande ADC. Type : sortie

    Exemple

    root@ns# exit
    logout
    Done
    <!--NeedCopy-->
    
  15. Exécutez la commande suivante pour arrêter l’appliance. On vous demande si vous voulez arrêter complètement l’ADC. Type : shutdown -p now

    Exemple

    > shutdown -p now
    Are you sure you want to completely stop NetScaler (Y/N)? [N]:y
    Done
    > Dec  5 06:09:11 <auth.notice> ns shutdown: power-down by root:
    Dec  5 06:09:13 <auth.emerg> ns init: Rebooting via init mechanism
    Dec  5 06:09:13 <syslog.err> ns syslogd: exiting on signal 15
    Dec  5 06:09:13 aslearn[1662]: before pthread_join(), task name: Aslearn_Packet_Loop_Task
    Dec  5 06:09:15 aslearn[1662]: Exiting function ns_do_logging
    Dec  5 06:09:15 aslearn[1662]: before pthread_join(), task name: Aslearn_WAL_Cleanup_Task
    Dec  5 06:09:15 aslearn[1662]: before pthread_join(), task name: Aslearn_HA_Primary_Task
    Dec  5 06:09:15 aslearn[1662]: 1662 exiting gracefully
    Dec  5 06:09:18 [1672]: nsnet_tcpipconnect: connect() failed; returned -1 errno=61
    qat0: qat_dev0 stopped 12 acceleration engines
    pci4: Resetting device
    qat1: qat_dev1 stopped 12 acceleration engines
    pci6: Resetting device
    qat2: qat_dev2 stopped 12 acceleration engines
    pci132: Resetting device
    qat3: qat_dev3 stopped 12 acceleration engines
    pci134: Resetting device
    Dec  5 06:09:33 init: some processes would not die; ps axl advised
    reboot initiated by init with parent kernel
    Waiting (max 60 seconds) for system process `vnlru' to stop...done
    Waiting (max 60 seconds) for system process `bufdaemon' to stop...done
    Waiting (max 60 seconds) for system process `syncer' to stop...
    Syncing disks, vnodes remaining...0 0 0 done
    All buffers synced.
    Uptime: 1h53m18s
    ixl_shutdown: lldp start 0
    ixl_shutdown: lldp start 0
    ixl_shutdown: lldp start 0
    ixl_shutdown: lldp start 0
    usbus0: Controller shutdown
    uhub0: at usbus0, port 1, addr 1 (disconnected)
    usbus0: Controller shutdown complete
    usbus1: Controller shutdown
    uhub1: at usbus1, port 1, addr 1 (disconnected)
    ugen1.2: <vendor 0x8087> at usbus1 (disconnected)
    uhub3: at uhub1, port 1, addr 2 (disconnected)
    ugen1.3: <FTDI> at usbus1 (disconnected)
    uftdi0: at uhub3, port 1, addr 3 (disconnected)
    ugen1.4: <vendor 0x1005> at usbus1 (disconnected)
    umass0: at uhub3, port 3, addr 4 (disconnected)
    (da0:umass-sim0:0:0:0): lost device - 0 outstanding, 0 refs
    (da0:umass-sim0:0:0:0): removing device entry
    usbus1: Controller shutdown complete
    usbus2: Controller shutdown
    uhub2: at usbus2, port 1, addr 1 (disconnected)
     ugen2.2: <vendor 0x8087> at usbus2 (disconnected)
    uhub4: at uhub2, port 1, addr 2 (disconnected)
    ugen2.3: <vendor 0x0557> at usbus2 (disconnected)
    uhub5: at uhub4, port 7, addr 3 (disconnected)
    ugen2.4: <vendor 0x0557> at usbus2 (disconnected)
    ukbd0: at uhub5, port 1, addr 4 (disconnected)
    ums0: at uhub5, port 1, addr 4 (disconnected)
    usbus2: Controller shutdown complete
    ixl_shutdown: lldp start 0
    ixl_shutdown: lldp start 0
    ixl_shutdown: lldp start 0
    ixl_shutdown: lldp start 0
    acpi0: Powering system off
    <!--NeedCopy-->
    

Mettre à niveau l’appliance

Pour mettre à niveau l’appliance, procédez comme suit :

  1. Mettez hors tension l’appliance ADC.
  2. Localisez deux disques SSD (SSD) à l’arrière de l’appliance dans l’emplacement #1 et l’emplacement #2, comme illustré dans la figure suivante :

    Image du panneau arrière

  3. Vérifiez que les disques SSD (SSD) de remplacement sont ceux requis pour votre modèle ADC. La conversion nécessite au minimum quatre SSD. L’étiquette NetScaler se trouve sur le dessus de l’un des SSD. Le SSD est pré-rempli avec une nouvelle version du BIOS et une version récente du service de gestion NetScaler SDX requis. Ce SSD doit être installé dans l’emplacement # 1.

  4. Retirez les disques SSD en poussant le loquet de sécurité du capot du lecteur vers le bas tout en tirant la poignée du lecteur.

  5. Sur le nouveau disque SSD certifié NetScaler, ouvrez complètement la poignée du lecteur vers la gauche. Insérez ensuite le nouveau lecteur dans la fente #1 autant que possible.

  6. Pour asseoir le lecteur, fermez la poignée à l’arrière de l’appareil afin que le lecteur se verrouille solidement dans la fente.

    Important : L’orientation du SSD est importante. Lorsque vous insérez le lecteur, assurez-vous que l’étiquette du produit NetScaler se trouve sur le côté.

  7. Insérez un deuxième SSD certifié NetScaler, dont la capacité correspond à celle du SSD de l’emplacement #1, dans l’emplacement no 2.

    Remarque : Si la licence de votre appliance est 14040 40G, 14060 40G, 14080 40G, insérez d’autres SSD vierges certifiés NetScaler dans les emplacements #3, #4, #5 et #6.

    |—|—|—|—|—| | Modèle NetScaler SDX | Instances virtuelles incluses | Plateforme maximale | SSD inclus dans le modèle de base|SSD supplémentaires pour un maximum d’instances | | SDX 15020/SDX 15020-50G| 5 | 55 | Deux disques SSD à démarrage amovible (SSD) de 240 Go (emplacements 1 et 2) supportés par RAID. Deux référentiels de stockage amovibles de 240 Go pris en charge par RAID (emplacements 3 et 4 appariés) SSD, et quatre référentiels de stockage de 480 Go (emplacements 5 à 6 couplés et 7 à 8 paires). | NA | | SDX 15030/SDX 15030-50G | 20 | 55| Deux disques SSD (SSD) amovibles (emplacements 1 et 2) pris en charge par RAID de 240 Go. Deux référentiels de stockage amovibles de 240 Go pris en charge par RAID (emplacements 3 et 4 appariés) SSD, et quatre référentiels de stockage de 480 Go (emplacements 5 à 6 appariés et 7 à 8 paires) SSD. | NA |

    Important

    Le mixage et la correspondance des anciens et nouveaux SSD ne sont pas pris en charge. Les SSD dans l’emplacement #1 et le slot #2, qui constituent la première paire RAID (stockage local), doivent être de la même taille et du même type. De même, les SSD dans l’emplacement #3 et le slot #4, qui constituent la deuxième paire RAID (stockage VPX), doivent être de la même taille et du même type. Utilisez uniquement les lecteurs qui font partie du kit de conversion fourni.

  8. Déconnectez tous les câbles réseau des ports de données et des ports de gestion.

  9. Démarrez l’appliance ADC. Pour obtenir des instructions, reportez-vous à la section « Mise sous tension de l’appliance » dans Installation du matériel.

    Le processus de conversion peut s’exécuter pendant environ 30 minutes, pendant lesquelles vous ne devez pas mettre l’appliance sous tension. L’ensemble du processus de conversion peut ne pas être visible sur la console et peut sembler ne pas répondre.

    Le processus de conversion met à jour le BIOS, installe Citrix Hypervisor et le système d’exploitation Management Service. Il copie également l’image NetScaler VPX sur le SSD pour le provisionnement des instances et forme la paire Raid1.

    Remarque : Le numéro de série de l’appliance reste le même.

  10. Gardez le câble de la console connecté pendant le processus de conversion. Autorisez le processus à terminer, à quel moment l’invite de connexion SDX : apparaît.

  11. Pendant le processus de conversion, la connexion au port LOM peut être perdue car elle réinitialise l’adresse IP à la valeur par défaut 192.168.1.3. La sortie de l’état de conversion est disponible sur le moniteur VGA.

  12. Les informations d’identification par défaut de Citrix Hypervisor sont changées en root/nsroot après la conversion de l’appliance d’un MPX vers SDX. Si ce mot de passe ne fonctionne pas, essayez de taper nsroot/le numéro de série de l’appliance. Le code à barres du numéro de série est disponible à l’arrière de l’appliance et est également disponible dans la sortie de la show hardware commande.

  13. Pour vous assurer que la conversion est réussie, vérifiez que le résultat FVT indique un succès. Exécutez la commande suivante : tail /var/log/fvt/fvt.log

Reconfigurer l’appliance convertie

Après le processus de conversion, l’appliance n’a plus sa configuration de travail précédente. Par conséquent, vous pouvez accéder à l’appliance via un navigateur Web uniquement en utilisant l’adresse IP par défaut : 192.168.100.1/16. Configurez un ordinateur sur le réseau 192.168.0.0 et connectez-le directement au port de gestion de l’appliance (0/1) à l’aide d’un câble Ethernet croisé. Vous pouvez également accéder à l’appliance NetScaler SDX via un hub réseau à l’aide d’un câble Ethernet direct. Utilisez les informations d’identification par défaut pour ouvrir une session, puis procédez comme suit :

  1. Sélectionnez l’onglet Configuration.
  2. Vérifiez que la section Ressource système affiche le nombre exact de cœurs CPU, de cœurs SSL et de la mémoire totale de votre appliance NetScaler SDX.
  3. Sélectionnez le nœud Système et, sous Configurer le dispositif, cliquez sur Configuration réseau pour modifier les informations réseau du service de gestion.
  4. Dans la boîte de dialogue Modifier la configuration réseau, spécifiez les détails suivants :
    • Interface* : interface par laquelle les clients se connectent au service de gestion. Valeurs possibles : 0/1, 0/2. Valeur par défaut : 0/1.
    • Adresse IP Citrix Hypervisor * : adresse IP de Citrix Hypervisor.
    • Adresse IP du service de gestion* : adresse IP du service de gestion.
    • Netmask* : masque de sous-réseau du sous-réseau dans lequel se trouve l’appliance SDX.
    • Gateway* : passerelle par défaut pour le réseau.
    • Serveur DNS—Adresse IP du serveur DNS.

    *Un paramètre obligatoire

  5. Cliquez sur OK. La connexion au service de gestion est perdue lorsque les informations réseau ont été modifiées.

  6. Connectez le port de gestion 0/1 de l’appliance NetScaler SDX à un commutateur pour y accéder via le réseau. Accédez à l’adresse IP utilisée précédemment et ouvrez une session avec les informations d’identification par défaut.

  7. Appliquez les nouvelles licences. Pour obtenir des instructions, consultez la section Présentation des licences SDX.

  8. Accédez à Configuration > Système et, dans le groupe Administration système, cliquez sur Redémarrer le matériel. Cliquez sur Oui pour confirmer votre choix. Vous êtes maintenant prêt à provisionner les instances VPX sur l’appliance NetScaler SDX. Pour obtenir des instructions, reportez-vous à la section Provisioning d’instances NetScaler.
Convertir une appliance NetScaler MPX 15000 en une appliance NetScaler SDX 15000