Convertir une appliance NetScaler MPX 15000 en une appliance NetScaler SDX 15000
Vous pouvez convertir une appliance NetScaler MPX en une appliance NetScaler SDX en mettant à niveau le logiciel via un nouveau disque SSD. NetScaler fournit un kit de conversion de terrain pour migrer une appliance NetScaler MPX vers une appliance SDX.
La conversion nécessite les huit SSD.
Remarque
Citrix recommande de configurer le port de gestion de la mise sous/hors tension (LOM) de l’appliance avant de démarrer le processus de conversion. Pour plus d’informations sur le port LOM de l’appliance ADC, consultez la section Port de gestion de la mise sous/hors tension de l’appliance NetScaler SDX.
Pour convertir une appliance MPX en matériel SDX, vous devez y accéder via un câble de console connecté à un ordinateur ou à un terminal. Avant de connecter le câble de la console, configurez l’ordinateur ou le terminal pour prendre en charge la configuration suivante :
- Emulation de terminal VT100
- 9600 bauds
- 8 bits de données
- 1 embout d’arrêt
- Contrôle de parité et de flux réglés sur NONE
Connectez une extrémité du câble de la console au port série RS232 de l’appliance et l’autre extrémité à l’ordinateur ou au terminal.
Remarque
Pour utiliser un câble avec un convertisseur RJ-45, insérez le convertisseur optionnel dans le port de la console et fixez le câble à celui-ci.
Citrix vous recommande de connecter un moniteur VGA à l’appliance pour surveiller le processus de conversion, car la connexion LOM est perdue pendant le processus de conversion.
Une fois le câble connecté, vérifiez que les composants de l’appliance MPX fonctionnent correctement. Vous êtes alors prêt à commencer la conversion. Le processus de conversion modifie le BIOS, installe un Citrix Hypervisor et une image de machine virtuelle de service, et copie l’image NetScaler VPX sur le lecteur SSD.
Le processus de conversion met également en place un contrôleur RAID (Redundant Array of Independent Disks) pour le stockage local et le stockage NetScaler VPX. Les emplacements SSD #1 et #2 sont utilisés pour le stockage local et les emplacements SSD #3 et #4 sont utilisés pour le stockage NetScaler VPX.
Après le processus de conversion, modifiez la configuration de l’appliance et appliquez une nouvelle licence. Vous pouvez ensuite provisionner les instances VPX via le service de gestion sur ce qui est désormais une appliance NetScaler SDX.
Vérifier le bon fonctionnement des composants de l’appliance MPX
- Accédez au port de la console et entrez les informations d’identification de l’administrateur.
-
Exécutez la commande suivante à partir de l’interface de ligne de commande de l’appliance pour afficher le numéro de série :
show hardware
. Vous aurez peut-être besoin du numéro de série pour vous connecter à l’appliance après la conversion.Exemple
> show hardware Platform: NSMPX-15000-50G 16\*CPU+128GB+4\*MLX(50)+8\*F1X+2\*E1K+2*2-CHIP COL 520400 Manufactured on: 9/13/2017 CPU: 2100MHZ Host Id: 1862303878 Serial no: 4VCX9CUFN6 Encoded serial no: 4VCX9CUFN6 Netscaler UUID: d9de2de3-dc89-11e7-ab53-00e0ed5de5aa BMC Revision: 5.56 Done <!--NeedCopy-->
Le numéro de série peut être utile lorsque vous souhaitez contacter le support technique de Citrix.
-
Exécutez la commande suivante pour afficher l’état des interfaces actives :
show interface
Exemple
> show interface 1) Interface 0/1 (Gig Ethernet 10/100/1000 MBits) #4 flags=0xc020 <ENABLED, UP, UP, autoneg, HAMON, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=0c:c4:7a:e5:3c:50, uptime 1h08m02s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 Actual: media UTP, speed 1000, duplex FULL, fctl OFF, throughput 1000 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(19446) Bytes(1797757) Errs(0) Drops(19096) Stalls(0) TX: Pkts(368) Bytes(75619) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. 2) Interface 0/2 (Gig Ethernet 10/100/1000 MBits) #5 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=0c:c4:7a:e5:3c:51, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. 3) Interface 10/1 (10G Ethernet) #6 flags=0x4000 <ENABLED, DOWN, down, autoneg, HAMON, HEARTBEAT, 802.1q> MTU=1500, native vlan=200, MAC=00:e0:ed:5d:e5:76, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 4) Interface 10/2 (10G Ethernet) #7 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=200, MAC=00:e0:ed:5d:e5:77, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 5) Interface 10/3 (10G Ethernet) #8 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:78, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 6) Interface 10/4 (10G Ethernet) #9 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:79, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 7) Interface 10/5 (10G Ethernet) #0 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:aa, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 8) Interface 10/6 (10G Ethernet) #1 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:ab, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 9) Interface 10/7 (10G Ethernet) #2 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:ac, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 10) Interface 10/8 (10G Ethernet) #3 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=00:e0:ed:5d:e5:ad, downtime 1h08m15s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. Rx Ring: Configured size=2048, Actual size=512, Type: Elastic 11) Interface 50/1 (50G Ethernet) #13 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=24:8a:07:a3:1f:84, downtime 1h08m22s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. 12) Interface 50/2 (50G Ethernet) #12 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=24:8a:07:a3:1f:6c, downtime 1h08m22s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. 13) Interface 50/3 (50G Ethernet) #11 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=24:8a:07:a3:1f:98, downtime 1h08m22s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. 14) Interface 50/4 (50G Ethernet) #10 flags=0x4000 <ENABLED, DOWN, down, autoneg, HEARTBEAT, 802.1q> MTU=1500, native vlan=1, MAC=24:8a:07:94:b9:b6, downtime 1h08m22s Requested: media AUTO, speed AUTO, duplex AUTO, fctl OFF, throughput 0 LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) TX: Pkts(0) Bytes(0) Errs(0) Drops(0) Stalls(0) NIC: InDisc(0) OutDisc(0) Fctls(0) Stalls(0) Hangs(0) Muted(0) Bandwidth thresholds are not set. 15) Interface LO/1 (Netscaler Loopback interface) #14 flags=0x20008020 <ENABLED, UP, UP> MTU=1500, native vlan=1, MAC=0c:c4:7a:e5:3c:50, uptime 1h08m18s LLDP Mode: NONE, LR Priority: 1024 RX: Pkts(5073645) Bytes(848299459) Errs(0) Drops(0) Stalls(0) TX: Pkts(9923625) Bytes(968741778) Errs(0) Drops(0) Stalls(0) Bandwidth thresholds are not set. Done <!--NeedCopy-->
-
Dans la sortie de la commande show interface, vérifiez que toutes les interfaces sont activées et que l’état de chaque interface est affiché comme UP/UP.
Remarques :
>\- L'état de l'interface est affiché en tant que UP/UP uniquement si les câbles sont connectés aux interfaces. >\- Si vous n'avez pas d'émetteur-récepteur SFP+ pour chaque port, vérifiez les interfaces par étapes. Après avoir vérifié le premier ensemble d'interfaces, débranchez les émetteurs-récepteurs SFP+ et branchez-les au jeu de ports suivant.
-
Exécutez la commande suivante pour chacune des interfaces qui ne sont pas dans l’état UP/UP :
> enable interface 50/1 Done > enable interface 50/2 Done > enable interface 50/3 Done > enable interface 50/4 Done <!--NeedCopy-->
Où x est le nouveau numéro d’interface
-
Exécutez la commande suivante pour vérifier que l’état des blocs d’alimentation est normal :
stat system –detail
Exemple
> stat system -detail NetScaler Executive View System Information: Up since Sat Dec 5 04:17:29 2020 Up since(Local) Sat Dec 5 04:17:29 2020 Memory usage (MB) 4836 InUse Memory (%) 4.08 Number of CPUs 13 System Health Statistics (Standard): CPU 0 Core Voltage (Volts) 1.80 CPU 1 Core Voltage (Volts) 1.80 Main 3.3 V Supply Voltage 3.35 Standby 3.3 V Supply Voltage 3.23 +5.0 V Supply Voltage 5.00 +12.0 V Supply Voltage 12.06 Battery Voltage (Volts) 3.02 Intel CPU Vtt Power(Volts) 0.00 5V Standby Voltage(Volts) 4.95 Voltage Sensor2(Volts) 0.00 CPU Fan 0 Speed (RPM) 3500 CPU Fan 1 Speed (RPM) 3600 System Fan Speed (RPM) 3600 System Fan 1 Speed (RPM) 3600 System Fan 2 Speed (RPM) 3500 CPU 0 Temperature (Celsius) 37 CPU 1 Temperature (Celsius) 47 Internal Temperature (Celsius) 26 Power supply 1 status NORMAL Power supply 2 status NORMAL Power supply 3 status NOT SUPPORTED Power supply 4 status NOT SUPPORTED System Disk Statistics: /flash Size (MB) 23801 /flash Used (MB) 7009 /flash Available (MB) 14887 /flash Used (%) 32 /var Size (MB) 341167 /var Used (MB) 56502 /var Available (MB) 257371 /var Used (%) 18 System Health Statistics(Auxiliary): Voltage 0 (Volts) 1.20 Voltage 1 (Volts) 1.20 Voltage 2 (Volts) 1.20 Voltage 3 (Volts) 1.20 Voltage 4 (Volts) 1.54 Voltage 5 (Volts) 0.00 Voltage 6 (Volts) 0.00 Voltage 7 (Volts) 0.00 Fan 0 Speed (RPM) 3600 Fan 1 Speed (RPM) 0 Fan 2 Speed (RPM) 0 Fan 3 Speed (RPM) 0 Temperature 0 (Celsius) 24 Temperature 1 (Celsius) 30 Temperature 2 (Celsius) 0 Temperature 3 (Celsius) 0 Done <!--NeedCopy-->
-
Exécutez la commande suivante pour générer un tar de données et de statistiques de configuration système :
show techsupport
Exemple
> show techsupport showtechsupport data collector tool - $Revision$! NetScaler version 13.0 The NS IP of this box is 10.217.206.43 This is not HA configuration Copying selected configuration files .... Running shell commands .... Running CLI show commands .... Collecting ns running configuration.... Collecting running gslb configuration.... Running CLI stat commands .... Running vtysh commands .... Copying newnslog files .... Copying core files from /var/core .... Copying core files from /var/crash .... Copying GSLB location database files .... Copying GSLB auto sync log files .... Copying Safenet Gateway log files .... Copying messages, ns.log, dmesg and other log files .... Creating archive .... /var/tmp/support/support.tgz ---- points to ---> /var/tmp/support/collector_P_10.217.206.43_5Dec2020_05_32.tar.gz showtechsupport script took 1 minute(s) and 17 second(s) to execute. Done <!--NeedCopy-->
- Remarque
-
la sortie de la commande est disponible dans le fichier /var/tmp/support/collector_<IP_address>_P_<date>.tar.gz. Copiez ce fichier sur un autre ordinateur pour référence ultérieure. La sortie de la commande peut être utile lorsque vous souhaitez contacter le support technique de Citrix.
-
À l’interface de ligne de commande, passez à l’invite shell. Type :
shell
Exemple
> shell Copyright (c) 1992-2013 The FreeBSD Project. Copyright (c) 1979, 1980, 1983, 1986, 1988, 1989, 1991, 1992, 1993, 1994 The Regents of the University of California. All rights reserved. root@ns# <!--NeedCopy-->
-
Exécutez la commande suivante pour vérifier le nombre de cartes Cavium disponibles en fonction de votre appliance :
root@ns# grep "memory" /var/nslog/dmesg.boot
Exemple
root@ns# grep "memory" /var/nslog/dmesg.boot real memory = 139586437120 (133120 MB) avail memory = 132710871040 (126562 MB) root@ns# <!--NeedCopy-->
-
Exécutez la commande suivante pour vérifier le nombre de cœurs CPU en fonction de votre appliance :
root@ns# grep "cpu" /var/nslog/dmesg.boot
Exemple
root@ns# grep "cpu" /var/nslog/dmesg.boot cpu0 (BSP): APIC ID: 0 cpu1 (AP): APIC ID: 2 cpu2 (AP): APIC ID: 4 cpu3 (AP): APIC ID: 6 cpu4 (AP): APIC ID: 8 cpu5 (AP): APIC ID: 10 cpu6 (AP): APIC ID: 12 cpu7 (AP): APIC ID: 14 cpu8 (AP): APIC ID: 16 cpu9 (AP): APIC ID: 18 cpu10 (AP): APIC ID: 20 cpu11 (AP): APIC ID: 22 cpu12 (AP): APIC ID: 24 cpu13 (AP): APIC ID: 26 cpu14 (AP): APIC ID: 28 cpu15 (AP): APIC ID: 30 cpu0: <ACPI CPU> on acpi0 cpu1: <ACPI CPU> on acpi0 cpu2: <ACPI CPU> on acpi0 cpu3: <ACPI CPU> on acpi0 cpu4: <ACPI CPU> on acpi0 cpu5: <ACPI CPU> on acpi0 cpu6: <ACPI CPU> on acpi0 cpu7: <ACPI CPU> on acpi0 cpu8: <ACPI CPU> on acpi0 cpu9: <ACPI CPU> on acpi0 cpu10: <ACPI CPU> on acpi0 cpu11: <ACPI CPU> on acpi0 cpu12: <ACPI CPU> on acpi0 cpu13: <ACPI CPU> on acpi0 cpu14: <ACPI CPU> on acpi0 cpu15: <ACPI CPU> on acpi0 est0: <Enhanced SpeedStep Frequency Control> on cpu0 p4tcc0: <CPU Frequency Thermal Control> on cpu0 est1: <Enhanced SpeedStep Frequency Control> on cpu1 p4tcc1: <CPU Frequency Thermal Control> on cpu1 est2: <Enhanced SpeedStep Frequency Control> on cpu2 p4tcc2: <CPU Frequency Thermal Control> on cpu2 est3: <Enhanced SpeedStep Frequency Control> on cpu3 p4tcc3: <CPU Frequency Thermal Control> on cpu3 est4: <Enhanced SpeedStep Frequency Control> on cpu4 p4tcc4: <CPU Frequency Thermal Control> on cpu4 est5: <Enhanced SpeedStep Frequency Control> on cpu5 p4tcc5: <CPU Frequency Thermal Control> on cpu5 est6: <Enhanced SpeedStep Frequency Control> on cpu6 p4tcc6: <CPU Frequency Thermal Control> on cpu6 est7: <Enhanced SpeedStep Frequency Control> on cpu7 p4tcc7: <CPU Frequency Thermal Control> on cpu7 est8: <Enhanced SpeedStep Frequency Control> on cpu8 p4tcc8: <CPU Frequency Thermal Control> on cpu8 est9: <Enhanced SpeedStep Frequency Control> on cpu9 p4tcc9: <CPU Frequency Thermal Control> on cpu9 est10: <Enhanced SpeedStep Frequency Control> on cpu10 p4tcc10: <CPU Frequency Thermal Control> on cpu10 est11: <Enhanced SpeedStep Frequency Control> on cpu11 p4tcc11: <CPU Frequency Thermal Control> on cpu11 est12: <Enhanced SpeedStep Frequency Control> on cpu12 p4tcc12: <CPU Frequency Thermal Control> on cpu12 est13: <Enhanced SpeedStep Frequency Control> on cpu13 p4tcc13: <CPU Frequency Thermal Control> on cpu13 est14: <Enhanced SpeedStep Frequency Control> on cpu14 p4tcc14: <CPU Frequency Thermal Control> on cpu14 est15: <Enhanced SpeedStep Frequency Control> on cpu15 p4tcc15: <CPU Frequency Thermal Control> on cpu15 root@ns# <!--NeedCopy-->
-
Exécutez la commande suivante pour vérifier que le lecteur /var est monté en tant que
/dev/ ar0s1a: root@ns# df –h
Exemple
root@ns# df -h Filesystem Size Used Avail Capacity Mounted on /dev/md0 422M 404M 9.1M 98% / devfs 1.0k 1.0k 0B 100% /dev procfs 4.0k 4.0k 0B 100% /proc /dev/ar0s1a 23G 6.9G 14G 32% /flash /dev/ar0s1e 333G 32G 274G 10% /var root@ns# <!--NeedCopy-->
-
Tapez la commande suivante pour exécuter le script ns_hw_err.bash, qui vérifie les erreurs matérielles latentes : root @ns
# ns_hw_err.bash
Exemple
root@ns# ns_hw_err.bash NetScaler NS13.0: Build 71.3602.nc, Date: Nov 12 2020, 07:26:41 (64-bit) platform: serial 4VCX9CUFN6 platform: sysid 520400 - NSMPX-15000-50G 16\*CPU+128GB+4\*MLX(50)+8\*F1X+2\*E1K+2*2-CHIP COL 8955 HDD MODEL: ar0: 434992MB <Intel MatrixRAID RAID1> status: READY Generating the list of newnslog files to be processed... Generating the events from newnslog files... Checking for HDD errors... Checking for HDD SMART errors... Checking for Flash errors... Checking for Mega Raid Controller errors... Checking for SSL errors... Dec 5 06:00:31 <daemon.err> ns monit[996]: 'safenet_gw' process is not running Checking for BIOS errors... Checking for SMB errors... Checking for MotherBoard errors... Checking for CMOS errors... License year: 2020: OK Checking for SFP/NIC errors... Dec 5 06:02:32 <daemon.err> ns monit[996]: 'safenet_gw' process is not running Checking for Firmware errors... Checking for License errors... Checking for Undetected CPUs... Checking for DIMM flaps... Checking for Memory Channel errors... Checking for LOM errors... Checking the Power Supply Errors... Checking for Hardware Clock errors... Script Done. root@ns# <!--NeedCopy-->
-
Important : déconnectez physiquement du réseau tous les ports à l’exception du port LOM, y compris le port de gestion.
-
À l’invite de l’interpréteur de commandes, passez à la ligne de commande ADC. Type : sortie
Exemple
root@ns# exit logout Done <!--NeedCopy-->
-
Exécutez la commande suivante pour arrêter l’appliance. On vous demande si vous voulez arrêter complètement l’ADC. Type :
shutdown -p now
Exemple
> shutdown -p now Are you sure you want to completely stop NetScaler (Y/N)? [N]:y Done > Dec 5 06:09:11 <auth.notice> ns shutdown: power-down by root: Dec 5 06:09:13 <auth.emerg> ns init: Rebooting via init mechanism Dec 5 06:09:13 <syslog.err> ns syslogd: exiting on signal 15 Dec 5 06:09:13 aslearn[1662]: before pthread_join(), task name: Aslearn_Packet_Loop_Task Dec 5 06:09:15 aslearn[1662]: Exiting function ns_do_logging Dec 5 06:09:15 aslearn[1662]: before pthread_join(), task name: Aslearn_WAL_Cleanup_Task Dec 5 06:09:15 aslearn[1662]: before pthread_join(), task name: Aslearn_HA_Primary_Task Dec 5 06:09:15 aslearn[1662]: 1662 exiting gracefully Dec 5 06:09:18 [1672]: nsnet_tcpipconnect: connect() failed; returned -1 errno=61 qat0: qat_dev0 stopped 12 acceleration engines pci4: Resetting device qat1: qat_dev1 stopped 12 acceleration engines pci6: Resetting device qat2: qat_dev2 stopped 12 acceleration engines pci132: Resetting device qat3: qat_dev3 stopped 12 acceleration engines pci134: Resetting device Dec 5 06:09:33 init: some processes would not die; ps axl advised reboot initiated by init with parent kernel Waiting (max 60 seconds) for system process `vnlru' to stop...done Waiting (max 60 seconds) for system process `bufdaemon' to stop...done Waiting (max 60 seconds) for system process `syncer' to stop... Syncing disks, vnodes remaining...0 0 0 done All buffers synced. Uptime: 1h53m18s ixl_shutdown: lldp start 0 ixl_shutdown: lldp start 0 ixl_shutdown: lldp start 0 ixl_shutdown: lldp start 0 usbus0: Controller shutdown uhub0: at usbus0, port 1, addr 1 (disconnected) usbus0: Controller shutdown complete usbus1: Controller shutdown uhub1: at usbus1, port 1, addr 1 (disconnected) ugen1.2: <vendor 0x8087> at usbus1 (disconnected) uhub3: at uhub1, port 1, addr 2 (disconnected) ugen1.3: <FTDI> at usbus1 (disconnected) uftdi0: at uhub3, port 1, addr 3 (disconnected) ugen1.4: <vendor 0x1005> at usbus1 (disconnected) umass0: at uhub3, port 3, addr 4 (disconnected) (da0:umass-sim0:0:0:0): lost device - 0 outstanding, 0 refs (da0:umass-sim0:0:0:0): removing device entry usbus1: Controller shutdown complete usbus2: Controller shutdown uhub2: at usbus2, port 1, addr 1 (disconnected) ugen2.2: <vendor 0x8087> at usbus2 (disconnected) uhub4: at uhub2, port 1, addr 2 (disconnected) ugen2.3: <vendor 0x0557> at usbus2 (disconnected) uhub5: at uhub4, port 7, addr 3 (disconnected) ugen2.4: <vendor 0x0557> at usbus2 (disconnected) ukbd0: at uhub5, port 1, addr 4 (disconnected) ums0: at uhub5, port 1, addr 4 (disconnected) usbus2: Controller shutdown complete ixl_shutdown: lldp start 0 ixl_shutdown: lldp start 0 ixl_shutdown: lldp start 0 ixl_shutdown: lldp start 0 acpi0: Powering system off <!--NeedCopy-->
Mettre à niveau l’appliance
Pour mettre à niveau l’appliance, procédez comme suit :
- Mettez hors tension l’appliance ADC.
-
Localisez deux disques SSD (SSD) à l’arrière de l’appliance dans l’emplacement #1 et l’emplacement #2, comme illustré dans la figure suivante :
-
Vérifiez que les disques SSD (SSD) de remplacement sont ceux requis pour votre modèle ADC. La conversion nécessite au minimum quatre SSD. L’étiquette NetScaler se trouve sur le dessus de l’un des SSD. Le SSD est pré-rempli avec une nouvelle version du BIOS et une version récente du service de gestion NetScaler SDX requis. Ce SSD doit être installé dans l’emplacement # 1.
-
Retirez les disques SSD en poussant le loquet de sécurité du capot du lecteur vers le bas tout en tirant la poignée du lecteur.
-
Sur le nouveau disque SSD certifié NetScaler, ouvrez complètement la poignée du lecteur vers la gauche. Insérez ensuite le nouveau lecteur dans la fente #1 autant que possible.
-
Pour asseoir le lecteur, fermez la poignée à l’arrière de l’appareil afin que le lecteur se verrouille solidement dans la fente.
Important : L’orientation du SSD est importante. Lorsque vous insérez le lecteur, assurez-vous que l’étiquette du produit NetScaler se trouve sur le côté.
-
Insérez un deuxième SSD certifié NetScaler, dont la capacité correspond à celle du SSD de l’emplacement #1, dans l’emplacement no 2.
Remarque : Si la licence de votre appliance est 14040 40G, 14060 40G, 14080 40G, insérez d’autres SSD vierges certifiés NetScaler dans les emplacements #3, #4, #5 et #6.
|—|—|—|—|—| | Modèle NetScaler SDX | Instances virtuelles incluses | Plateforme maximale | SSD inclus dans le modèle de base|SSD supplémentaires pour un maximum d’instances | | SDX 15020/SDX 15020-50G| 5 | 55 | Deux disques SSD à démarrage amovible (SSD) de 240 Go (emplacements 1 et 2) supportés par RAID. Deux référentiels de stockage amovibles de 240 Go pris en charge par RAID (emplacements 3 et 4 appariés) SSD, et quatre référentiels de stockage de 480 Go (emplacements 5 à 6 couplés et 7 à 8 paires). | NA | | SDX 15030/SDX 15030-50G | 20 | 55| Deux disques SSD (SSD) amovibles (emplacements 1 et 2) pris en charge par RAID de 240 Go. Deux référentiels de stockage amovibles de 240 Go pris en charge par RAID (emplacements 3 et 4 appariés) SSD, et quatre référentiels de stockage de 480 Go (emplacements 5 à 6 appariés et 7 à 8 paires) SSD. | NA |
Important
Le mixage et la correspondance des anciens et nouveaux SSD ne sont pas pris en charge. Les SSD dans l’emplacement #1 et le slot #2, qui constituent la première paire RAID (stockage local), doivent être de la même taille et du même type. De même, les SSD dans l’emplacement #3 et le slot #4, qui constituent la deuxième paire RAID (stockage VPX), doivent être de la même taille et du même type. Utilisez uniquement les lecteurs qui font partie du kit de conversion fourni.
-
Déconnectez tous les câbles réseau des ports de données et des ports de gestion.
-
Démarrez l’appliance ADC. Pour obtenir des instructions, reportez-vous à la section « Mise sous tension de l’appliance » dans Installation du matériel.
Le processus de conversion peut s’exécuter pendant environ 30 minutes, pendant lesquelles vous ne devez pas mettre l’appliance sous tension. L’ensemble du processus de conversion peut ne pas être visible sur la console et peut sembler ne pas répondre.
Le processus de conversion met à jour le BIOS, installe Citrix Hypervisor et le système d’exploitation Management Service. Il copie également l’image NetScaler VPX sur le SSD pour le provisionnement des instances et forme la paire Raid1.
Remarque : Le numéro de série de l’appliance reste le même.
-
Gardez le câble de la console connecté pendant le processus de conversion. Autorisez le processus à terminer, à quel moment l’invite de connexion SDX : apparaît.
-
Pendant le processus de conversion, la connexion au port LOM peut être perdue car elle réinitialise l’adresse IP à la valeur par défaut 192.168.1.3. La sortie de l’état de conversion est disponible sur le moniteur VGA.
-
Les informations d’identification par défaut de Citrix Hypervisor sont changées en root/nsroot après la conversion de l’appliance d’un MPX vers SDX. Si ce mot de passe ne fonctionne pas, essayez de taper nsroot/le numéro de série de l’appliance. Le code à barres du numéro de série est disponible à l’arrière de l’appliance et est également disponible dans la sortie de la
show hardware
commande. - Pour vous assurer que la conversion est réussie, vérifiez que le résultat FVT indique un succès. Exécutez la commande suivante : tail /var/log/fvt/fvt.log
Reconfigurer l’appliance convertie
Après le processus de conversion, l’appliance n’a plus sa configuration de travail précédente. Par conséquent, vous pouvez accéder à l’appliance via un navigateur Web uniquement en utilisant l’adresse IP par défaut : 192.168.100.1/16. Configurez un ordinateur sur le réseau 192.168.0.0 et connectez-le directement au port de gestion de l’appliance (0/1) à l’aide d’un câble Ethernet croisé. Vous pouvez également accéder à l’appliance NetScaler SDX via un hub réseau à l’aide d’un câble Ethernet direct. Utilisez les informations d’identification par défaut pour ouvrir une session, puis procédez comme suit :
- Sélectionnez l’onglet Configuration.
- Vérifiez que la section Ressource système affiche le nombre exact de cœurs CPU, de cœurs SSL et de la mémoire totale de votre appliance NetScaler SDX.
- Sélectionnez le nœud Système et, sous Configurer le dispositif, cliquez sur Configuration réseau pour modifier les informations réseau du service de gestion.
- Dans la boîte de dialogue Modifier la configuration réseau, spécifiez les détails suivants :
- Interface* : interface par laquelle les clients se connectent au service de gestion. Valeurs possibles : 0/1, 0/2. Valeur par défaut : 0/1.
- Adresse IP Citrix Hypervisor * : adresse IP de Citrix Hypervisor.
- Adresse IP du service de gestion* : adresse IP du service de gestion.
- Netmask* : masque de sous-réseau du sous-réseau dans lequel se trouve l’appliance SDX.
- Gateway* : passerelle par défaut pour le réseau.
- Serveur DNS—Adresse IP du serveur DNS.
*Un paramètre obligatoire
-
Cliquez sur OK. La connexion au service de gestion est perdue lorsque les informations réseau ont été modifiées.
-
Connectez le port de gestion 0/1 de l’appliance NetScaler SDX à un commutateur pour y accéder via le réseau. Accédez à l’adresse IP utilisée précédemment et ouvrez une session avec les informations d’identification par défaut.
-
Appliquez les nouvelles licences. Pour obtenir des instructions, consultez la section Présentation des licences SDX.
- Accédez à Configuration > Système et, dans le groupe Administration système, cliquez sur Redémarrer le matériel. Cliquez sur Oui pour confirmer votre choix. Vous êtes maintenant prêt à provisionner les instances VPX sur l’appliance NetScaler SDX. Pour obtenir des instructions, reportez-vous à la section Provisioning d’instances NetScaler.