-
Bereitstellen einer NetScaler VPX- Instanz
-
Optimieren der Leistung von NetScaler VPX auf VMware ESX, Linux KVM und Citrix Hypervisors
-
NetScaler VPX-Konfigurationen beim ersten Start der NetScaler-Appliance in der Cloud anwenden
-
Verbessern der SSL-TPS-Leistung auf Public-Cloud-Plattformen
-
Gleichzeitiges Multithreading für NetScaler VPX in öffentlichen Clouds konfigurieren
-
Installieren einer NetScaler VPX Instanz auf einem Bare-Metal-Server
-
Installieren einer NetScaler VPX-Instanz auf Citrix Hypervisor
-
Installieren einer NetScaler VPX-Instanz in der VMware Cloud auf AWS
-
Installieren einer NetScaler VPX-Instanz auf Microsoft Hyper-V-Servern
-
Installieren einer NetScaler VPX-Instanz auf der Linux-KVM-Plattform
-
Voraussetzungen für die Installation virtueller NetScaler VPX-Appliances auf der Linux-KVM-Plattform
-
Provisioning der virtuellen NetScaler-Appliance mit OpenStack
-
Provisioning der virtuellen NetScaler-Appliance mit Virtual Machine Manager
-
Konfigurieren virtueller NetScaler-Appliances für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Provisioning der virtuellen NetScaler-Appliance mit dem virsh-Programm
-
Provisioning der virtuellen NetScaler-Appliance mit SR-IOV auf OpenStack
-
-
Bereitstellen einer NetScaler VPX-Instanz auf AWS
-
Bereitstellen einer eigenständigen NetScaler VPX-Instanz auf AWS
-
Bereitstellen eines VPX-HA-Paar in derselben AWS-Verfügbarkeitszone
-
Bereitstellen eines VPX Hochverfügbarkeitspaars mit privaten IP-Adressen in verschiedenen AWS-Zonen
-
Schützen von AWS API Gateway mit NetScaler Web Application Firewall
-
Konfigurieren einer NetScaler VPX-Instanz für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Konfigurieren einer NetScaler VPX-Instanz für die Verwendung von Enhanced Networking mit AWS ENA
-
Bereitstellen einer NetScaler VPX Instanz unter Microsoft Azure
-
Netzwerkarchitektur für NetScaler VPX-Instanzen auf Microsoft Azure
-
Mehrere IP-Adressen für eine eigenständige NetScaler VPX-Instanz konfigurieren
-
Hochverfügbarkeitssetup mit mehreren IP-Adressen und NICs konfigurieren
-
Hochverfügbarkeitssetup mit mehreren IP-Adressen und NICs über PowerShell-Befehle konfigurieren
-
NetScaler-Hochverfügbarkeitspaar auf Azure mit ALB im Floating IP-Deaktiviert-Modus bereitstellen
-
Konfigurieren Sie eine NetScaler VPX-Instanz für die Verwendung von Azure Accelerated Networking
-
Konfigurieren Sie HA-INC-Knoten mithilfe der NetScaler-Hochverfügbarkeitsvorlage mit Azure ILB
-
NetScaler VPX-Instanz auf der Azure VMware-Lösung installieren
-
Eigenständige NetScaler VPX-Instanz auf der Azure VMware-Lösung konfigurieren
-
NetScaler VPX-Hochverfügbarkeitssetups auf Azure VMware-Lösung konfigurieren
-
Konfigurieren von GSLB in einem Active-Standby-Hochverfügbarkeitssetup
-
Konfigurieren von Adresspools (IIP) für eine NetScaler Gateway Appliance
-
NetScaler VPX-Instanz auf der Google Cloud Platform bereitstellen
-
Bereitstellen eines VPX-Hochverfügbarkeitspaars auf der Google Cloud Platform
-
VPX-Hochverfügbarkeitspaars mit privaten IP-Adressen auf der Google Cloud Platform bereitstellen
-
NetScaler VPX-Instanz auf Google Cloud VMware Engine bereitstellen
-
Unterstützung für VIP-Skalierung für NetScaler VPX-Instanz auf GCP
-
-
Bereitstellung und Konfigurationen von NetScaler automatisieren
-
Lösungen für Telekommunikationsdienstleister
-
Authentifizierung, Autorisierung und Überwachung des Anwendungsverkehrs
-
Wie Authentifizierung, Autorisierung und Auditing funktionieren
-
Grundkomponenten der Authentifizierung, Autorisierung und Audit-Konfiguration
-
Web Application Firewall-Schutz für virtuelle VPN-Server und virtuelle Authentifizierungsserver
-
Lokales NetScaler Gateway als Identitätsanbieter für Citrix Cloud
-
Authentifizierungs-, Autorisierungs- und Überwachungskonfiguration für häufig verwendete Protokolle
-
-
-
-
Konfigurieren von erweiterten Richtlinienausdrücken: Erste Schritte
-
Erweiterte Richtlinienausdrücke: Arbeiten mit Datumsangaben, Zeiten und Zahlen
-
Erweiterte Richtlinienausdrücke: Analysieren von HTTP-, TCP- und UDP-Daten
-
Erweiterte Richtlinienausdrücke: Analysieren von SSL-Zertifikaten
-
Erweiterte Richtlinienausdrücke: IP- und MAC-Adressen, Durchsatz, VLAN-IDs
-
Erweiterte Richtlinienausdrücke: Stream-Analytics-Funktionen
-
Zusammenfassende Beispiele für erweiterte Richtlinienausdrücke
-
-
-
-
-
-
-
Verwalten eines virtuellen Cache-Umleitungsservers
-
Statistiken für virtuelle Server zur Cache-Umleitung anzeigen
-
Aktivieren oder Deaktivieren eines virtuellen Cache-Umleitungsservers
-
Direkte Richtlinieneinschläge auf den Cache anstelle des Ursprungs
-
Verwalten von Clientverbindungen für einen virtuellen Server
-
Externe TCP-Integritätsprüfung für virtuelle UDP-Server aktivieren
-
-
Übersetzen die Ziel-IP-Adresse einer Anfrage in die Ursprungs-IP-Adresse
-
-
Verwalten des NetScaler Clusters
-
Knotengruppen für gepunktete und teilweise gestreifte Konfigurationen
-
Entfernen eines Knotens aus einem Cluster, der mit Cluster-Link-Aggregation bereitgestellt wird
-
Überwachen von Fehlern bei der Befehlsausbreitung in einer Clusterbereitstellung
-
VRRP-Interface-Bindung in einem aktiven Cluster mit einem einzigen Knoten
-
-
Konfigurieren von NetScaler als nicht-validierenden sicherheitsbewussten Stub-Resolver
-
Jumbo-Frames Unterstützung für DNS zur Handhabung von Reaktionen großer Größen
-
Zwischenspeichern von EDNS0-Client-Subnetzdaten bei einer NetScaler-Appliance im Proxymodus
-
-
GSLB-Entitäten einzeln konfigurieren
-
Anwendungsfall: Bereitstellung einer Domänennamen-basierten Autoscale-Dienstgruppe
-
Anwendungsfall: Bereitstellung einer IP-Adressbasierten Autoscale-Dienstgruppe
-
-
-
IP-Adresse und Port eines virtuellen Servers in den Request-Header einfügen
-
Angegebene Quell-IP für die Back-End-Kommunikation verwenden
-
Quellport aus einem bestimmten Portbereich für die Back-End-Kommunikation verwenden
-
Quell-IP-Persistenz für Back-End-Kommunikation konfigurieren
-
Lokale IPv6-Linkadressen auf der Serverseite eines Load Balancing-Setups
-
Erweiterte Load Balancing-Einstellungen
-
Allmählich die Belastung eines neuen Dienstes mit virtuellem Server-Level erhöhen
-
Anwendungen vor Verkehrsspitzen auf geschützten Servern schützen
-
Bereinigung von virtuellen Server- und Dienstverbindungen ermöglichen
-
Ordnungsgemäßes Herunterfahren von Diensten
-
Persistenzsitzung auf TROFS-Diensten aktivieren oder deaktivieren
-
Externe TCP-Integritätsprüfung für virtuelle UDP-Server aktivieren
-
Standortdetails von der Benutzer-IP-Adresse mit der Geolocation-Datenbank abrufen
-
Quell-IP-Adresse des Clients beim Verbinden mit dem Server verwenden
-
Limit für die Anzahl der Anfragen pro Verbindung zum Server festlegen
-
Festlegen eines Schwellenwerts für die an einen Dienst gebundenen Monitore
-
Grenzwert für die Bandbreitenauslastung durch Clients festlegen
-
-
-
Lastausgleichs für häufig verwendete Protokolle konfigurieren
-
Anwendungsfall 5: DSR-Modus beim Verwenden von TOS konfigurieren
-
Anwendungsfall 6: Lastausgleich im DSR-Modus für IPv6-Netzwerke mit dem TOS-Feld konfigurieren
-
Anwendungsfall 7: Konfiguration des Lastenausgleichs im DSR-Modus mithilfe von IP Over IP
-
Anwendungsfall 8: Lastausgleich im Einarmmodus konfigurieren
-
Anwendungsfall 9: Lastausgleich im Inlinemodus konfigurieren
-
Anwendungsfall 10: Lastausgleich von Intrusion-Detection-System-Servern
-
Anwendungsfall 11: Netzwerkverkehr mit Listenrichtlinien isolieren
-
Anwendungsfall 12: Citrix Virtual Desktops für den Lastausgleich konfigurieren
-
Anwendungsfall 13: Konfiguration von Citrix Virtual Apps and Desktops für den Lastausgleich
-
Anwendungsfall 14: ShareFile-Assistent zum Lastausgleich Citrix ShareFile
-
Anwendungsfall 15: Konfiguration des Layer-4-Lastenausgleichs auf der NetScaler Appliance
-
SSL-Offload und Beschleunigung
-
Unterstützung des TLSv1.3-Protokolls wie in RFC 8446 definiert
-
Unterstützungsmatrix für Serverzertifikate auf der ADC-Appliance
-
Unterstützung für Intel Coleto SSL-Chip-basierte Plattformen
-
Unterstützung für Thales Luna Network Hardwaresicherheitsmodul
-
-
-
CloudBridge Connector-Tunnels zwischen zwei Rechenzentren konfigurieren
-
CloudBridge Connector zwischen Datacenter und AWS Cloud konfigurieren
-
CloudBridge Connector Tunnels zwischen einem Rechenzentrum und Azure Cloud konfigurieren
-
CloudBridge Connector Tunnels zwischen Datacenter und SoftLayer Enterprise Cloud konfigurieren
-
-
Konfigurationsdateien in einem Hochverfügbarkeitssetup synchronisieren
-
Hochverfügbarkeitsknoten in verschiedenen Subnetzen konfigurieren
-
Beschränken von Failovers, die durch Routenmonitore im Nicht-INC-Modus verursacht werden
-
HA-Heartbeat-Meldungen auf einer NetScaler-Appliance verwalten
-
NetScaler in einem Hochverfügbarkeitssetup entfernen und ersetzen
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已经过机器动态翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
이 콘텐츠는 동적으로 기계 번역되었습니다. 책임 부인
Este texto foi traduzido automaticamente. (Aviso legal)
Questo contenuto è stato tradotto dinamicamente con traduzione automatica.(Esclusione di responsabilità))
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.책임 부인
Este artigo foi traduzido automaticamente.(Aviso legal)
这篇文章已经过机器翻译.放弃
Questo articolo è stato tradotto automaticamente.(Esclusione di responsabilità))
Translation failed!
Ordnungsgemäßes Herunterfahren von Diensten
Bei geplanten Netzwerkausfällen wie Systemupgrades oder Hardwarewartungen müssen Sie möglicherweise einige Dienste schließen oder deaktivieren. Sie können den Dienst später aktivieren, indem Sie den Befehl “enable service <name>
verwenden.
Um zu vermeiden, dass bestehende Sitzungen unterbrochen werden, können Sie einen Dienst in den Status Transition Out of Service (TROFS) versetzen, indem Sie einen der folgenden Schritte ausführen:
- Hinzufügen eines TROFS-Codes oder einer Zeichenfolge zum Monitor — Konfigurieren Sie den Server so, dass er als Antwort an eine Monitorsonde einen bestimmten Code oder eine bestimmte Zeichenfolge sendet.
- Deaktiviere den Dienst explizit und:
- Stellen Sie eine Verzögerung (in Sekunden) ein.
- Aktivieren Sie das ordnungsgemäße Herunterfahren.
Hinzufügen eines TROFS-Codes oder einer Zeichenfolge
Wenn Sie nur einen Monitor an einen Dienst binden und der Monitor TROFS-fähig ist, kann er den Dienst auf der Grundlage der Antwort des Servers auf eine Monitorprobe in den TROFS-Status versetzen. Diese Antwort wird mit dem Wert im trofsCode-Parameter für einen HTTP-Monitor oder dem trofsString-Parameter für einen HTTP-ECV- oder TCP-ECV-Monitor verglichen. Wenn der Code übereinstimmt, wird der Dienst in den TROFS-Status versetzt. In diesem Zustand werden die persistenten Verbindungen weiterhin berücksichtigt.
Wenn mehrere Monitore an einen Dienst gebunden sind, wird der effektive Status des Dienstes auf der Grundlage des Status aller Monitore berechnet, die an den Dienst gebunden sind. Nach Erhalt einer TROFS-Antwort wird der Status des TROFS-fähigen Monitors für die Zwecke dieser Berechnung als UP angesehen. Weitere Informationen darüber, wie eine NetScaler Appliance einen Dienst als UP bezeichnet, finden Sie unter Festlegen eines Schwellenwerts für die an einen Dienst gebundenen Monitore.
Wichtig:
- Sie können mehrere Monitore an einen Dienst binden, dürfen jedoch nicht mehr als einen von ihnen TROFS-fähig machen.
- Sie können einen TROFS-fähigen Monitor in einen Monitor konvertieren, der nicht TROFS-fähig ist, aber nicht umgekehrt.
So konfigurieren Sie einen TROFS-Code oder eine Zeichenfolge in einem Monitor mithilfe der Befehlszeilenschnittstelle
Geben Sie an der Eingabeaufforderung einen der folgenden Befehle ein:
add lb monitor <monitor-name> HTTP -trofsCode <respcode>
add lb monitor <monitor-name> HTTP-ECV -trofsString <resp string>
add lb monitor <monitor-name> TCP-ECV -trofsString <resp string>
<!--NeedCopy-->
So ändern Sie den TROFS-Code oder die TROFS-Zeichenfolge mithilfe der Befehlszeilenschnittstelle
Geben Sie an der Eingabeaufforderung einen der folgenden Befehle ein:
set lb monitor <trofs monitorname> HTTP -trofscode <newcode>
set lb monitor <trofs monitorname> HTTP-ECV -trofsstring <new string>
set lb monitor <trofs monitorname> TCP-ECV -trofsstring <new string>
<!--NeedCopy-->
Hinweis: Sie können den Befehl set nur verwenden, wenn zuvor ein TROFS-fähiger Monitor hinzugefügt wurde. Sie können diesen Befehl nicht verwenden, um den TROFS-Code oder die TROFS-Zeichenfolge für einen Monitor festzulegen, der nicht TROFS-fähig ist.
So konfigurieren Sie einen TROFS-Code oder eine TROFS-Zeichenfolge in einem Monitor mithilfe des Konfigurationsprogramms
- Navigieren Sie zu Traffic Management > Load Balancing > Monitore.
- Klicken Sie im Bereich Monitore auf Hinzufügen und führen Sie einen der folgenden Schritte aus:
- Wählen Sie Typ als HTTP aus und geben Sie einen TROFS-Code an.
- Wählen Sie Typ als HTTP-ECV oder TCP-ECV aus, und geben Sie einen TROFS-String an.
Deaktivierung eines Dienstes
Oft können Sie jedoch nicht abschätzen, wie viel Zeit alle Verbindungen zu einem Dienst benötigen, um die bestehenden Transaktionen abzuschließen. Wenn eine Transaktion nach Ablauf der Wartezeit noch nicht abgeschlossen ist, kann das Herunterfahren des Dienstes zu Datenverlust führen. In diesem Fall können Sie das ordnungsgemäße Herunterfahren des Dienstes festlegen, sodass der Dienst nur deaktiviert wird, wenn alle aktuellen aktiven Client-Verbindungen entweder vom Server oder vom Client geschlossen werden. In der folgenden Tabelle finden Sie Informationen zum Verhalten, wenn Sie zusätzlich zum ordnungsgemäßen Herunterfahren eine Wartezeit angeben.
Die Persistenz wird gemäß der angegebenen Methode aufrechterhalten, auch wenn Sie das ordnungsgemäße Herunterfahren aktivieren. Das System bedient weiterhin alle persistenten Clients, einschließlich neuer Verbindungen von den Clients, es sei denn, der Dienst wird während des ordnungsgemäßen Herunterfahrens als Ergebnis der von einem Monitor durchgeführten Prüfungen auf DOWN markiert.
In der folgenden Tabelle werden die Optionen zum ordnungsmäßigen Herunterfahren beschrieben.
Status | Ergebnisse |
---|---|
Das ordnungsgemäße Herunterfahren ist aktiviert und eine Wartezeit ist angegeben. | Der Dienst wird beendet, nachdem die letzte der aktuell aktiven Client-Verbindungen bedient wurde, auch wenn die Wartezeit noch nicht abgelaufen ist. Die Appliance überprüft den Status der Verbindungen einmal pro Sekunde. Wenn die Wartezeit abläuft, werden alle offenen Sitzungen geschlossen. |
Das ordnungsgemäße Herunterfahren ist deaktiviert und eine Wartezeit ist angegeben. | Der Dienst wird erst nach Ablauf der Wartezeit heruntergefahren, auch wenn alle hergestellten Verbindungen vor Ablauf bedient werden. |
Das ordnungsgemäße Herunterfahren ist aktiviert und es wurde keine Wartezeit angegeben. | Der Dienst wird erst beendet, nachdem die letzte der zuvor hergestellten Verbindungen bedient wurde, unabhängig von der Zeit, die für die Bereitstellung der letzten Verbindung benötigt wurde. |
Das ordnungsgemäße Herunterfahren ist deaktiviert und es wurde keine Wartezeit angegeben. | Kein anmutiges Herunterfahren. Der Dienst wird sofort beendet, nachdem die Deaktivierungsoption ausgewählt oder der Befehl zum Deaktivieren ausgegeben wurde. (Die Standardwartezeit beträgt Null Sekunden.) |
Um vorhandene Verbindungen zu beenden, wenn ein Dienst oder ein virtueller Server als DOWN markiert ist, können Sie die Option Down-State-Flush verwenden. Weitere Informationen finden Sie unter Bereinigung virtueller Serververbindungen aktivieren.
So konfigurieren Sie ein ordnungsgemäßes Herunterfahren für einen Dienst mit der Befehlszeilenschnittstelle
Geben Sie an der Befehlszeile die folgenden Befehle ein, um einen Dienst ordnungsgemäß herunterzufahren und die Konfiguration zu überprüfen:
disable service <name> [<delay>] [-graceFul (YES|NO)]
show service <name>
<!--NeedCopy-->
Beispiel:
> disable service svc1 6000 -graceFul YES
Done
>show service svc1
svc1 (10.102.80.41:80) - HTTP
State: GOING OUT OF SERVICE (Graceful, Out Of Service in 5998 seconds)
Last state change was at Mon Nov 15 22:44:15 2010
Time since last state change: 0 days, 00:00:01.160
...
Down state flush: ENABLED
1 bound monitor:
1) Monitor Name: tcp-default
State: UP Weight: 1
Probes: 13898 Failed [Total: 0 Current: 0]
Last response: Probe skipped - live traffic to service.
Response Time: N/A
Done
>show service svc1
svc1 (10.102.80.41:80) - HTTP
State: OUT OF SERVICE
Last state change was at Mon Nov 15 22:44:19 2010
Time since last state change: 0 days, 00:00:03.250
Down state flush: ENABLED
1 bound monitor:
1) Monitor Name: tcp-default
State: UNKNOWN Weight: 1
Probes: 13898 Failed [Total: 0 Current: 0]
Last response: Probe skipped - service state OFS.
Response Time: N/A
Done
<!--NeedCopy-->
So konfigurieren Sie das ordnungsgemäße Herunterfahren eines Dienstes mithilfe des Konfigurationsprogramms
- Navigieren Sie zu Traffic Management > Load Balancing > Services.
- Öffnen Sie den Dienst und klicken Sie in der Aktionsliste auf Deaktivieren. Geben Sie eine Wartezeit ein und wählen Sie Graceful aus.
Teilen
Teilen
In diesem Artikel
This Preview product documentation is Cloud Software Group Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Cloud Software Group Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Cloud Software Group product purchase decisions.
If you do not agree, select I DO NOT AGREE to exit.