-
Déployer une instance de Citrix ADC VPX sur AWS
-
Optimisation des performances Citrix ADC VPX sur VMware ESX, Linux KVM et Citrix Hypervisors
-
Installer une instance Citrix ADC VPX sur le cloud VMware sur AWS
-
Installer une instance Citrix ADC VPX sur les serveurs Microsoft Hyper-V
-
Installer une instance Citrix ADC VPX sur la plate-forme Linux-KVM
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide d'OpenStack
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide du gestionnaire de machines virtuelles
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau SR-IOV
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau PCI Passthrough
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide du programme virsh
-
Provisionnement de l'appliance virtuelle Citrix ADC avec SR-IOV, sur OpenStack
-
Configuration d'une instance Citrix ADC VPX sur KVM pour utiliser les interfaces hôtes OVS DPDK
-
Deploy a Citrix ADC VPX instance on AWS
-
Serveurs d'équilibrage de charge dans différentes zones de disponibilité
-
Déployer une paire HA VPX dans la même zone de disponibilité AWS
-
Haute disponibilité dans différentes zones de disponibilité AWS
-
Déployez une paire VPX haute disponibilité avec des adresses IP privées dans différentes zones AWS
-
Configurer une instance Citrix ADC VPX pour utiliser l'interface réseau SR-IOV
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau améliorée avec AWS ENA
-
Déployer une instance de Citrix ADC VPX sur Microsoft Azure
-
Architecture réseau pour les instances Citrix ADC VPX sur Microsoft Azure
-
Configurer plusieurs adresses IP pour une instance autonome Citrix ADC VPX
-
Configurer une configuration haute disponibilité avec plusieurs adresses IP et cartes réseau
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau accélérée Azure
-
Configurer les nœuds HA-INC à l'aide du modèle Citrix haute disponibilité avec Azure ILB
-
Installer une instance Citrix ADC VPX sur la solution Azure VMware
-
Ajouter des paramètres de mise à l'échelle automatique Azure
-
Configurer GSLB sur une configuration haute disponibilité active en veille
-
Configurer les pools d'adresses (IIP) pour un dispositif NetScaler Gateway
-
Scripts PowerShell supplémentaires pour le déploiement Azure
-
Déployer une instance Citrix ADC VPX sur Google Cloud Platform
-
Automatiser le déploiement et les configurations de Citrix ADC
-
Solutions pour les fournisseurs de services de télécommunication
-
Trafic du plan de contrôle de l'équilibrage de charge basé sur les protocoles Diameter, SIP et SMPP
-
Utilisation de la bande passante avec la fonctionnalité de redirection du cache
-
-
Authentification, autorisation et audit du trafic des applications
-
Fonctionnement de l'authentification, de l'autorisation et de l'audit
-
Composants de base de la configuration de l'authentification, de l'autorisation et de l'audit
-
-
Autorisation de l'accès des utilisateurs aux ressources de l'application
-
Citrix ADC en tant que proxy Active Directory Federation Service
-
NetScaler Gateway sur site en tant que fournisseur d'identité vers Citrix Cloud
-
Prise en charge de la configuration de l'attribut de cookie SameSite
-
Résoudre les problèmes liés à l'authentification et à l'autorisation
-
-
-
-
Configuration de l'expression de stratégie avancée : mise en route
-
Expressions de stratégie avancées : utilisation des dates, des heures et des nombres
-
Expressions de stratégie avancées : analyse des données HTTP, TCP et UDP
-
Expressions de stratégie avancées : analyse des certificats SSL
-
Expressions de stratégie avancées : adresses IP et MAC, débit, ID VLAN
-
Expressions de stratégie avancées : fonctions d'analyse de flux
-
Référence des expressions - Expressions de stratégie avancées
-
Exemples récapitulatifs d'expressions et de stratégies de syntaxe par défaut
-
Tutoriel sur les exemples de stratégies syntaxiques par défaut pour la réécriture
-
Migration des règles Apache mod_rewrite vers la syntaxe par défaut
-
-
-
-
Vérifications de protection XML
-
Articles sur les alertes de signatures
-
-
Traduire l'adresse IP de destination d'une requête vers l'adresse IP d'origine
-
-
Prise en charge de la configuration Citrix ADC dans un cluster
-
-
-
Groupes de nœuds pour les configurations repérées et partiellement entrelacées
-
Désactivation de la direction sur le fond de panier du cluster
-
Suppression d'un nœud d'un cluster déployé à l'aide de l'agrégation de liens de cluster
-
Surveillance de la configuration du cluster à l'aide de la MIB SNMP avec lien SNMP
-
Surveillance des échecs de propagation des commandes dans un déploiement de cluster
-
Liaison d'interface VRRP dans un cluster actif à nœud unique
-
Scénarios de configuration et d'utilisation du cluster
-
Migration d'une configuration HA vers une configuration de cluster
-
Interfaces communes pour le client et le serveur et interfaces dédiées pour le fond de panier
-
Commutateur commun pour le client, le serveur et le fond de panier
-
Commutateur commun pour client et serveur et commutateur dédié pour fond de panier
-
Services de surveillance dans un cluster à l'aide de la surveillance des chemins
-
Opérations prises en charge sur des nœuds de cluster individuels
-
-
-
Configurer les enregistrements de ressources DNS
-
Créer des enregistrements MX pour un serveur d'échange de messagerie
-
Créer des enregistrements NS pour un serveur faisant autorité
-
Créer des enregistrements NAPTR pour le domaine des télécommunications
-
Créer des enregistrements PTR pour les adresses IPv4 et IPv6
-
Créer des enregistrements SOA pour les informations faisant autorité
-
Créer des enregistrements TXT pour contenir du texte descriptif
-
Configurer Citrix ADC en tant que résolveur de stub non validant sensible à la sécurité
-
Prise en charge des trames Jumbo pour le DNS pour gérer les réponses de grande taille
-
Configurer la mise en cache négative des enregistrements DNS
-
-
Équilibrage de charge de serveur global
-
Configurez les entités GSLB individuellement
-
Synchronisation de la configuration dans une configuration GSLB
-
Cas d'utilisation : déploiement d'un groupe de services Autoscale basé sur l'adresse IP
-
-
Remplacer le comportement de proximité statique en configurant les emplacements préférés
-
Configuration de la sélection des services GSLB à l'aide du changement de contenu
-
Configurer GSLB pour les requêtes DNS avec des enregistrements NAPTR
-
Exemple de configuration parent-enfant complète à l'aide du protocole d'échange de métriques
-
-
Équilibrer la charge du serveur virtuel et des états de service
-
Protection d'une configuration d'équilibrage de charge contre les défaillances
-
-
Configuration des serveurs virtuels d'équilibrage de charge sans session
-
Réécriture des ports et des protocoles pour la redirection HTTP
-
Insérer l'adresse IP et le port d'un serveur virtuel dans l'en-tête de requête
-
Utiliser une adresse IP source spécifiée pour la communication principale
-
Définir une valeur de délai d'expiration pour les connexions client inactives
-
Utiliser un port source d'une plage de ports spécifiée pour les communications en arrière-plan
-
Configurer la persistance de l'adresse IP source pour la communication principale
-
-
Paramètres d'équilibrage de charge avancés
-
Protégez les applications sur les serveurs protégés contre les pics de trafic
-
Activer le nettoyage des connexions de serveur virtuel et de service
-
Activer ou désactiver la session de persistance sur les services TROFS
-
Activer la vérification de l'état TCP externe pour les serveurs virtuels UDP
-
Maintenir la connexion client pour plusieurs demandes client
-
Utiliser l'adresse IP source du client lors de la connexion au serveur
-
Définissez une limite sur le nombre de demandes par connexion au serveur
-
Définir une valeur de seuil pour les moniteurs liés à un service
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Définir une valeur de délai d'attente pour les connexions de serveur inactives
-
Définir une limite sur l'utilisation de la bande passante par les clients
-
Conserver l'identificateur VLAN pour la transparence du VLAN
-
Configurer les moniteurs dans une configuration d'équilibrage de charge
-
Configurer l'équilibrage de charge pour les protocoles couramment utilisés
-
Cas d'utilisation 3 : configurer l'équilibrage de charge en mode de retour direct du serveur
-
Cas d'utilisation 4 : Configuration des serveurs LINUX en mode DSR
-
Cas d'utilisation 5 : configurer le mode DSR lors de l'utilisation de TOS
-
Cas d'utilisation 7 : Configurer l'équilibrage de charge en mode DSR à l'aide d'IP sur IP
-
Cas d'utilisation 8 : Configurer l'équilibrage de charge en mode à un bras
-
Cas d'utilisation 9 : Configurer l'équilibrage de charge en mode en ligne
-
Cas d'utilisation 10 : Équilibrage de charge des serveurs de systèmes de détection d'intrusion
-
Cas d'utilisation 11 : Isolation du trafic réseau à l'aide de stratégies d'écoute
-
Cas d'utilisation 12 : configurer Citrix Virtual Desktops pour l'équilibrage de charge
-
Cas d'utilisation 13 : Configuration de Citrix Virtual Apps pour l'équilibrage de charge
-
Cas d'utilisation 14 : Assistant ShareFile pour l'équilibrage de charge Citrix ShareFile
-
Cas d'utilisation 15 : configurer l'équilibrage de charge de couche 4 sur l'appliance Citrix ADC
-
-
-
Configuration pour générer le trafic de données Citrix ADC FreeBSD à partir d'une adresse SNIP
-
-
Déchargement et accélération SSL
-
Prise en charge du protocole TLSv1.3 tel que défini dans la RFC 8446
-
Suites de chiffrement disponibles sur les appliances Citrix ADC
-
Matrice de prise en charge des certificats de serveur sur l'appliance ADC
-
Prise en charge du module de sécurité matérielle Thales Luna Network
-
-
-
-
Authentification et autorisation pour les utilisateurs système
-
Configuration des utilisateurs, des groupes d'utilisateurs et des stratégies de commande
-
Réinitialisation du mot de passe administrateur par défaut (nsroot)
-
Configuration de l'authentification des utilisateurs externes
-
Authentification par clé SSH pour les administrateurs Citrix ADC
-
Authentification à deux facteurs pour les utilisateurs système
-
-
-
Points à prendre en compte pour une configuration haute disponibilité
-
Synchronisation des fichiers de configuration dans une configuration haute disponibilité
-
Restriction du trafic de synchronisation haute disponibilité vers un VLAN
-
Configuration de nœuds haute disponibilité dans différents sous-réseaux
-
Limitation des basculements causés par les moniteurs de routage en mode non INC
-
Gestion des messages de pulsation haute disponibilité sur une appliance Citrix ADC
-
Supprimer et remplacer un Citrix ADC dans une configuration haute disponibilité
-
-
Optimisation TCP
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已经过机器动态翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
이 콘텐츠는 동적으로 기계 번역되었습니다. 책임 부인
Este texto foi traduzido automaticamente. (Aviso legal)
Questo contenuto è stato tradotto dinamicamente con traduzione automatica.(Esclusione di responsabilità))
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.책임 부인
Este artigo foi traduzido automaticamente.(Aviso legal)
这篇文章已经过机器翻译.放弃
Questo articolo è stato tradotto automaticamente.(Esclusione di responsabilità))
Translation failed!
Optimisation TCP
Le protocole TCP utilise les techniques d’optimisation et les stratégies (ou algorithmes) de contrôle de la congestion suivantes pour éviter la congestion du réseau lors de la transmission de données.
Stratégies de contrôle de la congestion
Le protocole TCP est utilisé depuis longtemps pour établir et gérer des connexions Internet, gérer les erreurs de transmission et connecter facilement des applications Web aux appareils clients. Mais le trafic réseau est devenu plus difficile à contrôler, car la perte de paquets ne dépend pas uniquement de la congestion du réseau, et la congestion n’entraîne pas nécessairement la perte de paquets. Par conséquent, pour mesurer la congestion, un algorithme TCP doit se concentrer à la fois sur la perte de paquets et sur la bande passante.
Algorithme PRR (Proportional Rate Recovery)
Les mécanismes de restauration rapide TCP réduisent la latence Web causée par les pertes de paquets. Le nouvel algorithme PRR (Proportional Rate Recovery) est un algorithme de restauration rapide qui évalue les données TCP lors d’une restauration après perte. Il est calqué sur la réduction de moitié du débit, en utilisant la fraction appropriée pour la fenêtre cible choisie par l’algorithme de contrôle de congestion. Cela minimise l’ajustement de la fenêtre et la taille réelle de la fenêtre à la fin de la restauration est proche du seuil de démarrage lent (ssthresh).
Ouverture rapide TCP (TFO)
Le protocole TCP Fast Open (TFO) est un mécanisme TCP qui permet un échange de données rapide et sécurisé entre un client et un serveur lors de l’établissement de connexion initial du protocole TCP. Cette fonctionnalité est disponible en tant qu’option TCP dans le profil TCP lié à un serveur virtuel d’une appliance Citrix ADC. TFO utilise un cookie TCP Fast Open (cookie de sécurité) généré par l’appliance Citrix ADC pour valider et authentifier le client initiant une connexion TFO au serveur virtuel. En utilisant ce mécanisme TFO, vous pouvez réduire la latence réseau d’une application du temps nécessaire pour un aller-retour complet, ce qui réduit considérablement le retard subi lors de courts transferts TCP.
Comment fonctionne TFO
Lorsqu’un client essaie d’établir une connexion TFO, il inclut un cookie TCP Fast Open avec le segment SYN initial pour s’authentifier. Si l’authentification aboutit, le serveur virtuel de l’appliance Citrix ADC peut inclure des données dans le segment SYN-ACK même s’il n’a pas reçu le dernier segment ACK de la liaison tridirectionnelle. Cela permet d’économiser jusqu’à un aller-retour complet par rapport à une connexion TCP normale, qui nécessite une liaison à trois voies avant de pouvoir échanger des données.
Un client et un serveur principal effectuent les étapes suivantes pour établir une connexion TFO et échanger des données en toute sécurité lors de l’établissement de connexion TCP initial.
- Si le client ne dispose pas d’un cookie TCP Fast Open pour s’authentifier, il envoie une demande de cookie d’ouverture rapide dans le paquet SYN au serveur virtuel de l’appliance Citrix ADC.
- Si l’option TFO est activée dans le profil TCP lié au serveur virtuel, l’appliance génère un cookie (en chiffrant l’adresse IP du client sous une clé secrète) et répond au client par un SYN-ACK qui inclut le cookie d’ouverture rapide généré dans un champ d’option TCP.
- Le client met en cache le cookie pour les futures connexions TFO au même serveur virtuel sur l’appliance.
- Lorsque le client essaie d’établir une connexion TFO avec le même serveur virtuel, il envoie un SYN qui inclut le cookie Fast Open mis en cache (en tant qu’option TCP) ainsi que des données HTTP.
- L’appliance Citrix ADC valide le cookie et, si l’authentification aboutit, le serveur accepte les données du paquet SYN et accuse réception de l’événement avec un SYN-ACK, un cookie TFO et une réponse HTTP.
Remarque :
Si l’authentification du client échoue, le serveur supprime les données et accuse réception de l’événement uniquement avec un SYN indiquant un délai d’expiration de session.
- Côté serveur, si l’option TFO est activée dans un profil TCP lié à un service, l’appliance Citrix ADC détermine si le cookie TCP Fast Open est présent dans le service auquel elle essaie de se connecter.
- Si le cookie TCP Fast Open n’est pas présent, l’appliance envoie une demande de cookie dans le paquet SYN.
- Lorsque le serveur principal envoie le cookie, l’appliance stocke le cookie dans le cache d’informations du serveur.
- Si l’appliance possède déjà un cookie pour la paire d’adresses IP de destination donnée, elle remplace l’ancien cookie par le nouveau.
- Si le cookie est disponible dans le cache d’informations du serveur lorsque le serveur virtuel tente de se reconnecter au même serveur principal en utilisant la même adresse SNIP, l’appliance combine les données du paquet SYN avec le cookie et les envoie au serveur principal.
- Le serveur principal accuse réception de l’événement à l’aide de données et d’un SYN.
Remarque : si le serveur accuse réception de l’événement avec uniquement un segment SYN, l’appliance Citrix ADC renvoie immédiatement le paquet de données après avoir supprimé le segment SYN et les options TCP du paquet d’origine.
Configuration de l’ouverture rapide du protocole TCP
Pour utiliser la fonctionnalité TCP Fast Open (TFO), activez l’option TCP Fast Open dans le profil TCP concerné et définissez le paramètre TFO Cookie Timeout sur une valeur qui répond aux exigences de sécurité de ce profil.
Activer ou désactiver TFO à l’aide de l’interface de ligne de commande
À l’invite de commandes, tapez l’une des commandes suivantes pour activer ou désactiver TFO dans un profil nouveau ou existant.
Remarque : La valeur par défaut est DISABLED.
add tcpprofile <TCP Profile Name> - tcpFastOpen ENABLED | DISABLED
set tcpprofile <TCP Profile Name> - tcpFastOpen ENABLED | DISABLED
unset tcpprofile <TCP Profile Name> - tcpFastOpen
Examples
add tcpprofile Profile1 – tcpFastOpen
Set tcpprofile Profile1 – tcpFastOpen Enabled
unset tcpprofile Profile1 – tcpFastOpen
<!--NeedCopy-->
Pour définir la valeur du délai d’expiration du cookie TCP Fast Open à l’aide de l’interface de ligne de commande
À l’invite de commande, tapez :
set tcpparam –tcpfastOpenCookieTimeout <Timeout Value>
Example
set tcpprofile –tcpfastOpenCookieTimeout 30secs
<!--NeedCopy-->
Pour configurer le TCP Fast Open à l’aide de l’interface graphique
- Accédez à Configuration > Système > Profils > puis cliquez sur Modifier pour modifier un profil TCP.
- Sur la page Configurer le profil TCP, cochez la case TCP Fast Open .
- Cliquez sur OK, puis sur Terminé.
Pour configurer la valeur du délai d’expiration du cookie rapide TCP à l’aide de l’interface graphique
Accédez à Configuration > Système > Paramètres > Modifier les paramètresTCP, puis à la page Configurer les paramètresTCP pour définir la valeur du délai d’expiration du cookie d’ouverture rapide TCP.
TCP HyStart
Un nouveau paramètre de profil TCP, HyStart, active l’algorithme HyStart, qui est un algorithme de démarrage lent qui détermine dynamiquement un point sûr auquel terminer (ssthresh). Il permet une transition vers la prévention de la congestion sans pertes importantes de paquets. Ce nouveau paramètre est désactivé par défaut.
Si une congestion est détectée, HyStart entre dans une phase d’évitement de la congestion. Son activation vous permet d’obtenir un meilleur débit sur les réseaux à haut débit présentant de fortes pertes de paquets. Cet algorithme permet de maintenir une bande passante proche de la limite maximale lors du traitement des transactions. Il peut donc améliorer le débit.
Configuration de TCP HyStart
Pour utiliser la fonctionnalité HyStart, activez l’option Cubic HyStart dans le profil TCP approprié.
Pour configurer HyStart à l’aide de l’interface de ligne de commande (CLI)
À l’invite de commandes, tapez l’une des commandes suivantes pour activer ou désactiver HyStart dans un profil TCP nouveau ou existant.
add tcpprofile <profileName> -hystart ENABLED
set tcpprofile <profileName> -hystart ENABLED
unset tcprofile <profileName> -hystart
<!--NeedCopy-->
Exemples :
add tcpprofile profile1 -hystart ENABLED
set tcpprofile profile1 -hystart ENABLED
unset tcprofile profile1 -hystart
<!--NeedCopy-->
Pour configurer le support HyStart à l’aide de l’interface graphique
- Accédez à Configuration > Système > Profils > et cliquez sur Modifier pour modifier un profil TCP.
- Sur la page Configurer le profil TCP, cochez la case Cubic Hystart .
- Cliquez sur OK, puis sur Terminé.
Contrôle du débit de rafale TCP
Il a été observé que les mécanismes de contrôle TCP peuvent entraîner un flux de trafic intense sur les réseaux mobiles à haut débit, avec un impact négatif sur l’efficacité globale du réseau. En raison des conditions du réseau mobile telles que la congestion ou la retransmission de données de couche 2, les accusés de réception TCP arrivent groupés à l’expéditeur, déclenchant une transmission en rafale. Ces groupes de paquets consécutifs envoyés avec un court intervalle entre paquets sont appelés rafales de paquets TCP. Pour surmonter l’augmentation du trafic, l’appliance Citrix ADC utilise une technique de contrôle du taux de rafale TCP. Cette technique répartit les données de manière uniforme sur le réseau pendant toute la durée d’un aller-retour afin que les données ne soient pas envoyées en rafale. En utilisant cette technique de contrôle de la fréquence de rafale, vous pouvez obtenir un meilleur débit et des taux de perte de paquets plus faibles.
Comment fonctionne le contrôle de la fréquence de rafale TCP
Dans une appliance Citrix ADC, cette technique répartit uniformément la transmission d’un paquet sur toute la durée de l’aller-retour (RTT). Cela est possible grâce à l’utilisation d’une pile TCP et d’un planificateur de paquets réseau qui identifie les différentes conditions du réseau afin de générer des paquets pour les sessions TCP en cours afin de réduire les rafales.
Au niveau de l’expéditeur, au lieu de transmettre des paquets immédiatement après réception d’un accusé de réception, l’expéditeur peut retarder la transmission des paquets pour les répartir au débit défini par le planificateur (configuration dynamique) ou par le profil TCP (configuration fixe).
Configuration du contrôle du débit de rafale TCP
Pour utiliser l’option TCP Burst Rate Control dans le profil TCP approprié et définir les paramètres de contrôle du débit de rafale.
Pour définir le contrôle du débit de rafale TCP à l’aide de la ligne de commande
À l’invite de commandes, définissez l’une des commandes TCP Burst Rate Control suivantes qui sont configurées dans un profil nouveau ou existant.
Remarque : La valeur par défaut est DISABLED.
add tcpprofile <TCP Profile Name> -burstRateControl Disabled | Dynamic | Fixed
set tcpprofile <TCP Profile Name> -burstRateControl Disabled | Dynamic | Fixed
unset tcpprofile <TCP Profile Name> -burstRateControl Disabled | Dynamic | Fixed
<!--NeedCopy-->
Où,
Désactivé : si le contrôle de la fréquence de rafale est désactivé, une appliance Citrix ADC n’effectue aucune gestion de rafale autre que le paramètre MaxBurst.
Corrigé — Si le contrôle du débit de rafale TCP est fixe, l’appliance utilise la valeur du débit d’envoi de la charge utile de la connexion TCP mentionnée dans le profil TCP.
Dynamique : si le contrôle du débit de rafale est « dynamique », la connexion est régulée en fonction de diverses conditions du réseau afin de réduire les rafales TCP. Ce mode fonctionne uniquement lorsque la connexion TCP est en mode ENDPOINT. Lorsque le contrôle Dynamic Burst Rate est activé, le paramètre MaxBurst du profil TCP n’est pas actif.
add tcpProfile profile1 -burstRateControl Disabled
set tcpProfile profile1 -burstRateControl Dynamic
unset tcpProfile profile1 -burstRateControl Fixed
<!--NeedCopy-->
Pour définir les paramètres du TCP Burst Rate Control à l’aide de l’interface de ligne de commande
À l’invite de commande, tapez :
set ns tcpprofile nstcp_default_profile –burstRateControl <type of burst rate control> –tcprate <TCP rate> -rateqmax <maximum bytes in queue>
T1300-10-2> show ns tcpprofile nstcp_default_profile
Name: nstcp_default_profile
Window Scaling status: ENABLED
Window Scaling factor: 8
SACK status: ENABLED
MSS: 1460
MaxBurst setting: 30 MSS
Initial cwnd setting: 16 MSS
TCP Delayed-ACK Timer: 100 millisec
Nagle's Algorithm: DISABLED
Maximum out-of-order packets to queue: 15000
Immediate ACK on PUSH packet: ENABLED
Maximum packets per MSS: 0
Maximum packets per retransmission: 1
TCP minimum RTO in millisec: 1000
TCP Slow start increment: 1
TCP Buffer Size: 8000000 bytes
TCP Send Buffer Size: 8000000 bytes
TCP Syncookie: ENABLED
Update Last activity on KA Probes: ENABLED
TCP flavor: BIC
TCP Dynamic Receive Buffering: DISABLED
Keep-alive probes: ENABLED
Connection idle time before starting keep-alive probes: 900 seconds
Keep-alive probe interval: 75 seconds
Maximum keep-alive probes to be missed before dropping connection: 3
Establishing Client Connection: AUTOMATIC
TCP Segmentation Offload: AUTOMATIC
TCP Timestamp Option: DISABLED
RST window attenuation (spoof protection): ENABLED
Accept RST with last acknowledged sequence number: ENABLED
SYN spoof protection: ENABLED
TCP Explicit Congestion Notification: DISABLED
Multipath TCP: DISABLED
Multipath TCP drop data on pre-established subflow: DISABLED
Multipath TCP fastopen: DISABLED
Multipath TCP session timeout: 0 seconds
DSACK: ENABLED
ACK Aggregation: DISABLED
FRTO: ENABLED
TCP Max CWND : 4000000 bytes
FACK: ENABLED
TCP Optimization mode: ENDPOINT
TCP Fastopen: DISABLED
HYSTART: DISABLED
TCP dupack threshold: 3
Burst Rate Control: Dynamic
TCP Rate: 0
TCP Rate Maximum Queue: 0
<!--NeedCopy-->
Pour configurer le contrôle du débit de rafale TCP à l’aide de l’interface graphique
- Accédez à Configuration > Système > Profils > puis cliquez sur Modifier pour modifier un profil TCP.
- Sur la page Configurer le profil TCP, sélectionnez l’option TCP Burst Control dans la liste déroulante :
- BurstRateCntrl
- CreditBytePrms
- RateBytePerms
- RateSchedulerQ
- Cliquez sur OK, puis sur Terminé.
Protection contre l’algorithme PAWS (Wrapped Sequence)
Si vous activez l’option d’horodatage TCP dans le profil TCP par défaut, l’appliance Citrix ADC utilise l’algorithme Protection Against Wrapped Sequence (PAWS) pour identifier et rejeter les anciens paquets dont les numéros de séquence se trouvent dans la fenêtre de réception de la connexion TCP en cours car la séquence est « encapsulée » (a atteint sa valeur maximale et a redémarré à partir de 0).
Si la congestion du réseau retarde un paquet de données non SYN et que vous ouvrez une nouvelle connexion avant l’arrivée du paquet, l’encapsulation par numéro de séquence peut amener la nouvelle connexion à accepter le paquet comme valide, ce qui entraîne une corruption des données. Mais si l’option d’horodatage TCP est activée, le paquet est supprimé.
Par défaut, l’option d’horodatage TCP est désactivée. Si vous l’activez, l’appliance compare l’horodatage TCP (seg.tsVal) dans l’en-tête d’un paquet avec la valeur de l’horodatage récent (ts.Recent). Si Seg.tsVal est égal ou supérieur à ts.Recent, le paquet est traité. Dans le cas contraire, l’appliance abandonne le paquet et envoie un accusé de réception correctif.
Comment fonctionne PAWS
L’algorithme PAWS traite tous les paquets TCP entrants d’une connexion synchronisée comme suit :
- Si
SEG.TSval
<Ts.recent:
Le paquet entrant n’est pas acceptable. PAWS envoie un accusé de réception (comme spécifié dans la RFC-793) et supprime le paquet. Remarque : L’envoi d’un segment ACK est nécessaire pour conserver les mécanismes TCP de détection et de restauration des connexions semi-ouvertes. - Si le paquet se trouve en dehors de la fenêtre : PAWS rejette le paquet, comme dans un traitement TCP normal.
- Si
SEG.TSval
>Ts.recent: PAWS
accepte le paquet et le traite. - Si
SEG.TSval
<=Last.ACK.sent
(segment entrant satisfait) : PAWS copie la valeurSEG.TSval
dansTs.recent
. - Si le paquet est en séquence : PAWS accepte le paquet.
- Si le paquet n’est pas en séquence : le paquet est traité comme un segment TCP normal dans la fenêtre et hors séquence. Par exemple, il peut être mis en file d’attente pour une livraison ultérieure.
- Si la
Ts.recent
valeur est inactive pendant plus de 24 jours : la validité deTs.recent
est vérifiée si la vérification de l’horodatage PAWS échoue. Si la valeur TS.recent s’avère non valide, le segment est accepté etPAWS rule
met à jourTs.recent
avec la valeur TSval du nouveau segment.
Pour activer ou désactiver l’horodatage TCP à l’aide de l’interface de ligne de commande
À l’invite de commande, tapez :
`set nstcpprofile nstcp_default_profile -TimeStamp (ENABLED | DISABLED)`
Pour activer ou désactiver l’horodatage TCP à l’aide de l’interface graphique
Accédez à Système > Profil > ProfilTCP, sélectionnez le profilTCP par défaut, cliquez surModifier, puis cochez ou décochez la caseHorodatage TCP .
Techniques d’optimisation
TCP utilise les techniques et méthodes d’optimisation suivantes pour optimiser les contrôles de flux.
Sélection de profils TCP basée sur des règles
Le trafic réseau d’aujourd’hui est plus diversifié et plus gourmand en bande passante que jamais. Avec l’augmentation du trafic, l’effet de la qualité de service (QoS) sur les performances du protocole TCP est significatif. Pour améliorer la QoS, vous pouvez désormais configurer des stratégies AppQoE avec différents profils TCP pour différentes classes de trafic réseau. La stratégie AppQoE classe le trafic d’un serveur virtuel afin d’associer un profil TCP optimisé pour un type de trafic particulier, tel que la 3G, la 4G, le LAN ou le WAN.
Pour utiliser cette fonctionnalité, créez une action de stratégie pour chaque profil TCP, associez une action aux stratégies AppQoE et associez les stratégies aux serveurs virtuels d’équilibrage de charge.
Pour plus d’informations sur l’utilisation des attributs d’abonné pour effectuer l’optimisation TCP, consultez Profil TCP basé surdes règles.
Configuration de la sélection de profils TCP basée sur des stratégies
La configuration de la sélection de profils TCP basée sur des règles comprend les tâches suivantes :
- Activation d’AppQoE. Avant de configurer la fonctionnalité de profil TCP, vous devez activer la fonctionnalité AppQoE.
- Ajout d’une action AppQoE. Après avoir activé la fonctionnalité AppQoE, configurez une action AppQoE avec un profil TCP.
- Configuration de la sélection du profil TCP basée sur AppQoE. Pour implémenter la sélection de profils TCP pour différentes classes de trafic, vous devez configurer des stratégies AppQoE avec lesquelles votre Citrix ADC peut distinguer les connexions et lier l’action AppQoE correcte à chaque stratégie.
- Liaison de la stratégie AppQoE au serveur virtuel. Une fois que vous avez configuré les stratégies AppQoE, vous devez les lier à un ou plusieurs serveurs virtuels d’équilibrage de charge, de commutation de contenu ou de redirection de cache.
Configuration à l’aide de l’interface de ligne de commande
Pour activer AppQoE à l’aide de l’interface de ligne de commande
À l’invite de commandes, tapez les commandes suivantes pour activer la fonctionnalité et vérifier qu’elle est activée :
enable ns feature appqoe
show ns feature
Pour lier un profil TCP lors de la création d’une action AppQoE à l’aide de l’interface de ligne de commande
À l’invite de commande, tapez la commande d’action AppQoe suivante avec l’option tcpprofiletobind
.
add appqoe action <name> [-priority <priority>] [-respondWith ( ACS | NS ) [<CustomFile>] [-altContentSvcName <string>] [-altContentPath <string>] [-maxConn <positive_integer>] [-delay <usecs>]] [-polqDepth <positive_integer>] [-priqDepth <positive_integer>] [-dosTrigExpression <expression>] [-dosAction ( SimpleResponse |HICResponse )] [-tcpprofiletobind <string>]
show appqoe action
Pour configurer une stratégie AppQoE à l’aide de l’interface de ligne de commande
À l’invite de commande, tapez :
add appqoe policy <name> -rule <expression> -action <string>
Pour lier une stratégie AppQoE à des serveurs virtuels d’équilibrage de charge, de redirection de cache ou de commutation de contenu à l’aide de l’interface de ligne de commande
À l’invite de commande, tapez :
bind cs vserver cs1 -policyName <appqoe_policy_name> -priority <priority>
bind lb vserver <name> - policyName <appqoe_policy_name> -priority <priority>
bind cr vserver <name> -policyName <appqoe_policy_name> -priority <priority>
Exemple
add ns tcpProfile tcp1 -WS ENABLED -SACK ENABLED -WSVal 8 -nagle ENABLED -maxBurst 30 -initialCwnd 16 -oooQSize 15000 -minRTO 500 -slowStartIncr 1 -bufferSize 4194304 -flavor BIC -KA ENABLED -sendBuffsize 4194304 -rstWindowAttenuate ENABLED -spoofSynDrop ENABLED -dsack enabled -frto ENABLED -maxcwnd 4000000 -fack ENABLED -tcpmode ENDPOINT
add appqoe action appact1 -priority HIGH -tcpprofile tcp1
add appqoe policy apppol1 -rule "client.ip.src.eq(10.102.71.31)" -action appact1
bind lb vserver lb2 -policyName apppol1 -priority 1 -gotoPriorityExpression END -type REQUEST
bind cs vserver cs1 -policyName apppol1 -priority 1 -gotoPriorityExpression END -type REQUEST
<!--NeedCopy-->
Configuration du profilage TCP basé sur des règles à l’aide de l’interface graphique
Pour activer AppQoE à l’aide de l’interface graphique
- Accédez à Système > Paramètres.
- Dans le volet de détails, cliquez sur Configurer les fonctionnalités avancées.
- Dans la boîte de dialogue Configurer les fonctionnalités avancées, cochez la case AppQoE .
- Cliquez sur OK.
Pour configurer la stratégie AppQoE à l’aide de l’interface graphique
- Accédez à App-Expert > AppQoE > Actions.
- Dans le volet d’informations, effectuez l’une des opérations suivantes :
- Pour créer une action, cliquez sur Ajouter.
- Pour modifier une action existante, sélectionnez-la, puis cliquez sur Modifier.
- Dans l’écran Créer une action AppQoE ou Configurer une action AppQoE, tapez ou sélectionnez des valeurs pour les paramètres. Le contenu de la boîte de dialogue correspond aux paramètres décrits dans « Paramètres de configuration de l’action AppQoE » comme suit (un astérisque indique un paramètre obligatoire) :
- Nom—nom
- Type d’action — respondWith
- Priorité — priority
- Profondeur de la file d’attente de stratégies — polqDepth
- Profondeur de file d’attente — priqDepth
- Action DOS — dosAction
- Cliquez sur Create.
Pour lier la stratégie AppQoE à l’aide de l’interface graphique
- Accédez à Gestion du trafic > Équilibrage de charge > Serveurs virtuels, sélectionnez un serveur, puis cliquez sur Modifier.
- Dans la section Stratégies, cliquez sur (+) pour lier une stratégie AppQoE.
- Dans le curseur Stratégies, effectuez les opérations suivantes :
- Sélectionnez un type de stratégie comme AppQoE dans la liste déroulante.
- Sélectionnez un type de trafic dans la liste déroulante.
- Dans la section Policy Binding, procédez comme suit :
- Cliquez sur Nouveau pour créer une stratégie AppQoE.
- Cliquez sur Stratégie existante pour sélectionner une stratégie AppQoE dans la liste déroulante.
- Définissez la priorité de liaison et cliquez sur Lier à la stratégie au serveur virtuel.
- Cliquez sur Terminé.
Génération de blocs SACK
Les performances du protocole TCP ralentissent lorsque plusieurs paquets sont perdus dans une fenêtre de données. Dans un tel scénario, un mécanisme d’accusé de réception sélectif (SACK) combiné à une stratégie de retransmission répétée sélective permet de surmonter cette limitation. Pour chaque paquet entrant hors service, vous devez générer un bloc SACK.
Si le paquet hors ordre entre dans le bloc de la file d’attente de réassemblage, insérez les informations du paquet dans le bloc et définissez les informations du bloc complètes sur SACK-0. Si un paquet en panne ne rentre pas dans le bloc de réassemblage, envoyez le paquet au format SACK-0 et répétez les blocs SACK précédents. Si un paquet hors ordre est un doublon et que les informations du paquet sont définies comme SACK-0, alors D-SACK le bloc.
Remarque : Un paquet est considéré comme D-SACK s’il s’agit d’un paquet accusé de réception ou d’un paquet hors service déjà reçu.
Le client renie
Une appliance Citrix ADC peut gérer le renoncement du client lors d’une restauration basée sur SACK.
Les contrôles de mémoire pour marquer le point de terminaison sur un circuit imprimé ne prennent pas en compte la quantité totale de mémoire disponible
Dans une appliance Citrix ADC, si le seuil d’utilisation de la mémoire est défini sur 75 % au lieu d’utiliser la mémoire totale disponible, les nouvelles connexions TCP contournent l’optimisation TCP.
Retransmissions inutiles en raison de l’absence de blocs SACK
En mode hors point de terminaison, lorsque vous envoyez des DUPACKS, si des blocs SACK sont absents pour quelques paquets hors service, cela déclenche d’autres retransmissions depuis le serveur.
Le protocole SNMP pour les connexions a contourné l’optimisation en raison d’une surcharge
Les identifiants SNMP suivants ont été ajoutés à une appliance Citrix ADC pour suivre le nombre de connexions qui ont contourné les optimisations TCP en raison d’une surcharge.
- 1.3.6.1.4.1.5951.4.1.1.46.131 (tcpOptimizationEnabled). Pour suivre le nombre total de connexions activées grâce à l’optimisation TCP.
- 1.3.6.1.4.1.5951.4.1.1.46.132 (tcpOptimizationBypassed). Pour suivre le nombre total de connexions contournées, optimisez TCP.
Tampon de réception dynamique
Pour optimiser les performances TCP, une appliance Citrix ADC peut désormais ajuster dynamiquement la taille du tampon de réception TCP.
Algorithme Tail Loss Probe
Un délai de retransmission (RTO) est une perte de segments à la fin d’une transaction. Un RTO se produit en cas de problèmes de latence des applications, en particulier lors de transactions Web courtes. Pour récupérer les segments perdus à la fin d’une transaction, TCP utilise l’algorithme Tail Loss Probe (TLP). TLP est un algorithme réservé aux expéditeurs. Si une connexion TCP ne reçoit aucun accusé de réception pendant un certain temps, TLP transmet le dernier paquet non reconnu (sonde de perte). En cas de perte de la queue lors de la transmission initiale, un accusé de réception émis par la sonde de perte déclenche une reprise du SACK ou du FACK.
Configuration de la sonde Tail Loss
Pour utiliser l’algorithme TLP (Tail Loss Probe), vous devez activer l’option TLP dans le profil TCP et définir le paramètre sur une valeur qui répond aux exigences de sécurité de ce profil.
Activez TLP à l’aide de la ligne de commande
À l’invite de commandes, tapez l’une des commandes suivantes pour activer ou désactiver TLP dans un profil nouveau ou existant.
Remarque :
La valeur par défaut est DISABLED.
add tcpprofile <TCP Profile Name> - taillossprobe ENABLED | DISABLED
set tcpprofile <TCP Profile Name> - taillossprobe ENABLED | DISABLED
unset tcpprofile <TCP Profile Name> - taillossprobe
Exemples :
add tcpprofile nstcp_default_profile – taillossprobe
set tcpprofile nstcp_default_profile –taillossprobe Enabled
unset tcpprofile nstcp_default_profile –taillossprobe
Configurer l’algorithme Tail Loss Probe à l’aide de l’interface graphique Citrix ADC
- Accédez à Configuration > Système > Profils > puis cliquez sur Modifier pour modifier un profil TCP.
- Sur la page Configurer le profil TCP, cochez la case Tail Loss Probe .
- Cliquez sur OK, puis sur Terminé.
Partager
Partager
Dans cet article
- Stratégies de contrôle de la congestion
- Algorithme PRR (Proportional Rate Recovery)
- Ouverture rapide TCP (TFO)
- TCP HyStart
- Contrôle du débit de rafale TCP
- Protection contre l’algorithme PAWS (Wrapped Sequence)
- Pour activer ou désactiver l’horodatage TCP à l’aide de l’interface de ligne de commande
- Techniques d’optimisation
- Sélection de profils TCP basée sur des règles
- Pour activer AppQoE à l’aide de l’interface de ligne de commande
- Génération de blocs SACK
- Le client renie
- Les contrôles de mémoire pour marquer le point de terminaison sur un circuit imprimé ne prennent pas en compte la quantité totale de mémoire disponible
- Retransmissions inutiles en raison de l’absence de blocs SACK
- Le protocole SNMP pour les connexions a contourné l’optimisation en raison d’une surcharge
- Tampon de réception dynamique
- Algorithme Tail Loss Probe
This Preview product documentation is Cloud Software Group Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Cloud Software Group Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Cloud Software Group product purchase decisions.
If you do not agree, select I DO NOT AGREE to exit.