LA QUALITÉ DE SERVICE Par Jacques Baudron ixtel Avril 2011 Un livre blanc de Forum ATENA Un livre blanc 1 / 8
SOMMAIRE LA QUALITÉ DE SERVICE... 1 1. D OÙ PROVIENT LA DÉGRADATION DE SERVICE?... 3 1.1. LE SIGNAL AU NIVEAU PHYSIQUE... 3 1.2. CORRECTION D ERREUR ET ENTRELACEMENT... 4 1.3. LA TRANSMISSION DU SIGNAL... 5 2. DANSONS LA GIGUE... 5 3. L ENNEMI : LA CONGESTION... 5 3.1. LA RÉGULATION DU TRAFIC À LA SOURCE... 6 3.1.1. CSMA/CD... 6 3.1.2. TCP/IP... 6 3.2. PRÉVENIR C EST GUÉRIR... 6 3.3. LA RÉSERVATION DE LA BANDE PASSANTE... 6 3.3.1. La gestion de la pénurie des ressources... 7 3.3.2. Prévenir c est guérir, le retour... 7 4. EN CONCLUSION... 7 5. A PROPOS DE L AUTEUR... 8 Un livre blanc 2 / 8
1. D OÙ PROVIENT LA DÉGRADATION DE SERVICE? Ne cherchons pas à dresser une liste exhaustive des mécanismes à l origine de la dégradation de service mais à cerner une voire plusieurs sources dont la résolution suffirait à rendre la qualité de service tout à fait acceptable. Le terme «acceptable» est révélateur du volet majeur de la qualité de service : service par service, on définit Selon les technologies retenues, les comportements diffèrent fondamentalement : réseaux sans fils «télécom» (UMTS, HSPA, LTE), réseaux sans fils «informatiques» (Wi-Fi), réseaux sur cuivre (xdsl) ou fibres (Gigabit Ethernet, MPLS ). Nous considérerons ici les réseaux sur fibres dans le cadre d infrastructures qui se retrouvent dans le transport de l Internet. Nous parcourrons successivement trois plans : le niveau physique, le niveau de transport des informations au travers du réseau et le niveau de traitement des informations lors de l établissement de communications. Nous sommes là très proches des notions de couches. 1.1. LE SIGNAL AU NIVEAU PHYSIQUE Au niveau physique, concentrons-nous sur quelques phénomènes à l origine de la majorité des altérations du signal : l affaiblissement lié à la distance, la diaphonie lorsque la proximité de deux câbles entraîne des interférences ou le parasitage L atténuation du signal L affaiblissement est suffisamment déterministe pour qu on puisse le contourner à l aide d amplificateurs, de répéteurs ou de régénérateurs. Les amplificateurs ont pour eux l avantage d une grande simplicité car ils se contentent de redynamiser le signal physique. Inconvénient : bruit et signal utile bénéficient de la même amplification. Répéteurs et régénérateurs analysent le signal, en extraient les «0» et «1» avant de le recréer. Il est ainsi possible de pallier l affaiblissement. La diaphonie entre deux signaux physiquement proches. Le signal bleu est influencé par le signal vert. Diaphonie Le parasitage. Le câble est proche d une source de parasites. Le signal bleu est parasité par le signal vert. Parasitage D autres astuces permettent d augmenter la résistance à l affaiblissement. Par exemple, les récepteurs n apprécient guère les longues séquences de «0» ou de «1». Il est plus délicat d en extraire l horloge de réception du signal. Pour éviter ces configurations, on code sur n + 2 bits les suites de n bits. Disposant ainsi de quatre fois plus de combinaisons on écarte les longues suite de «0» ou «1» litigieuses. Un livre blanc 3 / 8
Le débit requis est certes légèrement plus élevé, mais le travail du récepteur est facilité. On peut alors sensiblement augmenter le débit de fonctionnement. On retrouve par exemple les combinaisons 8B/10B, où 8 bits consécutifs sont codés sur 10 bits avec donc un surcoût de 25 % en débit. Le code 8B/10B. Les séries de 8 bits sont codées sur 10 bits. La quantité de bits à transporter est accrue mais les combinaisons délicates à transmettre longue série de «1» par exemple peuvent être écartées. Plus facile à transporter le signal accepte d autant mieux une sensible augmentation du débit. Le 64B/66B où chaque série de 64 bits est codée sur 66 bits présente un surcoût moindre. 1.2. CORRECTION D ERREUR ET ENTRELACEMENT D autres techniques concernent les perturbations liées à un parasite qui interfère avec le signal. Un code correcteur d erreurs permet de détecter un défaut voire de le corriger. Ce code correcteur introduit de la redondance dans le signal. Par exemple, un signal présentant de la voix échantillonnée avec une bonne résolution pourra être accompagné d un signal de résolution médiocre. Un échantillon défectueux peut ainsi être remplacé par un échantillon de secours. Ce mécanisme ne s adresse toutefois qu aux cas où les parasites sont suffisamment brefs pour n altérer qu un échantillon. Pour couvrir les parasites plus importants, un entrelaçage répartit les informations erronées sur plusieurs trames. Un livre blanc 4 / 8
Cette technique, très performante, introduit toutefois un retard dans la transmission de l information lié aux opérations d entrelaçage et de dé-entrelaçage. 1.3. LA TRANSMISSION DU SIGNAL La transmission d un signal en mode paquet est tributaire des conflits qui peuvent se présenter dans les nœuds d interconnexion. La méthode de transmission suit les règles des files d attente. Lorsque le réseau est peu chargé, les paquets sont traités et transmis sitôt arrivés. Le paquet est orienté dans le routeur. Par contre, si les ressources du nœud sont déjà mobilisées par d autres flux à faire transiter, les paquets ne peuvent pas être traités dès leur arrivée et doivent donc être temporairement stockés dans le nœud. Lorsque le paquet bleu arrive dans le routeur, il ne peut pas accéder immédiatement vers le port de sortie car un autre paquet monopolise déjà les ressources. Il est donc temporairement mis en attente dans une mémoire et reprend son chemin dès que la route se libère. Un paquet peut donc être retenu dans un équipement jusqu à ce que les ressources se libèrent. Le cumul de ces phénomènes entraîne des variations du délai de transit à l intérieur du réseau. 2. DANSONS LA GIGUE Tant que ces variations restent faibles, il n y a pas d incidence globale sur la qualité de service. Nous avons alors un phénomène nommé gigue ou «jitter» en anglais qui reste tout à fait acceptable dans la mesure où il se situe à l intérieur du gabarit fixé par le «Service Level Agreement». Ce phénomène peut d ailleurs être lissé grâce à l utilisation de mémoire tampon en sortie du réseau, mémoire qui est lue à vitesse constante. Cette opération augmente toutefois le délai de transit dans le réseau. sans en abuser Par contre, si la variation du délai devient telle qu elle dépasse la capacité du tampon en sortie, des paquets sont perdus. Le flot de données récupéré est alors haché. 3. L ENNEMI : LA CONGESTION Les congestions sont à l origine de l instabilité du temps que passe un paquet dans le réseau, ce temps pouvant être infini lorsque le paquet est supprimé. La durée des congestions est par définition imprévisible, variant de quelques millisecondes à plusieurs centaines de millisecondes voire quelques secondes. Un livre blanc 5 / 8
Plusieurs voies sont exploitées pour tenter de gérer ce problème : réguler le trafic à la source, réserver de la bande passante, gérer la pénurie de ressources ou répartir les flux sur l ensemble des ressources du réseau. 3.1. LA RÉGULATION DU TRAFIC À LA SOURCE Cette régulation se fait à plusieurs niveaux. 3.1.1. CSMA/CD Les réseaux locaux de transmission de données intègrent des mécanismes de régulation. A ce titre, la simplicité est illustrée par le protocole nommé «CSMA/CD». Sur un réseau Ethernet, toutes les machines partagent le même support. Lorsqu un équipement souhaite envoyer un message à un autre, il s assure que le support est libre puis envoie son paquet ; si malgré tout deux équipements envoient simultanément un paquet, la collision est détectée et chaque équipement attend avant de réitérer sa demande. Ce temps d attente est aléatoire et surtout croît avec la fréquence à laquelle ces collisions se produisent. Ainsi, plus il y a de trafic plus les sources réduisent leur débit. Le mécanisme se régule de lui-même. 3.1.2. TCP/IP Avec les réseaux IP, un mécanisme est également implanté pour réduire la cadence à laquelle les sources envoient leurs paquets lorsque les ressources de transmission sont trop sollicitées. Il s agit de «TCP», protocole confirmant la bonne réception des paquets. En cas de non réception, le paquet est ré-émis et la cadence d émission réduite. Si le temps mis par un paquet à traverser le réseau n est pas garanti sa probabilité d arriver à bon port l est. «TCP» fonctionne globalement très bien même s il faut prendre en compte des effets de bord. Le premier est que même si le trafic «TCP» est largement majoritaire dans les réseaux, il cohabite avec d autres flux nommés «UDP» qui eux ne sont pas soumis à ce contrôle. Ces flux sont constitués de paquets pour lesquels la garantie de bon acheminement est moins primordiale que le temps mis à traverser le réseau C est le cas des trafics interactifs ou de la voix par exemple. La régulation ne porte que sur le trafic «TCP», ce qui réduit l efficacité du mécanisme. Par ailleurs, le temps de réaction de la boucle est trop élevé pour éviter la formation des congestions. Enfin, toutes les sources perçoivent en même temps l apparition de la congestion. Elles réduisent donc simultanément leurs débits, désengorgeant de ce fait le réseau. Les débits alors repartent à la hausse replaçant de nouveau le réseau en situation de blocage. Il y a alors un phénomène de synchronisation conduisant à un «pompage» : le réseau se congestionne et se décongestionne cycliquement. 3.2. PRÉVENIR C EST GUÉRIR Les routeurs «sentent» venir les congestions : les taux d occupation de leur mémoire augmentent. Alors pour retarder voire éviter la congestion, les routeurs détruisent volontairement des paquets entrants. Ces mécanismes sont appelés «RED» pour «Random Early Detection» ou, de manière plus précise, «Random Early Drop». Ils consistent à détruire de manière préventive et aléatoire des paquets dans la file d attente d entrée pour éviter la congestion. De nombreuses variantes existent pour tenir compte de la priorité des différents flux par exemple. Ce mécanisme améliore la situation mais peut avoir comme conséquence de générer des réémissions de paquets. Par ailleurs, lorsque le paquet est une partie de message la totalité du message peut être relancée. Paradoxalement, le mécanisme peut créer une augmentation de trafic. D autres techniques telles que le «Call Admission Control» jouent sur une notion de contrat. Un contrat est passé entre le client souhaitant transporter du trafic et l opérateur de transport. D un côté le client s engage sur le trafic qu il envoie et de l autre le transporteur s engage sur les ressources qu il met à disposition. 3.3. LA RÉSERVATION DE LA BANDE PASSANTE Pour assurer la qualité du transport, l idée de dédier des ressources à un flux est séduisante. On se rapproche des conditions du mode circuit tel qu il existait au temps de la téléphonie classique. Une différence notable cependant : en téléphonie classique, la route est figée alors que les protocoles paquets ne stipulent que la bande passante réservée. Ce mécanisme se rencontre sous le terme de «DiffServ» et utilise le protocole de réservation «RSVP». Un livre blanc 6 / 8
En pratique, ce mécanisme est réservé aux petits réseaux. En effet d une part il s applique individuellement à chaque service et d autre part le protocole «RSVP» exige pour chacun des flux un rafraîchissement permanent coûteux en bande passante et en traitement. 3.3.1. LA GESTION DE LA PÉNURIE DES RESSOURCES Nous approchons là du grand mécanisme utilisé pour la qualité de service. C est la différentiation de service «DiffServ». Il consiste à spécifier des classes de services qui auront chacune un niveau de priorité. Ainsi, en cas de conflit entre deux flux, la lecture de la classe permet de savoir lequel passe en premier. «DiffServ» n est donc pas à proprement parler un mécanisme qui améliore la qualité de service. Il n entre en action que lorsqu une congestion est avérée. Lorsqu un routeur n est plus à même d acheminer les flux, «DiffServ» permet de stipuler dans quel ordre détruire les paquets. Les paquets les moins prioritaires sont détruits les premiers. Le rôle de «DiffServ» se limité à gérer la pénurie de ressources lors des congestions mais ne permet en aucun cas d éviter les congestions. En ce sens, l appellation mécanisme de qualité de service n est pas réellement justifiée. 3.3.2. PRÉVENIR C EST GUÉRIR, LE RETOUR Cette dernière famille de mécanismes se différencie des autres car ici le but n est pas de minimiser les conséquences d une congestion mais bel et bien de les éviter. Il est en effet instructif de visualiser la formation des congestions. En mémorisant l historique des délais pour accéder aux différents nœuds d un réseau (outils construits sur la fonction «PING»), on visualise l apparition des congestions. L information importante n est pas «Il y a eu congestion à telle heure à tel endroit» - tout le monde est au courant mais alors qu une congestion se formait des routes alternatives étaient sous-utilisées. Autrement dit, il aurait du être possible d éviter la congestion en utilisant correctement les ressources offertes par le réseau. Si effectivement il n y avait pas d autres routes disponibles on peut conclure que le réseau est sous-dimensionné. Mécaniquement, ceci provient du côté grégaire des datagrammes dans le réseau. Chaque paquet trouve sa route de manière autonome. Mais tous les paquets suivent les mêmes règles de calcul et arrivent à des résultats similaires. On les retrouve tous sur les mêmes routes. La solution pour éviter la formation des congestions passe donc par une répartition du trafic sur l ensemble des ressources de transport. Le mode de fonctionnement dit «Load Balancing» est parfaitement dans cette philosophie. Lorsque deux routes sont équivalentes entre deux points, le trafic passe à parts égales sur les deux routes. Néanmoins ce mécanisme est fonction de la topologie du réseau et des situations proposant effectivement deux routes équivalentes. Autre moyen : prédéfinir des routes. C est un principe familier aux opérateurs de réseau télécoms depuis X25 jusqu à l ATM. On retire un peu de (voire toute) son autonomie au paquet dans la recherche de sa route. Les réseaux «MPLS» introduisent une couche supplémentaire dans le modèle OSI (niveau 2,5) permettant de créer des routes appelées «LSP» qui seront proposées à des familles de trafic. L opérateur du réseau peut utiliser ce mécanisme pour aménager ses propres routes et répartir le trafic sur l ensemble du réseau. Nous sommes là dans le domaine du «Traffic Engineering» et des évolutions aux acronymes spécifiques comme le «T-MPLS» ou le «PBB-TE» pour les réseaux Gigabit Ethernet. Grand intérêt de la technique : on maîtrise le trafic. Grand inconvénient de la technique : on se retrouve avec un nombre énorme de routes à gérer. On ne sait aller d un point à un autre que si la route pour les joindre a été auparavant explicitement précisée. En toute logique, un réseau de n nœuds demande n x (n 1) / 2 routes prédéterminées. C est entre autres à cause de cette quantité de routes à gérer que le passage du mode circuit au mode paquet a été aussi bénéfique. Ceci dit, des outils apparaissent heureusement aujourd hui sur le marché pour créer et gérer ces routes. C est par exemple dans cette optique qu un outil comme RetiTools a été développé. Ces outils permettent en outre de gérer l établissement des routes protégées («Fast ReRoute» par exemple). 4. EN CONCLUSION A partir de la constatation que les congestions sont la cause première de la dégradation de la qualité, on s aperçoit que les méthodes construites sur la gestion des priorités de trafic permettent au mieux de gérer la pénurie lors d une congestion alors qu une méthode visant à éliminer les congestions peut se révéler plus efficace car elle traite la cause et non les effets. C est ce que peut apporter un mode circuit. Les paquets perdent alors de leur autonomie et la gestion du réseau doit prendre en charge la très forte quantité de routes. Effet de bord : il n est plus nécessaire de connaître ou de marquer la nature du trafic transporté. Un livre blanc 7 / 8
5. A PROPOS DE L AUTEUR Jacques Baudron, administrateur du Forum ATENA, est ingénieur de l École Spéciale de Mécanique et d Électricité (ESME). Spécialisé dans les infrastructures de transmission depuis le début des années 1990, il a représenté Alcatel au sein des organismes de normalisation (ITU-T, ETSI) pour la définition des réseaux protection, qualité de service - avant de créer ixtel où il a développé la famille d outils RetiTools pour le dimensionnement et la simulation comportementale des réseaux. Jacques Baudron est chargé de cours en architecture de réseaux pour différentes écoles d ingénieur et Mastères. jacques.baudron (at) ixtel.fr Les idées émises dans ce livre blanc n engagent que la responsabilité de leurs auteurs et pas celle de Forum ATENA. La reproduction et/ou la représentation sur tous supports de cet ouvrage, intégralement ou partiellement, est autorisée à la condition d'en citer la source comme suit : Forum ATENA 2011 La QoS Licence Creative Commons - Paternité - Pas d utilisation commerciale - Pas de modifications L'utilisation à but lucratif ou commercial, la traduction et l'adaptation sur quelque support que ce soit sont interdites sans la permission écrite de Forum ATENA. Un livre blanc 8 / 8