Thèse de Doctorat Université Pierre et Marie Curie Paris 6 EDITE de Paris. Ahmed Amamou. Isolation réseau dans un datacenter virtualisé

Dimension: px
Commencer à balayer dès la page:

Download "Thèse de Doctorat Université Pierre et Marie Curie Paris 6 EDITE de Paris. Ahmed Amamou. Isolation réseau dans un datacenter virtualisé"

Transcription

1 Thèse de Doctorat Université Pierre et Marie Curie Paris 6 EDITE de Paris Spécialité INFORMATIQUE, TELECOMMUNICATIONS ET ÉLECTRONIQUE présentée par Ahmed Amamou pour obtenir le grade de Docteur de l Université Pierre et Marie Curie Paris 6 Isolation réseau dans un datacenter virtualisé Jury Bernard Cousin Rapporteur Professeur, Université de Rennes Otto Duarte Rapporteur Professeur, Universidade Federal do Rio de Janeiro Djamal Zeghlache Examinateur Professeur, Télécom SudParis Raouf Boutaba Examinateur Professeur, University of Waterloo Pierre Sens Examinateur Professeur, Université Pierre et Marie Curie Pascal Bouchareine Examinateur Directeur Recherche et Developpement, Gandi SAS Guy Pujolle Directeur Professeur, Université Pierre et Marie Curie Kamel Haddadou Encadrant Ingénieur de Recherche, Gandi SAS

2

3 Table des figures 2.1 Les types de services fournis par le Cloud Computing Architecture de Vserver Architecture réseau conventionnelle d un datacenter Architecture d un datacenter virtualisé Entête VXLAN Entête DOVE Entête NVGRE Architecture de communication basée sur les I/O de XEN Bande passante résultante dans le cas standard Bande passante résultante avec notre algorithme Variation de la consommation CPU en fonction de la periode de réajustement Variation du nombre de transactions mémoire consommées en fonction de la periode de réajustement Limite en nombre de paquets par seconde de notre système Débit d émission suivant la taille des paquets pour le DBA-VM Débit en nombre de paquets pour les trois scénarios Délai moyen pour les trois scénarios Jitter pour les trois scénarios Nombre de cycles CPU consommés par le DBA-VM en fonction de la période de réajustement Nombre de transactions mémoire consommées par le DBA-VM en fonction de la période de réajustement Architecture réseau d un data center basé sur TRILL Structure d un paquet TRILL Structure d un entête TRILL Processus d envoi des paquets TRILL Processus de réception des paquets TRILL Implémentation d un Rbridge sous Linux Délai de convergence pour le protocole TRILL I

4 4.8 Évolution du temps de réelection en fonction de la période LSP Performances réseau du protocole TRILL Nombre d entrées dans la table de commutation pour un réseau Ethernet standard Nombre d entrées dans la table de commutation pour un réseau TRILL Surcharge du protocle TRILL Isolation basé sur le Host Isolation de bout en bout Champ d extension Champ Flux Champ résumant les extensions Composition d un paquet VNT Commutateur Virtuel Processus d envoi d un paquet VNT Processus de réception d un paquet VNT Performances réseau du protocole VNT Nombre d entrées dans la table de commutation pour un réseau VNT Diagramme d états des VNI Processus de découverte des VNI Processus d envoi en tenant compte de la propagation des VNI Processus de reception en tenant compte de la propagation des VNI Délai de convergence pour le protocole VNT Performances réseau du VNT Nombre d entrées dans la table de commutation pour un réseau VNT avec propagation du VNI Nombre d entrées dans la table de commutation pour un réseau VNT avec propagation du VNI en fonction du nombre de VM par VNI Plateforme de test pour le multichemin Reprise du flux TCP après panne Évolution du flux TCP pendant une migration

5 Liste des tables 3.1 Scénario d émission Délai de ping pour les paquets TRILL Délai de ping pour les paquets VNT III

6

7 Table des matières 1 Introduction Motivations Contributions Plan de la thèse Datacenter virtualisé Introduction Cloud Computing La virtualisation Définition Terminologie La mutualisation des ressources systèmes La para virtualisation La virtualisation complète La virtualisation par conteneurs La virtualisation des réseaux la virtualisation des routeurs (nœuds) La virtualisation des liens Architecture réseau pour un datacenter traditionnel Limitation d Ethernet (L2) Architecture réseau L2 + L Réseau local virtuel (VLAN) Architecture réseau pour un datacenter virtualisé (VDC) Architecture du VDC Nouvelles recommandations Mobilité des VMs Connectivité any to any non bloquante Tolérance aux pannes Passage à l échelle Simplicité de gestion V

8 Réseaux privés Travaux de recherche sur les architectures réseaux pour un VDC Passage à l échelle Réseau Privé Conclusion Dimensionnement dynamique des capacités d émission des Machines Virtuelles Introduction Hyperviseur Xen Problématique du partage de la bande passante Architecture I/O Réseau de XEN Dimensionnement dynamique de la bande passante Évaluation de performances Plateforme de test Performances Réseaux Évaluation de la bande passante Performances système Performances CPU Évaluation des transactions mémoire consommées Limitations Discussion Dimensionnement dynamique de la bande passante couplé avec le nombre de paquets par seconde Évaluation de performance Plateforme de test Performances Réseaux Évaluation de la bande passante Évaluation du délai de bout en bout Évaluation de la Jitter Performances système Performances CPU Évaluation des transactions mémoire consommées Conclusion Intégration du TRILL au niveau des noeuds physiques Introduction Inadéquation de la couche L2 actuelle pour les datacenters Introduction au protocole TRILL Présentation Présentation de la structure d un paquet TRILL Plan de contrôle Plan de données Intégration du RBridge au niveau du nœud physique

9 4.4.1 Choix de l emplacement des RBridges Déploiement des RBridges comme équipements dédiés Déploiement des RBridges dans les nœuds physiques Déploiement des RBridges au niveau des interfaces des VMs Discussion Plan de Contôle Plan de données Processus d envoi Processus de Réception Évaluation des performances Implémentation du RBridge Plateforme de Test Plan de contrôle Convergence Tolérance aux pannes Plan de données Délai de bout en bout Bande passante Impacte sur la table de commutation des ToR Surcharge protocolaire Conclusion VNT : Virtual Network over TRILL Introduction Notion de réseau privé dans un datacenter Types d isolations Isolation basé sur le Host Isolation de bout en bout Présentation du VNT : Virtual Network over TRILL Tag VNI Format des paquets VNT Intégration de l extension VNT dans les RBridges Description de l approche Introduction des Virtuals Switches Processus d envoi Processus de réception Évaluation de performances Plateforme de test Plan de contrôle Plan de données Délai de bout en bout Bande passante Impacte sur les tables de commutation Discussion

10 5.9 Intégration des extensions VNT dans les RBridges avec annonce des VNI Description de l approche Exemple de découverte de la topologie selon le VNI Changement au niveau du plan de contrôle Changement au niveau du plan de données Évaluation des performances Plateforme de test Plan de contrôle Convergence Reprise après panne Plan de données Délai de bout en bout Bande passante Impacte sur la table de commutation Tolérance aux pannes (Multipath) Migration Rétrocompatibilité Rétrocompatibilité du plan de contrôle Rétrocompatibilité du plan de données Conclusion Conclusion Contributions Perspectives Publications 123 Bibliographie 124

11

12 Chapitre 1 Introduction Sommaire 1.1 Motivations Contributions Plan de la thèse

13 2 CHAPITRE Motivations Nous assistons, ces dernières années, à l émergence d un nouveau modèle économique dans l exploitation des ressources informatiques. Ce nouveau modèle, c est l informatique dans les nuages communément appelé Cloud Computing. Plusieurs PME choisissent aujourd hui ce modèle pour des raisons de coût et de flexibilité. En effet, ce modèle permet une rationalisation et un lissage du coût des ressources dans le temps. Le Cloud computing est aujourd hui en pleine expansion avec une demande qui ne cesse d augmenter, à titre d exemple, le cabinet Gartner [1] estime la croissance pour l année 2013 à 18% atteignant ainsi un chiffre d affaires totale de 131 millions de dollars. Outre l aspect économique du cloud, ce dernier est important par la quantité de données qui y sont stockées et la quantité de trafics qu il génère. Ainsi selon Cisco [2], le total de la bande passante consommée pour le cloud sera de l ordre de 3.3 zetta (10 21 ) octets en 2013 et le double à savoir 6.6 zetta octets en Toujours selon [2], ce trafic se répartit de la manière suivante : 76% est un trafic au sein même du datacenter, 17% est un trafic entre l utilisateur et le datacenter, et enfin, 7% est un trafic entre différents datacenters. 76% du trafic global du Cloud Computing reste dans le datacenter, ceci est dû entre autres à la séparation des serveurs de calcul et des serveurs de stockage, ainsi qu à la réplication et la sauvegarde des données. Cette énorme quantité de données qui circule dans le datacenter, impose de revoir la communication en son sein. En plus de la quantité de données, il y a le nombre important de clients par datacenter. Ceux-ci imposent de nouvelles contraintes aux opérateurs cloud, ainsi, avec ce nombre important de clients, il est essentiel de garantir le passage à l échelle. Il est tout aussi primordial de pouvoir isoler le trafic de chaque client dans un réseau qui lui est privé. Avec toute la quantité de trafics internes dans un datacenter, les opérateurs cloud ont besoin d un protocole réseau capable de maximiser les débits entre les nœuds avec des connections any to any non bloquantes. Enfin, les opérateurs ont besoin de mécanismes permettant la continuité de service tels que la migration des VMs et l auto configuration pour la reprise après panne. Tout ceci devrait idéalement se faire avec un minimum de configurations. Ces nouvelles contraintes, notamment celles de l isolation et du passage à l échelle, nous imposent de revoir la couche réseau des datacenters, pour qu elle puisse les gérer. Afin d aboutir à cet objectif ultime, et après l évaluation des procédés existants dans le but d isoler le trafic de deux clients au sein d un même datacenter virtualisé, nous avons pu détecter un ensemble de points qui nécessitaient une adaptation aux nouvelles exigences des réseaux dans un environnement Cloud computing. Nous avons, pour cela, adopté une démarche ascendante en partant des contraintes que doit respecter un nœud physique pour

14 CHAPITRE 1. 3 arriver à l architecture réseau d un datacenter virtualisé. 1.2 Contributions Le travail effectué dans le cadre de cette thèse a pour objectif d introduire un ensemble de mécanismes permettant de répondre aux différents besoins susmentionnés des opérateurs Cloud. Ces mécanismes permettent d aboutir à une isolation des réseaux dans un datacenter virtualisé tout en assurant le passage à l échelle de la couche réseau. Ainsi, notre contribution à travers cette thèse peut se résumer en trois parties essentielles. La première contribution se focalise sur l équité de partage des ressources réseau dans un même nœud physique. Elle consiste en un système d allocation dynamique de la bande passante. Il permet de maximiser l utilisation des réseaux dans le Cloud pour les clients qui en ont besoin, tout en respectant des contraintes de service minimum garanti pour les autres. Cet allocateur dynamique de la bande passante impose l utilisation de nouvelles formesdecontratsdeserviceousla[3].nousavonsdéfinitoutd abordunslas appuyant sur un intervalle de la bande passante [4]. Nous avons par la suite enrichi cet intervalle en le couplant avec une bande passante maximale en paquets par seconde [5]. L utilisation de ces SLA permet la diminution de l utilisation des ressources système lors de fortes charges, tout en garantissant à l ensemble des clients leurs SLA. En définissant des valeurs maximales pour la bande passante, ce système assure, également, une protection contre les attaques de dénis de service internes. Après avoir amélioré l équité de partage des ressources au sein d un même nœud physique, nous nous sommes focalisés sur les interconnexions réseau entre les différents nœuds physiques. Nous avons alors constaté l inadéquation de la couche L2 standard aux besoins du réseau d un datacenter. Nous avons étudié plusieurs alternatives et avons fini par adopter le protocole TRILL [RFC6325] [6], en effet le protocole TRILL introduit un nouveau équipement appelé RBridge combinant les avantages de la couche L2 et de la couche L3. Néanmoins, l approche de déploiement proposée dans l RFC 6325 ne nous semblait pas la plus pertinente. En effet, le déploiement des équipements TRILL pour interconnecter les nœuds physiques nous paraît moins intéressant que l implémentation du protocole directement au sein du nœud physique. Notre deuxième contribution consiste dans l adaptation du protocole TRILL pour l intégrer directement dans un nœud physique [7]. Cette approche permet d améliorer de façon considérable la capacité de passage à l échelle tout en assurant un premier niveau d isolation entre les réseaux des clients et le réseau de gestion.

15 4 CHAPITRE 1. Notre troisième contribution s articule au tour de la création de réseaux virtuels sur la couche réseau TRILL [8]. Ces réseaux virtuels permettent une création flexible de réseaux logiques qui ne souffrent pas des limitations des infrastructures réseau actuelles comme la limitation des 4096 segments de réseau logique du IEEE 802.1Q[9]. Ces limitations sont surmontées à travers l introduction d un identifiant VNI codé sur 24 bits. Cet identifiant est transporté dans le nouveau entête TRILL, permettant ainsi d atteindre un nombre de segments réseau logique dépassant les 16 millions, tout ceci sans aucune modification des domaines d administration niveau L2 déjà existants. L isolation des ces différents réseaux virtuels est effectuée tout d abord à travers un mécanisme de suppression au niveau du Rbridge destination. Puis dans un deuxième temps, en exploitant le plan de contrôle des RBridges, nous sommes parvenus à construire des arbres topologiques par VNI. Ceci à permis le confinement des flux d un VNI aux seuls RBridges concernés, permettant ainsi une isolation de bout en bout. Par ailleurs, cette solution appelée VNT(Virtual Network over TRILL), apporte une augmentation de la bande passante et une réduction de la latence, répond aux limitations des réseaux actuels (épuisement des VLAN, limite de la taille des tables de commutation des ToRs, manque de redondance des chemins dans les STP, etc) et assure une compatibilité ascendante avec les équipements niveau L2 actuels et les équipements qui supportent le protocole TRILL. 1.3 Plan de la thèse Ce manuscrit sera présenté de la manière suivante : Tout d abord nous débuterons à travers une description de l état de l art en définissant les datacenters virtualisés à travers une introduction au Cloud. Ensuite, nous dégagerons les différents défis à satisfaire afin d aboutir à un datacenter virtualisé efficace d un point de vue réseau. Une fois les défis dégagés, nous commencerons leur résolution en adoptant une démarche ascendante à travers la présentation des différentes contributions. Tout d abord, à travers le dimensionnement dynamique des capacités d émission des machines virtuelles (VMs). Ensuite, nous passerons à l intégration du TRILL au niveau des nœuds physiques à travers une présentation du protocole ainsi que le portage des équipements RBridges au niveau des nœuds physiques. Nous enchaînerons, par la suite, avec une description du VNT qui permettra d étendre la capacité de nombre de réseaux logiques dans un datacenter virtualisé. Enfin, pour conclure, nous allons résumer l ensemble des travaux effectués et présenter les perspectives à courts, moyens et longs termes.

16 Chapitre 2 Datacenter virtualisé Sommaire 2.1 Introduction Cloud Computing La virtualisation Définition Terminologie La mutualisation des ressources systèmes La virtualisation des réseaux Architecture réseau pour un datacenter traditionnel Limitation d Ethernet (L2) Architecture réseau L2 + L Réseau local virtuel (VLAN) Architecture réseau pour un datacenter virtualisé (VDC) Architecture du VDC Nouvelles recommandations Travaux de recherche sur les architectures réseaux pour un VDC Conclusion

17 6 CHAPITRE Introduction Le Cloud computing est selon le NIST(Nation Institue of Standard and technology) [10] un modèle permettant un accès ubiquitaire, à la demande et via un réseau distant à un ensemble de ressources informatiques. Toujours suivant cette définition, ces ressources informatiques doivent pouvoir être acquises puis relâchées avec un minimum d opérations de configuration et une interaction minimale du fournisseur de services. Afin de fournir ces ressources informatiques suivant le modèle Cloud Computing, il est essentiel de les stocker dans des centres de données (datacenters). Pour fournir ces services via un réseau, il est crucial de connecter les datacenters à internet, mais il est aussi essentiel d interconnecter l ensemble des équipements du datacenter de manière convenable. Ces travaux de thèse vont se focaliser sur la partie réseau des datacenters d une manière ascendante en partant du fonctionnement du réseau au sein des ressources informatiques, pour arriver aux communications au sein d un même datacenter. Mais avant d entamer la présentation de ces travaux, il est essentiel d introduire le contexte général. Pour cela, nous allons d abord introduire plus en détail le concept de Cloud Computing à travers sa signification et l ensemble des services qu il fournit. Nous allons, ensuite, nous focaliser sur l une des principales technologies permettant l établissement du Cloud Computing qui est la Virtualisation. Nous allons présenter la signification de la virtualisation, définir un ensemble de terminologies relatives à la virtualisation et les types possibles de virtualisation. Nous allons, par la suite, introduire l architecture réseau des datacenters classiques. Enfin, nous allons présenter la notion de datacenters virtualisés (appelés aussi VDC) qui sont utilisés dans le contexte du Cloud Computing. Nous allons, pour cela, définir le VDC à travers la description de son architecture, puis, introduire l ensemble des recommandations qui nous semblent vitales pour l établissement d un VDC et énumérer, à la fin, les travaux les plus pertinents proposés afin d assurer l isolation réseau et le passage à l échelle des réseaux privés au sein d un VDC. 2.2 Cloud Computing Le Cloud Computing selon[11] et[12] est la concrétisation de l informatique comme service. En effet, le Cloud Computing est le déploiement des ressources informatiques en les offrant en tant que service permettant ainsi d éviter le surprovisionnement des ressources physiques pour des tâches qui n en requièrent pas tant et le sousprovisonnement des services dont la croissance n était pas espérée. Le terme Cloud Computing désigne à la fois le service offert aux clients ainsi que les ressources matérielles et logicielles nécessaires pour offrir ce service.

18 CHAPITRE 2. 7 Les centres de données offrant des services de Cloud Computing sont alors appelés Cloud, ce terme regroupe à la fois les composantes logicielles et matérielles des centres de données. Il existe plusieurs sortes de Cloud [10], on retrouve : Le Cloud public qui comme son nom l indique est un Cloud ouvert à toutes sortes de clients dans un modèle de payement à la demande. Google Application Engine [13] et Amazon EC2 [14] sont des exemples de Cloud public. Le Cloud privé, ce type de Cloud est un Cloud dédié à une entreprise ou à une organisation pour ses propres besoins. l accès à ce type de Cloud n est pas autorisé au public mais uniquement à un groupe prédéfini de personnes appartenant à l entité qui gère le Cloud. Windows Azure [15] est une des solutions utilisées pour mettre en place ce type de Cloud. Le Cloud hybrid est une combinaison entre le Cloud privé et le Cloud public, concrètement c est l utilisation d un ou plusieurs Clouds privés associés à un ou plusieurs Clouds publics, un exemple serait l utilisation d un Cloud privé avec un stockage en Cloud public. Le Cloud communautaire[16] est un ensemble d infrastructures partagées entre différentes organisations qui soutiennent une certaine communauté avec des besoins partagés un exemple de Clouds communautaires c est celui initié par les hôpitaux de Toronto [17] Quelque soit le type du Cloud utilisé les services qu il offre peuvent varier selon les besoins des utilisateurs. Afin de mieux comprendre les types de services susceptibles d être fournis par un cloud, il est essentiel de décrire l architecture d un Cloud présentée par la figure 2.1. Ainsi il est possible d avoir les types de services suivants [10] : SaaS (Software as Service) : ou logiciel comme service, dans ce type de service le fournisseur du Cloud a le contrôle de toute l infrastructure ainsi que des systèmes d exploitations et du logiciel dont le client va se servir, le client n aura le contrôle que sur une partie des données, celle qu il fournira au logiciel. PaaS (Platform as a Service) : ou plateforme comme service, dans ce type de service le client aura un contrôle restreint sur les logiciels de base typiquement des options de configuration. En revanche il aura un contrôle total sur le code applicatif à exécuter ainsi que sur les données qu il fournira à ce code applicatif. IaaS (Infrastructure as a Service) : ou infrastructure comme service, dans ce type de service le client aura le contrôle total du système d exploitation de son instance et

19 8 CHAPITRE 2. Figure 2.1 Les types de services fournis par le Cloud Computing de ce fait il aura aussi le contrôle total sur l ensemble des logiciels de base, des codes applicatifs à exécuter et bien sûr, sur les données qu il pourra fournir à ses codes applicatifs. L architecture d un Cloud se base sur un composant essentiel afin de pouvoir offrir ses différents services aux clients finaux. Ce composant essentiel est la virtualisation. Cette couche permet l exécution simultanée de plusieurs systèmes d exploitation sur le même environnement matériel. Il est donc essentiel afin de mieux comprendre le fonctionnement du Cloud Computing d introduire la notion de virtualisation.

20 CHAPITRE La virtualisation Définition La virtualisation en termes simples est une technologie permettant le représentation d un équipement physique en un ensemble d autres équipements virtuels. Ainsi au travers de la virtualisation, il devient possible de faire cohabiter plusieurs environnements d exécution sur la même infrastructure physique. Ces environnements d exécution seront isolés les uns des autres, c est à dire aucune interaction entre ces différents environnements ne sera possible. Pour réaliser cette isolation, chacun de ces environnements aura sa propre perception du système. Cette technologie n est pas une invention récente. En effet, la mutualisation des ressources systèmes est une problématique classique qui est étudiée depuis une cinquantaine d années maintenant. La virtualisation des systèmes a commencé depuis les années soixante [18] où en absence d ordinateurs personnels, il fallait permettre à plusieurs utilisateurs de partager le même super ordinateur. Mais avec les performances des machines actuelles et les coûts de maintenance élevée, la virtualisation revient au devant de la scène avec de nouvelles problématiques Terminologie Afin d introduire le concept de virtualisation, nous devons d abord introduire un ensemble de termes techniques nécessaires à la compréhension du concept. Nous désignerons l ensemble des équipements physiques hébergeant des instances virtuelles comme nœuds physiques. Afin de permettre l exécution de plusieurs systèmes d exploitation en parallèle sur un nœud physique, il est nécessaire d avoir un Hyperviseur. L hyperviseur est un pseudo système d exploitation permettant la coordination entre les différents systèmes d exploitation. L hyperviseur peut aussi être désigné par VMM (Virtual Machine Manager) ou en Français GMV (Gestionnaire des Machines Virtuelles). Le terme VM (Virtual Machine) ou MV (Machine Virtuelle) désigne l ensemble des instances virtuelles s exécutant par dessus l hyperviseur, ces instances possèdent des composants virtuels. Parmi les composants virtuels d une VM on trouve principalement une mémoire virtuelle, une ou plusieurs CPU appelées vcpu pour virtual cpu et enfin des interfaces réseau virtuelles appelées vif pour virtual interface.

21 10 CHAPITRE La mutualisation des ressources systèmes La virtualisation a tout d abord été utilisée dans le but de la mutualisation des ressources systèmes. Elle a ainsi permis de décomposer les ressources systèmes en un ensemble de ressources virtualisées fournies simultanément à plusieurs clients. Afin de mettre en place cette mutualisation, plusieurs techniques peuvent être utilisées. Nous dégageons parmi elles les trois suivantes : la virtualisation par conteneurs [19] la para virtualisation [20] la full virtualisation [21] ou virtualisation complète La para virtualisation La para virtualisation ou pseudo virtualisation, est un type de virtualisation utilisant un Hyperviseur. Au dessus de l Hyperviseur, plusieurs systèmes d exploitation cohabitent. Parmi ces instances, il existe une qui est particulière appelée DOM0. Cette instance privilégiée est la seule ayant un accès direct aux périphériques, les autres instances doivent être modifiées et leurs interruptions matérielles doivent être converties en interruptions logicielles. Ainsi au niveau des OS modifiés, toutes les instructions sont modifiées avant d être transmises à l Os privilégié. Ces derniers en recevant les interruptions logicielles, les convertissent en interruptions matérielles avant de les transmettre aux périphériques. Ils permettent ainsi aux OS non privilégiés d accéder aux périphériques. Une telle technique de virtualisation impose la modification du code des OS qui y seront hébergés. Un exemple d Hyperviseur utilisant la para virtualisation est Xen [22] La virtualisation complète La virtualisation complète ou full virtualisation ou encore virtualisation matérielle se base aussi sur le déploiement du pseudo système d exploitation Hyperviseur. Mais contrairement à la para virtualisation, les OS ne sont pas modifiés dans un tel système. En effet dans ce genre de système, un type particulier de nœuds physiques est utilisé. Ces nœuds doivent avoir des composants capables de supporter la virtualisation tels que les processeurs de la famille intel-vt [23]. Dans de tels systèmes, les interruptions matérielles des OS non privilégiés ne sont pas converties en interruptions logicielles et sont directement envoyées aux périphériques. Grâce au caractère spécifique du matériel utilisé, les OS non privilégiés ne sont pas modifiés et se comportent comme s ils étaient dans un environnement non virtualisé. L hyperviseur grâce aux particularités matérielles pourra gérer les interrup-

22 CHAPITRE tions envoyées par l ensemble des Os. Plusieurs Hyperviseurs supportant la virtualisation matérielle existent tels que KVM [24], Virtual Box [25] ou encore VMware [26] La virtualisation par conteneurs La virtualisation par conteneurs [19] consiste à déployer un système d exploitation (OS) virtualisé. Ce système est partagé entre plusieurs instances. En outre ces différentes instances, s exécutant en parallèle, se partagent un ensemble de librairies d une manière sécurisée. L architecture d un système utilisant la virtualisation par conteneur est illustrée par la figure 2.2 extraite de [19]. Ce type de virtualisation se base sur la présence d une VM host possédant un accès privilégié au système, d autres VM s exécutent sur le même OS en utilisant les librairies exposées par le système. Un exemple de système utilisant la virtualisation par conteneur est Linux VServer [27]. L isolation entre les différentes VM est effectuée à travers l isolation des trois composants, à savoir le CPU, les I/O et le stockage. Tout d abord, afin d effectuer une isolation entre les différents CPU un filtre TBF (Token Bucket Filter) est déployé au dessus de l ordonnanceur standard de CPU linux. Chaque VM possède un nombre de crédits; à chaque fois qu un processus associé à une VM est exécuté pendant un intervalle donné, le crédit est décrémenté. Une fois ces crédits épuisés, l ensemble des processus associé à cette VM est enlevé de la file d attente du CPU. Ces processus sont repris une fois que la VM a acquis suffisamment de crédits. Concernant l isolation des I/O, cette dernière est effectuée de la manière suivante, grâce à l utilitaire Trafic Control de linux [28], une file d attente de type HTB (Hierarchical Token Bucket) est crée. Pour chaque VM, un débit est réservé grâce à ces files d attentes. Concernant les I/O de stockage, ces derniers sont gérés grâce à l ordonnanceur Linux CFQ (Completely Fair Queuing). Enfin concernant le stockage, Vserver permet de définir une limite de la quantité de mémoire associée à chaque VM. Pour le stockage, les limites suivantes peuvent être définies: le nombre maximum de RSS (Resident Set Size) le nombre de pages anonymes (ANON) le nombre de pages qui peuvent être bloquées en mémoire en utilisant le mlockc() et mlockall() que des processus peuvent avoir dans une seule VM (MEMLOCK) Ainsi contrairement à la virtualisation avec l utilisation d Hyperviseur (para virtualisation et virtualisation complète), la virtualisation par conteneurs n exige que l utilisation d une seule image.

23 12 CHAPITRE 2. Figure 2.2 Architecture de Vserver La virtualisation des réseaux La virtualisation des systèmes est la premier type de virtualisation à voir le jour. Mais ultérieurement avec l émergence d un besoin de changement globale dans les réseaux actuels un nouveau type de virtualisation vit le jour, c est la virtualisation des réseaux. Ce nouveau concept fut proposé afin de remédier aux différentes problématiques structurelles et conceptuelles que pose l expansion de l Internet [29]. Le principe d une telle virtualisation est assez simple. Il propose de subdiviser un réseau physique déjà existant en un ensemble de réseaux de protocoles indépendants tout en étant isolés les uns des autres. Un tel principe se base sur la virtualisation de deux composantes essentielles à savoir la virtualisation des routeurs (nœuds) et la virtualisation des liens [30] la virtualisation des routeurs (nœuds) Afin d aborder la virtualisation des réseaux, il est essentiel de commencer par la virtualisation des routeurs [31] [32]. Suite à l émergence de plusieurs routeurs applicatifs tels que Quagga[33], XORP[34], ou Click[35], il est devenu assez simple de s affranchir des routeurs traditionnels au profit de tels routeurs software. Il est alors apparu comme évident qu il serait possible de déployer sur une même machine physique plusieurs VM avec les logiciels de routages différents, permettant ainsi à chaque client d avoir une gestion de son propre réseau. C est ainsi que suivant ce principe plusieurs recherches ont été menées notamment parmi lesquels le projet VRouter [36]. D autres recherches comme la plateforme PlanetLab [37] optent pour la séparation du plan

24 CHAPITRE de contrôle du plan de données et utilisent des processus réseau pour un traitement rapide des paquets La virtualisation des liens La virtualisation des liens est un autre volet de la la virtualisation des réseaux. Un lien virtuel représente le lien interconnectant deux nœuds virtuels. Ce lien peut correspondre à un lien physique ou bien à l association de plusieurs liens physiques. La virtualisation des liens s intéresse à l association optimales des liens physiques avec les liens virtuels. Ce problème d association des liens physiques/virtuels revient à un problème d association des topologies virtuelles avec la topologie physique. DesétudesontétémenéesdanscedomainecommeZhuetal[38]quimodélisentleproblème sous forme de graphe et proposent deux variantes de cet algorithme. La première variante est une association sans re-configuration, la deuxieme est une association avec re-configuration. 2.4 Architecture réseau pour un datacenter traditionnel Limitation d Ethernet (L2) De nos jours, les réseaux Ethernet sont les réseaux les plus utilisés par les opérateurs du Cloud pour interconnecter les nœuds physiques au sein d un datacenter. Cette popularité est entre autres due à la simplicité du fonctionnement de l Ethernet et à la facilité de ses opérations de configuration. En effet, dans un réseau Ethernet chaque interface de chaque nœud physique possède une adresse MAC, unique. Les bridges Ethernet interconnectant les nœuds physiques vont automatiquement découvrir ces adresses MAC et les associer à un port donné. Cet apprentissage automatique permettra de créer au niveau de chaque Bridge une table de commutation. Ces Bridges vont ainsi permettre la commutation des paquets niveau Ethernet à travers leurs tables de commutation. Les règles de commutation sont assez simples. A chaque fois qu un paquet atteint un bridge donné, ce dernier mémorise son adresse source et l associe au port par lequel il l a reçu dans sa table de commutation. Ainsi lors de la décision de commutation, le bridge cherche l adresse destination, s il la trouve associée à un port il commute le paquet vers ce port. En revanche, si l adresse de destination n est associée à aucun port ou si elle est de type diffusion (ff :ff :ff :ff :ff :ff) le bridge duplique le paquet et le commute sur tous les ports mis à part le port source. Cette simplicité dans le fonctionnement implique un inconvénient. En effet, Les paquets Ethernet ne possèdent pas une limite de nombre de sauts comme c est le cas pour

25 14 CHAPITRE 2. les paquets IP, donc en cas d existence d une boucle toute l infrastructure s effondre instantanément. Dans le cas d une boucle, les paquets en brodcast ou vers une destination inconnue seront dupliqués à chaque arrivée à un bridge puis à cause de la boucle les paquets seront dupliqués de nouveau jusqu à ce que le nombre total des paquets dupliqués dépasse la capacité de commutation des bridges entraînant ainsi des ruptures de liens. Afin de remédier à toute éventuelle boucle dans les interconnections physiques, le protocole Spanning Tree Protocol (STP) [39] assure un réseau sans boucle. Pour les enlever, le protocole STP transforme tout type de topologie, en une topologie logique en arbre. Cette topologie logique, permet la désactivation des éventuels ports des bridges causant d éventuelles boucles laissant ainsi une seule connexion entre chaque deux nœuds physiques. L algorithme STP se base sur des priorités pour chaque port pour déterminer quels ports permettront de commuter les paquets et lesquels seront bloqués. Ces priorités peuvent être configurées ou non. en cas de non configuration, ce sont les adresses MAC qui seront pris comme référence pour départager deux ports. L algorithme STP permet ainsi de garder la simplicité de fonctionnement du réseau Ethernet. Il permet ainsi une extension très simple du nombre de bridges avec zéro configuration. Dés le branchement d un nouvel équipement, ce dernier trouvera automatiquement sa position dans l arbre logique représentant le topologie grâce à la priorité associée à ses ports. Entre autres, cette unicité d adressage MAC permet une migration transparente des VMs dans un même réseau Ethernet. Cependant, dans un contexte Cloud, les réseaux Ethernet sont confrontés à des défis de taille. Tout d abord, les réseaux de type Ethernet se basent sur l inondation du réseau par des paquets broadcasts afin de construire les tables de commutation. Or dans un datacenter avec des dizaines de milliers de VM, cette quantité de paquets inondés sur tous les bridges surcharge énormément la table de commutation de ces derniers. D ailleurs cette dernière est généralement sauvegardée dans une mémoire de type CAM ( Content Addressable Memory) afin d avoir des temps de réponses assez courts. Les mémoires CAM étant assez chères, il se révèle très coûteux de remplacer les bridges d un datacenter par d autres ayant des mémoires CAM plus grandes afin de répondre à l augmentation du nombre de MAC des VM. Ensuite, le protocole STP se base sur la désactivation des ports des bridges, c est à dire la suppression pure et simple des liens causants une boucle dans le réseau. Or dans le contexte d un datacenter les besoins en bande passante sont très importants et nécessitent l existence de plus d un lien entre deux bridges. De plus le protocole STP se révèle très pénalisant si nous prenons en considération les besoins de redondance de lien pour pallier

26 CHAPITRE Figure 2.3 Architecture réseau conventionnelle d un datacenter d éventuelles pannes. Enfin, à grande échelle, les paquets des protocoles de diffusion se révèlent coûteux en terme de quantité de trafics. Nous entendons par protocole de diffusion les protocoles tels que l ARP (Address Resolution Protocol) pour la résolution d adresse IP ou le DHCP (Dynamic Host Configuration Protocol ) pour la configuration automatique des adresses IP. Ces paquets en diffusion vont atteindre tous les nœuds physiques dans un même réseau Ethernet ce qui entraînera à la fois une congestion des liens, et d autre part une consommation supplémentaire au niveau des nœuds physiques non concernés par ce trafic. Exemple : selon [40] un millions de machines (VMs) générera plus de 468,240 ARP par seconde soit l équivalent de 239 Mbits par seconde Architecture réseau L2 + L3 Les problématiques de la couche L2 du réseau que nous venons de présenter impose la segmentation de la couche L2 standard dans un même datacenter afin de limiter le domaine de diffusion (paquets en broadcasts). Si nous voulons construire une topologie comprenant un seul segment couche L2 pour l ensemble du datacenter, ceci serait quasi impossible avec la couche liaison actuelle. En effet, comme nous l avons déjà mentionné un trop grand nombre de nœuds physiques dans un même segment Ethernet risque de congestionner les tables de commutations des commutateurs. Afin de remédier à cette problématique, les architectures standards adoptées dans un datacenter se composent de la manière suivante : tout d abord, un ensemble de nœuds physiques est relié à un premier commutateur appelé ToR [41](Top of the Rack switch) ce ToR connecte l ensemble des nœuds physiques contenus dans un même Rack.

27 16 CHAPITRE 2. L ensemble des ToR est connecté à d autres commutateurs plus performants appelés AS (Aggregation switch) cette couche d agrégation rassemble les trafics d un ensemble de ToR tout en permettant un redondance des liens entre les ToR et les CR comme l illustre la figure 2.3. Enfin dans le dernier niveau ( le niveau cœur), se trouve les CR (Core Router). Les CR permettront la connexion des AS vers internet, les CR étant des éléments de réseau de niveau 3, il devient possible de faire des boucles pour pouvoir garantir une redondance des liens Réseau local virtuel (VLAN) Le réseau local virtuel ou VLAN(Virtual Local Area Network) est un concept permettant la subdivision d un réseau physique existant en un ensemble de réseaux virtuels indépendants les uns des autres. Afin de réaliser la différenciation des différents réseaux virtuels, un tag sur 16 bits est utilisé. Ce tag de 16 bits est composé de deux parties, les premiers 4 bits qui spécifient la priorité, puis les 12 autres bits qui spécifient le numéro du VLAN. Il devient ainsi possible de décomposer un réseau Ethernet en 4095 réseaux virtuels. L ajout et la suppression des tags VLAN sont effectués au niveau des ports des commutateurs. Si un port ne supporte pas un VLAN donné le paquet est détruit au niveau de ce port. C est ainsi qu il devient possible d isoler l ensemble des réseaux virtuels. L utilisation des VLAN permet ainsi plusieurs fonctionnalités dont : La sécurisation d un réseau La segmentation des réseaux L isolation des réseaux L ajout d une pseudo QoS à travers la priorité du VLAN Mais ce nombre de 4095 VLAN qui est plus que suffisant dans un réseau Ethernet Standard devient largement sous dimensionné dans un réseau de datacenter. En effet, un datacenter de taille standard est capable de servir des dizaines de milliers de clients en parallèle. IL devient alors évident que pour effectuer un isolation réseau entre les différents clients, l utilisation des VLAN est complètement inadaptée. 2.5 Architecture réseau pour un datacenter virtualisé (VDC) Architecture du VDC Un VDC ou datacenter virtualisé possède une architecture spécifique. Elle est illustrée par la figure 2.4. Trois éléments essentiels forment les piliers d un VDC, ces trois éléments sont :

28 CHAPITRE Figure 2.4 Architecture d un datacenter virtualisé Une architecture réseau L2 + L3 Un ensemble de serveurs de calcul Un ensemble de serveurs de stockage (filer) Nous avons déjà évoqué l architecture réseau L2 + L3 spécifique à un VDC dans la partie Cette architecture réseau se caractérise par trois couches à savoir : La couche d accès. La couche d agrégation. La couche cœur du réseau. Un deuxième pilier de cette architecture, c est l ensemble des serveurs de calcul. Nous désignerons ces serveurs par nœuds physiques. Les nœuds physiques hébergent les VMs. Ils fourniront aux VMs les ressources nécessaires en CPU et en mémoire vive. Enfin le dernier pilier c est l ensemble des serveurs de stockage. Ces serveurs hébergent les disques de données des VMs. Ils sont essentiels pour permettre une séparation entre la VM et les données qu elle contient. Ainsi, en cas de défaillance du serveur hébergeant la VM, il n y a pas de risque de perte de données, de plus, la reprise après panne peut se faire directement en redémarrant le disque de VM sur un autre serveur de calcul. Il est bien sûr essentiel que les serveurs de stockage soient redondants pour éviter les éventuelles pertes

29 18 CHAPITRE 2. de données. Une fois l architecture d un VDC présentée, nous passons à la présentation de notre vision des principales recommandations à satisfaire pour le bon fonctionnement d un datacenter Nouvelles recommandations Contrairement aux centres de données (datacenters) classiques, les centres de données virtualisées ou VDC requièrent des exigences complexes afin de satisfaire les besoins demandés. Ces exigences complexes nous poussent à préconiser les recommandations suivantes pour tout VDC : La mobilité des VMs La connectivité any to any non bloquante La tolérance aux pannes Le passage à l échelle La simplicité de gestion Les réseaux privés. Nous tenons à préciser que l ensemble de ces recommandations ne constitue pas une liste exhaustive des exigences à satisfaire pour un VDC. Ce sont celles que nous avons jugés les plus intéressantes et les plus importantes pour le bon fonctionnement d un VDC Mobilité des VMs Un VDC doit être conçu de manière à permettre la mobilité des VMs. En effet, il doit permettre la migration des VMs de manière transparente. Aussi, cette migration ne doit pas être limitée ni dans le nombre ni dans l emplacement de destination dans le datacenter. Elle pourra être déclenchée de manière manuelle ou automatisée. Elle est essentielle afin de permettre un ensemble d opérations; telles que l optimisation de l utilisation des ressources, l exécution des maintenances ou même pour satisfaire des besoins d économie d énergie. Pour permettre à cette migration de se dérouler de manière transparente, il est primordial que les VMs ne changent pas de plan d adressage suite à une migration. Il est aussi essentiel que ces VMs ne changent pas leurs politiques de sécurité suite à une telle opération.

30 CHAPITRE Connectivité any to any non bloquante Le routage au sein d un VDC doit permettre une communication any to any entre l ensemble des nœuds physiques. Le protocole de routage devra assurer l établissement d un ou plusieurs chemins entre deux nœuds physiques en utilisant les liens physiques disponibles entre eux. Avec une demande toujours plus accrue en bande passante, le VDC devra garantir une connectivité riche afin d augmenter la bande passante agrégée et éviter la congestion des liens à travers l utilisation d un routage multi-chemin. L objectif ultime est d arriver à représenter l ensemble des liens comme un seul commutateur géant permettant l interconnexion de tous les nœuds physiques d une manière non bloquante Tolérance aux pannes Dans un VDC la défaillance ne doit pas être considérée comme une exception mais comme une règle. En effet, à cette échelle la défaillance est inévitable. Donc, un VDC doit être capable de détecter, diagnostiquer et de résoudre les défaillances sans intervention extérieure. Cette tolérance aux pannes doit couvrir à la fois les liens physiques, les switches, les nœuds physiques et enfin les VMs. La défaillance d une VM ou d un nœud physique peut être corrigée par la migration transparente, mais la défaillance d un lien physique ou d un commutateur ne peut être réalisée qu à travers la représentation des différents liens physiques comme un commutateur géant non bloquant, permettant ainsi d établir plusieurs chemins possibles entre chaque couple de nœuds physiques Passage à l échelle La définition même du Cloud impose de concevoir un VDC capable d augmenter de manière considérable le nombre de VMs, de liens et d interfaces qu il accueille. Ceci implique que le VDC devra pouvoir gérer une surcharge considérable du nombre de VMs et ce qui en résulte d augmentation d adresses MAC et IP. Dans le cas d une telle augmentation, il faut gérer de manière très prudente la saturation possible des mémoires des commutateurs. En effet, dû à leur coûts de production élevés, les mémoires des commutateurs ont tendance à être très limitées. La saturation de ces mémoires est assez dangereuse du fait du principe de fonctionnement des commutateurs. Effectivement, ce principe de fonctionnement engendre une inondation des paquets dont la destination est inconnue. Avec la saturation des mémoires des commutateurs, chaque nouvelle adresse enregistrée implique la suppression d une ancienne adresse ce qui entraînera l inondation des paquets destinés à l ancienne adresse. À terme, ceci peut entraîner l arrêt total du réseau du VDC à cause du nombre important de paquets inondés. Afin d éviter ce genre de phénomène, les VDC ont deux choix possibles :

31 20 CHAPITRE 2. Remplacer les anciens commutateurs par des nouveaux avec des mémoires plus importantes, mais ceci impliquerait une augmentation du coût pour le client final. Trouver des solutions pour éviter la saturation des mémoires des commutateurs Simplicité de gestion Vu la taille et le caractère critique d un VDC, l ensemble des opérations de gestion doit être simplifié au maximum. En effet, le VDC doit être capable de gérer d une manière transparente les migrations des VMs sans impliquer de nouvelles configurations. Il doit pouvoir gérer automatiquement les changements qui peuvent intervenir dans l infrastructure physique ainsi que son redimensionnement avec l ajout ou la suppression de plusieurs nœuds physiques. Tout ceci doit se faire d une manière automatique sans devoir passer par des configurations complexes Réseaux privés Il faut que le VDC puisse être capable d offrir aux clients finaux des fonctions automatisées leur permettant de construire des réseaux privés. Ces fonctionnalités doivent assurer la construction des réseaux aussi bien simples que complexes. Les réseaux privés doivent permettre d isoler les clients les uns des autres. Ils peuvent ainsi limiter la propagation des paquets unicasts et multicasts de chacun des réseaux dans un domaine donné. Le VDC permet ainsi de restreindre les flux d un client donné aux seuls ports (interfaces) appartenant à ses VMs. Enfin, le VDC est tenu d offrir un nombre suffisant de réseaux privés pour répondre aux besoins de tous ses clients Travaux de recherche sur les architectures réseaux pour un VDC Nous avons présenté un ensemble de recommandations pour le bon fonctionnement des VDC. Cet ensemble de recommandations peut se distinguer en deux catégories principales : Le passage à l échelle Les réseaux privés. Chacune des recommandations précédentes peut être classifiée sous l une ou l autre ou bien les deux catégories. Plusieurs études récentes ont essayé de satisfaire un ensemble de critères afin d aboutir à la réalisation de l un de ces critères ou bien les deux. Nous allons dans ce qui suit présenter une illustration des ces recherches à commencer par celles proposant une satisfaction du critère du passage à l échelle.

32 CHAPITRE Passage à l échelle Le premier critère à avoir été pris en considération était le passage à l échelle. Ainsi, plusieurs études se sont concentrées sur la résolution de l ensemble des problèmes reliés au passage à l échelle. Par exemple Portland [42] [43] suggère l utilisation d une nouvelle couche de liaison. C est ainsi que Portland suggère la modification de l entête MAC. Il faut tout d abord préciser que le protocole portland n est valable qu avec un seul type d architecture à savoir l architecture Fat Tree. Il se base ainsi sur les caractéristiques de cette architecture pour effectuer les opérations de routage. En effet, ce protocole remplace les entêtes MAC par des entêtes (pseudo MAC) PMAC spécifiant la position des VMs. L adresse MAC étant codée sur 48 bits, Portland utilise ces bits pour convertir l adresse MAC destination en un codage spécifiant la position sous la forme : pod.position.port.vmid. Les 16 premiers bits servent à identifier le numéro de pod destination, les 8 bits suivants permettent de déterminer la position du switch local vers la destination, les 8 bits qui suivent servent à déterminer le numéro du port dans le switch menant vers la destination et enfin, les 16 derniers bits servent d identifiant de la VM destination. Ce type de procédé permet un adressage hiérarchique des VMs. Afin de garantir ce fonctionnement, les commutateurs de bordures effectuent le changement des PMAC vers les MAC et vis versa. Les positions des commutateurs peuvent, soit être définies manuellement, soit assignées automatiquement en recourant à un serveur LDP[44] (Location Discovery Protocole). Reste alors le problème des adresses en diffusion ARP(Address Resolution Protocol)[45]. Afin de résoudre correctement les paquets de protocole ARP, un contrôleur centralisé est rajouté à la topologie. Ce contrôleur centralisé appelé Fabric Manager. Les commutateurs de bordures transmettront toutes les requêtes ARP au Fabric Manager. Le Fabric Manager jouera le rôle d un proxy ARP en fournissant l adresse PMAC correspondante à une IP donnée. En cas de non présence de la correspondance au sein la table du Fabric Manager, la solution de repli est d inonder la requête ARP sur tous les commutateurs. Bien que le protocole Portland propose une méthode de routage L2 qui soit sans boucles, cette solution reste dépendante de la topologie. Elle n est applicable qu au sein de la topologie de type multi-rooted fat-tree et ne peut pas être adaptée à d autres types d architectures. De plus, le caractère centralisé de la résolution des ARP rend les datacenters utilisant Portland dépendants du Fabric Manager. Ceci, impose l accord d une attention particulière à cet élément du réseau. En effet, la défaillance ou bien une attaque malicieuse sur le Fabric Manager peut générer une interruption du réseau.

33 22 CHAPITRE 2. À la différence de Portland, le protocole SPB (shortest path bridging) ou 802.1aq [46] ne modifie pas les entêtes des adresses MAC déjà existants. Mais en revanche, il rajoute un nouvel entête avec des adresses MAC identifiant les nœuds physiques hébergeant les VMs ou des identifiants des VLAN. Le SPB requiert l utilisation d un plan de contrôle. Le plan de contrôle utilisé est un démon IS-IS [47]. Il existe deux variantes de ce protocole : le SPBV(Shortest Path Bridging-VID) et le SPBM (Shortest Path Bridging-MAC) aussi appelé SPBB. Le SPBV utilise les identifiants de VLAN pour construire plusieurs arbres de diffusion selon le commutateur source, limitant ainsi la propagation des paquets multicasts. Le SPBM utilise l encapsulation MAC-in-MAC afin de n exposer aux commutateurs intermédiaires que les adresses MAC des commutateurs de bordures éliminant ainsi l apprentissage des adresses MAC des VMs. L apprentissage des correspondances des adresses MAC internes et externes est géré par le plan de contrôle. Concernant les paquets multicasts, ces derniers seront envoyés suivant des arbres de multicast déjà calculés au niveau du plan de contrôle. Le protocole SPB semble être une bonne alternative pour palier à cette problématique de la couche L2 standard, sauf que pour la propagation des paquets multicasts, ce protocole se base sur les informations fournies par le plan de contrôle sans prévoir de mécanisme de replis pour éviter les boucles en cas de réception de données erronées. Les Protocoles SPB et Portland proposent la modification de la couche liaison afin de palier les problèmes de la couche L2 standard. Il existe également d autres protocoles tels que Seattle [48] ou équipements tel que EtherProxy [49] qui proposent également de palier ces problèmes mais sans modifier les paquets d origine. Tout d abord, le protocole Seattle prend en considération les protocoles DHCP [50] et ARP comme origine des problèmes de passage à l échelle de la couche L2 standard. Ce protocole considère qu en absence des paquets multicasts de ces deux protocoles, le réseau standard peut passer à l échelle. C est ainsi que le protocole Seattle se propose de convertir les ARP en messages unicasts en utilisant une table de hash distribuée (distributed hash table) DHT [51]. Concernant le protocole DHCP, quand le commutateur de bordure en reçoit un, il l envoie en unicast au serveur DHCP. Seattle implémente ceci en utilisant un standard déjà défini pour agent de relais DHCP [52]. Pour finir, EtherProxy n est pas un protocole à implémenter au niveau du réseau mais plutôt un nouvel équipement réseau qui fera littéralement office de Proxy pour les protocoles

34 CHAPITRE nécessitant des paquets en diffusion. En effet, cet équipement réseau est conçu suivant le principe que la plupart des messages multicasts ne nécessite pas forcement d arriver à la destination ciblée par ce message pour pouvoir recevoir une réponse cohérente. EtherProxy fonctionne en suivant ce principe. Il doit être placé au plus près des commutateurs de bordures. Idéalement, il devra être placé en tant que relais entre les nœuds physiques et les commutateurs de bordures. EtherProxy va ainsi mémoriser au sein de son cache l ensemble des réponses à des messages multicasts. Une fois qu il reçoit un message multicast dont il connaît la réponse, il va répondre à la source du message avec les informations qu il a préalablement enregistrées. Il va également supprimer la requête reçue avant qu elle n arrive au commutateur de bordure. Ainsi, il aura éliminé tout le trafic que la requête aurait dû générer. En absence de réponse dans le cache du EtherProxy, ce dernier va envoyer une demande à la place de la source d origine pour obtenir une réponse. Une fois la réponse obtenue, il la sauvegardera dans son cache et répondra à la source d origine avec un message unicast. Bien que Seattle et EtherProxy arrivent à limiter les problèmes de montée en charge de la couche L2 du réseau, ils restent tous les deux focalisés sur les paquets multicasts générés par le protocole ARP et DHCP. Ils nécessitent encore l implémentation de solutions pour le reste des trafics multicasts. Enfin, Seattle bien qu il réduise les trafics multicasts, augmente par la même occasion les trafics en unicast à travers la conversion d un seul paquet multicast en N paquets unicasts. P our compenser les problématiques de montée en charge, d autres protocoles et procédés ont été proposés. Nous avons essayé de présenter dans cette sous section la variété des méthodes proposées pour aborder ce problème : Les méthodes avec modifications des paquets originaux. Les méthodes sans modifications des paquets originaux. Une fois ces différentes méthodes présentées, nous allons nous focaliser sur les différents mécanismes disponibles afin de réaliser des réseaux privés. Il est important de signaler que les différents mécanismes permettant l établissement des réseaux privés, permettent également de répondre à la montée en charge nous avons évité d aborder ces mécanismes dans la partie passage à l échelle pour éviter les redondances Réseau Privé Comme nous l avons déjà précisé, le passage à l échelle est l un des principaux défis des réseaux des VDC. Le deuxième plus gros défi auxquels sont confrontés les réseaux des datacenters, c est la possibilité d offrir des réseaux privés entre les instances d un même client. Derrière cette exigence qui peut paraître assez simple, se cache un niveau de complexité

35 24 CHAPITRE 2. Figure 2.5 Entête VXLAN insoupçonné. En effet dans un contexte cloud, une complexité de sécurité relative à la nature même du Cloud se rajoute. Vu la nature dynamique et partagée des ressources et plus spécifiquement du réseau, il est délicat d établir des réseaux privés. Un ensemble de travaux de recherche s est focalisé sur la problématique des réseaux privés. Une première approche consiste à encapsuler les paquets dans des paquets UDP. VXLAN [53] [54] par exemple se base sur l encapsulation des paquets avec un entête UDP. Ce nouveau entête UDP contient un champ addition contenant l entête VXLAN. Cet entête VXLAN contient un champ sur 24 bits exprimant le tag VNI (Virtual Network Identifier) ou identifiant de réseau virtuel. Ce tag permet d identifier le réseau privé du client. C est ainsi qu à travers ce tag, ce protocole permet une séparation entre les différents flux des différents réseaux. Afin de pouvoir réaliser cette différenciation entre les flux, il faut au préalable effectuer une assignation des tags et des entêtes UDP aux paquets originaux. Il faut aussi enlever ces nouveaux entêtes avant que la destination ne puisse les traiter. Pour réaliser ces fonctionnalités d encapsulation et de décapsulation, un nouveau équipement est nécessaire. Ce nouvel équipement fera office de passerelle délimitant ainsi le tunnel VX- LAN du réseau couche L2 classique. Cet équipement est appelé VTEP (VXLAN Tunnel End Points) ou point délimitant le tunnel VXLAN. À l intérieur du tunnel VXLAN, le paquet sera routé de manière classique suivant les adresses IPs contenues dans son entête UDP. Concernant les paquets de destinations inconnues ou bien avec une destination multicast, ces derniers seront émis vers un groupe multicast. Ainsi pour chaque VNI, il faut établir un groupe multicast afin que les paquets appartenant à un VNI donné soient envoyés vers l adresse multicast de ce groupe. VXLAN permet donc la séparation des différents flux des différents réseaux à travers une encapsulation avec un nouvel entête UDP, mais ce protocole comprend quelques inconvénients. En effet, il nécessite une configuration des groupes multicasts correspondant à chaque VNI d une part; d autre part et comme présenté dans son RFC [53], l encapsulation de la couche L2 avec un entête de la couche L3 expose le réseau du datacenter à de nouvelles problématiques de sécurité. Effectivement, les attaques depuis l extérieur qui

36 CHAPITRE Figure 2.6 Entête DOVE étaient impossibles quand les communications entre les nœuds physiques s effectuaient au niveau L2 deviennent maintenant possibles quand les nœuds communiquent en couche L3. Il faut ainsi bien concevoir son datacenter pour éviter de recevoir des paquets de couche L3 de l extérieur qui encapsulent des paquets malicieux de niveau L2. DOVE[55] [56] (Distributed Overlay Virtual Ethernet) utilise les mêmes principes que VXLAN à deux différences prés. La première est que le commutateur DOVE ou point d entrée au réseau DOVE est forcement déployé au niveau des nœuds physiques contrairement au VXLAN qui n impose pas cette exigence. La deuxième différence se situe au niveau des entêtes utilisés. En effet bien que les deux soient encapsulés par un entête UDP standard, l entête DOVE est différent de l entête VXLAN comme le montre la figure 2.5 [53] et la figure 2.6. L entête DOVE spécifie en plus du réseau privé utilisé l identifiant de l instance. NVGRE (Network Virtualization using Generic Routing Encapsulation) [57] ou Virtualisation réseau en utilisant une encapsulation de routage générique. Le principe de ce protocole est d encapsuler les paquets des clients avec des entêtes IP auxquels se rajoute un entête GRE. L entête GRE est décrit par la figure 2.7 issue de [57]. Le réseau de chaque client est identifié par un identifiant sur 24 bits appelé TNI (Tenant Network Identifier). Tout comme le VXLAN, NVGRE associe à chaque identifiant du client une adresse IP multicast. Cette adresse sera utilisée lors de l encapsulation des paquets Multicasts ou en diffusion. Tout comme DOVE et VXLAN, NVGRE implique plus de prudence dans les régles de sécurité du datacenter vu que ce dernier importe les failles de sécurité de la couche L3 vers la couche L2. Netlord [58][43]est un autre protocole utilisant l encapsulation des paquets dans des

DOSSIER SPÉCIAL Le défi du routage réseau dans le Cloud mis K-O

DOSSIER SPÉCIAL Le défi du routage réseau dans le Cloud mis K-O Le défi du routage réseau dans le Cloud mis K-O EST UN protocole d encapsulation supporté par les cœurs de réseau Alcatel-Lucent qui permet aux serveurs de se voir au niveau 2, même lorsqu ils sont en

Plus en détail

DIFF AVANCÉE. Samy. samy@via.ecp.fr

DIFF AVANCÉE. Samy. samy@via.ecp.fr DIFF AVANCÉE Samy samy@via.ecp.fr I. RETOUR SUR QUELQUES PROTOCOLES COUCHE FONCTIONS Protocoles 7 Application 6 Présentation 5 Session 4 Transport 3 Réseau 2 Liaison 1 Physique Interface entre l utilisateur

Plus en détail

CA Server Automation. Vue d ensemble. Avantages. agility made possible

CA Server Automation. Vue d ensemble. Avantages. agility made possible FICHE PRODUIT : CA Server Automation CA Server Automation agility made possible La solution intégrée CA Server Automation permet d automatiser le provisioning, la correction et la configuration des composants

Plus en détail

Business & High Technology

Business & High Technology UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 09 : CC : Cloud Computing Sommaire Introduction... 2 Définition... 2 Les différentes

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

VIRTUALISATION ET CLOUD COMPUTING. Année Universitaire : 2015-2016

VIRTUALISATION ET CLOUD COMPUTING. Année Universitaire : 2015-2016 VIRTUALISATION ET CLOUD COMPUTING Enseignant : Mohamed MANAA Année Universitaire : 2015-2016 Plan La virtualisation Qu'est-ce que la virtualisation? Pourquoi virtualiser? Terminologies Techniques de virtualisation

Plus en détail

Diff Avancée. Retour sur la couche 2: -Les boucles et le STP. Retour sur la couche 3: -Quelques infos sur l adressage -Protocoles de Routage

Diff Avancée. Retour sur la couche 2: -Les boucles et le STP. Retour sur la couche 3: -Quelques infos sur l adressage -Protocoles de Routage Diff Avancée Retour sur la couche 2: -Les boucles et le STP Retour sur la couche 3: -Quelques infos sur l adressage -Protocoles de Routage Sous réseaux virtuels Commandes utiles L architecture à VIA Retour

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Administration des réseaux et systèmes

Administration des réseaux et systèmes dministration des réseaux et systèmes IUT Département Informatique nthony usson Plan du cours Cours Ethernet IP Spanning Tree VLN Routage (rappel) Firewall / CL NT / PT DHCP (rappel) SNMP 1 Spanning Tree

Plus en détail

Cours n 12. Technologies WAN 2nd partie

Cours n 12. Technologies WAN 2nd partie Cours n 12 Technologies WAN 2nd partie 1 Sommaire Aperçu des technologies WAN Technologies WAN Conception d un WAN 2 Lignes Louées Lorsque des connexions dédiées permanentes sont nécessaires, des lignes

Plus en détail

Routage dynamique et protocoles de routage. Claude Chaudet Xavier Misseri

Routage dynamique et protocoles de routage. Claude Chaudet Xavier Misseri Routage dynamique et protocoles de routage Claude Chaudet Xavier Misseri Principe du routage Configurer les tables de routage (des routeurs) afin que les paquets empruntent le meilleur chemin disponible

Plus en détail

DOSSIER SPÉCIAL Datacenter : Les problèmes n arrivent pas qu aux autres

DOSSIER SPÉCIAL Datacenter : Les problèmes n arrivent pas qu aux autres Datacenter : Les problèmes n arrivent pas qu aux AUCUN DATACENTER n est à l abri d un éventuel problème, d une indisponibilité ou d un imprévu! La question est de savoir que faire pour protéger votre Datacenter

Plus en détail

Administration des ressources informatiques

Administration des ressources informatiques 1 2 La mise en réseau consiste à relier plusieurs ordinateurs en vue de partager des ressources logicielles, des ressources matérielles ou des données. Selon le nombre de systèmes interconnectés et les

Plus en détail

Fiche de Réseau de données

Fiche de Réseau de données Fiche de Réseau de données V.R May 25, 2015 Contents I Le modèle OSI 2 1 Concepts de base 2 2 Modèle OSI 4 II Réseau de données 5 1 Erreurs et correction d erreurs 5 2 Contrôle de flux 6 3 Contrôle de

Plus en détail

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Microsoft France Division DPE Table des matières Présentation... 2 Objectifs... 2 Pré requis... 2 Quelles sont les principales

Plus en détail

Rappel sur Ethernet commuté

Rappel sur Ethernet commuté Les VLAN sur les commutateurs Alain AUBERT alain.aubert@telecom-st-etienne.fr Rappel sur Ethernet commuté Un commutateur ne diffuse pas les trames, contrairement à un concentrateur (si la table de commutation

Plus en détail

1.1.3 Qu est-ce qu un réseau convergent?

1.1.3 Qu est-ce qu un réseau convergent? Chapitre 1 Quelle couche du modèle de conception de réseau hiérarchique est le backbone à haut débit de l interréseau, où haute disponibilité et redondance sont vitales? Couche d accès Couche cœur de réseau

Plus en détail

Cours n 15. Frame Relay

Cours n 15. Frame Relay Cours n 15 Frame Relay 1 Frame Relay Technologie à commutation de paquets Remplace les réseaux point-à-point trop coûteux Se base sur l encapsulation HDLC Multiplexage (partage de la BP du nuage) Inconvénients

Plus en détail

SDN / Open Flow dans le projet de recherche de GEANT (GN3+)

SDN / Open Flow dans le projet de recherche de GEANT (GN3+) SDN / Open Flow dans le projet de recherche de GEANT (GN3+) Xavier Jeannin GIP RENATER 23-25, rue Daviel 75013 PARIS Résumé Dans le cadre du projet GN3+ (avril 2013 Mars 2015), parmi la tâche orientée

Plus en détail

EMC Data Domain Boost for

EMC Data Domain Boost for EMC Data Domain Boost for Symantec Backup Exec Augmentez vos performances de sauvegarde grâce à une intégration avancée dans OpenStorage Avantages clés Sauvegardes plus rapides et meilleure utilisation

Plus en détail

Les réseaux de campus. F. Nolot 2008 1

Les réseaux de campus. F. Nolot 2008 1 Les réseaux de campus F. Nolot 2008 1 Les réseaux de campus Les architectures F. Nolot 2008 2 Les types d'architectures L'architecture physique d'un réseau de campus doit maintenant répondre à certains

Plus en détail

Sauvegarde et restauration en environnement VMware avec Avamar 6.0

Sauvegarde et restauration en environnement VMware avec Avamar 6.0 Livre blanc Sauvegarde et restauration en environnement VMware avec Avamar 6.0 Analyse détaillée Résumé Dans les entreprises, les environnements virtuels sont de plus en plus déployés dans le cloud. La

Plus en détail

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données La meilleure protection pour les données vitales de votre entreprise Autrefois, protéger ses données de manière optimale coûtait

Plus en détail

Quelle est l incidence probable du passage d une architecture d entreprise conventionnelle à un réseau totalement convergé?

Quelle est l incidence probable du passage d une architecture d entreprise conventionnelle à un réseau totalement convergé? Quelle couche du modèle de conception de réseau hiérarchique est le backbone à haut débit de l interréseau, où haute disponibilité et redondance sont vitales? Groupe de travail étendu Quelle couche du

Plus en détail

Virtual Data Center d Interoute. Prenez la main sur votre Cloud.

Virtual Data Center d Interoute. Prenez la main sur votre Cloud. Virtual Data Center d Interoute. Prenez la main sur votre Cloud. Faites évoluer vos ressources informatiques à la demande Choisissez la localisation d hébergement de vos données en Europe Le réseau européen

Plus en détail

UFR de Mathématiques et Informatique Année 2009/2010. Réseaux Locaux TP 04 : ICMP, ARP, IP

UFR de Mathématiques et Informatique Année 2009/2010. Réseaux Locaux TP 04 : ICMP, ARP, IP Université de Strasbourg Licence Pro ARS UFR de Mathématiques et Informatique Année 2009/2010 1 Adressage IP 1.1 Limites du nombre d adresses IP 1.1.1 Adresses de réseaux valides Réseaux Locaux TP 04 :

Plus en détail

LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010.

LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010. Guillaume ANSEL M2 ISIDIS 2009-2010 / ULCO Dossier d étude sur la virtualisation LA VIRTUALISATION 18/01/2010 Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques.

Plus en détail

2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES. 2.2 Architecture fonctionnelle d un système communicant. http://robert.cireddu.free.

2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES. 2.2 Architecture fonctionnelle d un système communicant. http://robert.cireddu.free. 2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES 2.2 Architecture fonctionnelle d un système communicant Page:1/9 http://robert.cireddu.free.fr/sin LA SEGMENTATION VIRTUELLE DES DOMAINES DE DIFFUSION : LES VLANs

Plus en détail

Module : Virtualisation à l aide du rôle Hyper-V

Module : Virtualisation à l aide du rôle Hyper-V Windows Server 2008 pour l'enseignement Module : Virtualisation à l aide du rôle Hyper-V Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines

Plus en détail

2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES. 2.2 Architecture fonctionnelle d un système communicant. http://robert.cireddu.free.

2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES. 2.2 Architecture fonctionnelle d un système communicant. http://robert.cireddu.free. 2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES 2.2 Architecture fonctionnelle d un système communicant Page:1/11 http://robert.cireddu.free.fr/sin LES DÉFENSES Objectifs du COURS : Ce cours traitera essentiellement

Plus en détail

La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les infrastructures de Datacenters en Cloud Computing.

La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les infrastructures de Datacenters en Cloud Computing. vsphere 4 1. Présentation de vsphere 4 C est le nouveau nom de la plate forme de virtualisation de VMware. La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les

Plus en détail

Citrix XenDesktop avec la technologie FlexCast. Citrix XenDesktop : la virtualisation des postes de travail pour tous. www.citrix.

Citrix XenDesktop avec la technologie FlexCast. Citrix XenDesktop : la virtualisation des postes de travail pour tous. www.citrix. Citrix XenDesktop : la virtualisation des postes de travail pour tous www.citrix.fr Les entreprises d aujourd hui doivent satisfaire de nombreux types d utilisateurs : des plus nomades qui utilisent des

Plus en détail

PRESENTATION DE LA VIRTUALISATION DE SERVEURS

PRESENTATION DE LA VIRTUALISATION DE SERVEURS PRESENTATION DE LA VIRTUALISATION DE SERVEURS SOMMAIRE QU EST-CE QUE LA VIRTUALISATION? POURQUOI VIRTUALISER? LES AVANTAGES DE LA VIRTUALISATION NOTION DE CONSOLIDATION, RATIONALISATION ET CONCENTRATION

Plus en détail

Livre banc. Contrôle de trajet dynamique : la base de votre WAN hybride

Livre banc. Contrôle de trajet dynamique : la base de votre WAN hybride Contrôle de trajet dynamique : la base de votre WAN hybride Le réseau étendu (WAN, wide area network) a connu bien peu d innovations pendant une grande partie de la dernière décennie. Alors que le reste

Plus en détail

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization)

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization) Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization) Préparé par : Zeus Kerravala Les cinq raisons majeures pour déployer SDN et NFV NetworkWorld,

Plus en détail

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

Les Virtual LAN. F. Nolot. Master 1 STIC-Informatique 1

Les Virtual LAN. F. Nolot. Master 1 STIC-Informatique 1 Les Virtual LAN Master 1 STIC-Informatique 1 Les Virtual LAN Introduction Master 1 STIC-Informatique 2 Les Réseaux Locaux Virtuels (VLAN) Avantages des LAN Communication rapide, broadcasts Problèmes des

Plus en détail

La Continuité d Activité

La Continuité d Activité La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique

Plus en détail

DE LA VIRTUALISATION AU CLOUD NETWORKING :

DE LA VIRTUALISATION AU CLOUD NETWORKING : Arista. Livre blanc DE LA VIRTUALISATION AU CLOUD NETWORKING : LE DATACENTER DE NOUVELLE GENERATION MIEL. LIVRE BLANC 2 La virtualisation à l origine du Cloud Nworking En informatique, les applications

Plus en détail

Interconnexion des réseaux - Routage

Interconnexion des réseaux - Routage Interconnexion des réseaux - Routage Concept de l interconnexion Équipement de la couche 3 - Domaine de broadcast Détermination du chemin Routage Table de routage Algorithmes de routage statiques et dynamiques

Plus en détail

Le Multicast. A Guyancourt le 16-08-2012

Le Multicast. A Guyancourt le 16-08-2012 Le Multicast A Guyancourt le 16-08-2012 Le MULTICAST Définition: On entend par Multicast le fait de communiquer simultanément avec un groupe d ordinateurs identifiés par une adresse spécifique (adresse

Plus en détail

NOTIONS DE RESEAUX INFORMATIQUES

NOTIONS DE RESEAUX INFORMATIQUES NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des

Plus en détail

ROUTAGE SOUS LINUX Et Vlan avec ESXi

ROUTAGE SOUS LINUX Et Vlan avec ESXi ROUTAGE SOUS LINUX Et Vlan avec ESXi.server Justin mbongueng projet Semestre 2010-2011 page 1 Table des matières Introduction..3 Matériel.3 Routage sous Linux 4 Routage statique sous ubunbtu 8 Routage

Plus en détail

Hébergement MMI SEMESTRE 4

Hébergement MMI SEMESTRE 4 Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources

Plus en détail

Cisco Secure Access Control Server Solution Engine. Introduction. Fiche Technique

Cisco Secure Access Control Server Solution Engine. Introduction. Fiche Technique Fiche Technique Cisco Secure Access Control Server Solution Engine Cisco Secure Access Control Server (ACS) est une solution réseau d identification complète qui offre à l utilisateur une expérience sécurisée

Plus en détail

Internet - Outils. Nicolas Delestre. À partir des cours Outils réseaux de Paul Tavernier et Nicolas Prunier

Internet - Outils. Nicolas Delestre. À partir des cours Outils réseaux de Paul Tavernier et Nicolas Prunier Plan Internet - Outils Nicolas Delestre 1 DHCP 2 Firewall 3 Translation d adresse et de port 4 Les proxys 5 DMZ 6 VLAN À partir des cours Outils réseaux de Paul Tavernier et Nicolas Prunier 7 Wake On Line

Plus en détail

Besoin de concevoir des systèmes massivement répartis. Comment tester le système? Solution. Évaluation de systèmes répartis à large échelle

Besoin de concevoir des systèmes massivement répartis. Comment tester le système? Solution. Évaluation de systèmes répartis à large échelle Besoin de concevoir des systèmes massivement répartis. Évaluation de systèmes répartis à large échelle Sergey Legtchenko Motivation : LIP6-INRIA Tolérance aux pannes Stockage de données critiques Coût

Plus en détail

Chapitre 2. Vulnérabilités protocolaires et attaques réseaux M&K HDHILI

Chapitre 2. Vulnérabilités protocolaires et attaques réseaux M&K HDHILI Chapitre 2 Vulnérabilités protocolaires et attaques réseaux 1 Définitions Vulnérabilité: Défaut ou faiblesse d un système dans sa conception, sa mise en œuvre ou son contrôle interne pouvant mener à une

Plus en détail

Travaux pratiques 9.1.1 Organisation des objectifs CCENT par couche du modèle OSI

Travaux pratiques 9.1.1 Organisation des objectifs CCENT par couche du modèle OSI Travaux pratiques 9.1.1 Organisation des objectifs CCENT par couche du modèle OSI Objectifs Organiser les objectifs CCENT en fonction de la ou des couches auxquelles ils s adressent Contexte / Préparation

Plus en détail

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. Slimane.bah@emi.ac.ma

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. Slimane.bah@emi.ac.ma Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24.2 1 Semestre 4 : Fev. 2015 Grid : exemple SETI@home 2 Semestre 4 : Fev. 2015 Grid : exemple SETI@home

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

CCNA Discovery Travailler dans une PME ou chez un fournisseur de services Internet

CCNA Discovery Travailler dans une PME ou chez un fournisseur de services Internet Curriculum Name Guide du participant CCENT 3 Section 9.3 Dépannage de l adressage IP de la couche 3 Cette section consacrée au dépannage vous permettra d étudier les conditions nécessaires à l obtention

Plus en détail

EMC AVAMAR FOR VMWARE

EMC AVAMAR FOR VMWARE EMC AVAMAR FOR VMWARE Sauvegarde et restauration optimisées pour les environnements VMware AVANTAGES CLÉS Sauvegarde VMware optimisée au niveau invité et image Prise en charge de VMware vsphere Intégration

Plus en détail

Les solutions centre de données virtuel et Infrastructure-service de Bell

Les solutions centre de données virtuel et Infrastructure-service de Bell Les solutions centre de données virtuel et Infrastructure-service de Bell Zied Hammami Directeur Principal- Spécialiste centre de données 14 novembre 2013 Ordre du jour Les centres de données de Bell Centre

Plus en détail

Notions sur les réseaux TCP/IP, avec et sans fil

Notions sur les réseaux TCP/IP, avec et sans fil 5 Notions sur les réseaux TCP/IP, avec et sans fil Chapitre Au sommaire de ce chapitre Principe du réseau Internet Termes basiques du paramétrage de TCP/IP Principe des ports TCP et UDP Et les VPN? Dans

Plus en détail

2.3.3 Protocole CDP (Cisco Discovery Protocol)

2.3.3 Protocole CDP (Cisco Discovery Protocol) 2.3.3 Protocole CDP (Cisco Discovery Protocol) Examinez la présentation. Quels sont les deux réseaux, auxquels sont destinés les paquets, qui nécessitent que le routeur effectue une recherche récursive?

Plus en détail

QU EST CE QUE LE CLOUD COMPUTING?

QU EST CE QUE LE CLOUD COMPUTING? En France, on parle plus volontiers d «informatique en nuage» 1 pour décrire ce concept. Apparu au début des années 2000, le cloud computing constitue une évolution majeure de l informatique d entreprise,

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

CA ARCserve D2D. Une récupération après sinistre ultra-rapide vous permet d'éviter une interruption de service. DOSSIER SOLUTION : CA ARCserve D2D r16

CA ARCserve D2D. Une récupération après sinistre ultra-rapide vous permet d'éviter une interruption de service. DOSSIER SOLUTION : CA ARCserve D2D r16 CA ARCserve D2D CA ARCserve D2D est un produit de récupération sur disque conçu pour offrir la combinaison idéale de protection et de récupération rapides, simples et fiables de vos données professionnelles.

Plus en détail

Plan. Les pare-feux (Firewalls) Chapitre II. Introduction. Notions de base - Modèle de référence OSI : 7 couches. Introduction

Plan. Les pare-feux (Firewalls) Chapitre II. Introduction. Notions de base - Modèle de référence OSI : 7 couches. Introduction Plan Introduction Chapitre II Les pare-feux (Firewalls) Licence Appliquée en STIC L2 - option Sécurité des Réseaux Yacine DJEMAIEL ISET Com Notions de base relatives au réseau Définition d un pare-feu

Plus en détail

Semaine 4 : le protocole IP

Semaine 4 : le protocole IP Semaine 4 : le protocole IP Séance 1 : l adressage... 1 Séance 2 : le protocole IP... 8 Séance 3 : l adresse IP... 16 Séance 1 : l adressage Introduction Au cours de cette séance, nous allons parler de

Plus en détail

Quelle caractéristique d'ethernet favorise la formation de boucles sur un réseau commuté redondant?

Quelle caractéristique d'ethernet favorise la formation de boucles sur un réseau commuté redondant? Quelle caractéristique d'ethernet favorise la formation de boucles sur un réseau commuté redondant? Les routeurs ne peuvent empêcher les boucles qu'au niveau de la couche 3, alors qu'ethernet se trouve

Plus en détail

Technique et architecture de l offre Suite infrastructure cloud. SFR Business Team - Présentation

Technique et architecture de l offre Suite infrastructure cloud. SFR Business Team - Présentation Technique et architecture de l offre Suite infrastructure cloud Les partenaires de l offre Cloud Computing SFR Le focus HP Les principes de mise en œuvre réseau Les principes de fonctionnement de la solution

Plus en détail

Système d administration autonome adaptable: application au Cloud

Système d administration autonome adaptable: application au Cloud Système d administration autonome adaptable: application au Cloud Alain TCHANA - atchana@enseeiht.fr IRIT/ENSEEIHT, Equipe SEPIA Directeur de thèse : Daniel HAGIMONT et Laurent BROTO Rapporteurs : Jean-Marc

Plus en détail

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? DOSSIER SOLUTION Solution CA Virtual Placement and Balancing Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? agility made possible La solution automatisée

Plus en détail

Architecture de réseau WiFi centralisée Cisco. Une approche simplifiée de la gestion des réseaux sans-fil

Architecture de réseau WiFi centralisée Cisco. Une approche simplifiée de la gestion des réseaux sans-fil Architecture de réseau WiFi centralisée Cisco Une approche simplifiée de la gestion des réseaux sans-fil UMLV / Ingénieurs 2000 Xposé - IR3-2009/2010 Jean-Christophe Rios Sommaire 1. De quoi parle-t-on?

Plus en détail

Brochure Datacenter. www.novell.com. Novell Cloud Manager. Création et gestion d un cloud privé. (Faire du cloud une réalité)

Brochure Datacenter. www.novell.com. Novell Cloud Manager. Création et gestion d un cloud privé. (Faire du cloud une réalité) Brochure Datacenter Novell Cloud Manager Création et gestion d un cloud privé (Faire du cloud une réalité) Novell Cloud Manager : le moyen le plus simple de créer et gérer votre cloud WorkloadIQ est notre

Plus en détail

Fabrics Ethernet : La base de l automatisation du réseau de data center et de l agilité de l entreprise

Fabrics Ethernet : La base de l automatisation du réseau de data center et de l agilité de l entreprise I D C M A R K E T S P O T L I G H T Fabrics Ethernet : La base de l automatisation du réseau de data center et de l agilité de l entreprise Janvier 2014 Adapté de «Worldwide data center Network 2013 2017

Plus en détail

Projet de semestre 2011. Etude du stockage des Machines Virtuelles VMware sur un système FreeNAS au sein d une architecture SAN

Projet de semestre 2011. Etude du stockage des Machines Virtuelles VMware sur un système FreeNAS au sein d une architecture SAN 11.04.2011 Projet de Semestre 2011 Benoît Chalut Projet de semestre 2011 Etude du stockage des Machines Virtuelles VMware sur un système FreeNAS au sein d une architecture SAN Professeur Responsable :

Plus en détail

Présentation et portée du cours : CCNA Exploration v4.0

Présentation et portée du cours : CCNA Exploration v4.0 Présentation et portée du cours : CCNA Exploration v4.0 Dernière mise à jour le 3 décembre 2007 Profil des participants Le cours CCNA Exploration s adresse aux participants du programme Cisco Networking

Plus en détail

Principaux utilisateurs du Réseau

Principaux utilisateurs du Réseau Bienvenue à l innovant apptap, la première solution intégrée de l'industrie à combiner les capacités de collecte de données sur le réseau (Tap) avec le suivi du réseau et des applications. Cette nouvelle

Plus en détail

Cisco Certified Network Associate

Cisco Certified Network Associate Cisco Certified Network Associate Version 4 Notions de base sur les réseaux Chapitre 5 01 Dans un environnement IPv4, quelles informations un routeur utilise-t-il pour transmettre des paquets de données

Plus en détail

TP Déploiement de réseaux IP sous Linux et MS Windows sur une infrastructure virtualisée

TP Déploiement de réseaux IP sous Linux et MS Windows sur une infrastructure virtualisée TP Déploiement de réseaux IP sous Linux et MS Windows sur une infrastructure virtualisée Objectifs : - Déploiement d une infrastructure virtuelle. - Configuration d adresses IP statiques. - Configuration

Plus en détail

BAC PRO Système Electronique Numérique. Nom : Le routage Date : LE ROUTAGE

BAC PRO Système Electronique Numérique. Nom : Le routage Date : LE ROUTAGE 1. Sommaire LE ROUTAGE 1. Sommaire... 1 2. Un routeur, pour quoi faire?... 1 3. Principe de fonctionnement du routage.... 2 4. Interfaces du routeur... 3 4.1. Côté LAN.... 3 4.2. Côté WAN.... 3 5. Table

Plus en détail

Présentation et portée du cours : CCNA Exploration v4.0

Présentation et portée du cours : CCNA Exploration v4.0 Présentation et portée du cours : CCNA Exploration v4.0 Profil des participants Le cours CCNA Exploration s adresse aux participants du programme Cisco Networking Academy diplômés en ingénierie, mathématiques

Plus en détail

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service 10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore

Plus en détail

BAC PRO MRIM cisco-vlan.doc 15/04/2015. VLANs CISCO

BAC PRO MRIM cisco-vlan.doc 15/04/2015. VLANs CISCO VLANs CISCO A/ RAPPEL SUR LES VLANS ET LE VTP Un VLAN peut être assimilé à un domaine de broadcast. Typiquement, dans une configuration de VLAN, chaque VLAN comprend son propre sous-réseau. Sans équipement

Plus en détail

Profil des participants Le cours CCNA Exploration s adresse aux participants du programme Cisco

Profil des participants Le cours CCNA Exploration s adresse aux participants du programme Cisco Présentation et portée du cours : CNA Exploration v4.0 Networking Academy Profil des participants Le cours CCNA Exploration s adresse aux participants du programme Cisco diplômés en ingénierie, mathématiques

Plus en détail

Introduction à MPLS F. Nolot 2009 1

Introduction à MPLS F. Nolot 2009 1 Introduction à MPLS 1 Introduction à MPLS Introduction 2 Introduction Les fournisseurs d'accès veulent Conserver leur infrastructure existante ET Ajouter de nouveaux services non supportés par la technologie

Plus en détail

ETUDE DE CAS SESSION 2000 OPTION ARLE BAREME ET CORRIGE ETABLIS PAR LA COMMISSION NATIONALE D HARMONISATION DU 31 MAI 2000

ETUDE DE CAS SESSION 2000 OPTION ARLE BAREME ET CORRIGE ETABLIS PAR LA COMMISSION NATIONALE D HARMONISATION DU 31 MAI 2000 BTS INFORMATIQUE DE GESTION SESSION 2000 ETUDE DE CAS SESSION 2000 OPTION ARLE BAREME ET CORRIGE ETABLIS PAR LA COMMISSION NATIONALE D HARMONISATION DU 31 MAI 2000 Durée : 5 heures Coefficient : 5 CAS

Plus en détail

VLANs. Les principes. La réalisation. Les standards. Un scénario de mise en œuvre. Exemple de configuration d équipements

VLANs. Les principes. La réalisation. Les standards. Un scénario de mise en œuvre. Exemple de configuration d équipements VLANs Les principes La réalisation Les standards Un scénario de mise en œuvre Exemple de configuration d équipements Les principes - longtemps, la solution a consisté à introduire des routeurs entre les

Plus en détail

Lisez l exposé. Quelles affirmations décrivent la conception du réseau représenté dans le schéma? (Choisissez trois réponses.)

Lisez l exposé. Quelles affirmations décrivent la conception du réseau représenté dans le schéma? (Choisissez trois réponses.) Lisez l exposé. Quelles affirmations décrivent la conception du réseau représenté dans le schéma? (Choisissez trois réponses.) Cette conception n évoluera pas facilement. Le nombre maximal de VLAN pouvant

Plus en détail

VI - La couche réseau : adresse IP. LPSIL ADMIN 2014 M.A. Peraldi-Frati - IUT Nice Côte d Azur

VI - La couche réseau : adresse IP. LPSIL ADMIN 2014 M.A. Peraldi-Frati - IUT Nice Côte d Azur VI - La couche réseau : adresse IP LPSIL ADMIN 2014 M.A. Peraldi-Frati - IUT Nice Côte d Azur 86 La couche réseau Achemine les données entre l émetteur et le destinataire au travers de différents réseaux

Plus en détail

MISE EN ŒUVRE D UNE ARCHITECTURE RESEAU SECURISEE A HAUTE DISPONIBILITE ET MIGRATION DES DONNEES SUR MACHINES VIRTUELLES

MISE EN ŒUVRE D UNE ARCHITECTURE RESEAU SECURISEE A HAUTE DISPONIBILITE ET MIGRATION DES DONNEES SUR MACHINES VIRTUELLES OFFRE N 2013/01/03 MISE EN ŒUVRE D UNE ARCHITECTURE RESEAU SECURISEE A HAUTE DISPONIBILITE ET MIGRATION DES DONNEES SUR MACHINES VIRTUELLES OBJET DE LA CONSULTATION : Ce marché vise dans un 1 er temps,

Plus en détail

DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX)

DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX) DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX) 1. DESCRIPTION DU CONCOURS 1.1. But de l épreuve La compétition permet aux étudiants 1 de mettre à l épreuve leurs connaissances

Plus en détail

Implémentation des protocoles Spanning Tree

Implémentation des protocoles Spanning Tree Implémentation des protocoles Spanning Tree ITE I Chapter 6 2006 Cisco Systems, Inc. All rights reserved. Cisco Public 1 Objectifs Expliquer le rôle de la redondance dans un réseau qui a convergé Expliquer

Plus en détail

Principes de mise en réseau & Manuel d installation réseau pour l imprimante Crystal Printer

Principes de mise en réseau & Manuel d installation réseau pour l imprimante Crystal Printer Principes de mise en réseau & Manuel d installation réseau pour l imprimante Crystal Printer 1. Présentation Ce manuel fournit les connaissances de base sur la mise en place d un réseau sans fil pour que

Plus en détail

Cours n 9. Trunking - VTP Inter-VLAN

Cours n 9. Trunking - VTP Inter-VLAN Cours n 9 Trunking - VTP Inter-VLAN 1 Sommaire Agrégation (Trunking) VTP Inter-VLAN routing 2 Définition L'apparition de l'agrégation (trunking) remonte aux origines des technologies radio et de téléphonie.

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Administration réseau Introduction

Administration réseau Introduction Administration réseau Introduction A. Guermouche A. Guermouche Cours 1 : Introduction 1 Plan 1. Introduction Organisation Contenu 2. Quelques Rappels : Internet et le modèle TCP/ Visage de l Internet Le

Plus en détail

Sensibilisation à la sécurité Les composants de vsphere. Edito. Cahier Technique Amosdec Q2 2010 Numéro 5

Sensibilisation à la sécurité Les composants de vsphere. Edito. Cahier Technique Amosdec Q2 2010 Numéro 5 Q2 2010 Numéro 5 Les composants de vsphere Edito 2010 marque une nouvelle étape dans l évolution du marché de la virtualisation : Virtualisation globale des serveurs et des infrastructures Virtualisation

Plus en détail

La tête dans les nuages

La tête dans les nuages 19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions

Plus en détail

MPLS. Multiprotocol Label Switching

MPLS. Multiprotocol Label Switching MPLS Multiprotocol Label Switching Préparé par: Ayoub SECK Ingénieur-Chercheur en Télécommunications Spécialiste en Réseaux IP et Télécoms mobiles Certifié: JNCIA, CCNP,CCDP Suggestions: seckayoub@gmail.com

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Formation SIARS. Principes de base TCP/IP QoS

Formation SIARS. Principes de base TCP/IP QoS Formation SIARS Principes de base TCP/IP QoS Plan La situation actuelle Qu est-ce que la QoS? DiffServ IntServ MPLS Conclusion La situation actuelle La situation actuelle La famille des protocoles TCP/IP

Plus en détail

Présentation d HyperV

Présentation d HyperV Virtualisation sous Windows 2008 Présentation d HyperV Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines virtuelles Offre de virtualisation

Plus en détail

Guide des solutions Microsoft Server

Guide des solutions Microsoft Server Guide des solutions Microsoft Server Quel serveur choisir pour les petites et moyennes entreprises? Guide Partenaires Dans le monde des entreprises d aujourd hui, les PME doivent faire beaucoup de choses

Plus en détail