Thèse de Doctorat Université Pierre et Marie Curie Paris 6 EDITE de Paris. Ahmed Amamou. Isolation réseau dans un datacenter virtualisé

Dimension: px
Commencer à balayer dès la page:

Download "Thèse de Doctorat Université Pierre et Marie Curie Paris 6 EDITE de Paris. Ahmed Amamou. Isolation réseau dans un datacenter virtualisé"

Transcription

1 Thèse de Doctorat Université Pierre et Marie Curie Paris 6 EDITE de Paris Spécialité INFORMATIQUE, TELECOMMUNICATIONS ET ÉLECTRONIQUE présentée par Ahmed Amamou pour obtenir le grade de Docteur de l Université Pierre et Marie Curie Paris 6 Isolation réseau dans un datacenter virtualisé Jury Bernard Cousin Rapporteur Professeur, Université de Rennes Otto Duarte Rapporteur Professeur, Universidade Federal do Rio de Janeiro Djamal Zeghlache Examinateur Professeur, Télécom SudParis Raouf Boutaba Examinateur Professeur, University of Waterloo Pierre Sens Examinateur Professeur, Université Pierre et Marie Curie Pascal Bouchareine Examinateur Directeur Recherche et Developpement, Gandi SAS Guy Pujolle Directeur Professeur, Université Pierre et Marie Curie Kamel Haddadou Encadrant Ingénieur de Recherche, Gandi SAS

2

3 Table des figures 2.1 Les types de services fournis par le Cloud Computing Architecture de Vserver Architecture réseau conventionnelle d un datacenter Architecture d un datacenter virtualisé Entête VXLAN Entête DOVE Entête NVGRE Architecture de communication basée sur les I/O de XEN Bande passante résultante dans le cas standard Bande passante résultante avec notre algorithme Variation de la consommation CPU en fonction de la periode de réajustement Variation du nombre de transactions mémoire consommées en fonction de la periode de réajustement Limite en nombre de paquets par seconde de notre système Débit d émission suivant la taille des paquets pour le DBA-VM Débit en nombre de paquets pour les trois scénarios Délai moyen pour les trois scénarios Jitter pour les trois scénarios Nombre de cycles CPU consommés par le DBA-VM en fonction de la période de réajustement Nombre de transactions mémoire consommées par le DBA-VM en fonction de la période de réajustement Architecture réseau d un data center basé sur TRILL Structure d un paquet TRILL Structure d un entête TRILL Processus d envoi des paquets TRILL Processus de réception des paquets TRILL Implémentation d un Rbridge sous Linux Délai de convergence pour le protocole TRILL I

4 4.8 Évolution du temps de réelection en fonction de la période LSP Performances réseau du protocole TRILL Nombre d entrées dans la table de commutation pour un réseau Ethernet standard Nombre d entrées dans la table de commutation pour un réseau TRILL Surcharge du protocle TRILL Isolation basé sur le Host Isolation de bout en bout Champ d extension Champ Flux Champ résumant les extensions Composition d un paquet VNT Commutateur Virtuel Processus d envoi d un paquet VNT Processus de réception d un paquet VNT Performances réseau du protocole VNT Nombre d entrées dans la table de commutation pour un réseau VNT Diagramme d états des VNI Processus de découverte des VNI Processus d envoi en tenant compte de la propagation des VNI Processus de reception en tenant compte de la propagation des VNI Délai de convergence pour le protocole VNT Performances réseau du VNT Nombre d entrées dans la table de commutation pour un réseau VNT avec propagation du VNI Nombre d entrées dans la table de commutation pour un réseau VNT avec propagation du VNI en fonction du nombre de VM par VNI Plateforme de test pour le multichemin Reprise du flux TCP après panne Évolution du flux TCP pendant une migration

5 Liste des tables 3.1 Scénario d émission Délai de ping pour les paquets TRILL Délai de ping pour les paquets VNT III

6

7 Table des matières 1 Introduction Motivations Contributions Plan de la thèse Datacenter virtualisé Introduction Cloud Computing La virtualisation Définition Terminologie La mutualisation des ressources systèmes La para virtualisation La virtualisation complète La virtualisation par conteneurs La virtualisation des réseaux la virtualisation des routeurs (nœuds) La virtualisation des liens Architecture réseau pour un datacenter traditionnel Limitation d Ethernet (L2) Architecture réseau L2 + L Réseau local virtuel (VLAN) Architecture réseau pour un datacenter virtualisé (VDC) Architecture du VDC Nouvelles recommandations Mobilité des VMs Connectivité any to any non bloquante Tolérance aux pannes Passage à l échelle Simplicité de gestion V

8 Réseaux privés Travaux de recherche sur les architectures réseaux pour un VDC Passage à l échelle Réseau Privé Conclusion Dimensionnement dynamique des capacités d émission des Machines Virtuelles Introduction Hyperviseur Xen Problématique du partage de la bande passante Architecture I/O Réseau de XEN Dimensionnement dynamique de la bande passante Évaluation de performances Plateforme de test Performances Réseaux Évaluation de la bande passante Performances système Performances CPU Évaluation des transactions mémoire consommées Limitations Discussion Dimensionnement dynamique de la bande passante couplé avec le nombre de paquets par seconde Évaluation de performance Plateforme de test Performances Réseaux Évaluation de la bande passante Évaluation du délai de bout en bout Évaluation de la Jitter Performances système Performances CPU Évaluation des transactions mémoire consommées Conclusion Intégration du TRILL au niveau des noeuds physiques Introduction Inadéquation de la couche L2 actuelle pour les datacenters Introduction au protocole TRILL Présentation Présentation de la structure d un paquet TRILL Plan de contrôle Plan de données Intégration du RBridge au niveau du nœud physique

9 4.4.1 Choix de l emplacement des RBridges Déploiement des RBridges comme équipements dédiés Déploiement des RBridges dans les nœuds physiques Déploiement des RBridges au niveau des interfaces des VMs Discussion Plan de Contôle Plan de données Processus d envoi Processus de Réception Évaluation des performances Implémentation du RBridge Plateforme de Test Plan de contrôle Convergence Tolérance aux pannes Plan de données Délai de bout en bout Bande passante Impacte sur la table de commutation des ToR Surcharge protocolaire Conclusion VNT : Virtual Network over TRILL Introduction Notion de réseau privé dans un datacenter Types d isolations Isolation basé sur le Host Isolation de bout en bout Présentation du VNT : Virtual Network over TRILL Tag VNI Format des paquets VNT Intégration de l extension VNT dans les RBridges Description de l approche Introduction des Virtuals Switches Processus d envoi Processus de réception Évaluation de performances Plateforme de test Plan de contrôle Plan de données Délai de bout en bout Bande passante Impacte sur les tables de commutation Discussion

10 5.9 Intégration des extensions VNT dans les RBridges avec annonce des VNI Description de l approche Exemple de découverte de la topologie selon le VNI Changement au niveau du plan de contrôle Changement au niveau du plan de données Évaluation des performances Plateforme de test Plan de contrôle Convergence Reprise après panne Plan de données Délai de bout en bout Bande passante Impacte sur la table de commutation Tolérance aux pannes (Multipath) Migration Rétrocompatibilité Rétrocompatibilité du plan de contrôle Rétrocompatibilité du plan de données Conclusion Conclusion Contributions Perspectives Publications 123 Bibliographie 124

11

12 Chapitre 1 Introduction Sommaire 1.1 Motivations Contributions Plan de la thèse

13 2 CHAPITRE Motivations Nous assistons, ces dernières années, à l émergence d un nouveau modèle économique dans l exploitation des ressources informatiques. Ce nouveau modèle, c est l informatique dans les nuages communément appelé Cloud Computing. Plusieurs PME choisissent aujourd hui ce modèle pour des raisons de coût et de flexibilité. En effet, ce modèle permet une rationalisation et un lissage du coût des ressources dans le temps. Le Cloud computing est aujourd hui en pleine expansion avec une demande qui ne cesse d augmenter, à titre d exemple, le cabinet Gartner [1] estime la croissance pour l année 2013 à 18% atteignant ainsi un chiffre d affaires totale de 131 millions de dollars. Outre l aspect économique du cloud, ce dernier est important par la quantité de données qui y sont stockées et la quantité de trafics qu il génère. Ainsi selon Cisco [2], le total de la bande passante consommée pour le cloud sera de l ordre de 3.3 zetta (10 21 ) octets en 2013 et le double à savoir 6.6 zetta octets en Toujours selon [2], ce trafic se répartit de la manière suivante : 76% est un trafic au sein même du datacenter, 17% est un trafic entre l utilisateur et le datacenter, et enfin, 7% est un trafic entre différents datacenters. 76% du trafic global du Cloud Computing reste dans le datacenter, ceci est dû entre autres à la séparation des serveurs de calcul et des serveurs de stockage, ainsi qu à la réplication et la sauvegarde des données. Cette énorme quantité de données qui circule dans le datacenter, impose de revoir la communication en son sein. En plus de la quantité de données, il y a le nombre important de clients par datacenter. Ceux-ci imposent de nouvelles contraintes aux opérateurs cloud, ainsi, avec ce nombre important de clients, il est essentiel de garantir le passage à l échelle. Il est tout aussi primordial de pouvoir isoler le trafic de chaque client dans un réseau qui lui est privé. Avec toute la quantité de trafics internes dans un datacenter, les opérateurs cloud ont besoin d un protocole réseau capable de maximiser les débits entre les nœuds avec des connections any to any non bloquantes. Enfin, les opérateurs ont besoin de mécanismes permettant la continuité de service tels que la migration des VMs et l auto configuration pour la reprise après panne. Tout ceci devrait idéalement se faire avec un minimum de configurations. Ces nouvelles contraintes, notamment celles de l isolation et du passage à l échelle, nous imposent de revoir la couche réseau des datacenters, pour qu elle puisse les gérer. Afin d aboutir à cet objectif ultime, et après l évaluation des procédés existants dans le but d isoler le trafic de deux clients au sein d un même datacenter virtualisé, nous avons pu détecter un ensemble de points qui nécessitaient une adaptation aux nouvelles exigences des réseaux dans un environnement Cloud computing. Nous avons, pour cela, adopté une démarche ascendante en partant des contraintes que doit respecter un nœud physique pour

14 CHAPITRE 1. 3 arriver à l architecture réseau d un datacenter virtualisé. 1.2 Contributions Le travail effectué dans le cadre de cette thèse a pour objectif d introduire un ensemble de mécanismes permettant de répondre aux différents besoins susmentionnés des opérateurs Cloud. Ces mécanismes permettent d aboutir à une isolation des réseaux dans un datacenter virtualisé tout en assurant le passage à l échelle de la couche réseau. Ainsi, notre contribution à travers cette thèse peut se résumer en trois parties essentielles. La première contribution se focalise sur l équité de partage des ressources réseau dans un même nœud physique. Elle consiste en un système d allocation dynamique de la bande passante. Il permet de maximiser l utilisation des réseaux dans le Cloud pour les clients qui en ont besoin, tout en respectant des contraintes de service minimum garanti pour les autres. Cet allocateur dynamique de la bande passante impose l utilisation de nouvelles formesdecontratsdeserviceousla[3].nousavonsdéfinitoutd abordunslas appuyant sur un intervalle de la bande passante [4]. Nous avons par la suite enrichi cet intervalle en le couplant avec une bande passante maximale en paquets par seconde [5]. L utilisation de ces SLA permet la diminution de l utilisation des ressources système lors de fortes charges, tout en garantissant à l ensemble des clients leurs SLA. En définissant des valeurs maximales pour la bande passante, ce système assure, également, une protection contre les attaques de dénis de service internes. Après avoir amélioré l équité de partage des ressources au sein d un même nœud physique, nous nous sommes focalisés sur les interconnexions réseau entre les différents nœuds physiques. Nous avons alors constaté l inadéquation de la couche L2 standard aux besoins du réseau d un datacenter. Nous avons étudié plusieurs alternatives et avons fini par adopter le protocole TRILL [RFC6325] [6], en effet le protocole TRILL introduit un nouveau équipement appelé RBridge combinant les avantages de la couche L2 et de la couche L3. Néanmoins, l approche de déploiement proposée dans l RFC 6325 ne nous semblait pas la plus pertinente. En effet, le déploiement des équipements TRILL pour interconnecter les nœuds physiques nous paraît moins intéressant que l implémentation du protocole directement au sein du nœud physique. Notre deuxième contribution consiste dans l adaptation du protocole TRILL pour l intégrer directement dans un nœud physique [7]. Cette approche permet d améliorer de façon considérable la capacité de passage à l échelle tout en assurant un premier niveau d isolation entre les réseaux des clients et le réseau de gestion.

15 4 CHAPITRE 1. Notre troisième contribution s articule au tour de la création de réseaux virtuels sur la couche réseau TRILL [8]. Ces réseaux virtuels permettent une création flexible de réseaux logiques qui ne souffrent pas des limitations des infrastructures réseau actuelles comme la limitation des 4096 segments de réseau logique du IEEE 802.1Q[9]. Ces limitations sont surmontées à travers l introduction d un identifiant VNI codé sur 24 bits. Cet identifiant est transporté dans le nouveau entête TRILL, permettant ainsi d atteindre un nombre de segments réseau logique dépassant les 16 millions, tout ceci sans aucune modification des domaines d administration niveau L2 déjà existants. L isolation des ces différents réseaux virtuels est effectuée tout d abord à travers un mécanisme de suppression au niveau du Rbridge destination. Puis dans un deuxième temps, en exploitant le plan de contrôle des RBridges, nous sommes parvenus à construire des arbres topologiques par VNI. Ceci à permis le confinement des flux d un VNI aux seuls RBridges concernés, permettant ainsi une isolation de bout en bout. Par ailleurs, cette solution appelée VNT(Virtual Network over TRILL), apporte une augmentation de la bande passante et une réduction de la latence, répond aux limitations des réseaux actuels (épuisement des VLAN, limite de la taille des tables de commutation des ToRs, manque de redondance des chemins dans les STP, etc) et assure une compatibilité ascendante avec les équipements niveau L2 actuels et les équipements qui supportent le protocole TRILL. 1.3 Plan de la thèse Ce manuscrit sera présenté de la manière suivante : Tout d abord nous débuterons à travers une description de l état de l art en définissant les datacenters virtualisés à travers une introduction au Cloud. Ensuite, nous dégagerons les différents défis à satisfaire afin d aboutir à un datacenter virtualisé efficace d un point de vue réseau. Une fois les défis dégagés, nous commencerons leur résolution en adoptant une démarche ascendante à travers la présentation des différentes contributions. Tout d abord, à travers le dimensionnement dynamique des capacités d émission des machines virtuelles (VMs). Ensuite, nous passerons à l intégration du TRILL au niveau des nœuds physiques à travers une présentation du protocole ainsi que le portage des équipements RBridges au niveau des nœuds physiques. Nous enchaînerons, par la suite, avec une description du VNT qui permettra d étendre la capacité de nombre de réseaux logiques dans un datacenter virtualisé. Enfin, pour conclure, nous allons résumer l ensemble des travaux effectués et présenter les perspectives à courts, moyens et longs termes.

16 Chapitre 2 Datacenter virtualisé Sommaire 2.1 Introduction Cloud Computing La virtualisation Définition Terminologie La mutualisation des ressources systèmes La virtualisation des réseaux Architecture réseau pour un datacenter traditionnel Limitation d Ethernet (L2) Architecture réseau L2 + L Réseau local virtuel (VLAN) Architecture réseau pour un datacenter virtualisé (VDC) Architecture du VDC Nouvelles recommandations Travaux de recherche sur les architectures réseaux pour un VDC Conclusion

17 6 CHAPITRE Introduction Le Cloud computing est selon le NIST(Nation Institue of Standard and technology) [10] un modèle permettant un accès ubiquitaire, à la demande et via un réseau distant à un ensemble de ressources informatiques. Toujours suivant cette définition, ces ressources informatiques doivent pouvoir être acquises puis relâchées avec un minimum d opérations de configuration et une interaction minimale du fournisseur de services. Afin de fournir ces ressources informatiques suivant le modèle Cloud Computing, il est essentiel de les stocker dans des centres de données (datacenters). Pour fournir ces services via un réseau, il est crucial de connecter les datacenters à internet, mais il est aussi essentiel d interconnecter l ensemble des équipements du datacenter de manière convenable. Ces travaux de thèse vont se focaliser sur la partie réseau des datacenters d une manière ascendante en partant du fonctionnement du réseau au sein des ressources informatiques, pour arriver aux communications au sein d un même datacenter. Mais avant d entamer la présentation de ces travaux, il est essentiel d introduire le contexte général. Pour cela, nous allons d abord introduire plus en détail le concept de Cloud Computing à travers sa signification et l ensemble des services qu il fournit. Nous allons, ensuite, nous focaliser sur l une des principales technologies permettant l établissement du Cloud Computing qui est la Virtualisation. Nous allons présenter la signification de la virtualisation, définir un ensemble de terminologies relatives à la virtualisation et les types possibles de virtualisation. Nous allons, par la suite, introduire l architecture réseau des datacenters classiques. Enfin, nous allons présenter la notion de datacenters virtualisés (appelés aussi VDC) qui sont utilisés dans le contexte du Cloud Computing. Nous allons, pour cela, définir le VDC à travers la description de son architecture, puis, introduire l ensemble des recommandations qui nous semblent vitales pour l établissement d un VDC et énumérer, à la fin, les travaux les plus pertinents proposés afin d assurer l isolation réseau et le passage à l échelle des réseaux privés au sein d un VDC. 2.2 Cloud Computing Le Cloud Computing selon[11] et[12] est la concrétisation de l informatique comme service. En effet, le Cloud Computing est le déploiement des ressources informatiques en les offrant en tant que service permettant ainsi d éviter le surprovisionnement des ressources physiques pour des tâches qui n en requièrent pas tant et le sousprovisonnement des services dont la croissance n était pas espérée. Le terme Cloud Computing désigne à la fois le service offert aux clients ainsi que les ressources matérielles et logicielles nécessaires pour offrir ce service.

18 CHAPITRE 2. 7 Les centres de données offrant des services de Cloud Computing sont alors appelés Cloud, ce terme regroupe à la fois les composantes logicielles et matérielles des centres de données. Il existe plusieurs sortes de Cloud [10], on retrouve : Le Cloud public qui comme son nom l indique est un Cloud ouvert à toutes sortes de clients dans un modèle de payement à la demande. Google Application Engine [13] et Amazon EC2 [14] sont des exemples de Cloud public. Le Cloud privé, ce type de Cloud est un Cloud dédié à une entreprise ou à une organisation pour ses propres besoins. l accès à ce type de Cloud n est pas autorisé au public mais uniquement à un groupe prédéfini de personnes appartenant à l entité qui gère le Cloud. Windows Azure [15] est une des solutions utilisées pour mettre en place ce type de Cloud. Le Cloud hybrid est une combinaison entre le Cloud privé et le Cloud public, concrètement c est l utilisation d un ou plusieurs Clouds privés associés à un ou plusieurs Clouds publics, un exemple serait l utilisation d un Cloud privé avec un stockage en Cloud public. Le Cloud communautaire[16] est un ensemble d infrastructures partagées entre différentes organisations qui soutiennent une certaine communauté avec des besoins partagés un exemple de Clouds communautaires c est celui initié par les hôpitaux de Toronto [17] Quelque soit le type du Cloud utilisé les services qu il offre peuvent varier selon les besoins des utilisateurs. Afin de mieux comprendre les types de services susceptibles d être fournis par un cloud, il est essentiel de décrire l architecture d un Cloud présentée par la figure 2.1. Ainsi il est possible d avoir les types de services suivants [10] : SaaS (Software as Service) : ou logiciel comme service, dans ce type de service le fournisseur du Cloud a le contrôle de toute l infrastructure ainsi que des systèmes d exploitations et du logiciel dont le client va se servir, le client n aura le contrôle que sur une partie des données, celle qu il fournira au logiciel. PaaS (Platform as a Service) : ou plateforme comme service, dans ce type de service le client aura un contrôle restreint sur les logiciels de base typiquement des options de configuration. En revanche il aura un contrôle total sur le code applicatif à exécuter ainsi que sur les données qu il fournira à ce code applicatif. IaaS (Infrastructure as a Service) : ou infrastructure comme service, dans ce type de service le client aura le contrôle total du système d exploitation de son instance et

19 8 CHAPITRE 2. Figure 2.1 Les types de services fournis par le Cloud Computing de ce fait il aura aussi le contrôle total sur l ensemble des logiciels de base, des codes applicatifs à exécuter et bien sûr, sur les données qu il pourra fournir à ses codes applicatifs. L architecture d un Cloud se base sur un composant essentiel afin de pouvoir offrir ses différents services aux clients finaux. Ce composant essentiel est la virtualisation. Cette couche permet l exécution simultanée de plusieurs systèmes d exploitation sur le même environnement matériel. Il est donc essentiel afin de mieux comprendre le fonctionnement du Cloud Computing d introduire la notion de virtualisation.

20 CHAPITRE La virtualisation Définition La virtualisation en termes simples est une technologie permettant le représentation d un équipement physique en un ensemble d autres équipements virtuels. Ainsi au travers de la virtualisation, il devient possible de faire cohabiter plusieurs environnements d exécution sur la même infrastructure physique. Ces environnements d exécution seront isolés les uns des autres, c est à dire aucune interaction entre ces différents environnements ne sera possible. Pour réaliser cette isolation, chacun de ces environnements aura sa propre perception du système. Cette technologie n est pas une invention récente. En effet, la mutualisation des ressources systèmes est une problématique classique qui est étudiée depuis une cinquantaine d années maintenant. La virtualisation des systèmes a commencé depuis les années soixante [18] où en absence d ordinateurs personnels, il fallait permettre à plusieurs utilisateurs de partager le même super ordinateur. Mais avec les performances des machines actuelles et les coûts de maintenance élevée, la virtualisation revient au devant de la scène avec de nouvelles problématiques Terminologie Afin d introduire le concept de virtualisation, nous devons d abord introduire un ensemble de termes techniques nécessaires à la compréhension du concept. Nous désignerons l ensemble des équipements physiques hébergeant des instances virtuelles comme nœuds physiques. Afin de permettre l exécution de plusieurs systèmes d exploitation en parallèle sur un nœud physique, il est nécessaire d avoir un Hyperviseur. L hyperviseur est un pseudo système d exploitation permettant la coordination entre les différents systèmes d exploitation. L hyperviseur peut aussi être désigné par VMM (Virtual Machine Manager) ou en Français GMV (Gestionnaire des Machines Virtuelles). Le terme VM (Virtual Machine) ou MV (Machine Virtuelle) désigne l ensemble des instances virtuelles s exécutant par dessus l hyperviseur, ces instances possèdent des composants virtuels. Parmi les composants virtuels d une VM on trouve principalement une mémoire virtuelle, une ou plusieurs CPU appelées vcpu pour virtual cpu et enfin des interfaces réseau virtuelles appelées vif pour virtual interface.

21 10 CHAPITRE La mutualisation des ressources systèmes La virtualisation a tout d abord été utilisée dans le but de la mutualisation des ressources systèmes. Elle a ainsi permis de décomposer les ressources systèmes en un ensemble de ressources virtualisées fournies simultanément à plusieurs clients. Afin de mettre en place cette mutualisation, plusieurs techniques peuvent être utilisées. Nous dégageons parmi elles les trois suivantes : la virtualisation par conteneurs [19] la para virtualisation [20] la full virtualisation [21] ou virtualisation complète La para virtualisation La para virtualisation ou pseudo virtualisation, est un type de virtualisation utilisant un Hyperviseur. Au dessus de l Hyperviseur, plusieurs systèmes d exploitation cohabitent. Parmi ces instances, il existe une qui est particulière appelée DOM0. Cette instance privilégiée est la seule ayant un accès direct aux périphériques, les autres instances doivent être modifiées et leurs interruptions matérielles doivent être converties en interruptions logicielles. Ainsi au niveau des OS modifiés, toutes les instructions sont modifiées avant d être transmises à l Os privilégié. Ces derniers en recevant les interruptions logicielles, les convertissent en interruptions matérielles avant de les transmettre aux périphériques. Ils permettent ainsi aux OS non privilégiés d accéder aux périphériques. Une telle technique de virtualisation impose la modification du code des OS qui y seront hébergés. Un exemple d Hyperviseur utilisant la para virtualisation est Xen [22] La virtualisation complète La virtualisation complète ou full virtualisation ou encore virtualisation matérielle se base aussi sur le déploiement du pseudo système d exploitation Hyperviseur. Mais contrairement à la para virtualisation, les OS ne sont pas modifiés dans un tel système. En effet dans ce genre de système, un type particulier de nœuds physiques est utilisé. Ces nœuds doivent avoir des composants capables de supporter la virtualisation tels que les processeurs de la famille intel-vt [23]. Dans de tels systèmes, les interruptions matérielles des OS non privilégiés ne sont pas converties en interruptions logicielles et sont directement envoyées aux périphériques. Grâce au caractère spécifique du matériel utilisé, les OS non privilégiés ne sont pas modifiés et se comportent comme s ils étaient dans un environnement non virtualisé. L hyperviseur grâce aux particularités matérielles pourra gérer les interrup-

22 CHAPITRE tions envoyées par l ensemble des Os. Plusieurs Hyperviseurs supportant la virtualisation matérielle existent tels que KVM [24], Virtual Box [25] ou encore VMware [26] La virtualisation par conteneurs La virtualisation par conteneurs [19] consiste à déployer un système d exploitation (OS) virtualisé. Ce système est partagé entre plusieurs instances. En outre ces différentes instances, s exécutant en parallèle, se partagent un ensemble de librairies d une manière sécurisée. L architecture d un système utilisant la virtualisation par conteneur est illustrée par la figure 2.2 extraite de [19]. Ce type de virtualisation se base sur la présence d une VM host possédant un accès privilégié au système, d autres VM s exécutent sur le même OS en utilisant les librairies exposées par le système. Un exemple de système utilisant la virtualisation par conteneur est Linux VServer [27]. L isolation entre les différentes VM est effectuée à travers l isolation des trois composants, à savoir le CPU, les I/O et le stockage. Tout d abord, afin d effectuer une isolation entre les différents CPU un filtre TBF (Token Bucket Filter) est déployé au dessus de l ordonnanceur standard de CPU linux. Chaque VM possède un nombre de crédits; à chaque fois qu un processus associé à une VM est exécuté pendant un intervalle donné, le crédit est décrémenté. Une fois ces crédits épuisés, l ensemble des processus associé à cette VM est enlevé de la file d attente du CPU. Ces processus sont repris une fois que la VM a acquis suffisamment de crédits. Concernant l isolation des I/O, cette dernière est effectuée de la manière suivante, grâce à l utilitaire Trafic Control de linux [28], une file d attente de type HTB (Hierarchical Token Bucket) est crée. Pour chaque VM, un débit est réservé grâce à ces files d attentes. Concernant les I/O de stockage, ces derniers sont gérés grâce à l ordonnanceur Linux CFQ (Completely Fair Queuing). Enfin concernant le stockage, Vserver permet de définir une limite de la quantité de mémoire associée à chaque VM. Pour le stockage, les limites suivantes peuvent être définies: le nombre maximum de RSS (Resident Set Size) le nombre de pages anonymes (ANON) le nombre de pages qui peuvent être bloquées en mémoire en utilisant le mlockc() et mlockall() que des processus peuvent avoir dans une seule VM (MEMLOCK) Ainsi contrairement à la virtualisation avec l utilisation d Hyperviseur (para virtualisation et virtualisation complète), la virtualisation par conteneurs n exige que l utilisation d une seule image.

23 12 CHAPITRE 2. Figure 2.2 Architecture de Vserver La virtualisation des réseaux La virtualisation des systèmes est la premier type de virtualisation à voir le jour. Mais ultérieurement avec l émergence d un besoin de changement globale dans les réseaux actuels un nouveau type de virtualisation vit le jour, c est la virtualisation des réseaux. Ce nouveau concept fut proposé afin de remédier aux différentes problématiques structurelles et conceptuelles que pose l expansion de l Internet [29]. Le principe d une telle virtualisation est assez simple. Il propose de subdiviser un réseau physique déjà existant en un ensemble de réseaux de protocoles indépendants tout en étant isolés les uns des autres. Un tel principe se base sur la virtualisation de deux composantes essentielles à savoir la virtualisation des routeurs (nœuds) et la virtualisation des liens [30] la virtualisation des routeurs (nœuds) Afin d aborder la virtualisation des réseaux, il est essentiel de commencer par la virtualisation des routeurs [31] [32]. Suite à l émergence de plusieurs routeurs applicatifs tels que Quagga[33], XORP[34], ou Click[35], il est devenu assez simple de s affranchir des routeurs traditionnels au profit de tels routeurs software. Il est alors apparu comme évident qu il serait possible de déployer sur une même machine physique plusieurs VM avec les logiciels de routages différents, permettant ainsi à chaque client d avoir une gestion de son propre réseau. C est ainsi que suivant ce principe plusieurs recherches ont été menées notamment parmi lesquels le projet VRouter [36]. D autres recherches comme la plateforme PlanetLab [37] optent pour la séparation du plan

24 CHAPITRE de contrôle du plan de données et utilisent des processus réseau pour un traitement rapide des paquets La virtualisation des liens La virtualisation des liens est un autre volet de la la virtualisation des réseaux. Un lien virtuel représente le lien interconnectant deux nœuds virtuels. Ce lien peut correspondre à un lien physique ou bien à l association de plusieurs liens physiques. La virtualisation des liens s intéresse à l association optimales des liens physiques avec les liens virtuels. Ce problème d association des liens physiques/virtuels revient à un problème d association des topologies virtuelles avec la topologie physique. DesétudesontétémenéesdanscedomainecommeZhuetal[38]quimodélisentleproblème sous forme de graphe et proposent deux variantes de cet algorithme. La première variante est une association sans re-configuration, la deuxieme est une association avec re-configuration. 2.4 Architecture réseau pour un datacenter traditionnel Limitation d Ethernet (L2) De nos jours, les réseaux Ethernet sont les réseaux les plus utilisés par les opérateurs du Cloud pour interconnecter les nœuds physiques au sein d un datacenter. Cette popularité est entre autres due à la simplicité du fonctionnement de l Ethernet et à la facilité de ses opérations de configuration. En effet, dans un réseau Ethernet chaque interface de chaque nœud physique possède une adresse MAC, unique. Les bridges Ethernet interconnectant les nœuds physiques vont automatiquement découvrir ces adresses MAC et les associer à un port donné. Cet apprentissage automatique permettra de créer au niveau de chaque Bridge une table de commutation. Ces Bridges vont ainsi permettre la commutation des paquets niveau Ethernet à travers leurs tables de commutation. Les règles de commutation sont assez simples. A chaque fois qu un paquet atteint un bridge donné, ce dernier mémorise son adresse source et l associe au port par lequel il l a reçu dans sa table de commutation. Ainsi lors de la décision de commutation, le bridge cherche l adresse destination, s il la trouve associée à un port il commute le paquet vers ce port. En revanche, si l adresse de destination n est associée à aucun port ou si elle est de type diffusion (ff :ff :ff :ff :ff :ff) le bridge duplique le paquet et le commute sur tous les ports mis à part le port source. Cette simplicité dans le fonctionnement implique un inconvénient. En effet, Les paquets Ethernet ne possèdent pas une limite de nombre de sauts comme c est le cas pour

25 14 CHAPITRE 2. les paquets IP, donc en cas d existence d une boucle toute l infrastructure s effondre instantanément. Dans le cas d une boucle, les paquets en brodcast ou vers une destination inconnue seront dupliqués à chaque arrivée à un bridge puis à cause de la boucle les paquets seront dupliqués de nouveau jusqu à ce que le nombre total des paquets dupliqués dépasse la capacité de commutation des bridges entraînant ainsi des ruptures de liens. Afin de remédier à toute éventuelle boucle dans les interconnections physiques, le protocole Spanning Tree Protocol (STP) [39] assure un réseau sans boucle. Pour les enlever, le protocole STP transforme tout type de topologie, en une topologie logique en arbre. Cette topologie logique, permet la désactivation des éventuels ports des bridges causant d éventuelles boucles laissant ainsi une seule connexion entre chaque deux nœuds physiques. L algorithme STP se base sur des priorités pour chaque port pour déterminer quels ports permettront de commuter les paquets et lesquels seront bloqués. Ces priorités peuvent être configurées ou non. en cas de non configuration, ce sont les adresses MAC qui seront pris comme référence pour départager deux ports. L algorithme STP permet ainsi de garder la simplicité de fonctionnement du réseau Ethernet. Il permet ainsi une extension très simple du nombre de bridges avec zéro configuration. Dés le branchement d un nouvel équipement, ce dernier trouvera automatiquement sa position dans l arbre logique représentant le topologie grâce à la priorité associée à ses ports. Entre autres, cette unicité d adressage MAC permet une migration transparente des VMs dans un même réseau Ethernet. Cependant, dans un contexte Cloud, les réseaux Ethernet sont confrontés à des défis de taille. Tout d abord, les réseaux de type Ethernet se basent sur l inondation du réseau par des paquets broadcasts afin de construire les tables de commutation. Or dans un datacenter avec des dizaines de milliers de VM, cette quantité de paquets inondés sur tous les bridges surcharge énormément la table de commutation de ces derniers. D ailleurs cette dernière est généralement sauvegardée dans une mémoire de type CAM ( Content Addressable Memory) afin d avoir des temps de réponses assez courts. Les mémoires CAM étant assez chères, il se révèle très coûteux de remplacer les bridges d un datacenter par d autres ayant des mémoires CAM plus grandes afin de répondre à l augmentation du nombre de MAC des VM. Ensuite, le protocole STP se base sur la désactivation des ports des bridges, c est à dire la suppression pure et simple des liens causants une boucle dans le réseau. Or dans le contexte d un datacenter les besoins en bande passante sont très importants et nécessitent l existence de plus d un lien entre deux bridges. De plus le protocole STP se révèle très pénalisant si nous prenons en considération les besoins de redondance de lien pour pallier

26 CHAPITRE Figure 2.3 Architecture réseau conventionnelle d un datacenter d éventuelles pannes. Enfin, à grande échelle, les paquets des protocoles de diffusion se révèlent coûteux en terme de quantité de trafics. Nous entendons par protocole de diffusion les protocoles tels que l ARP (Address Resolution Protocol) pour la résolution d adresse IP ou le DHCP (Dynamic Host Configuration Protocol ) pour la configuration automatique des adresses IP. Ces paquets en diffusion vont atteindre tous les nœuds physiques dans un même réseau Ethernet ce qui entraînera à la fois une congestion des liens, et d autre part une consommation supplémentaire au niveau des nœuds physiques non concernés par ce trafic. Exemple : selon [40] un millions de machines (VMs) générera plus de 468,240 ARP par seconde soit l équivalent de 239 Mbits par seconde Architecture réseau L2 + L3 Les problématiques de la couche L2 du réseau que nous venons de présenter impose la segmentation de la couche L2 standard dans un même datacenter afin de limiter le domaine de diffusion (paquets en broadcasts). Si nous voulons construire une topologie comprenant un seul segment couche L2 pour l ensemble du datacenter, ceci serait quasi impossible avec la couche liaison actuelle. En effet, comme nous l avons déjà mentionné un trop grand nombre de nœuds physiques dans un même segment Ethernet risque de congestionner les tables de commutations des commutateurs. Afin de remédier à cette problématique, les architectures standards adoptées dans un datacenter se composent de la manière suivante : tout d abord, un ensemble de nœuds physiques est relié à un premier commutateur appelé ToR [41](Top of the Rack switch) ce ToR connecte l ensemble des nœuds physiques contenus dans un même Rack.

27 16 CHAPITRE 2. L ensemble des ToR est connecté à d autres commutateurs plus performants appelés AS (Aggregation switch) cette couche d agrégation rassemble les trafics d un ensemble de ToR tout en permettant un redondance des liens entre les ToR et les CR comme l illustre la figure 2.3. Enfin dans le dernier niveau ( le niveau cœur), se trouve les CR (Core Router). Les CR permettront la connexion des AS vers internet, les CR étant des éléments de réseau de niveau 3, il devient possible de faire des boucles pour pouvoir garantir une redondance des liens Réseau local virtuel (VLAN) Le réseau local virtuel ou VLAN(Virtual Local Area Network) est un concept permettant la subdivision d un réseau physique existant en un ensemble de réseaux virtuels indépendants les uns des autres. Afin de réaliser la différenciation des différents réseaux virtuels, un tag sur 16 bits est utilisé. Ce tag de 16 bits est composé de deux parties, les premiers 4 bits qui spécifient la priorité, puis les 12 autres bits qui spécifient le numéro du VLAN. Il devient ainsi possible de décomposer un réseau Ethernet en 4095 réseaux virtuels. L ajout et la suppression des tags VLAN sont effectués au niveau des ports des commutateurs. Si un port ne supporte pas un VLAN donné le paquet est détruit au niveau de ce port. C est ainsi qu il devient possible d isoler l ensemble des réseaux virtuels. L utilisation des VLAN permet ainsi plusieurs fonctionnalités dont : La sécurisation d un réseau La segmentation des réseaux L isolation des réseaux L ajout d une pseudo QoS à travers la priorité du VLAN Mais ce nombre de 4095 VLAN qui est plus que suffisant dans un réseau Ethernet Standard devient largement sous dimensionné dans un réseau de datacenter. En effet, un datacenter de taille standard est capable de servir des dizaines de milliers de clients en parallèle. IL devient alors évident que pour effectuer un isolation réseau entre les différents clients, l utilisation des VLAN est complètement inadaptée. 2.5 Architecture réseau pour un datacenter virtualisé (VDC) Architecture du VDC Un VDC ou datacenter virtualisé possède une architecture spécifique. Elle est illustrée par la figure 2.4. Trois éléments essentiels forment les piliers d un VDC, ces trois éléments sont :

28 CHAPITRE Figure 2.4 Architecture d un datacenter virtualisé Une architecture réseau L2 + L3 Un ensemble de serveurs de calcul Un ensemble de serveurs de stockage (filer) Nous avons déjà évoqué l architecture réseau L2 + L3 spécifique à un VDC dans la partie Cette architecture réseau se caractérise par trois couches à savoir : La couche d accès. La couche d agrégation. La couche cœur du réseau. Un deuxième pilier de cette architecture, c est l ensemble des serveurs de calcul. Nous désignerons ces serveurs par nœuds physiques. Les nœuds physiques hébergent les VMs. Ils fourniront aux VMs les ressources nécessaires en CPU et en mémoire vive. Enfin le dernier pilier c est l ensemble des serveurs de stockage. Ces serveurs hébergent les disques de données des VMs. Ils sont essentiels pour permettre une séparation entre la VM et les données qu elle contient. Ainsi, en cas de défaillance du serveur hébergeant la VM, il n y a pas de risque de perte de données, de plus, la reprise après panne peut se faire directement en redémarrant le disque de VM sur un autre serveur de calcul. Il est bien sûr essentiel que les serveurs de stockage soient redondants pour éviter les éventuelles pertes

29 18 CHAPITRE 2. de données. Une fois l architecture d un VDC présentée, nous passons à la présentation de notre vision des principales recommandations à satisfaire pour le bon fonctionnement d un datacenter Nouvelles recommandations Contrairement aux centres de données (datacenters) classiques, les centres de données virtualisées ou VDC requièrent des exigences complexes afin de satisfaire les besoins demandés. Ces exigences complexes nous poussent à préconiser les recommandations suivantes pour tout VDC : La mobilité des VMs La connectivité any to any non bloquante La tolérance aux pannes Le passage à l échelle La simplicité de gestion Les réseaux privés. Nous tenons à préciser que l ensemble de ces recommandations ne constitue pas une liste exhaustive des exigences à satisfaire pour un VDC. Ce sont celles que nous avons jugés les plus intéressantes et les plus importantes pour le bon fonctionnement d un VDC Mobilité des VMs Un VDC doit être conçu de manière à permettre la mobilité des VMs. En effet, il doit permettre la migration des VMs de manière transparente. Aussi, cette migration ne doit pas être limitée ni dans le nombre ni dans l emplacement de destination dans le datacenter. Elle pourra être déclenchée de manière manuelle ou automatisée. Elle est essentielle afin de permettre un ensemble d opérations; telles que l optimisation de l utilisation des ressources, l exécution des maintenances ou même pour satisfaire des besoins d économie d énergie. Pour permettre à cette migration de se dérouler de manière transparente, il est primordial que les VMs ne changent pas de plan d adressage suite à une migration. Il est aussi essentiel que ces VMs ne changent pas leurs politiques de sécurité suite à une telle opération.

30 CHAPITRE Connectivité any to any non bloquante Le routage au sein d un VDC doit permettre une communication any to any entre l ensemble des nœuds physiques. Le protocole de routage devra assurer l établissement d un ou plusieurs chemins entre deux nœuds physiques en utilisant les liens physiques disponibles entre eux. Avec une demande toujours plus accrue en bande passante, le VDC devra garantir une connectivité riche afin d augmenter la bande passante agrégée et éviter la congestion des liens à travers l utilisation d un routage multi-chemin. L objectif ultime est d arriver à représenter l ensemble des liens comme un seul commutateur géant permettant l interconnexion de tous les nœuds physiques d une manière non bloquante Tolérance aux pannes Dans un VDC la défaillance ne doit pas être considérée comme une exception mais comme une règle. En effet, à cette échelle la défaillance est inévitable. Donc, un VDC doit être capable de détecter, diagnostiquer et de résoudre les défaillances sans intervention extérieure. Cette tolérance aux pannes doit couvrir à la fois les liens physiques, les switches, les nœuds physiques et enfin les VMs. La défaillance d une VM ou d un nœud physique peut être corrigée par la migration transparente, mais la défaillance d un lien physique ou d un commutateur ne peut être réalisée qu à travers la représentation des différents liens physiques comme un commutateur géant non bloquant, permettant ainsi d établir plusieurs chemins possibles entre chaque couple de nœuds physiques Passage à l échelle La définition même du Cloud impose de concevoir un VDC capable d augmenter de manière considérable le nombre de VMs, de liens et d interfaces qu il accueille. Ceci implique que le VDC devra pouvoir gérer une surcharge considérable du nombre de VMs et ce qui en résulte d augmentation d adresses MAC et IP. Dans le cas d une telle augmentation, il faut gérer de manière très prudente la saturation possible des mémoires des commutateurs. En effet, dû à leur coûts de production élevés, les mémoires des commutateurs ont tendance à être très limitées. La saturation de ces mémoires est assez dangereuse du fait du principe de fonctionnement des commutateurs. Effectivement, ce principe de fonctionnement engendre une inondation des paquets dont la destination est inconnue. Avec la saturation des mémoires des commutateurs, chaque nouvelle adresse enregistrée implique la suppression d une ancienne adresse ce qui entraînera l inondation des paquets destinés à l ancienne adresse. À terme, ceci peut entraîner l arrêt total du réseau du VDC à cause du nombre important de paquets inondés. Afin d éviter ce genre de phénomène, les VDC ont deux choix possibles :

31 20 CHAPITRE 2. Remplacer les anciens commutateurs par des nouveaux avec des mémoires plus importantes, mais ceci impliquerait une augmentation du coût pour le client final. Trouver des solutions pour éviter la saturation des mémoires des commutateurs Simplicité de gestion Vu la taille et le caractère critique d un VDC, l ensemble des opérations de gestion doit être simplifié au maximum. En effet, le VDC doit être capable de gérer d une manière transparente les migrations des VMs sans impliquer de nouvelles configurations. Il doit pouvoir gérer automatiquement les changements qui peuvent intervenir dans l infrastructure physique ainsi que son redimensionnement avec l ajout ou la suppression de plusieurs nœuds physiques. Tout ceci doit se faire d une manière automatique sans devoir passer par des configurations complexes Réseaux privés Il faut que le VDC puisse être capable d offrir aux clients finaux des fonctions automatisées leur permettant de construire des réseaux privés. Ces fonctionnalités doivent assurer la construction des réseaux aussi bien simples que complexes. Les réseaux privés doivent permettre d isoler les clients les uns des autres. Ils peuvent ainsi limiter la propagation des paquets unicasts et multicasts de chacun des réseaux dans un domaine donné. Le VDC permet ainsi de restreindre les flux d un client donné aux seuls ports (interfaces) appartenant à ses VMs. Enfin, le VDC est tenu d offrir un nombre suffisant de réseaux privés pour répondre aux besoins de tous ses clients Travaux de recherche sur les architectures réseaux pour un VDC Nous avons présenté un ensemble de recommandations pour le bon fonctionnement des VDC. Cet ensemble de recommandations peut se distinguer en deux catégories principales : Le passage à l échelle Les réseaux privés. Chacune des recommandations précédentes peut être classifiée sous l une ou l autre ou bien les deux catégories. Plusieurs études récentes ont essayé de satisfaire un ensemble de critères afin d aboutir à la réalisation de l un de ces critères ou bien les deux. Nous allons dans ce qui suit présenter une illustration des ces recherches à commencer par celles proposant une satisfaction du critère du passage à l échelle.

32 CHAPITRE Passage à l échelle Le premier critère à avoir été pris en considération était le passage à l échelle. Ainsi, plusieurs études se sont concentrées sur la résolution de l ensemble des problèmes reliés au passage à l échelle. Par exemple Portland [42] [43] suggère l utilisation d une nouvelle couche de liaison. C est ainsi que Portland suggère la modification de l entête MAC. Il faut tout d abord préciser que le protocole portland n est valable qu avec un seul type d architecture à savoir l architecture Fat Tree. Il se base ainsi sur les caractéristiques de cette architecture pour effectuer les opérations de routage. En effet, ce protocole remplace les entêtes MAC par des entêtes (pseudo MAC) PMAC spécifiant la position des VMs. L adresse MAC étant codée sur 48 bits, Portland utilise ces bits pour convertir l adresse MAC destination en un codage spécifiant la position sous la forme : pod.position.port.vmid. Les 16 premiers bits servent à identifier le numéro de pod destination, les 8 bits suivants permettent de déterminer la position du switch local vers la destination, les 8 bits qui suivent servent à déterminer le numéro du port dans le switch menant vers la destination et enfin, les 16 derniers bits servent d identifiant de la VM destination. Ce type de procédé permet un adressage hiérarchique des VMs. Afin de garantir ce fonctionnement, les commutateurs de bordures effectuent le changement des PMAC vers les MAC et vis versa. Les positions des commutateurs peuvent, soit être définies manuellement, soit assignées automatiquement en recourant à un serveur LDP[44] (Location Discovery Protocole). Reste alors le problème des adresses en diffusion ARP(Address Resolution Protocol)[45]. Afin de résoudre correctement les paquets de protocole ARP, un contrôleur centralisé est rajouté à la topologie. Ce contrôleur centralisé appelé Fabric Manager. Les commutateurs de bordures transmettront toutes les requêtes ARP au Fabric Manager. Le Fabric Manager jouera le rôle d un proxy ARP en fournissant l adresse PMAC correspondante à une IP donnée. En cas de non présence de la correspondance au sein la table du Fabric Manager, la solution de repli est d inonder la requête ARP sur tous les commutateurs. Bien que le protocole Portland propose une méthode de routage L2 qui soit sans boucles, cette solution reste dépendante de la topologie. Elle n est applicable qu au sein de la topologie de type multi-rooted fat-tree et ne peut pas être adaptée à d autres types d architectures. De plus, le caractère centralisé de la résolution des ARP rend les datacenters utilisant Portland dépendants du Fabric Manager. Ceci, impose l accord d une attention particulière à cet élément du réseau. En effet, la défaillance ou bien une attaque malicieuse sur le Fabric Manager peut générer une interruption du réseau.

33 22 CHAPITRE 2. À la différence de Portland, le protocole SPB (shortest path bridging) ou 802.1aq [46] ne modifie pas les entêtes des adresses MAC déjà existants. Mais en revanche, il rajoute un nouvel entête avec des adresses MAC identifiant les nœuds physiques hébergeant les VMs ou des identifiants des VLAN. Le SPB requiert l utilisation d un plan de contrôle. Le plan de contrôle utilisé est un démon IS-IS [47]. Il existe deux variantes de ce protocole : le SPBV(Shortest Path Bridging-VID) et le SPBM (Shortest Path Bridging-MAC) aussi appelé SPBB. Le SPBV utilise les identifiants de VLAN pour construire plusieurs arbres de diffusion selon le commutateur source, limitant ainsi la propagation des paquets multicasts. Le SPBM utilise l encapsulation MAC-in-MAC afin de n exposer aux commutateurs intermédiaires que les adresses MAC des commutateurs de bordures éliminant ainsi l apprentissage des adresses MAC des VMs. L apprentissage des correspondances des adresses MAC internes et externes est géré par le plan de contrôle. Concernant les paquets multicasts, ces derniers seront envoyés suivant des arbres de multicast déjà calculés au niveau du plan de contrôle. Le protocole SPB semble être une bonne alternative pour palier à cette problématique de la couche L2 standard, sauf que pour la propagation des paquets multicasts, ce protocole se base sur les informations fournies par le plan de contrôle sans prévoir de mécanisme de replis pour éviter les boucles en cas de réception de données erronées. Les Protocoles SPB et Portland proposent la modification de la couche liaison afin de palier les problèmes de la couche L2 standard. Il existe également d autres protocoles tels que Seattle [48] ou équipements tel que EtherProxy [49] qui proposent également de palier ces problèmes mais sans modifier les paquets d origine. Tout d abord, le protocole Seattle prend en considération les protocoles DHCP [50] et ARP comme origine des problèmes de passage à l échelle de la couche L2 standard. Ce protocole considère qu en absence des paquets multicasts de ces deux protocoles, le réseau standard peut passer à l échelle. C est ainsi que le protocole Seattle se propose de convertir les ARP en messages unicasts en utilisant une table de hash distribuée (distributed hash table) DHT [51]. Concernant le protocole DHCP, quand le commutateur de bordure en reçoit un, il l envoie en unicast au serveur DHCP. Seattle implémente ceci en utilisant un standard déjà défini pour agent de relais DHCP [52]. Pour finir, EtherProxy n est pas un protocole à implémenter au niveau du réseau mais plutôt un nouvel équipement réseau qui fera littéralement office de Proxy pour les protocoles

34 CHAPITRE nécessitant des paquets en diffusion. En effet, cet équipement réseau est conçu suivant le principe que la plupart des messages multicasts ne nécessite pas forcement d arriver à la destination ciblée par ce message pour pouvoir recevoir une réponse cohérente. EtherProxy fonctionne en suivant ce principe. Il doit être placé au plus près des commutateurs de bordures. Idéalement, il devra être placé en tant que relais entre les nœuds physiques et les commutateurs de bordures. EtherProxy va ainsi mémoriser au sein de son cache l ensemble des réponses à des messages multicasts. Une fois qu il reçoit un message multicast dont il connaît la réponse, il va répondre à la source du message avec les informations qu il a préalablement enregistrées. Il va également supprimer la requête reçue avant qu elle n arrive au commutateur de bordure. Ainsi, il aura éliminé tout le trafic que la requête aurait dû générer. En absence de réponse dans le cache du EtherProxy, ce dernier va envoyer une demande à la place de la source d origine pour obtenir une réponse. Une fois la réponse obtenue, il la sauvegardera dans son cache et répondra à la source d origine avec un message unicast. Bien que Seattle et EtherProxy arrivent à limiter les problèmes de montée en charge de la couche L2 du réseau, ils restent tous les deux focalisés sur les paquets multicasts générés par le protocole ARP et DHCP. Ils nécessitent encore l implémentation de solutions pour le reste des trafics multicasts. Enfin, Seattle bien qu il réduise les trafics multicasts, augmente par la même occasion les trafics en unicast à travers la conversion d un seul paquet multicast en N paquets unicasts. P our compenser les problématiques de montée en charge, d autres protocoles et procédés ont été proposés. Nous avons essayé de présenter dans cette sous section la variété des méthodes proposées pour aborder ce problème : Les méthodes avec modifications des paquets originaux. Les méthodes sans modifications des paquets originaux. Une fois ces différentes méthodes présentées, nous allons nous focaliser sur les différents mécanismes disponibles afin de réaliser des réseaux privés. Il est important de signaler que les différents mécanismes permettant l établissement des réseaux privés, permettent également de répondre à la montée en charge nous avons évité d aborder ces mécanismes dans la partie passage à l échelle pour éviter les redondances Réseau Privé Comme nous l avons déjà précisé, le passage à l échelle est l un des principaux défis des réseaux des VDC. Le deuxième plus gros défi auxquels sont confrontés les réseaux des datacenters, c est la possibilité d offrir des réseaux privés entre les instances d un même client. Derrière cette exigence qui peut paraître assez simple, se cache un niveau de complexité

35 24 CHAPITRE 2. Figure 2.5 Entête VXLAN insoupçonné. En effet dans un contexte cloud, une complexité de sécurité relative à la nature même du Cloud se rajoute. Vu la nature dynamique et partagée des ressources et plus spécifiquement du réseau, il est délicat d établir des réseaux privés. Un ensemble de travaux de recherche s est focalisé sur la problématique des réseaux privés. Une première approche consiste à encapsuler les paquets dans des paquets UDP. VXLAN [53] [54] par exemple se base sur l encapsulation des paquets avec un entête UDP. Ce nouveau entête UDP contient un champ addition contenant l entête VXLAN. Cet entête VXLAN contient un champ sur 24 bits exprimant le tag VNI (Virtual Network Identifier) ou identifiant de réseau virtuel. Ce tag permet d identifier le réseau privé du client. C est ainsi qu à travers ce tag, ce protocole permet une séparation entre les différents flux des différents réseaux. Afin de pouvoir réaliser cette différenciation entre les flux, il faut au préalable effectuer une assignation des tags et des entêtes UDP aux paquets originaux. Il faut aussi enlever ces nouveaux entêtes avant que la destination ne puisse les traiter. Pour réaliser ces fonctionnalités d encapsulation et de décapsulation, un nouveau équipement est nécessaire. Ce nouvel équipement fera office de passerelle délimitant ainsi le tunnel VX- LAN du réseau couche L2 classique. Cet équipement est appelé VTEP (VXLAN Tunnel End Points) ou point délimitant le tunnel VXLAN. À l intérieur du tunnel VXLAN, le paquet sera routé de manière classique suivant les adresses IPs contenues dans son entête UDP. Concernant les paquets de destinations inconnues ou bien avec une destination multicast, ces derniers seront émis vers un groupe multicast. Ainsi pour chaque VNI, il faut établir un groupe multicast afin que les paquets appartenant à un VNI donné soient envoyés vers l adresse multicast de ce groupe. VXLAN permet donc la séparation des différents flux des différents réseaux à travers une encapsulation avec un nouvel entête UDP, mais ce protocole comprend quelques inconvénients. En effet, il nécessite une configuration des groupes multicasts correspondant à chaque VNI d une part; d autre part et comme présenté dans son RFC [53], l encapsulation de la couche L2 avec un entête de la couche L3 expose le réseau du datacenter à de nouvelles problématiques de sécurité. Effectivement, les attaques depuis l extérieur qui

36 CHAPITRE Figure 2.6 Entête DOVE étaient impossibles quand les communications entre les nœuds physiques s effectuaient au niveau L2 deviennent maintenant possibles quand les nœuds communiquent en couche L3. Il faut ainsi bien concevoir son datacenter pour éviter de recevoir des paquets de couche L3 de l extérieur qui encapsulent des paquets malicieux de niveau L2. DOVE[55] [56] (Distributed Overlay Virtual Ethernet) utilise les mêmes principes que VXLAN à deux différences prés. La première est que le commutateur DOVE ou point d entrée au réseau DOVE est forcement déployé au niveau des nœuds physiques contrairement au VXLAN qui n impose pas cette exigence. La deuxième différence se situe au niveau des entêtes utilisés. En effet bien que les deux soient encapsulés par un entête UDP standard, l entête DOVE est différent de l entête VXLAN comme le montre la figure 2.5 [53] et la figure 2.6. L entête DOVE spécifie en plus du réseau privé utilisé l identifiant de l instance. NVGRE (Network Virtualization using Generic Routing Encapsulation) [57] ou Virtualisation réseau en utilisant une encapsulation de routage générique. Le principe de ce protocole est d encapsuler les paquets des clients avec des entêtes IP auxquels se rajoute un entête GRE. L entête GRE est décrit par la figure 2.7 issue de [57]. Le réseau de chaque client est identifié par un identifiant sur 24 bits appelé TNI (Tenant Network Identifier). Tout comme le VXLAN, NVGRE associe à chaque identifiant du client une adresse IP multicast. Cette adresse sera utilisée lors de l encapsulation des paquets Multicasts ou en diffusion. Tout comme DOVE et VXLAN, NVGRE implique plus de prudence dans les régles de sécurité du datacenter vu que ce dernier importe les failles de sécurité de la couche L3 vers la couche L2. Netlord [58][43]est un autre protocole utilisant l encapsulation des paquets dans des

DIFF AVANCÉE. Samy. samy@via.ecp.fr

DIFF AVANCÉE. Samy. samy@via.ecp.fr DIFF AVANCÉE Samy samy@via.ecp.fr I. RETOUR SUR QUELQUES PROTOCOLES COUCHE FONCTIONS Protocoles 7 Application 6 Présentation 5 Session 4 Transport 3 Réseau 2 Liaison 1 Physique Interface entre l utilisateur

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Business & High Technology

Business & High Technology UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 09 : CC : Cloud Computing Sommaire Introduction... 2 Définition... 2 Les différentes

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Cours n 12. Technologies WAN 2nd partie

Cours n 12. Technologies WAN 2nd partie Cours n 12 Technologies WAN 2nd partie 1 Sommaire Aperçu des technologies WAN Technologies WAN Conception d un WAN 2 Lignes Louées Lorsque des connexions dédiées permanentes sont nécessaires, des lignes

Plus en détail

UFR de Mathématiques et Informatique Année 2009/2010. Réseaux Locaux TP 04 : ICMP, ARP, IP

UFR de Mathématiques et Informatique Année 2009/2010. Réseaux Locaux TP 04 : ICMP, ARP, IP Université de Strasbourg Licence Pro ARS UFR de Mathématiques et Informatique Année 2009/2010 1 Adressage IP 1.1 Limites du nombre d adresses IP 1.1.1 Adresses de réseaux valides Réseaux Locaux TP 04 :

Plus en détail

Les réseaux de campus. F. Nolot 2008 1

Les réseaux de campus. F. Nolot 2008 1 Les réseaux de campus F. Nolot 2008 1 Les réseaux de campus Les architectures F. Nolot 2008 2 Les types d'architectures L'architecture physique d'un réseau de campus doit maintenant répondre à certains

Plus en détail

Administration des ressources informatiques

Administration des ressources informatiques 1 2 La mise en réseau consiste à relier plusieurs ordinateurs en vue de partager des ressources logicielles, des ressources matérielles ou des données. Selon le nombre de systèmes interconnectés et les

Plus en détail

Les Virtual LAN. F. Nolot. Master 1 STIC-Informatique 1

Les Virtual LAN. F. Nolot. Master 1 STIC-Informatique 1 Les Virtual LAN Master 1 STIC-Informatique 1 Les Virtual LAN Introduction Master 1 STIC-Informatique 2 Les Réseaux Locaux Virtuels (VLAN) Avantages des LAN Communication rapide, broadcasts Problèmes des

Plus en détail

2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES. 2.2 Architecture fonctionnelle d un système communicant. http://robert.cireddu.free.

2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES. 2.2 Architecture fonctionnelle d un système communicant. http://robert.cireddu.free. 2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES 2.2 Architecture fonctionnelle d un système communicant Page:1/11 http://robert.cireddu.free.fr/sin LES DÉFENSES Objectifs du COURS : Ce cours traitera essentiellement

Plus en détail

Présentation et portée du cours : CCNA Exploration v4.0

Présentation et portée du cours : CCNA Exploration v4.0 Présentation et portée du cours : CCNA Exploration v4.0 Dernière mise à jour le 3 décembre 2007 Profil des participants Le cours CCNA Exploration s adresse aux participants du programme Cisco Networking

Plus en détail

Le Multicast. A Guyancourt le 16-08-2012

Le Multicast. A Guyancourt le 16-08-2012 Le Multicast A Guyancourt le 16-08-2012 Le MULTICAST Définition: On entend par Multicast le fait de communiquer simultanément avec un groupe d ordinateurs identifiés par une adresse spécifique (adresse

Plus en détail

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données La meilleure protection pour les données vitales de votre entreprise Autrefois, protéger ses données de manière optimale coûtait

Plus en détail

Cisco Certified Network Associate

Cisco Certified Network Associate Cisco Certified Network Associate Version 4 Notions de base sur les réseaux Chapitre 5 01 Dans un environnement IPv4, quelles informations un routeur utilise-t-il pour transmettre des paquets de données

Plus en détail

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Microsoft France Division DPE Table des matières Présentation... 2 Objectifs... 2 Pré requis... 2 Quelles sont les principales

Plus en détail

NOTIONS DE RESEAUX INFORMATIQUES

NOTIONS DE RESEAUX INFORMATIQUES NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

Internet - Outils. Nicolas Delestre. À partir des cours Outils réseaux de Paul Tavernier et Nicolas Prunier

Internet - Outils. Nicolas Delestre. À partir des cours Outils réseaux de Paul Tavernier et Nicolas Prunier Plan Internet - Outils Nicolas Delestre 1 DHCP 2 Firewall 3 Translation d adresse et de port 4 Les proxys 5 DMZ 6 VLAN À partir des cours Outils réseaux de Paul Tavernier et Nicolas Prunier 7 Wake On Line

Plus en détail

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de

Plus en détail

La Continuité d Activité

La Continuité d Activité La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique

Plus en détail

Allocation de l adressage IP à l aide du protocole DHCP.doc

Allocation de l adressage IP à l aide du protocole DHCP.doc Allocation de l adressage IP à l aide du protocole DHCP.doc Sommaire 1. Ajout et autorisation d un service Serveur DHCP...2 1.1. Comment le protocole DHCP alloue des adresses IP...2 1.2. Processus de

Plus en détail

Présentation et portée du cours : CCNA Exploration v4.0

Présentation et portée du cours : CCNA Exploration v4.0 Présentation et portée du cours : CCNA Exploration v4.0 Profil des participants Le cours CCNA Exploration s adresse aux participants du programme Cisco Networking Academy diplômés en ingénierie, mathématiques

Plus en détail

Virtual Data Center d Interoute. Prenez la main sur votre Cloud.

Virtual Data Center d Interoute. Prenez la main sur votre Cloud. Virtual Data Center d Interoute. Prenez la main sur votre Cloud. Faites évoluer vos ressources informatiques à la demande Choisissez la localisation d hébergement de vos données en Europe Le réseau européen

Plus en détail

CCNA Discovery Travailler dans une PME ou chez un fournisseur de services Internet

CCNA Discovery Travailler dans une PME ou chez un fournisseur de services Internet Curriculum Name Guide du participant CCENT 3 Section 9.3 Dépannage de l adressage IP de la couche 3 Cette section consacrée au dépannage vous permettra d étudier les conditions nécessaires à l obtention

Plus en détail

Module : Virtualisation à l aide du rôle Hyper-V

Module : Virtualisation à l aide du rôle Hyper-V Windows Server 2008 pour l'enseignement Module : Virtualisation à l aide du rôle Hyper-V Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines

Plus en détail

La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les infrastructures de Datacenters en Cloud Computing.

La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les infrastructures de Datacenters en Cloud Computing. vsphere 4 1. Présentation de vsphere 4 C est le nouveau nom de la plate forme de virtualisation de VMware. La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les

Plus en détail

La surveillance centralisée dans les systèmes distribués

La surveillance centralisée dans les systèmes distribués La surveillance centralisée dans les systèmes distribués Livre blanc Auteur : Daniel Zobel, du service Documentation et Support de Paessler AG Date de publication : août 2010 Dernière révision : janvier

Plus en détail

Hébergement MMI SEMESTRE 4

Hébergement MMI SEMESTRE 4 Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources

Plus en détail

Table des matières Nouveau Plan d adressage... 3

Table des matières Nouveau Plan d adressage... 3 Table des matières Nouveau Plan d adressage... 3 Phase 1 : CONFIGURATION DES MATERIELS ACTIFS D INTERCONNEXION... 5 ROUTAGE INTER-VLAN... 5 MISE EN PLACE DU VTP... 6 CONFIGURATION DES PROTOCOLES SSH/TELNET...

Plus en détail

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage La Virtualisation Windows chez CASINO Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage Sommaire Contexte Datacenters La virtualisation chez Casino Notre démarche Feuille de route Bilan

Plus en détail

DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX)

DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX) DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX) 1. DESCRIPTION DU CONCOURS 1.1. But de l épreuve La compétition permet aux étudiants 1 de mettre à l épreuve leurs connaissances

Plus en détail

Configuration automatique

Configuration automatique Configuration automatique (/home/terre/d01/adp/bcousin/polys/internet:gestion_reseau/6.dhcp.fm- 29 Septembre 1999 12:07) PLAN Introduction Les principes de DHCP Le protocole DHCP Conclusion Bibliographie

Plus en détail

La surveillance réseau des Clouds privés

La surveillance réseau des Clouds privés La surveillance réseau des Clouds privés Livre blanc Auteurs : Dirk Paessler, CEO de Paessler AG Gerald Schoch, Rédactrice technique de Paessler AG Publication : Mai 2011 Mise à jour : Février 2015 PAGE

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

Conception d une infrastructure «Cloud» pertinente

Conception d une infrastructure «Cloud» pertinente Conception d une infrastructure «Cloud» pertinente Livre blanc d ENTERPRISE MANAGEMENT ASSOCIATES (EMA ) préparé pour Avocent Juillet 2010 RECHERCHE EN GESTION INFORMATIQUE, Sommaire Résumé........................................................

Plus en détail

LES RESEAUX VIRTUELS VLAN

LES RESEAUX VIRTUELS VLAN LES RESEAUX VIRTUELS VLAN PLAN I. Introduction II. Les avantages d un VLAN III. Le partitionnement du réseau sans les VLAN IV. La technique des VLAN V. VLAN de niveau 1 VI. VLAN de niveau 2 VII. VLAN de

Plus en détail

TD 2 Chapitre 4 : Support des Services et Serveurs. Objectifs : Maîtriser l'exploitation des tables de routage dynamique.

TD 2 Chapitre 4 : Support des Services et Serveurs. Objectifs : Maîtriser l'exploitation des tables de routage dynamique. SI 5 BTS Services Informatiques aux Organisations 1 ère année TD 2 Chapitre 4 : Support des Services et Serveurs Le routage dynamique Objectifs : Maîtriser l'exploitation des tables de routage dynamique.

Plus en détail

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? DOSSIER SOLUTION Solution CA Virtual Placement and Balancing Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? agility made possible La solution automatisée

Plus en détail

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés Livre blanc La sécurité de nouvelle génération pour les datacenters virtualisés Introduction Ces dernières années, la virtualisation est devenue progressivement un élément stratégique clé pour le secteur

Plus en détail

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet

Plus en détail

L e r ôle de l optimi s a t i o n W A N v i r t u el le d a ns le

L e r ôle de l optimi s a t i o n W A N v i r t u el le d a ns le L I V R E B L A N C I D C L e r ôle de l optimi s a t i o n W A N v i r t u el le d a ns le d a t acenter de n o uvelle g é nératio n Décembre 2012 Adapté de «Worldwide WAN Application Delivery 2011 2016

Plus en détail

Citrix XenDesktop avec la technologie FlexCast. Citrix XenDesktop : la virtualisation des postes de travail pour tous. www.citrix.

Citrix XenDesktop avec la technologie FlexCast. Citrix XenDesktop : la virtualisation des postes de travail pour tous. www.citrix. Citrix XenDesktop : la virtualisation des postes de travail pour tous www.citrix.fr Les entreprises d aujourd hui doivent satisfaire de nombreux types d utilisateurs : des plus nomades qui utilisent des

Plus en détail

FAMILLE EMC RECOVERPOINT

FAMILLE EMC RECOVERPOINT FAMILLE EMC RECOVERPOINT Solution économique de protection des données et de reprise après sinistre en local et à distance Avantages clés Optimiser la protection des données et la reprise après sinistre

Plus en détail

Planifier la migration des applications d entreprise dans le nuage

Planifier la migration des applications d entreprise dans le nuage TM Planifier la migration des applications d entreprise dans le nuage Guide de vos options de migration : nuage privé et public, critères d évaluation des applications et meilleures pratiques de migration

Plus en détail

Garantir une meilleure prestation de services et une expérience utilisateur optimale

Garantir une meilleure prestation de services et une expérience utilisateur optimale LIVRE BLANC Garantir une meilleure prestation de services et une expérience utilisateur optimale Mai 2010 Garantir une meilleure prestation de services et une expérience utilisateur optimale CA Service

Plus en détail

QU EST CE QUE LE CLOUD COMPUTING?

QU EST CE QUE LE CLOUD COMPUTING? En France, on parle plus volontiers d «informatique en nuage» 1 pour décrire ce concept. Apparu au début des années 2000, le cloud computing constitue une évolution majeure de l informatique d entreprise,

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Présentation du modèle OSI(Open Systems Interconnection)

Présentation du modèle OSI(Open Systems Interconnection) Présentation du modèle OSI(Open Systems Interconnection) Les couches hautes: Responsables du traitement de l'information relative à la gestion des échanges entre systèmes informatiques. Couches basses:

Plus en détail

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. Slimane.bah@emi.ac.ma

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. Slimane.bah@emi.ac.ma Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24.2 1 Semestre 4 : Fev. 2015 Grid : exemple SETI@home 2 Semestre 4 : Fev. 2015 Grid : exemple SETI@home

Plus en détail

DHCP et NAT. Cyril Rabat cyril.rabat@univ-reims.fr. Master 2 ASR - Info09115 - Architecture des réseaux d entreprise 2012-2013

DHCP et NAT. Cyril Rabat cyril.rabat@univ-reims.fr. Master 2 ASR - Info09115 - Architecture des réseaux d entreprise 2012-2013 DHCP et NAT Cyril Rabat cyril.rabat@univ-reims.fr Master 2 ASR - Info09115 - Architecture des réseaux d entreprise 22-23 Cours n 9 Présentation des protocoles BOOTP et DHCP Présentation du NAT Version

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

TP Déploiement de réseaux IP sous Linux et MS Windows sur une infrastructure virtualisée

TP Déploiement de réseaux IP sous Linux et MS Windows sur une infrastructure virtualisée TP Déploiement de réseaux IP sous Linux et MS Windows sur une infrastructure virtualisée Objectifs : - Déploiement d une infrastructure virtuelle. - Configuration d adresses IP statiques. - Configuration

Plus en détail

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES Marie GALEZ, galez@cines.fr Le propos de cet article est de présenter les architectures NAS et SAN, qui offrent de nouvelles perspectives pour le partage

Plus en détail

Fonctions Réseau et Télécom. Haute Disponibilité

Fonctions Réseau et Télécom. Haute Disponibilité Appliance FAST360 Technical Overview Fonctions Réseau et Télécom Haute Disponibilité Copyright 2008 ARKOON Network Security 2/17 Sommaire I. Performance et disponibilité...3 1. Gestion de la bande passante

Plus en détail

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization)

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization) Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization) Préparé par : Zeus Kerravala Les cinq raisons majeures pour déployer SDN et NFV NetworkWorld,

Plus en détail

«Commande» se rapporte à un bon de commande ou à une commande créée sur un site Internet Interoute.

«Commande» se rapporte à un bon de commande ou à une commande créée sur un site Internet Interoute. 1 DESCRIPTION Le Centre de données virtuel d Interoute permet aux Clients de bénéficier d un ensemble flexible de ressources informatiques dans le «cloud», sans la complexité et les coûts associés à un

Plus en détail

LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010.

LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010. Guillaume ANSEL M2 ISIDIS 2009-2010 / ULCO Dossier d étude sur la virtualisation LA VIRTUALISATION 18/01/2010 Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques.

Plus en détail

Plan du Travail. 2014/2015 Cours TIC - 1ère année MI 30

Plan du Travail. 2014/2015 Cours TIC - 1ère année MI 30 Plan du Travail Chapitre 1: Internet et le Web : Définitions et historique Chapitre 2: Principes d Internet Chapitre 3 : Principaux services d Internet Chapitre 4 : Introduction au langage HTML 2014/2015

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

Pourquoi OneSolutions a choisi SyselCloud

Pourquoi OneSolutions a choisi SyselCloud Pourquoi OneSolutions a choisi SyselCloud Créée en 1995, Syselcom est une société suisse à capitaux suisses. Syselcom est spécialisée dans les domaines de la conception, l intégration, l exploitation et

Plus en détail

Rappel: Le routage dans Internet. Contraintes. Environnement et contraintes. La décision dans IP du routage: - Table de routage:

Rappel: Le routage dans Internet. Contraintes. Environnement et contraintes. La décision dans IP du routage: - Table de routage: Administration d un Intranet Rappel: Le routage dans Internet La décision dans IP du routage: - Table de routage: Adresse destination (partie réseau), netmask, adresse routeur voisin Déterminer un plan

Plus en détail

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510 Introduction A. Au sujet du livre 10 B. Au sujet de l'examen 10 Chapitre 1 Les nouveautés de vsphere A. Présentation 14 B. En quoi vsphere 5 diffère de vsphere 4? 14 1. Un Service Console abandonné 14

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

II/ Le modèle OSI II.1/ Présentation du modèle OSI(Open Systems Interconnection)

II/ Le modèle OSI II.1/ Présentation du modèle OSI(Open Systems Interconnection) II/ Le modèle OSI II.1/ Présentation du modèle OSI(Open Systems Interconnection) II.2/ Description des couches 1&2 La couche physique s'occupe de la transmission des bits de façon brute sur un canal de

Plus en détail

Réseau Global MIDI Note applicative

Réseau Global MIDI Note applicative Réseau Global MIDI Note applicative 1 But du manuel Le but de cette note applicative est de démystifié l utilisation du MIDI transporté dans un Réseau Global MIDI. Ce réseau virtuel offre sans aucune restriction,

Plus en détail

10 choses à savoir sur le 10 Gigabit Ethernet

10 choses à savoir sur le 10 Gigabit Ethernet Livre blanc 10 choses à savoir sur le 10 Gigabit Ethernet Sommaire Introduction... 3 Le 10 Gigabit Ethernet et Les serveurs : une meilleure efficacité... 3 SAN contre Fibre Channel : plus simple et plus

Plus en détail

Mise en place d un cluster NLB (v1.12)

Mise en place d un cluster NLB (v1.12) Mise en place d un cluster NLB (v1.12) Tutorial conçu et rédigé par Michel de CREVOISIER Avril 2013 SOURCES Présentation du NLB : http://technet.microsoft.com/en-us/library/bb742455.aspx Installation :

Plus en détail

VIRTUALISATION DES FONCTIONS RÉSEAU. Les cinq erreurs majeures de la virtualisation

VIRTUALISATION DES FONCTIONS RÉSEAU. Les cinq erreurs majeures de la virtualisation LIVRE BLANC www.brocade.com VIRTUALISATION DES FONCTIONS RÉSEAU Les cinq erreurs majeures de la virtualisation La virtualisation prend littéralement d assaut le monde de l informatique. Après des années

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS

Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS Sauvegarde collaborative entre pairs 1 Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS Sauvegarde collaborative entre pairs 2 Introduction Pourquoi pair à pair? Utilisation de ressources

Plus en détail

Technique et architecture de l offre Suite infrastructure cloud. SFR Business Team - Présentation

Technique et architecture de l offre Suite infrastructure cloud. SFR Business Team - Présentation Technique et architecture de l offre Suite infrastructure cloud Les partenaires de l offre Cloud Computing SFR Le focus HP Les principes de mise en œuvre réseau Les principes de fonctionnement de la solution

Plus en détail

Présentation d HyperV

Présentation d HyperV Virtualisation sous Windows 2008 Présentation d HyperV Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines virtuelles Offre de virtualisation

Plus en détail

Réseaux grande distance

Réseaux grande distance Chapitre 5 Réseaux grande distance 5.1 Définition Les réseaux à grande distance (WAN) reposent sur une infrastructure très étendue, nécessitant des investissements très lourds. Contrairement aux réseaux

Plus en détail

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES 1 DECOUVERTE DE LA VIRTUALISATION... 2 1.1 1.2 CONCEPTS, PRINCIPES...2 UTILISATION...2 1.2.1 Formation...2

Plus en détail

Chapitre 11 : Le Multicast sur IP

Chapitre 11 : Le Multicast sur IP 1 Chapitre 11 : Le Multicast sur IP 2 Le multicast, Pourquoi? Multicast vs Unicast 3 Réseau 1 Serveur vidéo Réseau 2 Multicast vs Broadcast 4 Réseau 1 Serveur vidéo Réseau 2 Multicast 5 Réseau 1 Serveur

Plus en détail

VLAN Virtual LAN. Introduction. II) Le VLAN. 2.1) Les VLAN de niveau 1 (Port-based VLAN)

VLAN Virtual LAN. Introduction. II) Le VLAN. 2.1) Les VLAN de niveau 1 (Port-based VLAN) VLAN Virtual LAN. I) Introduction. Ce document présente ce qu est un VLAN, les différents types de VLAN ainsi que les différentes utilisations possibles. II) Le VLAN. Un VLAN est un réseau logique et non

Plus en détail

La tête dans les nuages

La tête dans les nuages 19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions

Plus en détail

Virtualisation des Serveurs et du Poste de Travail

Virtualisation des Serveurs et du Poste de Travail Virtualisation des Serveurs et du Poste de Travail Les enjeux de la virtualisation Les acteurs du segment La virtualisation de serveurs Les concepts Les technologies d architectures L offre La virtualisation

Plus en détail

Consolidation de stockage

Consolidation de stockage (Information sur la technologie Sto-2003-2) Wolfgang K. Bauer Spécialiste stockage Centre de compétence transtec AG Waldhörnlestraße 18 D-72072 Tübingen Allemagne TABLE DES MATIÈRES 1 RÉSUMÉ...3 2 INTRODUCTION...4

Plus en détail

Anatomie d'un cloud IaaS Représentation simplifiée

Anatomie d'un cloud IaaS Représentation simplifiée Anatomie d'un cloud IaaS Représentation simplifiée Sous sa forme la plus simple un cloud IaaS combine un tissu de stockage (storage fabric) avec un tissu de calcul (compute fabric) Le tissu de stockage

Plus en détail

Livre blanc. Value VDI : les avantages de la virtualisation de bureau fondée sur la valeur

Livre blanc. Value VDI : les avantages de la virtualisation de bureau fondée sur la valeur Livre blanc Value VDI : les avantages de la virtualisation de bureau fondée sur la valeur Erik Willey 17.10.2014 RÉSUMÉ : Ce document examine les éléments de base de la VDI, de quelle manière les solutions

Plus en détail

Informatique en nuage Cloud Computing. G. Urvoy-Keller

Informatique en nuage Cloud Computing. G. Urvoy-Keller Informatique en nuage Cloud Computing G. Urvoy-Keller Sources de ce documents Next Stop, the cloud Objectifs de l'étude : Comprendre la popularité des déploiements de services basés sur des clouds Focus

Plus en détail

Documentation : Réseau

Documentation : Réseau 2015 Documentation : Réseau Enzo Rideau Swiss-Galaxy 24/03/2015 Table des matières Présentation du contexte... 2 Présentation du réseau... 2 Présentation du matériel... 4 Présentation de la configuration

Plus en détail

Flex Multipath Routing

Flex Multipath Routing Flex Multipath Routing Regroupement des liens privés et publics pour les réseaux étendus (WAN) d entreprise Flex Multipath Routing (FMR) Regroupement des liens privés et publics pour les réseaux étendus

Plus en détail

TP 2 Réseaux. Adresses IP, routage et sous-réseaux

TP 2 Réseaux. Adresses IP, routage et sous-réseaux TP 2 Réseaux Adresses IP, routage et sous-réseaux C. Pain-Barre INFO - IUT Aix-en-Provence version du 24/2/2 Adressage IP. Limites du nombre d adresses IP.. Adresses de réseaux valides Les adresses IP

Plus en détail

Hyper-V (version 3) et System Center Virtual Machine Manager Technologie de virtualisation sous Windows Server 2012 R2

Hyper-V (version 3) et System Center Virtual Machine Manager Technologie de virtualisation sous Windows Server 2012 R2 Avant-propos 1. À propos de Windows Server 2012 R2, d Hyper-V et de System Center Virtual Machine 2012 R2 15 2. Windows Server 2012 R2 : «The Cloud OS» 16 2.1 Le premier système d exploitation «prêt pour

Plus en détail

Entrez dans l ère du Numérique Très Haut Débit

Entrez dans l ère du Numérique Très Haut Débit MIPE Juin 2012 - Nantes http://www.network-th.fr - 0811 560 947 1. Le Très Haut Débit sur Fibre Optique au prix d une SDSL : Mythe ou Réalité? 2. Sauvegarder, Sécuriser, Protéger, Superviser : Délégueznous

Plus en détail

Spécialiste Systèmes et Réseaux

Spécialiste Systèmes et Réseaux page 1/5 Titre professionnel : «Technicien(ne) Supérieur(e) en Réseaux Informatiques et Télécommunications» inscrit au RNCP de niveau III (Bac + 2) (J.O. du 19/02/2013) 24 semaines + 8 semaines de stage

Plus en détail

Le Cloud Open-Mind! Emilien Macchi

Le Cloud Open-Mind! Emilien Macchi Le Cloud Open-Mind! 1 Sommaire Introduction Comprendre Swift Comprendre Glance Comprendre Nova Déploiement Divers 2 OpenStack Introduction 3 Qu est-ce-qu OpenStack? Projet OpenSource ambitieux Catégorie

Plus en détail

Introduction aux Technologies de l Internet

Introduction aux Technologies de l Internet Introduction aux Technologies de l Internet Antoine Vernois Université Blaise Pascal Cours 2006/2007 Introduction aux Technologies de l Internet 1 Au programme... Généralités & Histoire Derrière Internet

Plus en détail

VMware ESX/ESXi. 1. Les composants d ESX. VMware ESX4 est le cœur de l infrastructure vsphere 4.

VMware ESX/ESXi. 1. Les composants d ESX. VMware ESX4 est le cœur de l infrastructure vsphere 4. VMware ESX/ESXi 1. Les composants d ESX VMware ESX4 est le cœur de l infrastructure vsphere 4. C est un hyperviseur, c est à dire une couche de virtualisation qui permet de faire tourner plusieurs systèmes

Plus en détail

Les solutions centre de données virtuel et Infrastructure-service de Bell

Les solutions centre de données virtuel et Infrastructure-service de Bell Les solutions centre de données virtuel et Infrastructure-service de Bell Zied Hammami Directeur Principal- Spécialiste centre de données 14 novembre 2013 Ordre du jour Les centres de données de Bell Centre

Plus en détail

Technologie de déduplication de Barracuda Backup. Livre blanc

Technologie de déduplication de Barracuda Backup. Livre blanc Technologie de déduplication de Barracuda Backup Livre blanc Résumé Les technologies de protection des données jouent un rôle essentiel au sein des entreprises et ce, quelle que soit leur taille. Toutefois,

Plus en détail

Oléane VPN : Les nouvelles fonctions de gestion de réseaux. Orange Business Services

Oléane VPN : Les nouvelles fonctions de gestion de réseaux. Orange Business Services Oléane VPN : Les nouvelles fonctions de gestion de réseaux Orange Business Services sommaire 1. Qu'est-ce que la fonction serveur/relais DHCP? Comment cela fonctionne-t-il?...3 1.1. Serveur DHCP...3 1.2.

Plus en détail

1 LE L S S ERV R EURS Si 5

1 LE L S S ERV R EURS Si 5 1 LES SERVEURS Si 5 Introduction 2 Un serveur réseau est un ordinateur spécifique partageant ses ressources avec d'autres ordinateurs appelés clients. Il fournit un service en réponse à une demande d un

Plus en détail

Virtualisation réseau

Virtualisation réseau Virtualisation réseau Le nouvel impératif dans le centre de données de l entreprise Les actualités et ressources de confiance pour l infrastructure SDx, SDN, NFV, cloud et de virtualisation Considérations

Plus en détail

Qu est ce que le Cloud Computing?

Qu est ce que le Cloud Computing? Qu est ce que le Cloud Computing? Makhlouf Hadji Ingénieur de Recherche Qu est ce que le Cloud Computing? Agenda: Virtualisation des Ressources Introduction au Cloud Computing Caractéristiques du Cloud

Plus en détail

Chapitre VII : Principes des réseaux. Structure des réseaux Types de réseaux La communication Les protocoles de communication

Chapitre VII : Principes des réseaux. Structure des réseaux Types de réseaux La communication Les protocoles de communication Chapitre VII : Principes des réseaux Structure des réseaux Types de réseaux La communication Les protocoles de communication Introduction Un système réparti est une collection de processeurs (ou machines)

Plus en détail

Cloud Computing - L environnement concurrentiel. Points forts reformulés, issus d un récent article du Taneja Group, publié en septembre 2012.

Cloud Computing - L environnement concurrentiel. Points forts reformulés, issus d un récent article du Taneja Group, publié en septembre 2012. Cloud Computing - L environnement concurrentiel. Points forts reformulés, issus d un récent article du Taneja Group, publié en septembre 2012. 2 Aider des Gens Comme Vous à faire le pas vers une réelle

Plus en détail

Windows serveur 2008 installer hyperv

Windows serveur 2008 installer hyperv Windows serveur 2008 installer hyperv 1 Description Voici la description fournit par le site Microsoft. «Windows Server 2008 Hyper-V est le moteur de virtualisation (hyperviseur) fourni dans Windows Server

Plus en détail