Communications performantes par passage de message entre machines virtuelles sur architecture à mémoire partagée

Dimension: px
Commencer à balayer dès la page:

Download "Communications performantes par passage de message entre machines virtuelles sur architecture à mémoire partagée"

Transcription

1 RenPar 19 / SympA 13 / CFSE 7 Toulouse, France, du 9 au 11 septembre 2009 Communications performantes par passage de message entre machines virtuelles sur architecture à mémoire partagée François Diakhaté CEA / DAM Ile De France Bruyères-le-Châtel Arpajon Cedex diakhate@ocre.cea.fr Résumé Ces dernières années, la virtualisation du matériel a connu un important regain d intérêt et s est imposée comme une technologie majeure au sein des centres de traitement de données pour consolider des serveurs, améliorer leur sécurité ou leur tolérance aux pannes. En revanche, la flexibilité offerte par les machines virtuelles n a pas encore été mise à profit au sein des grappes destinées au calcul intensif, notamment car le surcoût d exécution induit était jusqu ici jugé prohibitif. Dans cet article, nous nous intéressons au problème de l efficacité des communications entre machines virtuelles co-hébergées qui est importante pour l exécution d application parallèles de type MPI sur une grappe de machines virtuelles. Nous introduisons un périphérique virtuel de communication entre machines virtuelles permettant de tirer pleinement parti des performances de l architecture multi-cœur à mémoire partagée de la machine physique hôte. Nous avons développé une implémentation de ce périphérique pour l hyperviseur KVM ainsi que le pilote correspondant pour Linux en tant que système d exploitation invité. Une bibliothèque MPI exploitant ce périphérique nous permet d en évaluer les performances qui sont proches des meilleures implémentations MPI natives. Mots-clés : Virtualisation, KVM, MPI, Communication, Passage de message, Multi-cœur, Mémoire partagée 1. Introduction Ces dernières années, les machines virtuelles ont été très abondamment déployées au sein des centres de traitements de données pour consolider les serveurs, faciliter leur gestion ou améliorer leur sécurité. Elles n ont en revanche pas encore été adoptées dans le contexte du calcul intensif, notamment à cause de la perte de performance qu elles induisent. Les avancées récentes dans le domaine de la virtualisation sur processeur généraliste ont cependant permis de grandement améliorer leur efficacité ce qui a conduit la communauté scientifique à étudier comment les grappes de calcul pourraient tirer profit des machines virtuelles [8]. Outre le gain de flexibilité apporté par la possibilité de migrer des machines virtuelles à chaud où de laisser aux utilisateurs un contrôle total sur leur environnement logiciel, des applications spécifiques au calcul intensif sont envisageables. Par exemple, l utilisation d un hyperviseur minimal et d un système d exploitation dédié pourrait permettre de diminuer les interférences liées au système d exploitation et de grandement améliorer les performances de certaines opérations de communication [5]. Quelle que soit l utilisation envisagée, la virtualisation ne doit pas avoir d impact négatif sur les performances de la grappe de calcul. MPI étant l interface de communication la plus répandue au sein des grappes, il est essentiel de concevoir des implémentations efficaces en contexte virtualisé. S il est possible de fournir un accès efficace à certaines cartes réseau haute performance depuis une machine virtuelle, il est aussi important que les communications entre machines virtuelles co-hébergées soient optimisées [3]. En effet pour exécuter des applications MPI, il est souhaitable d utiliser des machines virtuelles mono-processeur et une tâche MPI par machine virtuelle. Cela permet d une part d effectuer un équilibrage de charge à grain plus fin par migration de machines virtuelles et d autre part d éviter

2 Tampon d émission Tampon de réception Coeur 0 en lecture en écriture Coeur 1 (a) Caches partagés 0011 Tampon partagé 0011(Dans le cache partagé) 0011 Tampon d émission Tampon de réception Coeur 0 en lecture en écriture Coeur 1 (b) Caches séparés Tampon partagé 0011(Dans le cache du coeur 0) 0011 en lecture FIG. 1: Impact du partage de cache sur l efficacité de la copie intermédiaire les surcoûts liés aux interférences entre les ordonnanceurs de l hôte et de l invité [10, 11]. Sur les architectures multi-cœur actuelles et futures, il sera donc fréquent d héberger plusieurs machines virtuelles sur un nœud de calcul. Dans cet article, nous présentons un nouveau mécanisme pour échanger efficacement des messages entre processus exécutés dans des machines virtuelles distinctes, sur architecture à mémoire partagée. L idée principale est de fournir aux machines virtuelles un périphérique dédié aux communications par passage de messages qui propose une interface à la fois simple et performante pouvant être exploitée par une bibliothèque MPI pour machine virtuelle. Cette approche s intègre facilement aux systèmes d exploitation et hyperviseurs existants tout en permettant de tirer profit des pleines performances des architectures à mémoire partagée modernes. 2. Communication par passage de message en mémoire partagée Ces dernières années, les architectures à mémoire partagée se sont progressivement complexifiées tout en s imposant comme la technologie dominante au sein des grappes de calcul. En effet, l arrivée de puces multi-cœur a grandement augmenté le nombre d unités de calcul pouvant être embarquées sur une même carte mère. L annonce par Intel d un prototype de puce contenant 80 cœurs [6], suivie de l arrivée prochaine des puces Larrabee confirme que cette tendance va s intensifier dans les années à venir. En outre, l augmentation du nombre de processeurs par carte mère s est faite au prix de l introduction d effets NUMA qui doivent être pris en compte. De ce fait, la communauté scientifique s est beaucoup intéressée aux techniques permettant de transférer efficacement des données sur ces architectures nouvelles. Dans cette section, nous commençons par passer en revue les principales techniques permettant d échanger efficacement des messages entre processus exécutés au sein d un système d exploitation traditionnel, puis nous nous intéressons aux spécificités à prendre en compte pour les appliquer dans un environnement virtualisé, c est à dire entre processus exécutés dans des machines virtuelles distinctes hébergées sur un même hôte Passage de message en mémoire partagée sur architecture multi-cœur En fonction de la taille du message à échanger, un large éventail de techniques peuvent être mises en œuvre. Néanmoins, toutes ces solutions s appuient sur deux mécanismes de base : une copie en deux étapes en passant par un tampon de communication partagé pré-alloué, ou une copie directe en place de l émetteur au récepteur. Utilisation d un tampon de communication intermédiaire Bien que les processus soient exécutés dans des espaces d adressage distincts, les systèmes d exploitations offrent généralement différents mécanismes pour leur faire partager un segment de mémoire (par ex. mmap, ou les segments de mémoire partagés system V). De nombreuses implémentations MPI exploitent ces mécanismes pour créer des tampons de communication partagés. Les transferts de données entre processus se déroulent alors entièrement en espace utilisateur en écrivant et en lisant dans ces tampons de communication. Différents protocoles ont été proposés. Une possibilité est de doter chaque processus d un tampon de réception dédie à chaque autre processus [2]. Cela permet d éviter à deux processus envoyant simultanément un message au même destinataire de se synchroniser mais cela im- 2

3 plique un coût en mémoire quadratique par rapport au nombre de processus. Par ailleurs, le temps de scrutation pour l arrivée d un nouveau message augmente linéairement avec le nombre de processus. Afin de s affranchir de ces deux inconvénients, il est aussi possible de n allouer qu un seul tampon de réception par processus et de limiter ainsi la consommation de ressources lorsque le nombre de processus augmente. La synchronisation entre écrivains concurrents est par contre plus complexe mais peut être réalisée efficacement à l aide de files de messages sans verrous [1]. L utilisation d un tampon de communication intermédiaire est particulièrement adaptée aux architectures multi-cœur disposant de caches partagés, puisque si ce tampon est suffisamment petit pour tenir dans le cache, la copie intermédiaire s effectuera en cache et aura un coût négligeable par rapport au coût de lecture et d écriture respectivement dans la mémoire de l émetteur et du récepteur. En revanche lorsque les caches ne sont pas partagés, un fraction importante de la bande passante mémoire est gaspillée par cette copie (voir Fig. 1). Pour les petits messages cette technique reste néanmoins optimale car elle n impose pas de coût particulier de démarrage ce qui permet d atteindre de très faibles latences. Lorsque la taille des messages augmente, la copie intermédiaire devient par contre pénalisante si les cœurs ne partagent pas de cache. Copie directe Afin d éviter le surcoût induit par la copie intermédiaire, il est aussi possible de réaliser une copie directe de l émetteur au récepteur de manière à obtenir une bande passante maximale pour les gros messages. Cela demande que la copie soit effectuée dans un contexte mémoire où le tampon d émission et de réception sont tous deux accessibles. Pour cela, une première approche consiste à effectuer la copie au sein du noyau du système d exploitation [7]. Cette approche requiert un module noyau dédie ce qui la rend moins portable. De plus, chaque communication est sujette au coût d un appel système ainsi qu à celui du punaisage des pages mémoire (memory pinning) ce qui restreint cette technique aux messages suffisamment gros pour que le gain de bande passante la rende rentable. Pour contourner ce problème, certaines approches emploient des threads au lieu de processus pour exécuter les tâches MPI [9]. Cela permet de fournir une implémentation portable fonctionnant uniquement en espace utilisateur mais nécessite que le code de l application parallèle soit thread-safe. Les variables globales sont par exemple proscrites Défis à relever en contexte virtualisé Il est possible d établir une analogie entre la problématique du passage de message entre machines virtuelles sur architecture à mémoire partagée et celle du passage de message entre processus natifs, vue précédemment. En effet, tout comme les processus d un système d exploitation, les machines virtuelles sont exécutées dans des espaces d adressage distincts. De ce fait, pour permettre des communications efficaces entre machines virtuelles en mémoire partagée, deux possibilités s offrent à nous : Mettre en place un ensemble de pages physiques partagées par les machines virtuelles devant communiquer, de manière à ce qu elles puissent mettre en œuvre, sans coût additionnel, les techniques utilisant un tampon de communication intermédiaire vues précédemment. Cette approche a été étudiée sur l hyperviseur Xen en tirant partie de ses capacités de partage de pages pour mettre en œuvre des communications par socket [12] ou par MPI [3] efficaces. Effectuer les copies dans un espace d adressage où à la fois les tampons d émission et de réception sont accessibles. Deux techniques peuvent être mises en œuvre. On peut accorder à l une des deux machines virtuelles un droit de lecture ou d écriture sur les pages mémoires contenant le message [4] ou laisser effectuer l opération par l hyperviseur, de la même manière que cela est fait par le noyau dans le cas natif. Dans tous les cas, cela permet de n effectuer qu une seule copie et de profiter d une bande passante maximale, mais impose des coûts de démarrage de communication importants, soit parce qu il faut modifier une table des pages pour avoir accès aux tampons d émission et de réception dans le même espace d adressage, soit parcequ il faut effectuer un hypercall. Cette technique sera donc réservée aux gros messages. Nous sommes une fois de plus en présence d un compromis entre latence et bande passante. Pour obtenir des performances optimales, il nous faut choisir la méthode la plus appropriée dynamiquement en fonction de la taille du message à transmettre. En outre l isolation entre machines virtuelles doit être prise en considération. Une machine virtuelle ne doit pas pouvoir lire ou écrire dans la mémoire d une 3

4 Espace utilisateur invité b copie c copie Espace utilisateur invité Noyau invité a projection mémoire 2 demande d émission Périphérique virtuel de communication 3 copie directe a projection mémoire 1 demande de réception Noyau invité Machine virtuelle émettrice Machine virtuelle réceptrice FIG. 2: Périphérique virtuel de communication autre machine virtuelle sans que cela lui ait été autorisé. 3. Un périphérique virtuel de communication Afin que les systèmes d exploitation invités aient accès à un moyen de communication efficace en mémoire partagée, nous introduisons un périphérique virtuel de communication disposant d une interface bas niveau bien adaptée à la sémantique des communications MPI. Les systèmes d exploitation traditionnels étant prévus pour piloter des interfaces matérielles, ils fournissent des moyens adaptés pour les exploiter efficacement et les exporter aux applications en espace utilisateur. De ce fait, pour qu un système d exploitation puisse tirer parti d un nouveau périphérique, il suffit généralement d écrire un pilote sous forme d un module noyau. De plus la plupart des hyperviseurs émulent déjà un grand nombre de périphériques et il est en général assez simple d en ajouter un nouveau. Un périphérique virtuel est donc une manière simple et portable d introduire une interface entre un hyperviseur et des systèmes d exploitation invités. Ce périphérique virtuel propose deux canaux de communication afin de rendre efficace les échanges de type MPI entre machines virtuelles co-hébergées, conformément à ce qui a été vu précédemment : un canal à faible latence basé sur des tampons partagés accessibles directement depuis l espace utilisateur des machines virtuelles et un canal à bande passante élevée pour les gros messages basé sur une copie directe. La figure 2 résume le fonctionnement du périphérique virtuel dont nous décrivons les principales caractéristiques ci-dessous. Ports Toutes les extrémités de communication sur une machine physique sont identifiées de manière unique par un numéro de port. Cela permet à plusieurs canaux de communication indépendants d être ouverts sur chaque machine virtuelle pour convenir à tous les usages. Par exemple, plusieurs processus MPI sur une même machine virtuelle pourraient vouloir utiliser le périphérique pour communiquer avec des processus MPI exécutés dans d autres machines virtuelles. L utilisation de numéros de ports au lieu d identifiants de machines virtuelles permet de traiter ces cas uniformément. Lorsqu une machine virtuelle souhaite ouvrir une extrémité de communication, elle se voit attribuer un numéro de port correspondant. Ce numéro peut ensuite être utilisé par d autres utilisateurs du périphérique virtuel pour échanger des messages avec cette nouvelle extrémité de communication. Mémoire partagée Le périphérique virtuel possède de la mémoire embarquée correspondant à un tampon de communication partagé auquel l espace utilisateur invité peut accéder directement après avoir demandé au pilote de mettre en place les projections mémoire nécessaires. Ainsi, une fois cette étape d initialisation ef- 4

5 Espace utilisateur hôte Contexte invité Basculement en contexte invité Processus en esp. utilisateur émulateur de périphériques 1 Exécute la VM Émule une E/S 4 Interruption logicielle 3 Temps d exécution normalisé Noyau Linux hôte 0 cg.a.8 bt.a.4 sp.a.4 Module KVM ft.a.8 ep.a.8 is.a.8 lu.a.8 Benchmarks parallèles mg.a.8 FIG. 3: KVM FIG. 4: Benchmarks NAS fectuée, les communications peuvent avoir lieu entièrement en espace utilisateur sans aucun surcoût. Chaque port dispose d une file de réception sans verrou au fonctionnement similaire à [1] permettant de recevoir efficacement des messages de multiples émetteurs. Transferts DMA Le périphérique virtuel peut réaliser des copies directes similaires à un transfert DMA entre les mémoires des machines virtuelles qui l utilisent. Pour cela, les machines virtuelles transmettent des requêtes d envoi et de réception au périphérique virtuel. Celles-ci admettent un port d origine et un port cible et ainsi qu un ensemble de données pouvant être non-contigües en mémoire. La copie n est effectuée qu en cas de concordance entre une requête d émission et une requête de réception. Une fois une requête émise, sa complétion peut être détectée depuis l invité en scrutant une valeur en mémoire ce qui permet d éviter un maximum de changements de contexte. Cette interface est similaire à celle des cartes réseaux haute performance qui disposent généralement à la fois de canaux de communication par copie dans une mémoire tampon mais aussi de canaux de communication par transfert direct avec rendez-vous préalable. Cette similarité devrait simplifier le portage de bibliothèques MPI sur ce périphérique virtuel. Bien que notre solution requière plus de travail de portage qu une solution assurant, par exemple, la compatibilité binaire avec l interface socket [12], elle est aussi plus efficace car elle permet de mettre en œuvre les même techniques de communication qu en environnement non-virtualisé. 4. Implémentation Afin d évaluer ce périphérique virtuel, nous l avons implémenté au sein de l hyperviseur KVM, puis nous avons développé un pilote pour Linux en tant que système d exploitation invité ainsi qu une bibliothèque MPI réduite permettant d exécuter des benchmarks parallèles standards Emulation depuis l hôte KVM est un module noyau permettant à Linux de jouer le rôle d hyperviseur grâce au support matériel de la virtualisation disponible dans les processeurs récents. Avec KVM, les machines virtuelles sont des processus Linux standards et peuvent ainsi être administrées simplement. Outre ce module noyau, un composant en espace utilisateur est nécessaire pour effectuer différentes tâches d initialisation, comme l allocation de la mémoire des machines virtuelles à l aide des fonctions d allocation standard du système. Par la suite, il est chargé d émuler les périphériques virtuels : lorsque qu un système d exploitation invité tente d accéder à un périphérique virtuel, l instruction correspondante est interceptée par KVM qui la transmet au composant en espace utilisateur pour qu il émule le résultat attendu (voir Fig. 3). 5

6 Bande passante (MiB/s) Latence (us) Ki 512Ki 4Mi Taille du message (octets) Taille du message (octets) (a) Bande passante (b) Latence FIG. 5: Ping-pong : cœurs partageant un cache De ce fait, notre périphérique virtuel peut être émulé entièrement en espace utilisateur hôte. Afin qu un processus exécutant une machine virtuelle puisse accéder à la mémoire des autres machines virtuelles, nous effectuons l allocation de la mémoire des machines depuis une zone mémoire partagée entre les processus. Lorsque le système d exploitation invité émet une requête DMA sur le périphérique virtuel, une interruption logicielle est déclenchée ce qui permet au processus hôte de prendre en compte la requête en la plaçant dans une file. Cette file de requêtes est elle aussi située dans la zone mémoire partagée entre les processus éxécutant les machines virtuelles. Lorsqu une requête d émission concorde avec une requête de réception le processus ayant posté la deuxième requête effectue une copie directe entre les mémoires des machines virtuelles. L accès aux données d une autre machine virtuelle est ainsi entièrement effectué par le processus hôte qui peut vérifier la validité des requêtes émises Accès au périphérique virtuel depuis l invité Du côté de l invité, un pilote noyau est en charge d accéder au périphérique virtuel. L interface d accès au périphérique utilise l interface standard de virtualisation Virtio ce qui simplifie l écriture de pilotes pour différents systèmes d exploitation invités. Cette interface permet de transmettre à l hôte des couples pointeur/taille grâce à des files et est donc bien adaptée à l envoi de nos requêtes DMA. Le pilote relaie l interface du périphérique virtuel vers les applications en espace utilisateur à travers les interfaces standards du sytème d exploitation. L interface de notre pilote pour Linux requiert l utilisation de l appel système ioctl pour ouvrir ou fermer un port sur la carte ainsi que pour émettre des requêtes DMA. Les files de messages de la carte peuvent quant à elles être projetées en espace utilisateur à l aide de l appel système mmap. Une bibliothèque de test disposant des principales primitives de communication point-à-point (Send, Recv, Isend, Irecv, Wait,... ) et collectives (Reduce, Scatter, Gather, Bcast, Barrier,... ) de la norme MPI, baptisée VMPI, a été implémentée à partir de cette interface. Elle utilise les files de messages du périphérique pour les petits messages et des requêtes DMA précédées d un rendez-vous pour les messages de taille supérieure à 32KiB. 5. Résultats Dans cette section, nous évaluons les performances de notre solution en comparant, pour différents benchmarks MPI, les performances obtenues lorsque les tâches MPI sont exécutées dans des machines virtuelles séparées, en utilisant VMPI et notre périphérique virtuel pour communiquer, à celles obtenues lorsque les tâches MPI sont exécutées directement sur l hôte, en utilisant les implémentations MPI standard MPICH2 1.1 et Open MPI Nous mesurons tout d abord les performances brutes de latence et de bande passante à l aide du test ping-pong de la suite Intel MPI Benchmarks puis nous évaluons leur 6

7 Bande passante (MiB/s) Latence (us) Ki 512Ki 4Mi Taille du message (octets) Taille du message (octets) (a) Bande passante (b) Latence FIG. 6: Ping-pong : cœurs situés sur des puces séparées impact sur l efficacité d applications scientifiques parallèles grâce à la suite NAS Parallel Benchmarks. La machine utilisée pour ces tests contient deux processeurs Xeon quadri-cœurs E5345 (2.33Ghz) et 4GiB de mémoire vive. Ping-pong Pour ce test on distingue le cas où les 2 processus effectuant le ping-pong sont exécutés sur deux cœurs partageant un cache, et celui où les processus sont exécutés sur des puces différentes. Pour que ce test soit plus représentatif des conditions réelles de communication, le paramètre off_cache est utilisé afin de varier les données utilisées pour chaque passage de message. Dans le cas contraire, les données restent toujours dans les caches des processeurs puisqu elles ne sont jamais modifiées et les bandes passantes atteintes (jusqu à 6 GiB/s en cas de copie directe) ne sont pas représentatives des conditions normales d utilisation. Les résultats sont présentés sur les figures 5 et 6. En terme de latence, VMPI obtient des performances similaires aux meilleures implémentations natives, à l exception des très petit messages en cache partagé où le protocole Nemesis utilisé par MPICH2 obtient une latence inférieure d environ 200 ns. Cet écart de performance s explique probablement par le fait que Nemesis a été optimisé pour minimiser le nombre d instructions sur le chemin critique et utilise par ailleurs, en plus des files de messages, des boites de réception rapides qui sont allouées pour chaque paire de processus et qui permettent de recevoir très rapidement un unique message. En ce qui concerne le débit, notre périphérique virtuel offre un avantage à VMPI pour les gros messages, car il permet d effectuer des copies directes, ce que ne peuvent faire les bibliothèques MPI usuelles qui sont implémentées en espace utilisateur. Ainsi, en comparaison aux implémentations usuelles, la bande passante est presque doublée lorsque les processus sont exécutés sur des cœurs ne partageant pas de cache, conformément à ce qui a été vu dans la section 2. NAS Parallel Benchmarks La figure 4 montre les résultats obtenus pour la classe A des tests NAS exécutés sur les 8 cœurs de la machine de test, sauf BT et SP qui ne peuvent être exécutés que sur un nombre carré de cœurs. On constate que pour tous les tests mis à part IS, l écart de performance entre l exécution virtualisée, et l exécution native est inférieure à 10%. En revanche pour IS, la version virtualisée est environ 20% plus rapide. Ceci s explique par le fait que IS est le test utilisant la plus grosse proportion de gros messages que notre périphérique virtuel permet de transférer très efficacement. 6. Conclusion Dans cet article, nous avons présenté un périphérique virtuel permettant de communiquer efficacement par passage de messages entre machines virtuelles partageant le même hôte. Cette solution devrait être 7

8 portable sur la majorité des systèmes d exploitation et hyperviseurs et offre de bonnes performances comme le montre nos évaluations. Ce travail illustre en outre le potentiel de la virtualisation comme source de gains de performances. Celle-ci permet en effet d intégrer des optimisations dans le noyau du système d exploitation de l invité plutôt que dans celui de l hôte ce qui permet de s affranchir de certaines contraintes de sécurité et offre de manière générale plus de flexibilité. Nous en tirons parti ici pour effectuer des copies directes de type DMA entre émetteur et récepteur, ce qui nous permet dans certains cas de doubler la bande passante disponible par rapport à une implémentation MPI en espace utilisateur. Par la suite, nous comptons intégrer un support pour notre périphérique virtuel au sein d une bibliothèque MPI existante telle que MPICH2 ou Open MPI et supporter ainsi l interface MPI complète. Nous souhaitons en outre étendre l interface de notre périphérique afin de proposer notamment un support de la migration de machines virtuelles. Cela suppose d intégrer un mécanisme de rappels pour que les applications puissent suspendre et rétablir les communications lorsqu une machine virtuelle est migrée. Par ailleurs, nous pensons étudier des politiques spécialisées d ordonnancement dynamique de machines virtuelles tenant compte des communications, afin de rendre efficace l exécution d un nombre de machines virtuelles supérieur au nombre de cœurs disponibles. References [1] D. Buntinas, G. Mercier, and W. Gropp. Implementation and Shared-Memory Evaluation of MPICH2 over the Nemesis Communication Subsystem. In Proceedings of the 13th European PVM/MPI Users Group Meeting, [2] L. Chai, A. Hartono, and D. K. Panda. Designing high performance and scalable mpi intra-node communication support for clusters. In Proceedings of the 2006 IEEE International Conference on Cluster Computing, [3] W. Huang, M. Koop, Q. Gao, and D. K. Panda. Virtual Machine Aware Communication Libraries for High Performance Computing. In Proceedings of the 2007 ACM/IEEE conference on Supercomputing, [4] W. Huang, M. Koop, and D. Panda. Efficient one-copy mpi shared memory communication in virtual machines. In Proceedings of the 2008 IEEE International Conference on Cluster Computing, [5] T. Hudson and R. Brightwell. Network performance impact of a lightweight linux for cray xt3 compute nodes. In Proceedings of the 2006 ACM/IEEE conference on Supercomputing, [6] Intel. Intel research advances era of tera. Intel News Release: [7] H.-W. Jin and D. K. Panda. Limic: Support for high-performance mpi intra-node communication on linux cluster. In Proceedings of the 2005 International Conference on Parallel Processing, [8] M. F. Mergen, V. Uhlig, O. Krieger, and J. Xenidis. Virtualization for high-performance computing. SIGOPS Operating Systems Review, 40(2), [9] M. Pérache, H. Jourdren, and R. Namyst. MPC: A Unified Parallel Runtime for Clusters of NUMA Machines. In Proceedings of the 14th International Euro-Par Conference, [10] A. Ranadive, M. Kesavan, A. Gavrilovska, and K. Schwan. Performance implications of virtualizing multicore cluster machines. In 2nd Workshop on System-level Virtualization for High Performance Computing, [11] V. Uhlig, J. LeVasseur, E. Skoglund, and U. Dannowski. Towards scalable multiprocessor virtual machines. In Proceedings of the 3rd Virtual Machine Research and Technology Symposium, [12] X. Zhang, S. McIntosh, P. Rohatgi, and J. L. Griffin. Xensocket: A high-throughput interdomain transport for virtual machines. In Proceedings of the 8th ACM/IFIP/USENIX International Middleware Conference,

Communications performantes par passage de message entre machines virtuelles co-hébergées

Communications performantes par passage de message entre machines virtuelles co-hébergées Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction

Plus en détail

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I Runtime Gestion de la réactivité des communications réseau François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I 1 Le calcul hautes performances La tendance actuelle

Plus en détail

LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010.

LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010. Guillaume ANSEL M2 ISIDIS 2009-2010 / ULCO Dossier d étude sur la virtualisation LA VIRTUALISATION 18/01/2010 Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques.

Plus en détail

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Microsoft France Division DPE Table des matières Présentation... 2 Objectifs... 2 Pré requis... 2 Quelles sont les principales

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. 2013 Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. Table des matières 1 Introduction (Historique / définition)... 3 2 But de la virtualisation... 4 3 Théorie : bases et typologie des solutions techniques...

Plus en détail

Concours interne d ingénieur des systèmes d information et de communication. «Session 2010» Meilleure copie "étude de cas architecture et systèmes"

Concours interne d ingénieur des systèmes d information et de communication. «Session 2010» Meilleure copie étude de cas architecture et systèmes Concours interne d ingénieur des systèmes d information et de communication «Session 2010» Meilleure copie "étude de cas architecture et systèmes" Note obtenue : 14,75/20 HEBERGE-TOUT Le 25 mars 2010 A

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences

Plus en détail

Cours n 12. Technologies WAN 2nd partie

Cours n 12. Technologies WAN 2nd partie Cours n 12 Technologies WAN 2nd partie 1 Sommaire Aperçu des technologies WAN Technologies WAN Conception d un WAN 2 Lignes Louées Lorsque des connexions dédiées permanentes sont nécessaires, des lignes

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

Virtualisation des Serveurs et du Poste de Travail

Virtualisation des Serveurs et du Poste de Travail Virtualisation des Serveurs et du Poste de Travail Les enjeux de la virtualisation Les acteurs du segment La virtualisation de serveurs Les concepts Les technologies d architectures L offre La virtualisation

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe

Plus en détail

Présentation d HyperV

Présentation d HyperV Virtualisation sous Windows 2008 Présentation d HyperV Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines virtuelles Offre de virtualisation

Plus en détail

Module : Virtualisation à l aide du rôle Hyper-V

Module : Virtualisation à l aide du rôle Hyper-V Windows Server 2008 pour l'enseignement Module : Virtualisation à l aide du rôle Hyper-V Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines

Plus en détail

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de

Plus en détail

Plate-forme Cloud CA AppLogic pour les applications d entreprise

Plate-forme Cloud CA AppLogic pour les applications d entreprise FICHE PRODUIT : CA AppLogic Plate-forme Cloud CA AppLogic pour les applications d entreprise agility made possible CA AppLogic est une plate-forme Cloud Computing clés en main permettant aux clients de

Plus en détail

Point sur la virtualisation

Point sur la virtualisation Le 04/03/2013 OBJECTIF VIRTUALISATION mathieuc@exakis.com EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Point sur la Objectif 04/03/2013 26/03/2013 virtualisation

Plus en détail

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? DOSSIER SOLUTION Solution CA Virtual Placement and Balancing Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? agility made possible La solution automatisée

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES 1 DECOUVERTE DE LA VIRTUALISATION... 2 1.1 1.2 CONCEPTS, PRINCIPES...2 UTILISATION...2 1.2.1 Formation...2

Plus en détail

Introduction à la Programmation Parallèle: MPI

Introduction à la Programmation Parallèle: MPI Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4

Plus en détail

Atelier : Virtualisation avec Xen

Atelier : Virtualisation avec Xen Virtualisation et Cloud Computing Atelier : Virtualisation avec Xen Plan Présentation de Xen Architecture de Xen Le réseau Gestion des domaines DomU dans Xen Installation de Xen Virt. & Cloud 12/13 2 Xen

Plus en détail

Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds

Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds Mardi Laurent Lefèvre LIP Inria/ENS Lyon Jean-Marc Pierson, Georges Da Costa, Patricia Stolf IRIT Toulouse Hétérogénéité

Plus en détail

Virtualisation sous Linux L'age de raison. Daniel Veillard veillard@redhat.com

Virtualisation sous Linux L'age de raison. Daniel Veillard veillard@redhat.com Virtualisation sous Linux L'age de raison Daniel Veillard veillard@redhat.com Solution Linux 2009 Une jungle d'acronymes Xen UML VServer VMWare VirtualBox lguest QEmu KVM VirtualIron OpenVZ LXC Définition

Plus en détail

Sébastien Geiger IPHC Strasbourg

Sébastien Geiger IPHC Strasbourg Sébastien Geiger IPHC Strasbourg Retour d expérience sur la virtualisation de serveurs à l IPHC 9eme Journées Info de l IN2P3-IRFU 13-16 octobre 2014 Résidence de Camargue Sommaire Comment déterminer les

Plus en détail

Système d administration autonome adaptable: application au Cloud

Système d administration autonome adaptable: application au Cloud Système d administration autonome adaptable: application au Cloud Alain TCHANA - atchana@enseeiht.fr IRIT/ENSEEIHT, Equipe SEPIA Directeur de thèse : Daniel HAGIMONT et Laurent BROTO Rapporteurs : Jean-Marc

Plus en détail

D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale

D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale VERSION 1.0 DATE 2010 EDITORIAL MANAGER Sylvain Peyronnet AUTHORS STAFF Ala Rezmerita, Camille

Plus en détail

Juillet 2012. Fax sur IP & Virtualisation

Juillet 2012. Fax sur IP & Virtualisation Juillet 2012 Fax sur IP & Virtualisation Sommaire Points sur le Fax Pourquoi le fax sur IP? Conduite de projet Les avantages du fax sur IP La mise en place du fax sur IP Architecture et exemple Les solutions

Plus en détail

Planifier la migration des applications d entreprise dans le nuage

Planifier la migration des applications d entreprise dans le nuage TM Planifier la migration des applications d entreprise dans le nuage Guide de vos options de migration : nuage privé et public, critères d évaluation des applications et meilleures pratiques de migration

Plus en détail

Virtualiser ou ne pas virtualiser?

Virtualiser ou ne pas virtualiser? 1 Virtualiser ou ne pas virtualiser? C est la première question à laquelle vous devrez répondre par vous-même avant d investir une quantité significative de temps ou d argent dans un projet de virtualisation.

Plus en détail

PPE 1 PRISE EN MAIN DE VMWARE VSPHERE 5.5 & CONFIGURATION D UNE MACHINE VIRTUELLE

PPE 1 PRISE EN MAIN DE VMWARE VSPHERE 5.5 & CONFIGURATION D UNE MACHINE VIRTUELLE PPE 1 PRISE EN MAIN DE VMWARE VSPHERE 5.5 & CONFIGURATION D UNE MACHINE VIRTUELLE Antoine CAMBIEN BTS SIO Option SISR Session 2015 BTS SIO Services Informatiques aux Organisations Session 2014 2015 Nom

Plus en détail

Les avantages de la virtualisation sont multiples. On peut citer:

Les avantages de la virtualisation sont multiples. On peut citer: 1 Les mécanismes de virtualisation ont été introduits il y a fort longtemps dans les années 60 par IBM avec leur système CP/CMS. La motivation première de la virtualisation est la possibilité d'isoler

Plus en détail

Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace

Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace 1 Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace Réseau longue distance et application distribuée dans les grilles de

Plus en détail

CORBA haute performance

CORBA haute performance CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes Alexandre.Denis@irisa.fr Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance

Plus en détail

agility made possible

agility made possible DOSSIER SOLUTION CA VM:Manager Suite for Linux on System Z Comment réduire le coût et la complexité de la gestion et de la sécurisation des environnements z/vm et Linux on System z? agility made possible

Plus en détail

Systèmes d exploitation

Systèmes d exploitation Systèmes d exploitation Virtualisation, Sécurité et Gestion des périphériques Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Novembre 2009 Gérard Padiou Systèmes d exploitation

Plus en détail

Thèse CIFRE. Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS

Thèse CIFRE. Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS Thèse CIFRE Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS Yacine HEBBAL Sylvie LANIEPCE Jean-Marc MENAUD Début de thèse : octobre 2014 (1 ière année) SEC2 : 30

Plus en détail

<Insert Picture Here> Solaris pour la base de donnés Oracle

<Insert Picture Here> Solaris pour la base de donnés Oracle Solaris pour la base de donnés Oracle Alain Chéreau Oracle Solution Center Agenda Compilateurs Mémoire pour la SGA Parallélisme RAC Flash Cache Compilateurs

Plus en détail

Chapitre 2 : Abstraction et Virtualisation

Chapitre 2 : Abstraction et Virtualisation Virtualisation et Cloud Computing Chapitre 2 : Abstraction et Virtualisation Objectifs Présenter la notion de niveaux d abstraction séparés par des interfaces bien définies Description des avantages et

Plus en détail

La continuité de service

La continuité de service La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici

Plus en détail

LXC : Une technologie de contextualisation ultra light intégrée au kernel Linux

LXC : Une technologie de contextualisation ultra light intégrée au kernel Linux Benoît des Ligneris, Ph.D. P.D.G., bdl@rlnx.com Solutions Linux Open Source, 18 mars 2010 LXC : Une technologie de contextualisation ultra light intégrée au kernel Linux Révolution Linux 2010 Au menu Révolution

Plus en détail

Virtualisation open source État de l'art

Virtualisation open source État de l'art Virtualisation open source État de l'art Jean Charles Delépine Université de Picardie Direction des Infrastructures et des systèmes d'information Une jungle d'acronymes Xen QEMU

Plus en détail

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008 Windows Server 2008 Chapitre 1: Découvrir Windows Server 2008 Objectives Identifier les caractéristiques de chaque édition de Windows Server 2008 Identifier les caractéristiques généraux de Windows Server

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Version de novembre 2012, valable jusqu en avril 2013

Version de novembre 2012, valable jusqu en avril 2013 Pré requis techniques pour l installation du logiciel complet de gestion commerciale WIN GSM en version hyper File en configuration Windows Terminal Serveur Version de novembre 2012, valable jusqu en avril

Plus en détail

Sans trop entrer dans les détails, la démarche IO Model consiste à : Pour cela, Microsoft découpe la maîtrise de l infrastructure en quatre niveaux :

Sans trop entrer dans les détails, la démarche IO Model consiste à : Pour cela, Microsoft découpe la maîtrise de l infrastructure en quatre niveaux : Windows Server 2008 Les fondations du système... 15 La virtualisation... 16 La sécurité... 18 Le Web... 20 Fonctionnalité disponible dans... 21 Installation et configuration... 22 Installer... 23 Les services

Plus en détail

Concept de machine virtuelle

Concept de machine virtuelle Concept de machine virtuelle Chap. 5: Machine virtuelle Alain Sandoz Semestre été 2007 1 Introduction: Java Virtual Machine Machine Virtuelle Java: qu est-ce que c est? c est la spécification d une machine

Plus en détail

Virtualisation de serveurs Solutions Open Source

Virtualisation de serveurs Solutions Open Source Virtualisation de serveurs Solutions Open Source Alain Devarieux TSRITE2009 FOAD 1 / 19 Table des matières 1.Les principes de la virtualisation...3 1.1.Partage d'un serveur...3 1.2.Objectif de la virtualisation...4

Plus en détail

Virtualisation & Sécurité

Virtualisation & Sécurité Virtualisation & Sécurité Comment aborder la sécurité d une architecture virtualisée? Quels sont les principaux risques liés à la virtualisation? Peut-on réutiliser l expérience du monde physique? Quelles

Plus en détail

La surveillance centralisée dans les systèmes distribués

La surveillance centralisée dans les systèmes distribués La surveillance centralisée dans les systèmes distribués Livre blanc Auteur : Daniel Zobel, du service Documentation et Support de Paessler AG Date de publication : août 2010 Dernière révision : janvier

Plus en détail

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage La Virtualisation Windows chez CASINO Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage Sommaire Contexte Datacenters La virtualisation chez Casino Notre démarche Feuille de route Bilan

Plus en détail

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1

Plus en détail

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet

Plus en détail

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510 Introduction A. Au sujet du livre 10 B. Au sujet de l'examen 10 Chapitre 1 Les nouveautés de vsphere A. Présentation 14 B. En quoi vsphere 5 diffère de vsphere 4? 14 1. Un Service Console abandonné 14

Plus en détail

7 avantages à la virtualisation des applications stratégiques de votre entreprise

7 avantages à la virtualisation des applications stratégiques de votre entreprise 7 avantages à la virtualisation des applications stratégiques de votre entreprise Contenu de cet ebook Mise en contexte Avantage 1 : Accélération des mises à niveau grâce au clonage Avantage 2 : Réservation

Plus en détail

SRS DAY: Problématique liée à la virtualisation

SRS DAY: Problématique liée à la virtualisation SRS DAY: Problématique liée à la virtualisation Anthony GUDUSZEIT Franck CURO gudusz_a curo_f Introduction Sommaire Définition Contexte Avantages / inconvénients Fonctionnement et problématique Techniques

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

Système de stockage IBM XIV Storage System Description technique

Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de

Plus en détail

Entrez dans l ère du Numérique Très Haut Débit

Entrez dans l ère du Numérique Très Haut Débit MIPE Juin 2012 - Nantes http://www.network-th.fr - 0811 560 947 1. Le Très Haut Débit sur Fibre Optique au prix d une SDSL : Mythe ou Réalité? 2. Sauvegarder, Sécuriser, Protéger, Superviser : Délégueznous

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

Anatomie d'un cloud IaaS Représentation simplifiée

Anatomie d'un cloud IaaS Représentation simplifiée Anatomie d'un cloud IaaS Représentation simplifiée Sous sa forme la plus simple un cloud IaaS combine un tissu de stockage (storage fabric) avec un tissu de calcul (compute fabric) Le tissu de stockage

Plus en détail

Une solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs

Une solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs Une solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs La structure d un FlexPod Cisco UnifiedComputing& NetAppUnifiedArchitecture Cisco Unified Computing System Architecture

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Technologie de déduplication de Barracuda Backup. Livre blanc

Technologie de déduplication de Barracuda Backup. Livre blanc Technologie de déduplication de Barracuda Backup Livre blanc Résumé Les technologies de protection des données jouent un rôle essentiel au sein des entreprises et ce, quelle que soit leur taille. Toutefois,

Plus en détail

A propos de la sécurité des environnements virtuels

A propos de la sécurité des environnements virtuels A propos de la sécurité des environnements virtuels Serge RICHARD - CISSP (IBM Security Systems) serge.richard@fr.ibm.com La virtualisation, de quoi parlons nous «Virtualiser» un objet informatique, ou

Plus en détail

LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE

LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE Sylvain SIOU VMware Laurent DELAISSE Hitachi Data Systems 1 Hitachi Data Systems Corporation 2012. All Rights Reserved

Plus en détail

VMware ESX/ESXi. 1. Les composants d ESX. VMware ESX4 est le cœur de l infrastructure vsphere 4.

VMware ESX/ESXi. 1. Les composants d ESX. VMware ESX4 est le cœur de l infrastructure vsphere 4. VMware ESX/ESXi 1. Les composants d ESX VMware ESX4 est le cœur de l infrastructure vsphere 4. C est un hyperviseur, c est à dire une couche de virtualisation qui permet de faire tourner plusieurs systèmes

Plus en détail

La Continuité d Activité

La Continuité d Activité La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique

Plus en détail

Plan de cet après-midi

Plan de cet après-midi Plan de cet après-midi Hyper-V Hyper-V V2 TSE Remote Desktop Server Virtualisation Ensemble de techniques matérielles et/ou logicielles permettant de faire fonctionner sur une seule machine plusieurs systèmes

Plus en détail

Serveurs et solutions PowerEdge pour les applications métiers

Serveurs et solutions PowerEdge pour les applications métiers s et solutions PowerEdge pour les applications métiers s et solutions PowerEdge pour les applications métiers Chez Dell, nous sommes tous les jours à votre écoute. Vous nous avez dit que vos infrastructures

Plus en détail

Red Hat Enterprise Virtualization 3.0 Instructions d'installation et informations importantes

Red Hat Enterprise Virtualization 3.0 Instructions d'installation et informations importantes Red Hat Enterprise Virtualization 3.0 Instructions d'installation et informations importantes Remarques, précautions et avertissements REMARQUE: Une REMARQUE indique des informations importantes qui peuvent

Plus en détail

Présentation OpenVZ. Marc SCHAEFER. 9 janvier 2009

Présentation OpenVZ. Marc SCHAEFER. 9 janvier 2009 Présentation OpenVZ Marc SCHAEFER 9 janvier 2009 Résumé Le but de cette présentation est de montrer ce qu est la virtualisation et ce que peut apporter OpenVZ dans le contexte usuel de virtualisation de

Plus en détail

Conception des systèmes répartis

Conception des systèmes répartis Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan

Plus en détail

La technologie Java Card TM

La technologie Java Card TM Présentation interne au CESTI La technologie Java Card TM sauveron@labri.u-bordeaux.fr http://dept-info.labri.u-bordeaux.fr/~sauveron 8 novembre 2002 Plan Qu est ce que Java Card? Historique Les avantages

Plus en détail

Perspectives pour l entreprise. Desktop Cloud. JC Devos IBM IT Architect jdevos@fr.ibm.com. 2010 IBM Corporation

Perspectives pour l entreprise. Desktop Cloud. JC Devos IBM IT Architect jdevos@fr.ibm.com. 2010 IBM Corporation Perspectives pour l entreprise Desktop Cloud JC Devos IBM IT Architect jdevos@fr.ibm.com Principe technique Disposer d un poste de travail virtuel accessible par la plupart des terminaux disponibles Ce

Plus en détail

Virtualisation Vserver et OpenVz en entreprise

Virtualisation Vserver et OpenVz en entreprise Virtualisation Vserver et OpenVz en entreprise Présentation L'environnement Pourquoi virtualiser Les différents types de virtualisation L'isolation de processus Vserver OpenVz Retour d'expérience Conclusion

Plus en détail

FAMILLE EMC RECOVERPOINT

FAMILLE EMC RECOVERPOINT FAMILLE EMC RECOVERPOINT Solution économique de protection des données et de reprise après sinistre en local et à distance Avantages clés Optimiser la protection des données et la reprise après sinistre

Plus en détail

Exécutif temps réel Pierre-Yves Duval (cppm)

Exécutif temps réel Pierre-Yves Duval (cppm) Exécutif temps réel Pierre-Yves Duval (cppm) Ecole d informatique temps réel - La Londes les Maures 7-11 Octobre 2002 Plan Exécutif Tâches Evénements et synchronisation Partage de ressources Communications

Plus en détail

Métriques de performance pour les algorithmes et programmes parallèles

Métriques de performance pour les algorithmes et programmes parallèles Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and

Plus en détail

TBR. Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013

TBR. Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013 Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013 TBR T E C H N O L O G Y B U S I N E S S R E S E AR C H, I N C. 1 TBR IBM Nurture Stream

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES Marie GALEZ, galez@cines.fr Le propos de cet article est de présenter les architectures NAS et SAN, qui offrent de nouvelles perspectives pour le partage

Plus en détail

Hyper-V R2 (Module 1) : Introduction

Hyper-V R2 (Module 1) : Introduction Hyper-V R2 (Module 1) : Introduction Hamid HARABAZAN Formateur et Consultant indépendant en Systèmes et Virtualisation Certifications : MCT, MCITP, A+, Server+, Linux+, LPIC-1, CCENT/CCNA,VSP, Contact

Plus en détail

NOTIONS DE RESEAUX INFORMATIQUES

NOTIONS DE RESEAUX INFORMATIQUES NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des

Plus en détail

Dossier Solution - Virtualisation CA arcserve Unified Data Protection

Dossier Solution - Virtualisation CA arcserve Unified Data Protection Dossier Solution - Virtualisation CA arcserve Unified Data Protection La virtualisation des serveurs et des postes de travail est devenue omniprésente dans la plupart des organisations, et pas seulement

Plus en détail

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran)  Processus = suite d'actions = suite d'états obtenus = trace Processus 1) Contexte 2) Modèles de Notion de Points de vue Modèle fourni par le SX Opérations sur les 3) Gestion des Représentation des Opérations 4) Ordonnancement des Niveaux d ordonnancement Ordonnancement

Plus en détail

Utilisation de matériels industriels avec des outils de virtualisation open source. Open Source dans le monde industriel

Utilisation de matériels industriels avec des outils de virtualisation open source. Open Source dans le monde industriel Utilisation de matériels industriels avec des outils de virtualisation open source Open Source dans le monde industriel Christophe Sauthier Ancien Président de Ubuntu fr Développeur Ubuntu Officiel Développeur

Plus en détail

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service 10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore

Plus en détail

Livre blanc Haute disponibilité sous Linux

Livre blanc Haute disponibilité sous Linux Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises

Plus en détail

La gestion du poste de travail en 2011 : Panorama des technologies

La gestion du poste de travail en 2011 : Panorama des technologies La gestion du poste de travail en 2011 : Panorama des technologies François Clémence C.R.I Université Paul Verlaine Metz UFR Sciences Humaines et Arts clemence@univ-metz.fr Olivier Mathieu C.R.I Université

Plus en détail

Plan de secours informatique à chaud, virtualisation, et autres recettes...

Plan de secours informatique à chaud, virtualisation, et autres recettes... Plan de secours informatique à chaud, virtualisation, et autres recettes... Groupe de travail OSSIR 12 mars 2007 http://bruno.kerouanton.net Contexte Vis-à-vis de l'activité de l'entreprise : Un plan de

Plus en détail

Présentation Windows 7 &

Présentation Windows 7 & Présentation Windows 7 & Windows 2008 R2 1 2 Windows 7 Sortie le 22 Octobre 2009 Comme Windows 2008 R2 Un accueil plus que favorable de la Presse informatique ainsi que des professionnel de l informatique.

Plus en détail

18 TCP Les protocoles de domaines d applications

18 TCP Les protocoles de domaines d applications 18 TCP Les protocoles de domaines d applications Objectifs 18.1 Introduction Connaître les différentes catégories d applications et de protocoles de domaines d applications. Connaître les principaux protocoles

Plus en détail

TRANSFORM IT + BUSINESS + YOURSELF

TRANSFORM IT + BUSINESS + YOURSELF TRANSFORM IT + BUSINESS + YOURSELF Copyright 2012 EMC Corporation. All rights reserved. 2 Vos environnements SAP sont complexes et couteux : pensez «replatforming» TRANSFORM IT+ BUSINESS + YOURSELF Alexandre

Plus en détail