Communications performantes par passage de message entre machines virtuelles sur architecture à mémoire partagée
|
|
- Clarisse Bilodeau
- il y a 8 ans
- Total affichages :
Transcription
1 RenPar 19 / SympA 13 / CFSE 7 Toulouse, France, du 9 au 11 septembre 2009 Communications performantes par passage de message entre machines virtuelles sur architecture à mémoire partagée François Diakhaté CEA / DAM Ile De France Bruyères-le-Châtel Arpajon Cedex diakhate@ocre.cea.fr Résumé Ces dernières années, la virtualisation du matériel a connu un important regain d intérêt et s est imposée comme une technologie majeure au sein des centres de traitement de données pour consolider des serveurs, améliorer leur sécurité ou leur tolérance aux pannes. En revanche, la flexibilité offerte par les machines virtuelles n a pas encore été mise à profit au sein des grappes destinées au calcul intensif, notamment car le surcoût d exécution induit était jusqu ici jugé prohibitif. Dans cet article, nous nous intéressons au problème de l efficacité des communications entre machines virtuelles co-hébergées qui est importante pour l exécution d application parallèles de type MPI sur une grappe de machines virtuelles. Nous introduisons un périphérique virtuel de communication entre machines virtuelles permettant de tirer pleinement parti des performances de l architecture multi-cœur à mémoire partagée de la machine physique hôte. Nous avons développé une implémentation de ce périphérique pour l hyperviseur KVM ainsi que le pilote correspondant pour Linux en tant que système d exploitation invité. Une bibliothèque MPI exploitant ce périphérique nous permet d en évaluer les performances qui sont proches des meilleures implémentations MPI natives. Mots-clés : Virtualisation, KVM, MPI, Communication, Passage de message, Multi-cœur, Mémoire partagée 1. Introduction Ces dernières années, les machines virtuelles ont été très abondamment déployées au sein des centres de traitements de données pour consolider les serveurs, faciliter leur gestion ou améliorer leur sécurité. Elles n ont en revanche pas encore été adoptées dans le contexte du calcul intensif, notamment à cause de la perte de performance qu elles induisent. Les avancées récentes dans le domaine de la virtualisation sur processeur généraliste ont cependant permis de grandement améliorer leur efficacité ce qui a conduit la communauté scientifique à étudier comment les grappes de calcul pourraient tirer profit des machines virtuelles [8]. Outre le gain de flexibilité apporté par la possibilité de migrer des machines virtuelles à chaud où de laisser aux utilisateurs un contrôle total sur leur environnement logiciel, des applications spécifiques au calcul intensif sont envisageables. Par exemple, l utilisation d un hyperviseur minimal et d un système d exploitation dédié pourrait permettre de diminuer les interférences liées au système d exploitation et de grandement améliorer les performances de certaines opérations de communication [5]. Quelle que soit l utilisation envisagée, la virtualisation ne doit pas avoir d impact négatif sur les performances de la grappe de calcul. MPI étant l interface de communication la plus répandue au sein des grappes, il est essentiel de concevoir des implémentations efficaces en contexte virtualisé. S il est possible de fournir un accès efficace à certaines cartes réseau haute performance depuis une machine virtuelle, il est aussi important que les communications entre machines virtuelles co-hébergées soient optimisées [3]. En effet pour exécuter des applications MPI, il est souhaitable d utiliser des machines virtuelles mono-processeur et une tâche MPI par machine virtuelle. Cela permet d une part d effectuer un équilibrage de charge à grain plus fin par migration de machines virtuelles et d autre part d éviter
2 Tampon d émission Tampon de réception Coeur 0 en lecture en écriture Coeur 1 (a) Caches partagés 0011 Tampon partagé 0011(Dans le cache partagé) 0011 Tampon d émission Tampon de réception Coeur 0 en lecture en écriture Coeur 1 (b) Caches séparés Tampon partagé 0011(Dans le cache du coeur 0) 0011 en lecture FIG. 1: Impact du partage de cache sur l efficacité de la copie intermédiaire les surcoûts liés aux interférences entre les ordonnanceurs de l hôte et de l invité [10, 11]. Sur les architectures multi-cœur actuelles et futures, il sera donc fréquent d héberger plusieurs machines virtuelles sur un nœud de calcul. Dans cet article, nous présentons un nouveau mécanisme pour échanger efficacement des messages entre processus exécutés dans des machines virtuelles distinctes, sur architecture à mémoire partagée. L idée principale est de fournir aux machines virtuelles un périphérique dédié aux communications par passage de messages qui propose une interface à la fois simple et performante pouvant être exploitée par une bibliothèque MPI pour machine virtuelle. Cette approche s intègre facilement aux systèmes d exploitation et hyperviseurs existants tout en permettant de tirer profit des pleines performances des architectures à mémoire partagée modernes. 2. Communication par passage de message en mémoire partagée Ces dernières années, les architectures à mémoire partagée se sont progressivement complexifiées tout en s imposant comme la technologie dominante au sein des grappes de calcul. En effet, l arrivée de puces multi-cœur a grandement augmenté le nombre d unités de calcul pouvant être embarquées sur une même carte mère. L annonce par Intel d un prototype de puce contenant 80 cœurs [6], suivie de l arrivée prochaine des puces Larrabee confirme que cette tendance va s intensifier dans les années à venir. En outre, l augmentation du nombre de processeurs par carte mère s est faite au prix de l introduction d effets NUMA qui doivent être pris en compte. De ce fait, la communauté scientifique s est beaucoup intéressée aux techniques permettant de transférer efficacement des données sur ces architectures nouvelles. Dans cette section, nous commençons par passer en revue les principales techniques permettant d échanger efficacement des messages entre processus exécutés au sein d un système d exploitation traditionnel, puis nous nous intéressons aux spécificités à prendre en compte pour les appliquer dans un environnement virtualisé, c est à dire entre processus exécutés dans des machines virtuelles distinctes hébergées sur un même hôte Passage de message en mémoire partagée sur architecture multi-cœur En fonction de la taille du message à échanger, un large éventail de techniques peuvent être mises en œuvre. Néanmoins, toutes ces solutions s appuient sur deux mécanismes de base : une copie en deux étapes en passant par un tampon de communication partagé pré-alloué, ou une copie directe en place de l émetteur au récepteur. Utilisation d un tampon de communication intermédiaire Bien que les processus soient exécutés dans des espaces d adressage distincts, les systèmes d exploitations offrent généralement différents mécanismes pour leur faire partager un segment de mémoire (par ex. mmap, ou les segments de mémoire partagés system V). De nombreuses implémentations MPI exploitent ces mécanismes pour créer des tampons de communication partagés. Les transferts de données entre processus se déroulent alors entièrement en espace utilisateur en écrivant et en lisant dans ces tampons de communication. Différents protocoles ont été proposés. Une possibilité est de doter chaque processus d un tampon de réception dédie à chaque autre processus [2]. Cela permet d éviter à deux processus envoyant simultanément un message au même destinataire de se synchroniser mais cela im- 2
3 plique un coût en mémoire quadratique par rapport au nombre de processus. Par ailleurs, le temps de scrutation pour l arrivée d un nouveau message augmente linéairement avec le nombre de processus. Afin de s affranchir de ces deux inconvénients, il est aussi possible de n allouer qu un seul tampon de réception par processus et de limiter ainsi la consommation de ressources lorsque le nombre de processus augmente. La synchronisation entre écrivains concurrents est par contre plus complexe mais peut être réalisée efficacement à l aide de files de messages sans verrous [1]. L utilisation d un tampon de communication intermédiaire est particulièrement adaptée aux architectures multi-cœur disposant de caches partagés, puisque si ce tampon est suffisamment petit pour tenir dans le cache, la copie intermédiaire s effectuera en cache et aura un coût négligeable par rapport au coût de lecture et d écriture respectivement dans la mémoire de l émetteur et du récepteur. En revanche lorsque les caches ne sont pas partagés, un fraction importante de la bande passante mémoire est gaspillée par cette copie (voir Fig. 1). Pour les petits messages cette technique reste néanmoins optimale car elle n impose pas de coût particulier de démarrage ce qui permet d atteindre de très faibles latences. Lorsque la taille des messages augmente, la copie intermédiaire devient par contre pénalisante si les cœurs ne partagent pas de cache. Copie directe Afin d éviter le surcoût induit par la copie intermédiaire, il est aussi possible de réaliser une copie directe de l émetteur au récepteur de manière à obtenir une bande passante maximale pour les gros messages. Cela demande que la copie soit effectuée dans un contexte mémoire où le tampon d émission et de réception sont tous deux accessibles. Pour cela, une première approche consiste à effectuer la copie au sein du noyau du système d exploitation [7]. Cette approche requiert un module noyau dédie ce qui la rend moins portable. De plus, chaque communication est sujette au coût d un appel système ainsi qu à celui du punaisage des pages mémoire (memory pinning) ce qui restreint cette technique aux messages suffisamment gros pour que le gain de bande passante la rende rentable. Pour contourner ce problème, certaines approches emploient des threads au lieu de processus pour exécuter les tâches MPI [9]. Cela permet de fournir une implémentation portable fonctionnant uniquement en espace utilisateur mais nécessite que le code de l application parallèle soit thread-safe. Les variables globales sont par exemple proscrites Défis à relever en contexte virtualisé Il est possible d établir une analogie entre la problématique du passage de message entre machines virtuelles sur architecture à mémoire partagée et celle du passage de message entre processus natifs, vue précédemment. En effet, tout comme les processus d un système d exploitation, les machines virtuelles sont exécutées dans des espaces d adressage distincts. De ce fait, pour permettre des communications efficaces entre machines virtuelles en mémoire partagée, deux possibilités s offrent à nous : Mettre en place un ensemble de pages physiques partagées par les machines virtuelles devant communiquer, de manière à ce qu elles puissent mettre en œuvre, sans coût additionnel, les techniques utilisant un tampon de communication intermédiaire vues précédemment. Cette approche a été étudiée sur l hyperviseur Xen en tirant partie de ses capacités de partage de pages pour mettre en œuvre des communications par socket [12] ou par MPI [3] efficaces. Effectuer les copies dans un espace d adressage où à la fois les tampons d émission et de réception sont accessibles. Deux techniques peuvent être mises en œuvre. On peut accorder à l une des deux machines virtuelles un droit de lecture ou d écriture sur les pages mémoires contenant le message [4] ou laisser effectuer l opération par l hyperviseur, de la même manière que cela est fait par le noyau dans le cas natif. Dans tous les cas, cela permet de n effectuer qu une seule copie et de profiter d une bande passante maximale, mais impose des coûts de démarrage de communication importants, soit parce qu il faut modifier une table des pages pour avoir accès aux tampons d émission et de réception dans le même espace d adressage, soit parcequ il faut effectuer un hypercall. Cette technique sera donc réservée aux gros messages. Nous sommes une fois de plus en présence d un compromis entre latence et bande passante. Pour obtenir des performances optimales, il nous faut choisir la méthode la plus appropriée dynamiquement en fonction de la taille du message à transmettre. En outre l isolation entre machines virtuelles doit être prise en considération. Une machine virtuelle ne doit pas pouvoir lire ou écrire dans la mémoire d une 3
4 Espace utilisateur invité b copie c copie Espace utilisateur invité Noyau invité a projection mémoire 2 demande d émission Périphérique virtuel de communication 3 copie directe a projection mémoire 1 demande de réception Noyau invité Machine virtuelle émettrice Machine virtuelle réceptrice FIG. 2: Périphérique virtuel de communication autre machine virtuelle sans que cela lui ait été autorisé. 3. Un périphérique virtuel de communication Afin que les systèmes d exploitation invités aient accès à un moyen de communication efficace en mémoire partagée, nous introduisons un périphérique virtuel de communication disposant d une interface bas niveau bien adaptée à la sémantique des communications MPI. Les systèmes d exploitation traditionnels étant prévus pour piloter des interfaces matérielles, ils fournissent des moyens adaptés pour les exploiter efficacement et les exporter aux applications en espace utilisateur. De ce fait, pour qu un système d exploitation puisse tirer parti d un nouveau périphérique, il suffit généralement d écrire un pilote sous forme d un module noyau. De plus la plupart des hyperviseurs émulent déjà un grand nombre de périphériques et il est en général assez simple d en ajouter un nouveau. Un périphérique virtuel est donc une manière simple et portable d introduire une interface entre un hyperviseur et des systèmes d exploitation invités. Ce périphérique virtuel propose deux canaux de communication afin de rendre efficace les échanges de type MPI entre machines virtuelles co-hébergées, conformément à ce qui a été vu précédemment : un canal à faible latence basé sur des tampons partagés accessibles directement depuis l espace utilisateur des machines virtuelles et un canal à bande passante élevée pour les gros messages basé sur une copie directe. La figure 2 résume le fonctionnement du périphérique virtuel dont nous décrivons les principales caractéristiques ci-dessous. Ports Toutes les extrémités de communication sur une machine physique sont identifiées de manière unique par un numéro de port. Cela permet à plusieurs canaux de communication indépendants d être ouverts sur chaque machine virtuelle pour convenir à tous les usages. Par exemple, plusieurs processus MPI sur une même machine virtuelle pourraient vouloir utiliser le périphérique pour communiquer avec des processus MPI exécutés dans d autres machines virtuelles. L utilisation de numéros de ports au lieu d identifiants de machines virtuelles permet de traiter ces cas uniformément. Lorsqu une machine virtuelle souhaite ouvrir une extrémité de communication, elle se voit attribuer un numéro de port correspondant. Ce numéro peut ensuite être utilisé par d autres utilisateurs du périphérique virtuel pour échanger des messages avec cette nouvelle extrémité de communication. Mémoire partagée Le périphérique virtuel possède de la mémoire embarquée correspondant à un tampon de communication partagé auquel l espace utilisateur invité peut accéder directement après avoir demandé au pilote de mettre en place les projections mémoire nécessaires. Ainsi, une fois cette étape d initialisation ef- 4
5 Espace utilisateur hôte Contexte invité Basculement en contexte invité Processus en esp. utilisateur émulateur de périphériques 1 Exécute la VM Émule une E/S 4 Interruption logicielle 3 Temps d exécution normalisé Noyau Linux hôte 0 cg.a.8 bt.a.4 sp.a.4 Module KVM ft.a.8 ep.a.8 is.a.8 lu.a.8 Benchmarks parallèles mg.a.8 FIG. 3: KVM FIG. 4: Benchmarks NAS fectuée, les communications peuvent avoir lieu entièrement en espace utilisateur sans aucun surcoût. Chaque port dispose d une file de réception sans verrou au fonctionnement similaire à [1] permettant de recevoir efficacement des messages de multiples émetteurs. Transferts DMA Le périphérique virtuel peut réaliser des copies directes similaires à un transfert DMA entre les mémoires des machines virtuelles qui l utilisent. Pour cela, les machines virtuelles transmettent des requêtes d envoi et de réception au périphérique virtuel. Celles-ci admettent un port d origine et un port cible et ainsi qu un ensemble de données pouvant être non-contigües en mémoire. La copie n est effectuée qu en cas de concordance entre une requête d émission et une requête de réception. Une fois une requête émise, sa complétion peut être détectée depuis l invité en scrutant une valeur en mémoire ce qui permet d éviter un maximum de changements de contexte. Cette interface est similaire à celle des cartes réseaux haute performance qui disposent généralement à la fois de canaux de communication par copie dans une mémoire tampon mais aussi de canaux de communication par transfert direct avec rendez-vous préalable. Cette similarité devrait simplifier le portage de bibliothèques MPI sur ce périphérique virtuel. Bien que notre solution requière plus de travail de portage qu une solution assurant, par exemple, la compatibilité binaire avec l interface socket [12], elle est aussi plus efficace car elle permet de mettre en œuvre les même techniques de communication qu en environnement non-virtualisé. 4. Implémentation Afin d évaluer ce périphérique virtuel, nous l avons implémenté au sein de l hyperviseur KVM, puis nous avons développé un pilote pour Linux en tant que système d exploitation invité ainsi qu une bibliothèque MPI réduite permettant d exécuter des benchmarks parallèles standards Emulation depuis l hôte KVM est un module noyau permettant à Linux de jouer le rôle d hyperviseur grâce au support matériel de la virtualisation disponible dans les processeurs récents. Avec KVM, les machines virtuelles sont des processus Linux standards et peuvent ainsi être administrées simplement. Outre ce module noyau, un composant en espace utilisateur est nécessaire pour effectuer différentes tâches d initialisation, comme l allocation de la mémoire des machines virtuelles à l aide des fonctions d allocation standard du système. Par la suite, il est chargé d émuler les périphériques virtuels : lorsque qu un système d exploitation invité tente d accéder à un périphérique virtuel, l instruction correspondante est interceptée par KVM qui la transmet au composant en espace utilisateur pour qu il émule le résultat attendu (voir Fig. 3). 5
6 Bande passante (MiB/s) Latence (us) Ki 512Ki 4Mi Taille du message (octets) Taille du message (octets) (a) Bande passante (b) Latence FIG. 5: Ping-pong : cœurs partageant un cache De ce fait, notre périphérique virtuel peut être émulé entièrement en espace utilisateur hôte. Afin qu un processus exécutant une machine virtuelle puisse accéder à la mémoire des autres machines virtuelles, nous effectuons l allocation de la mémoire des machines depuis une zone mémoire partagée entre les processus. Lorsque le système d exploitation invité émet une requête DMA sur le périphérique virtuel, une interruption logicielle est déclenchée ce qui permet au processus hôte de prendre en compte la requête en la plaçant dans une file. Cette file de requêtes est elle aussi située dans la zone mémoire partagée entre les processus éxécutant les machines virtuelles. Lorsqu une requête d émission concorde avec une requête de réception le processus ayant posté la deuxième requête effectue une copie directe entre les mémoires des machines virtuelles. L accès aux données d une autre machine virtuelle est ainsi entièrement effectué par le processus hôte qui peut vérifier la validité des requêtes émises Accès au périphérique virtuel depuis l invité Du côté de l invité, un pilote noyau est en charge d accéder au périphérique virtuel. L interface d accès au périphérique utilise l interface standard de virtualisation Virtio ce qui simplifie l écriture de pilotes pour différents systèmes d exploitation invités. Cette interface permet de transmettre à l hôte des couples pointeur/taille grâce à des files et est donc bien adaptée à l envoi de nos requêtes DMA. Le pilote relaie l interface du périphérique virtuel vers les applications en espace utilisateur à travers les interfaces standards du sytème d exploitation. L interface de notre pilote pour Linux requiert l utilisation de l appel système ioctl pour ouvrir ou fermer un port sur la carte ainsi que pour émettre des requêtes DMA. Les files de messages de la carte peuvent quant à elles être projetées en espace utilisateur à l aide de l appel système mmap. Une bibliothèque de test disposant des principales primitives de communication point-à-point (Send, Recv, Isend, Irecv, Wait,... ) et collectives (Reduce, Scatter, Gather, Bcast, Barrier,... ) de la norme MPI, baptisée VMPI, a été implémentée à partir de cette interface. Elle utilise les files de messages du périphérique pour les petits messages et des requêtes DMA précédées d un rendez-vous pour les messages de taille supérieure à 32KiB. 5. Résultats Dans cette section, nous évaluons les performances de notre solution en comparant, pour différents benchmarks MPI, les performances obtenues lorsque les tâches MPI sont exécutées dans des machines virtuelles séparées, en utilisant VMPI et notre périphérique virtuel pour communiquer, à celles obtenues lorsque les tâches MPI sont exécutées directement sur l hôte, en utilisant les implémentations MPI standard MPICH2 1.1 et Open MPI Nous mesurons tout d abord les performances brutes de latence et de bande passante à l aide du test ping-pong de la suite Intel MPI Benchmarks puis nous évaluons leur 6
7 Bande passante (MiB/s) Latence (us) Ki 512Ki 4Mi Taille du message (octets) Taille du message (octets) (a) Bande passante (b) Latence FIG. 6: Ping-pong : cœurs situés sur des puces séparées impact sur l efficacité d applications scientifiques parallèles grâce à la suite NAS Parallel Benchmarks. La machine utilisée pour ces tests contient deux processeurs Xeon quadri-cœurs E5345 (2.33Ghz) et 4GiB de mémoire vive. Ping-pong Pour ce test on distingue le cas où les 2 processus effectuant le ping-pong sont exécutés sur deux cœurs partageant un cache, et celui où les processus sont exécutés sur des puces différentes. Pour que ce test soit plus représentatif des conditions réelles de communication, le paramètre off_cache est utilisé afin de varier les données utilisées pour chaque passage de message. Dans le cas contraire, les données restent toujours dans les caches des processeurs puisqu elles ne sont jamais modifiées et les bandes passantes atteintes (jusqu à 6 GiB/s en cas de copie directe) ne sont pas représentatives des conditions normales d utilisation. Les résultats sont présentés sur les figures 5 et 6. En terme de latence, VMPI obtient des performances similaires aux meilleures implémentations natives, à l exception des très petit messages en cache partagé où le protocole Nemesis utilisé par MPICH2 obtient une latence inférieure d environ 200 ns. Cet écart de performance s explique probablement par le fait que Nemesis a été optimisé pour minimiser le nombre d instructions sur le chemin critique et utilise par ailleurs, en plus des files de messages, des boites de réception rapides qui sont allouées pour chaque paire de processus et qui permettent de recevoir très rapidement un unique message. En ce qui concerne le débit, notre périphérique virtuel offre un avantage à VMPI pour les gros messages, car il permet d effectuer des copies directes, ce que ne peuvent faire les bibliothèques MPI usuelles qui sont implémentées en espace utilisateur. Ainsi, en comparaison aux implémentations usuelles, la bande passante est presque doublée lorsque les processus sont exécutés sur des cœurs ne partageant pas de cache, conformément à ce qui a été vu dans la section 2. NAS Parallel Benchmarks La figure 4 montre les résultats obtenus pour la classe A des tests NAS exécutés sur les 8 cœurs de la machine de test, sauf BT et SP qui ne peuvent être exécutés que sur un nombre carré de cœurs. On constate que pour tous les tests mis à part IS, l écart de performance entre l exécution virtualisée, et l exécution native est inférieure à 10%. En revanche pour IS, la version virtualisée est environ 20% plus rapide. Ceci s explique par le fait que IS est le test utilisant la plus grosse proportion de gros messages que notre périphérique virtuel permet de transférer très efficacement. 6. Conclusion Dans cet article, nous avons présenté un périphérique virtuel permettant de communiquer efficacement par passage de messages entre machines virtuelles partageant le même hôte. Cette solution devrait être 7
8 portable sur la majorité des systèmes d exploitation et hyperviseurs et offre de bonnes performances comme le montre nos évaluations. Ce travail illustre en outre le potentiel de la virtualisation comme source de gains de performances. Celle-ci permet en effet d intégrer des optimisations dans le noyau du système d exploitation de l invité plutôt que dans celui de l hôte ce qui permet de s affranchir de certaines contraintes de sécurité et offre de manière générale plus de flexibilité. Nous en tirons parti ici pour effectuer des copies directes de type DMA entre émetteur et récepteur, ce qui nous permet dans certains cas de doubler la bande passante disponible par rapport à une implémentation MPI en espace utilisateur. Par la suite, nous comptons intégrer un support pour notre périphérique virtuel au sein d une bibliothèque MPI existante telle que MPICH2 ou Open MPI et supporter ainsi l interface MPI complète. Nous souhaitons en outre étendre l interface de notre périphérique afin de proposer notamment un support de la migration de machines virtuelles. Cela suppose d intégrer un mécanisme de rappels pour que les applications puissent suspendre et rétablir les communications lorsqu une machine virtuelle est migrée. Par ailleurs, nous pensons étudier des politiques spécialisées d ordonnancement dynamique de machines virtuelles tenant compte des communications, afin de rendre efficace l exécution d un nombre de machines virtuelles supérieur au nombre de cœurs disponibles. References [1] D. Buntinas, G. Mercier, and W. Gropp. Implementation and Shared-Memory Evaluation of MPICH2 over the Nemesis Communication Subsystem. In Proceedings of the 13th European PVM/MPI Users Group Meeting, [2] L. Chai, A. Hartono, and D. K. Panda. Designing high performance and scalable mpi intra-node communication support for clusters. In Proceedings of the 2006 IEEE International Conference on Cluster Computing, [3] W. Huang, M. Koop, Q. Gao, and D. K. Panda. Virtual Machine Aware Communication Libraries for High Performance Computing. In Proceedings of the 2007 ACM/IEEE conference on Supercomputing, [4] W. Huang, M. Koop, and D. Panda. Efficient one-copy mpi shared memory communication in virtual machines. In Proceedings of the 2008 IEEE International Conference on Cluster Computing, [5] T. Hudson and R. Brightwell. Network performance impact of a lightweight linux for cray xt3 compute nodes. In Proceedings of the 2006 ACM/IEEE conference on Supercomputing, [6] Intel. Intel research advances era of tera. Intel News Release: [7] H.-W. Jin and D. K. Panda. Limic: Support for high-performance mpi intra-node communication on linux cluster. In Proceedings of the 2005 International Conference on Parallel Processing, [8] M. F. Mergen, V. Uhlig, O. Krieger, and J. Xenidis. Virtualization for high-performance computing. SIGOPS Operating Systems Review, 40(2), [9] M. Pérache, H. Jourdren, and R. Namyst. MPC: A Unified Parallel Runtime for Clusters of NUMA Machines. In Proceedings of the 14th International Euro-Par Conference, [10] A. Ranadive, M. Kesavan, A. Gavrilovska, and K. Schwan. Performance implications of virtualizing multicore cluster machines. In 2nd Workshop on System-level Virtualization for High Performance Computing, [11] V. Uhlig, J. LeVasseur, E. Skoglund, and U. Dannowski. Towards scalable multiprocessor virtual machines. In Proceedings of the 3rd Virtual Machine Research and Technology Symposium, [12] X. Zhang, S. McIntosh, P. Rohatgi, and J. L. Griffin. Xensocket: A high-throughput interdomain transport for virtual machines. In Proceedings of the 8th ACM/IFIP/USENIX International Middleware Conference,
Communications performantes par passage de message entre machines virtuelles co-hébergées
Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction
Plus en détailRuntime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I
Runtime Gestion de la réactivité des communications réseau François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I 1 Le calcul hautes performances La tendance actuelle
Plus en détailLA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010.
Guillaume ANSEL M2 ISIDIS 2009-2010 / ULCO Dossier d étude sur la virtualisation LA VIRTUALISATION 18/01/2010 Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques.
Plus en détailLe Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles
Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Microsoft France Division DPE Table des matières Présentation... 2 Objectifs... 2 Pré requis... 2 Quelles sont les principales
Plus en détailVMWare Infrastructure 3
Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...
Plus en détailen version SAN ou NAS
tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi
Plus en détailFAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Plus en détailvbladecenter S! tout-en-un en version SAN ou NAS
vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de
Plus en détailVirtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.
2013 Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. Table des matières 1 Introduction (Historique / définition)... 3 2 But de la virtualisation... 4 3 Théorie : bases et typologie des solutions techniques...
Plus en détailConcours interne d ingénieur des systèmes d information et de communication. «Session 2010» Meilleure copie "étude de cas architecture et systèmes"
Concours interne d ingénieur des systèmes d information et de communication «Session 2010» Meilleure copie "étude de cas architecture et systèmes" Note obtenue : 14,75/20 HEBERGE-TOUT Le 25 mars 2010 A
Plus en détailFAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Plus en détailProgrammation parallèle et distribuée
ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences
Plus en détailCours n 12. Technologies WAN 2nd partie
Cours n 12 Technologies WAN 2nd partie 1 Sommaire Aperçu des technologies WAN Technologies WAN Conception d un WAN 2 Lignes Louées Lorsque des connexions dédiées permanentes sont nécessaires, des lignes
Plus en détailJulien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration
Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...
Plus en détailVirtualisation des Serveurs et du Poste de Travail
Virtualisation des Serveurs et du Poste de Travail Les enjeux de la virtualisation Les acteurs du segment La virtualisation de serveurs Les concepts Les technologies d architectures L offre La virtualisation
Plus en détailINF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1
INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe
Plus en détailPrésentation d HyperV
Virtualisation sous Windows 2008 Présentation d HyperV Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines virtuelles Offre de virtualisation
Plus en détailModule : Virtualisation à l aide du rôle Hyper-V
Windows Server 2008 pour l'enseignement Module : Virtualisation à l aide du rôle Hyper-V Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines
Plus en détailNe laissez pas le stockage cloud pénaliser votre retour sur investissement
Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de
Plus en détailPlate-forme Cloud CA AppLogic pour les applications d entreprise
FICHE PRODUIT : CA AppLogic Plate-forme Cloud CA AppLogic pour les applications d entreprise agility made possible CA AppLogic est une plate-forme Cloud Computing clés en main permettant aux clients de
Plus en détailPoint sur la virtualisation
Le 04/03/2013 OBJECTIF VIRTUALISATION mathieuc@exakis.com EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Point sur la Objectif 04/03/2013 26/03/2013 virtualisation
Plus en détailComment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?
DOSSIER SOLUTION Solution CA Virtual Placement and Balancing Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? agility made possible La solution automatisée
Plus en détailDétection d'intrusions en environnement haute performance
Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire
Plus en détailTAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES
TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES 1 DECOUVERTE DE LA VIRTUALISATION... 2 1.1 1.2 CONCEPTS, PRINCIPES...2 UTILISATION...2 1.2.1 Formation...2
Plus en détailIntroduction à la Programmation Parallèle: MPI
Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4
Plus en détailAtelier : Virtualisation avec Xen
Virtualisation et Cloud Computing Atelier : Virtualisation avec Xen Plan Présentation de Xen Architecture de Xen Le réseau Gestion des domaines DomU dans Xen Installation de Xen Virt. & Cloud 12/13 2 Xen
Plus en détailHétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds
Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds Mardi Laurent Lefèvre LIP Inria/ENS Lyon Jean-Marc Pierson, Georges Da Costa, Patricia Stolf IRIT Toulouse Hétérogénéité
Plus en détailVirtualisation sous Linux L'age de raison. Daniel Veillard veillard@redhat.com
Virtualisation sous Linux L'age de raison Daniel Veillard veillard@redhat.com Solution Linux 2009 Une jungle d'acronymes Xen UML VServer VMWare VirtualBox lguest QEmu KVM VirtualIron OpenVZ LXC Définition
Plus en détailSébastien Geiger IPHC Strasbourg
Sébastien Geiger IPHC Strasbourg Retour d expérience sur la virtualisation de serveurs à l IPHC 9eme Journées Info de l IN2P3-IRFU 13-16 octobre 2014 Résidence de Camargue Sommaire Comment déterminer les
Plus en détailSystème d administration autonome adaptable: application au Cloud
Système d administration autonome adaptable: application au Cloud Alain TCHANA - atchana@enseeiht.fr IRIT/ENSEEIHT, Equipe SEPIA Directeur de thèse : Daniel HAGIMONT et Laurent BROTO Rapporteurs : Jean-Marc
Plus en détailD2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale
D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale VERSION 1.0 DATE 2010 EDITORIAL MANAGER Sylvain Peyronnet AUTHORS STAFF Ala Rezmerita, Camille
Plus en détailJuillet 2012. Fax sur IP & Virtualisation
Juillet 2012 Fax sur IP & Virtualisation Sommaire Points sur le Fax Pourquoi le fax sur IP? Conduite de projet Les avantages du fax sur IP La mise en place du fax sur IP Architecture et exemple Les solutions
Plus en détailPlanifier la migration des applications d entreprise dans le nuage
TM Planifier la migration des applications d entreprise dans le nuage Guide de vos options de migration : nuage privé et public, critères d évaluation des applications et meilleures pratiques de migration
Plus en détailVirtualiser ou ne pas virtualiser?
1 Virtualiser ou ne pas virtualiser? C est la première question à laquelle vous devrez répondre par vous-même avant d investir une quantité significative de temps ou d argent dans un projet de virtualisation.
Plus en détailPPE 1 PRISE EN MAIN DE VMWARE VSPHERE 5.5 & CONFIGURATION D UNE MACHINE VIRTUELLE
PPE 1 PRISE EN MAIN DE VMWARE VSPHERE 5.5 & CONFIGURATION D UNE MACHINE VIRTUELLE Antoine CAMBIEN BTS SIO Option SISR Session 2015 BTS SIO Services Informatiques aux Organisations Session 2014 2015 Nom
Plus en détailLes avantages de la virtualisation sont multiples. On peut citer:
1 Les mécanismes de virtualisation ont été introduits il y a fort longtemps dans les années 60 par IBM avec leur système CP/CMS. La motivation première de la virtualisation est la possibilité d'isoler
Plus en détailRéseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace
1 Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace Réseau longue distance et application distribuée dans les grilles de
Plus en détailCORBA haute performance
CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes Alexandre.Denis@irisa.fr Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance
Plus en détailagility made possible
DOSSIER SOLUTION CA VM:Manager Suite for Linux on System Z Comment réduire le coût et la complexité de la gestion et de la sécurisation des environnements z/vm et Linux on System z? agility made possible
Plus en détailSystèmes d exploitation
Systèmes d exploitation Virtualisation, Sécurité et Gestion des périphériques Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Novembre 2009 Gérard Padiou Systèmes d exploitation
Plus en détailThèse CIFRE. Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS
Thèse CIFRE Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS Yacine HEBBAL Sylvie LANIEPCE Jean-Marc MENAUD Début de thèse : octobre 2014 (1 ière année) SEC2 : 30
Plus en détail<Insert Picture Here> Solaris pour la base de donnés Oracle
Solaris pour la base de donnés Oracle Alain Chéreau Oracle Solution Center Agenda Compilateurs Mémoire pour la SGA Parallélisme RAC Flash Cache Compilateurs
Plus en détailChapitre 2 : Abstraction et Virtualisation
Virtualisation et Cloud Computing Chapitre 2 : Abstraction et Virtualisation Objectifs Présenter la notion de niveaux d abstraction séparés par des interfaces bien définies Description des avantages et
Plus en détailLa continuité de service
La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici
Plus en détailLXC : Une technologie de contextualisation ultra light intégrée au kernel Linux
Benoît des Ligneris, Ph.D. P.D.G., bdl@rlnx.com Solutions Linux Open Source, 18 mars 2010 LXC : Une technologie de contextualisation ultra light intégrée au kernel Linux Révolution Linux 2010 Au menu Révolution
Plus en détailVirtualisation open source État de l'art
Virtualisation open source État de l'art Jean Charles Delépine Université de Picardie Direction des Infrastructures et des systèmes d'information Une jungle d'acronymes Xen QEMU
Plus en détailWindows Server 2008. Chapitre 1: Découvrir Windows Server 2008
Windows Server 2008 Chapitre 1: Découvrir Windows Server 2008 Objectives Identifier les caractéristiques de chaque édition de Windows Server 2008 Identifier les caractéristiques généraux de Windows Server
Plus en détailEtude d architecture de consolidation et virtualisation
BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.
Plus en détailEnseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper
Plus en détailVersion de novembre 2012, valable jusqu en avril 2013
Pré requis techniques pour l installation du logiciel complet de gestion commerciale WIN GSM en version hyper File en configuration Windows Terminal Serveur Version de novembre 2012, valable jusqu en avril
Plus en détailSans trop entrer dans les détails, la démarche IO Model consiste à : Pour cela, Microsoft découpe la maîtrise de l infrastructure en quatre niveaux :
Windows Server 2008 Les fondations du système... 15 La virtualisation... 16 La sécurité... 18 Le Web... 20 Fonctionnalité disponible dans... 21 Installation et configuration... 22 Installer... 23 Les services
Plus en détailConcept de machine virtuelle
Concept de machine virtuelle Chap. 5: Machine virtuelle Alain Sandoz Semestre été 2007 1 Introduction: Java Virtual Machine Machine Virtuelle Java: qu est-ce que c est? c est la spécification d une machine
Plus en détailVirtualisation de serveurs Solutions Open Source
Virtualisation de serveurs Solutions Open Source Alain Devarieux TSRITE2009 FOAD 1 / 19 Table des matières 1.Les principes de la virtualisation...3 1.1.Partage d'un serveur...3 1.2.Objectif de la virtualisation...4
Plus en détailVirtualisation & Sécurité
Virtualisation & Sécurité Comment aborder la sécurité d une architecture virtualisée? Quels sont les principaux risques liés à la virtualisation? Peut-on réutiliser l expérience du monde physique? Quelles
Plus en détailLa surveillance centralisée dans les systèmes distribués
La surveillance centralisée dans les systèmes distribués Livre blanc Auteur : Daniel Zobel, du service Documentation et Support de Paessler AG Date de publication : août 2010 Dernière révision : janvier
Plus en détailLa Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage
La Virtualisation Windows chez CASINO Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage Sommaire Contexte Datacenters La virtualisation chez Casino Notre démarche Feuille de route Bilan
Plus en détailETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE
Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1
Plus en détailLe stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures
Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet
Plus en détailVMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510
Introduction A. Au sujet du livre 10 B. Au sujet de l'examen 10 Chapitre 1 Les nouveautés de vsphere A. Présentation 14 B. En quoi vsphere 5 diffère de vsphere 4? 14 1. Un Service Console abandonné 14
Plus en détail7 avantages à la virtualisation des applications stratégiques de votre entreprise
7 avantages à la virtualisation des applications stratégiques de votre entreprise Contenu de cet ebook Mise en contexte Avantage 1 : Accélération des mises à niveau grâce au clonage Avantage 2 : Réservation
Plus en détailSRS DAY: Problématique liée à la virtualisation
SRS DAY: Problématique liée à la virtualisation Anthony GUDUSZEIT Franck CURO gudusz_a curo_f Introduction Sommaire Définition Contexte Avantages / inconvénients Fonctionnement et problématique Techniques
Plus en détailParallélisme et Répartition
Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre
Plus en détailSystème de stockage IBM XIV Storage System Description technique
Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de
Plus en détailEntrez dans l ère du Numérique Très Haut Débit
MIPE Juin 2012 - Nantes http://www.network-th.fr - 0811 560 947 1. Le Très Haut Débit sur Fibre Optique au prix d une SDSL : Mythe ou Réalité? 2. Sauvegarder, Sécuriser, Protéger, Superviser : Délégueznous
Plus en détailContributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
Plus en détailAnatomie d'un cloud IaaS Représentation simplifiée
Anatomie d'un cloud IaaS Représentation simplifiée Sous sa forme la plus simple un cloud IaaS combine un tissu de stockage (storage fabric) avec un tissu de calcul (compute fabric) Le tissu de stockage
Plus en détailUne solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs
Une solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs La structure d un FlexPod Cisco UnifiedComputing& NetAppUnifiedArchitecture Cisco Unified Computing System Architecture
Plus en détailLes environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
Plus en détailTechnologie de déduplication de Barracuda Backup. Livre blanc
Technologie de déduplication de Barracuda Backup Livre blanc Résumé Les technologies de protection des données jouent un rôle essentiel au sein des entreprises et ce, quelle que soit leur taille. Toutefois,
Plus en détailA propos de la sécurité des environnements virtuels
A propos de la sécurité des environnements virtuels Serge RICHARD - CISSP (IBM Security Systems) serge.richard@fr.ibm.com La virtualisation, de quoi parlons nous «Virtualiser» un objet informatique, ou
Plus en détailLES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE
LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE Sylvain SIOU VMware Laurent DELAISSE Hitachi Data Systems 1 Hitachi Data Systems Corporation 2012. All Rights Reserved
Plus en détailVMware ESX/ESXi. 1. Les composants d ESX. VMware ESX4 est le cœur de l infrastructure vsphere 4.
VMware ESX/ESXi 1. Les composants d ESX VMware ESX4 est le cœur de l infrastructure vsphere 4. C est un hyperviseur, c est à dire une couche de virtualisation qui permet de faire tourner plusieurs systèmes
Plus en détailLa Continuité d Activité
La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique
Plus en détailPlan de cet après-midi
Plan de cet après-midi Hyper-V Hyper-V V2 TSE Remote Desktop Server Virtualisation Ensemble de techniques matérielles et/ou logicielles permettant de faire fonctionner sur une seule machine plusieurs systèmes
Plus en détailServeurs et solutions PowerEdge pour les applications métiers
s et solutions PowerEdge pour les applications métiers s et solutions PowerEdge pour les applications métiers Chez Dell, nous sommes tous les jours à votre écoute. Vous nous avez dit que vos infrastructures
Plus en détailRed Hat Enterprise Virtualization 3.0 Instructions d'installation et informations importantes
Red Hat Enterprise Virtualization 3.0 Instructions d'installation et informations importantes Remarques, précautions et avertissements REMARQUE: Une REMARQUE indique des informations importantes qui peuvent
Plus en détailPrésentation OpenVZ. Marc SCHAEFER. 9 janvier 2009
Présentation OpenVZ Marc SCHAEFER 9 janvier 2009 Résumé Le but de cette présentation est de montrer ce qu est la virtualisation et ce que peut apporter OpenVZ dans le contexte usuel de virtualisation de
Plus en détailConception des systèmes répartis
Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan
Plus en détailLa technologie Java Card TM
Présentation interne au CESTI La technologie Java Card TM sauveron@labri.u-bordeaux.fr http://dept-info.labri.u-bordeaux.fr/~sauveron 8 novembre 2002 Plan Qu est ce que Java Card? Historique Les avantages
Plus en détailPerspectives pour l entreprise. Desktop Cloud. JC Devos IBM IT Architect jdevos@fr.ibm.com. 2010 IBM Corporation
Perspectives pour l entreprise Desktop Cloud JC Devos IBM IT Architect jdevos@fr.ibm.com Principe technique Disposer d un poste de travail virtuel accessible par la plupart des terminaux disponibles Ce
Plus en détailVirtualisation Vserver et OpenVz en entreprise
Virtualisation Vserver et OpenVz en entreprise Présentation L'environnement Pourquoi virtualiser Les différents types de virtualisation L'isolation de processus Vserver OpenVz Retour d'expérience Conclusion
Plus en détailFAMILLE EMC RECOVERPOINT
FAMILLE EMC RECOVERPOINT Solution économique de protection des données et de reprise après sinistre en local et à distance Avantages clés Optimiser la protection des données et la reprise après sinistre
Plus en détailExécutif temps réel Pierre-Yves Duval (cppm)
Exécutif temps réel Pierre-Yves Duval (cppm) Ecole d informatique temps réel - La Londes les Maures 7-11 Octobre 2002 Plan Exécutif Tâches Evénements et synchronisation Partage de ressources Communications
Plus en détailMétriques de performance pour les algorithmes et programmes parallèles
Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and
Plus en détailTBR. Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013
Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013 TBR T E C H N O L O G Y B U S I N E S S R E S E AR C H, I N C. 1 TBR IBM Nurture Stream
Plus en détailOutil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche
Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd
Plus en détailLE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES
LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES Marie GALEZ, galez@cines.fr Le propos de cet article est de présenter les architectures NAS et SAN, qui offrent de nouvelles perspectives pour le partage
Plus en détailHyper-V R2 (Module 1) : Introduction
Hyper-V R2 (Module 1) : Introduction Hamid HARABAZAN Formateur et Consultant indépendant en Systèmes et Virtualisation Certifications : MCT, MCITP, A+, Server+, Linux+, LPIC-1, CCENT/CCNA,VSP, Contact
Plus en détailNOTIONS DE RESEAUX INFORMATIQUES
NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des
Plus en détailDossier Solution - Virtualisation CA arcserve Unified Data Protection
Dossier Solution - Virtualisation CA arcserve Unified Data Protection La virtualisation des serveurs et des postes de travail est devenue omniprésente dans la plupart des organisations, et pas seulement
Plus en détailProcessus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace
Processus 1) Contexte 2) Modèles de Notion de Points de vue Modèle fourni par le SX Opérations sur les 3) Gestion des Représentation des Opérations 4) Ordonnancement des Niveaux d ordonnancement Ordonnancement
Plus en détailUtilisation de matériels industriels avec des outils de virtualisation open source. Open Source dans le monde industriel
Utilisation de matériels industriels avec des outils de virtualisation open source Open Source dans le monde industriel Christophe Sauthier Ancien Président de Ubuntu fr Développeur Ubuntu Officiel Développeur
Plus en détail10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service
10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore
Plus en détailLivre blanc Haute disponibilité sous Linux
Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises
Plus en détailLa gestion du poste de travail en 2011 : Panorama des technologies
La gestion du poste de travail en 2011 : Panorama des technologies François Clémence C.R.I Université Paul Verlaine Metz UFR Sciences Humaines et Arts clemence@univ-metz.fr Olivier Mathieu C.R.I Université
Plus en détailPlan de secours informatique à chaud, virtualisation, et autres recettes...
Plan de secours informatique à chaud, virtualisation, et autres recettes... Groupe de travail OSSIR 12 mars 2007 http://bruno.kerouanton.net Contexte Vis-à-vis de l'activité de l'entreprise : Un plan de
Plus en détailPrésentation Windows 7 &
Présentation Windows 7 & Windows 2008 R2 1 2 Windows 7 Sortie le 22 Octobre 2009 Comme Windows 2008 R2 Un accueil plus que favorable de la Presse informatique ainsi que des professionnel de l informatique.
Plus en détail18 TCP Les protocoles de domaines d applications
18 TCP Les protocoles de domaines d applications Objectifs 18.1 Introduction Connaître les différentes catégories d applications et de protocoles de domaines d applications. Connaître les principaux protocoles
Plus en détailTRANSFORM IT + BUSINESS + YOURSELF
TRANSFORM IT + BUSINESS + YOURSELF Copyright 2012 EMC Corporation. All rights reserved. 2 Vos environnements SAP sont complexes et couteux : pensez «replatforming» TRANSFORM IT+ BUSINESS + YOURSELF Alexandre
Plus en détail