Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel

Dimension: px
Commencer à balayer dès la page:

Download "Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel"

Transcription

1 RenPar 18 / SympA 2008 / CFSE 6 Fribourg, Suisse, du 11 au 13 février 2008 Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel Yenké Blaise Omer Laboratoire LIG (équipe MESCAL), Grenoble, France ; Université de Yaoundé I, Cameroun Résumé Nous nous proposons d utiliser les ressources disponibles d un intranet d une entreprise durant les périodes d inactivité des PC (nuits, week-ends, congés). L idée est de constituer un cluster virtuel avec les postes libres de l intranet pour faire du calcul scientifique. De tels objectifs étaient la préoccupation du projet IGGI 2, et restent d actualité. Les différentes plages ainsi disponibles ne permettent pas toujours d exécuter les applications jusqu à leurs termes. Dans ce cas, les mécanismes de sauvegarde/reprise (checkpointing) permettent d exploiter efficacement ce type d infrastructure et assurent la continuité des calculs. Cependant, la sauvegarde du contexte d exécution d une application a un coût en temps et en espace disque. Ces contraintes sont encore plus fortes lorsque plusieurs applications sont en concurrence pour les accès réseau et disque. Dans cet article, nous présentons un modèle qui permet de prédire les performances du checkpointing en tenant compte des contraintes de congestion au niveau du réseau et du disque de sauvegarde. Nous illustrons l utilité du modèle dans la prédiction de la durée de sauvegarde du contexte de plusieurs applications séquentielles indépendantes. Pour notre modélisation, nous utilisons le système de checkpointing BLCR (Berkeley Linux Checkpointing Restart). Mots-clés : prédiction ; performance ; checkpointing ; BLCR 1. Introduction Les entreprises, les instituts, les universités, etc. disposent aujourd hui d intranets dotés de serveurs et d un grand nombre de postes de travail. Dans certaines de ces organisations, les postes de travail sont très peu utilisés la nuit, les week-ends et pendant les périodes de congés, libérant une grande puissance de calcul. Il serait donc judicieux d exploiter les longues périodes d inactivité des postes de travail par des applications nécessitant la ressource de calcul. L idée est donc de constituer des clusters virtuels à partir des postes non utilisés pour exploiter à bon escient les temps de jachère. Un cluster virtuel est une infrastructure de calcul constituée de ressources réparties sur un intranet de façon dynamique. Dans notre contexte, les postes de travail retenus pour le cluster virtuel, principalement sous le système Windows, seront rebootés sous Linux avec un outil tel que ComputeMode [1] et managés par un gestionnaire de ressources comme OAR [2], tout comme l avait envisagé le projet IGGI [5]. Sur ces postes, seules les ressources comme le CPU et la RAM seront utilisées. On considère que la sauvegarde des contextes d exécution des applications s exécutant sur ces postes se fait sur le disque du serveur. Cette dernière considération permet d éviter de sauvegarder localement car le poste pourrait ne plus être disponible le lendemain. Sur des infrastructures de type cluster virtuel, la volatilité des ressources est une des propriétés à prendre en compte. Les postes de travail doivent par exemple être restitués le matin au retour des employés. Il y a donc nécessité d assurer la sauvegarde d un calcul inachevé en vue d une éventuelle reprise. Dans ce cas les mécanismes de checkpointing sont une bonne solution. De nombreux travaux ont été menés sur les techniques de sauvegarde/reprise, ainsi notre objectif n est pas d en développer de nouvelles. En effet nous utilisons les fonctionnalités des systèmes de checkpointing existants pour gérer une panne de façon prévisible (arrêt voulu des machines). Une question à Financé par une bourse du Service de Coopération et d Action Culturelle, Ambassade de France au Cameroun 2 Projet RNTL démarré en 2004 et terminé en janvier 2007

2 laquelle nous essayerons d apporter une réponse est la suivante : A quel moment lancer le processus de sauvegarde des applications inachevées afin que les postes de travail soient disponibles avant 8h par exemple? Nous étudions donc dans cet article les insuffisances du dispositif de sauvegarde afin de pouvoir prédire dynamiquement le temps de sauvegarde du système. La suite de cet article est organisée comme suit. La section 2 décrit quelques mécanismes du checkpointing. Nous présentons à la section 3 quelques expériences qui ont été menées et qui ont conduit à l élaboration du modèle que nous présentons à la section 4. Nous évaluons le modèle à la section 5 et nous concluons en donnant quelques axes pour la suite de ce travail. 2. État de l art Les principaux intérêts du checkpointing dans les environnements de cluster sont la tolérance aux fautes, la préemption, la migration de processus. La tolérance aux fautes des applications est réalisée au moyen de points de reprise périodiques. Cette caractéristique est essentiellement importante pour les applications longues (plusieurs heures voir plusieurs jours d exécution). Dans ces longues périodes d exécution, la probabilité de l occurrence d une panne au niveau matériel, réseau, système d exploitation, ou des applications même, peu être très grande. La sauvegarde régulière des points de reprise vers un support stable est alors une nécessité. La préemption est la procédure qui consiste à stopper temporairement un processus dans le but d allouer les ressources à un autre. La préemption est nécessaire pour implémenter les fonctionnalités principales d un ordonnanceur (priorité, réservation, etc.). La migration de processus est la procédure qui consiste à déplacer un job d un noeud à un autre. Elle est spécialement utile dans le cas de la préemption. Plusieurs travaux de recherche [8, 9, 10, 13] ont contribué à améliorer les performances du checkpointing, en mettant l accent sur la totalité ou une partie des caractéristiques comme la disponibilité, la fiabilité et la maintenabilité des systèmes distribués. Toutefois, la plupart des travaux modélisant le checkpointing considèrent des sauvegardes à intervalles réguliers, sans trop se préoccuper des charges réseau et disque Mécanismes du checkpointing Le checkpointing est la procédure qui consiste à sauvegarder le contexte d exécution d un processus actif dans un fichier sur un support stable. Le fichier ainsi sauvegardé contient toutes les informations nécessaires à la reconstruction du processus à partir de ce point de sauvegarde. Un grand nombre de systèmes de checkpointing libres existent aujourd hui, mais aucun n est encore capable de sauvegarder le contexte de tout type d application. On dénote trois types d implémentation du checkpointing : Checkpointing de niveau système : C est l approche la plus transparente. Dans ce cas, le checkpointing est réalisé au niveau du noyau. L utilisateur n a pas besoin de recompiler son application ou d en rétablir l édition des liens. Cependant cette approche est la moins efficace car le système n a aucune connaissance de la structure de l application. Il fait tout simplement un dump sur la mémoire du processus et l enregistre dans le fichier de checkpoint. Les systèmes émergeant dans ce courant sont CRAK [18], BLCR [4], Cryopid [3]. Checkpointing de niveau bibliothèque : Dans cette approche, l utilisateur doit rétablir l édition des liens avec la bibliothèque pour préparer son code à la sauvegarde. Le checkpointing est réalisé par un envoi de signal à l application. L inconvénient dans cette approche est la recompilation de l application. Dans ce courant, on retrouve plusieurs implémentations comme Libckpt [12], Condor [9]. Checkpointing de niveau application : Réalisé par le programmeur lui-même. Le programmeur implémente des procédures pour effectuer les opérations de sauvegarde/reprise. Cette approche semble être la plus efficace car le programmeur peut décider de sauvegarder juste une partie des données de l application. Cependant elle est la moins transparente et requiert un grand effort de la part du programmeur Performance du checkpointing J. S. Plank et M. G. Thomason [13] ont proposé un modèle dans lequel la disponibilité moyenne A du système est ( une mesure de performance du checkpointing. Ce paramètre donné par la formule mathématique A = ) Ce (I λi e λi ) 1 e λi λe λ(r+l) est maximisé par la détermination d un intervalle I optimal entre deux sauvegardes. I est la fréquence de checkpointing qui minimise les pertes de temps pour

3 une application qui s exécute en présence de pannes. λ est le nombre moyen d apparition des pannes. C est le temps de continuation de l application pendant que la sauvegarde du contexte est en cours. Dans ce modèle, les temps de sauvegarde L et de reprise R sont supposés constants ; ce qui ne cadre pas avec la réalité. En fait leur modèle ne tient pas compte de l espace mémoire occupé par l application, lequel influence considérablement le temps de sauvegarde. E. Imamagic et al. [8] ont proposé une approche pour optimiser les performances du checkpointing en minimisant les temps de sauvegarde des points de reprise et la charge du réseau. Ils considèrent deux intervalles de temps. La plus courte période correspond au temps d exécution entre deux points de reprise qui doivent être sauvegardés localement. La plus longue correspond au temps d exécution entre deux points de reprise qui doivent être sauvegardés sur un support distant. L approche de sauvegarde locale permet ainsi de minimiser la charge du réseau et d accroître la vitesse des sauvegardes. Cette approche est certes efficace, mais elle n est indiquée que pour des clusters dédiés. De plus leur modèle ne prend pas en compte les conflits qui peuvent se présenter pour les accès concurrents au réseau. Dans notre cas, nous étudions la modélisation des performances du checkpointing en tenant compte des contraintes réseau et disque pour minimiser les pertes de temps de sauvegarde, et gagner en temps de calcul. Pour ce faire nous avons mené une série d expériences qui nous ont conduit au modèle présenté par la suite. 3. Experimentations Les expériences menées dans [6] montrent que le temps de sauvegarde est en général influencé par le rapport entre la mémoire virtuelle du processus et la taille de la mémoire RAM, l écriture en local ou à distance. Nous présentons ici quelques unes des expériences que nous avons effectué pour étudier les performances du dispositif de sauvegarde. Pour faire des mesures réalistes, nous considérons que les applications résident complètement en mémoire physique. Plate-forme expérimentale Nos expériences ont été menées sur l infrastructure Grid dans laquelle le gestionnaire de travaux OAR gère les ressources de la grille. Une image a été déployée sur les noeuds réservés, l un des noeuds faisant office de serveur NFS (Network File System). Bien que des extensions de NFS comme ClusterNFS [16] sont en cours d étude pour optimiser ses performances au niveau des opérations de lecture/écriture, le standard NFS demeure largement utilisé dans les environnements de cluster. Les tests ont été menés sur le cluster de Sophia dont les noeuds sont des bi-processeurs AMD Opteron 2GHz, 2Go de RAM, disque dur 80 Go (IDE-amd74xx) dont les débits en moyenne sont 50 Mo/s. Les noeuds sont reliés par un réseau Ethernet gigabit, et partagent le /home (monté en synchrone) du serveur. Codes utilisés Code de calcul multigrilles : développé au sein du laboratoire ID-IMAG 4 pour la résolution des équations aux dérivées partielles. C est une application dont la taille mémoire physique croît considérablement lorsque l on fait accroître le nombre de points sur les grilles. Bench1 : Application synthétique dont toutes les pages de la mémoire physique sont sauvegardées. Système de checkpointing utilisé : BLCR BLCR est un mécanisme de checkpointing de niveau système. Il est basé sur la création d un fichier de point de reprise. Nous avons porté notre intérêt sur BLCR car il permet d établir des points de reprise tant pour les applications séquentielles que parallèles (multithreads). Il peut être couplé à LAM/MPI [15] pour le checkpointing des applications parallèles. Méthodologie Nous avons exécuté en parallèles des applications séquentielles identiques indépendantes sur n noeuds (de 1 à 30), en faisant varier la taille des applications. Au cours de l exécution, un script génère des fichiers de trace comportant le temps et la taille des points de reprise. Les mesures ont été considérées en analysant leur validité statistique (moyenne, écart-type).la moyenne a été le facteur clé Fichier de point de reprise généré par BLCR De nombreux tests effectués avec BLCR nous ont amené à nous intéresser au fichier de point de reprise généré par BLCR. C est un fichier binaire dont la structure ne se trouve pas dans la littérature. Aussi 3 http ://www.grid5000.fr/ 4 devenu LIG (Laboratoire d Informatique de Grenoble)

4 avons-nous modifié BLCR, principalement le module vmadump, uniquement pour tracer l écriture dans le fichier de de point de reprise. Ceci nous a permis de constater que BLCR écrit essentiellement et alternativement des blocs de taille la longueur des entêtes des pages mémoires et la taille de ces pages (resp. 4octects et 4Ko pour notre Système d Exploitation), pour les pages de la mémoire mappée du processus qui ont été modifiées au moins une fois. Nous avons émulé BLCR par un programme qui écrit des blocs dans un fichier comme le fait BLCR. Les figures 1 et 2 montrent les résultats obtenus pour une sauvegarde en local et à distance. Dans les deux cas, l écart entre les temps de sauvegarde avec BLCR et par émulation est de l ordre du centième de seconde. Ceci montre que le surcoût pris par BLCR pour traiter les pages est négligeable. Ce test nous a conduit à considérer la mémoire physique du processus comme un paramètre pour notre modélisation. FIG. 1 Temps de sauvegarde du code de FIG. 2 Temps de sauvegarde du code de calcul multigrilles avec BLCR et par émulation de BLCR, en local lation de BLCR, à calcul multigrilles avec BLCR et par ému- distance 3.2. Evolution de la bande passante La figure 3 montre l évolution de la bande passante utilisée en fonction du nombre de nœuds pour différentes tailles du code de calcul multigrilles. On constate que toutes ces courbes ont des allures paraboliques et présentent des pics. La concavité de ces courbes montre qu avant le pic, le réseau n est pas surchargé et que le disque tient la charge. Après les pics, la diminution de la bande passante utilisée indique des pertes de performance du dispositif de sauvegarde. Ceci peut être dû à la latence au niveau du disque et au système de fichier NFS qui perd en performance lorsque le nombre de clients croît. FIG. 3 Bande passante utilisée en fonction du nombre de nœuds selon la taille des applications Les expériences que nous avons menées nous ont permis de constater que la sauvegarde du contexte d une application est fortement influencée par la taille de la mémoire allouée à cette application. De plus, lors du checkpointing de plusieurs applications séquentielles indépendantes se partageant le réseau et le disque de sauvegarde, la courbe donnant la bande passante utilisée croît et décroît, en fonction du nombre de processus et de leur taille agrégée. Lorsque cette courbe décroît, cela traduit des pertes de performances, mais on ne saurait dire si cela est dû au réseau ou au support de sauvegarde. Cela nous a conduit à adopter la modélisation présentée à la section suivante.

5 4. Modélisation On considère p applications séquentielles indépendantes en cours d exécution dans un intranet, une application par nœud. On voudrait les sauvegarder avant un délai. Les sauvegardes doivent se faire sur le disque du serveur. A quel moment donc lancer les sauvegardes? Compte tenu des contraintes précédemment mentionnées, on sait qu on ne peut pas les sauvegarder toutes à la fois. La solution est donc de déterminer dans un premier temps le nombre n < p de processus que l on peut sauvegarder simultanément de tel sorte que le réseau et le disque tiennent la charge (on confondra nœud et application sans nuire à la généralité). Ensuite ordonnancer les sauvegardes pour prédire le temps de sauvegarde du système. Pour ce faire, on suppose que les applications sont suffisamment longues, qu elles résident entièrement en mémoire physique et que leurs tailles ne varient plus (du moins de plus d un Mo, ce qui pourrait encore être considéré comme erreur de mesure) dès le début de la prédiction Approche NFS effectue habituellement des lectures/écritures de blocks de taille 8Ko. Or nous avons montré à la section 3.1 que certains blocks écrits par BLCR sont de taille très inférieure à 8Ko. Lors de la sauvegarde il est donc difficile de savoir si les blocs sont immédiatement écrits sur disque ou s ils sont d abord mis en cache par NFS. De plus NFS perd en performance [11, 17] avec la croissance du nombre de clients. Compte tenu de ces contraintes, il est très difficile de déterminer séparément l impact du réseau, des bus et du disque sur les performances du checkpointing. Nous avons donc procédé par une analyse de l évolution de la bande passante utilisée. Compte tenu de l allure parabolique des courbes de la figure 3 donnant les débits en fonction du nombre de nœuds pour chaque taille considérée, nous avons approximé de façon satisfaisante chaque bande passante par une fonction polynomiale de la forme g(n) = αn 2 + βn + γ (1) En regroupant les mesures dans le tableau de la figure 4, on constate que plus les tailles des applications sont petites, plus le nombre maximal de processus que l on peut sauvegarder simultanément est grand, ainsi que la bande passante utilisée, pendant que la taille agrégée reste la plus petite. FIG. 4 Récapitulatif des mesures effectuées pour les bandes passantes maximales FIG. 5 Bande passante utilisée en fonction de la taille agrégée pour les nombres de nœuds sur les pics Au vu de la concavité de la courbe de la figure 5, nous avons donc approximé la fonction donnant la bande passante utilisée en fonction de la taille agrégée, par une fonction polynomiale de la forme h(t) = λt 2 + ν (2) le coefficient du monôme de premier degré en T s étant avéré quasiment nul Le modèle Ainsi, pour une taille t fixée, la bande passante utilisée peut s écrire comme une fonction du nombre de nœuds n (équation (1)). De même pour n fixé, la bande passante utilisée peut s exprimer comme une fonction de la taille agrégée des applications (équation (2)). De ce qui précède, nous déduisons une modélisation de la bande passante en fonction du nombre de nœuds n et de la taille agrégée T des applications par une approximation polynomiale : ϕ(n, T) = an 2 T 2 + bn 2 + ct 2 + dn + e

6 où les coefficients a, b, c, d, e sont déterminés par la méthode des moindres carrés comme suit : Soit l expression y = ϕ(n, T) de la bande passante utilisée, soit à minimiser la fonction ψ(a, b, c, d, e) = r s i ( yij an 2 ijtj 2 bn 2 ij ctj 2 dn ij e ) 2 i=1 j=1 où r est le nombre de tailles utilisées s i le nombre de mesures dans la taille t i n ij le nombre de noeuds dans la taille t i à chaque mesure j y ij les bandes passantes utilisées mesurées T i la taille agrégée obtenue à partir du pic de la courbe donnant la bande passante utilisée pour les applications de taille t i. Les coefficients a, b, c, d, e sont donc obtenus en résolvant les équations aux dérivées partielles : ψ = 0, ω {a, b, c, d, e} ω La fonction ϕ(n, T) donnant la bande passante utilisée est dès lors entièrement déterminée. Compte tenu de sa concavité, le nombre de nœuds n optimal qui rend ϕ(n, T) maximal est tel que : soit V k la taille agrégée des k applications considérées, n < n optimal, ϕ(n, V n ) < ϕ(n optimal, V noptimal ) n > n optimal, ϕ(n, V n ) < ϕ(n optimal, V noptimal ) L algorithme de calcul de n optimal repose sur ces deux propriétés. Une fois n optimal déterminé, on peut partager la bande passante entre les nœuds. Le temps estimé pour la sauvegarde d une application de taille t i, est alors t i / [ ϕ(n optimal, V noptimal )/n optimal ] On peut maintenant ordonnancer les sauvegardes. L algorithme de prédiction du temps global de sauvegarde du contexte des applications est basé sur le principe du list scheduling [7]. Ici les tâches sont les sauvegardes à effectuer. Le schéma général de l algorithme est le suivant : Trier la liste des p applications suivant les tailles décroissantes Calculer la bande passante par nœud pour les premières applications Lancer la sauvegarde des premières applications tantque cardinal {Applications_sauvegardées} < p faire si fin d une sauvegarde ou d un groupe de sauvegardes alors Noter les temps de complétion si cardinal {{Sauvegarde_en_cours} {Applications_non_encore_sauvegardées}} < n optimal alors Recalculer la bande passante fin si Lancer autant de nouvelles sauvegardes (s il en reste encore) que d achevées fin si fin tantque temps_estimé = max{temps_de_complétion} FIG. 6 Schéma de l algorithme de prédiction du temps de sauvegarde de p applications séquentielles Connaissant le temps estimé, on peut dès lors savoir à quel moment lancer le début des sauvegardes pour arrêter avant un certain délai. 5. Evaluation Pour valider notre modèle, nous comparons les temps de sauvegarde prédits aux temps mesurés. Pour obtenir les mesures, nous avons implémenté un ordonnanceur calqué sur l algorithme de prédiction. L application exécutée par chaque nœud et qui doit être sauvegardée est le code Bench1 mentionné

7 plus haut. Le programme de test, dont le fonctionnement est illustré à la figure 7, est une application client/serveur multithreads basée sur le modèle «un thread par client accepté» [14]. FIG. 7 Schéma du programme de validation L application serveur est démarrée sur le nœud faisant office de serveur NFS. Le module Lancement indique aux nœuds clients d exécuter l application Bench1 avec la taille spécifiée. Chaque client reçoit l ordre de lancement et crée un processus fils dont le contexte d exécution est remplacé par celui de l application qu il exécute en la préparant à la sauvegarde avec BLCR. Ceci permet à l application cliente d obtenir le PID du processus à sauvegarder. Le module Lancement communique les tailles des applications aux modules Prédiction et Ordonnancement. Le module Prédiction détermine n optimal et calcule le temps estimé pour la sauvegarde, puis communique n optimal au module Ordonnancement qui déclanche le lancement des sauvegardes. Dès qu une sauvegarde est achevée, celle du prochain processus dans la liste des applications à sauvegarder est lancée. Les temps estimés et mesurés sont enregistrés dans des fichiers de trace. Les figures 8,9,10 et 11 montrent les résultats obtenus sur quatre tests différents. FIG. 8 Temps de sauvegarde mesuré et prédit. Taille des applications suré et prédit. Taille des applications FIG. 9 Temps de sauvegarde me- 10 Mo. n optimal = Mo. n optimal = 14 FIG. 10 Temps de sauvegarde mesuré et prédit. Taille des applications suré et prédit. Taille des applications FIG. 11 Temps de sauvegarde me- 100 Mo. n optimal = Mo. n optimal = 7 On constate dans les différentes figures que les courbes des temps mesurés et prédits varient de façon comparable, et que le module de prédiction parvient à prédire le temps de complétion avec une erreur maximale inférieure à 25% et une erreur minimale autour de 2%.

8 6. Conclusion Nous avons mené un grand nombre d expérimentations qui nous on conduit dans ce travail à présenter un modèle permettant de déterminer les performances du dispositif de sauvegarde pour le checkpointing de plusieurs applications séquentielles indépendantes dans un cluster virtuel. Cela a permis ensuite de proposer un algorithme basé sur le List Scheduling pour prédire dynamiquement le temps de complétion des sauvegardes. Ce travail intéresserait un gestionnaire de travaux comme OAR qui peut être amené à préempter des jobs pour diverses raisons. Le modèle a certes été établi sur une architecture déterminée, mais il peut être une piste pour des études sur d autres architectures. Nous comptons étendre ce travail au niveau de la sauvegarde du contexte d exécution des applications parallèles, où en plus des contraintes liées à la concurrence des accès réseau et disque, il va falloir tenir compte de la synchronisation entre les processus, pour estimer le temps de sauvegarde du système. L intégration des modèles de communications concurrentes existants sera intéressant. Bibliographie 1. http ://www.icatis.com. 2. N. Capit, G. Da Costa, Y. Georgiou, G. Huard, C. Martin, G. Mounié, P. Neyron, and O. Richard. A batch scheduler with high level components. In Proceedings of Cluster Computing and Grid (CCGRID), Mai Cryopid. CryoPID : A Process Freezer for Linux. http ://cryopid.berlios.de, J. Duell, P. Hargrove, and E. Roman. The design and implementation of berkeley lab s linux checkpoint/restart. Technical Report Berkeley Lab LBNL-54941, November F. Dupros, F. Boulahya, J. Vairon, P. Lombard, N. Capit, and J-F. Méhaut. IGGI, a computing framework for large scale parametric simulations : application to uncertainty analysis with toughreact. In In Proceedings, Tough Symposium, F. Dupros and A. Carissimi. Sauvegarde et reprise d applications parallèles dans le cadre d un intranet. Ren- Par 17 / SympAAA 2006 / CFSE 5 / JC 2006 Canet en Roussillon, 4 au 6 octobre L.A. Hall, D.B. Shmoys, and J. Wein. Scheduling to minimise average completion time : off-line and on-line algorithms. Proc. of the Sixth ACM-SIAM Symposium on Discrete Algorithm, January E. Imamagic, D. D. Zagar, and B. Radic. Checkpointing approach for computer clusters. IIS, M. Litzkow, T. Tannenbauw, J. Basney, and M. Livny. Checkpoint and migration of unix process in the condor distributed processing system. Technical Report CS-TR , University of Wisconsin, Madison, Apr J-M. Nlong and Y. Denneulin. Migration des processus linux sous i-cluster. RENPAR 15 / CFSE 3 / SympAAA La Colle sur Loup, France, 15 au 17 octobre T. Olivares, L. Orozco-Barbosa, F. Quiles, A. Garrido, and P.J. Garcia. Performance study on nfs over myrinetbased clusters for parallel multimedia applications. TIC, J.S. Plank, M. Beck, G. Kingsley, and K. Li. Libckpt : Transparent checkpointing under unix. In Proceedings of the 1995 Winter USENIX Technical Conference, J.S. Plank and M. G. Thomason. The average availability of uniprocessor systems, revisited. Technical Report UT-CS , Departement of Computer Science, University of Tenesse, August W. Richard Stevens. Unix Network Programming, volume 1. Prentice Hall PTR, second edition, S. Sankaran, J. M. Squyres, B. Barrett, and A. Lumsdaine. The lam/mpi checkpoint/restart framework : Systeminitiated checkpointing. Proceedings, LACSI Symposium, October R. Tang, J. Xiong, J. Ma, and D. Meng. A new way to high performance nfs for clusters. Proceedings of the Sixth International Conference on Parallel and Distributed Computing, Applications and Technologies (PDCAT 05). IEEE, T. Sterling W. Gropp, E. Lusk. Beowulf Cluster Computing with Linux H. Zhong and J. Nieh. CRAK : Linux Checkpoint/Restart as a Kernel Module. Technical Report CUCS , Department of Computer Science, Columbia University, November 2001.

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information Projet IGGI Infrastructure pour Grappe, Grille et Intranet CASCIMODOT - Novembre 2005 Fabrice Dupros CONTEXTE > Etablissement Public à caractère Industriel et Commercial (EPIC) Sous la tutelle des Ministères

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Clusters for Application Service Providers. T. Monteil, J.M. Garcia P. Pascal, S. Richard

Clusters for Application Service Providers. T. Monteil, J.M. Garcia P. Pascal, S. Richard Clusters for Application Service Providers (www.laas.fr/casp) T. Monteil, J.M. Garcia P. Pascal, S. Richard 1 Généralités Le monde du calcul dans un environnement ASP Les ASP : Application Service Provider

Plus en détail

Exploiter un calculateur ou un cluster de calcul: Les gestionnaires de tâches et de ressources

Exploiter un calculateur ou un cluster de calcul: Les gestionnaires de tâches et de ressources Exploiter un calculateur ou un cluster de calcul: Les gestionnaires de tâches et de ressources Olivier Richard Laboratoire d Informatique de Grenoble (LIG) Projet INRIA Mescal 13 septembre 2007 Olivier

Plus en détail

Une Plate-forme d Émulation Légère pour Étudier les Systèmes Pair-à-Pair

Une Plate-forme d Émulation Légère pour Étudier les Systèmes Pair-à-Pair Une Plate-forme d Émulation Légère pour Étudier les Systèmes Pair-à-Pair Lucas Nussbaum Laboratoire Informatique et Distribution Laboratoire ID-IMAG Projet MESCAL RenPar 17 Lucas Nussbaum Émulation légère

Plus en détail

aioli: gestion des Entrées/Sorties parallèles dans les grappes SMPs

aioli: gestion des Entrées/Sorties parallèles dans les grappes SMPs RENPAR 6 / CFSE / SympAAA 2005 / Journes Composants Le Croisic, France, 5 au avril 2005 aioli: gestion des Entrées/Sorties parallèles dans les grappes SMPs Adrien Lebre, Yves Denneulin Laboratoire Informatique

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Séminaire Aristote : présentation du logiciel ComputeMode. Philippe Augerat

Séminaire Aristote : présentation du logiciel ComputeMode. Philippe Augerat Séminaire Aristote : présentation du logiciel ComputeMode Philippe Augerat 16 septembre 2004 la société ICATIS! SAS créée le 28 janvier 2004 avec un capital de 37 k euros! Issue du Laboratoire Informatique

Plus en détail

Les conteneurs : une approche générique pour la conception d un système à image unique

Les conteneurs : une approche générique pour la conception d un système à image unique RENPAR 14 / ASF / SYMPA Hamamet, Tunisie, 10 13 avril 2002 Les conteneurs : une approche générique pour la conception d un système à image unique Renaud Lottiaux, projet PARIS IRISA/INRIA, Campus universitaire

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Evaluation des performances de programmes parallèles haut niveau à base de squelettes Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,

Plus en détail

Introduction à la Recherche en Laboratoire

Introduction à la Recherche en Laboratoire Introduction à la Recherche en Laboratoire Transferts de données pour le vol de travail Tristan Darricau tristan.darricau@ensimag.grenoble-inp.fr 26 mai 2014 Grenoble INP - ENSIMAG Ecadrement Frédéric

Plus en détail

La gestion des processus

La gestion des processus La gestion des processus Processus Un processus est un programme en cours d exécution. - Un programme est une suite d instructions ; c est du texte, un code statique. - Le processus est un concept dynamique,

Plus en détail

Table des matières. Cours Système d Exploitation. Chapitre II : Gestion des processus

Table des matières. Cours Système d Exploitation. Chapitre II : Gestion des processus Chapitre II : Gestion des processus Table des matières I Processus et contexte d un processus 2 II État d un processus 3 III Système d exploitation multi-tâches et parallélisme 3 IV Problèmes dues au multi-tâches

Plus en détail

Les systèmes RAID Architecture des ordinateurs

Les systèmes RAID Architecture des ordinateurs METAIS Cédric 2 ème année Informatique et réseaux Les systèmes RAID Architecture des ordinateurs Cédric METAIS ISMRa - 1 - LES DIFFERENTS SYSTEMES RAID SOMMAIRE INTRODUCTION I LES DIFFERENTS RAID I.1 Le

Plus en détail

Systèmes de fichiers distribués : comparaison de GlusterFS, MooseFS et Ceph avec déploiement sur la grille de calcul Grid 5000.

Systèmes de fichiers distribués : comparaison de GlusterFS, MooseFS et Ceph avec déploiement sur la grille de calcul Grid 5000. : comparaison de, et avec déploiement sur la grille de calcul Grid 5000. JF. Garcia, F. Lévigne, M. Douheret, V. Claudel 30 mars 2011 1/34 Table des Matières 1 2 3 4 5 6 7 1/34 Présentation du sujet Présentation

Plus en détail

Grid'5000. Principes et utilisations. Olivier Richard Labo ID-IMAG / Equipe INRIA MESCAL

Grid'5000. Principes et utilisations. Olivier Richard Labo ID-IMAG / Equipe INRIA MESCAL Grid'5000 Principes et utilisations Olivier Richard Labo ID-IMAG / Equipe INRIA MESCAL Objectif: Etendre le champ du possible Computing As You Want! Cluster in Cluster Grid in Cluster Grid in Grid Cluster

Plus en détail

Conception d une ferme de calculs pour la plateforme bioinformatique ATGC. Stéphane GEORGE - Josy ASR pour la science le 14/10/2010 -

Conception d une ferme de calculs pour la plateforme bioinformatique ATGC. Stéphane GEORGE - Josy ASR pour la science le 14/10/2010 - Conception d une ferme de calculs pour la plateforme bioinformatique ATGC Stéphane GEORGE - Josy ASR pour la le 14/10/2010 - Plan 1] Contexte 2] Problématique 3] Solution proposée 4] Bilans et perspectives

Plus en détail

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines Évolution de la puissance des machines Accélération Système pour architectures multicœurs Évolution Traditionnelle des mono-processeurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques

Plus en détail

Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI

Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI Responsable Service Informatique Ingénieure Systèmes & Réseaux Ingénieur High Performance Computing

Plus en détail

ComputeMode : transformer une

ComputeMode : transformer une ComputeMode : transformer une salle de PC Windows en cluster Linux Philippe Augerat CASCIMODOT 19 novembre 2004 la société ICATIS! SAS créée le 28 janvier 2004 avec un capital de 37 Ke! Issue du Laboratoire

Plus en détail

Programmation C. Apprendre à développer des programmes simples dans le langage C

Programmation C. Apprendre à développer des programmes simples dans le langage C Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités

Plus en détail

Module 4 - Ordonnancement Processus. Lecture: Chapitre 5

Module 4 - Ordonnancement Processus. Lecture: Chapitre 5 Module 4 - Ordonnancement Processus Lecture: Chapitre 5 1 Aperçu du module Concepts de base Critères d ordonnancement Algorithmes d ordonnancement Ordonnancement de multiprocesseurs Évaluation d algorithmes

Plus en détail

Contribution à la mise en service d'une ferme de serveurs connectée à une grille de calcul pour la physique des hautes énergies

Contribution à la mise en service d'une ferme de serveurs connectée à une grille de calcul pour la physique des hautes énergies Contribution à la mise en service d'une ferme de serveurs connectée à une grille de calcul pour la physique des hautes énergies Charlier Fabrice 2è licence en informatique Année Académique 2005-2006 Plan

Plus en détail

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Communications performantes par passage de message entre machines virtuelles co-hébergées

Communications performantes par passage de message entre machines virtuelles co-hébergées Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Gestion du processeur central

Gestion du processeur central Chapitre II Gestion du processeur central 1. Introduction Evolution des systèmes informatiques 1.1- Premier système : Le programmeur/opérateur doit écrire un programme ensuite le faire fonctionner directement

Plus en détail

Que souhaitent les Administrateurs Système?

Que souhaitent les Administrateurs Système? WORLDINTERPLUS Que souhaitent les Administrateurs Système? Contrôle Maniabilité Gestion de la Configuration du Système en mode réseau ou déconnecté «online / offline» Maintenir les standards de configuration

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Programmation Système des Multicœurs

Programmation Système des Multicœurs Évolution de la puissance des machines Programmation Système des Multicœurs Gaël Thomas gael.thomas@lip6.fr Accélération Évolution Traditionnelle des mono-processeurs Université Pierre et Marie Curie Master

Plus en détail

Eric Bertrand ebertrand@ixis-cib.com. 08/11/06 Maître de conférence 1

Eric Bertrand ebertrand@ixis-cib.com. 08/11/06 Maître de conférence 1 Calcul parallèle des options MC. Eric Bertrand ebertrand@ixis-cib.com 1 Plan Contexte du calcul parallèle Qualités requises Architecture Outillage Problèmes rencontrés perspectives 2 Contexte du calcul

Plus en détail

CLIC Cluster LInux pour le Calcul

CLIC Cluster LInux pour le Calcul CLIC Cluster LInux pour le Calcul http://clic.mandrakesoft.com Wilfrid Billot (@imag.fr) ID-IMAG Projet Apache http://www-id.imag.fr Plan ¾ Introduction à CLIC ¾ CLIC et les clusters ¾ Ce qui existe déjà

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDTM Table des matières 1. Objet du projet... 3 2.

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Chapitre 1 Architecture des calculateurs 1.1 Introduction Ce paragraphe n a pas la prétention de présenter un cours d informatique. D une manière générale, seuls les caractéristiques architecturales qui

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Chap. III : Le système d exploitation

Chap. III : Le système d exploitation UMR 7030 - Université Paris 13 - Institut Galilée Cours Architecture et Système Le système d exploitation (ou O.S. de l anglais Operating System ) d un ordinateur est le programme qui permet d accéder

Plus en détail

Cours Systèmes d exploitation 1

Cours Systèmes d exploitation 1 Cours Systèmes d exploitation 1 Achraf Othman Support du cours : www.achrafothman.net 1 Plan du cours Chapitre 1 : Gestion des processus Chapitre 2 : Ordonnancement des processus Chapitre 3 : La communication

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

Clusters de PCs Linux

Clusters de PCs Linux Clusters de PCs Linux Benoit DELAUNAY delaunay@in2p3.fr Centre de Calcul de l'in2p3 Plan Historique PC au CCIN2P3. Une première étape. Une réponse à la demande. Une véritable orientation. La place des

Plus en détail

LA GESTION DE FICHIERS

LA GESTION DE FICHIERS CHAPITRE 6 : LA GESTION DE FICHIERS Objectifs spécifiques Connaître la notion de fichier, ses caractéristiques Connaître la notion de répertoires et partitions Connaître les différentes stratégies d allocation

Plus en détail

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,

Plus en détail

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES Cours Administration des Bases de données M Salhi Architectures des Système de base de données Systèmes centralisés et client-serveur Server System Architectures

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

Conception d un Simulateur de Grilles Orienté Gestion d'équilibrage

Conception d un Simulateur de Grilles Orienté Gestion d'équilibrage Conception d un Simulateur de Grilles Orienté Gestion d'équilibrage Fatima Kalfadj 1, Yagoubi Belabbas 2 et Meriem Meddeber 2 1 Université de Mascara, Faculté des Sciences, Département d Informatique,

Plus en détail

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience 29 mars 2002 Olivier BOEBION - Laboratoire de Mathématiques et de Physique Théorique - Tours 1 Principes

Plus en détail

Introduction à Grid'5000

Introduction à Grid'5000 A Nation Wide Experimental Grid Introduction à Grid'5000 ou de la dure réalité des grilles Olivier Richard (MdC UJF) CT/CP Grenoble Laboratory ID-IMAG / MESCAL Projet INRIA Sommaire! Rappels! Champ du

Plus en détail

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus.

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus. GESTION DE LA MEMOIRE SOUS UNIX La mémoire est une ressource critique car elle conditionne les temps de traitements. Différentes options SAS sont disponibles pour utiliser au mieux la mémoire de la machine.

Plus en détail

HAUTE PERFORMANCE DE CALCUL

HAUTE PERFORMANCE DE CALCUL Journées d études 2010 Modélisation actif-passif & HAUTE PERFORMANCE DE CALCUL FRACTALES 0 Journées d études 2010 Sommaire Projet SIGMA 1 ère partie 1.! Le printemps des modèles Applications Haute Performance

Plus en détail

Besoin de concevoir des systèmes massivement répartis. Comment tester le système? Solution. Évaluation de systèmes répartis à large échelle

Besoin de concevoir des systèmes massivement répartis. Comment tester le système? Solution. Évaluation de systèmes répartis à large échelle Besoin de concevoir des systèmes massivement répartis. Évaluation de systèmes répartis à large échelle Sergey Legtchenko Motivation : LIP6-INRIA Tolérance aux pannes Stockage de données critiques Coût

Plus en détail

Mémoire virtuelle. Généralités

Mémoire virtuelle. Généralités Mémoire virtuelle Généralités La pagination pure - Conversion d adresses virtuelles en adresses physiques - Table des pages à plusieurs niveau et table inversée - Algorithmes de remplacement de page -

Plus en détail

GEL 1001 Design I (méthodologie)

GEL 1001 Design I (méthodologie) GEL 1001 Design I (méthodologie) Technique 2 Systèmes embarqués et fiabilité Hiver 2013 Département de génie électrique et de génie informatique Plan Système embarqué Ordinateur et architecture Von Neumann

Plus en détail

«clustering» et «load balancing» avec Zope et ZEO

«clustering» et «load balancing» avec Zope et ZEO IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4

Plus en détail

Gestion dynamique des tâches dans les grappes

Gestion dynamique des tâches dans les grappes Gestion dynamique des tâches dans les grappes une approche à base de machines virtuelles Fabien Hermenier Équipe ASCOLA, École des Mines de Nantes 26 novembre 2009 Fabien Hermenier (ASCOLA) Gestion dynamique

Plus en détail

cluster pour l Enseignement Universitaire et la Recherche

cluster pour l Enseignement Universitaire et la Recherche cluster pour l Enseignement Universitaire et la Recherche Université de Nice Sophia-Antipolis 22 janvier 2013 Université de Nice Sophia-Antipolis cluster pour l Enseignement Universitaire et la Recherche

Plus en détail

CAHIER DES CHARGES D IMPLANTATION

CAHIER DES CHARGES D IMPLANTATION CAHIER DES CHARGES D IMPLANTATION Tableau de diffusion du document Document : Cahier des Charges d Implantation EVRP Version 6 Etabli par DCSI Vérifié par Validé par Destinataires Pour information Création

Plus en détail

Manuel de System Monitor

Manuel de System Monitor Chris Schlaeger John Tapsell Chris Schlaeger Tobias Koenig Traduction française : Yves Dessertine Traduction française : Philippe Guilbert Traduction française : Robin Guitton Relecture de la documentation

Plus en détail

Laboratoire ID-IMAG INRIA Rhône-Alpes Grenoble. http://moais.imag.fr

Laboratoire ID-IMAG INRIA Rhône-Alpes Grenoble. http://moais.imag.fr Laboratoire ID-IMAG INRIA Rhône-Alpes Grenoble http://moais.imag.fr 1 2 Personnel Permanents (7) : Vincent Danjean [MdC UJF] Thierry Gautier [CR INRIA] Guillaume Huard [MdC UJF] Grégory Mounié [MdC INPG]

Plus en détail

Projet ViSaGe : implémentation de l administration et du monitoring de ViSaGe (Virtualisation du Stockage appliquée aux Grilles informatiques)

Projet ViSaGe : implémentation de l administration et du monitoring de ViSaGe (Virtualisation du Stockage appliquée aux Grilles informatiques) RenPar 18/ SympA 2008 / CFSE 6 / JC 2008 Fribourg en Suisse, 11 au 13 février 2008 Projet ViSaGe : implémentation de l administration et du monitoring de ViSaGe (Virtualisation du Stockage appliquée aux

Plus en détail

RAPPORT DE STAGE Calcul parallèle sur GPU

RAPPORT DE STAGE Calcul parallèle sur GPU Université Joseph Fourier Département Licence Sciences & Technologie RAPPORT DE STAGE Calcul parallèle sur GPU D Aguanno Carlotta Laboratoire d accueil : INRIA Directeur du laboratoire : GROS Patrick Responsable

Plus en détail

Sauvegarde des données au LAAS

Sauvegarde des données au LAAS Sauvegarde des données au LAAS Laurent Blain, LAAS-CNRS 1 Configuration Technique 1 Serveur de sauvegarde connecté à une bibliothèque de bandes 1 bibliothèque Qualstar 88132 3 lecteurs LTO-2 100 bandes

Plus en détail

Optimisation des performances du programme mpiblast pour la parallélisation sur grille de calcul

Optimisation des performances du programme mpiblast pour la parallélisation sur grille de calcul Optimisation des performances du programme mpiblast pour la parallélisation sur grille de calcul Mohieddine MISSAOUI * Rapport de Recherche LIMOS/RR-06-10 20 novembre 2006 * Contact : missaoui@isima.fr

Plus en détail

Chapitre IV : La gestion du processeur Mécanismes d ordonnancement

Chapitre IV : La gestion du processeur Mécanismes d ordonnancement Chapitre IV : La gestion du processeur Mécanismes d ordonnancement Eric.Leclercq@u-bourgogne.fr Département IEM http://ufrsciencestech.u-bourgogne.fr http://ludique.u-bourgogne.fr/~leclercq 1 er mars 2007

Plus en détail

Conseils et astuces pour un déploiement réussi de la solution VMware Mirage

Conseils et astuces pour un déploiement réussi de la solution VMware Mirage Conseils et astuces pour un déploiement réussi de la solution VMware Mirage Entrez le nom de l animateur ici 2014 VMware Inc. Tous droits réservés. Sommaire 1 Qu est-ce que VMware Mirage? 2 Quelles sont

Plus en détail

VMware. Pourquoi Virtualiser? Une partie de l offre VMware Fonctionnalités. Virtual Infrastructure 3.0 (déclinaisons) VMware : Prix

VMware. Pourquoi Virtualiser? Une partie de l offre VMware Fonctionnalités. Virtual Infrastructure 3.0 (déclinaisons) VMware : Prix VMware Pourquoi Virtualiser? Une partie de l offre VMware Fonctionnalités Clusters, pools de ressources, Vmotion ; DRS ; HA Virtual Infrastructure 3.0 (déclinaisons) VMware : Prix Pourquoi Virtualiser?

Plus en détail

La tête dans les nuages

La tête dans les nuages 19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions

Plus en détail

Présentation de Citrix XenServer

Présentation de Citrix XenServer Présentation de Citrix XenServer Indexes Introduction... 2 Les prérequis et support de Xenserver 6 :... 2 Les exigences du système XenCenter... 3 Avantages de l'utilisation XenServer... 4 Administration

Plus en détail

Leçon 1 : Les principaux composants d un ordinateur

Leçon 1 : Les principaux composants d un ordinateur Chapitre 2 Architecture d un ordinateur Leçon 1 : Les principaux composants d un ordinateur Les objectifs : o Identifier les principaux composants d un micro-ordinateur. o Connaître les caractéristiques

Plus en détail

Intégration d un mécanisme de reprise d applications parallèles dans un système d exploitation pour grappe

Intégration d un mécanisme de reprise d applications parallèles dans un système d exploitation pour grappe Institut de Formation Supérieur en Informatique et Communication Université de Rennes 1 Campus de Beaulieu 35042 RENNES Institut de Recherche en Informatique et Systèmes Aléatoires Campus Universitaire

Plus en détail

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

Cluster. Une introduction aux architectures systèmes distribuées. Université de Haute Alsace Octobre 2003

Cluster. Une introduction aux architectures systèmes distribuées. Université de Haute Alsace Octobre 2003 Cluster Une introduction aux architectures systèmes distribuées Université de Haute Alsace Octobre 2003 Plan Généralisation Technique Introduction Applications $$$ Définition Questions? Idées Plan Plan

Plus en détail

Les moyens de calcul scientifique du CNES architecture et outils

Les moyens de calcul scientifique du CNES architecture et outils Les moyens de calcul scientifique du CNES architecture et outils JOSY, 13 septembre 2007 Le CNES en bref... Le CNES est un EPIC. Il propose et met en oeuvre la politique spatiale de la France, au service

Plus en détail

Conception des systèmes répartis

Conception des systèmes répartis Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan

Plus en détail

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services 69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard

Plus en détail

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service 10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore

Plus en détail

La continuité de service

La continuité de service La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici

Plus en détail

HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES. Simple & Performant. www.quick software line.com

HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES. Simple & Performant. www.quick software line.com HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES Haute disponibilité pour Serveurs Ouverts (Windows, UNIX, AIX, Linux, VMware (Windows, UNIX, AIX, Linux, VMware ) Généralités Quelques définitions

Plus en détail

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1

Plus en détail

CHAPITRE 4: RAID (Redundant Array of Independant / Inexpensive Disks)

CHAPITRE 4: RAID (Redundant Array of Independant / Inexpensive Disks) CHAPITRE 4: RAID (Redundant Array of Independant / Inexpensive Disks) Le system RAID peut être Matériel ou Logiciel I. RAID 0 : Volume agrégé par bandes (Striping) On a un fichier découpé en plusieurs

Plus en détail

1 - Oracle Fusion Middleware concepts

1 - Oracle Fusion Middleware concepts 1 - Oracle Fusion Middleware concepts 1 Concepts : OFM Fournit 2 types de composants : - composants Java déployés comme applications java EE et un ensemble de ressources. Les composants java sont déployés

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

Calcul Haute Performance avec OpenTURNS

Calcul Haute Performance avec OpenTURNS Calcul Haute Performance avec OpenTURNS Renaud Barate EDF R&D Workshop du GdR MASCOT-NUM «Quantification d incertitude et calcul intensif» 28 Mars 2013 Sommaire Présentation du logiciel OpenTURNS Problématiques

Plus en détail

Rééquilibrage de charge en-ligne bi-critère

Rééquilibrage de charge en-ligne bi-critère RenPar 18 / SympA 2008 / CFSE 6 Fribourg, Suisse, du 11 au 13 février 2008 Rééquilibrage de charge en-ligne bi-critère Matthieu Pérotin, Patrick Martineau & Carl Esswein Université François Rabelais, Labortoire

Plus en détail

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES 1 DECOUVERTE DE LA VIRTUALISATION... 2 1.1 1.2 CONCEPTS, PRINCIPES...2 UTILISATION...2 1.2.1 Formation...2

Plus en détail

La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience. Rodérick Petetin CRI INSA Rennes

La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience. Rodérick Petetin CRI INSA Rennes La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience Rodérick Petetin CRI INSA Rennes Virtualisation VMWare Le contexte INSA Rennes Objectifs du projet Travail préparatoire Architecture

Plus en détail

Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription

Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Présentée par Leila Abidi Sous la direction de Mohamed Jemni & Christophe Cérin Plan Contexte Problématique Objectifs

Plus en détail

LIVRE BLANC Accès ininterrompu à des

LIVRE BLANC Accès ininterrompu à des LIVRE BLANC LIVRE BLANC Accès ininterrompu à des volumes de cluster partagés à mise en miroir synchrone sur des sites métropolitains actifs La prise en charge des clusters de basculement sous Windows Server

Plus en détail

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation Base de données S. Lèbre slebre@unistra.fr Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :

Plus en détail

Shaman-X projet de de logiciel libre Plan de de secours informatique

Shaman-X projet de de logiciel libre Plan de de secours informatique Shaman-X projet de de logiciel libre Plan de de secours informatique Nouvelles fonctionnalités à moindre coût pour la haute disponibilité, la tolérance au désastre et la gestion de crise Auteur: Dominique

Plus en détail

Systèmes d Exploitation Gestion des processus

Systèmes d Exploitation Gestion des processus Systèmes d Exploitation Gestion des processus Didier Verna didier@lrde.epita.fr http://www.lrde.epita.fr/ didier Version 2@1.6 6 décembre 2004 Table des matières Table des matières Généralités... 3 États

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

Systèmes temps réel Concepts de base. Richard Grisel Professeur des Universités Université de Rouen

Systèmes temps réel Concepts de base. Richard Grisel Professeur des Universités Université de Rouen Systèmes temps réel Concepts de base Richard Grisel Professeur des Universités Université de Rouen 1 Systèmes temps réel - Choix Gestion des ressources Ordonnancement ( Scheduling ), Tolérance aux fautes

Plus en détail

Répartition de charge dynamique dans un système distribuée

Répartition de charge dynamique dans un système distribuée Rapport de TER Répartition de charge dynamique dans un système distribuée Tuteur : Stephane Mancini Benjamin Petit Grenoble INP - Ensimag Mai 2010 Table des matières 1 Introduction 4 1.1 Contexte pratique...................................

Plus en détail

Serveur de sauvegarde à moindre coût

Serveur de sauvegarde à moindre coût 1/28 Serveur de sauvegarde à moindre coût Yann MORÈRE LASC http://www.lasc.univ-metz.fr/ I. Cahier des charges II. Solution III. Présentation des outils utilisés IV. Mise en œuvre 2/28 Cahier des charges

Plus en détail

CH.3 SYSTÈMES D'EXPLOITATION

CH.3 SYSTÈMES D'EXPLOITATION CH.3 SYSTÈMES D'EXPLOITATION 3.1 Un historique 3.2 Une vue générale 3.3 Les principaux aspects Info S4 ch3 1 3.1 Un historique Quatre générations. Préhistoire 1944 1950 ENIAC (1944) militaire : 20000 tubes,

Plus en détail

Gestion des processus

Gestion des processus 1/27 Gestion des processus didier@lrde.epita.fr http://www.lrde.epita.fr/ didier 2/27 Table des matières 1 2 Ordonnancement des processus 3 sur les processus 4 entre processus 5 4/27 Programme vs. Processus

Plus en détail

Influence De La Taille Du Jeton Sur Les Performances De L algorithme D'exclusion Mutuelle De Ricart - Agrawala

Influence De La Taille Du Jeton Sur Les Performances De L algorithme D'exclusion Mutuelle De Ricart - Agrawala Influence De La Taille Du Jeton Sur Les Performances De L algorithme D'exclusion Mutuelle De Ricart - Agrawala Sarah Benkouider, Souhila Labgaa 2, Mohamed Yagoubi 3 Université Amar Telidji Département

Plus en détail