Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel

Dimension: px
Commencer à balayer dès la page:

Download "Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel"

Transcription

1 RenPar 18 / SympA 2008 / CFSE 6 Fribourg, Suisse, du 11 au 13 février 2008 Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel Yenké Blaise Omer Laboratoire LIG (équipe MESCAL), Grenoble, France ; Université de Yaoundé I, Cameroun Résumé Nous nous proposons d utiliser les ressources disponibles d un intranet d une entreprise durant les périodes d inactivité des PC (nuits, week-ends, congés). L idée est de constituer un cluster virtuel avec les postes libres de l intranet pour faire du calcul scientifique. De tels objectifs étaient la préoccupation du projet IGGI 2, et restent d actualité. Les différentes plages ainsi disponibles ne permettent pas toujours d exécuter les applications jusqu à leurs termes. Dans ce cas, les mécanismes de sauvegarde/reprise (checkpointing) permettent d exploiter efficacement ce type d infrastructure et assurent la continuité des calculs. Cependant, la sauvegarde du contexte d exécution d une application a un coût en temps et en espace disque. Ces contraintes sont encore plus fortes lorsque plusieurs applications sont en concurrence pour les accès réseau et disque. Dans cet article, nous présentons un modèle qui permet de prédire les performances du checkpointing en tenant compte des contraintes de congestion au niveau du réseau et du disque de sauvegarde. Nous illustrons l utilité du modèle dans la prédiction de la durée de sauvegarde du contexte de plusieurs applications séquentielles indépendantes. Pour notre modélisation, nous utilisons le système de checkpointing BLCR (Berkeley Linux Checkpointing Restart). Mots-clés : prédiction ; performance ; checkpointing ; BLCR 1. Introduction Les entreprises, les instituts, les universités, etc. disposent aujourd hui d intranets dotés de serveurs et d un grand nombre de postes de travail. Dans certaines de ces organisations, les postes de travail sont très peu utilisés la nuit, les week-ends et pendant les périodes de congés, libérant une grande puissance de calcul. Il serait donc judicieux d exploiter les longues périodes d inactivité des postes de travail par des applications nécessitant la ressource de calcul. L idée est donc de constituer des clusters virtuels à partir des postes non utilisés pour exploiter à bon escient les temps de jachère. Un cluster virtuel est une infrastructure de calcul constituée de ressources réparties sur un intranet de façon dynamique. Dans notre contexte, les postes de travail retenus pour le cluster virtuel, principalement sous le système Windows, seront rebootés sous Linux avec un outil tel que ComputeMode [1] et managés par un gestionnaire de ressources comme OAR [2], tout comme l avait envisagé le projet IGGI [5]. Sur ces postes, seules les ressources comme le CPU et la RAM seront utilisées. On considère que la sauvegarde des contextes d exécution des applications s exécutant sur ces postes se fait sur le disque du serveur. Cette dernière considération permet d éviter de sauvegarder localement car le poste pourrait ne plus être disponible le lendemain. Sur des infrastructures de type cluster virtuel, la volatilité des ressources est une des propriétés à prendre en compte. Les postes de travail doivent par exemple être restitués le matin au retour des employés. Il y a donc nécessité d assurer la sauvegarde d un calcul inachevé en vue d une éventuelle reprise. Dans ce cas les mécanismes de checkpointing sont une bonne solution. De nombreux travaux ont été menés sur les techniques de sauvegarde/reprise, ainsi notre objectif n est pas d en développer de nouvelles. En effet nous utilisons les fonctionnalités des systèmes de checkpointing existants pour gérer une panne de façon prévisible (arrêt voulu des machines). Une question à Financé par une bourse du Service de Coopération et d Action Culturelle, Ambassade de France au Cameroun 2 Projet RNTL démarré en 2004 et terminé en janvier 2007

2 laquelle nous essayerons d apporter une réponse est la suivante : A quel moment lancer le processus de sauvegarde des applications inachevées afin que les postes de travail soient disponibles avant 8h par exemple? Nous étudions donc dans cet article les insuffisances du dispositif de sauvegarde afin de pouvoir prédire dynamiquement le temps de sauvegarde du système. La suite de cet article est organisée comme suit. La section 2 décrit quelques mécanismes du checkpointing. Nous présentons à la section 3 quelques expériences qui ont été menées et qui ont conduit à l élaboration du modèle que nous présentons à la section 4. Nous évaluons le modèle à la section 5 et nous concluons en donnant quelques axes pour la suite de ce travail. 2. État de l art Les principaux intérêts du checkpointing dans les environnements de cluster sont la tolérance aux fautes, la préemption, la migration de processus. La tolérance aux fautes des applications est réalisée au moyen de points de reprise périodiques. Cette caractéristique est essentiellement importante pour les applications longues (plusieurs heures voir plusieurs jours d exécution). Dans ces longues périodes d exécution, la probabilité de l occurrence d une panne au niveau matériel, réseau, système d exploitation, ou des applications même, peu être très grande. La sauvegarde régulière des points de reprise vers un support stable est alors une nécessité. La préemption est la procédure qui consiste à stopper temporairement un processus dans le but d allouer les ressources à un autre. La préemption est nécessaire pour implémenter les fonctionnalités principales d un ordonnanceur (priorité, réservation, etc.). La migration de processus est la procédure qui consiste à déplacer un job d un noeud à un autre. Elle est spécialement utile dans le cas de la préemption. Plusieurs travaux de recherche [8, 9, 10, 13] ont contribué à améliorer les performances du checkpointing, en mettant l accent sur la totalité ou une partie des caractéristiques comme la disponibilité, la fiabilité et la maintenabilité des systèmes distribués. Toutefois, la plupart des travaux modélisant le checkpointing considèrent des sauvegardes à intervalles réguliers, sans trop se préoccuper des charges réseau et disque Mécanismes du checkpointing Le checkpointing est la procédure qui consiste à sauvegarder le contexte d exécution d un processus actif dans un fichier sur un support stable. Le fichier ainsi sauvegardé contient toutes les informations nécessaires à la reconstruction du processus à partir de ce point de sauvegarde. Un grand nombre de systèmes de checkpointing libres existent aujourd hui, mais aucun n est encore capable de sauvegarder le contexte de tout type d application. On dénote trois types d implémentation du checkpointing : Checkpointing de niveau système : C est l approche la plus transparente. Dans ce cas, le checkpointing est réalisé au niveau du noyau. L utilisateur n a pas besoin de recompiler son application ou d en rétablir l édition des liens. Cependant cette approche est la moins efficace car le système n a aucune connaissance de la structure de l application. Il fait tout simplement un dump sur la mémoire du processus et l enregistre dans le fichier de checkpoint. Les systèmes émergeant dans ce courant sont CRAK [18], BLCR [4], Cryopid [3]. Checkpointing de niveau bibliothèque : Dans cette approche, l utilisateur doit rétablir l édition des liens avec la bibliothèque pour préparer son code à la sauvegarde. Le checkpointing est réalisé par un envoi de signal à l application. L inconvénient dans cette approche est la recompilation de l application. Dans ce courant, on retrouve plusieurs implémentations comme Libckpt [12], Condor [9]. Checkpointing de niveau application : Réalisé par le programmeur lui-même. Le programmeur implémente des procédures pour effectuer les opérations de sauvegarde/reprise. Cette approche semble être la plus efficace car le programmeur peut décider de sauvegarder juste une partie des données de l application. Cependant elle est la moins transparente et requiert un grand effort de la part du programmeur Performance du checkpointing J. S. Plank et M. G. Thomason [13] ont proposé un modèle dans lequel la disponibilité moyenne A du système est ( une mesure de performance du checkpointing. Ce paramètre donné par la formule mathématique A = ) Ce (I λi e λi ) 1 e λi λe λ(r+l) est maximisé par la détermination d un intervalle I optimal entre deux sauvegardes. I est la fréquence de checkpointing qui minimise les pertes de temps pour

3 une application qui s exécute en présence de pannes. λ est le nombre moyen d apparition des pannes. C est le temps de continuation de l application pendant que la sauvegarde du contexte est en cours. Dans ce modèle, les temps de sauvegarde L et de reprise R sont supposés constants ; ce qui ne cadre pas avec la réalité. En fait leur modèle ne tient pas compte de l espace mémoire occupé par l application, lequel influence considérablement le temps de sauvegarde. E. Imamagic et al. [8] ont proposé une approche pour optimiser les performances du checkpointing en minimisant les temps de sauvegarde des points de reprise et la charge du réseau. Ils considèrent deux intervalles de temps. La plus courte période correspond au temps d exécution entre deux points de reprise qui doivent être sauvegardés localement. La plus longue correspond au temps d exécution entre deux points de reprise qui doivent être sauvegardés sur un support distant. L approche de sauvegarde locale permet ainsi de minimiser la charge du réseau et d accroître la vitesse des sauvegardes. Cette approche est certes efficace, mais elle n est indiquée que pour des clusters dédiés. De plus leur modèle ne prend pas en compte les conflits qui peuvent se présenter pour les accès concurrents au réseau. Dans notre cas, nous étudions la modélisation des performances du checkpointing en tenant compte des contraintes réseau et disque pour minimiser les pertes de temps de sauvegarde, et gagner en temps de calcul. Pour ce faire nous avons mené une série d expériences qui nous ont conduit au modèle présenté par la suite. 3. Experimentations Les expériences menées dans [6] montrent que le temps de sauvegarde est en général influencé par le rapport entre la mémoire virtuelle du processus et la taille de la mémoire RAM, l écriture en local ou à distance. Nous présentons ici quelques unes des expériences que nous avons effectué pour étudier les performances du dispositif de sauvegarde. Pour faire des mesures réalistes, nous considérons que les applications résident complètement en mémoire physique. Plate-forme expérimentale Nos expériences ont été menées sur l infrastructure Grid dans laquelle le gestionnaire de travaux OAR gère les ressources de la grille. Une image a été déployée sur les noeuds réservés, l un des noeuds faisant office de serveur NFS (Network File System). Bien que des extensions de NFS comme ClusterNFS [16] sont en cours d étude pour optimiser ses performances au niveau des opérations de lecture/écriture, le standard NFS demeure largement utilisé dans les environnements de cluster. Les tests ont été menés sur le cluster de Sophia dont les noeuds sont des bi-processeurs AMD Opteron 2GHz, 2Go de RAM, disque dur 80 Go (IDE-amd74xx) dont les débits en moyenne sont 50 Mo/s. Les noeuds sont reliés par un réseau Ethernet gigabit, et partagent le /home (monté en synchrone) du serveur. Codes utilisés Code de calcul multigrilles : développé au sein du laboratoire ID-IMAG 4 pour la résolution des équations aux dérivées partielles. C est une application dont la taille mémoire physique croît considérablement lorsque l on fait accroître le nombre de points sur les grilles. Bench1 : Application synthétique dont toutes les pages de la mémoire physique sont sauvegardées. Système de checkpointing utilisé : BLCR BLCR est un mécanisme de checkpointing de niveau système. Il est basé sur la création d un fichier de point de reprise. Nous avons porté notre intérêt sur BLCR car il permet d établir des points de reprise tant pour les applications séquentielles que parallèles (multithreads). Il peut être couplé à LAM/MPI [15] pour le checkpointing des applications parallèles. Méthodologie Nous avons exécuté en parallèles des applications séquentielles identiques indépendantes sur n noeuds (de 1 à 30), en faisant varier la taille des applications. Au cours de l exécution, un script génère des fichiers de trace comportant le temps et la taille des points de reprise. Les mesures ont été considérées en analysant leur validité statistique (moyenne, écart-type).la moyenne a été le facteur clé Fichier de point de reprise généré par BLCR De nombreux tests effectués avec BLCR nous ont amené à nous intéresser au fichier de point de reprise généré par BLCR. C est un fichier binaire dont la structure ne se trouve pas dans la littérature. Aussi 3 http ://www.grid5000.fr/ 4 devenu LIG (Laboratoire d Informatique de Grenoble)

4 avons-nous modifié BLCR, principalement le module vmadump, uniquement pour tracer l écriture dans le fichier de de point de reprise. Ceci nous a permis de constater que BLCR écrit essentiellement et alternativement des blocs de taille la longueur des entêtes des pages mémoires et la taille de ces pages (resp. 4octects et 4Ko pour notre Système d Exploitation), pour les pages de la mémoire mappée du processus qui ont été modifiées au moins une fois. Nous avons émulé BLCR par un programme qui écrit des blocs dans un fichier comme le fait BLCR. Les figures 1 et 2 montrent les résultats obtenus pour une sauvegarde en local et à distance. Dans les deux cas, l écart entre les temps de sauvegarde avec BLCR et par émulation est de l ordre du centième de seconde. Ceci montre que le surcoût pris par BLCR pour traiter les pages est négligeable. Ce test nous a conduit à considérer la mémoire physique du processus comme un paramètre pour notre modélisation. FIG. 1 Temps de sauvegarde du code de FIG. 2 Temps de sauvegarde du code de calcul multigrilles avec BLCR et par émulation de BLCR, en local lation de BLCR, à calcul multigrilles avec BLCR et par ému- distance 3.2. Evolution de la bande passante La figure 3 montre l évolution de la bande passante utilisée en fonction du nombre de nœuds pour différentes tailles du code de calcul multigrilles. On constate que toutes ces courbes ont des allures paraboliques et présentent des pics. La concavité de ces courbes montre qu avant le pic, le réseau n est pas surchargé et que le disque tient la charge. Après les pics, la diminution de la bande passante utilisée indique des pertes de performance du dispositif de sauvegarde. Ceci peut être dû à la latence au niveau du disque et au système de fichier NFS qui perd en performance lorsque le nombre de clients croît. FIG. 3 Bande passante utilisée en fonction du nombre de nœuds selon la taille des applications Les expériences que nous avons menées nous ont permis de constater que la sauvegarde du contexte d une application est fortement influencée par la taille de la mémoire allouée à cette application. De plus, lors du checkpointing de plusieurs applications séquentielles indépendantes se partageant le réseau et le disque de sauvegarde, la courbe donnant la bande passante utilisée croît et décroît, en fonction du nombre de processus et de leur taille agrégée. Lorsque cette courbe décroît, cela traduit des pertes de performances, mais on ne saurait dire si cela est dû au réseau ou au support de sauvegarde. Cela nous a conduit à adopter la modélisation présentée à la section suivante.

5 4. Modélisation On considère p applications séquentielles indépendantes en cours d exécution dans un intranet, une application par nœud. On voudrait les sauvegarder avant un délai. Les sauvegardes doivent se faire sur le disque du serveur. A quel moment donc lancer les sauvegardes? Compte tenu des contraintes précédemment mentionnées, on sait qu on ne peut pas les sauvegarder toutes à la fois. La solution est donc de déterminer dans un premier temps le nombre n < p de processus que l on peut sauvegarder simultanément de tel sorte que le réseau et le disque tiennent la charge (on confondra nœud et application sans nuire à la généralité). Ensuite ordonnancer les sauvegardes pour prédire le temps de sauvegarde du système. Pour ce faire, on suppose que les applications sont suffisamment longues, qu elles résident entièrement en mémoire physique et que leurs tailles ne varient plus (du moins de plus d un Mo, ce qui pourrait encore être considéré comme erreur de mesure) dès le début de la prédiction Approche NFS effectue habituellement des lectures/écritures de blocks de taille 8Ko. Or nous avons montré à la section 3.1 que certains blocks écrits par BLCR sont de taille très inférieure à 8Ko. Lors de la sauvegarde il est donc difficile de savoir si les blocs sont immédiatement écrits sur disque ou s ils sont d abord mis en cache par NFS. De plus NFS perd en performance [11, 17] avec la croissance du nombre de clients. Compte tenu de ces contraintes, il est très difficile de déterminer séparément l impact du réseau, des bus et du disque sur les performances du checkpointing. Nous avons donc procédé par une analyse de l évolution de la bande passante utilisée. Compte tenu de l allure parabolique des courbes de la figure 3 donnant les débits en fonction du nombre de nœuds pour chaque taille considérée, nous avons approximé de façon satisfaisante chaque bande passante par une fonction polynomiale de la forme g(n) = αn 2 + βn + γ (1) En regroupant les mesures dans le tableau de la figure 4, on constate que plus les tailles des applications sont petites, plus le nombre maximal de processus que l on peut sauvegarder simultanément est grand, ainsi que la bande passante utilisée, pendant que la taille agrégée reste la plus petite. FIG. 4 Récapitulatif des mesures effectuées pour les bandes passantes maximales FIG. 5 Bande passante utilisée en fonction de la taille agrégée pour les nombres de nœuds sur les pics Au vu de la concavité de la courbe de la figure 5, nous avons donc approximé la fonction donnant la bande passante utilisée en fonction de la taille agrégée, par une fonction polynomiale de la forme h(t) = λt 2 + ν (2) le coefficient du monôme de premier degré en T s étant avéré quasiment nul Le modèle Ainsi, pour une taille t fixée, la bande passante utilisée peut s écrire comme une fonction du nombre de nœuds n (équation (1)). De même pour n fixé, la bande passante utilisée peut s exprimer comme une fonction de la taille agrégée des applications (équation (2)). De ce qui précède, nous déduisons une modélisation de la bande passante en fonction du nombre de nœuds n et de la taille agrégée T des applications par une approximation polynomiale : ϕ(n, T) = an 2 T 2 + bn 2 + ct 2 + dn + e

6 où les coefficients a, b, c, d, e sont déterminés par la méthode des moindres carrés comme suit : Soit l expression y = ϕ(n, T) de la bande passante utilisée, soit à minimiser la fonction ψ(a, b, c, d, e) = r s i ( yij an 2 ijtj 2 bn 2 ij ctj 2 dn ij e ) 2 i=1 j=1 où r est le nombre de tailles utilisées s i le nombre de mesures dans la taille t i n ij le nombre de noeuds dans la taille t i à chaque mesure j y ij les bandes passantes utilisées mesurées T i la taille agrégée obtenue à partir du pic de la courbe donnant la bande passante utilisée pour les applications de taille t i. Les coefficients a, b, c, d, e sont donc obtenus en résolvant les équations aux dérivées partielles : ψ = 0, ω {a, b, c, d, e} ω La fonction ϕ(n, T) donnant la bande passante utilisée est dès lors entièrement déterminée. Compte tenu de sa concavité, le nombre de nœuds n optimal qui rend ϕ(n, T) maximal est tel que : soit V k la taille agrégée des k applications considérées, n < n optimal, ϕ(n, V n ) < ϕ(n optimal, V noptimal ) n > n optimal, ϕ(n, V n ) < ϕ(n optimal, V noptimal ) L algorithme de calcul de n optimal repose sur ces deux propriétés. Une fois n optimal déterminé, on peut partager la bande passante entre les nœuds. Le temps estimé pour la sauvegarde d une application de taille t i, est alors t i / [ ϕ(n optimal, V noptimal )/n optimal ] On peut maintenant ordonnancer les sauvegardes. L algorithme de prédiction du temps global de sauvegarde du contexte des applications est basé sur le principe du list scheduling [7]. Ici les tâches sont les sauvegardes à effectuer. Le schéma général de l algorithme est le suivant : Trier la liste des p applications suivant les tailles décroissantes Calculer la bande passante par nœud pour les premières applications Lancer la sauvegarde des premières applications tantque cardinal {Applications_sauvegardées} < p faire si fin d une sauvegarde ou d un groupe de sauvegardes alors Noter les temps de complétion si cardinal {{Sauvegarde_en_cours} {Applications_non_encore_sauvegardées}} < n optimal alors Recalculer la bande passante fin si Lancer autant de nouvelles sauvegardes (s il en reste encore) que d achevées fin si fin tantque temps_estimé = max{temps_de_complétion} FIG. 6 Schéma de l algorithme de prédiction du temps de sauvegarde de p applications séquentielles Connaissant le temps estimé, on peut dès lors savoir à quel moment lancer le début des sauvegardes pour arrêter avant un certain délai. 5. Evaluation Pour valider notre modèle, nous comparons les temps de sauvegarde prédits aux temps mesurés. Pour obtenir les mesures, nous avons implémenté un ordonnanceur calqué sur l algorithme de prédiction. L application exécutée par chaque nœud et qui doit être sauvegardée est le code Bench1 mentionné

7 plus haut. Le programme de test, dont le fonctionnement est illustré à la figure 7, est une application client/serveur multithreads basée sur le modèle «un thread par client accepté» [14]. FIG. 7 Schéma du programme de validation L application serveur est démarrée sur le nœud faisant office de serveur NFS. Le module Lancement indique aux nœuds clients d exécuter l application Bench1 avec la taille spécifiée. Chaque client reçoit l ordre de lancement et crée un processus fils dont le contexte d exécution est remplacé par celui de l application qu il exécute en la préparant à la sauvegarde avec BLCR. Ceci permet à l application cliente d obtenir le PID du processus à sauvegarder. Le module Lancement communique les tailles des applications aux modules Prédiction et Ordonnancement. Le module Prédiction détermine n optimal et calcule le temps estimé pour la sauvegarde, puis communique n optimal au module Ordonnancement qui déclanche le lancement des sauvegardes. Dès qu une sauvegarde est achevée, celle du prochain processus dans la liste des applications à sauvegarder est lancée. Les temps estimés et mesurés sont enregistrés dans des fichiers de trace. Les figures 8,9,10 et 11 montrent les résultats obtenus sur quatre tests différents. FIG. 8 Temps de sauvegarde mesuré et prédit. Taille des applications suré et prédit. Taille des applications FIG. 9 Temps de sauvegarde me- 10 Mo. n optimal = Mo. n optimal = 14 FIG. 10 Temps de sauvegarde mesuré et prédit. Taille des applications suré et prédit. Taille des applications FIG. 11 Temps de sauvegarde me- 100 Mo. n optimal = Mo. n optimal = 7 On constate dans les différentes figures que les courbes des temps mesurés et prédits varient de façon comparable, et que le module de prédiction parvient à prédire le temps de complétion avec une erreur maximale inférieure à 25% et une erreur minimale autour de 2%.

8 6. Conclusion Nous avons mené un grand nombre d expérimentations qui nous on conduit dans ce travail à présenter un modèle permettant de déterminer les performances du dispositif de sauvegarde pour le checkpointing de plusieurs applications séquentielles indépendantes dans un cluster virtuel. Cela a permis ensuite de proposer un algorithme basé sur le List Scheduling pour prédire dynamiquement le temps de complétion des sauvegardes. Ce travail intéresserait un gestionnaire de travaux comme OAR qui peut être amené à préempter des jobs pour diverses raisons. Le modèle a certes été établi sur une architecture déterminée, mais il peut être une piste pour des études sur d autres architectures. Nous comptons étendre ce travail au niveau de la sauvegarde du contexte d exécution des applications parallèles, où en plus des contraintes liées à la concurrence des accès réseau et disque, il va falloir tenir compte de la synchronisation entre les processus, pour estimer le temps de sauvegarde du système. L intégration des modèles de communications concurrentes existants sera intéressant. Bibliographie 1. http ://www.icatis.com. 2. N. Capit, G. Da Costa, Y. Georgiou, G. Huard, C. Martin, G. Mounié, P. Neyron, and O. Richard. A batch scheduler with high level components. In Proceedings of Cluster Computing and Grid (CCGRID), Mai Cryopid. CryoPID : A Process Freezer for Linux. http ://cryopid.berlios.de, J. Duell, P. Hargrove, and E. Roman. The design and implementation of berkeley lab s linux checkpoint/restart. Technical Report Berkeley Lab LBNL-54941, November F. Dupros, F. Boulahya, J. Vairon, P. Lombard, N. Capit, and J-F. Méhaut. IGGI, a computing framework for large scale parametric simulations : application to uncertainty analysis with toughreact. In In Proceedings, Tough Symposium, F. Dupros and A. Carissimi. Sauvegarde et reprise d applications parallèles dans le cadre d un intranet. Ren- Par 17 / SympAAA 2006 / CFSE 5 / JC 2006 Canet en Roussillon, 4 au 6 octobre L.A. Hall, D.B. Shmoys, and J. Wein. Scheduling to minimise average completion time : off-line and on-line algorithms. Proc. of the Sixth ACM-SIAM Symposium on Discrete Algorithm, January E. Imamagic, D. D. Zagar, and B. Radic. Checkpointing approach for computer clusters. IIS, M. Litzkow, T. Tannenbauw, J. Basney, and M. Livny. Checkpoint and migration of unix process in the condor distributed processing system. Technical Report CS-TR , University of Wisconsin, Madison, Apr J-M. Nlong and Y. Denneulin. Migration des processus linux sous i-cluster. RENPAR 15 / CFSE 3 / SympAAA La Colle sur Loup, France, 15 au 17 octobre T. Olivares, L. Orozco-Barbosa, F. Quiles, A. Garrido, and P.J. Garcia. Performance study on nfs over myrinetbased clusters for parallel multimedia applications. TIC, J.S. Plank, M. Beck, G. Kingsley, and K. Li. Libckpt : Transparent checkpointing under unix. In Proceedings of the 1995 Winter USENIX Technical Conference, J.S. Plank and M. G. Thomason. The average availability of uniprocessor systems, revisited. Technical Report UT-CS , Departement of Computer Science, University of Tenesse, August W. Richard Stevens. Unix Network Programming, volume 1. Prentice Hall PTR, second edition, S. Sankaran, J. M. Squyres, B. Barrett, and A. Lumsdaine. The lam/mpi checkpoint/restart framework : Systeminitiated checkpointing. Proceedings, LACSI Symposium, October R. Tang, J. Xiong, J. Ma, and D. Meng. A new way to high performance nfs for clusters. Proceedings of the Sixth International Conference on Parallel and Distributed Computing, Applications and Technologies (PDCAT 05). IEEE, T. Sterling W. Gropp, E. Lusk. Beowulf Cluster Computing with Linux H. Zhong and J. Nieh. CRAK : Linux Checkpoint/Restart as a Kernel Module. Technical Report CUCS , Department of Computer Science, Columbia University, November 2001.

Une Plate-forme d Émulation Légère pour Étudier les Systèmes Pair-à-Pair

Une Plate-forme d Émulation Légère pour Étudier les Systèmes Pair-à-Pair Une Plate-forme d Émulation Légère pour Étudier les Systèmes Pair-à-Pair Lucas Nussbaum Laboratoire Informatique et Distribution Laboratoire ID-IMAG Projet MESCAL RenPar 17 Lucas Nussbaum Émulation légère

Plus en détail

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information Projet IGGI Infrastructure pour Grappe, Grille et Intranet CASCIMODOT - Novembre 2005 Fabrice Dupros CONTEXTE > Etablissement Public à caractère Industriel et Commercial (EPIC) Sous la tutelle des Ministères

Plus en détail

Clusters for Application Service Providers. T. Monteil, J.M. Garcia P. Pascal, S. Richard

Clusters for Application Service Providers. T. Monteil, J.M. Garcia P. Pascal, S. Richard Clusters for Application Service Providers (www.laas.fr/casp) T. Monteil, J.M. Garcia P. Pascal, S. Richard 1 Généralités Le monde du calcul dans un environnement ASP Les ASP : Application Service Provider

Plus en détail

Communications performantes par passage de message entre machines virtuelles co-hébergées

Communications performantes par passage de message entre machines virtuelles co-hébergées Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction

Plus en détail

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Evaluation des performances de programmes parallèles haut niveau à base de squelettes Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

Séminaire Aristote : présentation du logiciel ComputeMode. Philippe Augerat

Séminaire Aristote : présentation du logiciel ComputeMode. Philippe Augerat Séminaire Aristote : présentation du logiciel ComputeMode Philippe Augerat 16 septembre 2004 la société ICATIS! SAS créée le 28 janvier 2004 avec un capital de 37 k euros! Issue du Laboratoire Informatique

Plus en détail

Cours Systèmes d exploitation 1

Cours Systèmes d exploitation 1 Cours Systèmes d exploitation 1 Achraf Othman Support du cours : www.achrafothman.net 1 Plan du cours Chapitre 1 : Gestion des processus Chapitre 2 : Ordonnancement des processus Chapitre 3 : La communication

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus.

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus. GESTION DE LA MEMOIRE SOUS UNIX La mémoire est une ressource critique car elle conditionne les temps de traitements. Différentes options SAS sont disponibles pour utiliser au mieux la mémoire de la machine.

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Introduction aux systèmes d exploitation

Introduction aux systèmes d exploitation Introduction aux systèmes d exploitation Le système d exploitation est un ensemble de logiciels qui pilotent la partie matérielle d un ordinateur. Les principales ressources gérées par un système d exploitation

Plus en détail

Chapitre IV : La gestion du processeur Mécanismes d ordonnancement

Chapitre IV : La gestion du processeur Mécanismes d ordonnancement Chapitre IV : La gestion du processeur Mécanismes d ordonnancement Eric.Leclercq@u-bourgogne.fr Département IEM http://ufrsciencestech.u-bourgogne.fr http://ludique.u-bourgogne.fr/~leclercq 1 er mars 2007

Plus en détail

Introduction à la Recherche en Laboratoire

Introduction à la Recherche en Laboratoire Introduction à la Recherche en Laboratoire Transferts de données pour le vol de travail Tristan Darricau tristan.darricau@ensimag.grenoble-inp.fr 26 mai 2014 Grenoble INP - ENSIMAG Ecadrement Frédéric

Plus en détail

Business & High Technology

Business & High Technology UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 09 : CC : Cloud Computing Sommaire Introduction... 2 Définition... 2 Les différentes

Plus en détail

Les systèmes RAID Architecture des ordinateurs

Les systèmes RAID Architecture des ordinateurs METAIS Cédric 2 ème année Informatique et réseaux Les systèmes RAID Architecture des ordinateurs Cédric METAIS ISMRa - 1 - LES DIFFERENTS SYSTEMES RAID SOMMAIRE INTRODUCTION I LES DIFFERENTS RAID I.1 Le

Plus en détail

Chap. III : Le système d exploitation

Chap. III : Le système d exploitation UMR 7030 - Université Paris 13 - Institut Galilée Cours Architecture et Système Le système d exploitation (ou O.S. de l anglais Operating System ) d un ordinateur est le programme qui permet d accéder

Plus en détail

Exploiter un calculateur ou un cluster de calcul: Les gestionnaires de tâches et de ressources

Exploiter un calculateur ou un cluster de calcul: Les gestionnaires de tâches et de ressources Exploiter un calculateur ou un cluster de calcul: Les gestionnaires de tâches et de ressources Olivier Richard Laboratoire d Informatique de Grenoble (LIG) Projet INRIA Mescal 13 septembre 2007 Olivier

Plus en détail

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines Évolution de la puissance des machines Accélération Système pour architectures multicœurs Évolution Traditionnelle des mono-processeurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques

Plus en détail

Guillaume SOLDERA (B guillaume.soldera@serli.fr) SERLI Informatique Bull OW2 Consortium. Comparatif Choco/Drools dans le cadre du projet JASMINe

Guillaume SOLDERA (B guillaume.soldera@serli.fr) SERLI Informatique Bull OW2 Consortium. Comparatif Choco/Drools dans le cadre du projet JASMINe Guillaume SOLDERA (B guillaume.soldera@serli.fr) SERLI Informatique Bull OW2 Consortium dans le cadre du projet JASMINe Avril 2008 Table des matières 1 Introduction 3 1.1 Rappel sur JASMINe.......................................

Plus en détail

Gestion du processeur central

Gestion du processeur central Chapitre II Gestion du processeur central 1. Introduction Evolution des systèmes informatiques 1.1- Premier système : Le programmeur/opérateur doit écrire un programme ensuite le faire fonctionner directement

Plus en détail

Programmation Système des Multicœurs

Programmation Système des Multicœurs Évolution de la puissance des machines Programmation Système des Multicœurs Gaël Thomas gael.thomas@lip6.fr Accélération Évolution Traditionnelle des mono-processeurs Université Pierre et Marie Curie Master

Plus en détail

Dynamic Computing Services solution de backup. White Paper Stefan Ruckstuhl

Dynamic Computing Services solution de backup. White Paper Stefan Ruckstuhl Dynamic Computing Services solution de backup White Paper Stefan Ruckstuhl Résumé pour les décideurs Contenu de ce White Paper Description de solutions de backup faciles à réaliser pour des serveurs virtuels

Plus en détail

aioli: gestion des Entrées/Sorties parallèles dans les grappes SMPs

aioli: gestion des Entrées/Sorties parallèles dans les grappes SMPs RENPAR 6 / CFSE / SympAAA 2005 / Journes Composants Le Croisic, France, 5 au avril 2005 aioli: gestion des Entrées/Sorties parallèles dans les grappes SMPs Adrien Lebre, Yves Denneulin Laboratoire Informatique

Plus en détail

Encryptions, compression et partitionnement des données

Encryptions, compression et partitionnement des données Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des

Plus en détail

Gestion dynamique des tâches dans les grappes

Gestion dynamique des tâches dans les grappes Gestion dynamique des tâches dans les grappes une approche à base de machines virtuelles Fabien Hermenier Équipe ASCOLA, École des Mines de Nantes 26 novembre 2009 Fabien Hermenier (ASCOLA) Gestion dynamique

Plus en détail

La gestion des processus

La gestion des processus La gestion des processus Processus Un processus est un programme en cours d exécution. - Un programme est une suite d instructions ; c est du texte, un code statique. - Le processus est un concept dynamique,

Plus en détail

ETNA Projet de Fin d Étude 2005-2007 RimElse Cahier des charges. c Copyleft 2006, ELSE Team

ETNA Projet de Fin d Étude 2005-2007 RimElse Cahier des charges. c Copyleft 2006, ELSE Team ETNA Projet de Fin d Étude 2005-2007 RimElse Cahier des charges c Copyleft 2006, ELSE Team 18 avril 2006 Table des matières 1 Introduction 2 2 Présentation du projet 3 2.1 Une distribution Évolulable..................

Plus en détail

Systèmes temps réel Concepts de base. Richard Grisel Professeur des Universités Université de Rouen

Systèmes temps réel Concepts de base. Richard Grisel Professeur des Universités Université de Rouen Systèmes temps réel Concepts de base Richard Grisel Professeur des Universités Université de Rouen 1 Systèmes temps réel - Choix Gestion des ressources Ordonnancement ( Scheduling ), Tolérance aux fautes

Plus en détail

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,

Plus en détail

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 186 Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 L'utilisation des fonctionnalités de haute disponibilité intégrées aux applications, L'ajout de solutions tierces. 1.1 Windows Server

Plus en détail

Partie 6 : Ordonnancement de processus

Partie 6 : Ordonnancement de processus INF3600+INF2610 Automne 2006 Partie 6 : Ordonnancement de processus Exercice 1 : Considérez un système d exploitation qui ordonnance les processus selon l algorithme du tourniquet. La file des processus

Plus en détail

CAHIER DES CHARGES D IMPLANTATION

CAHIER DES CHARGES D IMPLANTATION CAHIER DES CHARGES D IMPLANTATION Tableau de diffusion du document Document : Cahier des Charges d Implantation EVRP Version 6 Etabli par DCSI Vérifié par Validé par Destinataires Pour information Création

Plus en détail

Les conteneurs : une approche générique pour la conception d un système à image unique

Les conteneurs : une approche générique pour la conception d un système à image unique RENPAR 14 / ASF / SYMPA Hamamet, Tunisie, 10 13 avril 2002 Les conteneurs : une approche générique pour la conception d un système à image unique Renaud Lottiaux, projet PARIS IRISA/INRIA, Campus universitaire

Plus en détail

ComputeMode : transformer une

ComputeMode : transformer une ComputeMode : transformer une salle de PC Windows en cluster Linux Philippe Augerat CASCIMODOT 19 novembre 2004 la société ICATIS! SAS créée le 28 janvier 2004 avec un capital de 37 Ke! Issue du Laboratoire

Plus en détail

Eric Bertrand ebertrand@ixis-cib.com. 08/11/06 Maître de conférence 1

Eric Bertrand ebertrand@ixis-cib.com. 08/11/06 Maître de conférence 1 Calcul parallèle des options MC. Eric Bertrand ebertrand@ixis-cib.com 1 Plan Contexte du calcul parallèle Qualités requises Architecture Outillage Problèmes rencontrés perspectives 2 Contexte du calcul

Plus en détail

Programmation C. Apprendre à développer des programmes simples dans le langage C

Programmation C. Apprendre à développer des programmes simples dans le langage C Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

LES NOUVEAUTES DE COST AND PROFITABILITY MANAGEMENT 8.1

LES NOUVEAUTES DE COST AND PROFITABILITY MANAGEMENT 8.1 LES NOUVEAUTES DE COST AND PROFITABILITY MANAGEMENT 8.1 SAS Cost and Profitability Management, également appelé CPM (ou C&P), est le nouveau nom de la solution SAS Activity-Based Management. Cette version

Plus en détail

WebSphere MQ & Haute Disponibilité

WebSphere MQ & Haute Disponibilité L objectif de cet article est d identifier les problèmes pouvant se poser lors de la mise en place d un système de secours dans une configuration WebSphere MQ, et de proposer des pistes pour régler ces

Plus en détail

Architecture logicielle des ordinateurs

Architecture logicielle des ordinateurs Architecture logicielle des ordinateurs Yannick Prié UFR Informatique Université Claude Bernard Lyon 1 des ordinateurs Objectifs du cours Notions générales sur le fonctionnement matériel (un peu) et logiciel

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Systèmes de fichiers distribués : comparaison de GlusterFS, MooseFS et Ceph avec déploiement sur la grille de calcul Grid 5000.

Systèmes de fichiers distribués : comparaison de GlusterFS, MooseFS et Ceph avec déploiement sur la grille de calcul Grid 5000. : comparaison de, et avec déploiement sur la grille de calcul Grid 5000. JF. Garcia, F. Lévigne, M. Douheret, V. Claudel 30 mars 2011 1/34 Table des Matières 1 2 3 4 5 6 7 1/34 Présentation du sujet Présentation

Plus en détail

Le système Windows. Yves Denneulin. Introduction. Introduction. Plan

Le système Windows. Yves Denneulin. Introduction. Introduction. Plan Introduction Le système Windows Yves Denneulin Windows a 25 ans Au début basé sur MS/DOS Multi-tâches coopératifs Pas de réelle protection entre applications Famille 1.0 -> 386 -> 95 -> 98 -> Me Version

Plus en détail

CH.3 SYSTÈMES D'EXPLOITATION

CH.3 SYSTÈMES D'EXPLOITATION CH.3 SYSTÈMES D'EXPLOITATION 3.1 Un historique 3.2 Une vue générale 3.3 Les principaux aspects Info S4 ch3 1 3.1 Un historique Quatre générations. Préhistoire 1944 1950 ENIAC (1944) militaire : 20000 tubes,

Plus en détail

Ordonnancement des processus. Didier Verna. didier@lrde.epita.fr http://www.lrde.epita.fr/ didier. Systèmes d Exploitation. Didier Verna EPITA

Ordonnancement des processus. Didier Verna. didier@lrde.epita.fr http://www.lrde.epita.fr/ didier. Systèmes d Exploitation. Didier Verna EPITA 1/16 Ordonnancement des processus didier@lrde.epita.fr http://www.lrde.epita.fr/ didier 2/16 Table des matières 1 Ordonnancement et réquisition d ordonnancement 2 d ordonnancement Premier arrivé premier

Plus en détail

Présentation. Logistique. Résumé de la 1e Partie. Mise en place du système

Présentation. Logistique. Résumé de la 1e Partie. Mise en place du système Présentation Diapo01 Je m appelle Michel Canneddu. Je développe avec 4D depuis 1987 et j exerce en tant qu indépendant depuis 1990. Avant de commencer, je tiens à remercier mes parrains Jean-Pierre MILLIET,

Plus en détail

Table des matières. Cours Système d Exploitation. Chapitre II : Gestion des processus

Table des matières. Cours Système d Exploitation. Chapitre II : Gestion des processus Chapitre II : Gestion des processus Table des matières I Processus et contexte d un processus 2 II État d un processus 3 III Système d exploitation multi-tâches et parallélisme 3 IV Problèmes dues au multi-tâches

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Chapitre 1 Architecture des calculateurs 1.1 Introduction Ce paragraphe n a pas la prétention de présenter un cours d informatique. D une manière générale, seuls les caractéristiques architecturales qui

Plus en détail

Composants logiciel: Feel++, formats de fichier et visualisation

Composants logiciel: Feel++, formats de fichier et visualisation Composants logiciel: Feel++, formats de fichier et visualisation Alexandre Ancel Cemosis / Université de Strasbourg 13 Janvier 2015 1 / 20 Plan 1 Environnement logiciel & matériel 2 Formats de fichier

Plus en détail

MEAD : temps réel et tolérance aux pannes pour CORBA

MEAD : temps réel et tolérance aux pannes pour CORBA MEAD : un intergiciel temps-réel et tolérant aux pannes pour CORBA Master 2 Informatique Recherche Université de Marne-la-Vallée Vendredi 3 mars 2006 Plan 1 Introduction 2 Solutions existantes 3 Concilier

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

La stratégie de stockage au Centre de Calcul du CNES

La stratégie de stockage au Centre de Calcul du CNES Réunion du groupe PIN (Pérennisation des Informations Numériques) La stratégie de stockage au Centre de Calcul du CNES Anne Jean Antoine 17 janvier 2002 Le stockage est crucial... Á Les entreprises ont

Plus en détail

Présentation de Citrix XenServer

Présentation de Citrix XenServer Présentation de Citrix XenServer Indexes Introduction... 2 Les prérequis et support de Xenserver 6 :... 2 Les exigences du système XenCenter... 3 Avantages de l'utilisation XenServer... 4 Administration

Plus en détail

Présentation d HyperV

Présentation d HyperV Virtualisation sous Windows 2008 Présentation d HyperV Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines virtuelles Offre de virtualisation

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Activité professionnelle N

Activité professionnelle N BTS SIO Services Informatiques aux Organisations Option SISR Session 2015 Kissley POUNGA Activité professionnelle N 12 Nature de l activité Objectifs ÉTUDE DU RENOUVELLEMENT DU MATÉRIEL INFORMATIQUE Remise

Plus en détail

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis

Plus en détail

Module 4 - Ordonnancement Processus. Lecture: Chapitre 5

Module 4 - Ordonnancement Processus. Lecture: Chapitre 5 Module 4 - Ordonnancement Processus Lecture: Chapitre 5 1 Aperçu du module Concepts de base Critères d ordonnancement Algorithmes d ordonnancement Ordonnancement de multiprocesseurs Évaluation d algorithmes

Plus en détail

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience 29 mars 2002 Olivier BOEBION - Laboratoire de Mathématiques et de Physique Théorique - Tours 1 Principes

Plus en détail

CA ARCserve r16 devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle

CA ARCserve r16 devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle En octobre 2012, Network Testing Labs (NTL) a réalisé une analyse concurrentielle à la demande de CA Technologies. Selon

Plus en détail

Clusters de PCs Linux

Clusters de PCs Linux Clusters de PCs Linux Benoit DELAUNAY delaunay@in2p3.fr Centre de Calcul de l'in2p3 Plan Historique PC au CCIN2P3. Une première étape. Une réponse à la demande. Une véritable orientation. La place des

Plus en détail

Grid'5000. Principes et utilisations. Olivier Richard Labo ID-IMAG / Equipe INRIA MESCAL

Grid'5000. Principes et utilisations. Olivier Richard Labo ID-IMAG / Equipe INRIA MESCAL Grid'5000 Principes et utilisations Olivier Richard Labo ID-IMAG / Equipe INRIA MESCAL Objectif: Etendre le champ du possible Computing As You Want! Cluster in Cluster Grid in Cluster Grid in Grid Cluster

Plus en détail

ORDRE DE RÉACTION : MÉTHODES DE

ORDRE DE RÉACTION : MÉTHODES DE ORDRE DE RÉACTION : MÉTHODES DE RÉSOLUTION Table des matières 1 Méthodes expérimentales 2 1.1 Position du problème..................................... 2 1.2 Dégénérescence de l ordre...................................

Plus en détail

LIVRE BLANC Accès ininterrompu à des

LIVRE BLANC Accès ininterrompu à des LIVRE BLANC LIVRE BLANC Accès ininterrompu à des volumes de cluster partagés à mise en miroir synchrone sur des sites métropolitains actifs La prise en charge des clusters de basculement sous Windows Server

Plus en détail

La Continuité d Activité

La Continuité d Activité La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique

Plus en détail

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1

Plus en détail

Module : Virtualisation à l aide du rôle Hyper-V

Module : Virtualisation à l aide du rôle Hyper-V Windows Server 2008 pour l'enseignement Module : Virtualisation à l aide du rôle Hyper-V Agenda du module Présentation d Hyper-V Installation d Hyper-V Configuration d Hyper-V Administration des machines

Plus en détail

Installation de Linux sur une grappe de PC

Installation de Linux sur une grappe de PC Installation de Linux sur une grappe de PC Simon Derr ID-IMAG Équipe Apache Grappes 2001 Plan Problématique Diffusion des données Automatisation de l installation Notes sur les performances Conclusion

Plus en détail

4D v11 SQL Release 5 (11.5) ADDENDUM

4D v11 SQL Release 5 (11.5) ADDENDUM ADDENDUM Bienvenue dans la release 5 de 4D v11 SQL. Ce document présente les nouveautés et modifications apportées à cette nouvelle version du programme. Prise en charge de nouvelles plates-formes La release

Plus en détail

HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES. Simple & Performant. www.quick software line.com

HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES. Simple & Performant. www.quick software line.com HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES Haute disponibilité pour Serveurs Ouverts (Windows, UNIX, AIX, Linux, VMware (Windows, UNIX, AIX, Linux, VMware ) Généralités Quelques définitions

Plus en détail

Demartek Janvier 2007. Évaluation du logiciel Emulex HBAnyware. Introduction. Résumé de l évaluation

Demartek Janvier 2007. Évaluation du logiciel Emulex HBAnyware. Introduction. Résumé de l évaluation Demartek Évaluation du logiciel HBAnyware Rapport d évaluation préparé sous contrat avec Corporation Introduction Corporation a chargé Demartek d évaluer la facilité d installation et d utilisation de

Plus en détail

Conception des systèmes répartis

Conception des systèmes répartis Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan

Plus en détail

Gestion de la mémoire sous VMware ESX

Gestion de la mémoire sous VMware ESX Gestion de la mémoire sous VMware ESX 1. Introduction Le partage de ressources offert par la virtualisation apporte des avantages par rapport à des architectures traditionnelles. Cela permet d avoir plus

Plus en détail

INDUSTRIALISATION ET RATIONALISATION

INDUSTRIALISATION ET RATIONALISATION INDUSTRIALISATION ET RATIONALISATION A. LA PROBLEMATIQUE La mission de toute production informatique est de délivrer le service attendu par les utilisateurs. Ce service se compose de résultats de traitements

Plus en détail

Besoin de concevoir des systèmes massivement répartis. Comment tester le système? Solution. Évaluation de systèmes répartis à large échelle

Besoin de concevoir des systèmes massivement répartis. Comment tester le système? Solution. Évaluation de systèmes répartis à large échelle Besoin de concevoir des systèmes massivement répartis. Évaluation de systèmes répartis à large échelle Sergey Legtchenko Motivation : LIP6-INRIA Tolérance aux pannes Stockage de données critiques Coût

Plus en détail

Analyse de la démographie des objets dans les systèmes Java temps-réel

Analyse de la démographie des objets dans les systèmes Java temps-réel Analyse de la démographie des objets dans les systèmes Java temps-réel Nicolas BERTHIER Laboratoire VERIMAG Responsables du stage : Christophe RIPPERT et Guillaume SALAGNAC le 29 septembre 26 1 Introduction

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

La Gestion des Fichiers

La Gestion des Fichiers KWWSZZZDGHOHLPDJIUaGRQVH]FRXUV 6\VWqPHVG ([SORLWDWLRQ La Gestion des Fichiers Hafid Bourzoufi Université de Valenciennes Didier Donsez Université Grenoble 1 'LGLHU'RQVH]#LPDJIU 2 Système de fichiers De

Plus en détail

Guide de démarrage rapide avec DataStudio Online Edition

Guide de démarrage rapide avec DataStudio Online Edition Guide de démarrage rapide avec DataStudio Online Edition Introduction Ce document vient en complément des films de démonstration disponibles sur le site web de data. L ETL ETL est un sigle qui signifie

Plus en détail

Réplication de données de classe entreprise pour environnements distribués et reprise sur sinistre

Réplication de données de classe entreprise pour environnements distribués et reprise sur sinistre Réplication de données de classe entreprise pour environnements distribués et reprise sur sinistre La tendance actuelle vers une conception distribuée de l entreprise, avec des agences, des centres de

Plus en détail

Utilisation du RAID logiciel Sur un serveur Windows 2000

Utilisation du RAID logiciel Sur un serveur Windows 2000 BTS INFORMATIQUE DE GESTION Option Administrateur de réseaux développement d applications COMPTE-RENDU D ACTIVITE ACTIVITE N 6 Nom et Prénom : Casanova Grégory Identification (objectif) de l activité Utilisation

Plus en détail

11. Tests d hypothèses (partie 1/2)

11. Tests d hypothèses (partie 1/2) 11. Tests d hypothèses (partie 1/2) MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v1) MTH2302D: tests d hypothèses 1/30 Plan 1. Introduction 2. Hypothèses et erreurs 3. Tests d hypothèses

Plus en détail

INFO-F-309 Administration des Systèmes. Sébastien Collette. Université Libre de Bruxelles. CH1: Virtualisation

INFO-F-309 Administration des Systèmes. Sébastien Collette. Université Libre de Bruxelles. CH1: Virtualisation INFO-F-309 Administration des Systèmes Sébastien Collette Université Libre de Bruxelles CH1: Virtualisation Virtualisation Faire fonctionner sur une même machine plusieurs instances de systèmes d exploitation,

Plus en détail

Contrôlez et Maîtrisez votre environnement de messagerie Lotus Notes Domino

Contrôlez et Maîtrisez votre environnement de messagerie Lotus Notes Domino Contrôlez et Maîtrisez votre environnement de messagerie Lotus Notes Domino avec MailFlow Analyzer TM un produit de l Infrastructure Management Suite TM Copyright COOPERTEAM SOFTWARE 2013 La gestion de

Plus en détail

1 - Oracle Fusion Middleware concepts

1 - Oracle Fusion Middleware concepts 1 - Oracle Fusion Middleware concepts 1 Concepts : OFM Fournit 2 types de composants : - composants Java déployés comme applications java EE et un ensemble de ressources. Les composants java sont déployés

Plus en détail

CHAPITRE 4: RAID (Redundant Array of Independant / Inexpensive Disks)

CHAPITRE 4: RAID (Redundant Array of Independant / Inexpensive Disks) CHAPITRE 4: RAID (Redundant Array of Independant / Inexpensive Disks) Le system RAID peut être Matériel ou Logiciel I. RAID 0 : Volume agrégé par bandes (Striping) On a un fichier découpé en plusieurs

Plus en détail

Séance 12: Algorithmes de Support Vector Machines

Séance 12: Algorithmes de Support Vector Machines Séance 12: Algorithmes de Support Vector Machines Laboratoire de Statistique et Probabilités UMR 5583 CNRS-UPS www.lsp.ups-tlse.fr/gadat Douzième partie XII Algorithmes de Support Vector Machines Principe

Plus en détail

Shaman-X projet de de logiciel libre Plan de de secours informatique

Shaman-X projet de de logiciel libre Plan de de secours informatique Shaman-X projet de de logiciel libre Plan de de secours informatique Nouvelles fonctionnalités à moindre coût pour la haute disponibilité, la tolérance au désastre et la gestion de crise Auteur: Dominique

Plus en détail

Structure fonctionnelle d un SGBD

Structure fonctionnelle d un SGBD Fichiers et Disques Structure fonctionnelle d un SGBD Requetes Optimiseur de requetes Operateurs relationnels Methodes d acces Gestion de tampon Gestion de disque BD 1 Fichiers et Disques Lecture : Transfert

Plus en détail

Comment mesurer les temps de calcul de vos programmes? Bonne pratique et pièges à éviter

Comment mesurer les temps de calcul de vos programmes? Bonne pratique et pièges à éviter Comment mesurer les temps de calcul de vos programmes? Bonne pratique et pièges à éviter Caroline Prodhon (carolineprodhon@hotmail.com) Philippe Lacomme (placomme@isima.fr) Ren Libo (ren@isima.fr) Remerciements

Plus en détail

Systèmes d'exploitation Chapitre II. Gestion des processus

Systèmes d'exploitation Chapitre II. Gestion des processus Systèmes d'exploitation Chapitre II Gestion des processus 1 Processus Un programme qui s exécute Les ordinateurs autorisent maintenant plusieurs processus simultanément (pseudo parallélisme) A B A B C

Plus en détail

Analyse abstraite de missions sous PILOT

Analyse abstraite de missions sous PILOT Analyse abstraite de missions sous PILOT Damien Massé EA 3883, Université de Bretagne Occidentale, Brest damien.masse@univ-brest.fr Résumé Nous étudions la possibilité de réaliser un analyseur par interprétation

Plus en détail

Méthode de Test. Pour WIKIROUTE. Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel.

Méthode de Test. Pour WIKIROUTE. Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel. Méthode de Test Pour WIKIROUTE Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel. [Tapez le nom de l'auteur] 10/06/2009 Sommaire I. Introduction...

Plus en détail

Variantes d exploitation dans un environnement hautement disponible

Variantes d exploitation dans un environnement hautement disponible Département fédéral de l'intérieur DFI Office fédéral de la statistique OFS Division Registres Team sedex 29.07.2014, version 1.0 Client sedex Variantes d exploitation dans un environnement hautement disponible

Plus en détail

CLIC Cluster LInux pour le Calcul

CLIC Cluster LInux pour le Calcul CLIC Cluster LInux pour le Calcul http://clic.mandrakesoft.com Wilfrid Billot (@imag.fr) ID-IMAG Projet Apache http://www-id.imag.fr Plan ¾ Introduction à CLIC ¾ CLIC et les clusters ¾ Ce qui existe déjà

Plus en détail

Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription

Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Présentée par Leila Abidi Sous la direction de Mohamed Jemni & Christophe Cérin Plan Contexte Problématique Objectifs

Plus en détail

Développement itératif, évolutif et agile

Développement itératif, évolutif et agile Document Développement itératif, évolutif et agile Auteur Nicoleta SERGI Version 1.0 Date de sortie 23/11/2007 1. Processus Unifié Développement itératif, évolutif et agile Contrairement au cycle de vie

Plus en détail

Cluster. Une introduction aux architectures systèmes distribuées. Université de Haute Alsace Octobre 2003

Cluster. Une introduction aux architectures systèmes distribuées. Université de Haute Alsace Octobre 2003 Cluster Une introduction aux architectures systèmes distribuées Université de Haute Alsace Octobre 2003 Plan Généralisation Technique Introduction Applications $$$ Définition Questions? Idées Plan Plan

Plus en détail

M2 TIIR (2013-2014) Bilel Derbel

M2 TIIR (2013-2014) Bilel Derbel M2 TIIR (2013-2014) Bilel Derbel Notre but est de concevoir une application générique sur grid5000 qui permet de déployer des calculs parallèles de façon transparente Plus précisément, nous nous plaçons

Plus en détail