Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel
|
|
- Eveline Roussy
- il y a 8 ans
- Total affichages :
Transcription
1 RenPar 18 / SympA 2008 / CFSE 6 Fribourg, Suisse, du 11 au 13 février 2008 Prédiction des performances des opérations de sauvegarde/reprise sur cluster virtuel Yenké Blaise Omer Laboratoire LIG (équipe MESCAL), Grenoble, France ; Université de Yaoundé I, Cameroun blaise-omer.yenke@imag.fr Résumé Nous nous proposons d utiliser les ressources disponibles d un intranet d une entreprise durant les périodes d inactivité des PC (nuits, week-ends, congés). L idée est de constituer un cluster virtuel avec les postes libres de l intranet pour faire du calcul scientifique. De tels objectifs étaient la préoccupation du projet IGGI 2, et restent d actualité. Les différentes plages ainsi disponibles ne permettent pas toujours d exécuter les applications jusqu à leurs termes. Dans ce cas, les mécanismes de sauvegarde/reprise (checkpointing) permettent d exploiter efficacement ce type d infrastructure et assurent la continuité des calculs. Cependant, la sauvegarde du contexte d exécution d une application a un coût en temps et en espace disque. Ces contraintes sont encore plus fortes lorsque plusieurs applications sont en concurrence pour les accès réseau et disque. Dans cet article, nous présentons un modèle qui permet de prédire les performances du checkpointing en tenant compte des contraintes de congestion au niveau du réseau et du disque de sauvegarde. Nous illustrons l utilité du modèle dans la prédiction de la durée de sauvegarde du contexte de plusieurs applications séquentielles indépendantes. Pour notre modélisation, nous utilisons le système de checkpointing BLCR (Berkeley Linux Checkpointing Restart). Mots-clés : prédiction ; performance ; checkpointing ; BLCR 1. Introduction Les entreprises, les instituts, les universités, etc. disposent aujourd hui d intranets dotés de serveurs et d un grand nombre de postes de travail. Dans certaines de ces organisations, les postes de travail sont très peu utilisés la nuit, les week-ends et pendant les périodes de congés, libérant une grande puissance de calcul. Il serait donc judicieux d exploiter les longues périodes d inactivité des postes de travail par des applications nécessitant la ressource de calcul. L idée est donc de constituer des clusters virtuels à partir des postes non utilisés pour exploiter à bon escient les temps de jachère. Un cluster virtuel est une infrastructure de calcul constituée de ressources réparties sur un intranet de façon dynamique. Dans notre contexte, les postes de travail retenus pour le cluster virtuel, principalement sous le système Windows, seront rebootés sous Linux avec un outil tel que ComputeMode [1] et managés par un gestionnaire de ressources comme OAR [2], tout comme l avait envisagé le projet IGGI [5]. Sur ces postes, seules les ressources comme le CPU et la RAM seront utilisées. On considère que la sauvegarde des contextes d exécution des applications s exécutant sur ces postes se fait sur le disque du serveur. Cette dernière considération permet d éviter de sauvegarder localement car le poste pourrait ne plus être disponible le lendemain. Sur des infrastructures de type cluster virtuel, la volatilité des ressources est une des propriétés à prendre en compte. Les postes de travail doivent par exemple être restitués le matin au retour des employés. Il y a donc nécessité d assurer la sauvegarde d un calcul inachevé en vue d une éventuelle reprise. Dans ce cas les mécanismes de checkpointing sont une bonne solution. De nombreux travaux ont été menés sur les techniques de sauvegarde/reprise, ainsi notre objectif n est pas d en développer de nouvelles. En effet nous utilisons les fonctionnalités des systèmes de checkpointing existants pour gérer une panne de façon prévisible (arrêt voulu des machines). Une question à Financé par une bourse du Service de Coopération et d Action Culturelle, Ambassade de France au Cameroun 2 Projet RNTL démarré en 2004 et terminé en janvier 2007
2 laquelle nous essayerons d apporter une réponse est la suivante : A quel moment lancer le processus de sauvegarde des applications inachevées afin que les postes de travail soient disponibles avant 8h par exemple? Nous étudions donc dans cet article les insuffisances du dispositif de sauvegarde afin de pouvoir prédire dynamiquement le temps de sauvegarde du système. La suite de cet article est organisée comme suit. La section 2 décrit quelques mécanismes du checkpointing. Nous présentons à la section 3 quelques expériences qui ont été menées et qui ont conduit à l élaboration du modèle que nous présentons à la section 4. Nous évaluons le modèle à la section 5 et nous concluons en donnant quelques axes pour la suite de ce travail. 2. État de l art Les principaux intérêts du checkpointing dans les environnements de cluster sont la tolérance aux fautes, la préemption, la migration de processus. La tolérance aux fautes des applications est réalisée au moyen de points de reprise périodiques. Cette caractéristique est essentiellement importante pour les applications longues (plusieurs heures voir plusieurs jours d exécution). Dans ces longues périodes d exécution, la probabilité de l occurrence d une panne au niveau matériel, réseau, système d exploitation, ou des applications même, peu être très grande. La sauvegarde régulière des points de reprise vers un support stable est alors une nécessité. La préemption est la procédure qui consiste à stopper temporairement un processus dans le but d allouer les ressources à un autre. La préemption est nécessaire pour implémenter les fonctionnalités principales d un ordonnanceur (priorité, réservation, etc.). La migration de processus est la procédure qui consiste à déplacer un job d un noeud à un autre. Elle est spécialement utile dans le cas de la préemption. Plusieurs travaux de recherche [8, 9, 10, 13] ont contribué à améliorer les performances du checkpointing, en mettant l accent sur la totalité ou une partie des caractéristiques comme la disponibilité, la fiabilité et la maintenabilité des systèmes distribués. Toutefois, la plupart des travaux modélisant le checkpointing considèrent des sauvegardes à intervalles réguliers, sans trop se préoccuper des charges réseau et disque Mécanismes du checkpointing Le checkpointing est la procédure qui consiste à sauvegarder le contexte d exécution d un processus actif dans un fichier sur un support stable. Le fichier ainsi sauvegardé contient toutes les informations nécessaires à la reconstruction du processus à partir de ce point de sauvegarde. Un grand nombre de systèmes de checkpointing libres existent aujourd hui, mais aucun n est encore capable de sauvegarder le contexte de tout type d application. On dénote trois types d implémentation du checkpointing : Checkpointing de niveau système : C est l approche la plus transparente. Dans ce cas, le checkpointing est réalisé au niveau du noyau. L utilisateur n a pas besoin de recompiler son application ou d en rétablir l édition des liens. Cependant cette approche est la moins efficace car le système n a aucune connaissance de la structure de l application. Il fait tout simplement un dump sur la mémoire du processus et l enregistre dans le fichier de checkpoint. Les systèmes émergeant dans ce courant sont CRAK [18], BLCR [4], Cryopid [3]. Checkpointing de niveau bibliothèque : Dans cette approche, l utilisateur doit rétablir l édition des liens avec la bibliothèque pour préparer son code à la sauvegarde. Le checkpointing est réalisé par un envoi de signal à l application. L inconvénient dans cette approche est la recompilation de l application. Dans ce courant, on retrouve plusieurs implémentations comme Libckpt [12], Condor [9]. Checkpointing de niveau application : Réalisé par le programmeur lui-même. Le programmeur implémente des procédures pour effectuer les opérations de sauvegarde/reprise. Cette approche semble être la plus efficace car le programmeur peut décider de sauvegarder juste une partie des données de l application. Cependant elle est la moins transparente et requiert un grand effort de la part du programmeur Performance du checkpointing J. S. Plank et M. G. Thomason [13] ont proposé un modèle dans lequel la disponibilité moyenne A du système est ( une mesure de performance du checkpointing. Ce paramètre donné par la formule mathématique A = ) Ce (I λi e λi ) 1 e λi λe λ(r+l) est maximisé par la détermination d un intervalle I optimal entre deux sauvegardes. I est la fréquence de checkpointing qui minimise les pertes de temps pour
3 une application qui s exécute en présence de pannes. λ est le nombre moyen d apparition des pannes. C est le temps de continuation de l application pendant que la sauvegarde du contexte est en cours. Dans ce modèle, les temps de sauvegarde L et de reprise R sont supposés constants ; ce qui ne cadre pas avec la réalité. En fait leur modèle ne tient pas compte de l espace mémoire occupé par l application, lequel influence considérablement le temps de sauvegarde. E. Imamagic et al. [8] ont proposé une approche pour optimiser les performances du checkpointing en minimisant les temps de sauvegarde des points de reprise et la charge du réseau. Ils considèrent deux intervalles de temps. La plus courte période correspond au temps d exécution entre deux points de reprise qui doivent être sauvegardés localement. La plus longue correspond au temps d exécution entre deux points de reprise qui doivent être sauvegardés sur un support distant. L approche de sauvegarde locale permet ainsi de minimiser la charge du réseau et d accroître la vitesse des sauvegardes. Cette approche est certes efficace, mais elle n est indiquée que pour des clusters dédiés. De plus leur modèle ne prend pas en compte les conflits qui peuvent se présenter pour les accès concurrents au réseau. Dans notre cas, nous étudions la modélisation des performances du checkpointing en tenant compte des contraintes réseau et disque pour minimiser les pertes de temps de sauvegarde, et gagner en temps de calcul. Pour ce faire nous avons mené une série d expériences qui nous ont conduit au modèle présenté par la suite. 3. Experimentations Les expériences menées dans [6] montrent que le temps de sauvegarde est en général influencé par le rapport entre la mémoire virtuelle du processus et la taille de la mémoire RAM, l écriture en local ou à distance. Nous présentons ici quelques unes des expériences que nous avons effectué pour étudier les performances du dispositif de sauvegarde. Pour faire des mesures réalistes, nous considérons que les applications résident complètement en mémoire physique. Plate-forme expérimentale Nos expériences ont été menées sur l infrastructure Grid dans laquelle le gestionnaire de travaux OAR gère les ressources de la grille. Une image a été déployée sur les noeuds réservés, l un des noeuds faisant office de serveur NFS (Network File System). Bien que des extensions de NFS comme ClusterNFS [16] sont en cours d étude pour optimiser ses performances au niveau des opérations de lecture/écriture, le standard NFS demeure largement utilisé dans les environnements de cluster. Les tests ont été menés sur le cluster de Sophia dont les noeuds sont des bi-processeurs AMD Opteron 2GHz, 2Go de RAM, disque dur 80 Go (IDE-amd74xx) dont les débits en moyenne sont 50 Mo/s. Les noeuds sont reliés par un réseau Ethernet gigabit, et partagent le /home (monté en synchrone) du serveur. Codes utilisés Code de calcul multigrilles : développé au sein du laboratoire ID-IMAG 4 pour la résolution des équations aux dérivées partielles. C est une application dont la taille mémoire physique croît considérablement lorsque l on fait accroître le nombre de points sur les grilles. Bench1 : Application synthétique dont toutes les pages de la mémoire physique sont sauvegardées. Système de checkpointing utilisé : BLCR BLCR est un mécanisme de checkpointing de niveau système. Il est basé sur la création d un fichier de point de reprise. Nous avons porté notre intérêt sur BLCR car il permet d établir des points de reprise tant pour les applications séquentielles que parallèles (multithreads). Il peut être couplé à LAM/MPI [15] pour le checkpointing des applications parallèles. Méthodologie Nous avons exécuté en parallèles des applications séquentielles identiques indépendantes sur n noeuds (de 1 à 30), en faisant varier la taille des applications. Au cours de l exécution, un script génère des fichiers de trace comportant le temps et la taille des points de reprise. Les mesures ont été considérées en analysant leur validité statistique (moyenne, écart-type).la moyenne a été le facteur clé Fichier de point de reprise généré par BLCR De nombreux tests effectués avec BLCR nous ont amené à nous intéresser au fichier de point de reprise généré par BLCR. C est un fichier binaire dont la structure ne se trouve pas dans la littérature. Aussi 3 http :// 4 devenu LIG (Laboratoire d Informatique de Grenoble)
4 avons-nous modifié BLCR, principalement le module vmadump, uniquement pour tracer l écriture dans le fichier de de point de reprise. Ceci nous a permis de constater que BLCR écrit essentiellement et alternativement des blocs de taille la longueur des entêtes des pages mémoires et la taille de ces pages (resp. 4octects et 4Ko pour notre Système d Exploitation), pour les pages de la mémoire mappée du processus qui ont été modifiées au moins une fois. Nous avons émulé BLCR par un programme qui écrit des blocs dans un fichier comme le fait BLCR. Les figures 1 et 2 montrent les résultats obtenus pour une sauvegarde en local et à distance. Dans les deux cas, l écart entre les temps de sauvegarde avec BLCR et par émulation est de l ordre du centième de seconde. Ceci montre que le surcoût pris par BLCR pour traiter les pages est négligeable. Ce test nous a conduit à considérer la mémoire physique du processus comme un paramètre pour notre modélisation. FIG. 1 Temps de sauvegarde du code de FIG. 2 Temps de sauvegarde du code de calcul multigrilles avec BLCR et par émulation de BLCR, en local lation de BLCR, à calcul multigrilles avec BLCR et par ému- distance 3.2. Evolution de la bande passante La figure 3 montre l évolution de la bande passante utilisée en fonction du nombre de nœuds pour différentes tailles du code de calcul multigrilles. On constate que toutes ces courbes ont des allures paraboliques et présentent des pics. La concavité de ces courbes montre qu avant le pic, le réseau n est pas surchargé et que le disque tient la charge. Après les pics, la diminution de la bande passante utilisée indique des pertes de performance du dispositif de sauvegarde. Ceci peut être dû à la latence au niveau du disque et au système de fichier NFS qui perd en performance lorsque le nombre de clients croît. FIG. 3 Bande passante utilisée en fonction du nombre de nœuds selon la taille des applications Les expériences que nous avons menées nous ont permis de constater que la sauvegarde du contexte d une application est fortement influencée par la taille de la mémoire allouée à cette application. De plus, lors du checkpointing de plusieurs applications séquentielles indépendantes se partageant le réseau et le disque de sauvegarde, la courbe donnant la bande passante utilisée croît et décroît, en fonction du nombre de processus et de leur taille agrégée. Lorsque cette courbe décroît, cela traduit des pertes de performances, mais on ne saurait dire si cela est dû au réseau ou au support de sauvegarde. Cela nous a conduit à adopter la modélisation présentée à la section suivante.
5 4. Modélisation On considère p applications séquentielles indépendantes en cours d exécution dans un intranet, une application par nœud. On voudrait les sauvegarder avant un délai. Les sauvegardes doivent se faire sur le disque du serveur. A quel moment donc lancer les sauvegardes? Compte tenu des contraintes précédemment mentionnées, on sait qu on ne peut pas les sauvegarder toutes à la fois. La solution est donc de déterminer dans un premier temps le nombre n < p de processus que l on peut sauvegarder simultanément de tel sorte que le réseau et le disque tiennent la charge (on confondra nœud et application sans nuire à la généralité). Ensuite ordonnancer les sauvegardes pour prédire le temps de sauvegarde du système. Pour ce faire, on suppose que les applications sont suffisamment longues, qu elles résident entièrement en mémoire physique et que leurs tailles ne varient plus (du moins de plus d un Mo, ce qui pourrait encore être considéré comme erreur de mesure) dès le début de la prédiction Approche NFS effectue habituellement des lectures/écritures de blocks de taille 8Ko. Or nous avons montré à la section 3.1 que certains blocks écrits par BLCR sont de taille très inférieure à 8Ko. Lors de la sauvegarde il est donc difficile de savoir si les blocs sont immédiatement écrits sur disque ou s ils sont d abord mis en cache par NFS. De plus NFS perd en performance [11, 17] avec la croissance du nombre de clients. Compte tenu de ces contraintes, il est très difficile de déterminer séparément l impact du réseau, des bus et du disque sur les performances du checkpointing. Nous avons donc procédé par une analyse de l évolution de la bande passante utilisée. Compte tenu de l allure parabolique des courbes de la figure 3 donnant les débits en fonction du nombre de nœuds pour chaque taille considérée, nous avons approximé de façon satisfaisante chaque bande passante par une fonction polynomiale de la forme g(n) = αn 2 + βn + γ (1) En regroupant les mesures dans le tableau de la figure 4, on constate que plus les tailles des applications sont petites, plus le nombre maximal de processus que l on peut sauvegarder simultanément est grand, ainsi que la bande passante utilisée, pendant que la taille agrégée reste la plus petite. FIG. 4 Récapitulatif des mesures effectuées pour les bandes passantes maximales FIG. 5 Bande passante utilisée en fonction de la taille agrégée pour les nombres de nœuds sur les pics Au vu de la concavité de la courbe de la figure 5, nous avons donc approximé la fonction donnant la bande passante utilisée en fonction de la taille agrégée, par une fonction polynomiale de la forme h(t) = λt 2 + ν (2) le coefficient du monôme de premier degré en T s étant avéré quasiment nul Le modèle Ainsi, pour une taille t fixée, la bande passante utilisée peut s écrire comme une fonction du nombre de nœuds n (équation (1)). De même pour n fixé, la bande passante utilisée peut s exprimer comme une fonction de la taille agrégée des applications (équation (2)). De ce qui précède, nous déduisons une modélisation de la bande passante en fonction du nombre de nœuds n et de la taille agrégée T des applications par une approximation polynomiale : ϕ(n, T) = an 2 T 2 + bn 2 + ct 2 + dn + e
6 où les coefficients a, b, c, d, e sont déterminés par la méthode des moindres carrés comme suit : Soit l expression y = ϕ(n, T) de la bande passante utilisée, soit à minimiser la fonction ψ(a, b, c, d, e) = r s i ( yij an 2 ijtj 2 bn 2 ij ctj 2 dn ij e ) 2 i=1 j=1 où r est le nombre de tailles utilisées s i le nombre de mesures dans la taille t i n ij le nombre de noeuds dans la taille t i à chaque mesure j y ij les bandes passantes utilisées mesurées T i la taille agrégée obtenue à partir du pic de la courbe donnant la bande passante utilisée pour les applications de taille t i. Les coefficients a, b, c, d, e sont donc obtenus en résolvant les équations aux dérivées partielles : ψ = 0, ω {a, b, c, d, e} ω La fonction ϕ(n, T) donnant la bande passante utilisée est dès lors entièrement déterminée. Compte tenu de sa concavité, le nombre de nœuds n optimal qui rend ϕ(n, T) maximal est tel que : soit V k la taille agrégée des k applications considérées, n < n optimal, ϕ(n, V n ) < ϕ(n optimal, V noptimal ) n > n optimal, ϕ(n, V n ) < ϕ(n optimal, V noptimal ) L algorithme de calcul de n optimal repose sur ces deux propriétés. Une fois n optimal déterminé, on peut partager la bande passante entre les nœuds. Le temps estimé pour la sauvegarde d une application de taille t i, est alors t i / [ ϕ(n optimal, V noptimal )/n optimal ] On peut maintenant ordonnancer les sauvegardes. L algorithme de prédiction du temps global de sauvegarde du contexte des applications est basé sur le principe du list scheduling [7]. Ici les tâches sont les sauvegardes à effectuer. Le schéma général de l algorithme est le suivant : Trier la liste des p applications suivant les tailles décroissantes Calculer la bande passante par nœud pour les premières applications Lancer la sauvegarde des premières applications tantque cardinal {Applications_sauvegardées} < p faire si fin d une sauvegarde ou d un groupe de sauvegardes alors Noter les temps de complétion si cardinal {{Sauvegarde_en_cours} {Applications_non_encore_sauvegardées}} < n optimal alors Recalculer la bande passante fin si Lancer autant de nouvelles sauvegardes (s il en reste encore) que d achevées fin si fin tantque temps_estimé = max{temps_de_complétion} FIG. 6 Schéma de l algorithme de prédiction du temps de sauvegarde de p applications séquentielles Connaissant le temps estimé, on peut dès lors savoir à quel moment lancer le début des sauvegardes pour arrêter avant un certain délai. 5. Evaluation Pour valider notre modèle, nous comparons les temps de sauvegarde prédits aux temps mesurés. Pour obtenir les mesures, nous avons implémenté un ordonnanceur calqué sur l algorithme de prédiction. L application exécutée par chaque nœud et qui doit être sauvegardée est le code Bench1 mentionné
7 plus haut. Le programme de test, dont le fonctionnement est illustré à la figure 7, est une application client/serveur multithreads basée sur le modèle «un thread par client accepté» [14]. FIG. 7 Schéma du programme de validation L application serveur est démarrée sur le nœud faisant office de serveur NFS. Le module Lancement indique aux nœuds clients d exécuter l application Bench1 avec la taille spécifiée. Chaque client reçoit l ordre de lancement et crée un processus fils dont le contexte d exécution est remplacé par celui de l application qu il exécute en la préparant à la sauvegarde avec BLCR. Ceci permet à l application cliente d obtenir le PID du processus à sauvegarder. Le module Lancement communique les tailles des applications aux modules Prédiction et Ordonnancement. Le module Prédiction détermine n optimal et calcule le temps estimé pour la sauvegarde, puis communique n optimal au module Ordonnancement qui déclanche le lancement des sauvegardes. Dès qu une sauvegarde est achevée, celle du prochain processus dans la liste des applications à sauvegarder est lancée. Les temps estimés et mesurés sont enregistrés dans des fichiers de trace. Les figures 8,9,10 et 11 montrent les résultats obtenus sur quatre tests différents. FIG. 8 Temps de sauvegarde mesuré et prédit. Taille des applications suré et prédit. Taille des applications FIG. 9 Temps de sauvegarde me- 10 Mo. n optimal = Mo. n optimal = 14 FIG. 10 Temps de sauvegarde mesuré et prédit. Taille des applications suré et prédit. Taille des applications FIG. 11 Temps de sauvegarde me- 100 Mo. n optimal = Mo. n optimal = 7 On constate dans les différentes figures que les courbes des temps mesurés et prédits varient de façon comparable, et que le module de prédiction parvient à prédire le temps de complétion avec une erreur maximale inférieure à 25% et une erreur minimale autour de 2%.
8 6. Conclusion Nous avons mené un grand nombre d expérimentations qui nous on conduit dans ce travail à présenter un modèle permettant de déterminer les performances du dispositif de sauvegarde pour le checkpointing de plusieurs applications séquentielles indépendantes dans un cluster virtuel. Cela a permis ensuite de proposer un algorithme basé sur le List Scheduling pour prédire dynamiquement le temps de complétion des sauvegardes. Ce travail intéresserait un gestionnaire de travaux comme OAR qui peut être amené à préempter des jobs pour diverses raisons. Le modèle a certes été établi sur une architecture déterminée, mais il peut être une piste pour des études sur d autres architectures. Nous comptons étendre ce travail au niveau de la sauvegarde du contexte d exécution des applications parallèles, où en plus des contraintes liées à la concurrence des accès réseau et disque, il va falloir tenir compte de la synchronisation entre les processus, pour estimer le temps de sauvegarde du système. L intégration des modèles de communications concurrentes existants sera intéressant. Bibliographie 1. http :// 2. N. Capit, G. Da Costa, Y. Georgiou, G. Huard, C. Martin, G. Mounié, P. Neyron, and O. Richard. A batch scheduler with high level components. In Proceedings of Cluster Computing and Grid (CCGRID), Mai Cryopid. CryoPID : A Process Freezer for Linux. http ://cryopid.berlios.de, J. Duell, P. Hargrove, and E. Roman. The design and implementation of berkeley lab s linux checkpoint/restart. Technical Report Berkeley Lab LBNL-54941, November F. Dupros, F. Boulahya, J. Vairon, P. Lombard, N. Capit, and J-F. Méhaut. IGGI, a computing framework for large scale parametric simulations : application to uncertainty analysis with toughreact. In In Proceedings, Tough Symposium, F. Dupros and A. Carissimi. Sauvegarde et reprise d applications parallèles dans le cadre d un intranet. Ren- Par 17 / SympAAA 2006 / CFSE 5 / JC 2006 Canet en Roussillon, 4 au 6 octobre L.A. Hall, D.B. Shmoys, and J. Wein. Scheduling to minimise average completion time : off-line and on-line algorithms. Proc. of the Sixth ACM-SIAM Symposium on Discrete Algorithm, January E. Imamagic, D. D. Zagar, and B. Radic. Checkpointing approach for computer clusters. IIS, M. Litzkow, T. Tannenbauw, J. Basney, and M. Livny. Checkpoint and migration of unix process in the condor distributed processing system. Technical Report CS-TR , University of Wisconsin, Madison, Apr J-M. Nlong and Y. Denneulin. Migration des processus linux sous i-cluster. RENPAR 15 / CFSE 3 / SympAAA La Colle sur Loup, France, 15 au 17 octobre T. Olivares, L. Orozco-Barbosa, F. Quiles, A. Garrido, and P.J. Garcia. Performance study on nfs over myrinetbased clusters for parallel multimedia applications. TIC, J.S. Plank, M. Beck, G. Kingsley, and K. Li. Libckpt : Transparent checkpointing under unix. In Proceedings of the 1995 Winter USENIX Technical Conference, J.S. Plank and M. G. Thomason. The average availability of uniprocessor systems, revisited. Technical Report UT-CS , Departement of Computer Science, University of Tenesse, August W. Richard Stevens. Unix Network Programming, volume 1. Prentice Hall PTR, second edition, S. Sankaran, J. M. Squyres, B. Barrett, and A. Lumsdaine. The lam/mpi checkpoint/restart framework : Systeminitiated checkpointing. Proceedings, LACSI Symposium, October R. Tang, J. Xiong, J. Ma, and D. Meng. A new way to high performance nfs for clusters. Proceedings of the Sixth International Conference on Parallel and Distributed Computing, Applications and Technologies (PDCAT 05). IEEE, T. Sterling W. Gropp, E. Lusk. Beowulf Cluster Computing with Linux H. Zhong and J. Nieh. CRAK : Linux Checkpoint/Restart as a Kernel Module. Technical Report CUCS , Department of Computer Science, Columbia University, November 2001.
Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information
Projet IGGI Infrastructure pour Grappe, Grille et Intranet CASCIMODOT - Novembre 2005 Fabrice Dupros CONTEXTE > Etablissement Public à caractère Industriel et Commercial (EPIC) Sous la tutelle des Ministères
Plus en détailLes environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
Plus en détailContributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
Plus en détailEnseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper
Plus en détailRapport d activité. Mathieu Souchaud Juin 2007
Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix
Plus en détailEvaluation des performances de programmes parallèles haut niveau à base de squelettes
Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,
Plus en détailCommunications performantes par passage de message entre machines virtuelles co-hébergées
Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction
Plus en détailProjet ViSaGe : implémentation de l administration et du monitoring de ViSaGe (Virtualisation du Stockage appliquée aux Grilles informatiques)
RenPar 18/ SympA 2008 / CFSE 6 / JC 2008 Fribourg en Suisse, 11 au 13 février 2008 Projet ViSaGe : implémentation de l administration et du monitoring de ViSaGe (Virtualisation du Stockage appliquée aux
Plus en détailFAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Plus en détailJulien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration
Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...
Plus en détailFAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Plus en détailVous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,
Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis
Plus en détail4. Utilisation d un SGBD : le langage SQL. 5. Normalisation
Base de données S. Lèbre slebre@unistra.fr Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :
Plus en détailProgrammation C. Apprendre à développer des programmes simples dans le langage C
Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités
Plus en détail«clustering» et «load balancing» avec Zope et ZEO
IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4
Plus en détailEric Bertrand ebertrand@ixis-cib.com. 08/11/06 Maître de conférence 1
Calcul parallèle des options MC. Eric Bertrand ebertrand@ixis-cib.com 1 Plan Contexte du calcul parallèle Qualités requises Architecture Outillage Problèmes rencontrés perspectives 2 Contexte du calcul
Plus en détailen version SAN ou NAS
tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi
Plus en détailLa continuité de service
La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici
Plus en détailvbladecenter S! tout-en-un en version SAN ou NAS
vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de
Plus en détailLivre blanc Haute disponibilité sous Linux
Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises
Plus en détailSolutions de stockage réseau
Solutions de stockage réseau Adrien Waksberg Jonathan Demmerle Sofiane El Harsal Mohamed Bennoiken 28 mars 2012 Sommaire Introduction Sommaire Le projet Le Grid 5000 1 Introduction 2 3 4 5 6 Sommaire Le
Plus en détailOrdonnancement temps réel
Ordonnancement temps réel Laurent.Pautet@enst.fr Version 1.5 Problématique de l ordonnancement temps réel En fonctionnement normal, respecter les contraintes temporelles spécifiées par toutes les tâches
Plus en détailGestion de clusters de calcul avec Rocks
Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte
Plus en détailEtude d architecture de consolidation et virtualisation
BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.
Plus en détailLeçon 1 : Les principaux composants d un ordinateur
Chapitre 2 Architecture d un ordinateur Leçon 1 : Les principaux composants d un ordinateur Les objectifs : o Identifier les principaux composants d un micro-ordinateur. o Connaître les caractéristiques
Plus en détailRetours d expériences et perspectives sur les aspects énergétiques
Retour d expériences Retours d expériences et perspectives sur les aspects énergétiques d un mesocentre (Grenoble) GreenDays@Luxembourg CIMENT, LIG 28-29 Janvier 2013 Bruno Bzeznik Retour d expériences
Plus en détailPlan de cette matinée
Plan de cette matinée Windows 2008 Les différentes versions Migration Rôles et fonctionnalités Présentation des nouveautés Windows 2008 R2 Les apports de cette nouvelle version Windows 7 Les différentes
Plus en détailTechnologie de déduplication de Barracuda Backup. Livre blanc
Technologie de déduplication de Barracuda Backup Livre blanc Résumé Les technologies de protection des données jouent un rôle essentiel au sein des entreprises et ce, quelle que soit leur taille. Toutefois,
Plus en détailManuel de System Monitor
Chris Schlaeger John Tapsell Chris Schlaeger Tobias Koenig Traduction française : Yves Dessertine Traduction française : Philippe Guilbert Traduction française : Robin Guitton Relecture de la documentation
Plus en détailMétriques de performance pour les algorithmes et programmes parallèles
Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and
Plus en détailClusters de PCs Linux
Clusters de PCs Linux Benoit DELAUNAY delaunay@in2p3.fr Centre de Calcul de l'in2p3 Plan Historique PC au CCIN2P3. Une première étape. Une réponse à la demande. Une véritable orientation. La place des
Plus en détailTests de performance du matériel
3 Tests de performance du matériel Après toute la théorie du dernier chapitre, vous vous demandez certainement quelles sont les performances réelles de votre propre système. En fait, il y a plusieurs raisons
Plus en détailServeur de sauvegarde à moindre coût
1/28 Serveur de sauvegarde à moindre coût Yann MORÈRE LASC http://www.lasc.univ-metz.fr/ I. Cahier des charges II. Solution III. Présentation des outils utilisés IV. Mise en œuvre 2/28 Cahier des charges
Plus en détailCAHIER DES CHARGES D IMPLANTATION
CAHIER DES CHARGES D IMPLANTATION Tableau de diffusion du document Document : Cahier des Charges d Implantation EVRP Version 6 Etabli par DCSI Vérifié par Validé par Destinataires Pour information Création
Plus en détail3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.
3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation
Plus en détailVers l'orchestration de grilles de PC par les mécanismes de publicationsouscription
Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Présentée par Leila Abidi Sous la direction de Mohamed Jemni & Christophe Cérin Plan Contexte Problématique Objectifs
Plus en détailHétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds
Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds Mardi Laurent Lefèvre LIP Inria/ENS Lyon Jean-Marc Pierson, Georges Da Costa, Patricia Stolf IRIT Toulouse Hétérogénéité
Plus en détailSauvegarde des données au LAAS
Sauvegarde des données au LAAS Laurent Blain, LAAS-CNRS 1 Configuration Technique 1 Serveur de sauvegarde connecté à une bibliothèque de bandes 1 bibliothèque Qualstar 88132 3 lecteurs LTO-2 100 bandes
Plus en détailVers une approche Adaptative pour la Découverte et la Composition Dynamique des Services
69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard
Plus en détailETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE
Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1
Plus en détailVMWare Infrastructure 3
Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...
Plus en détailOrdonnancement sous contraintes de Qualité de Service dans les Clouds
Ordonnancement sous contraintes de Qualité de Service dans les Clouds GUÉROUT Tom DA COSTA Georges (SEPIA) MONTEIL Thierry (SARA) 05/12/2014 1 Contexte CLOUD COMPUTING Contexte : Environnement de Cloud
Plus en détailEquilibrage de charge pour les grilles de calcul : classe des tâches dépendantes et indépendantes.
Equilibrage de charge pour les grilles de calcul : classe des tâches dépendantes et indépendantes. Meriem Meddeber 1 et Belabbas Yagoubi 2 1 Université de Mascara, Faculté des sciences, Département des
Plus en détailCluster High Availability. Holger Hennig, HA-Cluster Specialist
Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE
Plus en détailPrésentation OpenVZ. Marc SCHAEFER. 9 janvier 2009
Présentation OpenVZ Marc SCHAEFER 9 janvier 2009 Résumé Le but de cette présentation est de montrer ce qu est la virtualisation et ce que peut apporter OpenVZ dans le contexte usuel de virtualisation de
Plus en détailComment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet
Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,
Plus en détailLimitations of the Playstation 3 for High Performance Cluster Computing
Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire
Plus en détail6 - Le système de gestion de fichiers F. Boyer, UJF-Laboratoire Lig, Fabienne.Boyer@imag.fr
6 - Le système de gestion de fichiers F. Boyer, UJF-Laboratoire Lig, Fabienne.Boyer@imag.fr Interface d un SGF Implémentation d un SGF Gestion de la correspondance entre la structure logique et la structure
Plus en détailLa tête dans les nuages
19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions
Plus en détailGrid Technology. ActiveMQ pour le grand collisionneur de hadrons (LHC) Lionel Cons Grid Technology Group Information Technology Department
DB GT CF Grid ActiveMQ pour le grand collisionneur de hadrons (LHC) Lionel Cons Grid Group Information Department Journée de la communauté FUSE, Paris, 2010 CERN IT Department CH-1211 Geneva 23 Switzerland
Plus en détailParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin
Linux Gazette n 110 Janvier 2005 Majid Hameed Copyright 2005 Majid Hameed Copyright 2005 Gauthier Savart Copyright 2005 Joëlle Cornavin Article paru dans le n 110 de la Gazette Linux de janvier 2005. Traduction
Plus en détailVMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510
Introduction A. Au sujet du livre 10 B. Au sujet de l'examen 10 Chapitre 1 Les nouveautés de vsphere A. Présentation 14 B. En quoi vsphere 5 diffère de vsphere 4? 14 1. Un Service Console abandonné 14
Plus en détailCH.3 SYSTÈMES D'EXPLOITATION
CH.3 SYSTÈMES D'EXPLOITATION 3.1 Un historique 3.2 Une vue générale 3.3 Les principaux aspects Info S4 ch3 1 3.1 Un historique Quatre générations. Préhistoire 1944 1950 ENIAC (1944) militaire : 20000 tubes,
Plus en détailConception des systèmes répartis
Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan
Plus en détailPROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES
Leçon 11 PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES Dans cette leçon, nous retrouvons le problème d ordonnancement déjà vu mais en ajoutant la prise en compte de contraintes portant sur les ressources.
Plus en détailInfrastructures Parallèles de Calcul
Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide
Plus en détailGestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr
Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr 1- Structure d un disque 2- Ordonnancement des requêtes 3- Gestion du disque - formatage - bloc d amorçage - récupération
Plus en détailAcquisition des données
Chef De Projet Informatique en Environnement Territorial diffusion restreinte à l'enseignement CDP-UPMC Frédéric Bongat Formation CDP 1 Un système compromis implique: Une méthodologie afin de faire face
Plus en détailHyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2
186 Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 L'utilisation des fonctionnalités de haute disponibilité intégrées aux applications, L'ajout de solutions tierces. 1.1 Windows Server
Plus en détailDynamic Computing Services solution de backup. White Paper Stefan Ruckstuhl
Dynamic Computing Services solution de backup White Paper Stefan Ruckstuhl Résumé pour les décideurs Contenu de ce White Paper Description de solutions de backup faciles à réaliser pour des serveurs virtuels
Plus en détailLe Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles
Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Microsoft France Division DPE Table des matières Présentation... 2 Objectifs... 2 Pré requis... 2 Quelles sont les principales
Plus en détailPourquoi OneSolutions a choisi SyselCloud
Pourquoi OneSolutions a choisi SyselCloud Créée en 1995, Syselcom est une société suisse à capitaux suisses. Syselcom est spécialisée dans les domaines de la conception, l intégration, l exploitation et
Plus en détailRésolvez vos problèmes d énergie dédiée à l informatique
Résolvez vos problèmes d énergie dédiée à l informatique GRÂCE À UNE SOLUTION ENERGY SMART DE DELL Surmonter les défis énergétiques des datacenters Les responsables informatiques ont un problème urgent
Plus en détailMigration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM
Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous K L'équipe du CITIC74 : info[at]citic74[dot]fr Sommaire Contexte Architecture existante Conclusion 2 Contexte
Plus en détailTAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES
TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES 1 DECOUVERTE DE LA VIRTUALISATION... 2 1.1 1.2 CONCEPTS, PRINCIPES...2 UTILISATION...2 1.2.1 Formation...2
Plus en détailOracle Maximum Availability Architecture
Oracle Maximum Availability Architecture Disponibilité des systèmes d informations Technologies et recommandations 1 Qu est-ce que Oracle Maximum Availability Architecture (MAA)? 1. Objectif : Disponibilité
Plus en détailConseils et astuces pour un déploiement réussi de la solution VMware Mirage
Conseils et astuces pour un déploiement réussi de la solution VMware Mirage Entrez le nom de l animateur ici 2014 VMware Inc. Tous droits réservés. Sommaire 1 Qu est-ce que VMware Mirage? 2 Quelles sont
Plus en détailCA XOsoft. Suite logiciels. WANSync Solution de réplication des données en LAN ou WAN.
Suite logiciels CA XOsoft WANSync Solution de réplication des données en LAN ou WAN. WANSyncHA Solution de haute disponibilité basée sur la répartition asynchrone en temps réel, le basculement sur incident
Plus en détailProtection des données avec les solutions de stockage NETGEAR
Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La
Plus en détail10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service
10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore
Plus en détailTP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP
Vue d ensemble du basculement DHCP Dans Windows Server 2008 R2, il existe deux options à haute disponibilité dans le cadre du déploiement du serveur DHCP. Chacune de ces options est liée à certains défis.
Plus en détailGrid5000 aujourd'hui : Architecture & utilisation
1 Grid5000 aujourd'hui : Architecture & utilisation aurelien.dumez@labri.fr 11 octobre 2005 Contexte 2 Grid5000 est : Une plateforme expérimentale pour le grid computing Ouverte à de nombreux thèmes de
Plus en détailQue souhaitent les Administrateurs Système?
WORLDINTERPLUS Que souhaitent les Administrateurs Système? Contrôle Maniabilité Gestion de la Configuration du Système en mode réseau ou déconnecté «online / offline» Maintenir les standards de configuration
Plus en détailWHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis
Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis Copyright Acronis, Inc. 2000 2009 Table des matières Résumé... 3 Qu est-ce que la déduplication?... 4 Déduplication au
Plus en détailWindows Server 2008. Chapitre 1: Découvrir Windows Server 2008
Windows Server 2008 Chapitre 1: Découvrir Windows Server 2008 Objectives Identifier les caractéristiques de chaque édition de Windows Server 2008 Identifier les caractéristiques généraux de Windows Server
Plus en détailDéfinition et diffusion de signatures sémantiques dans les systèmes pair-à-pair
Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair Raja Chiky, Bruno Defude, Georges Hébrail GET-ENST Paris Laboratoire LTCI - UMR 5141 CNRS Département Informatique et Réseaux
Plus en détailPrototype de canal caché dans le DNS
Manuscrit auteur, publié dans "Colloque Francophone sur l Ingénierie des Protocoles (CFIP), Les Arcs : France (2008)" Prototype de canal caché dans le DNS Lucas Nussbaum et Olivier Richard Laboratoire
Plus en détailArchitecture distribuée pour la gestion des ressources dans des grilles à grande échelle
Architecture distribuée pour la gestion des ressources dans des grilles à grande échelle Emmanuel Jeanvoine, Louis Rilling #, Christine Morin, Daniel Leprince EDF R&D, IRISA Paris Project Team, # Université
Plus en détailPrésentation du module Base de données spatio-temporelles
Présentation du module Base de données spatio-temporelles S. Lèbre slebre@unistra.fr Université de Strasbourg, département d informatique. Partie 1 : Notion de bases de données (12,5h ) Enjeux et principes
Plus en détailUPSTREAM for Linux on System z
FICHE PRODUIT UPSTREAM for Linux on System z UPSTREAM for Linux on System z UPSTREAM for Linux on System z est conçu de manière à assurer une protection de données complète pour votre environnement Linux
Plus en détailL I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l
Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i
Plus en détailJournée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS
Journée Utiliateurs 2015 Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS 1 Pôle ID, Grid'5000 Ciment Une proximité des platesformes Autres sites G5K Grenoble + CIMENT Pôle ID = «Digitalis»
Plus en détailIntroduction aux systèmes temps réel. Iulian Ober IRIT ober@iut-blagnac.fr
Introduction aux systèmes temps réel Iulian Ober IRIT ober@iut-blagnac.fr Définition Systèmes dont la correction ne dépend pas seulement des valeurs des résultats produits mais également des délais dans
Plus en détailLogiciel de capture et de gestion des flux de documents MOINS DE PAPIER, PLUS D EFFICACITÉ. VOUS POUVEZ COMPTER SUR NOUS
Logiciel de capture et de gestion des flux de documents MOINS DE PAPIER, PLUS D EFFICACITÉ. VOUS POUVEZ COMPTER SUR NOUS un FLUX DE TRAVAIL AUTOMATIQUEMENT AMÉLIORÉ. C est un fait, même si votre bureau
Plus en détailMODÉLISATION DU FONCTIONNEMENT EN PARALLELE À DEUX OU PLUSIEURS POMPES CENTRIFUGES IDENTIQUES OU DIFFERENTES
Annals of the University of Craiova, Electrical Engineering series, No. 30, 006 MODÉLISATION DU FONCTIONNEMENT EN PARALLELE À DEUX OU PLUSIEURS POMPES CENTRIFUGES IDENTIQUES OU DIFFERENTES Daniela POPESCU,
Plus en détailAnalyse de la bande passante
Analyse de la bande passante 1 Objectif... 1 2 Rappels techniques... 2 2.1 Définition de la bande passante... 2 2.2 Flux ascendants et descandants... 2 2.3 Architecture... 2 2.4 Bande passante et volumétrie...
Plus en détail//////////////////////////////////////////////////////////////////// Administration systèmes et réseaux
////////////////////// Administration systèmes et réseaux / INTRODUCTION Réseaux Un réseau informatique est un ensemble d'équipements reliés entre eux pour échanger des informations. Par analogie avec
Plus en détailPrise en compte des ressources dans les composants logiciels parallèles
Prise en compte des ressources dans les composants logiciels parallèles Aperçus de l action RASC et du projet Concerto F. Guidec Frederic.Guidec@univ-ubs.fr Action RASC Plan de cet exposé Contexte Motivations
Plus en détailLa Continuité d Activité
La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique
Plus en détailLes clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1
Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High
Plus en détailLa virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience. Rodérick Petetin CRI INSA Rennes
La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience Rodérick Petetin CRI INSA Rennes Virtualisation VMWare Le contexte INSA Rennes Objectifs du projet Travail préparatoire Architecture
Plus en détailChapitre 1 Windows Server 2008 11
Chapitre 1 Windows Server 2008 11 1.1. Les fondations du système... 15 1.2. La virtualisation... 16 1.3. La sécurité... 18 1.4. Le Web... 20 1.5. Fonctionnalité disponible dans Windows Server 2008... 21
Plus en détailCA ARCserve r16 devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle
devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle En octobre 2012, Network Testing Labs (NTL) a réalisé une analyse concurrentielle à la demande de CA Technologies. Selon
Plus en détailStructure de base d un ordinateur
Structure de base d un ordinateur 1-Définition de l ordinateur L ordinateur est un appareil électronique programmable qui traite automatiquement les informations. Il est constitué de l unité centrale et
Plus en détailWindows Internet Name Service (WINS)
Windows Internet Name Service (WINS) WINDOWS INTERNET NAME SERVICE (WINS)...2 1.) Introduction au Service de nom Internet Windows (WINS)...2 1.1) Les Noms NetBIOS...2 1.2) Le processus de résolution WINS...2
Plus en détailCours A7 : Temps Réel
Cours A7 : Temps Réel Pierre.Paradinas / @ / cnam.fr Cnam/Cedric Systèmes Enfouis et Embarqués (SEE) Motivations Du jour : les mécanismes multitâches, la gestion des priorités, l ordonnancement, la gestion
Plus en détailMEAD : temps réel et tolérance aux pannes pour CORBA
MEAD : un intergiciel temps-réel et tolérant aux pannes pour CORBA Master 2 Informatique Recherche Université de Marne-la-Vallée Vendredi 3 mars 2006 Plan 1 Introduction 2 Solutions existantes 3 Concilier
Plus en détailLivre blanc. Au cœur de Diskeeper 2010 avec IntelliWrite
Livre blanc Au cœur de Diskeeper 2010 avec IntelliWrite AU CŒUR DE DISKEEPER 2010 AVEC INTELLIWRITE Table des matières PRÉSENTATION DE LA TECHNOLOGIE INTELLIWRITE 1 TEST DE PERFORMANCE D INTELLIWRITE 2
Plus en détailSystème de stockage IBM XIV Storage System Description technique
Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de
Plus en détail