Étude de faisabilité d un système de Sauvegarde Collaborative en Pair-à-Pair

Dimension: px
Commencer à balayer dès la page:

Download "Étude de faisabilité d un système de Sauvegarde Collaborative en Pair-à-Pair"

Transcription

1 École Normale Supérieure de Lyon Master Informatique Fondamentale 2 e année Étude de faisabilité d un système de Sauvegarde Collaborative en Pair-à-Pair Stage effectué sous la supervision de Fabrice Le Fessant équipe ASAP, INRIA-Futurs Saclay <Fabrice.Le_fessant@inria.fr> Samuel Bernard samuel.bernard@ens-lyon.org 22 juin 2007

2 Résumé Les réseaux pair-à-pair (ou peer to peer en anglais), rendus possibles par l augmentation des débits des connexions Internet personnelles, génèrent de nouveaux usages des réseaux. Ainsi, il devient envisageable de partager l espace disque libre des ordinateurs sur Internet pour sauvegarder les données de pair à pair. Nous allons étudier la faisabilité de cette sauvegarde collaborative dans ce rapport.

3 Table des matières 1 Introduction Historique Intérêt Difficultés Objectif La sauvegarde collaborative en pair-à-pair Descriptif de la solution Prérequis La sauvegarde La mise-à-jour La récupération Analyse La réparation Simulations Hypothèses Protocole Répartition des noeuds Résultats Les paramètres Les profils Discussion sur les paramètres Présentation des résultats L importance de l ancienneté Les résultats pour les nœuds d âge médian Analyse des résultats Travaux existants Les systèmes existants Autres travaux Conclusion Conclusion Travaux ultérieurs A Résultats complémentaires 21 1

4 Chapitre 1 Introduction 1.1 Historique L équipe ASAP (INRIA-Futurs Saclay) est engagée dans un projet de développement d une plate-forme de sauvegarde collaborative de données : en utilisant l espace disponible sur les disques durs de toutes les machines connectées en réseau, il est possible de sauvegarder les données de ces machines, tout en préservant leur confidentialité par un chiffrement adapté (cryptographie). Ceci pourrait être rendu possible par la banalisation des connexions haut débit chez les particuliers et la taille importante des espaces de stockage actuellement disponibles. 1.2 Intérêt La sauvegarde des données est devenu un problème crucial aujourd hui. D un côté, les particuliers possèdent de plus en plus de données personnelles numériques (courriels, photos, etc). De l autre, tous les acteurs économiques utilisent aujourd hui l informatique quotidiennement pour traiter et stocker leurs informations, souvent vitales pour les entreprises. Dans les deux cas, rares sont encore ceux qui ont pris conscience de l importance de la sauvegarde de ces données, et ont les moyens d acquérir les coûteux systèmes de sauvegarde existants. L objectif est donc de fournir un système gratuit, fondé sur l échange d espace de stockage libre entre les participants, et intégrant des mécanismes avancés de tolérance aux pannes et de protection des données, aussi bien pour en maintenir l intégrité que la confidentialité, s adressant aussi bien aux particuliers qu aux petites entreprises (artisans, commerçants, PME) connectées à Internet. Ce système sera intégré dans le logiciel Peerple, logiciel d accès sécurisé à ses données à distance, développé en collaboration avec l équipe GANG de l INRIA Rocquencourt. Plusieurs projets de recherche à travers le monde ont travaillé sur une telle application, mais jusqu à présent, aucun système équivalent n a vu le jour. La plupart des projets n ont pas dépassé le stade théorique ou les simulations, tandis que les quelques projets implantés sont trop restrictifs et n offrent pas les garanties nécessaires. 2

5 1.3 Difficultés Comme le montre le peu d applications existantes dans ce domaine, de nombreux problèmes restent encore à résoudre. Par exemple, l aspect hautement dynamique du réseau - dont les membres peuvent se déconnecter, temporairement ou définitivement, à tout moment - impose une surveillance permanente de l état de la sauvegarde. Ainsi, il peut s avérer nécessaire de réparer celle-ci en redéployant les fragments de données sur des machines plus stables, voire dans le pire des cas, de recommencer une sauvegarde des données dont la sauvegarde précédente est devenue incertaine. De même, l utilisateur peut être amené à effacer volontairement certains fichiers de son ordinateur et il n est alors plus nécessaire de sauvegarder ces fichiers, qui utilisent inutilement un espace de stockage précieux : l expansion des données par les codes correcteurs d erreurs et la distribution des fragments sur de multiples ordinateurs rendent néanmoins cette récupération d espace complexe. Elle peut aussi nécessiter de recommencer une sauvegarde des données encore utiles. 1.4 Objectif L objectif de ce stage était d évaluer le coût lié à la dégradation de l état de la sauvegarde, causée aussi bien par la dynamique du réseau que par l effacement des fichiers par l utilisateur. Ce coût peut s avérer rédhibitoire pour la sauvegarde collaborative dans l état actuel des connexions Internet. C est donc une étude de faisabilité. D autre part, si ce coût est tolérable, son estimation doit permettre de comprendre les paramètres du système dont il dépend, de comprendre leur influence sur les seuils de déclenchement des réparations, ainsi que d optimiser ces réparations par le choix de la bonne politique de réparation. Le plan de ce rapport est le suivant : 1. Description des processus mis en œuvre dans la sauvegarde collaborative 2. Spécifications des simulations réalisées 3. Résultats obtenus 3

6 Chapitre 2 La sauvegarde collaborative en pair-à-pair 2.1 Descriptif de la solution Voici une présentation détaillée des différents processus envisagés pour réaliser la sauvegarde collaborative de données dans Peerple Prérequis Pour notre système, nous avons besoin des prérequis suivant : Espace libre Un réseau avec de l espace disque, les participants doivent fournir de l espace en échange du stockage de leurs données. Nous ne nous attarderons par sur ce point, car nous supposons que cela ne pose pas problème, la plupart des personnes n utilisent pas complétement l espace fourni par les disques durs actuellement livrés en standard dans les ordinateurs personnels. Ils n auront donc aucune difficulté à en réserver une partie pour le système de sauvegarde en échange de l assurance que leurs données soient en sécurité. Connectivité totale Nous supposons que les machines sont toutes connectées entre elles, c est-à-dire qu elles ont la capacité de communiquer avec n importe quelle autre. Le processus nous amenant cette propriété n est pas l objet de cette étude. Cependant, on peut imaginer un réseau non structuré de type mesh animé par un protocole de routage (et utilisant des diffusions limitées pour la découverte de nouveaux nœuds). Surveillance de l ancienneté Pour la sélection de partenaires, nous avons besoin d avoir une estimation de la fiabilité d un nœud. Il est montré expérimentalement ([4], [21] et [28]) que cette fiabilité est en forte corrélation avec l ancienneté dans le réseau. Donc pour notre estimation de la fiabilité d un nœud distant, nous utiliserons son âge. 4

7 Mais pour cela, nous avons besoin de connaître de façon fiable l ancienneté d un nœud, au moins jusqu à une certaine limite (actuellement 90 jours). Nous supposons que cela nous ait donné par un système de surveillance, sur lequel travaille aussi l équipe ASAP mais dont les détails ne sont pas utiles ici. Cryptographie Nous supposons l utilisation de cryptographie pour garantir la confidentialité des données. Les techniques utilisées sont orthogonales aux mécanismes de réparation que nous étudions, et ne sont donc pas décrites dans ce rapport. Codes correcteurs d erreurs Les codes correcteurs d erreurs servent à corriger les pertes d information dans un système distribué. Dans notre cas, des blocs de données peuvent être perdus, parce que l hôte les possédant s est déconnecté définitivement du système. Pour y remédier, des blocs correcteurs d erreur, redondants avec les blocs initiaux, sont créés préventivement. Ainsi, il est possible de recomposer les données même si des blocs sont perdus, en utilisant les blocs correcteurs d erreur. Dans Peerple, le codage utilisé est Reed-Solomon. Le grand avantage des blocs créés par ce codage est qu il est possible de remplacer n importe quel bloc de données initiales par n importe quel bloc correcteur d erreurs. Par exemple, si l on considère 128 blocs de données, en créant 128 blocs correcteurs d erreurs associés, l espace de stockage utilisé est deux fois plus important, mais les données peuvent être reconstruites avec n importe quel sous-ensemble de 128 blocs parmi les 256 blocs. Par conséquent, avec un bloc par hôte, le système tolère 128 pannes pour 256 machines, ce qui est bien plus efficace que la réplication habituelle qui peut perdre des données à partir de deux pannes La sauvegarde Les différentes étapes de la sauvegarde : 1. On crée la liste des fichiers, et si ce n est pas la première sauvegarde, la listedifférence entre l ancienne liste et la nouvelle. 2. On copie les fichiers à sauvegarder dans un tampon, ils sont chiffrés puis agrégés en composantes de 128Mo, à découper en 128 blocs chacune. 3. Pour chaque composante, en plus des blocs initiaux, on calcule 128 blocs correcteurs d erreurs, nous donnant en tout 256 blocs dont 128 sont nécessaires pour reconstruire les données. 4. On répartit chacun de ces blocs sur un partenaire, chaque fragment contient l identifiant (ID) du propriétaire et son numéro de composante et de bloc. 5. Parallèlement, on crée des blocs de méta-données de même taille, agrégés de la même façon, contenant la liste des fichiers sauvegardés (méta-données, clef de chiffrement, composante contenant le fichier et position dans celle-ci), et la date et le numéro de vue de la sauvegarde. On ajoute aussi pour chaque bloc cité, les partenaires qui en stockent un fragment. 6. Comme pour les données, pour chaque composante de méta-données, on calcule 128 blocs supplémentaires correcteurs d erreurs et on les répartit sur les partenaires de la même façon. 5

8 7. On met à jour le bloc "maître" contenant la liste des partenaires, la liste des composantes de méta-données et les clés de chiffrement utilisées pour les métadonnées. 8. Chaque partenaire stocke ce bloc "maître". Les composantes sont marquées données ou méta-données La mise-à-jour Après avoir fait la premère sauvegarde, on va vouloir la réactualiser de temps en temps : 1. On sauvegarde vue par vue (si le tampon n est pas assez grand pour contenir toutes les données à sauvegarder, on le fait en plusieurs fois, en prenant les fichiers dans leur état actuel, même s ils ont été modifiés depuis le moment où l on a calculé la liste-différence et sans prendre en compte les nouveaux fichiers et les dépendances entre versions de fichier). 2. On modifie la liste-différence pour prendre en compte les fichiers que l on vient de sauvegarder, pour ne pas les sauvegarder de nouveau dans le même état à la prochaine sauvegarde. 3. Les sauvegardes sont cumulatives, on ne modifie pas les données précédentes, on rajoute des composantes. 4. Les fichiers sont à chaque fois stockés entièrement. 5. On pourra compléter les blocs par des fichiers tampons, permettant de sauvegarder immédiatement les derniers fichiers (on ne sauvegarde que des blocs complets) La récupération En cas de perte totale, 1. On doit posséder le bloc "maître" (ou le demander par diffusion, mais il faut pouvoir le déchiffrer). 2. On contacte chacun de ses partenaires et on demande toutes nos méta-données (en donnant les numéros des composantes et leur ID). 3. Avec les méta-données, on recrée la base de données, associant les fichiers (avec leur version) avec leurs blocs, composantes et partenaires. 4. À partir de là, on demande à chaque partenaire les blocs que l on a besoin pour restaurer nos données. Au cas où l on veut juste récupérer quelques fichiers, vu que l on possède en permanence la base de données en local, il suffit de demander les blocs correspondants à nos partenaires. 2.2 Analyse La réparation Les sauvegardes effectuées doivent être maintenues, c est à dire que l on doit s assurer qu elles sont toujours cohérentes, mais aussi, on veut récupérer l espace utilisé par des fichiers maintenant obsolètes. 6

9 Protocole On récupére suffisament de blocs pour recomposer la composante, on les agrége de nouveau pour recréer une nouvelle composante pleine et de nouveaux blocs de codes d erreurs puis on les réémet. On n oublie pas de mettre à jour les méta-données en marquant les anciens blocs comme "À effacer". Causes Les causes pouvant amener à une réparation sont : Élimination des fichiers obsolètes Augmentation de la redondance Notons que l on peut réaliser les deux objectifs en même temps, c est pour cela que pour simplifier, nous allons pour l instant négliger le problème d obsolescence. Coût Le coût est : C récupération + C travail local + C réemission + C méta données La puissance de calcul des ordinateurs actuels est telle que le coût en puissance machine est négligeable par rapport au coût en bande passante, facteur limitant de notre système. On suppose que les connexions au réseau sont asymétriques, avec un débit en réception entre 4 et 20 fois plus rapide. De ce fait, on considère que la reception de données n est limitée que par la vitesse d envoi des partenaires. On considère une connexion disposant d un débit de 1 Mb/s en émission. Cette valeur peut être atteinte par des offres grand public chez la plupart des opérateurs. Comme une composante fait 2*128Mo, on mettra moins de 40 minutes pour l envoyer, et en prenant 10 minutes de marge pour la réception, les calculs et la mise à jour des méta-données (qui consomme aussi du réseau), on arrive à moins d une heure. Le système peut donc être viable avec une réparation par heure. Mais, dans ces conditions, le système n est plus du tout transparent pour l utilisateur et devient inutilisable sur des connexions moins rapides. De plus, un utilisateur peut avoir plus d une composante, et s il doit réparer celles-ci une fois par heure, sa connexion sera saturée. L objectif minimum est donc d arriver en moyenne à une réparation par centaine d heure, laissant ainsi de la marge pour plusieurs composantes et/ou une connexion moins rapide. Paramètres On cherche à déterminer quand il faut effectuer la maintenance de redondance : Cela dépend du taux de redondance et de la vitesse à laquelle on perd des blocs, vitesse surveillée par le client. On place une valeur fixe, par exemple 20% de fragments redondants, si l on passe en dessous de ce seuil pendant un certain temps, la réparation est déclenchée. Dans le chapitre suivant, nous vérifions expérimentalement, par la simulation si ces différentes stratégies sont pertinentes et si elles permettent bien d atteindre les objectifs initiaux. 7

10 Chapitre 3 Simulations Une partie essentielle de mon travail a porté sur la création d un simulateur. Pour cela, j ai utilisé peersim [16] qui me fournit le squelette du simulateur. Les simulations ont un déroulement organisé en cycles, dans lesquels un certain nombre de tâches sont effectuées séquentiellement, mais dans un ordre aléatoire. C est à opposer au déroulement par évènements où toutes les tâches sont effectués en concurrence. C est à priori moins réaliste, mais mes simulations sont gros grains, c est à dire que je considère de longues échelles de temps peu précises (la précision est d une heure). Cela parce que je ne m interesse qu à des tâches de haut niveau, prenant un temps important (comme la réparation). Ainsi en prenant des cycles d une heure, je suis suffisament réaliste tout en gardant la simulation simple et rapide (me permettant de simuler plusieurs années). 3.1 Hypothèses Avant de réaliser les simulations, posons quelques hypothèses : Indépendance On suppose que les départs/arrivées/déconnexions/reconnexions des hôtes sont sans relations. Il s avère que cette hypothèse est globalement réaliste, puisque vérifiée expérimentalement sur les réseaux pair-à-pair actuels [2]. Fidélité Les nœuds qui sont depuis longtemps dans le système ont une plus forte probabilité d y rester à l avenir. En d autres termes, si une personne utilise depuis longtemps un service, il n y a pas de raison pour qu elle s en aille dans les jours qui viennent ([4], [21] et [28]). Cette propriété est très importante, puisqu elle fait de l ancienneté le principal critère de sélection des partenaires. 3.2 Protocole Voici le protocole utilisé pour réaliser les simulations : 8

11 Arrivée Un nœud arrive dans le réseau : Il cherche 256 autres nœuds (partenaires) pour y stocker ses données. Pour ça, il essaye de se consistuer un ensemble de partenaires possibles, c est à dire des nœuds l ayant accepté pour stocker des données chez eux. Il choisit parmis cet ensemble les meilleurs nœuds d après le critère de l ancienneté et y stocke ses blocs. Acceptation La fonction d acceptation, actuellement implantée ne prend en compte que l ancienneté des deux nœuds qui intéragissent. Elle est de la forme : ( palier (min(ancienneté1, palier) min(ancienneté 2, palier)) + 1 f p1 (p 2 ) = palier et donne la probabilité d accepter que le nœud distant p 2 stocke des données sur le nœud local p 1. Les paramètres : palier qui est l ancienneté à partir de laquelle on déclare qu un nœud est stable. Elle est de 90 jours dans la simulation présentée plus loin. k sert à définir la souplesse de l acceptation : si k > 1, il sera plus dur aux nouveaux nœuds d être accepté par des partenaires âgés, à l inverse du cas où 0 < k < 1. Dans la simulation présentée, k = 1. Ensuite Ensuite, chaque cycle (qui représente pour nous une heure) : Le nœud interroge ses partenaires pour savoir s ils possèdent toujours ses données. Si un partenaire n est pas en ligne, on considère que nos données stockées chez lui sont perdues. Si plus qu un certain nombre (le palier de réparation) de partenaires ont répondu favorablement, il ne fait rien (dans la simulation présentée, ce palier est de 152 blocs disponibles sur 256). Sinon, il doit réajuster la redondance de ses données. Pour ça : Il remplace tous les partenaires absents par des nouveaux, ce qui nécessite de les trouver en utilisant le même mécanisme qu à l arrivée. Le mécanisme de la réparation a été détaillé dans le chapitre précédent. 3.3 Répartition des noeuds Tous les nœuds ne vont pas avoir le même comportement dans le système. Certains vont être très sérieux et avoir un faible taux de déconnexions, d autres, au contraire, vont être souvent déconnectés et partiront sans préavis du système, emportant avec eux les sauvegardes des premiers. Nous nous devons de simuler cet état. Pour cela, les nœuds du réseau sont classés dans des profils. Un profil indiquera à chacun sa fiabilité et donnera une estimation de son espérance de vie dans le système. En jouant sur les profils, on peut simuler des systèmes plus ou moins instables et voir si les protocoles de restaurations restent valables et efficaces. ) k 9

12 Chapitre 4 Résultats Je vais présenter dans ce chapitre le résultat d une des simulations. 4.1 Les paramètres Les paramètres de cette simulation sont : La taille du système, après une phase de croissance, est d environ nœuds. Les nœuds doivent faire stocker 256 blocs, dont 128 sont nécessaires. Le palier de réparation est fixé à 152 blocs disponibles sur 256. Les nœuds peuvent stocker chez eux au maximum 512 blocs. Ils choissent leurs partenaires parmi La simulation dure cycles, ce qui en temps réel donne un peu plus de 6 ans. Ce temps très long s explique par la phase de démarrage pendant laquelle on doit laisser le système se stabiliser Les profils On utilise pour cette simulation 4 profils différents. Du plus stable au moins stable : Les très stables Ils représentent 10% des nœuds du système. Ils sont permanents, c est à dire qu ils ne quittent jamais le système. Leur taux de déconnexion/reconnexion est de 1%/20%, c est à dire que toutes les heures (cycles), 1% des nœuds se déconnectent temporairement et 20% des nœuds déconnectés reviennent sur le réseau. De ce fait, en moyenne, 1/21 des nœuds sont déconnectés à un moment donné. Ils représentent des machines très fiables, que l on n éteint jamais. Les stables Ils représentent 25% des nœuds du système et ont une durée de vie comprise entre un peu plus d un an et 3 ans, donc très importante. On pourrait presque les assimiler aux nœuds du profil précédent mais ils ont un taux de déconnexion/reconnexion un peu plus important, de 3%/20% donnant la proportion de 3/23 déconnectés à un moment donné. 10

13 Ce profil représente les personnes utilisant sérieusement le système, avec peu de déconnexions, et une présence sur le long terme. Les moyennement stables Leur proportion est de 30% du réseau. Leur durée de vie est comprise entre 3 mois et un peu plus d un an. Ils représentent des personnes essayant et utilisant le système sur une longue période mais en n y trouvant pas satisfaction (notamment parce que le système a un coût continu alors que son utilité se fait uniquement ressentir rarement et sur de brèves périodes). Leur assiduité est inférieure aux profils précédents, puisqu ayant des taux de 5% et 15%. On remarque qu on commence à atteindre des taux de déconnexions non négligeables, car la plupart des nœuds se déconnecteront au moins une fois par jour et mettront plusieurs heures à se reconnecter. D ailleurs en moyenne, à un instant donné, un quart des nœuds sont déconnectés. Les instables Notre but est de prouver que la réalisation d un système de sauvegarde collaborative fonctionnant à l aide d un réseau pair-à-pair est possible. Pour cela, il faut introduire une large part de nœuds instables. Nous l avons fixée ici à 35%. On ne peut pas compter sur les nœuds appartenant à ce profil pour y stocker des données sur le long terme. Leur durée de vie est comprise entre une heure et 3 mois. Leur taux de déconnexion est de 20% et leur taux de reconnexion de 10%. Cela nous donne 2/3 des nœuds déconnectés à tout moment, ce qui est très faible. Pour conclure sur les profils, environ un tiers des nœuds sont très stables et conviennent pour la sauvegarde, un autre tiers est moins stable et pourrait poser quelques problèmes, et enfin, le dernier tiers est trop instable pour être utilisable. Il reste à savoir, si le tiers instable empêche les nœuds stables d obtenir de bonnes performances (en terme de réparation). 4.2 Discussion sur les paramètres Les paramètres n ont pas été choisis au hasard. Pour la composition des profils, cela n a pas été aisé. En effet, étant donné qu il n existe actuellement aucun système du genre (sauvegarde collaborative sur un réseau pair-à-pair) déployé à large échelle, il n existe pas de résultats expérimentaux sur le comportement des utilisateurs. Cependant, les systèmes pair-à-pair d échange de fichiers existent depuis quelques années et des études ont été menées sur la dynamicité de ces réseaux [2]. Nous sommes donc parti de ces études pour créer nos profils. Le profil très instable dérive directement du comportement des utilisateurs des systèmes d échanges. Puis nous avons anticipé le comportement possible des utilisateurs d un système de sauvegarde, et nous avons créé les autres profils en prenant soin d avoir toujours une approche pessimiste pour veiller à que dans tous les cas, le système soit viable. Ainsi le taux de déconnexion n est jamais négligeable, puisque même dans le profil stable, un nœud a 50% de chance de se déconnecter par jour et ce, pour plusieurs heures. Concernant la taille de la simulation, des réseaux plus importants ont été simulés, sans que cela n affectent les résultats. En réalité, du fait que les nœuds recherchent des 11

14 30 Anciennete de 3 mois Anciennete de 1 mois et demi Anciennete de 3 semaines Anciennete de 1 heure Reparations cumulees Heures FIG. 4.1 Comparatif du nombre de réparations réalisées par des hôtes d âges différents : Les nœuds anciens réparent moins souvent. partenaires, ils ont tendance à s aggréger en cluster. De ce fait, la simulation d un tel cluster revient à simuler le système entier. 4.3 Présentation des résultats L importance de l ancienneté Tout d abord, la figure 4.1 montre le nombre total de réparations effectuées par des nœuds totalement stables et ayant des anciennetés fixées. Quatre nœuds sont présentés : Le premier a une ancienneté de l ordre de la valeur palier de la fonction d acceptation (3.2), c est à dire 3 mois (ou 2200 cycles). Le deuxième a une ancienneté égale à la moitié de palier. Le troisième a une ancienneté qui vaut 1/4 de palier. Et enfin le dernier représente un nouvel arrivant, et a une ancienneté égale à 1. Les résultats sont que le nombre de réparations effectuées par le nouvel arrivant est bien supérieur à celui des autres, puisqu étant de 7-8 réparations tous les cycles (équivalent à une année), à comparer au taux des autres qui vaut entre 1 et 3 réparations par an. On note aussi que plus un nœud est ancien, moins il répare, même si la différence est moins flagrante pour les 3 premiers nœuds. À noter aussi les bons résultats dans tous les cas, au pire de l ordre du pour mille. 12

15 noeuds noeuds actifs reparation(pour mille) Noeuds Reparations pour mille noeuds Heures FIG. 4.2 Taux de réparation pour les nœuds ayant entre 6 mois et 2 ans. Les courbes sont dans l ordre, de haut en bas, le nombre de nœuds total pris en compte, puis le nombre de nœuds actifs et enfin le nombre de réparations Les résultats pour les nœuds d âge médian La seconde courbe, figure 4.2 présentée dans ce chapitre montre l évolution du taux de réparation pour les nœuds âgés entre 6 mois et 2 ans. Pour indication est aussi présent le nombre de nœuds actuellement dans le réseau et satisfaisants la condition d ancienneté, ainsi que la part active, c est à dire non déconnectés. Les résultats sont, qu après une phase d initialisation de cycles (due au démarrage de la simulation, qui est non-réaliste car un grand nombre de nœuds se connectent au même moment), le taux de réparation et le nombre de nœuds se stabilisent. La réparation est aux alentours de 0.025% correspondant, pour un nœud, à une moyenne d une réparation tous les 4000 cycles, soit une fois tous les 5 mois. On est donc dans une bonne moyenne, largement au dessus de la limite de faisabilité. Pour ne pas surcharger ce chapitre de courbes, celles présentant les résultats pour les nœuds d âge différents sont en annexes A. Pour résumer, elles confirment que le taux de réparation décroît en fonction de l ancienneté d un nœud. Un autre résultat important est qu il n y a pas de données perdues dans le système, c est à dire de données qu on ne peut plus réparer (dont le nombre de blocs disponibles est inférieur à 128 blocs), ou alors très localement et dans les classes de nœuds très instables. 13

16 4.3.3 Analyse des résultats Les raisons de la corrélation très forte entre l ancienneté et les résultats s explique, d une part, parce que le nœud âgé arrive plus facilement à stocker sur d autres nœuds agés, donc à priori plus stables. Et d autre part, parce qu après de multiples réparations, il arrive à rassembler un sous ensemble de partenaires très stables, avec lequels il formera un cluster très fiable. Mais il faut aussi noter la relativement bonne performance des jeunes nœuds, ce qui reste important pour ne pas décourager les nouveaux utilisateurs. En conclusion, dans tous les cas, le système est viable, avec même une marge importante, aucune donnée perdue, ce qui nous permet d appréhender avec optimisme les problèmes à venir. 14

17 Chapitre 5 Travaux existants 5.1 Les systèmes existants Dès les années 2000, de nombreux systèmes ont été élaborés, plus ou moins différents sur certains aspects de leur architecture. Cependant, peu ont atteint le stage du prototype et aucun ne l a dépassé pour être exploité en conditions réelles. Dans l ordre chronologique : Le plus ancien, OceanStore ([19] et [23]) est un système orienté sauvegarde et stockage, sauvegarde parce que l on veut que nos données soient conservées avec fiabilité et stockage parce qu on doit pouvoir y accèder rapidement. Il repose sur une table de hashage distribuée (DHT) et utilise à la fois les réplications simples et les codes correcteurs d erreurs. Les premières pour assurer de bonnes performances en lecture et les seconds pour obtenir une bonne réplication des sauvegardes. Le système de mises à jour des données dans le système est particulier, il repose sur un inner ring, ensemble de machines, différent pour chaque client, responsable de la propagation de la dernière version, et pouvant la certifier à tous. Ce inner ring décide par consensus à l aide de protocoles byzantins. L évaluation du système se concentre sur le inner ring et les performances en tant que système de fichiers (par l utilisation du Andrew Benchmark ). Ce n est donc pas du tout l optique que nous avons adoptée. Ensuite vient Past ([11] et [24]), qui est un système simple, utilisant une DHT et des répliques parfaites pour assurer la redondance et la fiabilité de la sauvegarde. L évaluation est simpliste et les performances (notamment en coût de replication) ne sont pas très intéressantes. pstore [1] rajoute à Past la possibilité de partager les blocs de données entre les versions de sauvegarde et les utilisateurs. Pour cela, il passe par une DHT. L évaluation se fait sur un réseau de 30 nœuds et se focalise sur la place occupée par les sauvegardes suivant différentes méthodes. Le système suivant, Pastiche [7] est intéressant parce que c est le premier système qui ne repose pas directement sur une DHT. En effet, les données sont stockées sur des partenaires, trouvés grâce à des DHTs. Le principe est de trouver des partenaires qui nous ressemble, c est à dire qui un grand nombre de données en commun avec nous. 15

18 Ainsi, on pourra partager une partie de nos sauvegardes et économiser de l espace disque. L évaluation porte sur la recherche de partenaires adéquats et sur le Andrew Benchmark sur de petites données (13.4Mo). L intérêt principal du papier de Lillibridge [20] sur son système est qu il étudie en profondeur la problèmatique de la sécurité. En dehors de ça, il s agit d un système reposant sur des partenaires, sans partages et avec des codes correcteurs d erreurs. En terme d architecture, il s agit du système qui nous a le plus inspiré. Malheureusement, la partie validation expérimentale est beaucoup trop concise. Ensuite vient Venti-DHash ([22] et [26]) basé sur CFS, DHash ([9] [5]) qui est très classique par sa conception, avec l utilisation de codes correcteurs d erreurs et d une DHT. Leur seule amélioration est de prendre en compte la distance sur le réseau pour améliorer la latence de récupération des données. Un point positif est la réalisation d un prototype, testé sur une centaine de nœuds. Le suivant, Total Recall [3], repose aussi sur DHash [9]. Sa principale motivation est de pouvoir auto-adapter les différents paramètres aux conditions du réseau. De plus, sa partie évaluation est la plus importante des papiers du domaine. Malheureusement, ça n a pas aboutit sur la création d un logiciel fonctionnel. PeerStore [12] est une amélioration de pstore. La différence porte sur le stockage des données. pstore utilise une DHT alors que PeerStore utilise des partenaires, avec une DHT pour stocker les méta-données. Et enfin, Glacier [14] est le système le plus moderne. Il est conçu comme système de stockage distribué et système de sauvegarde. La partie sauvegarde utilise les codes correcteurs d erreurs et une DHT. En Conclusion, on peut le voir, le domaine est plutôt productif. Cependant, il s avère que même les systèmes les plus anciens ne sont pas mis en production et restent au mieux au stade du prototype non totalement fonctionnel. De plus, notre optique différe toujours plus ou moins de celle de ces systèmes. La plupart cible à la fois le stockage et la sauvegarde, et sont comparés à NFS, alors que nous nous concentrons uniquement sur la sauvegarde. Les différences entre les deux approches sont que l on ne se soucie que de la disponibilité des données et de leur taille dans le système et pas de la rapidité en écriture et en lecture. De plus, même sur la sauvegarde, notre approche est différente, puisque notre objectif est la réalisation d un logiciel grand public, simple d utilisation et entièrement automatisé. 5.2 Autres travaux En dehors des présentations de systèmes, des travaux sur certains aspects de la sauvegarde en pair-à-pair sont intéressants : Bayou [10], reflexions sur la synchronisation de données dans un réseau mobile. Pourquoi se restreindre à un réseau F2F (entre amis) : [13]. L avantage en terme de sécurité peut elle compensé la difficultée de trouvé des partenaires (ses amis)? 16

19 Comment répartir ses données sur des hôtes les plus hétérogènes possibles pour pouvoir résister aux catastrophes localisées, phoenix : [17] Les tables de hashages distribuées (DHT) couramment utilisés : Chord [27], Pastry [25], Tapestry [15] et Kademlia [21]. À propos du backup en général, une survey des dernières recherches avant que l on s intéresse aux réseaux pair-à-pair : [6]. Sur le consistent hashing, très utilisé, notamment dans pastiche : [18]. Un important papier sur la sécurité dans un réseau Pair-à-Pair, comment avoir confiance en ses partenaires, et comment les forcer à être honnête : Samsara [8] Sur la disponibilité des nœuds dans un réseau pair-à-pair [2] et [28]. Étude sur Gnutella montrant que la stabilité dépend de l ancienneté [4]. 17

20 Chapitre 6 Conclusion 6.1 Conclusion L objet de ce travail a été de vérifier par la simulation la faisabilité d un système de sauvegarde collaborative en pair-à-pair. Pour cela, nous avons dû spécifier les processus mis en œuvre dans un tel système. Puis, modéliser les différents paramètres intervenant dans ces processus et enfin réaliser un simulateur prenant en compte ces derniers. Les résultats sont plutôt positifs puisqu en ayant une approche pessimiste sur les conditions du réseau, nous obtenons pour des nœuds correctement intégré dans le système, un taux de réparation de l ordre de 1 pour 4000 cycles, soit une réparation tous les 5 mois par composante. Nous avions calculé que le seuil de faisabilité était atteint lorsque l on avait un taux de 1%. Nous sommes donc largement en dessous, le tout sans pertes, et la marge obtenue ne peut que nous inspirer confiance. 6.2 Travaux ultérieurs Cependant, maintenant il reste à réaliser le système a proprement dit. La prochaine étape sera, tout d abord, de prendre un peu plus en compte le problème d obscolescence des données, qui a été trop rapidement vu ici. Puis il nous faudra intégrer dans la solution les contraintes du monde réel que sont la sécurité et la gestion des parasites. Des pistes ont été données par [8] et [20] mais la recherche dans ce domaine est loin d être terminé. Ensuite viendra la création d un prototype utilisant directement les travaux effectués pendant ce stage. À partir de celui-ci, nous pourrons alors modéliser encore plus finement les processus mis en jeu, nous permettant d ajuster les stratégies et les paramètres utilisés. Tout cela fera peut être pour moi l objet d une thèse dans le même laboratoire. 18

21 Bibliographie [1] C. Batten, K. Barr, A. Saraf, and S. Treptin. pstore : A secure peer-to-peer backup system, [2] R. Bhagwan, S. Savage, and G. Voelker. Understanding availability, In Proc. IPTPS, Feb [3] R. Bhagwan, K. Tati, Y. Cheng, S. Savage, and G. Voelker. Total recall : System support for automated availability management, [4] F.E. Bustamante and Y. Qiao. Friendships that last : Peer lifespan and its role in P2P protocols. In 8th International Workshop on Web Content Caching and Distribution, H awthorne, NY, USA, September-October [5] J. Cates. Robust and efficient data management for a distributed hash table, [6] A. Chervenak, V. Vellanki, and Z. Kurmas. Protecting file systems : A survey of backup techniques, [7] L. Cox and B. Noble. Pastiche : Making backup cheap and easy, [8] L. Cox and B. Noble. Samsara : Honor among thieves in peer-to-peer storage, [9] Frank Dabek, M. Frans Kaashoek, David Karger, Robert Morris, and Ion Stoica. Wide-area cooperative storage with CFS. In Proceedings of the 18th ACM Symposium on Operating Systems Principles (SOSP 01), Chateau Lake Louise, Banff, Canada, October [10] A. J. Demers, K. Petersen, M. J. Spreitzer, D. B. Terry, M. M. Theimer, and B. B. Welch. The bayou architecture : Support for data sharing among mobile users. In Proceedings IEEE Workshop on Mobile Computing Systems & Applications, pages 2 7, Santa Cruz, California, [11] Peter Druschel and Antony Rowstron. Past : A large-scale, persistent peer-to-peer storage utility. hotos, 00 :0075, [12] Martin Landers Fakult. Peerstore : Better performance by relaxing in peer-to-peer backup. [13] Jinyang Li Frank. F2f : reliable storage in open networks, [14] Andreas Haeberlen, Alan Mislove, and Peter Druschel. Glacier : Highly durable, decentralized storage despite massive correlated failures. [15] Kirsten Hildrum, John D. Kubiatowicz, Satish Rao, and Ben Y. Zhao. Distributed object location in a dynamic network. Theory of Computing Systems, [16] MÃąrk Jelasity, Alberto Montresor, Gian Paolo Jesi, and Spyros Voulgaris. Peersim simulator, a peer-to-peer simulator. 19

22 [17] F. Junqueira, R. Bhagwan, K. Marzullo, S. Savage, and G. Voelker. The phoenix recovery system : Rebuilding from the ashes of an internet catastrophe, [18] David Karger, Eric Lehman, Tom Leighton, Rina Panigrahy, Matthew Levine, and Daniel Lewin. Consistent hashing and random trees : distributed caching protocols for relieving hot spots on the world wide web. In STOC 97 : Proceedings of the twenty-ninth annual ACM symposium on Theory of computing, pages , New York, NY, USA, ACM Press. [19] John Kubiatowicz, David Bindel, Yan Chen, Patrick Eaton, Dennis Geels, Ramakrishna Gummadi, Sean Rhea, Hakim Weatherspoon, Westly Weimer, Christopher Wells, and Ben Zhao. Oceanstore : An architecture for global-scale persistent storage. In Proceedings of ACM ASPLOS. ACM, November [20] M. Lillibridge, S. Elnikety, A. Birrell, M. Burrows, and M. Isard. A cooperative internet backup scheme, [21] Petar Maymounkov and David Mazieres. Kademlia : A peer-to-peer information system based on the XOR metric Conferences/IPTPS02/109.pdf. [22] S. Quinlan and S. Dorward. Venti : a new approach to archival storage. In First USENIX conference on File and Storage Technologies, Monterey,CA, [23] S. Rhea, P. Eaton, D. Geels, H. Weatherspoon, B. Zhao, and J. Kubiatowicz. Pond : The oceanstore prototype. In Proceedings of the Conference on File and Storage Technologies. USENIX, [24] A. Rowstron and P. Druschel. Storage management and caching in past, a largescale, persistent peer-to-peer storage utility, [25] Antony Rowstron and Peter Druschel. Pastry : Scalable, decentralized object location, i and routing for large-scale peer-to-peer systems. Lecture Notes in Computer Science, 2218 :329??, [26] Emil Sit, Josh Cates, and Russ Cox. A dht-based backup system, [27] Ion Stoica, Robert Morris, David Karger, M. Frans Kaashoek, and Hari Balakrishnan. Chord : A scalable peer-to-peer lookup service for internet applications. In Proceedings of the 2001 conference on applications, technologies, architectures, and protocols for computer communications, pages ACM Press, [28] Jing Tian and Yafei Dai. Understanding the dynamic of peer-to-peer systems. In Proc. IPTPS

23 Annexe A Résultats complémentaires En complément, voici des résultats supplémentaires présentant les taux de réparations pour des nœuds de différents âges. Dans la figure A.1, les nœuds ont plus de 2 ans. Les résultats sont que le taux de réparation se stabilise autour 0.010%-0.015%, ce qui nous donne une réparation tous les cycles, ou tous les 8 mois - 1 an. C est un taux très faible et très encourageant. Dans la figure A.2, les nœuds ont moins de 3 mois. Le taux monte pour ces nœuds a 0.1%, ce qui reste raisonnable sachant que ces nœuds viennent d entrer dans le système, donc qu ils n ont pas pu choisir les hôtes fiables et qu ils n ont pas eut encore le temps de sauvegarder de grandes quantités de données. Au final, des résultats totalement en accord avec les prévisions, et avec ceux donnés dans le chapitre "Résultats". 21

24 12000 noeuds noeuds actifs reparation(pour mille) Noeuds Reparations pour mille noeuds Heures FIG. A.1 Taux de réparation pour les nœuds ayant plus de 2 ans noeuds noeuds actifs reparation(pour mille) Noeuds Reparations pour mille noeuds Heures FIG. A.2 Taux de réparation pour les nœuds ayant moins de 3 mois 22

Revue d article : Dynamic Replica Placement for Scalable Content Delivery

Revue d article : Dynamic Replica Placement for Scalable Content Delivery Revue d article : Dynamic Replica Placement for Scalable Content Delivery Marc Riner - INSA Lyon - DEA DISIC Introduction Cet article [1] présente une technique innovante de placement de réplicats et de

Plus en détail

Réplication adaptative sur les réseaux P2P

Réplication adaptative sur les réseaux P2P Réplication adaptative sur les réseaux pair à pair 10 mars 2006 1 Introduction 2 Réseaux pair à pair et tables de hachage distribuées 3 Le protocole app-cache 4 Le protocole LAR 5 Tests de performance

Plus en détail

Robin Favre Fabien Touvat. Polytech Grenoble RICM 3 ème Année Vendredi 21 Novembre 2008 Etude d Approfondissement Réseau

Robin Favre Fabien Touvat. Polytech Grenoble RICM 3 ème Année Vendredi 21 Novembre 2008 Etude d Approfondissement Réseau Robin Favre Fabien Touvat Polytech Grenoble RICM 3 ème Année Vendredi 21 Novembre 2008 Etude d Approfondissement Réseau Plan I. Système distribué A. Définition B. Exemples II. III. Stockage distribué A.

Plus en détail

Sauvegarde collaborative en pair-à-pair

Sauvegarde collaborative en pair-à-pair Sauvegarde collaborative en pair-à-pair Fabrice Le Fessant Fabrice.Le_Fessant@inria.fr ASAP Team INRIA Saclay Île de France Octobre 2008 Fabrice Le Fessant () Backup en pair-à-pair Rennes 2008 1 / 21 Plan

Plus en détail

Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS

Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS Sauvegarde collaborative entre pairs 1 Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS Sauvegarde collaborative entre pairs 2 Introduction Pourquoi pair à pair? Utilisation de ressources

Plus en détail

Pair-à-Pair: Architectures et Services

Pair-à-Pair: Architectures et Services Pair-à-Pair: Architectures et Services Fabrice Le Fessant Fabrice.Le_Fessant@inria.fr Équipe ASAP (Réseaux très large échelle) INRIA Saclay Île de France Octobre 2008 Fabrice Le Fessant () Architectures

Plus en détail

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services 69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard

Plus en détail

Perspective : la sauvegarde croisée

Perspective : la sauvegarde croisée A Perspective : la sauvegarde croisée Et si, grâce à la redondance et au chiffrement, les réseaux pair-à-pair assuraient bientôt la sauvegarde de vos données? La quantité de données personnelles stockées

Plus en détail

Gestion du déploiement de composants sur réseau P2P

Gestion du déploiement de composants sur réseau P2P Gestion du déploiement de composants sur réseau P2P Stéphane Frénot 1 INRIA ARES, Laboratoire CITI Bat. Léonard de Vinci 69621 Villeurbanne Cedex stephane.frenot@insa-lyon.fr ABSTRACT: The deployment of

Plus en détail

WHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis

WHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis Copyright Acronis, Inc. 2000 2009 Table des matières Résumé... 3 Qu est-ce que la déduplication?... 4 Déduplication au

Plus en détail

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de

Plus en détail

Ebauche Rapport finale

Ebauche Rapport finale Ebauche Rapport finale Sommaire : 1 - Introduction au C.D.N. 2 - Définition de la problématique 3 - Etat de l'art : Présentatio de 3 Topologies streaming p2p 1) INTRODUCTION au C.D.N. La croissance rapide

Plus en détail

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec. 3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation

Plus en détail

Système de Stockage Sécurisé et Distribué

Système de Stockage Sécurisé et Distribué Système de Stockage Sécurisé et Distribué Philippe Boyon philippe.boyon@active-circle.com ACTIVE CIRCLE QUI SOMMES NOUS? Editeur français, spécialiste du stockage de fichiers et de la gestion de données

Plus en détail

Un concept multi-centre de données traditionnel basé sur le DNS

Un concept multi-centre de données traditionnel basé sur le DNS Confiez vos activités critiques à un expert S il est crucial pour vos activités commerciales que vos serveurs soient disponibles en continu, vous devez demander à votre hébergeur de vous fournir une solution

Plus en détail

Recherche d informations à grande échelle dans des architectures Peer-to-Peer

Recherche d informations à grande échelle dans des architectures Peer-to-Peer Recherche d informations à grande échelle dans des architectures Peer-to-Peer Bruno DEFUDE Dept Informatique Institut National des Télécommunications http://www-inf.int-evry.fr/~defude/p2p 1 Plan Introduction

Plus en détail

Gestion de la cohérence des données dans les systèmes distribués

Gestion de la cohérence des données dans les systèmes distribués Gestion de la cohérence des données dans les systèmes distribués Étude bibliographique Loïc Cudennec loic.cudennec@ens.insa-rennes.fr Superviseurs : Gabriel Antoniu, Luc Bougé, Sébastien Monnet {Gabriel.Antoniu,Luc.Bouge,Sebastien.Monnet}@irisa.fr

Plus en détail

Solution A La Gestion Des Objets Java Pour Des Systèmes Embarqués

Solution A La Gestion Des Objets Java Pour Des Systèmes Embarqués International Journal of Engineering Research and Development e-issn: 2278-067X, p-issn: 2278-800X, www.ijerd.com Volume 7, Issue 5 (June 2013), PP.99-103 Solution A La Gestion Des Objets Java Pour Des

Plus en détail

Le logiciel pour le courtier d assurances

Le logiciel pour le courtier d assurances Le logiciel pour le courtier d assurances Introduction - Présentation 2 Intégration totale 3 Paperless Office 3 Traitement Unifié de l information 4 Outils commerciaux 5 Communication 6 Intégration AS/2

Plus en détail

La surveillance réseau des Clouds privés

La surveillance réseau des Clouds privés La surveillance réseau des Clouds privés Livre blanc Auteurs : Dirk Paessler, CEO de Paessler AG Gerald Schoch, Rédactrice technique de Paessler AG Publication : Mai 2011 Mise à jour : Février 2015 PAGE

Plus en détail

«clustering» et «load balancing» avec Zope et ZEO

«clustering» et «load balancing» avec Zope et ZEO IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4

Plus en détail

ViSaGe. Virtualisation du Stockage dans les Grilles. Informatiques. RenPar 16, 6-8 Avril 2005 Thiebolt François thiebolt@irit.fr

ViSaGe. Virtualisation du Stockage dans les Grilles. Informatiques. RenPar 16, 6-8 Avril 2005 Thiebolt François thiebolt@irit.fr 1 ViSaGe Virtualisation du Stockage dans les Grilles Informatiques RenPar 16, 6-8 Avril 2005 Thiebolt François thiebolt@irit.fr IRIT Projet RNTL labellisé pré-compétitif Solution ViSaGe ViSaGe Accès transparent

Plus en détail

arxiv:0804.4590v1 [cs.dc] 29 Apr 2008

arxiv:0804.4590v1 [cs.dc] 29 Apr 2008 RenPar 18 / SympA 2008 / CFSE 6 Fribourg, 11 au 13 février 2008 Étude de performance des systèmes de découverte de ressources Heithem Abbes 1,2 Christophe Cérin 2 Jean-Christophe Dubacq 2 Mohamed Jemni

Plus en détail

Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair

Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair Mathieu Jan Mathieu.Jan@irisa.fr Superviseurs : Gabriel Antoniu, Luc Bougé, Thierry Priol {Gabriel.Antoniu,Luc.Bouge,Thierry.Priol}@irisa.fr

Plus en détail

Windows Internet Name Service (WINS)

Windows Internet Name Service (WINS) Windows Internet Name Service (WINS) WINDOWS INTERNET NAME SERVICE (WINS)...2 1.) Introduction au Service de nom Internet Windows (WINS)...2 1.1) Les Noms NetBIOS...2 1.2) Le processus de résolution WINS...2

Plus en détail

Caches web. Olivier Aubert 1/35

Caches web. Olivier Aubert 1/35 Caches web Olivier Aubert 1/35 Liens http://mqdoc.lasat.com/online/courses/caching/ (prise en compte des caches dans la conception de sites) http://mqdoc.lasat.com/online/courses/proxyserver http://www.web-caching.com/mnot_tutorial/

Plus en détail

Encryptions, compression et partitionnement des données

Encryptions, compression et partitionnement des données Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des

Plus en détail

JXTA : Un Framework Peer-to-Peer Open Source

JXTA : Un Framework Peer-to-Peer Open Source JXTA : Un Framework Peer-to-Peer Open Source Quentin Dallons qdallons@info.fundp.ac.be Institut d informatique FUNDP Namur, Belgique Résumé Les technologies Peer-to-Peer sont aujourd hui de plus en plus

Plus en détail

Flex Multipath Routing

Flex Multipath Routing Flex Multipath Routing Regroupement des liens privés et publics pour les réseaux étendus (WAN) d entreprise Flex Multipath Routing (FMR) Regroupement des liens privés et publics pour les réseaux étendus

Plus en détail

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par. École Doctorale d Informatique, Télécommunications et Électronique de Paris THÈSE présentée à TÉLÉCOM PARISTECH pour obtenir le grade de DOCTEUR de TÉLÉCOM PARISTECH Mention Informatique et Réseaux par

Plus en détail

PLAN. Industrialisateur Open Source LANS DE SECOURS INFORMATIQUES PRINCIPES GENERAUX ETAT DE L ART SELON BV ASSOCIATES

PLAN. Industrialisateur Open Source LANS DE SECOURS INFORMATIQUES PRINCIPES GENERAUX ETAT DE L ART SELON BV ASSOCIATES PLAN LANS DE SECOURS INFORMATIQUES PRINCIPES GENERAUX & ETAT DE L ART SELON BV ASSOCIATES Copyright BV Associates 2013 IMEPSIA TM est une marque déposée par BV Associates Page 1 SOMMAIRE 1 PRINCIPES GENERAUX

Plus en détail

La continuité de service

La continuité de service La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet

Plus en détail

Network musical jammin

Network musical jammin Network musical jammin Projet PC2R - 2015 Pour ce projet, nous allons réaliser une application permettant d effectuer des jams sessions en temps-réel entre des musiciens répartis à travers le monde. Le

Plus en détail

Systèmes et algorithmes répartis

Systèmes et algorithmes répartis Systèmes et algorithmes répartis Tolérance aux fautes Philippe Quéinnec Département Informatique et Mathématiques Appliquées ENSEEIHT 4 novembre 2014 Systèmes et algorithmes répartis V 1 / 45 plan 1 Sûreté

Plus en détail

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES Marie GALEZ, galez@cines.fr Le propos de cet article est de présenter les architectures NAS et SAN, qui offrent de nouvelles perspectives pour le partage

Plus en détail

Gestion répartie de données - 1

Gestion répartie de données - 1 Gestion répartie de données - 1 Sacha Krakowiak Université Joseph Fourier Projet Sardes (INRIA et IMAG-LSR) http://sardes.inrialpes.fr/~krakowia Gestion répartie de données Plan de la présentation Introduction

Plus en détail

Pour les entreprises de taille moyenne. Descriptif Produit Oracle Real Application Clusters (RAC)

Pour les entreprises de taille moyenne. Descriptif Produit Oracle Real Application Clusters (RAC) Pour les entreprises de taille moyenne Descriptif Produit Oracle Real Application Clusters (RAC) POURQUOI VOTRE ENTREPRISE A BESOIN DE CLUSTERISER LES SERVEURS La continuité opérationnelle est cruciale

Plus en détail

Fiche technique RDS 2012

Fiche technique RDS 2012 Le 20/11/2013 OBJECTIF VIRTUALISATION mathieuc@exakis.com EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Fiche technique RDS Objectif 02/04/2013 20/11/2013

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

Solution de sauvegarde pour flotte nomade

Solution de sauvegarde pour flotte nomade Solution de sauvegarde pour flotte nomade > PRÉSENTATION D OODRIVE > Les enjeux LA SOLUTION > La solution AdBackup Laptop > Sécurité et options de protection > Monitoring et services > Hébergement (mode

Plus en détail

NOTIONS DE RESEAUX INFORMATIQUES

NOTIONS DE RESEAUX INFORMATIQUES NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des

Plus en détail

Fiche Technique Windows Azure

Fiche Technique Windows Azure Le 25/03/2013 OBJECTIF VIRTUALISATION mathieuc@exakis.com EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Fiche Technique Objectif 25/03/2013 27/03/2013 Windows

Plus en détail

Technologie de déduplication de Barracuda Backup. Livre blanc

Technologie de déduplication de Barracuda Backup. Livre blanc Technologie de déduplication de Barracuda Backup Livre blanc Résumé Les technologies de protection des données jouent un rôle essentiel au sein des entreprises et ce, quelle que soit leur taille. Toutefois,

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution

Plus en détail

Hibernate vs. le Cloud Computing

Hibernate vs. le Cloud Computing Hibernate vs. le Cloud Computing Qui suis-je? Julien Dubois Co-auteur de «Spring par la pratique» Ancien de SpringSource Directeur du consulting chez Ippon Technologies Suivez-moi sur Twitter : @juliendubois

Plus en détail

Pourquoi archiver les emails

Pourquoi archiver les emails Pourquoi archiver les emails Objectif du document Ce document a pour objectif d'expliquer la nécessité et le bien-fondé de l'archivage des emails. Il a été écrit par Alain Heurtebise, Directeur Général

Plus en détail

AdBackup Laptop. Solution de sauvegarde pour flotte nomade. Société Oodrive www.adbackup-corporatesolutions.com

AdBackup Laptop. Solution de sauvegarde pour flotte nomade. Société Oodrive www.adbackup-corporatesolutions.com AdBackup Laptop Solution de sauvegarde pour flotte nomade Société Oodrive www.adbackup-corporatesolutions.com Sommaire Présentation d Oodrive...3 Carte d identité...3 Références clients...3 Les enjeux...4

Plus en détail

Restaurer des données

Restaurer des données Restaurer des données Pré-requis à cette présentation La lecture de ce guide suppose que vous avez installé l agent SFR Backup sur l équipement que vous souhaitez sauvegarder. Il est également nécessaire

Plus en détail

Évaluation d une architecture de stockage RDF distribuée

Évaluation d une architecture de stockage RDF distribuée Évaluation d une architecture de stockage RDF distribuée Maeva Antoine 1, Françoise Baude 1, Fabrice Huet 1 1 INRIA MÉDITERRANÉE (ÉQUIPE OASIS), UNIVERSITÉ NICE SOPHIA-ANTIPOLIS, I3S CNRS prénom.nom@inria.fr

Plus en détail

Système de backup distribué

Système de backup distribué Système de backup distribué Alexandre Decan Directeur: Luc Onana Alima Rapporteurs:AlainBuys&TomMens Service des Systèmes Distribués, Faculté des Sciences Université de Mons-Hainaut, 2006-2007 Résumé L

Plus en détail

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP Vue d ensemble du basculement DHCP Dans Windows Server 2008 R2, il existe deux options à haute disponibilité dans le cadre du déploiement du serveur DHCP. Chacune de ces options est liée à certains défis.

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair

Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair Raja Chiky, Bruno Defude, Georges Hébrail GET-ENST Paris Laboratoire LTCI - UMR 5141 CNRS Département Informatique et Réseaux

Plus en détail

Conception des systèmes répartis

Conception des systèmes répartis Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan

Plus en détail

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1 Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High

Plus en détail

UNE VITESSE DE SAUVEGARDE EXCEPTIONNELLE

UNE VITESSE DE SAUVEGARDE EXCEPTIONNELLE UNE VITESSE DE SAUVEGARDE EXCEPTIONNELLE Commentaires des clients sur Veeam Backup & Replication 4.0 Fruit d un travail continu de recherche et développement, et en réponse aux commentaires des clients,

Plus en détail

Le data center moderne virtualisé

Le data center moderne virtualisé WHITEPAPER Le data center moderne virtualisé Les ressources du data center ont toujours été sous-utilisées alors qu elles absorbent des quantités énormes d énergie et occupent une surface au sol précieuse.

Plus en détail

Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012

Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012 Livre blanc Solution Hadoop d entreprise d EMC Stockage NAS scale-out Isilon et Greenplum HD Par Julie Lockner et Terri McClure, Analystes seniors Février 2012 Ce livre blanc d ESG, qui a été commandé

Plus en détail

Je bénéficie désormais des avantages exceptionnels de la virtualisation pour mon stockage. Virtual SAN est aussi économique que simple à utiliser.

Je bénéficie désormais des avantages exceptionnels de la virtualisation pour mon stockage. Virtual SAN est aussi économique que simple à utiliser. Je bénéficie désormais des avantages exceptionnels de la virtualisation pour mon stockage. Virtual SAN est aussi économique que simple à utiliser. VMware Virtual SAN Le software-defined storage ultra simple

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE

INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE I N T E RS Y S T E M S INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE David Kaaret InterSystems Corporation INTERSySTEMS CAChé CoMME ALTERNATIvE AUx BASES de données RéSIdENTES

Plus en détail

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT) OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT) LAGGOUNE Radouane 1 et HADDAD Cherifa 2 1,2: Dépt. de G. Mécanique, université de Bejaia, Targa-Ouzemour

Plus en détail

Les Réseaux sans fils : IEEE 802.11. F. Nolot

Les Réseaux sans fils : IEEE 802.11. F. Nolot Les Réseaux sans fils : IEEE 802.11 F. Nolot 1 Les Réseaux sans fils : IEEE 802.11 Historique F. Nolot 2 Historique 1er norme publiée en 1997 Débit jusque 2 Mb/s En 1998, norme 802.11b, commercialement

Plus en détail

Pourquoi toutes les entreprises peuvent se priver de centrale téléphonique?

Pourquoi toutes les entreprises peuvent se priver de centrale téléphonique? WHITE PAPER Pourquoi toutes les entreprises peuvent se priver de centrale téléphonique? Le «cloud voice» : l avenir de la communication Introduction Il fut un temps où, par définition, les entreprises

Plus en détail

Version de novembre 2012, valable jusqu en avril 2013

Version de novembre 2012, valable jusqu en avril 2013 Pré requis techniques pour l installation du logiciel complet de gestion commerciale WIN GSM en version hyper File en configuration Windows Terminal Serveur Version de novembre 2012, valable jusqu en avril

Plus en détail

ACCESSNET -T IP Technique système TETRA d Hytera. www.hytera.de

ACCESSNET -T IP Technique système TETRA d Hytera. www.hytera.de Technique système TETRA d Hytera est la solution complète et performante pour toutes les applications de la téléphonie mobile professionnelle. www.hytera.de Bref aperçu Pour une communication TETRA professionnelle

Plus en détail

Immobilier de prestige, biens d exception, Tour d horizon. de stockage 48 // 49

Immobilier de prestige, biens d exception, Tour d horizon. de stockage 48 // 49 // Tour d horizon des solutions de et d archivage Immobilier de prestige, biens d exception, immobilier de luxe, immobilier haut de gamme: tous ces qualificatifs désignent, en Suisse romande, un marché

Plus en détail

L unique SAN industriel proposant un stockage multiniveau automatisé (Automated Tiered Storage)

L unique SAN industriel proposant un stockage multiniveau automatisé (Automated Tiered Storage) Storage Center Baie de stockage STORAGE CENTER Transcende les limites des systèmes de stockage classiques Les fournisseurs de stockage actuels promettent de réduire le temps et les sommes d argent que

Plus en détail

Technologie SDS (Software-Defined Storage) de DataCore

Technologie SDS (Software-Defined Storage) de DataCore Technologie SDS (Software-Defined Storage) de DataCore SANsymphony -V est notre solution phare de virtualisation du stockage, dans sa 10e génération. Déployée sur plus de 10000 sites clients, elle optimise

Plus en détail

Consolidation Stockage. systemes@arrabal-is.com

Consolidation Stockage. systemes@arrabal-is.com Stockage systemes@arrabal-is.com Le stockage, un enjeu central pour les entreprises. Dans les petites et moyennes entreprises, les données sont souvent stockées de façon aléatoire sur des serveurs, des

Plus en détail

Cours 13. RAID et SAN. 2004, Marc-André Léger

Cours 13. RAID et SAN. 2004, Marc-André Léger Cours 13 RAID et SAN Plan Mise en contexte Storage Area Networks Architecture Fibre Channel Network Attached Storage Exemple d un serveur NAS EMC2 Celerra Conclusion Démonstration Questions - Réponses

Plus en détail

Symantec Backup Exec 11d

Symantec Backup Exec 11d TABLE DES MATIERES 1. Qu est-ce que Backup Exec 11d?...2 2. En termes d avantages, qu apporte principalement la version Backup Exec 11d?...2 3. Quelles sont les grandes nouveautés, en termes de fonctionnalités,

Plus en détail

Protection des renseignements personnels, publicité ciblée et médias sociaux : Ampleur du problème : certaines observations déconcertantes

Protection des renseignements personnels, publicité ciblée et médias sociaux : Ampleur du problème : certaines observations déconcertantes Protection des renseignements personnels, publicité ciblée et médias sociaux : Ampleur du problème : certaines observations déconcertantes Avner Levin * * Professeur agrégé et directeur, Privacy and Cyber

Plus en détail

TD n o 8 - Domain Name System (DNS)

TD n o 8 - Domain Name System (DNS) IUT Montpellier - Architecture (DU) V. Poupet TD n o 8 - Domain Name System (DNS) Dans ce TD nous allons nous intéresser au fonctionnement du Domain Name System (DNS), puis pour illustrer son fonctionnement,

Plus en détail

La haute disponibilité

La haute disponibilité Chapitre 3 La haute 3.1 Définition du cluster de serveurs...112 3.2 La mise en cluster des applications...114 3.3 Les composants du cluster de serveurs...115 3.4 Les obets du cluster de serveurs...119

Plus en détail

Tests de performance du matériel

Tests de performance du matériel 3 Tests de performance du matériel Après toute la théorie du dernier chapitre, vous vous demandez certainement quelles sont les performances réelles de votre propre système. En fait, il y a plusieurs raisons

Plus en détail

Sécuristation du Cloud

Sécuristation du Cloud Schémas de recherche sur données chiffrées avancés Laboratoire de Cryptologie Thales Communications & Security 9 Avril 215 9/4/215 1 / 75 Contexte Introduction Contexte Objectif Applications Aujourd hui

Plus en détail

Mes documents Sauvegardés

Mes documents Sauvegardés Mes documents Sauvegardés Guide d installation et Manuel d utilisation du logiciel Edition 13.12 Photos et illustrations : Copyright 2013 NordNet S.A. Tous droits réservés. Toutes les marques commerciales

Plus en détail

Arithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot

Arithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot Chapitre 5 Arithmétique binaire L es codes sont manipulés au quotidien sans qu on s en rende compte, et leur compréhension est quasi instinctive. Le seul fait de lire fait appel au codage alphabétique,

Plus en détail

Techniques d interaction dans la visualisation de l information Séminaire DIVA

Techniques d interaction dans la visualisation de l information Séminaire DIVA Techniques d interaction dans la visualisation de l information Séminaire DIVA Zingg Luca, luca.zingg@unifr.ch 13 février 2007 Résumé Le but de cet article est d avoir une vision globale des techniques

Plus en détail

Mise en place d un cluster. De basculement. Et DHCP Failover. Installation. Préparation. Vérification

Mise en place d un cluster. De basculement. Et DHCP Failover. Installation. Préparation. Vérification Mise en place d un cluster De basculement Et DHCP Failover Valentin Banse Thomas Haën-Boucher Thomas Bichon Présentation Installation Préparation B T S S I O 2 2 / 0 4 / 2 0 1 4 Configuration Vérification

Plus en détail

La Continuité d Activité

La Continuité d Activité La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique

Plus en détail

MEAD : temps réel et tolérance aux pannes pour CORBA

MEAD : temps réel et tolérance aux pannes pour CORBA MEAD : un intergiciel temps-réel et tolérant aux pannes pour CORBA Master 2 Informatique Recherche Université de Marne-la-Vallée Vendredi 3 mars 2006 Plan 1 Introduction 2 Solutions existantes 3 Concilier

Plus en détail

PROGRAMME DE MESSAGERIE INSTANTANEE RAPPORT FINAL. Généralités Structure du code Détail de scénarios Précisions de fonctionnement

PROGRAMME DE MESSAGERIE INSTANTANEE RAPPORT FINAL. Généralités Structure du code Détail de scénarios Précisions de fonctionnement PROGRAMME DE MESSAGERIE INSTANTANEE Généralités Structure du code Détail de scénarios Précisions de fonctionnement Paul RICHIER Gautier LETAROUILLY 30/05/2012 SOMMAIRE I Contexte et généralités II Structure

Plus en détail

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration.

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration. Windows 2000: Introduction W2K: Architecture Système d'exploitation multitâche multithread 32 bits à architecture SMP. Multiplateforme: intel x86, Compaq Alpha Jusqu'à 64 Go de mémoire vive Système d'exploitation

Plus en détail

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Microsoft France Division DPE Table des matières Présentation... 2 Objectifs... 2 Pré requis... 2 Quelles sont les principales

Plus en détail

Une approche dirigée par les modèles pour la génération de tests pour des systèmes de traitement de données complexes et réparties.

Une approche dirigée par les modèles pour la génération de tests pour des systèmes de traitement de données complexes et réparties. LABORATOIRE D INFORMATIQUE DE NANTES-ATLANTIQUE UMR 6241 ÉCOLE DOCTORALE STIM, N. 503 «Sciences et technologies de l information et des mathématiques» Sujet de thèse pour 2013 Une approche dirigée par

Plus en détail

Utiliser Glary Utilities

Utiliser Glary Utilities Installer Glary Utilities Après avoir téléchargé Glary Utilities sur le site "http://secured-download.com/softwares/1737-glary-utilities ", double-cliquez dessus pour lancer l'installation. Choisissez

Plus en détail

Dossier Solution - Virtualisation CA arcserve Unified Data Protection

Dossier Solution - Virtualisation CA arcserve Unified Data Protection Dossier Solution - Virtualisation CA arcserve Unified Data Protection La virtualisation des serveurs et des postes de travail est devenue omniprésente dans la plupart des organisations, et pas seulement

Plus en détail

Programmation parallèle et distribuée (Master 1 Info 2015-2016)

Programmation parallèle et distribuée (Master 1 Info 2015-2016) Programmation parallèle et distribuée (Master 1 Info 2015-2016) Hadoop MapReduce et HDFS Note bibliographique : ce cours est largement inspiré par le cours de Benjamin Renaut (Tokidev SAS) Introduction

Plus en détail

EMC Data Domain Boost for Oracle Recovery Manager (RMAN)

EMC Data Domain Boost for Oracle Recovery Manager (RMAN) Livre blanc EMC Data Domain Boost for Oracle Recovery Manager (RMAN) Résumé EMC fournit aux administrateurs de base de données un contrôle total sur la sauvegarde, la restauration et la reprise après sinistre

Plus en détail

CONSEILS POUR LA REDACTION DU RAPPORT DE RECHERCHE. Information importante : Ces conseils ne sont pas exhaustifs!

CONSEILS POUR LA REDACTION DU RAPPORT DE RECHERCHE. Information importante : Ces conseils ne sont pas exhaustifs! CONSEILS POUR LA REDACTION DU RAPPORT DE RECHERCHE Information importante : Ces conseils ne sont pas exhaustifs! Conseils généraux : Entre 25 et 60 pages (hormis références, annexes, résumé) Format d un

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

claroline classroom online

claroline classroom online de la plate-forme libre d'apprentissage en ligne Claroline 1.4 Manuel Révision du manuel: 06/2003 Créé le 07/09/2003 12:02 Page 1 Table des matières 1) INTRODUCTION...3 2) AFFICHER LA PAGE DE DEMARRAGE...3

Plus en détail