Systèmes de Fichiers Distribués François Armand M2 / Paris7

Documents pareils
Gestion répartie de données - 1

Systèmes de fichiers répartis

Le Network File System de Sun (NFS)

Cours 13. RAID et SAN. 2004, Marc-André Léger

SYSTÈME DE GESTION DE FICHIERS

SYSTÈME DE GESTION DE FICHIERS SGF - DISQUE

<Insert Picture Here> Solaris pour la base de donnés Oracle

Stockage Réseau. Le stockage s'échappe du système pour devenir une fonction réseau

Le modèle client-serveur

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Introduction. René J. Chevance

Réplication des données

Administration et Architectures des Systèmes

6 - Le système de gestion de fichiers F. Boyer, UJF-Laboratoire Lig, Fabienne.Boyer@imag.fr

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Le service FTP. M.BOUABID, Page 1 sur 5

Systèmes et algorithmes répartis

Sauvegardes par Internet avec Rsync

SGBDR. Systèmes de Gestion de Bases de Données (Relationnelles)

Service WEB, BDD MySQL, PHP et réplication Heartbeat. Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox

Réseaux IUP2 / 2005 DNS Système de Noms de Domaine

Concepts et systèmes de stockage

Chapitre VII : Principes des réseaux. Structure des réseaux Types de réseaux La communication Les protocoles de communication

Présentation du SC101

Cours Bases de données

Guide d'installation et de configuration de Pervasive.SQL 7 dans un environnement réseau Microsoft Windows NT

Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM

Protocoles DHCP et DNS

Projet gestion d'objets dupliqués

«clustering» et «load balancing» avec Zope et ZEO

Solutions de stockage réseau

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation

Serveurs de noms Protocoles HTTP et FTP

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes

Mise en œuvre des serveurs d application

Livre blanc Haute disponibilité sous Linux

L annuaire et le Service DNS

Mise en oeuvre TSM 6.1

Commandes Linux. Gestion des fichiers et des répertoires. Gestion des droits. Gestion des imprimantes. Formation Use-IT

INSTALLATION DE WINDOWS 2000 SERVER POUR BCDI3. par. G.Haberer, A.Peuch, P.Saadé

Analyse et réalisation d un système de disques répartis à forte disponibilité

Systèmes de fichiers réseau

Service d'annuaire Active Directory

VMware ESX/ESXi. 1. Les composants d ESX. VMware ESX4 est le cœur de l infrastructure vsphere 4.

Solution Haute Disponibilité pour Linux

Sommaire. 3. Les grands principes de GFS L architecture L accès de fichier en lecture L accès de fichier en écriture Bilan

ViSaGe. Virtualisation du Stockage dans les Grilles. Informatiques. RenPar 16, 6-8 Avril 2005 Thiebolt François

THÈSE. Réseaux rapides et stockage distribué dans les grappes de calculateurs : propositions pour une interaction efficace

Agenda. Exemple : données et back à Eurecom SANs and NAS. Les bases: SANs. Back-up Partage de fichier. Disques et Raid SCSI et FCP

Les noms uniques Identifie le domaine dans lequel est situé l objet, ainsi que le chemin complet CN=David Dubois,OU=Sales,DC=Consoto,DC=msft!

Services Réseaux - Couche Application. TODARO Cédric

Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS

JRES 2007 Solution de stockage répartie sur les centres de recherche INRIA, à base de serveurs de fichiers de type «NAS»

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

Infrastructure RDS 2012

Session 8: Android File System

Symantec Backup Exec Remote Media Agent for Linux Servers

Systèmes et algorithmes répartis

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows W2K pro: configuration.

Introduction. Adresses

SAN AoE (ATA over Ethernet)

Projet : PcAnywhere et Le contrôle à distance.

La continuité de service

EMC DATA DOMAIN OPERATING SYSTEM

Techniques de stockage. Techniques de stockage, P. Rigaux p.1/43

Une solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs

EMC Data Domain Boost for Oracle Recovery Manager (RMAN)

Messagerie asynchrone et Services Web

Le passage à l échelle de serveur J2EE : le cas des EJB

NON URGENTE TEMPORAIRE DEFINITIVE OBJET : RÉCUPÉRATION DES DONNÉES CLIENT SUR DISQUE DUR DÉFECTUEUX OU INVALIDÉ

Consolidation de stockage

WEA Un Gérant d'objets Persistants pour des environnements distribués

Hyper-V Virtualisation de serveurs avec Windows Server 2008 R2 - Préparation à l'examen MCTS

Cours de Système : Gestion de Fichiers

Microsoft Virtual Server, trucs et astuces avancés

La sécurité dans les grilles

Sybase High Avalaibility

Le protocole ARP (Address Resolution Protocol) Résolution d adresses et autoconfiguration. Les protocoles ARP, RARP, TFTP, BOOTP, DHCP

Institut Supérieure Aux Etudes Technologiques De Nabeul. Département Informatique

EMC DATA DOMAIN HYPERMAX

Java Naming and Directory Interface

Configuration automatique

TP Réseau n 4 Common Internet File System (CIFS) et Network File System (NFS)

VMware View Virtualisation des postes de travail (architecture, déploiement, bonnes pratiques...)

Créer et partager des fichiers

BD réparties. Bases de Données Réparties. SGBD réparti. Paramètres à considérer

NFS Maestro 8.0. Nouvelles fonctionnalités

Devoir Surveillé de Sécurité des Réseaux

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

Note Technique : Sauvegarder un NAS ND16000 ou ND26000 sur un disque dur externe USB ou esata

Anatomie d'un cloud IaaS Représentation simplifiée

WINDOWS SERVER 2003 Maintenance d'active directory V1.0

COMPOSANTS DE L ARCHITECTURE D UN SGBD. Chapitre 1

1 LE L S S ERV R EURS Si 5

Haute-disponibilité et bases de données

Robin Favre Fabien Touvat. Polytech Grenoble RICM 3 ème Année Vendredi 21 Novembre 2008 Etude d Approfondissement Réseau

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Windows Server 2012 R2

Transcription:

Systèmes de Fichiers Distribués François Armand M2 / Paris7 2015 M2 / SA 1

Plan Introduction FTP Newcastle Connection NFS NFS v2, NFS v3, WebNFS, NFS v4 Spritely NFS NQNFS Coda GFS 2015 M2 / SA 2

Définitions Un système distribué: Un ensemble d'ordinateurs qui apparaît comme un ensemble unique et cohérent à ses utilisateurs. (TanenBaum et al.) un système dans lequel les composants matériels ou logiciels communiquent et coordonnent leurs actions exclusivement par échange de messages. (Coulouris et al.) 2015 M2 / SA 3

Définitions Un système distribué: Un système dans lequel la panne d'un ordinateur dont vous n'avez jamais entendu parler, empêche votre travail de progresser! (Leslie Lamport) 2015 M2 / SA 4

Caractéristiques Concurrence Absence d'horloge globale Pannes indépendantes Pas de mémoire commune Communication par "messages" Tendances: mobilité ubiquité 2015 M2 / SA 5

Problèmes Hétérogénéité Code mobile Ouverture Sécurité Concurrence Capacité de croissance (scalability) Transparence 2015 M2 / SA 6

Transparences Accès (access) Nommage, syntaxique, sémantique Emplacement (location) Concurrence Duplication Pannes (Failure) Migration / Mobilité Performance 2015 M2 / SA 7

«Limites» Optimisation, recherche de co-localité, Contextes de nommages (cf Plan 9) Autonomie Partage temporaire de ressources (cf Sprite) Administration 2015 M2 / SA 8

Approches Systèmes fortement couplés: Single System Image (TrueCluster, Kerrighed) Systèmes faiblement couplés: Web 2015 M2 / SA 9

Architectures Logicielles Applications Middleware Services Systèmes Noyau Applications Middleware Services Systèmes Noyau Applications Middleware Services Systèmes Noyau 2015 M2 / SA 10

Architectures Logicielles Applications Middleware Noyau Applications Middleware Services Systèmes Noyau Applications Middleware Noyau 2015 M2 / SA 11

Architectures Logicielles Applications Applications Applications Services Systèmes Noyau Middleware Services Systèmes Noyau Services Systèmes Noyau 2015 M2 / SA 12

Architectures Logicielles Applications Middleware Services Systèmes Noyau Middleware Services Systèmes Noyau Middleware Services Systèmes Noyau 2015 M2 / SA 13

Approches Clients-Serveurs Côté «Client» Interface utilisateur Interface utilisateur Interface utilisateur Interface utilisateur Application Application Application Application Base de données Base de données Base de données Base de données Côté «Serveur» 2015 M2 / SA 14

Déploiement: 2-Tiers Pour: Facilité de développement Contre Compromission BD Administration Maintenance du code Sécurité Échelle Homogénéité Présentation fixe PC Interface utilisateur Application Serveur Serveur Base de Données 2015 M2 / SA 15

Déploiement: 3-Tiers Client Serveur Application Serveur BD Interface utilisateur Application Serveur Base de Données 2015 M2 / SA 16

Déploiement: 3-Tiers Complexité Application distribuée: multithread, sécurité Portabilité... 2015 M2 / SA 17

Déploiement: Multi-Tiers / J2EE Affichage Client Service Web Conteneur Web Logique Applicative Conteneur EJB Serveur BD Application Web Enterprise Bean Serveur Base de Données 2015 M2 / SA 18

Plan Introduction FTP Newcastle Connection NFS NFS v2, NFS v3, WebNFS, NFS v4 Spritely NFS NQNFS Coda GFS 2015 M2 / SA 19

FTP N'est pas un système de fichiers répartis Pas de transparence pour l'utilisateur Conduit à des copies multiples Problème de maintien de la cohérence (sauf lecture seule) Certains systèmes de fichiers «masquent» l'accès par FTP 2015 M2 / SA 20

Plan Introduction FTP Newcastle Connection NFS NFS v2, NFS v3, WebNFS, NFS v4 Spritely NFS NQNFS Coda GFS 2015 M2 / SA 21

Newcastle Connection Transparence fournie par une librairie dédiée Notion de ''super-root'' farqland marais squatt donjon / / / shrek home donkey home home princesse file foo bar open (''/../../donjon/home/princesse/bar'',...) 2015 M2 / SA 22

Newcastle Connection Host: marais Programme NC Librairie Noyau Unix Host: donjon Démon NC Librairie Noyau Unix 2015 M2 / SA 23

Accès à un fichier distant Envoi de toutes les requêtes et leurs paramètres au serveur Client Le fichier reste sur le serveur Pas de problème de cohérence! Latence pour chaque opération Serveur = goulot d'étranglement Serveur 2015 M2 / SA 24

Accès à un fichier distant Cacher localement sur le client tout ou partie du fichier Accès locaux Client Latence réduite Fichier transféré sur le client Fichier ''rendu'' au serveur Serveur moins chargé Problèmes de cohérence Serveur Avant Après 2015 M2 / SA 25

Plan Introduction FTP Newcastle Connection NFS NFS v2, NFS v3, WebNFS, NFS v4 Spritely NFS NQNFS Coda GFS 2015 M2 / SA 26

NFS Protocole S'appuie sur XDR et RPC (ONC) Pas une interface Ouvert, mis à disposition par Sun Largement répandu et utilisé NFS v2 et NFS v3 déployés (sur UDP et TCP) WebNFS NFS v4 Variantes: Spritely NFS, NQNFS 2015 M2 / SA 27

Principes / Objectifs Apparu quand les vitesses de transfert sur les réseaux locaux sont devenues acceptables Minimiser l'état côté serveur Permettre un redémarrage facile du serveur ''Write sharing'' rare Flexibilité espace nommage du client 2015 M2 / SA 28

Architecture Typique Client Programme Appels systèmes V.F.S. Serveur Appels systèmes V.F.S. Local F.S. NFS Client NFS Serveur Local F.S. Stubs RPC Stubs RPC LAN 2015 M2 / SA 29

NFS: Modèle Objets: Fichiers: séquence banalisée d'octets Catalogues: liste de noms simples de fichiers Liens symboliques interprétés par le client Fichiers spéciaux: périphériques locaux au client File Handle: Indépendants du chemin d'accès au fichier Persistants 2015 M2 / SA 30

NFS: Modèle Chemins d'accès Non nul, pas la chaîne nulle Si nécessaire; doit être interprété par le client '.': répertoire courant '..' répertoire parent du répertoire courant Évalués composant par composant par le serveur Plus simple pour le serveur Modèle Unix côté client Lourdeur pondérée par le cache côté client 2015 M2 / SA 31

NFS: Modèle Serveur sans état (en fait à état minimum) NFS v2 et v3 ''Permis'', pas imposé par le protocole Pas de requête open/close Opérations non-idempotentes Dues au RPC ''at least once'' Détection par cache État minimum: Facilité de basculement sur un autre serveur en cas de défaillance 2015 M2 / SA 32

NFS: Modèle NFS v2 v3 Ne couvre pas le montage Mount protocole Ne couvre pas le verrouillage de fichiers NFS v4 Fait par ''Lock Manager'' intègre montage et verrouillage 2015 M2 / SA 33

NFS v2 File handles: fixes 32 octets Ex: fsid / inode / numéro de génération Opérations: Null, getattr, setattr, root, lookup, readlink, read, writecache, write, create, remove, rename link, symlink, mkdir, rmdir, readdir, statfs 2015 M2 / SA 34

NFS v3 File handles: variables 64 octets Support grands fichiers (> 4Gb) Procédures v2 inutiles supprimées Procédures modifiées: lookup (renvoie les attributs) read (renvoie un booléen sur EOF) write (peut écrire moins que demandé, synchronisation du cache) create (exclusif supporté) 2015 M2 / SA 35

NFS v3 Nouvelles procédures: Access mknod readdirplus commit 2015 M2 / SA 36

Implémentation: dernier close Processus A Processus B NFS Client Serveur open(''foo'') lookup(''foo'') open(''foo'') refcnt = 2 remove(''foo'') rename(''foo'', ''.nfsx'') read(''foo'') read(''.nfsx'') close(''foo'') refcnt =1 close(''foo'') remove(''.nfsx'') 2015 M2 / SA 37

Implémentation: Concurrence Serveur: Plusieurs démons ou threads (nfsd) Client: Requête émise par le processus (thread) Entrées / sorties asynchrones Write back, read ahead gérées par démons (threads) dédiés (biod) 2015 M2 / SA 38

Implémentation: Cache de Systèmes de Fichiers distribués Client requête initiale retransmission requêtes dupliquées create size = 0 create size = 0 OK write 0, 8192 OK OK nfsd1 2 3 Fichier créé Données écrites nfsd2 1 4 Bloqué Fichier tronqué 2015 M2 / SA 39

Implémentation: Cache de Systèmes de Fichiers distribués Client requête initiale retransmission requêtes dupliquées create size = 0 create size = 0 1 2 cache: En cours caché: abandon nfsd1 nfsd2 Bloqué Fichier créé write 0, 8192 3 cache: Terminé OK 2015 M2 / SA 40

Implémentation: Cache de requêtes dupliquées Systèmes de Fichiers distribués Client XID=aaa Serveur Client XID=aaa Serveur Client XID=aaa Serveur XID=aaa XID=aaa X cache cache XID=aaa cache requête en cours réponse envoyée récemment réponse perdue 2015 M2 / SA 41

Implémentation: Serveur et Stockage stable Le serveur doit normalement répondre à une requête d'écriture après avoir sauvegardé les données sur mémoire stable disque NVRAM NFS v3: attribut d'écriture + commit UNSTABLE DATA_SYNC FILE_SYNC 2015 M2 / SA 42

Retransmission adaptative (UDP) Time-out calculé dynamiquement Retransmission avec ''backoff'' exponentiel: 2, 4, 8, 16, 32, 64, 128, 256 souvent limité à borne max (8) Timeout calculé en fonction de la requête lookup, getattr,... setattr, read,... write, mkdir,... 2015 M2 / SA 43

Write behind, write gathering Client: write behind Si le processus écrit séquentiellement, le client NFS entreprend de transférer les blocs au serveur Serveur: Sur réception d'un bloc, légère attente dans l'espoir de regrouper des blocs consécutifs en une seule opération 2015 M2 / SA 44

Implémentation: cache client Cacher information retournée par serveur: accès consécutifs plus rapides désengorger le réseau désengorger le serveur Gestion cohérence: Temps de dernière modification Temps de présence dans cache client Solaris: Fichier: de 3 sec à 30 sec Répertoire: de 30 sec à 60 sec. 2015 M2 / SA 45

Spritely NFS Basé sur NFS v2/ NFS v3 Fournir une sémantique ''copie unique'' Obtenir de meilleures performances via de meilleurs mécanismes de cache. Addition au protocole OPEN (mode) / CLOSE ''Callback'' du serveur vers le client pour révocation de droits. 2015 M2 / SA 46

Spritely NFS Client 1 Serveur Client 2 OPEN for read Caching OK Close OK OPEN for read Open for Write Ok Callback Write Ok OK(sans cache) Callback reply 2015 M2 / SA 47

Spritely NFS Pas de nécessité de flusher les blocs modifies par un client lors d'un close Les séquences suivantes peuvent se derouler entièrement sur le client: create, write, close open, read, close, unlink Cas typique entre 2 passes d'un compilateur... 2015 M2 / SA 48

Spritely NFS: Recovery Serveur Début recovery OK Envoyer réouverture Client Opérations normales suspendues OK Réouverture Client en mode ''recovery'' Réouverture Fin recovery OK Reprise des opérations normales 2015 M2 / SA 49

NQNFS Not Quite NFS Buts identiques à ceux de Spritely NFS Sémantique ''copie unique'' Meilleures performances Addition au protocole: GETLEASE 2015 M2 / SA 50

NQNFS Client 1 Serveur Client 2 getlease (read) Cache OK read lease terminé getlease (read) getlease(write) cache OK evicted non caching write vacated non caching 2015 M2 / SA 51

NQNFS: recovery Le serveur attend simplement que les ''loyers'' fournis précédemment soient expirés. Durée du ''loyer'' courte (~1mn) Après ce délai: plus d'état Le serveur sert cependant les requêtes d'écriture. 2015 M2 / SA 52

WebNFS URL: nfs://server:port/home/shrek/file Implémentation évitant la lourdeur du protocole de montage de la résolution du chemin composant par composant Public file handle répertoire unique défini par le serveur ''tout à zéro'' lookup multicomposants 2015 M2 / SA 53

NFS v4 File handle 128 octets mknod remplacé par create create (regular file) remplacé par open! Nouveaux appels open close lookup: multi-composants Attributs fichiers retournés avec chaque réponse Attributs ''diversifiés'' 2015 M2 / SA 54

NFS v4 Sécurité enrichie et renforcée Possibilité d'opérations composées dans une requête unique (ex: lookup, open, read) Montage et Verrouillage intégrés Délégation 2015 M2 / SA 55

NFS v4: share reservation Current file denial state NONE READ WRITE BOTH Request access READ WRITE Succeed Succeed Fail Succeed Succeed Fail Succeed Succeed BOTH Succeed Succeed Succeed Fail (a) Requested file denial state Current access state READ WRITE NONE Succeed Succeed READ Fail Succeed WRITE Succeed Fail BOTH Succeed Succeed BOTH Succeed Succeed Succeed Fail (b) Résultat d'un open: (a) quand un processus demande un accès partagé (b) quand un processus demande un déni 2015 M2 / SA 56

NFS v4: Délégation 2015 M2 / SA 57

Plan FTP Newcastle Connection NFS NFS v2, NFS v3, WebNFS, NFS v4 Spritely NFS NQNFS Coda GFS 2015 M2 / SA 58

Coda Successeur de Andrew File System (AFS) Support pour clients mobiles Opérations en mode déconnecté Ré-intégration des clients déconnectés Résistance aux pannes Serveurs multiples lecture / écriture Résolution des conflits entre serveurs Gestion des partitions réseau entre serveurs 2015 M2 / SA 59

Coda Performances Cache persistent côté client des données, répertoires et attributs ''write back'' Sécurité Kerberos Access Control Lists (ACL's) 2015 M2 / SA 60

Accès Transparent Coda Serveurs Vice Client Virtue 2015 M2 / SA 61

Coda: Nommage Client A Serveur Client B local A afs bin pkg local B afs bin pkg cc ls foo bar cc ls foo bar Espace de nommage commun imposé par le(s) serveur(s) 2015 M2 / SA 62

Coda Venus et Vice Programme Client Venus: gestion cache 5 4 Serveur: Vice 1 Appel système 8 VFS 2 7 6 3 CodaFs Appels véhiculés par RPC2 Ext2 Noyau (Linux) 2015 M2 / SA 63

Coda Au premier accès, Venus amène une copie du fichier sur le disque local, Les lectures / écritures suivantes se font ensuite localement (via ext2) sans ''passer'' par Venus. Si le fichier a été modifié, il est renvoyé au serveur lors de la fermeture. 2015 M2 / SA 64

Coda: Déconnexion Les modifications sont conservées dans un journal (sur disque: Client Modification Log) Pas d'erreur notifiée à l'utilisateur Modifications ré-intégrées automatiquement lors de la re-connection Optimisées (ex: modifications suivies de suppression) Les lectures de fichiers absents du cache ne peuvent pas être servies. 2015 M2 / SA 65

Coda: Déconnexion ''File Hoarding'' Cache les fichiers les plus utilisés (binaires,...), automatiquement par espionnage, Maintenus à jour par Venus Conflits lors des ré-intégrations Réconciliation automatique ou manuelle 2015 M2 / SA 66

Coda: Partage de fichiers Client Open(R) Serveur Transfert fichier Session A Invalidation Close Open(R) 2,5cm Transfert fichier Client Open(W) Transfert fichier Session Close B Open(W) Pas de Transfert fichier Session B 1 Utilisation des copies locales de fichiers dans Coda 2015 M2 / SA 67

Coda: Identificateurs Fichier: identifie par un ''File Handle'' Volume physique identifié par ''VID'' Volume Identifier Géré par ''Volume location DB'' Volume logique identifié par ''RVID'' Replicated Volume Identifier Géré par ''Volume replication DB'' 2015 M2 / SA 68

Coda: Identificateurs Volume replication DB RVID File Handle Srv 1 File Handle File Server Volume location DB Srv2 File Handle File Server 2015 M2 / SA 69

Coda: Serveurs Répliqués Volume Storage Group (VSG): Ensemble des serveurs ayant une copie d'un volume donné Accessible Volume Storage Group (AVSG): Sous-ensemble accessible à un instant donné Read One, Write All Quand un serveur est en panne AVSG # VSG 2015 M2 / SA 70

Coda Serveur 1 Serveur 3 Client A Serveur 2 Client B Partition réseau: AVSG du client A disjoint de AVSG du client B 2015 M2 / SA 71

Coda: Détection des conflits Chaque serveur gère un 'Coda version vector' pour chaque fichier (analogue aux vecteurs temporels) noté: CVVi(f) A t = 0 CVV 1 (f) = CVV 2 (f) = CVV 3 (f) = [1, 1, 1] Après écriture de A CVV 1 (f) = CVV 2 (f) = [2, 2, 1] ; CVV 3 (f) = [1, 1, 1] Après écriture de B CVV 1 (f) = CVV 2 (f) = [2, 2, 1] ; CVV 3 (f) = [1, 1, 2] 2015 M2 / SA 72

Intermezzo Voir aussi Intermezzo Mêmes capacités que Coda ''Sur-couche'' sur systèmes de fichiers existants (ext3fs) Protocole basé sur HTTP 1.1 2015 M2 / SA 73

Plan FTP Newcastle Connection NFS NFS v2, NFS v3, WebNFS, NFS v4 Spritely NFS NQNFS Coda GFS 2015 M2 / SA 74

GFS client CPU Mémoire Disk GFS GFS client CPU Mémoire Disk GFS client CPU Mémoire Disk Storage Area Network sub-pool 1 Network Storage Pool sub-pool 2 sub-pool 3 disque seul RAID 5 Stripped disks 2015 M2 / SA 75

GFS Pas de ''Serveur'' centralisé Disponibilité: Si un client tombe en panne, un autre peut continuer son travail: ils accèdent aux mêmes fichiers Partage de charge Gestion ''unifiée'' des disques Croissance facilitée 2015 M2 / SA 76

Shared Disk File Systems Deux approches possibles: Asymétrique xfs Symétrique GFS 2015 M2 / SA 77

SDFS: Asymétrique Données Clients S A N contrôle meta-données 2015 M2 / SA 78

SDFS : Symétrique Données Clients S A N 2015 M2 / SA 79

GFS Utilise une approche ''symétrique'' Système de fichiers monte simultanément sur chacun des nœuds Panne d'un nœud quasi-transparente Nécessité de rejouer le journal du client défectueux Contrainte: Accès parallèle nécessite des mécanismes de verrouillage entre nœuds 2015 M2 / SA 80

GFS: Verrous Disque SCSI 2 verrous 4 Données 5 1 Réponse: verrou occupé par CID 0001 Client 1 CID: 0001 3 Client 2 CID: 0001 1: Demande de verrou 2: Verrou déjà pris, demander a CID 0001 3: Relâcher le verrou SVP, 4: Verrou relâché, données mises à jour 5: Prise de verrou 2015 M2 / SA 81

GFS Support pour verrouillage: Disques avec protocole DMEP Device Memory Export Protocol Espace de verrouillage accessible via IP (ex: machine Unix) Verrous associés aux blocs 1 inode = 1 bloc 1 journal par nœud client 2015 M2 / SA 82

Disque Miroir par logiciel DRBD: Dual Remote Block Device Associe (RAID 1) un disque local et un disque distant Vu comme un disque local Un site ''Primaire'' un site secondaire Évolutions pour supporter état ''shared'' pour GFS 2015 M2 / SA 83

DRBD File System File System Buffer Cache Buffer Cache DRBD TCP/IP TCP/IP DRBD Disk Driver NIC Driver NIC Driver Disk Driver 2015 M2 / SA 84

Autres WebDAV Partage et contrôle de version sur le Web Frangipani Très similaire à GFS Lustre 2015 M2 / SA 85