SISR SYSTEMES RAID ET MISE EN OEUVRE D'UN RAID LOGICIEL AVEC MADM



Documents pareils
Le Raid c est quoi? Comment ca marche? Les différents modes RAID :

Guide pour l Installation des Disques Durs SATA et la Configuration RAID

Guide pour l Installation des Disques Durs SATA et Configuration RAID

Guide pour l Installation des Disques Durs SATA et la Configuration RAID

Principe. Technologies utilisées. 1. Linux et LVM. Les snapshots (instantannés) sous Linux et FreeBSD. Présentation de LVM. Organisation de LVM

Guide pour l Installation des Disques Durs SATA et la Configuration RAID

Service WEB, BDD MySQL, PHP et réplication Heartbeat. Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox

Architecture de la plateforme SBC

Distinguer entre «Enregistrer» et «Sauvegarder»

Il est courant de souhaiter conserver à

Module 12 : Configuration et gestion des disques

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows W2K pro: configuration.

INTRODUCTION GENERALE... 3 LES NIVEAUX SIMPLE (RAID 0,1,2,...)... 4

Installation et Réinstallation de Windows XP

Sauvegarde sur un serveur Scribe

Stage SambaÉdu Module B. Jour 9 Outils complémentaires et problèmes récurrents divers

table des matières Administration système

Gestion des sauvegardes

Présentation du SC101

EX4C Systèmes d exploitation. Séance 14 Structure des stockages de masse

Logical Volume Manager (LVM)

Mise en oeuvre TSM 6.1

OpenMediaVault installation

SERVEUR DE SAUVEGARDE POUR BCDI3. par. G.Haberer, A.Peuch, P.Saadé

Livre blanc Haute disponibilité sous Linux

Cloner nativement Windows 8.x (mode EFI)

Cloner un disque dur

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Jakob Ø ;stergaard ( jakob@ostenfeld.dk ) v ; 19th of January Introduction Avertissement Prérequis...

PROCÉDURE D'INSTALLATION

Retrospect 7.7 Addendum au Guide d'utilisation

Procédure d installation de la Sauvegarde de Windows Server

Utiliser un proxy sous linux

GOUTEYRON ALEXIS. SIO2 N candidat: UEpreuve E4. USituation professionnelle 2. serveurs de fichiers. Uen haute disponibilité

SECURIDAY 2012 Pro Edition

Classe et groupe : 1P 3 SEN TRI. Ubuntu : serveur Contrôleur de Domaine (PDC) avec SAMBA

Raspberry pi : Développer une petite application web sur Raspberry

Stockage Réseau. Le stockage s'échappe du système pour devenir une fonction réseau

Installation de Vmware serveur Windows

Activité 1 : Création et Clonage d'une première machine virtuelle Linux OpenSuSE.

Artica. La déduplication. Révision Du 08 Février 2011 version

Server Administrator Storage Management

Installation d'un TSE (Terminal Serveur Edition)

Installer un domaine DNS

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes

LA SAUVEGARDE DES DONNEES SUR LES ORDINATEURS PERSONNELS

INSTALLATION DE BACKUPPC

Outils en ligne de commande

Installer un serveur web de développement avec VirtualBox

Stockage des machines virtuelles d un système ESXi jose.tavares@hesge.ch & gerald.litzistorf@hesge.ch

VMware ESX : Installation. Hervé Chaudret RSI - Délégation Centre Poitou-Charentes

REMBO Version 2.0. Mathrice 2004 DESCRIPTION MISE EN OEUVRE CONCLUSION.

Concepts et systèmes de stockage

IP & Co. 1. Service DHCP. L'objectif de ce TP est de voir l'ensemble des services élémentaires mis en oeuvre dans les réseaux IP.

Installation du SLIS 4.1

Utilisation et création de la clé USB OSCAR

Configuration de votre compte Zimbra Desktop Client

Commandes Linux. Gestion des fichiers et des répertoires. Gestion des droits. Gestion des imprimantes. Formation Use-IT

Personnes ressources Tice. Académie de Rouen

1 - Rappel. Historique

Mise en place d un firewall d entreprise avec PfSense

Micro ordinateur & Périphériques Mémoire de masse Disque dur (SOLUTION)

NTP (Network Time Protocol)

Seagate Technology LLC S. De Anza Boulevard Cupertino, CA 95014, États-Unis

Documentation Utilisateur/Développeur. Client de Monitoring CamTrace

Protéger ses données dans le cloud

Clé Flash USB2.0 Acer

Instructions pour mettre à jour un HFFv2 v1.x.yy v2.0.00

GUIDE D'UTILISATION: Comment installer la Renault Media Nav Toolbox? GUIDE D'UTILISATION: Comment créer une empreinte digitale de votre appareil sur

Sauvegarde et restauration d'un système d'exploitation Clonezilla

Configuration matériel. Tâche 2 : Installation proprement dite de l application sur un serveur de test virtualisé sous VmWare Workstation.

INSTALLATION. Sécurité des Systèmes d'information et de Communication

Serveur Acronis Backup & Recovery 10 pour Linux. Update 5. Guide d'installation

WINDOWS 2000 SERVEUR

Administration de Parc Informatique TP07 : Installation de Linux Debian

Techniques de stockage. Techniques de stockage, P. Rigaux p.1/43

Système de stockage Cisco NSS baies Gigabit

Manuel d'installation

Introduction...3. Objectif...3. Manipulations...3. La Sauvegarde...4. Les différents types...4. Planification...4. Les outils...5

Serveur de sauvegardes incrémental

GUIDE DE L UTILISATEUR Recoveo Récupérateur de données

«clustering» et «load balancing» avec Zope et ZEO

Solution Haute Disponibilité pour Linux

BTS SIO Dossier BTS. PURCHLA Romain

Gestion des applications, TI. Tout droits réservés, Marcel Aubin

Forex VPS Mode d emploi

PARAGON SYSTEM BACKUP 2010

PPe jaune. Domingues Almeida Nicolas Collin Leo Ferdioui Lamia Sannier Vincent [PPE PROJET FTP]

Un concept multi-centre de données traditionnel basé sur le DNS

TP LINUX : MISE EN PLACE DU SERVEUR DE MESSAGERIE QMAIL

Symantec Backup Exec Remote Media Agent for Linux Servers

I. Présentation du serveur Samba

Synchronisation Mysql (Replication)

NON URGENTE TEMPORAIRE DEFINITIVE OBJET : RÉCUPÉRATION DES DONNÉES CLIENT SUR DISQUE DUR DÉFECTUEUX OU INVALIDÉ

Service Informatique et Télématique (SITEL), Emile-Argand 11, 2009 Neuchâtel, Tél ,

Maintenir Debian GNU/Linux à jour

Transcription:

STS SIO SISR SYSTEMES RAID ET MISE EN OEUVRE D'UN RAID LOGICIEL AVEC MADM A3.2.1 Installation et configuration d éléments d infrastructure C3.2.1.1 Installer et configurer un élément d interconnexion, un service, un serveur, un équipement terminal utilisateur 1- Les différents types de RAID La technologie RAID (Redundant Array of Independent Disks) a été crée en 1987 pour remplacer les coûteux disques de 6.5 et 9.5 pouces par des ensembles formés de disques de 3.5 pouces beaucoup moins chers. Le but du RAID est de rassembler plusieurs disques durs physiques en seule unité logique. En clair le système d'exploitation ne verra qu'un seul disque dans le poste de travail. Le RAID fonctionne avec au minimum deux disques (RAID 0). Il existe plusieurs configurations RAID qui rassemblent différemment les données présentes sur l'ensemble des disques et permettent d'avoir d'augmenter : les performances la capacité la sécurité. La technologie RAID peut être mise en place au niveau matériel ou logiciel. Elle fonctionne avec des disques durs IDE, SATA et SCSI Les différentes configurations de RAID : Le RAID 0 (ou stripping) Ce mode permet de rassembler les disques pour n'en former qu'un de capacité égale à l'ensemble des disques. Exemple: avec 3 disques : 12 Go, 26 Go, 4Go, on obtient une capacité de 42 Go 1/13 Le RAID 0 va copier une partie de chaque fichier sur chaque disque. L'écriture est donc plus rapide. Les performances dépendent des disques durs : il faut de préférence des disques de même capacité, et de mêmes modèles. Si un disque lent est utilisé avec un disque rapide, le disque le plus lent sera utilisé comme étalon et ralentira tout le système.

Il existe un paramètre appelé Strip Size, Chunk Size ou encore Block Size et qui permet de fixer la taille des segments qui seront copiés sur chacun des disques. Ce paramètre va de 512 octets à plusieurs méga-octet. Une taille plus petite favorise le temps d'accès et l'ouverture de petits fichiers. Une taille de 4 Mo pour lire des petits fichiers est catastrophique sur le plan des performances. Plus la taille des segments est petite, moins on perd d'espace disque en cas de fichiers ayant une taille inférieure à celle d'un segment. L'accroissement des performances est fonction du nombre de disques et de leurs performances. L'inconvénient du RAID 0 est qu'il ne tolère pas les pannes. Si un seul disque qui tombe en panne les données sont perdues. Le RAID 1 (ou mirroring) L'avantage du RAID 1 est qu'il gère les pannes. Si un disque dur lâche, le disque en état de fonctionnement est utilisé pour lire et écrire les données. Les performances en lecture sont améliorées (proportionnellement au nombre de disques et à leurs performances), mais comme les données sont écrites de manière synchrone sur tous les disques, les performances en écriture ne varient pas. Inconvénient du RAID 1 : la capacité totale est égale à la capacité du disque le plus petit de l' agrégat. Autant prendre comme pour le RAID 0 des disques de même capacité. Si on a un disque de 20 Go et l'autre de 50, on n'utilise que 20 Go, et la capacité perdue sera de 30 Go. Le RAID 2 Le RAID 2 est identique au RAID 1 sauf sur un point : lors des opérations de lecture, un seul des disques travaille ce qui permet aux autres disques de s'user moins rapidement et augmente donc leur durée de vie. La baisse de performances et l'utilité relative de ce niveau de RAID ont provoqué son abandon. Le RAID 3 Le RAID 3 apporte les avantages du RAID 0 (performances élevées) et du RAID 1 (tolérance de pannes). Il faut au moins trois disques. La taille des segments n'est pas modifiable, elle est de 512 octets. Il y a un disque qui est utilisé pour stocker les informations de parité (processus algorithmique). Parité : calcul mathématique qui permet aux disques présents dans une matrice RAID de 2/13

tomber en panne sans que l on ne constate de perte de données. La parité permet de reculculer les données présentes sur le disque perdu. Principe : l'équation : A + B = C. Vous pouvez supprimer n'importe quelle lettre retrouver sa valeur à partir des 2 lettres restantes. Par exemple, si B est retiré l'équation ressemblait à A +? = C. La valeur de B peut être retrouvée en par B = C - A Si un disque tombe en panne quel qu'il soit, le système fonctionne comme en mode RAID 0 jusqu'à l'ajout d'un nouveau disque, dans ce cas les informations sont reconstruites. Si deux disques tombent en panne, les données sont perdues. Les informations du disque le moins performant sont utilisées (comme le RAID 0) pour définir la capacité utile. Le disque de parité travaille d'autant plus que le nombre de disques est important. Les performances en écriture sont donc bridées par le disque de parité. Le RAID 4 Ce mode nécessite au moins trois disques tout comme le RAID 3. Il y a seulement une différence au niveau de l'organisation des données : la taille des segments se modifie en temps réel. Les informations de parité sont donc mises à jour à chaque fois que la taille des segments change. Il y a donc encore plus de travail pour le disque de parité. Le RAID 5 Ce mode est proche du RAID 3, seulement les informations de parité sont stockées de manière égale sur l'ensemble des disques. Les performances en écriture sont ainsi plus élevées. Ce mode gère la perte d'un disque dur. La capacité utilisable est égale à celle du disque le plus petit multiplié par (x-1) disques. Si vous avez trois disques de 120 Go, la capacité utilisable est de 120*2=240 Go, car il faut 120 Go pour stocker les informations de parité. 3/13

L'orthogonal RAID 5 Ce mode permet d'avoir un contrôleur par disque, donc une meilleure sécurisation des données. Si un contrôleur lâche, le mode RAID 5 fonctionne encore. Le RAID 6 Le RAID 6 enregistre deux fois les informations de parité au lieu d'une pour le RAID 5. A nombre de disques équivalent, les performances en écriture du RAID 6 sont inférieures à celles du RAID 5. Ce mode nécessite au moins 4 disques pour fonctionner. La capacité utilisable est la capacité de votre disque le plus petit multiplié par le nombre de disques -2. Si par exemple vous avez quatre disques de 60 Go, vous avez une capacité utilisable de 60*(4-2) = 120 Go Le RAID 7 Il permet la gestion de 48 disques. Le nombre de disques destinés au stockage des données et de la parité est paramétrable. Les performances en écriture sont de 2 à 6 fois supérieures et celles en lecture sont elles aussi très élevées grâce à la présence d'un cache. Le RAID 01 Il cumule l'avantage du Raid 0 et 1 : il y a dans notre exemple 4 disques. On met les disques en Raid 0 deux par deux. Les disques logiques crées (deux dans notre cas) sont mis en Raid 1. Résultat : des performances en lecture et écriture largement améliorées et la possibilité de perdre deux disques (dans notre cas on peut perdre les deux disques d'un ensemble Raid 0) Le RAID 10 C'est l'inverse du Raid 01, dans le sens ou les disques sont d'abord placés en Raid 1 pour ne former qu'une unité en Raid 0. On obtient ensuite une capacité égale aux deux disques Raid 1 si ceux ci sont de même capacité. Cette configuration permet la perte de deux disques. 4/13

Le Raid X0 Ce mode désigne en fait des niveaux comme le Raid "50" ou encore "10". Dans le cas du mode 50, on prend un ensemble Raid 5 monté ensuite en Raid 0. Pour le "10", on constate que ce sont des disques en Raid 1 qui sont ensuite placés en Raid 0. Le premier chiffre désigne le mode de Raid des disques placés en bas dans la hiérarchie, et le deuxième le Raid 0 qui sera en haut de la hiérarchie. 2- Le RAID 1 logiciel avec MDADM 2-1 Objectif Nous allons voire ici comment mettre en place un RAID 1 logiciel sous Linux avec mdadm. Rappel : Le RAID 1 consiste en l'utilisation de disques redondants, chaque disque de la grappe contenant à tout moment exactement les mêmes données, d'où l'utilisation du mot «miroir» (mirroring en anglais). Ce RAID peut être Matériel : assuré par une carte RAID qui assure l'écriture simultanée sur les disques. Logiciel : assuré par le système d'exploitation. Il s'agira de mettre en RAID1 deux partions /dev/sdb1 et /dev/sdc1 qui accueilleront des données. La grappe RAID1 sera nommée /dev/md0 et elle sera montée automatiquement au démarrage en /Donnees. 2-2-Préparation Votre machine Ubuntu Desktop doit comporter 3 disques : /dev/sda (système) /dev/sdb (Premier disque du RAID) 8GO /dev/sdc (Deuxième disque du RAID) 8GO Créer sur les deux disques des partitions (/dev/sdb1 et /dev/sdc1) de taille identique (8 GO :occupent la totalité du disque). Remarque : Lorsque vous avez partionné /dev/sdb, vous pouvez reproduire le partionnement sur /dev/sdc. Attention, aucune confirmation n'est demandée. #sfdisk -d /dev/sdb sfdisk /dev/sdc 2-3- Installation apt-get install mdadm 5/13

Il est possible de configurer un envoi de messages en cas de problème sur le RAID. Nous configurerons cette fonctionnalité plus tard. Mise en place d'un RAID1 mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1 Le RAID sera vu comme une seule partition : /dev/md0 Il regroupera /dev/sdb1 et /dev/sdc1 --level=1 indique qu'il s'agit d'un RAID1 --raid-devices=2 indique que deux partitions seront mises en RAID Il est possible d'utiliser une forme abrégée des options : mdadm -Cv /dev/md0 -l1 -n2 /dev/sdb1 /dev/sdc1 Résultat : mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 mdadm: size set to 8383424K Continue creating array? Yes mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. L'ensemble RAID1 (array) est matérialisé au niveau système par le fichier spécial de type bloc /dev/md0. Il est possible de suivre la progression de la mise en place du RAID : 6/13

# watch cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[1] sdb1[0] 8383424 blocks super 1.2 [2/2] [UU] [================>...] resync = 81.2% (6813568/8383424) finish=0.1min speed=200378k/sec Lorsque la mise en place du RAID est terminée : # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[1] sdb1[0] 8383424 blocks super 1.2 [2/2] [UU] unused devices: <none> [2/2] [UU] signifie que les deux partitions du RAID sont opérationnelles On manipuler /dev/md0 comme nous le ferions avec une partition classique (ex : /dev/hda1 ou /dev/sdb3, etc..) Formatage en ext3 : #mkfs.ext3 /dev/md0 Montage dans un répertoire /Donnees # mkdir /Donnees # mount /dev/md0 /Donnees # ls /Donnees/ lost+found 2-4-Configuration de l'envoi de messages Nous configurerons mdadm pour l'envoi de messages locaux à root@localhost. Ces messages seront reçus dans le fichier /var/mail/root. Il serait selon le même principe possible de configurer l'envoi de messages vers un serveur de messagerie externe. Installation et configuration de Postfix : apt-get install postfix mailutils dpkg-reconfigure postfix 7/13

8/13

9/13 Test de l'envoi de message :

# echo "Texte Test0" mail -s "Sujet Test0" root@localhost Le courrier arrive dans le fichier /var/mail/root. Vérification : # tail -f /var/mail/root id 407CFC1D3B; Mon, 31 Mar 2014 12:21:43 +0200 (CEST) Subject: Sujet Test0 To: <root@localhost> X-Mailer: mail (GNU Mailutils 2.2) Message-Id: <20140331102143.407CFC1D3B@UDSIO-1204> Date: Mon, 31 Mar 2014 12:21:43 +0200 (CEST) From: root@udsio-1204 (root) Texte Test0 Configuration de mdadm pour envoyer des messages en cas de problème sur le RAID Dans le fichier «/etc/default/mdadm» et vérifiez que ces lignes sont bien présentes: # START_DAEMON: # should mdadm start the MD monitoring daemon during boot? START_DAEMON=true Dans le fichier «/etc/mdadm/mdadm.conf» et ajoutez votre email sur la ligne MAILADDR: # instruct the monitoring daemon where to send mail alerts MAILADDR root@localhost Enregistrez le fichier et relancez mdadm avec la commande suivante: /etc/init.d/mdadm restart 2-5-Défaillance et remplacement d'un disque Nous allons simuler une panne disque en cours d'utilisation: Interprétation : Signifie que une seule des deux partions du RAID est opérationnelle Indique que seule la partition /dev/sdb1 est active Il est également possible d'obtenir des informations par la commande mdadm 10/13

La deuxième partition apparaît en état removed. Pour obtenir des informations sur une partition précise : mdadm -E /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : f6a82b92:e2318dfa:d59f3f7b:4809a759 Name : UDSIO-1204:0 (local to host UDSIO-1204) Creation Time : Thu Mar 27 09:32:52 2014 Raid Level : raid1 Raid Devices : 2 Avail Dev Size : 16766976 (8.00 GiB 8.58 GB) Array Size : 8383424 (8.00 GiB 8.58 GB) Used Dev Size : 16766848 (8.00 GiB 8.58 GB) Data Offset : 8192 sectors Super Offset : 8 sectors State : clean Device UUID : 23394496:2a4c1f7c:6543696d:a65b8754 Update Time : Tue Apr 1 10:54:16 2014 Checksum : 3309ce25 - correct Events : 69 11/13

Device Role : Active device 0 Array State : AA ('A' == active, '.' == missing) La deuxième (/dev/sdc1) a été supprimé: fdisk -l /dev/sdc indique que /dev/sdc n'existe pas. Redémarrer. Sous VirtualBox il y a toujours 3 disques. Lorsque le système redémarre, il voie le troisième disque comme un nouveau disque /dev/sdc (différent de l'ancien). Il ne fait plus partie de la grappe RAID. Le système propose de démarrer avec une grappe RAID en mode dégradé. Répondre y pour yes. Remarque : Après le redémarrage, il se peut que /dev/md0 aie été transformé en /dev/md127. Remplacer alors /dev/md0 par /dev/md127 dans les commandes ci-dessous. Affichage de l'état de la grappe : mdadm detail /dev/md0 montre toujours un disque actif (/dev/sdb1) et un disque en état removed Ajouter le nouveau disque dans la grappe RAID. mdadm manage /dev/md0 add /dev/sdc1 Une synchronisation du deuxième disque par rapport au premier est lancée : # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[1] sdb1[0] 8383424 blocks super 1.2 [2/2] [UU] [================>...] resync = 81.2% (6813568/8383424) finish=0.1min speed=200378k/sec Dans un environnement physique, il aurait fallu au préalable recréer /dev/sdc1 #sfdisk -d /dev/sdb sfdisk /dev/sdc 2-6- Montage automatique de la grappe par /etc/fstab Il faut auparavant résoudre le problème du remplacement de /dev/md0 par /dev/md127. Ce renommage de la grappe RAID pose un problème si on demande un montage automatique de cette grappe dans le fichier /etc/fstab. Une ligne du fichier /etc/fstab demandant le montage automatique de /dev/md0 ne sera plus valable si cette grappe est renommée en /dev/md127. Il faut déclarer la grappe (ARRAY en dur dans le fichier /etc/mdadm/mdadm.conf. Afficher la liste des grappes #mdadm --detail scan ARRAY /dev/md/udsio-1204\:0 metadata=1.2 name=udsio-1204:0 12/13

UUID=f6a82b92:e2318dfa:d59f3f7b:4809a759 /dev/md/udsio-1204\:0 est un lien symbolique qui pointe vers /dev/md127 Rediriger cette déclaration de la grappe à la fin du fichier /etc/mdadm/mdadm.conf mdadm --detail scan>>/etc/mdadm/mdadm.conf Modifier cette ligne dans le fichier /etc/mdadm/mdadm.conf ARRAY /dev/md/udsio-1204\:0 metadata=1.2 name=udsio-1204:0 UUID=f6a82b92:e2318dfa:d59f3f7b:4809a759 devient ARRAY /dev/md0 metadata=1.2 name=udsio-1204:0 UUID=f6a82b92:e2318dfa:d59f3f7b:4809a759 Redémarrer mdadm : /etc/init.d/mdadm restart Mettre à jour initramfs pour le prochain démarrage (le but de initramfs est de créer au démarrage un premier système de fichier en /). #update-initramfs -u Montage automatique de la grappe : Mettre à jour le fichier /etc/fstab pour monter automatiquement /dev/md0 dans /Donnees au démarrage. /dev/md0 /Donnees ext3 defaults 0 0 13/13