Solution haute disponibilité
|
|
|
- Émilien Grenon
- il y a 10 ans
- Total affichages :
Transcription
1 Solution haute disponibilité 1
2 PRESENTATION de la solution DRBD -Distributed Replicated Block Device Présentation Installation-Fichiers de configuration Création du mirroir Tests -Problèmes rencontrés HEARTBEAT Présentation Installation- Fichiers de configuration Tests CONCLUSION 2
3 Problèmatique: Assurer la disponiblité d'un service = Assurer la continuité d'un dunservice malgré une panne du serveur sur lequel il tourne -> doublement du serveur et procédures de bascules automatiques si le service est critique. Un défi important est d'assurer que les données qui étaient présentées à l' utilisateur avant la panne soient toujours disponiblesibl et intègres. La solution peut être apportée par un serveur SAN (NFS?) mais on devra résoudre autrement la panne de ce serveur de données. Une autre solution est de disposer de deux serveurs ayant chacun un espace disque qui seront régulièrement synchronisés (mais on peut perdre les dernières données). La solution présentée répond à deux impératifs: - pas de SPOF (Single Point Of Failure), - données parfaitement à jour en cas de bascule. 3
4 Le projet Linux High Availability - développé dans le but de fournir une solution aux problèmes évoqués précédemment. - répond à plusieurs impératifs : -faiblecoût, - facilité ii de maintenance, - données parfaitement à jour en cas de bascule serveur. HeartBeat et DRBD sont les deux principaux modules issus de ce projet et les plus utilisés en environnement Linux dans la mise en place d'un cluster quand il s'agit de rendre des serveurs hautement t disponibles. ibl Ils sont distribués sous Linux, FreeBSD, OpenBSD, Solaris et MacOS X sous licence GPL. Heartbeat est un système de gestion de la haute disponibilité DRBDunesolutiondeRAID-1sur IP. C'est-à-dire un système de mirroring de partitions à travers une interface réseau. 4
5 Description fonctionnelle de la solution présentée: Deux machines identiques A et B ayant chacune un disque suffisant pour assurer les services. espace En temps normal, un seul de ces deux serveurs, A, rend effectivement les services : il dispose de l'adresse IP sur laquelle les services sont disponibles, le système de fichiers contenant les données est monté, et les différents services sont lancés. L'autre machine B au contraire se contente d'attendre. Les deux machines s'informent mutuellement de leur fonctionnement par un système de «battements de coeur» implémenté par le logiciel Heartbeat. La duplication des données est assurée par une technique de RAID-1 réseau implémentée par le logiciel DRBD «Distributed Replicated Block device» Lorsqu'une panne intervient sur A, la machine B détecte l'arrêt des battements et lance le processus de bascule: elle prend l'adresse IP des services, monte le système de fichiers et lance les services. 5
6 6
7 CONFIGURATION MATERIELLE Les deux machines utilisées MAIL1 et MAIL2 : Precision 690 DELL : Xeon 5050 dual core (3.0GHz) RAM 2Go Ethernet t Gb DD 160Go ATA (7200 tpm) DD 500Go ATA (7200 tpm) sans SE, sans ECRAN 3000 E Ajout 2 cartes ethernet Gigabit, un cable null-modem Installation sur l'une du système Linux DEBIAN ETCH (02/07) La seconde machine est clonée après installation 7
8 Configuration IP des machines (fichier /etc/network/interfaces): Sur MAIL1 : iface eth0 inet static address netmask network broadcast up route add default gw dev eth0 iface eth3 inet static address netmask network broadcast Sur MAIL2: iface eth0 inet static address netmask network broadcast up route add default gw dev eth0 iface eth3 inet static address netmask network broadcast #IP publique #lien drbd #IP publique #lien drbd 8
9 PRESENTATION de la solution DRBD -Distributed Replicated Block Device Présentation Installation-Fichiers de configuration Création du mirroir Tests -Problèmes rencontrés HEARTBEAT Présentation Installation- Fichiers de configuration Tests CONCLUSION 9
10 DRBD (Distributed ib t Replicated Block Device) réplication de données localisées sur deux serveurs distincts par voie réseau, s'apparente à du RAID-1 sur IP, synchronisation au niveau de la partition. Quand une écriture a lieu sur le disque du serveur maître, l'écriture est simultanément réalisée sur le serveur esclave. Les sources de DRBD et sa documentation sont disponibles à l'adresse suivante : Module spécifique pour le kernel implémentant un périphérique en mode bloc qui en plus d'écrire l'information sur le disque physique de la machine locale, la transmet à son homologue miroir qui se trouve sur un autre serveur. Il est nécessaire d'installer ce module ainsi que des outils de gestion sur les 2 serveurs qui formeront le cluster. 10
11 DRBD se place entre le sous volume physique et le système. Il présente au système un «block device» ou disque virtuel (du type /dev/drbd0, /dev/drbd1..) que l'on lon va pouvoir formater, puis monter comme n'importe quel volume. Pour travailler avec DRBD, il faut alors associer un périphérique p /dev/drbd0 à une partition /dev/sdax (/dev/sdb2 pour nous). Il faut ensuite utiliser exclusivement DRBD pour la création du système de fichier et le montage de la partition. Lasynchronisationdesdonnéesseferaaumoyend'unliengigabit ethernet (adresses IP privées). Le nom de la ressource gérée par DRBD est «mirror» Trois niveaux de protocole A, B, C, C étant le plus fiable: 11
12 12
13 INSTALLATION L'installation est à faire sur les deux machines du cluster. Nous n'avons pas eu à compiler le module lors de la première installation(02/07) I apt-get install drbd8-module amd64 apt-get install drbd8-utils modprobe drbd lsmod grep drbd drbd cn drbd Le passage de la version ETCH de Debian en stable (03/07) a modifié la version de kernel -> compilation du module: apt-get install linux-headers amd64 build-essential cd /usr/src gzip -d drbd8.tar.gz tar tvf drbd8.tar cd linux-headers amd64/ module-assistant (ATTENTION aux UPGRADES si nouveau kernel!!!! ) 13
14 Les disques mirrorés (500Go) sont vus sous système en sdb. Nous avons créé deux partitions : sdb1-2 GO :meta-datas pour DRBD sdb2-490 GO : partition mirrorée Les meta-datas peuvent être sur la partition mirrorée ou sur une partition séparée (solution choisie). Le pseudo-device se nomme /dev/drbd0 Les ressources DRBD ont un rôle «primary» ou «secondary» En exploitation normale, la machine maître fait tourner les services et sa ressource DRBD est «primary», elle est»secondary» sur l'esclave. On ne pourra pas monter une ressource «secondary» 14
15 LES META -DATAS Zone dédiée contenant: - La taille du device DRBD, - Les identifiants de génération (GID's) qui permettent d'identifier une génération de datas répliquées, de déterminer la direction de la synchronisation, identifier un «split-brain». En fonctionnement normal, status «Connected,up-to-date» sur les deux machines, l'identifiant est le même. - L' Activity Log, qui stocke les blocks de datas pendant leur phase d'écriture (locale et distante). Ces zones = hot extents. Leur nombre est configurable (cf. paramètre al-extents). -La zone «quick sync bitmap», qui garde la trace des blocks synchronisés et des blocks désynchronisés. Utilisé en cas de ressource déconnectée (accélère la synchro) 15
16 Fichier de configuration du RAID : /etc/drbd.conf global { # Différentes sections:ici global usage-count yes; # Enregistrement des mises à } # jour. common { # common section commune syncer { rate 70M; } # à toutes les ressources } # resource mirror { # Description ressource mirror protocol C; # protocole choisi (ici C) handlers { # Que fait-on si: pri-on-incon-degr "echo O > /proc/sysrq-trigger ; halt -f"; # node primaire dégradé,datas #inconsistantes -> halt pri-lost-after-sb "echo O > /proc/sysrq-trigger ; halt -f"; # node primairequi perd apres #auto spli-brain recovery outdate-peer "/usr/sbin/drbd-peer-outdater"; # procédure pour outdater» } # l'autre (n'existe pas) } startup { wfc-timeout 30; # bloquage du boot tant que ressource non démarrée 30 s degr-wfc-timeout t 120; # 2 minutes si le node est seul } disk { on-io-error o o panic; # Dump système si i/o error sur disque... net { max-buffers 2048; # taille buffers =2048 x4mb max-epoch-size 2048; # nb max buffers entre 2 write after-sb-0pri discard-younger-primary; # si après SB, les deux st secondary after-sb-1pri panic-primary; # un est primary after-sb-2pri panic; # les deux st primary } 16
17 syncer { rate 70M; al-extents 32; } # v de synchro = 70MB/s # 1 ext = 4M data = taille zone buffer # avant ecriture meta-data on mail1 { device /dev/drbd0; disk /dev/sdb2; address :7788; flexible-meta-disk /dev/sdb1 ; #pseudo device #partition associée # IP:port de communication # localisation des meta-datas } on mail2 { device /dev/drbd0; disk /dev/sdb2; address :7788; flexible-meta-disk /dev/sdb1 ; } } 17
18 Pour le fichier drbd.conf, on a choisi les options par défaut (...) sauf:. -on attend 30s la seconde machine, -on arrête en kernel panic sur I/O error, - max-buffers=2048, - max-epoch-size=2048, -en cas d'évènements suivants,. noeud primaire déconnecté, datas inconsistantes, on tue le noeud,. noeud primaire qui devrait être secondaire pour la procédure d'auto recovery de split-brain, on tue le noeud, - procédure d auto-recovery en cas de Split Brain (mirroir cassé, textuellement cerveau partagé ):. si les deux sont secondary, on écarte le «plus jeune primaire». si un est «primary», et l'autre n'est pas le «plus jeune primaire», on plante le primary,. si les deux sont «primary», on applique la décision de after-sb-0pri et panic de l'autre noeud. En fait, on n'a pas tenté d'auto-recovery yprocédure après split-brain: on a mis «disconnect» pour les trois états ce qui revient à gérer manuellement le split-brain (conseillé dans la doc). 18
19 Calcul de la vitesse de synchronisation A good rule of thumb for this value is to use about 30% of the available replication bandwidth. Thus, if you had an I/O subsystem capable of sustaining write throughput of 180MB/s, and a Gigabit Ethernet network capable of sustaining 110 MB/s network throughput (the network being the bottleneck), you would calculate: Equation 6.1. Syncer rate example, 110MB/s effective available bandwidth 110 x 0;33 33 MB/s Thus, the recommended value for the rate option would be 33M. By contrast, if you had an I/O subsystem with a maximum throughput of 80MB/s and a Gigabit Ethernet connection (the I/O subsystem being the bottleneck), you would calculate: Equation 6.2. Syncer rate example, 80MB/s effective available bandwidth 80 x 0;33 = 24 MB/s In this case, the recommended value for the rate option would be 24M. 19
20 CREATION du MIRROIR (commandes drdbadm & drdbsetup) Sur les deux machines: 1. Initialisation des méta-datas drbdadm create-md mirror 2 Lancement DRBD etc/init.d/drbd start Starting DRBD resources: [ d0 s0 n0 ]. # cat /proc/drbd version: 8.0pre5 (api:84/proto:83) SVN Revision: 2481M build by root@drjones, :16:22 0: cs:connected st:secondary/secondary ds:inconsistent/inconsistent r--- ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 resync: used:0/31 hits:0 misses:0 starving:0 dirty:0 changed:0 act_log: used:0/32 hits:0 misses:0 starving:0 dirty:0 changed:0 Sur une seule machine, le maître: # drbdsetup /dev/drbd0 primary -o (obligatoire si c'est la premiere fois) # cat /proc/drbd version: 8.0pre5 (api:84/proto:83) p SVN Revision: 2481M build by root@drjones, :16:22 0: cs:syncsource st:primary/secondary ds:uptodate/inconsistent r--- ns: nr:0 dw:0 dr: al:0 bm:36 lo:409 pe:674 ua:2048 ap:0 [>...] sync'ed: 0.2% (476327/476922)M finish: 2:08:13 speed: 63,268 (50,796) K/sec resync: used:1/31 hits: misses:38 starving:0 dirty:0 changed:38 act_log: used:0/32 hits:0 misses:0 starving:0 dirty:0 changed:0 20
21 On a sur l'esclave l'état suivant: #cat /proc/drbd / version: 8.0pre5 (api:84/proto:83) SVN Revision: 2481M build by root@drjones, :16:22 0: cs:synctarget st:secondary/primary ds:inconsistent/uptodate r--- ns:0 nr: dw: dr:0 al:0 bm:82 lo:2049 pe:8938 ua:2048 ap:0 [>...] sync'ed: 0.3% (475596/476922)M finish: 2:22:28 speed: 56,952 (50,320) K/sec resync: used:4/31 hits: misses:86 starving:0 dirty:0 changed:86 act_log: used:0/32 hits:0 misses:0 starving:0 dirty:0 changed:0 Puis, après un temps très long, sur les deux: #cat /proc/drbd version: 8.0pre5 (api:84/proto:83) 83) SVN Revision: 2481M build by root@mail1, :40:13 0: cs:connected st:primary/secondary ds:uptodate/uptodate r--- ns: nr:18860 dw: dr: al: bm:167 lo:0 pe:0 ua:0 ap:0 resync: used:0/31 hits:5063 misses:135 starving:0 dirty:0 changed:135 act_log: used:0/32 hits: misses: starving:28284 dirty: changed: Sur une seule machine: #mkfs.ext3 /dev/drbd0 #mount /dev/drbd0 /mnt 21
22 Les fichiers LOGS Fichier messages: May 19 12:51:21 mail1 kernel: drbd0: Resync done (total 5 sec; paused 0 sec; K/sec) May 19 12:51:21 mail1 kernel: drbd0: conn( SyncTarget -> Connected ) disk( Inconsistent -> UpToDate ) May 19 12:51:21 mail1 kernel: drbd0: Writing meta data super block now.... May 19 12:51:22 mail1 ResourceManager[3424]: info: Running /etc/ha.d/resource.d/drbddisk mirror start May 19 12:51:22 mail1 kernel: drbd0: role( Secondary -> Primary ) May 19 12:51:22 mail1 kernel: drbd0: Writing meta data super block now. Fichier kern.log: May 19 12:51:16 mail1 kernel: drbd0: conn( WFBitMapT -> WFSyncUUID ) May 19 12:51:16 mail1 kernel: drbd0: conn( WFSyncUUID -> SyncTarget ) disk( UpToDate -> Inconsistent ) May 19 12:51:16 mail1 kernel: drbd0: Began resync as SyncTarget (will sync KB [33409 bits set]). May 19 12:51:16 mail1 kernel: drbd0: Writing meta data super block now. May 19 12:51:21 mail1 kernel: drbd0: Resync done (total 5 sec; paused 0 sec; K/sec) May 19 12:51:21 mail1 kernel: drbd0: conn( SyncTarget -> Connected ) disk( Inconsistent -> UpToDate ) May 19 12:51:21 mail1 kernel: drbd0: Writing meta data super block now. May 19 12:51:22 mail1 kernel: drbd0: peer( Primary -> Secondary y) May 19 12:51:22 mail1 kernel: drbd0: role( Secondary -> Primary ) May 19 12:51:22 mail1 kernel: drbd0: Writing meta data super block now. 22
23 TESTS de performances: Transferts de fichiers de 160 GO: SATA-USB -----> Disque virtuel drbd0 SATA-USB -----> Disque local SATA SATA local ----> SATA local 0,26 Gb/s 0,24 Gb/s 0,28 Gb/s On peut trouver un kit de tests t de performances sur le site: (La page a été supprimée provisoirement, le kit proposé étant devenu obsolète). 23
24 PROBLEMES rencontrés: 1. Mise à jour du kernel nécessitant la compilation du module(...) 2. Pendant la synchronisation initiale: Feb 20 04:53:51 mail1 kernel: drbd0: [drbd0_worker/6850] sock_sendmsg time expired, ko = Feb 20 04:53:54 mail1 kernel: drbd0: [drbd0_worker/6850] sock_sendmsg time expired, ko = Feb 20 04:53:57 mail1 kernel: drbd0: [drbd0_worker/6850] sock_sendmsg time expired,... On a dû réduire la vitesse de synchronisation à 70 MB/s 3. SPLIT BRAIN dû à une fausse manip SPLIT BRAIN décrit une situation où, suite à une coupure des liens réseaux entre les noeuds, la ressource se retrouve «primary» et «disconnected» sur les deux noeuds: les modifications du système de fichiers peuvent intervenir sur chacun des noeuds, sans réplication. Cette situation crée deux ensembles de datas différents qu'il n'est pas trivial de réunir. 24
25 La manip qui a généré le SPLIT BRAIN: heartbeat stop sur MAIL1, MAIL2 prend les ressources (disque OK, état «primary») heartbeat stop sur MAIL2 arret MAIL2, puis MAIL1 reboot MAIL1 ( disque OK, état «primary») reboot MAIL2 -> SPLIT BRAIN Chaque machine a des datas que n'a pas l'autre. 25
26 Pour s'en sortir: Il faut choisir la machine qui a sans doute les meilleures datas (le plus ancien primaire?) Sur mail1 (qui a les bonnes datas) : /etc/init.d/drbd start sur mail2 : /etc/init.d/drbd start drbdadm disconnect all drbdadm -- --discard-my-data connect all Résultat: On a «perdu» 4 mails qui sont arrivés sur MAIL2 et se sont retrouvés sous le point de montage 26
27 PRESENTATION de la solution DRBD -Distributed Replicated Block Device Présentation Installation-Fichiers de configuration Création du mirroir Tests -Problèmes rencontrés HEARTBEAT Présentation Installation- Fichiers de configuration Tests CONCLUSION 27
28 HEARBEAT Heartbeat est un système de gestion de la haute disponibilité sous Linux, FreeBSD, OpenBSD, Solaris et MacOS X. Il est distribué sous licence GPL. Il est la pièce maitresse du projet «Open Source Hight Availability Software for Linux and other OSes» La version 2 de Heartbeat intègre des fonctionnalités majeures non mises en oeuvre ici: - possibilité d'avoir un cluster de plus de deux noeuds, - possibilité de surveiller le bon fonctionnement des services. Elle intègre aussi un outil graphique de configuration et de surveillance (voir Annexe 2) qui nécessite l'utilisation de CRM (Cluster Ressource Manager) 28
29 HEARTBEAT - Présentation Heartbeat peut fonctionner en mode : - Actif/Actif : Les deux machines font tourner des services, en cas de pannne d'une d'elles, la (ou les) machine restante récupère les services (attention à la dégradation des performances). Cette utilisation permet de faire de l'équilibrage de charge mais nécessite un espace disque partagé (type SAN ou NFS). -Actif/Passif: Uneseule machine, à un instant t donné, fait tourner l'ensemble des services, l'autre attend.seule la machine active montelesystèmedefichiers. C'est cette dernière configuration que nous avons choisi. Les échanges«battementsdecoeur»sefontàtraversleréseau ethernet doublé d'une liaison série (null modem) éventuellement. 29
30 30
31 INSTALLATION HEARTBEAT version "Subsystem for High-Availability Linux" 1. apt-get install heartbeat-2 2. Création des scripts de démarrage des services gérés é par Heartbeat: Heartbeat nécessite la présence d'un état status dans les fichiers de démarrage. Ce n'est pas le cas sous Debian, aussi il est nécessaire de modifier les scripts de démarrage des services que nous souhaitons installer sous Heartbeat. Ces scripts seront recherchés lors du démarrage d'heartbeat dans les répertoires /etc/ha.d/resource.d/scripts et /etc/init.d 31
32 Exemple d'un fichier modifié, le service LDAP:... status () { if [ -f /var/run/slapd/slapd.pid ]; then run=`cat /var/run/slapd/slapd.pid` ps_alive=`ps cax grep 'slapd$' grep -c $run` if [ $ps_alive == 1 ]; then echo "running" else echo "stopped" fi else echo "stopped" fi } case "$1" in start) start ;; stop) stop ;; restart force-reload) stop start ;; status) status ;; 32
33 *) echo "Usage: $0 {start stop restart force-reload status}" exit 1 ;; esac (*) En rouge, les ajouts au fichier initial3. Déplacement des fichiers associés aux ressources sur le mirroir 3. Déplacement des datas sur le mirroir Exemple pour le service ldap: /etc/init.d/slapd stop mkdir /mirror/var/ mkdir /mirror/var/lib mkdir /mirror/var/lib/ldap cp /var/lib/ldap/* /mirror/var/lib/ldap chown openldap:openldap /mirror/var/lib/ldap/ / /lib/ld / chown openldap:openldap /mirror/var/lib/ldap mv /var/lib/ldap /var/lib/ldap.old ln -s /mirror/var/lib/ldap /var/lib/ldap /etc/init.d/slapd start 33
34 INSTALLATION HEARTBEAT Les fichiers de configuration /etc/ha.d/ha.cf: Le fichier de configuration général: debugfile /var/log/ha-debug logfile /var/log/ha-log logfacility local0 keepalive 2 deadtime 30 warntime 10 initdead 120 udpport 694 node MAIL1 node MAIL2 bcast eth0 baud serial /dev/ttys0 auto_failback on # fichier debug # fichier de log #délai entre deux battements de pouls #temps nécessaire avant de considérer #un nœud comme étant mort (sec) #délai avant d'envoyer avertissement #pour les pouls en retard #délai initial (pour reboots longs) #port à utiliser pour la prise de pouls #nom des machines du cluster #interface pour effectuer la prise de pouls #vitesse ligne série #ligne série à utiliser pour les battements #si le maitre revient, il prend la main ping #test t de connectivité ité sur routeur respawn hacluster /usr/lib/heartbeat/ipfail 34
35 INSTALLATION HEARTBEAT Les fichiers de configuration /etc/ha.d/haresources (fichier cib.xml si version 2 et CRM) permet de définir : le node maître, l'adresse IP du cluster et les services devant être assurés. MAIL1 drbddisk::mirror Filesystem::/dev/drbd0::/mirror::ext3 Ipaddr2:: /24/eth0 bind slapd postgrey postfix dovecot mailscanner MailTo::[email protected]::ATTENTION 35
36 INSTALLATION HEARTBEAT Les fichiers de configuration /etc/ha.d/authkeys Le fichier /etc/ha.d/authkeys permet aux nodes de cluster de s'identifier mutuellement. Nous allons utiliser un lien dans le réseau local, donc nous utilisons le système crc: auth 1 1 crc Changer ensuite les permissions du fichier: chmod 600 /etc/ha.d/authkeys IMPORTANT: CES TROIS FICHIERS SONT IDENTIQUES SUR LES DEUX MACHINES 36
37 INSTALLATION HEARTBEAT Les fichiers de logs debugfile /var/log/ha-debug # fichier debug logfile /var/log/ha-log / g # fichier de log logfacility local0 Quand tout t est normal, on a des info de lancement des services: info: Configuration validated. Starting heartbeat info: heartbeat: version info: Heartbeat generation: 44 et des statistiques tous les soirs: info: MSG stats: 0/ ms age 20 [pid5458/hbread] info: ha_malloc stats: 389/ /22784 [pid5458/hbread] info: RealMalloc stats: total malloc bytes. pid [5458/HBREAD] info: Current arena value: 0 info: These are nothing to worry about. 37
38 TESTS 1. Coupure du lien réseau local sur la machine maître MAIL1: Sur MAIL1: heartbeat[6062]: info: Link : dead. harc[28150]: info: Running /etc/ha.d/rc.d/status status heartbeat[6062]: info: Link mail2:eth0 dead. heartbeat[6062]: info: mail1 wants to go standby [all] heartbeat[6062]: info: standby: mail2 can take our all resources heartbeat[28166]: info: give up all HA resources (standby). ResourceManager[28176]: info: Releasing resource group: mail1 drbddisk::mirror Filesystem::/dev/drbd0::/mirror::ext3 IPaddr2:: /24/eth0 bind slapd postgrey postfix dovecot mailscanner ResourceManager[28176]: info: Running /etc/ha.d/resource.d/mailto ATTENTION stop MailTo[28211]: INFO: MailTo Success INFO: MailTo Success ResourceManager[28176]: info: Running /etc/ha.d/resource.d/mailscanner stop... idem pour les autres... ResourceManager[28176]: info: Running /etc/ha.d/resource.d/ipaddr2 d/ipaddr /24/eth stop IPaddr2[28551]: INFO: /sbin/ip -f inet addr delete dev eth0 IPaddr2[28551]: 2008/05/15_12:43:22 INFO: /sbin/ip -o -f inet addr show eth0 IPaddr2[28469]: 2008/05/15_12:43:22 INFO: IPaddr2 Success INFO: IPaddr2 Success ResourceManager[28176]: info: Running /etc/ha.d/resource.d/filesystem /dev/drbd0 /mirror ext3 stop Filesystem[28682]: INFO: Running stop for /dev/drbd0 on /mirror Filesystem[28682]: INFO: unmounted /mirror successfully Filesystem[28618]: INFO: Filesystem Success INFO: Filesystem Success ResourceManager[28176]: info: Running /etc/ha.d/resource.d/drbddisk mirror stop heartbeat[28166]: info: all HA resource release completed (standby). heartbeat[6062]: info: remote resource transition completed. heartbeat[6062]: info: No pkts missing from mail2! heartbeat[6062]: info: Other node completed standby takeover of all resources. 38
39 TESTS 1. Coupure du lien réseau local sur la machine maître MAIL1 (suite): Début : 12:45:14 Fin: 12:46:31 Basculement en 1mn 17s Sur MAIL2: heartbeat[4502]: info: Link mail1:eth0 dead. heartbeat[4502]: info: mail1 wants to go standby [all] heartbeat[4502]: info: standby: acquire [all] resources from mail1 heartbeat[3610]: info: acquire all HA resources (standby). ResourceManager[3620]: info: Acquiring resource group: mail1 drbddisk::mirror Filesystem::/dev/drbd0::/mirror:: ext3 IPaddr2:: /24/eth0 bind slapd postgrey postfix dovecot mailscanner MailTo::[email protected]. fr,[email protected]::attention f ResourceManager[3620]: info: Running /etc/ha.d/resource.d/drbddisk mirror start Filesystem[3750]: INFO: Running status for /dev/drbd0 on /mirror Filesystem[3750]: INFO: /mirror is unmounted (stopped) Filesystem[3686]: INFO: Filesystem Resource is stopped ResourceManager[3620]: info: Running /etc/ha.d/resource.d/filesystem d/filesystem /dev/drbd0 /mirror ext3 start Filesystem[3859]: INFO: Running start for /dev/drbd0 on /mirror Filesystem[3795]: INFO: Filesystem Success IPaddr2[3899]: INFO: IPaddr2 Resource is stopped ResourceManager[3620]: info: Running /etc/ha.d/resource.d/ipaddr /24/eth0 start IPaddr2[4113]: INFO: /sbin/ip -f inet addr add / brd dev eth0 IPaddr2[4113]: INFO: /sbin/ip link set eth0 up IPaddr2[4113]: INFO: /usr/lib/heartbeat/send_arp -i 200 -r 5 -p /var/run/heartbeat/rsctmp/send_arp/send_arp eth auto ffffffffffff IPaddr2[4031]: INFO: IPaddr2 Success ResourceManager[3620]: info: Running /etc/ha.d/resource.d/bind start...tous les services... ResourceManager[3620]: info: Running /etc/ha.d/resource.d/mailto [email protected] ATTENTION start heartbeat[3610]: info: all HA resource acquisition completed (standby). heartbeat[4502]: info: Standby resource acquisition done [all]. heartbeat[4502]: info: remote resource transition completed. 39
40 TESTS 1. Reprise du lien réseau local sur la machine maître MAIL1 (suite): Début: 12:46:48 Fin: 12:47:24 Durée reprise: 36s Sur MAIL1: heartbeat[6062]: 2008/05/15_12:46:48 info: Link : up. heartbeat[6062]: 2008/05/15_12:46:48 info: Status update for node : status ping heartbeat[6062]: info: Link mail2:eth0 up. heartbeat[6062]: info: mail2 wants to go standby [foreign] heartbeat[6062]: info: standby: acquire [foreign] resources from mail2 heartbeat[28749]: info: acquire local HA resources (standby). ResourceManager[28759]:info: Acquiring resource group: mail1 drbddisk::mirror Filesystem::/dev/drbd0::/mirror::ext3 IPaddr2:: /24/eth0 bind slapd postgrey postfix dovecot mailscanner ResourceManager[28759]: info: Running /etc/ha.d/resource.d/drbddisk /h d/d mirror start t Filesystem[28889]: INFO: Running status for /dev/drbd0 on /mirror Filesystem[28889]: INFO: /mirror is unmounted (stopped) Filesystem[28825]: INFO: Filesystem Resource is stopped ResourceManager[28759]: info: Running /etc/ha.d/resource.d/filesystem /dev/drbd0 /mirror ext3 start Filesystem[28998]: INFO: Running start for /dev/drbd0 on /mirror Filesystem[28934]: INFO: Filesystem Success IPaddr2[29038]: 2008/05/15_12:46:58 INFO: IPaddr2 Resource is stopped ResourceManager[28759]: 2008/05/15_12:46:58 info: Running /etc/ha.d/resource.d/ipaddr /24/eth start IPaddr2[29252]: INFO: /sbin/ip -f inet addr add /24 brd dev eth0 IPaddr2[29252]: INFO: /sbin/ip link set eth0 up IPaddr2[29252]: INFO: /usr/lib/heartbeat/send_arp -i 200 -r 5 -p /var/run/heartbeat/rsctmp/send / / / _ arp/send _ arp eth auto ffffffffffff IPaddr2[29170]: INFO: IPaddr2 Success ResourceManager[28759]: info: Running /etc/ha.d/resource.d/bind start... heartbeat[28749]: info: local HA resource acquisition completed (standby). heartbeat[6062]: t[6062] info: Standby resource acquisition iti done [foreign]. heartbeat[6062]: info: remote resource transition completed. 40
41 TESTS 1. Reprise du lien réseau local sur la machine maître MAIL1 (suite): Sur MAIL2: heartbeat[4502]: info: Link mail1:eth0 up. heartbeat[4502]: info: mail2 wants to go standby [foreign] heartbeat[4502]: info: standby: mail1 can take our foreign resources heartbeat[4828]: 2008/05/15_12:49:02 winfo: give up foreign HA resources (standby). ResourceManager[4838]: info: Releasing resource group: mail1 drbddisk::mirror Filesystem::/dev/drbd0::/mirror::ext3 IPaddr2:: /24/eth0 bind slapd postgrey postfix dovecot mailscanner ResourceManager[4838]: info: Running /etc/ha.d/resource.d/mailto ATTENTION stop ResourceManager[4838]: info: Running /etc/ha.d/resource.d/mailscanner stop... ResourceManager[4838]: info: Running /etc/ha.d/resource.d/ipaddr /24/eth0 stop IPaddr2[5211]:INFO: /sbin/ip -f inet addr delete dev eth0 IPaddr2[5211]:INFO: /sbin/ip -o -f inet addr show eth0 IPaddr2[5129]:INFO: IPaddr2 Success ResourceManager[4838]: info: Running /etc/ha.d/resource.d/filesystem /dev/drbd0 /mirror ext3 stop Filesystem[5341]: INFO: Running stop for /dev/drbd0 on /mirror Filesystem[5341]: INFO: unmounted /mirror successfully Filesystem[5277]: INFO: Filesystem Success ResourceManager[4838]:info: Running /etc/ha.d/resource.d/drbddisk /h d/d mirror stop heartbeat[4828]: info: foreign HA resource release completed (standby). heartbeat[4502]: info: Local standby process completed [foreign]. 41
42 TEST 2. Coupure électrique sur la machine maître MAIL1 : Début: 13:4:30 Fin: 13:46:41 Durée basculement: 1mn 11s Sur MAIL2: heartbeat[3430]: WARN: node mail1: is dead heartbeat[3430]: WARN: No STONITH device configured. heartbeat[3430]: WARN: Shared disks are not protected. heartbeat[3430]: info: Resources being acquired from mail1. heartbeat[3430]: info: Link mail1:eth0 dead. heartbeat[3430]: info: Link mail1:/dev/ttys0 dead. harc[4118]: info: Running /etc/ha.d/rc.d/status status heartbeat[3452]: WARN: glib: TTY write timeout on [/dev/ttys0] (no connection or bad cable? heartbeat[4119]: info: No local resources [/usr/lib/heartbeat/resourcemanager listkeys mail2] to acquire. mach_down[4130]: info: Taking over resource group drbddisk::mirror ResourceManager[4158] info: Acquiring resource group: mail1 drbddisk::mirror Filesystem::/dev/drbd0::/mirror::ext3 IPaddr2:: /24/eth0 bind slapd postgrey postfix dovecot mailscanner MailTo::[email protected],[email protected]::ATTENTION ResourceManager[4158]:info: Running /etc/ha.d/resource.d/drbddisk d/drbddisk mirror start Filesystem[4288]: INFO: Running status for /dev/drbd0 on /mirror Filesystem[4288]: INFO: /mirror is unmounted (stopped) Filesystem[4224]: INFO: Filesystem Resource is stopped ResourceManager[4158]: info:running /etc/ha.d/resource.d/filesystem /dev/drbd0 /mirror ext3 start Filesystem[4397]: INFO: Running start for /dev/drbd0 on /mirror Filesystem[4333]: INFO: Filesystem Success IPaddr2[4437]: INFO: IPaddr2 Resource is stopped ResourceManager[4158]: info: Running /etc/ha.d/resource.d/ipaddr /24/eth0 start IPaddr2[4651]: INFO: /sbin/ip -f inet addr add /24 brd dev eth0 IPaddr2[4651]: INFO: /sbin/ip /p link set eth0 up IPaddr2[4651]: INFO: /usr/lib/heartbeat/send_arp -i 200 -r 5 -p /var/run/heartbeat/rsctmp/send_arp/send_arp eth auto ffffffffffff IPaddr2[4569]: INFO: IPaddr2 Success ResourceManager[4158]: info: Running /etc/ha.d/resource.d/bind start... mach_down[4130]: info: /usr/lib/heartbeat/mach_down: /lib/h t/ h nice_failback: ilb foreign resources acquired mach_down[4130]: info: mach_down takeover complete for node mail1. heartbeat[3430]: info: mach_down takeover complete. 42
43 HEARTBEAT DRBD Rendre le fonctionnement + «solide» Eviter les SPLIT BRAIN sur des situations inconnues : être sûr que les services ne tournent, les données ne sont mises à jour que sur une machine. SPLIT BRAIN facile: On arrête proprement MAIL1, MAIL2 prend les ressources, On arrête MAIL2, on démarre MAIL1, puis MAIL2 -> SPLIT BRAIN 1. Utilisation d'ipfail pour basculer en cas de panne réseau 2.Utilisation de STONITH pour être sûr avant de prendre les ressources que la machine qui les détenait ne les a plus (on la reboote) 3. MAIL1 dispose d'une alimentation secourue, pas MAIL2. En cas de coupure de courant, MAIL1 s'arrête en dernier et reboote en premier: OK! 4. Reboot automatique sur MAIL1, pas sur MAIL2 5. Ne pas gérer le SPLIT BRAIN de manière automatique ti? 43
44 STONITH sigle pour «Shoot The Other Node In The Head» STONITH est un composant d'heartbeat qui permet au système de faire un reset du serveur défaillant. Un STONITH device et un périphérique qui peut exécuter un RESET en réponse à des commandes (onduleur par exemple). Le but de STONITH est d'éviter que, suite à un disfontionnement, une même ressource tourne sur plus d'un noeud du cluster. Pour être sûr lors de la prise en main des ressources par un noeud B que les ressources ne sont pas restées actives sur le noeud A qui les détenait, le serveur B effectue un reset du serveur A AVANT de prendre les ressources. 44
45 STONITH -séquence des evènements 1. Déclanchement d'un évènement quand le serveur backup n'entend plus les battements du primaire (attention aux faux positifs: il vaut mieux avoir 2 liens...), 2. Le serveur backup envoie une demande de reset au STONITH device du primaire, 3. Le STONITH device reboote le primaire, 4. En attendant la validation du reboot du primaire, aucune ressource n'est disponible sur le cluster, 5. Le serveur backup prend alors les ressources du cluster. 45
46 STONITH - TESTS Un des devices proposés en test par HEARTBEAT est meatware (stonith -L pour lister les devices acceptés) qui attend une intervention humaine validant le reset du noeud. Configuration dans /etc/ha.d/ha.cf sur mail1 et mail2: stonith_host * meatware hostlist= Sur mail1, #killall -9 heartbeat Heartbeat n'émet plus les battements de coeur, mais les ressources tournent...sans Stonith, mail2 va démarrer et lance les ressources, ne pourra pas monter le mirroir, prendra l'adresse du cluster et recevra les mails...où? Avec Stonith,avant de prendre les ressources, mail2 va attendre que l'opérateur ait validé le reset de mail1 pour prendre les ressources. 46
47 Les logs sur mail2 : heartbeat[3430]:warn: node mail1: is dead heartbeat[3430]: info: Link mail1:eth0 dead. heartbeat[11950] info: Resetting node mail1 with [Meatware STONITH device] heartbeat[11950]: ERROR: glib: OPERATOR INTERVENTION REQUIRED to reset mail1. heartbeat[11950]: ERROR: glib: Run "meatclient -c mail1" AFTER power-cycling the machine. heartbeat[3430]: info: Link mail1:/dev/ttys0 dead. heartbeat[11353]: WARN: glib: TTY write timeout on [/dev/ttys0] (no connection or bad cable? [see documentation]) heartbeat[11353]:info: glib: See for details heartbeat[11950]: info: glib: node Meatware-reset: mail1 Validation du reset de mail1 : mail2:~# meatclient -c mail1 WARNING! If node "mail1" has not been manually power-cycled or disconnected from all shared resources and networks, data on shared disks may become corrupted and migrated services might not work as expected. Please verify that the name or address above corresponds to the node you just rebooted. PROCEED? [yn] y Meatware_client: reset confirmed. 47
48 heartbeat[11950]: info: node mail1 now reset. heartbeat[3430]:info: Exiting STONITH mail1 process returned rc 0. heartbeat[3430]:info: Resources being acquired from mail1. harc[11952]:info: Running /etc/ha.d/rc.d/status status mach_down[11972]:info: Taking over resource group drbddisk::mirror ResourceManager[11992]: info: Acquiring resource group: mail1 drbddisk::mirror Filesystem::/dev/drbd0::/mirror::ext3 IPaddr2:: /24/eth0 bind slapd postgrey postfix dovecot mailscanner f ResourceManager[11992]: info: Running /etc/ha.d/resource.d/drbddisk mirror start Filesystem[12122]: INFO: Running status for /dev/drbd0 on /mirror Filesystem[12122]: INFO: /mirror is unmounted (stopped) Filesystem[12058]:INFO: Filesystem Resource is stopped ResourceManager[11992]: info: Running /etc/ha.d/resource.d/filesystem / / / /dev/drbd0 /mirror ext3 startresourcemanager[11992]: 2008/05/19_12:51:50 debug: Starting /etc/ha.d/resource.d/filesystem /dev/drbd0 /mirror ext3 start Filesystem[12231]:INFO: Running start for /dev/drbd0 on /mirror Filesystem[12167]:INFO: Filesystem Success INFO: Filesystem Success... mach_down[11972]: info: /usr/lib/heartbeat/mach_down: nice_failback: foreign resources acquired mach_down[11972]: info: mach_down takeover complete for node mail1. heartbeat[3430]: info: mach_down takeover complete. 48
49 STONITH - MISE en SERVICE Nous avons utilisé le device APCsmart pour provoquer un reboot de mail1, en cas de perte des battements de coeur, avant que mail2 ne prenne les ressources Configuration dans /etc/ha.d/ha.cf sur mail1 et mail2: stonith_host mail2 apcsmart /dev/ttys1 mail1 Configuration matérielle: Mail1 est connecté sur un onduleur, mail2 est connecté sur l'alimentation électrique classique et pilote l'onduleur par la ligne série ttys1: 49
50 Sur mail1, #killall -9 heartbeat Sur mail2, heartbeat[3430]: 2008/05/22_12:27:04 info: Link mail1:eth0 dead. heartbeat[21774]: 2008/05/22_12:27:04 info: Resetting node mail1 with [APCSmart] heartbeat[21176]: 2008/05/22_12:27:11 WARN: glib: TTY write timeout on [/dev/tty S0] (no connection or bad cable? [see documentation]) heartbeat[21176]: 2008/05/22_12:27:11 info: glib: See Ytimeout for details heartbeat[21774]: t[21774] 2008/05/22_12:27:30 27 info: node mail1 now reset. heartbeat[3430]: 2008/05/22_12:27:30 info: Exiting STONITH mail1 process returned rc 0. heartbeat[3430]: 2008/05/22_12:27:30 info: Resources being acquired from mail1. 50
51 CE QUE NOUS N'AVONS PAS FAIT -monitoring i des ressources (MON ou CRM en version 2 d' Heartbeat) -watchdog pour rebooter si machine «figée» (kernel à recompiler) - mise en place d'une protection en cas de perte de lien DRBD entre les machines : Il faudrait utiliser le plugin dopd»d' Heartbeat qui fait automatiquement passer un disque de l'état secondary/disconnected à l'état «outdated». LES PROBLEMES RESTANTS: Les mise à jour systèmes ainsi que celles dans les divers fichiers doivent êtres faites sur les deux machines. Les machines répondent mais ne parlent pas toujours avec l'adresse IP cluster (Bind par exemple). 51
52 PRESENTATION de la solution DRBD -Distributed Replicated Block Device Présentation Installation-Fichiers de configuration Création du mirroir Tests -Problèmes rencontrés HEARTBEAT Présentation Installation- Fichiers de configuration Tests CONCLUSION 52
53 CONCLUSION Nous avons installé HEARTBEAT + DRBD pour assurer au mieux la continuité des services de messagerie. Cette configuration est effective depuis Mars Nous n'avons navons pas eu de problème grave permettant de tester la robustesse de la solution. La solution Linux-HA est beaucoup plus complète que cette présentation: Heartbeat permet, dans sa version 2, de gérer un cluster de plusieurs machines, et dispose d'un gestionnaire de ressources centralisé (Cluster Ressource Manager). DRBD permet depuis la version 8 du module de faire du partage de disques mirrorés (montage sur les deux machines simultanément). Ces évolutions donnent à Heartbeat + DRBD la possibilité de faire du load-balancing ET de la haute disponibilté simultanément: On répartit les services sur plusieurs machines, si l'une tombe, ses services sont basculés sur une (ou plusieurs) autres(s). L'outil d'administration et de surveillance proposé complète la solution: 53
54 54
55 55
56 56
57 REFERENCES:
Solution Haute Disponibilité pour Linux
Solution Haute Disponibilité pour Linux Nicolas Schmitz Ecole Centrale de Nantes [email protected] Introduction La haute disponibilité c'est notamment : Doubler au maximum le matériel Mettre
Agenda. Bienvenue. Agenda
Bienvenue Présentateur : Armel Kermorvant armelk@fedoraprojectorg Fonction FedoraProject : Ambassadeur / Mentor Fonction Fedora-frorg : Vice-Président chkconfig Portable off Haute Disponibilité Fonctionnement
GOUTEYRON ALEXIS. SIO2 N candidat: 0110692972. UEpreuve E4. USituation professionnelle 2. serveurs de fichiers. Uen haute disponibilité
GOUTEYRON ALEXIS SIO2 N candidat: 0110692972 UEpreuve E4 USituation professionnelle 2 serveurs de fichiers Uen haute disponibilité Session 2014 2015 I- Présentation a) Utilité Aujourd hui, dans le monde
Configuration matériel. Tâche 2 : Installation proprement dite de l application sur un serveur de test virtualisé sous VmWare Workstation.
PPE 1 MISSION 1 Tâche 1 : Se renseigner sur les exigences logicielles et matérielles de l utilisation de MRBS sur une distribution Linux (Debian). Proposer une configuration matérielle suffisante pour
Haute disponibilité d'un serveur FTP
Haute disponibilité d'un serveur FTP Propriétés Type de publication Intitulé court Intitulé long Module Côté Labo Date de publication Septembre 2013 Date de modification Septembre 2013 Version V1.0 Description
TARDITI Richard Mise en place d une Haute Disponibilité
TARDITI Richard Mise en place d une Haute Disponibilité Dans le cadre du projet GSB j ai mis en place un cluster de deux machines virtuelles Apache sous Linux, avec une haute disponibilité produite grâce
Cluster High Availability. Holger Hennig, HA-Cluster Specialist
Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE
FORMATION. Linux-HA et les systèmes de Cluster
FORMATION Linux-HA et les systèmes de Cluster 1 PLAN DE LA PRÉSENTATION 1. Aperçu des différents systèmes de cluster 2. Notions de haute disponibilité 3. Notions spécifiques aux clusters 4. Fonctionnement
Service WEB, BDD MySQL, PHP et réplication Heartbeat. Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox
Version utilisée pour la Debian : 7.7 Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox Caractéristiques de bases : Un service web (ou service de la toile) est
Principe. Technologies utilisées. 1. Linux et LVM. Les snapshots (instantannés) sous Linux et FreeBSD. Présentation de LVM. Organisation de LVM
Les snapshots (instantannés) sous Linux et FreeBSD Principe Un instantanné permet de pouvoir figer l'état du système de fichier à un instant t pour des besoins de sauvegarde. Une sauvegarde peux parfois
Architecture de la plateforme SBC
Simple Business Connector Architecture de la plateforme SBC Titre Projet Description Architecture de la plateforme SBC Plateforme SBC Ce document reprend toutes les étapes de l'installation du serveur
Guide pour l Installation des Disques Durs SATA et Configuration RAID
Guide pour l Installation des Disques Durs SATA et Configuration RAID 1. Guide pour l Installation des Disques Durs SATA.. 2 1.1 Installation de disques durs Série ATA (SATA).. 2 1.2 Créer une disquette
Système de stockage distribué à faible coût Travail de diplôme 2010
Système de stockage distribué à faible coût Travail de diplôme 2010 Etudiant : Johan Söderström Département : Technologie de l Information et de la Communication Filière : Mandant : Réseaux et services
Debian Lenny - Virtualisation avec Libvirt/KVM Debian GNU/Linux
Debian Lenny - Virtualisation avec Libvirt/KVM Debian GNU/Linux Matthieu Vogelweith 13 janvier 2009 Résumé L objectif de ce document est de détailler l installation d un serveur KVM [1] (Kernel based Virtual
Présentation du SC101
Présentation du SC101 True SAN (Storage Area Network) Boîtier intégrant la technologie Z-SAN 2 emplacements IDE 3,5" (jusqu'à 2 disques durs) 1 port Ethernet RJ45 10/100 Logiciel SmartSync Pro Backup Stockage
LOAD-BALANCING AVEC LINUX VIRTUAL SERVER
LOAD-BALANCING AVEC LINUX VIRTUAL SERVER Projet CSII1 2008 encadré par M. Ozano Réalisé par : - Yann Garit - Yann Gilliot - Steve Lacroix - Dorian Lamandé - Maxime Panczak - Aymeric Vroomhout CSII1 Année
La haute disponibilité dans la vraie vie
La haute disponibilité dans la vraie vie Arnaud Gomes-do-Vale Le 2 août 2010 Arnaud Gomes-do-Vale () La haute disponibilité dans la vraie vie Le 2 août 2010 1 / 37 Sommaire 1 Généralités 2 Problématique
Contents Windows 8.1... 2
Workaround: Installation of IRIS Devices on Windows 8 Contents Windows 8.1... 2 English Français Windows 8... 13 English Français Windows 8.1 1. English Before installing an I.R.I.S. Device, we need to
Client windows Nagios Event Log
Client windows Nagios Event Log 1.Telechargement http://www.steveshipway.org/software/f_nagios.html 2.Comment configurer cet agent L'outil de configuration d'agent a été installé. Vous pouvez l'exécuter
Configuration réseau Basique
Configuration réseau Basique 1. Configuration réseau bas niveau Les outils de configuration réseau bas niveau traditionnels des systèmes GNU/Linux sont les programmes ifconfig et route qui viennent dans
Serveur de messagerie sous Debian 5.0
Serveur de messagerie sous Debian 5.0 Avec Postfix et une connexion sécurisée GEORGET DAMIEN ET ANTHONY DIJOUX 06/10/2009 [Tutorial d installation d un serveur de messagerie POP et SMTP sous Debian, avec
NON URGENTE TEMPORAIRE DEFINITIVE OBJET : RÉCUPÉRATION DES DONNÉES CLIENT SUR DISQUE DUR DÉFECTUEUX OU INVALIDÉ
COMMUNICATION TECHNIQUE N TC0536 Ed. 01 OmniPCX Enterprise Nb de pages : 11 Date : 12-03-2004 URGENTE NON URGENTE TEMPORAIRE DEFINITIVE OBJET : RÉCUPÉRATION DES DONNÉES CLIENT Cette communication technique
Mise en oeuvre TSM 6.1
Mise en oeuvre TSM 6.1 «Bonnes pratiques» pour la base de données TSM DB2 Powered by Qui sommes nous? Des spécialistes dans le domaine de la sauvegarde et de la protection des données 10 ans d expertise
VTP. LAN Switching and Wireless Chapitre 4
VTP LAN Switching and Wireless Chapitre 4 ITE I Chapter 6 2006 Cisco Systems, Inc. All rights reserved. Cisco Public 1 Pourquoi VTP? Le défi de la gestion VLAN La complexité de gestion des VLANs et des
SERVEUR DE SAUVEGARDE POUR BCDI3. par. G.Haberer, A.Peuch, P.Saadé
SERVEUR DE SAUVEGARDE POUR BCDI3 par G.Haberer, A.Peuch, P.Saadé Table des matières 1. Introduction........................................................................ 2 1.1. Objectif....................................................................
DOCKER MEETUP. Christophe Labouisse / @XtlCnslt
DOCKER MEETUP Christophe Labouisse / @XtlCnslt #ME, #MYSELF AND #I CHRISTOPHE LABOUISSE Développeur Freelance Java mais pas que Côté front : Angular, Ionic Sous le capot : Linux, Docker DOCKER @ HOME Retour
HAUTE DISPONIBILITÉ DE MACHINE VIRTUELLE AVEC HYPER-V 2012 R2 PARTIE CONFIGURATION OPENVPN SUR PFSENSE
HAUTE DISPONIBILITÉ DE MACHINE VIRTUELLE AVEC HYPER-V 2012 R2 PARTIE CONFIGURATION OPENVPN SUR PFSENSE Projet de semestre ITI soir 4ème année Résumé configuration OpenVpn sur pfsense 2.1 Etudiant :Tarek
Redondance de service
BTS S.I.O. 2 nd Année Option SISR TP 15 Redondance de service 1 Objectifs Mettre en œuvre différentes techniques de haute disponibilité de services et de serveurs. 2 Présentation du déroulement Ce TP se
SAN AoE (ATA over Ethernet)
Paris - 1 décembre 2010 LEGI - Laboratoire des Ecoulements Geophysiques et Industriels CNRS / UJF / G-INP - Grenoble, France http://www.legi.grenoble-inp.fr/ 1 décembre 2010 1 Généralités sur l AoE 2 3
VMWare Server 2.0 sur dédiés OVH et mise en oeuvre d une solution de haute disponibilité avec datastore en DRBD
GuiguiAbloc Le Blog Geek de GuiguiAbloc A propos Recherche Retourner au contenu Home architecture cisco geekerie linux matériel Non classé OpenBSD réseau sécurité vmware wifi VMWare Server 2.0 sur dédiés
MI03 TP. Objectifs du TP 1ère séance. 2ème séance. Construction d'un système linux embarqué complet
MI03 TP Objectifs du TP 1ère séance Construction d'un système linux embarqué complet 2ème séance Mise en place d'un environnement de développement croisé Intégration de l'extension temps réél Xenomai La
VMware ESX : Installation. Hervé Chaudret RSI - Délégation Centre Poitou-Charentes
VMware ESX : Installation VMware ESX : Installation Créer la Licence ESX 3.0.1 Installation ESX 3.0.1 Outil de management Virtual Infrastructure client 2.0.1 Installation Fonctionnalités Installation Virtual
Synchronisation Mysql (Replication)
Synchronisation Mysql (Replication) [Petit avertissement : Bon, après relecture, je constate que c'est l'un des plus mauvais document que j'ai écrit. Mais bon, il est quand même utile ce torchon.] Nous
Installation de Vmware serveur Windows
Installation de Vmware serveur Windows / - 13:04 Ce document est sous licence PDL (Public Documentation License) 2008 Michel-André Robillard CLP Avertissement Bien que nous utilisions ici un vocabulaire
Installation d'un FreeNAS (v0.684b du 30/03/2007) pour sauvegarder les données d'un ZEServer
Installation d'un FreeNAS (v0.684b du 30/03/2007) pour sauvegarder les données d'un ZEServer I - Le site de FreeNAS http://www.freenas.org/ (en Français) dont voici un extrait : FreeNAS est un serveur
Serveur Linux : FTP. Mise en place d un service FTP sous Linux. Bouron Dimitri 20/04/2014
Mise en place d un service FTP sous Linux Bouron Dimitri 20/04/2014 Ce document sert de démonstration concise pour l installation, la configuration, la sécurisation, d un serveur FTP sous Linux utilisant
Haute disponibilité d'un service Web dynamique
Haute disponibilité d'un service Web dynamique Propriétés Type de publication Intitulé court Intitulé long Module Côté Labo Date de publication Septembre 2013 Date de modification Septembre 2013 Version
IFT2245 - Systèmes d exploitation - TP n 1-20%
IFT2245 - Systèmes d exploitation - TP n 1-20% DIRO - Université de Montréal Nicolas Rous et Dorian Gomez Disponible : 14/02/2013 - Remise : 28/03/2013 au début de la démo LISEZ TOUT LE DOCUMENT AVANT
Installer un domaine DNS
Installer un domaine DNS Olivier Hoarau ([email protected]) V1.2 du 3.12.00 1 Historique... 2 2 Préambule... 2 3 Présentation... 2 4 Installation et configuration... 3 5 Lancement automatique de
Installation du SLIS 4.1
Documentation SLIS 4.1 Installation du SLIS 4.1 1.3RC2 CARMI PÉDAGOGIQUE - ÉQUIPE «INTERNET» DE L'ACADÉMIE DE GRENOBLE juillet 2013 Table des matières Objectifs 5 I - Prérequis 7 A. Préconisations matérielles...7
Pharmed. gestion de pharmacie hospitalière. Installation / déploiement
Pharmed gestion de pharmacie hospitalière Installation / déploiement Version 1.0 du 23/05/2006 Date Auteur Version Modification 23/05/06 Pierre CARLIER 1.0 14/06/06 Matthieu Laborie Table des matières
Personnes ressources Tice. Académie de Rouen
Personnes ressources Tice Académie de Rouen Objectifs Acquérir les connaissances de base concernant Linux Découvrir la solution technique SambaEdu3 : serveur de fichiers sous Linux Mettre en oeuvre cette
NTP (Network Time Protocol)
NTP (Network Time Protocol) Nous utilisons l'environnement du Lab Guide de Novell, pour nous familiariser avec SLES-10, roulant sous un serveur VMware Server 1.0.6. A: sles101-nsm (SLES10.1/OES2.0) B:
Chapitre IX : Virtualisation
Chapitre IX : Virtualisation Eric Leclercq & Marinette Savonnet Département IEM http://ufrsciencestech.u-bourgogne.fr http://ludique.u-bourgogne.fr/~leclercq 5 mai 2011 1 Principes Problématique Typologie
Installation software
Gigatec SA Rue Galilée 9 / Y-Parc CH-1400 Yverdon Switzerland Phone: +41 24 423 8964 Fax: +41 24 423 8960 Portage libkorebot sur PicoITX Installation software Portage libkorebot sur PicoITX Installation
WEB page builder and server for SCADA applications usable from a WEB navigator
Générateur de pages WEB et serveur pour supervision accessible à partir d un navigateur WEB WEB page builder and server for SCADA applications usable from a WEB navigator opyright 2007 IRAI Manual Manuel
Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5
Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5 Machine virtuelle Machine virtuelle Machine virtuelle VMware ESX Network Shutdown Module
Note d Application. Bascule d ALOHA via injection de route en BGP
Note d Application Bascule d ALOHA via injection de route en BGP Version du document : v1.2 Dernière mise à jour : 8 novembre 2013 Objectif Cette note décrit comment créer une platforme hautement disponible
1. Warm up Activity: Single Node
TP - Netkit Netkit ( http://wiki.netkit.org/index.php/main_page ), un logiciel Open-Source, permet d'émuler les réseaux, avec une très grand partie de protocoles TCP/IP. Il est basé sur uml (user-mode
Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures
Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet
Dexia Guide d installation de NetWorker Server 25 juin 2001 1.0 Legato Systems, Inc.
Guide d installation de NetWorker Server 25 juin 2001 1.0 Legato Systems, Inc. 2001 Legato Systems, Inc. all rights reserved. Copyright 2001, Legato Systems, Inc. All rights reserved. Legato NetWorker
Guide d'installation rapide TFM-560X YO.13
Guide d'installation rapide TFM-560X YO.13 Table of Contents Français 1 1. Avant de commencer 1 2. Procéder à l'installation 2 Troubleshooting 6 Version 06.08.2011 16. Select Install the software automatically
Guide pour l Installation des Disques Durs SATA et la Configuration RAID
Guide pour l Installation des Disques Durs SATA et la Configuration RAID 1. Guide pour l Installation des Disques Durs SATA... 2 1.1 Installation de disques durs Série ATA (SATA)... 2 2. Guide de Configurations
Stockage des machines virtuelles d un système ESXi [email protected] & [email protected]
Titre Stockage des machines virtuelles d un système ESXi Auteurs [email protected] & [email protected] Classification Document publique Date dernière modification 12 Mai 2009 Chemin\NomFichier
REMBO Version 2.0. Mathrice 2004 DESCRIPTION MISE EN OEUVRE CONCLUSION. [email protected]
REMBO Version 2.0 Mathrice 2004 DESCRIPTION MISE EN OEUVRE CONCLUSION Description Successeur de BPBatch 3 déclinaisons Rembo Auto Deploy (déploiement massif de clients) Rembo Auto Backup (restauration
Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM
Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous K L'équipe du CITIC74 : info[at]citic74[dot]fr Sommaire Contexte Architecture existante Conclusion 2 Contexte
Fully Automated Nagios
Fully Automated Nagios Table des matières Présentation... 2 Fully Automated Nagios:... 2 Nagios:... 2 Centreon:... 2 NDOUtils:... 2 Nagvis:... 2 Installation... 3 Premier Démarrage... 7 Configuration...
Mise en place d'un Réseau Privé Virtuel
Travaux Pratiques Trucs utiles : tail f /var/log/syslog pour tous les logs de la machine et notamment les cartes ethernet d'une machine. /etc/init.d/nom_du_démon (re)start pour le démarrer ou le redémarrer.
Instructions Mozilla Thunderbird Page 1
Instructions Mozilla Thunderbird Page 1 Instructions Mozilla Thunderbird Ce manuel est écrit pour les utilisateurs qui font déjà configurer un compte de courrier électronique dans Mozilla Thunderbird et
Guide pour l Installation des Disques Durs SATA et la Configuration RAID
Guide pour l Installation des Disques Durs SATA et la Configuration RAID 1. Guide pour l Installation des Disques Durs SATA... 2 1.1 Installation de disques durs Série ATA (SATA)... 2 2. Guide de Configurations
ASR4 Réseaux Département Informatique, IUT Bordeaux 1. DHCP Prénom : Nom : Groupe :
TP1 ASR4 Réseaux Département Informatique, IUT Bordeaux 1 ASR4-R Prénom : Nom : Groupe : 1 Gestion du réseau virtuel Le réseau virtuel utilisé lors de ce TP a été réalisé avec NEmu (Network Emulator),
Instructions pour mettre à jour un HFFv2 v1.x.yy v2.0.00
Instructions pour mettre à jour un HFFv2 v1.x.yy v2.0.00 HFFv2 1. OBJET L accroissement de la taille de code sur la version 2.0.00 a nécessité une évolution du mapping de la flash. La conséquence de ce
Livre blanc Haute disponibilité sous Linux
Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises
Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server
Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server Machine virtuelle Machine virtuelle Machine virtuelle VMware ESX 3 Network Shutdown Module Network
Cours 13. RAID et SAN. 2004, Marc-André Léger
Cours 13 RAID et SAN Plan Mise en contexte Storage Area Networks Architecture Fibre Channel Network Attached Storage Exemple d un serveur NAS EMC2 Celerra Conclusion Démonstration Questions - Réponses
TP DHCP et DNS. Université Pierre Mendès France U.F.R. Sciences de l Homme et de la Société Master IC²A
Université Pierre Mendès France U.F.R. Sciences de l Homme et de la Société Master IC²A TP DHCP et DNS TP DHCP et DNS Master IC 2 A 2014/2015 Christian Bulfone / Jean-Michel Adam 1/9 Câblage et configuration
Stage SambaÉdu Module B. Jour 9 Outils complémentaires et problèmes récurrents divers
Stage SambaÉdu Module B Jour 9 Outils complémentaires et problèmes récurrents divers SOMMAIRE Utilisation du module inventaire : recherche, extraction, exploitation Mise en place des délégations sur les
Administration Switch (HP et autres)
Administration Switch (HP et autres) Sommaire : I) Configuration par le CLI 1.1) Accès au CLI 1.2) Création vlans 1.3) Assignation des ports aux vlans 1.4) Configuration IP 1.5) Nom du switch 1.6) Mot
Installation de VirtualPOPC-1 sur Ubuntu Server 10.04 LTS 64bits
Titre Propriétaire Classification Date dernière modification Chemin et NomFichier Installation de VirtualPOPC-1 sur Ubuntu Server 10.04 LTS 64bits Penas Cédric Privé 19.09.10 \\10.1.1.1\FilesTD\Group4\Personnel\Penas\ViSaG\Installation_VirtualP
Artica. La déduplication. Révision Du 08 Février 2011 version 1.5.020818
Artica La déduplication Révision Du 08 Février 2011 version 1.5.020818 Table des matières Introduction :...2 Historique du projet :...2 A qui s'adresse Artica?...2 Licence et support...2 Que fait Artica?...
AGREGATION DE LIENS ENTRE UNE APPLIANCE FAST360 ET UN COMMUTATEUR. Table des matières PRINCIPES DE L'AGREGATION DE LIENS... 2
AGREGATION DE LIENS ENTRE UNE APPLIANCE FAST360 ET UN COMMUTATEUR Table des matières PRINCIPES DE L'AGREGATION DE LIENS... 2 Définition... 2 Le Bonding Round Robin... 2 EtherChannel de Cisco... 2 Trunk
Slony1 2.1 Londiste 3
Slony1 2.1 Londiste 3 Cédric Villemain FRANCE PgConf.EU 2011 20/10/2011, Amsterdam License Creative Commons: Attribution-Non-Commercial-Share Alike 2.5 You are free: to copy, distribute,
Le logiciel Netkit Installation et utilisation
Le logiciel Netkit Installation et utilisation Netkit est un logiciel libre sous licence GPL qui est composé de différents scripts permettant le lancement et l'arrêt de machines virtuelles et l'utilisation
Architectures haute disponibilité avec MySQL. Olivier Olivier DASINI DASINI - - http://dasini.net/blog
Architectures haute disponibilité avec MySQL Architectures Architectures haute disponibilité haute disponibilité avec MySQL avec MySQL Olivier Olivier DASINI DASINI - - http://dasini.net/blog Forum PHP
Quick Start Guide This guide is intended to get you started with Rational ClearCase or Rational ClearCase MultiSite.
Rational ClearCase or ClearCase MultiSite Version 7.0.1 Quick Start Guide This guide is intended to get you started with Rational ClearCase or Rational ClearCase MultiSite. Product Overview IBM Rational
Vanilla : Virtual Box
Vanilla : Virtual Box Installation Guide for Virtual Box appliance Guide d'installation de l'application VirtualBox Vanilla Charles Martin et Patrick Beaucamp BPM Conseil Contact : [email protected],
IMS INTERNET /Paramétrage de l offre / Gateway Cisco IMS INTERNET. Paramétrage de l offre Gateway CISCO. Référence Edition Date de Diffusion Page
IMS INTERNET Paramétrage de l offre Gateway CISCO DRS/DTS/DCRT/CID/04 078 05/04/04 Page 1 SOMMAIRE 1. Introduction 3 1.1 OBJECTIFS DU DOCUMENT 3 1.2 VERSIONS INSTALLÉES 3 2. Connectique physique 3 3. Configuration
Guide pour l Installation des Disques Durs SATA et la Configuration RAID
Guide pour l Installation des Disques Durs SATA et la Configuration RAID 1. Guide pour l Installation des Disques Durs SATA... 2 1.1 Installation de disques durs Série ATA (SATA)... 2 2. Guide de Configurations
CONFIGURATION DU SERVEUR DE MAILS EXIM. par. G.Haberer, A.Peuch, P.Saade
CONFIGURATION DU SERVEUR DE MAILS EXIM par G.Haberer, A.Peuch, P.Saade Table des matieres 1. Introduction........................................................................ 2 1.1. Objectifs....................................................................
REPARTITION DE CHARGE LINUX
REPARTITION DE CHARGE LINUX I. SOMMAIRE II. Introduction... 2 1. Principe cluster... 2 III. Contexte... 2 2. Objectifs... 2 3. Topologie logique et physique finale... 3 IV. Préparation des postes... 4
OpenMediaVault installation
OpenMediaVault installation 2013-01-13/YM: version initiale 1 Introduction L'installation de OpenMediaVault, basé sur Debian, présente quelques difficultés pour l'utilisateur de Windows. Cette procédure
Comment utiliser HSRP pour assurer la redondance dans un réseau BGP multihébergé
Comment utiliser HSRP pour assurer la redondance dans un réseau BGP multihébergé Contenu Introduction Conditions préalables Conditions requises Composants utilisés Conventions Informations générales Configurez
Serveur NAS. StorIQ System v. 3.0 Administration avancée: outils en ligne de commande
Serveur NAS StorIQ System v. 3.0 Administration avancée: outils en ligne de commande Auteur: Emmanuel FLORAC Réf. NAS-ADM-CLI Version: 2.0 Mise à jour: 16/05/2011 Contacts : tel: 01 78 94 84 00 [email protected]
PROCÉDURE D'INSTALLATION
Sécurité des Systèmes d'information et de Communication PROCÉDURE D'INSTALLATION Table des matières Introduction...2 Préalable matériel...3 Préalable logiciel...3 Installation...3 Installation du système...3
Administration du WG302 en SSH par Magicsam
Administration du WG302 en SSH par Magicsam Le Point d'accès WG302 comprend une interface sécurisée de commande en ligne Telnet. Deux possibilités pour administrer le WG302 en SSH : via le port série situé
ALOHA LOAD BALANCER BONDING ACTIF-PASSIF
ALOHA LOAD BALANCER BONDING ACTIF-PASSIF «APPNOTES» #0005 CONFIGURATION DU BONDING ACTIF-PASSIF Cette note applicative a pour vocation de vous aider à configurer le bonding pour assurer la haute disponibilité
Procédure d installation de la Sauvegarde de Windows Server
Procédure d installation de la Sauvegarde de Windows Server Des outils de sauvegarde/récupération sont intégrés dans Windows Server 2008. Pour y accéder, vous devez installer les éléments suivants : Sauvegarde
INSTALLATION DEBIAN 7 (NETINSTALL) SUR VM
INSTALLATION DEBIAN 7 (NETINSTALL) SUR VM PREREQUIS - Environnement de virtualisation : dans notre exemple nous utiliserons Virtual Box (4.2.18) - Une connexion internet sur la machine hôte Récupérer l
Bind, le serveur de noms sous Linux
Bind, le serveur de noms sous Linux 1. Principes de fonctionnement d'un serveur de noms La résolution des noms d'hôtes sur les réseaux tcp/ip est fondée sur le principe d'une répartition de la base des
1 Configuration des Fichiers Hosts, Hostname, Resolv.conf
INSTALLATION ET CONFIGURATION ZIMBRA SUR DEBIAN 4.0 ETCH Zimbra est une solution Open Source d e-mail et de partage de calendrier destinée aux entreprises, aux prestataires de service, aux institutions
SERVEUR DÉDIÉ DOCUMENTATION
SERVEUR DÉDIÉ DOCUMENTATION Release 5.0.6.0 19 Juillet 2013 Copyright 2013 GIANTS Software GmbH, All Rights Reserved. 1/9 CHANGE LOG Correction de bug divers (5.0.6.0) Ajout d une option de relance automatique
JaZUp manuel de l'utilisateur v2.4
JaZUp manuel de l'utilisateur v2.4 Introduction: JaZUp est une application basée sur Java qui vous permets de mettre à jour votre AZBox vers Enigma 2 ou revenir au firmware officiel. Vous pouvez aussi
Proce dure Installation Cluster de basculement SQL Server 2005
Proce dure Installation Cluster de basculement SQL Server 2005 Procédure d installation Ce document décrit la procédure d installation d un cluster de basculement SQL Server 2005. Il suit les recommandations
Cloner un disque dur
Cloner un disque dur Préambule: J'ai testé beaucoup d'outils disponibles sur le Web, pour cloner des disques dur et/ou des partitions, dans de nombreux cas et sur de nombreuses machines, et avec de nombreux
Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009
Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009 Pôle de Calcul Intensif pour la mer, 11 Decembre 2009 CAPARMOR 2 La configuration actuelle Les conditions d'accès à distance règles d'exploitation
MEMO-LINUX.COM BLOG SUR GNU/LINUX, LE LIBRE ET L'OPEN-SOURCE.
MEMO-LINUX.COM BLOG SUR GNU/LINUX, LE LIBRE ET L'OPEN-SOURCE. MENU Agrégation de liens Ethernet sous Ubuntu serveur 14.04 (Bonding LACP) Posted on 17/04/2015 by fred 4 A fin d optimiser les flux, la répartition
DHCPD v3 Installation et configuration
DHCPD v3 Installation et configuration Table des matières 1. Préambule... 2 2. Pré-requis... 2 3. Récupération du paquet... 2 4. Configuration du serveur... 3 4.1. Configuration de la carte réseau du serveur...
Département de génie électrique. ELE784 - Ordinateurs et programmation système. Laboratoire #1
Département de génie électrique ELE784 - Ordinateurs et programmation système Laboratoire #1 Développement des composantes logicielles de base d un système informatique Description sommaire : Dans ce laboratoire,
