Cluster High Availability. Holger Hennig, HA-Cluster Specialist



Documents pareils
Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles

La continuité de service

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Architectures haute disponibilité avec MySQL. Olivier Olivier DASINI DASINI - -

Livre blanc Haute disponibilité sous Linux

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

Consolidation de stockage

Mise en place d un cluster. De basculement. Et DHCP Failover. Installation. Préparation. Vérification

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

Sybase High Avalaibility

Cours 13. RAID et SAN. 2004, Marc-André Léger

Plan de cette matinée

«clustering» et «load balancing» avec Zope et ZEO

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

WebSphere MQ & Haute Disponibilité

Configuration matériel. Tâche 2 : Installation proprement dite de l application sur un serveur de test virtualisé sous VmWare Workstation.

Le cluster à basculement

La Continuité d Activité

Zimbra Collaboration 8.X

Easy as NAS Supplément Entreprises. Guide des solutions

La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience. Rodérick Petetin CRI INSA Rennes

La haute disponibilité

Proce dure Installation Cluster de basculement SQL Server 2005

INSTALLATION et déploiement de Microsoft Dynamics CRM Ref : 80539

Hyper-V (version 3) et System Center Virtual Machine Manager Technologie de virtualisation sous Windows Server 2012 R2

VMotion ne peut fonctionner qu avec une architecture de stockage centralisé de type SAN FC, iscsi ou NAS.

vsphere 5 TP2 La virtualisation avec VMware CNFETP F. GANGNEUX technologie GANGNEUX F. 17/12/2012

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé

au Centre Inter-établissement pour les Services Réseaux Cédric GALLO

Unitt Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Cours 6. Sécurisation d un SGBD. DBA - M1ASR - Université Evry 1

Configuration du serveur ESX

L état de l ART. Évolution récente des technologies. Denis Szalkowski Formateur Consultant

Consolidation. Grid Infrastructure avec la 11gR2

PROCEDURE ESX & DHCP LINUX

Solution Haute Disponibilité pour Linux

Haute Disponibilité High-Availability : HA. Les enjeux

Architectures d implémentation de Click&DECiDE NSI

Windows Server 2012 R2 Failover de serveurs DHCP

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Guide d évaluation de VMware vsphere 5.0

Paramétrage de Failover Clustering et de Microsoft Cluster Services

Serveur Appliance IPAM et Services Réseaux

en version SAN ou NAS

Addenda du Guide de l administrateur

Le Ro le Hyper V Premie re Partie Configuration et Prise en main du gestionnaire Hyper-V

Oracle Maximum Availability Architecture

Configuration de plusieurs serveurs en Load Balancing

ACQUISITION DE MATERIEL INFORMATIQUE

vbladecenter S! tout-en-un en version SAN ou NAS

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

La surveillance réseau des Clouds privés

Hyper-V et SC Virtual Machine Manager Technologie de virtualisation sous Windows Server 2008 R2 [2ième édition]

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP

Hyper-V v2 : une évolution majeure des services de virtualisation

PLAN DE REPRISE D ACTIVITE INFORMATIQUE

Table des matières. Chapitre 1 Les architectures TSE en entreprise

Administration de systèmes

Guide des solutions My First SAN. 2ème édition

Cours 20412D Examen

Installation d une architecture VMware Infrastructure 3 : Bilan et perspectives

Etude d architecture de consolidation et virtualisation

Installation d un groupe de disponibilité avec SQL Server 2012 AlwaysOn (CTP3) qsjdlkqjs

APPEL D OFFRE A PROCEDURE ADAPTEE MIGRATION SERVEURS WINDOWS. Cahier des Charges

Services RDS de Windows Server 2012 R2 Remote Desktop Services : Installation et administration

Installation de Premium-RH

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist

PROJET DE MIGRATION EXCHANGE 2003 VERS EXCHANGE 2010

ARCHITECTURE SECURE EXCHANGE DE RÉFÉRENCE. Avant-propos. Introduction. Un White Paper DELL par Sumankumar Singh & Bharath Vasudevan

MS Dynamics CRM Installation et déploiement Mettre en œuvre la solution (M80539)

Windows Server Chapitre 1: Découvrir Windows Server 2008

Fiche technique: Sécurité des terminaux Symantec Endpoint Protection La nouvelle technologie antivirus de Symantec

Sans trop entrer dans les détails, la démarche IO Model consiste à : Pour cela, Microsoft découpe la maîtrise de l infrastructure en quatre niveaux :

Direction de l Innovation et des Systèmes d Information. Pôle Systèmes Informatiques CONSULTATION POUR L ÉVOLUTION DE L ARCHITECTURE DE SAUVEGARDES

Le e s tocka k ge g DAS,NAS,SAN

ACQUISITION DE MATERIEL INFORMATIQUE

VMWare Infrastructure 3

La virtualisation, des postes de travail

StruxureWare Power Monitoring v7.0. La nouvelle génération en matière de logiciel de gestion complète d énergie

Microsoft Virtual Server, trucs et astuces avancés

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE

Sommaire de la journée

Fonctions Réseau et Télécom. Haute Disponibilité

Windows Server 2012 R2 Administration avancée - 2 Tomes

La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les infrastructures de Datacenters en Cloud Computing.

Installation d une architecture VMware Infrastructure 3 : Bilan et perspectives

LIVRE BLANC PRODUIT. Evidian SafeKit. Logiciel de haute disponibilité pour le clustering d application

Administration de Citrix NetScaler 10.5 CNS-205-1I

Service WEB, BDD MySQL, PHP et réplication Heartbeat. Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox

«Clustering» et «Load balancing» avec Zope et ZEO

Licences Windows Server 2012 R2 dans le cadre de la virtualisation

Windows Server 2012 Administration avancée

VMware vsphere 5 au sein du Datacenter Complément vidéo : La configuration et la sécurisation de l'esx

Edition de février Numéro 1. Virtualisation du Poste de Travail

Cahier des charges pour la mise en place de l infrastructure informatique

En ce moment (24/01/2014), Super bon plan: Micro Serveur HP Proliant G7 N54L à 159 ttc Plus d'informations sur dealabs.com

MOBILITE. Datasheet version 3.0

TEC-SHEET. PROVIGO Dacoria V-STORAGE APPLIANCE. transtec Solution Data Sheet ADMINISTRATION MADE EASY HAUTE DISPONIBILITÉ MADE EASY

Spécifications détaillées

Transcription:

Cluster High Availability Holger Hennig, HA-Cluster Specialist

TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE CLUSTER HA...5 3. ARCHITECTURE...6 3.1 GÉNÉRALITÉS...6 3.2 PRINCIPE DE PARTAGE «SHARED ALL»...6 3.3 PRINCIPE DE NON PARTAGE SHARED NOTHING...7 3.4 PRINCIPE DE MIRRORING...8 4. MODES D EXPLOITATION...9 4.1 GÉNÉRALITÉS...9 4.2 MODÈLE DE CLUSTER ACTIF - PASSIF...9 4.3 MODÈLE DE CLUSTER ACTIF ACTIF...10 4.4 MODÈLE DE CLUSTER MIXTE...11 5. INSTALLATION D UN SERVICE REDONDANT...13 5.1 INSTALLATION D UNE STRUCTURE DE PLUSIEURS GROUPES DE CLUSTERS...15 5.2 PLANNING DES RESSOURCES DE CLUSTER...16 6. ADRESSES INTERNET SUR LE THÈME CLUSTERING HA...17 Ce document appartient à la propriété de transtec AG. www.transtec.de Il ne peut être en aucun cas et sans accord préalable de son auteur, copié, publié ou encore polycopié sous quelque forme que ce soit. Toutes les informations contenues dans ce document ont été rassemblées avec le plus grand soin. Cependant, il n est pas exclu que certaines informations soient erronées. transtec AG et l auteur de ce document ne peuvent être tenus responsables pour d éventuelles erreurs et les conséquences qui pourraient en découler. Dans la présente, la dénomination de logiciels et matériel informatique sont indiqués par des marques déposées. Ils sont utilisés sans accord préalable de l entreprise. L utilisation de marques déposées dans les pages suivantes ne signifie en aucun cas l acceptation d une utilisation libre de ces noms, dans le respect de la protection des marques déposées. transtec Page 2/2

1. RÉSUMÉ Ce rapport a pour but de donner aux décideurs informatiques et aux administrateurs un aperçu de la technologie de cluster HA (High Availability). Dans ce document, le concept de clustering HA sera abordé ainsi que les conditions requises pour l exploitation d un cluster HA. De plus, nous montrerons quelles sont les possibilités existantes ainsi que les services qui doivent rester redondants sur des plateformes Windows et Linux. Les logiciels à installer dans des installations de clusters Windows ou Linux feront l objet d un document à part. transtec Page 3/3

2. INTRODUCTION 2.1 Généralités La disponibilité des serveurs et des applications est devenue critique pour les entreprises. En effet, une entreprise doit mettre en place certaines mesures car une panne du système pourrait engendrer des coûts et provoquer une perte de son image. La solution à ce problème : un cluster haute disponibilité. L objectif d un cluster HA est d obtenir des temps d arrêts de services les plus faibles possibles. La disponibilité à 100% n existe pas, mais il est néanmoins possible d atteindre une disponibilité de 99,999%. Pour atteindre un tel résultat, le «Single Point of Failure» doit être maintenu à son niveau le plus bas. Pour cela, l installation du système de serveur doit être redondante avec des solutions de clusters, les onduleurs doivent aussi être redondants et il faut séparer géographiquement une paire de clusters. Disponibilité Temps d arrêt correspondant 99% 3,6 jours de panne/an 99,9% 8,76 heures de panne/an 99,99% 52 minutes de panne/an 99,999% 5 minutes de panne/an 99,9999% 30 secondes de panne/an 99,99999% 3 secondes de panne/an Tab. 1: Niveau de disponibilité et durée de panne correspondante Microsoft Windows et Linux ont pris en compte depuis longtemps dans leurs systèmes d exploitation les caractéristiques d un cluster HA. Windows a commencé avec NT 4.0 (Wullpack), puis Windows 2000 Advanced Server et enfin Windows 2003 Enterprise Server de Microsoft. Linux a créé plusieurs projets Open Source et des produits commerciaux, reprenant plus ou moins les mêmes principes que Windows pour le clustering HA.. 2.2 Le concept des clusters HA Un cluster comprend deux ou plusieurs ordinateurs, qui sont intégrés dans une même logique de système. Le but est d obtenir une meilleure disponibilité, une meilleure gestion et une meilleure modularité. Ces différents aspects vous sont expliqués dans ce document. Lorsqu une panne intervient sur un cluster, les ressources des autres nœuds peuvent être utilisées. La panne n a en général aucun impact sur l utilisateur, et une nouvelle connexion est attribuée à son application. transtec Page 4/4

2.3 Avantages d une solution de cluster HA Meilleure disponibilité: Les services et les applications qui fonctionnent sur un cluster sont installés de manière redondante pour un mécanisme HA, afin que le système reste disponible en cas de panne du matériel informatique ou d erreur de logiciel. De plus, les attentes prévues sur les serveurs en raison de migration des services sont plus simples et plus sûres à gérer (transfert manuel du service sur un autre nœud). Meilleure modularité: avec le système d exploitation de Microsoft, un support supplémentaire est proposé avec Windows 2000 Advanced Server ou Windows 2003 Enterprise Server jusqu à 8 processeurs (en principe 4 uniquement) et un support jusqu à 8 Go RAM (normalement 4 Go seulement). Pour les deux versions Windows et Linux, le matériel informatique peut être plus facilement développé dans une installation en cluster. Les agrandissements pour le CPU, RAM ou stockage peuvent être effectués lors d un arrêt prévu du système sans panne de service. Gestion améliorée : la console de gestion d un logiciel de cluster présente le cluster dans son ensemble. Les ressources du cluster global peuvent être configurées avec le logiciel. Sous Linux, on trouve aussi des utilisations de consoles de gestion graphiques (GUIs interface d utilisateur graphique), qui sont moins complètes que les produits de l univers Windows. Ainsi, on trouve en général sous Linux des scripts basés sur des textes c est-à-dire des données configurées globalement, qui possèdent les mêmes fonctions qu une console graphique. transtec Page 5/5

3. ARCHITECTURE 3.1 Généralités Il existe trois types d architectures de cluster HA. La différence entre ces trois solutions réside dans la manière dont le nœud individuel accède au domaine de stockage dans l installation du cluster. En cas de panne d un des nœuds dans le domaine de stockage, le deuxième nœud doit être mis à disposition. Dans ce cas, il faut travailler avec des solutions de stockage partagées, où tous les nœuds ont un accès non limité au domaine de stockage du cluster dans son ensemble. Dans les paragraphes suivants, les différentes architectures de cluster seront évoquées. 3.2 Principe de partage «Shared All» Avec le principe de partage «Shared All», tous les nœuds ont accès au même système de stockage 1. Le danger : les deux nœuds pourraient écrire dans le même système de données. Un tel accès est à éviter absolument car il peut facilement endommager les données. Ainsi, un DLM (Distributed Lock Manager) est utilisé pour les solutions Shared All. Il gère l accès des nœuds individuels et bloque l accès parallèle. Noeud de cluster A Noeud de cluster B Unité de stockage externe SCSI ou Fibre Channel Schéma 1: Cluster HA avec stockage Shared All Ce principe existe depuis longtemps dans le domaine des clusters VAX VMS de Digital, qui travaille depuis 10 ans selon ce principe. 1 En general, un système RAID externe comme le transtec 5016. transtec Page 6/6

Aujourd hui, peu de clusters sont installés selon ce principe. Les clusters sous Microsoft Windows et Linux sont souvent décrits selon le principe du «Shared Nothing». 3.3 Principe de non partage Shared Nothing Le principe de non partage «Shared Nothing» alloue les deux nœuds de votre propre domaine de stockage. Les nœuds du cluster 2 ont la possibilité de reprendre le domaine de stockage des autres nœuds. Dans aucun cas, les données sont en même temps sur les deux nœuds. Ainsi, un accès commun aux mêmes données est exclu. Avec ce concept, il est important de s assurer que la communication des nœuds entre eux soit sans défaut. Il faut éviter la situation appelée «Split Brain», où les deux nœuds tentent de communiquer avec le même domaine de stockage. L accès des deux nœuds à un domaine de stockage entraîne une inconsistance du système de données et donc une perte de données. Le contrôle mutuel est géré par une connexion de réseau propre (Heartbeat). Pour s assurer d éviter ce genre d erreurs, certaines solutions de cluster vont même jusqu à séparer complètement du réseau les nœuds en panne par un commutateur Powerswitch pour exclure une panne complète du système. transtec propose cette solution de commutateur Powerswitch pour ses clusters Linux. Pour des solutions Microsoft, ce problème est réglé par le Quorum Devices (domaine séparé où les informations d authenfication sont stockées). Noeud A du cluster Nœud B du cluster Domaine de données A Domaine de données B Unité de stockage externe SCSI ou Fibre Channel Schéma 2: Principe de non partage Shared Nothing 2 En general, un serveur Dual Xeon comme le transtec 2600 est installé. transtec Page 7/7

3.4 Principe de mirroring Avec le principe de mirroring, chaque noeud est disponible sur un domaine de stockage, reflété sur une connexion de réseau dédiée. On parle ici d une solution basée sur un serveur RAID 1. Des solutions spécifiques existent pour Microsoft ainsi que pour un environnement Linux. Sous Microsoft 2000 Server, le Legato Advanced Co-Standby server autorise deux nœuds permanents avec le même statut 3. La version professionnelle de Windows 2000 Servers avec services de clusters intégrés ne dispose pas de cette fonctionnalité de mirroring. Pour une utilisation de distribution Linux, le paquet Linux DRBD peut être installé. Il synchronise les partitions sur le réseau. Comme pour le RAID 1, les capacités de stockage doivent être disponibles en double. Noeud A du cluster Noeud B du cluster Réseau Uplink dédié SCSI ou Fibre Channel SCSI ou Fibre Channel Unité de stockage Unité de stockage Schéma 3: Principe de mirroring 4 3 La version MS Windows 2000 Server Enterprise n est pas nécessaire ici. 4 transtec propose pour une solution Legato basée sur Windows 2000 des paquets de produits avec installation et configuration sur site. transtec Page 8/8

4. MODES D EXPLOITATION 4.1 Généralités Pour créer un concept de cluster HA, il faut d abord définir le mode d exploitation du cluster. Les nœuds de cluster HA peuvent fonctionner de manière «active» ou «passive». Nœuds actifs: le nœud est actif et sert les clients avec des ressources (par ex : partage de fichiers, DNS, Mail, Base de données) Nœuds passifs: le nœud est passif, travaille en «Standby» et contrôle les nœuds actifs pour reprendre leurs ressources en cas d erreur. Ainsi, il existe plusieurs types de clusters, décrits par la suite. 4.2 Modèle de cluster actif - passif Les services et applications travaillent sur les nœuds actifs des clusters HA «actifspassifs». En cas de panne, les ressources sont transférées automatiquement sur les nœuds passifs. Tant que les nœuds passifs ne sont pas chargés avec d autres tâches, un failover peut fonctionner sans problème. Une condition : l installation identique du matériel informatique pour chaque nœud. Noeud A de cluster Noeud B de cluster Base de données SQL Datenbank Transfert sur le noeud B en cas de panne SCSI ou Fibre Channel SCSI ou Fibre Channel Unité de stockage externe Schéma 3: Modèle de cluster actif - passif transtec Page 9/9

4.3 Modèle de cluster actif actif Les services et applications travaillent sur les deux nœuds du cluster dans un modèle de cluster «actif-actif». En cas de panne, les nœuds de clusters restent à disposition l un pour l autre grâce à la redondance du système. Ici, la charge de travail avec laquelle le nœud de cluster fonctionne est décisive. Dans l exemple du schéma 4, un nœud de cluster doit reprendre la base de données SQL et le service d emails en cas de panne. Ainsi, il est important d avoir des nœuds de bonne taille, pour qu il y ait suffisamment de réserve en cas de panne. Il est recommandable d avoir une charge identique sur les deux nœuds dans une exploitation active-active. Ainsi, la charge de travail de chaque nœud ne doit pas dépasser 50%. Noeud A de cluster Noeud B de cluster Transfert sur le noeud B en cas de panne Base de données SQL Serveur mails Transfert sur le noeud A en cas de panne SCSI ou Fibre Channel SCSI ou Fibre Channel Unité de stockage externe Schéma. 4: Modèle de cluster actif-actif Très souvent, on pense qu un cluster «actif-actif» a le même service exécuté sur les deux nœuds et réparti selon un mode de «Load Balancing» en fonction des demandes des clients. Quelques cas particuliers fonctionnent de cette manière, mais tous les systèmes de cluster ne supportent pas ce principe de fonctionnement. Microsoft a développé la répartition des tâches avec son produit SQL Server 2000 et Exchange Server 2000/2003. Le SQL Server 2000 de Microsoft autorise par exemple la répartition d une base de données et l assignation de la répartition de chaque base de données sur un nœud de cluster. On ne peut pourtant pas parler ici de véritable load balancing, car les demandes des clients peuvent être exécutées uniquement par un seul nœud (tant que les demandes se trouvent sur une répartition). Ceci est valable aussi pour Exchange 2000/2003 Server car la répartition dépend de la structure d organisation. transtec Page 10/10

L installation de ce pseudo cluster actif-actif load balanced génère de nombreux coûts et requiert une connaissance détaillée de Microsoft Windows. Sous Linux, ce type de répartition est possible, mais cela dépend de l application et chaque cas particulier doit être testé. transtec propose des solutions actives-passives ainsi que des solutions actives-actives dans sa gamme de produits. 4.4 Modèle de cluster mixte En plus des modèles de cluster actif-passif et actif-actif, considérés comme des modèles standards, il existe encore d autres modèles plus spécifiques qui sont supportés par les solutions de clusters actuelles. Dans l exemple du schéma 5, les nœuds A, B et C travaillent comme nœuds de cluster actif et mettent leurs ressources à disposition. Le nœud D est le seul nœud passif. Il sert de partenaire Failover pour les trois autres nœuds de cluster. Dans un tel scénario, un SAN (Storage Area Network) présente des avantages, car cette solution peut être facilement réalisable avec un commutateur Fibre Channel et un système RAID Fibre Channel. Une solution basée sur SCSI est envisageable, mais les coûts techniques sont plus élevés, car chaque liaison de cluster (A-D, B-D,C-D) doit avoir une solution de stockage partagée (Shared Storage). Dans le cas où plusieurs nœuds tombent en panne et que les nœuds de sauvegarde doivent reprendre des tâches supplémentaires, les ressources à disposition ne sont pas suffisantes. Avec une solution professionnelle, le nœud D doit avoir une taille différente des nœuds A, B et C. Le concept de cluster mixte est conçu idéalement pour répartir des tâches manuellement et gérer les temps d attentes ou le changement de matériel informatique sur le serveur central. Serveur A Serveur B Serveur D Système RAID FC Serveur C Schéma. 5: Cluster mixte transtec Page 11/11

La même combinaison peut aussi avoir une utilisation complètement différente: Le noeud D est un système Quad Xeon sur lequel fonctionne de manière active un serveur mail, une base de données SQL et un serveur DNS central. Il serait possible d exécuter les nœuds A, B et C comme serveur CPU unique et de leur donner une seule tâche. Dans ce cas, les nœuds A, B et C seraient passifs. En cas de panne, la tâche pourrait être répartie. D -> A = Serveur Mail D -> B = Serveur SQL D -> C = Serveur DNS transtec Page 12/12

5. INSTALLATION D UN SERVICE REDONDANT L installation schématique d un service redondant dans un cluster HA est relativement triviale. Un service individuel (ressource) est le plus petit composant à gérer dans un cluster. Pour une ressource, il peut s agir d une adresse IP, d un nom Netbios ou d un disque dur physique par exemple. Les ressources développent des dépendances entre elles et sont en général réunies dans des groupes logiques. Par exemple, nous allons montrer la dépendance d un service WWW redondant. Pour exploiter un serveur WWW sur un cluster ou sur un système en standalone, il faut une adresse IP fixe, un nom de réseau sous lequel le serveur peut être joint, et un domaine de stockage sur lequel on peut trouver les données des services WWW. Service WWW Nom de réseau Domaine de stockage Adresse IP Schéma. 6: dépendances des services Dans une gestion de cluster, chaque ressource peut être activée séparément online ou offline. Dans notre exemple, le service WWW peut fonctionner d abord en ligne, lorsque l adresse IP correspondante, le nom de réseau et le domaine de stockage sont mis à disposition. Ainsi, le service WWW développe des dépendances avec ces trois ressources. Les adresses IP et le domaine de stockage ne développent pas de dépendances et peuvent aussi fonctionner individuellement en ligne. Pour créer un service redondant, les ressources peuvent être réunies dans des groupes logiques avec un logiciel de gestion de cluster. Pour déplacer un service sur un autre nœud de cluster, il suffit de déplacer le groupe. Le logiciel de cluster supprime la dépendance et déconnecte les ressources entre elles offline. transtec Page 13/13

Ordre de déconnexion du service WWW: 1. Service WWW 2. Nom de réseau 3. Domaine de stockage 4. Adresse IP Les ressources sont à nouveau connectées en ligne sur un autre noeud de cluster avec une priorité inversée. Ordre de connexion en ligne du service WWW: 1. Adresse IP 2. Nom de réseau 3. Domaine de stockage 4. Service WWW Si la connexion ne se fait pas en ligne, le service ne sera plus disponible. transtec Page 14/14

5.1 Installation d une structure de plusieurs groupes de clusters Dans un cluster HA, les ressources individuelles sont gérées dans des groupes. Il faut donc configurer les nœuds de chaque groupe qui vont être actifs dans la gestion du cluster. En cas de panne, ces groupes logiques vont être transférés sur les nœuds restants, en fonction de leurs ressources. Cluster Groupe DHCP Service DHCP Nom de réseau IP Adresse A Domaine stockage A Groupe WWW Service WWW Nom de réseau IP Adresse B Domaine stockage B Groupe SQL Service SQL Nom de réseau IP Adresse C Domaine stockage C Schéma 7: Structure des dépendances transtec Page 15/15

5.2 Planning des ressources de cluster La représentation schématique du paragraphe 5.1 montre qu il faut planifier une adresse IP, un nom de réseau et un domaine de stockage séparé pour chaque groupe de cluster. La planification du domaine de stockage nécessite une attention particulière. Si un système RAID externe est utilisé, il faut faire attention à ce que chaque service redondant ait un propre set RAID, qui peut être séparé des autres domaines de stockage et fonctionner de manière complètement indépendante. Il est en principe possible de réunir plusieurs ressources dans un groupe de cluster, qui ont accès au même domaine de stockage. Dans ce cas, lors d une panne d une ressource dépendante du domaine du stockage, il faut veiller à ce que toutes les ressources dépendantes soient déplacées. Ainsi, il n est pas possible de déplacer un service unique ou d installer une configuration «active-active». transtec Page 16/16

6. ADRESSES INTERNET SUR LE THÈME CLUSTERING HA Nouveautés de clustering avec Windows 2003 Enterprise server: http://www.microsoft.com/windowsserver2003/evaluation/overview/technologies/clusterin g.mspx Clustering HA et NLB (Network Load Balancing): http://www.microsoft.com/windows2000/technologies/clustering/ Clustering HA sous Linux, avec un paquet Open Source Failsafe: http://oss.sgi.com/projects/failsafe/docs/functionality/ Projet HA de Linux: http://www.linux-ha.org/ Legato Co-Standby Server pour Microsoft Windows: http://portal1.legato.com/products/costandbyserver/ Linux avec GFS (Global File System) pour clustering Shared-All : http://www.sistina.com/products_gfs.htm Paquet Linux DRBD réseau RAID 1 pour clustering Shared-All : http://www.drbd.org transtec Page 17/17