Haute Disponibilité, concepts et principes

Dimension: px
Commencer à balayer dès la page:

Download "Haute Disponibilité, concepts et principes"

Transcription

1 Haute Disponibilité, concepts et principes Article publié dans le hors série spécial Haute Disponibilité du GNU/Linux Magazine France, numéro 18 (Février/Mars 2004). Introduction Depuis l'avènement relativement récent du règne informatique, les systèmes matériels et logiciels ont gagné régulièrement en complexité et en puissance. Ils ont envahi tous les recoins de notre vie quotidienne et sont désormais incontournables dans la majorité des secteurs clefs de notre industrie. Peu de domaines ont échappé à cette révolution au point que la cohésion de nos sociétés fortement industrialisées reposent sur la disponibilité de systèmes complexes qui rythment notre activité de tous les jours : Les transactions bancaires, les télé-communications, l'audiovisuel, Internet, le transport de personnes ou de biens (avion, train ou voiture), les systèmes d'informations des entreprises, etc. Ils font à ce point partie de notre mode de vie que toute interruption inattendue de ces services tourne rapidement à la catastrophe. Car, comme notre dépendance à de tels systèmes augmente, il en va de même de la gravité des pannes matériels ou autres dysfonctionnements logiciels : Ceux ci peuvent se révéler simplement gênants ou amusants mais peuvent aussi résulter en une perte significative de profit ou mettre en danger l'intégrité de personnes, voire de populations. Produire des systèmes fiables demande de passer beaucoup de temps en étude et en analyse, sans garantie du résultat. Heureusement, il existe des techniques simples permettant de pallier à la faillibilité des systèmes complexes, qu'ils soient matériels ou logiciels (les deux étant désormais indissociables). Plutôt que de chercher à rendre ces systèmes fiables, on peut inverser la démarche et intégrer à la source la notion de panne dans l'étude de ces systèmes : Si l'on peut prévoir la panne d'un composant matériel ou logiciel, on peut alors l'anticiper et mettre en oeuvre une solution de substitution. On parle alors de disponibilité du service, voire de Haute Disponibilité selon la nature de l'architecture mise en place. Toutes les techniques permettant de traiter cette intéressante problématique sont regroupées sous différentes appellations suivant le degré de la réponse qu'elles apportent au problème posé : Disponibilité des données : Même si votre système n'est pas critique et peut supporter un arrêt de service à durée variable, il est généralement inhabituel de se satisfaire de la perte de données. Dans ce cas précis, toutes les techniques utilisées convergent pour garantir l'intégrité des données ; Disponibilité des services : Dans le contexte d'un service critique rendu dans le cadre d'une entreprise (serveur de fichiers ou mail) ou vis à vis d'une clientèle (site marchand), une panne occasionnant un arrêt du service peut causer un tort considérable entraînant une perte de productivité voire une perte de confiance du client. Dans tous les cas, cela peut coûter à cours ou moyen terme beaucoup d'argent. On base la démarche sur la disponibilité des données pour ensuite fiabiliser par différentes techniques la continuité du service ; Tolérance aux désastres : Tremblements de terre, attentats, incendies sont des évènements certes inattendus mais aussi terriblement dévastateurs à la fois pour les biens, les personnes et, pour ce qui nous intéresse, les données et les services. Si ces derniers ne sont pas géographiquement éloignés à bonne distance les uns des autres, ce risque est réel : Cela peut paraître alarmiste et ne vaut peut être pas pour la petite PME locale mais devient un vrai problème pour les sociétés de taille conséquente qui brassent d'énormes flux d'informations et se doivent de fournir un service continu à leur clientèle (comme un opérateur téléphonique).

2 Cet article va s'attacher à décrire les principes fondamentaux qui régissent l'étude et le développement de systèmes critiques Hautement Disponibles (résumé sous l'acronyme HA pour High Availability). Nous verrons d'abord de façon succincte comment nous pouvons aborder le problème d'un point de vue théorique pour ensuite élaborer une architecture hautement disponible à partir de différents composants logiciels ou matériels. Les briques logicielles que nous allons nous efforcer d'utiliser sont pour la plupart basées sur les logiciels libres : La tentation est donc forte de vouloir mettre en oeuvre vous même, et à peu de frais, des solutions de ce type au sein de votre entreprise. Un petit bémol amical cependant : Il ne faut pas avoir peur de faire appel à des entités commerciales ou des spécialistes indépendants qui pourront les utiliser pour vous proposer des solutions éprouvées et déjà largement déployées (ce qui prouve, si besoin est, que la notion de libre et de commerciale n'est pas antinomique) : Mettre en place ce type de solution demande une compétence particulière que vous ne possédez peut être pas au sein de votre société. C'est exactement par ce type de services que le logiciel libre trouve sa cohérence et sa pertinence en offrant à disposition de tous de multiples briques pour concevoir vos architectures logicielles : N'hésitez pas à externaliser ce type d'étude car le temps passé en interne à élaborer une solution de Haute Disponibilité peut rapidement excéder le coût prévu initialement. Fiabilité versus disponibilité Pour appréhender la notion même de Haute Disponibilité, il nous faut d'abord aborder les différences qui existent entre la fiabilité d'un système et sa disponibilité. La fiabilité est un attribut permettant de mesurer la continuité d'un service en l'absence de panne. Les constructeurs fournissent généralement une estimation statistique de cette valeur pour leurs équipements : On parle alors de MTBF (pour Mean Time Between Failure). Un MTBF fort donne une indication précieuse sur la capacité d'un composant à ne pas tomber en panne trop souvent. Dans le cas d'un système complexe (que l'on peut décomposer en un certain nombre de composants matériels ou logiciels), on va alors parler de MTTF pour Mean Time To Failure, soit le temps moyen passé jusqu'à l'arrêt de service consécutif à la panne d'un composant ou d'un logiciel. L'attribut de disponibilité est plus difficile à calculer car il englobe la capacité du système complexe à réagir correctement en cas de panne pour redémarrer le service le plus rapidement possible. Il est alors nécessaire de quantifier l'intervalle moyen de temps ou le service est indisponible avant son rétablissement : On utilise l'acronyme MTTR (Mean Time To Repair) pour représenter cette valeur. La formule qui permet de calculer le taux de disponibilité relative à un système est la suivante : Un système qui aspire à une forte disponibilité se doit d'avoir soit un MTTF fort, soit un MTTR faible. Une autre approche, plus pratique, consiste à mesurer la période de temps ou le service n'est plus rendu pour évaluer le niveau de disponibilité. C'est la méthode la plus souvent utilisée même si elle ne tient pas compte de la fréquence des pannes mais plutôt de leur durée.

3 Le calcul se fait le plus souvent sur une année calendaire. Plus le pourcentage de disponibilité du service est fort, plus nous pouvons parler de Haute Disponibilité. Il est assez facile de qualifier le niveau de Haute Disponibilité d'un service à partir de la durée d'arrêt cumulée en utilisant le principe normalisé des "9" (en dessous de 3 neuf, il n'est plus possible de parle de Haute Disponibilité mais simplement de disponibilité) : Nombre de 9 Arrêt du service sur 1 an 3 neuf (99,9%) environ 9 heures 4 neuf (99,99%) environ 1 heure 5 neuf (99,999%) environ 5 minutes 6 neuf (99,9999%) environ 30 secondes A vous d'évaluer le niveau de disponibilité que vous ambitionnez d'atteindre. Définition des objectifs Une bonne démarche, permettant de mettre une oeuvre assez rapidement une infrastructure solide capable de garantir la Haute Disponibilité d'un service critique, consiste à évaluer les différents objectifs suivants : Définition des critères d'indisponibilité du service : Niveau de disponibilité, temps de rétablissement ou encore temps d'engagement du service ; Analyse de la volumétrie des données et des performances nécessaires au bon fonctionnement du service ; Prise en compte des différents critères de coûts ; Évolution des configurations matérielles et logicielles (si applicable) ; Transfert des compétences aux équipes d'exploitation sur les problématiques liées à la haute disponibilité ; Surveillance du service et planification de la maintenance corrective et préventive (qui, quand, comment). A ce stade de l'étude, vous devriez commencer à avoir une idée assez précise du type d'architecture qu'il vous sera nécessaire de mettre en oeuvre pour répondre au besoin posé. Vous devrez évaluer ensuite les différentes architectures possibles et sélectionnez celle qui vous semblera répondre le mieux aux différentes contraintes. Cette phase terminée, vous allez devoir imaginer quel type de panne n'a pas encore été prise en compte dans votre architecture : Cela peut être la panne du disque dur, de l'alimentation, du réseau ou encore un crash du système d'exploitation ou de l'applicatif. Il vous faudra pour cela décomposer consciencieusement la totalité du système pour localiser chaque élément susceptible de tomber en panne. On utilise le terme anglais SPOF (Single Point Of Failure) pour désigner une ressource critique (un composant matériel ou un logiciel) dont la panne peut être à l'origine d'un arrêt de service. Tous les SPOF de votre architecture devront donc disposer d'un palliatif efficace ou être correctement pris en compte par votre applicatif. Identifier les faiblesses d'un système informatique est la première étape permettant de fiabiliser son fonctionnement et d'initier une réflexion sur les moyens qu'il sera possible de mettre en oeuvre

4 pour garantir la continuité du service, et donc la Haute Disponibilité. Linux et la Haute Disponibilité Le support de la Haute Disponibilité existe depuis déjà quelques années sous Linux et même si le niveau de maturité n'est pas encore celui d'autres environnements propriétaires de type Unix, il est déjà largement suffisant dans la plupart des cas. Un site [1] centralise toutes les informations liées à la haute disponibilité sous Linux. N'hésitez pas à aller y faire un tour. Une bonne part des techniques disponibles reposent sur la multiplication des ressources critiques (physiques ou logicielles) constituant un serveur. En multipliant les ressources, on supprime du même coup leurs caractères critiques. Le service pourra donc être assuré même en cas de panne d'un composant. Cela permet notamment d'utiliser des composants moins cher puisque la fiabilité du composant ne devient plus le critère principal. Une seconde approche considère que l'on peut assez facilement mettre en place une solution où ce n'est plus la ressource que l'on va chercher à dupliquer, mais directement le serveur. L'utilisation de grappes de machines (cluster en anglais) est un bon moyen de répondre à cette problématique. Si l'on parvient à disposer d'au moins deux machines sur lesquelles le service est exécuté de façon unique (sur l'un ou l'autre des noeuds), la continuité du service sera garantie moyennant le temps de basculement d'une machine à l'autre (On parle en anglais de Failover Services, FOS). La principale difficulté consiste à maintenir une copie des données entre les noeuds (dans ce type de cluster dit de Haute Disponibilité, une machine s'appelle un noeud) pour que le service puisse être indifféremment lancé sur l'un ou l'autre des serveurs. Pour accomplir cela, il existe différentes techniques basées soit sur la réplication plus ou moins temps-réel des données entre les noeuds, soit sur le partage d'une ressource unique en utilisant notamment un système de fichiers distribués ou partagés. Dans ce type de configuration, il est important de faire en sorte que le temps de rétablissement du service soit le plus faible possible pour réduire la gène occasionnée aux utilisateurs. Le basculement du service dans le cluster ne doit pas être (trop) perceptible et ne doit surtout pas occasionner une modification du paramétrage coté client : Afin de rendre transparent cette étape, on utilise la notion d'alias IP pour associer une adresse IP dite flottante sur le noeud hébergeant le service. La continuité apparente du service coté client est donc assurée. Une dernière technique moins connue permet de répartir la charge sur un ensemble de noeuds physiques sur lesquels un service de type réseau est exécuté en parallèle et en concurrence. Un noeud maître se charge de répartir les requêtes sur le noeud le moins chargé du cluster. Si un noeud tombe en panne, il sera détecté par le maître qui pourra facilement le retirer de sa liste des noeuds actifs. La plus grande partie des architectures misent en oeuvre pour garantir la disponibilité d'un service dérivent plus ou moins directement de ces trois approches. Les composants de la haute disponibilité En premier point, à quoi bon élaborer une architecture complexe et Hautement Disponible si une simple panne de courant ou la perte d'une alimentation anéantie la continuité de votre service. Vous devez donc prévenir (faire en sorte qu'une panne de courant n'affecte pas la viabilité de votre système) mais aussi savoir soigner (en cas de perte d'une alimentation, une seconde doit pouvoir

5 prendre la relève). Comme nous l'avons déjà vu, anticiper les pannes fait partie du travail préliminaire dans la constitution d'une architecture HA. En ce sens, il est important de pouvoir suivre fidèlement les modifications de l'environnement dans lequel évolue vos machines : Une augmentation anormale de la température (par exemple) pouvant notamment provoquer des pannes qui ne se seraient pas produites en temps normal. Deux axes de réflexion peuvent être évalués pour réduire ce type de risques : Climatisation et hydrométrie Onduleurs La salle dans laquelle dans laquelle vous prévoyez de déployer vos machines doit garantir une température stable et une hydrométrie raisonnable. Il faut éviter les accumulations de poussière sur vos machines et nettoyer de façon préventive les accès d'air et autres ventilateurs. N'hésitez pas à rajouter justement un ventilateur : Certains modèles peuvent par exemple facilement s'insérer dans un slot PCI vide En cas de panne de courant, il faut garantir au moins pendant un certain lapse de temps la bonne alimentation électrique de votre serveur : Si les batteries de votre onduleur devaient ne pas suffire, il pourra envoyer un signal à votre système pour lui intimer l'ordre de s'arrêter proprement. Le mot onduleur est traduit de l'anglais sous l'acronyme UPS pour Uninterruptible Power Supplies Ce périphérique est particulièrement bien géré sous Linux par l'intermédiaire du projet NUT [2] (Network UPS Tools) qui supporte un grand nombre d'onduleurs USB ou séries La multiplication des différents composants critiques présents dans votre système peut vous permettre de survivre à une panne en considérant que les solutions matérielles de Haute Disponibilité disponibles sous Linux se rapprochent de plus en plus de celles proposées sur les serveurs Unix haut de gamme. Il est assez simple de redonder les alimentations électriques (transparent pour le système d'exploitation) mais aussi les disques durs, les contrôleurs disques et les interfaces réseaux : Alimentation redondée Utilisation de grappes de disques durs Certains constructeurs proposent de fournir deux ou trois alimentations pour prévenir la perte de ce composant. Les alimentations sont des composants critiques et il n'est pas rare de voir celles-ci faillir bien avant les autres composants du système. Les alimentations ATX par exemple ne sont pas réputées pour être des plus fiables (elles sont notamment très sensibles aux variations de tension) L'utilisation des technologies RAID [3] est un bon moyen de sécuriser vos données et prendre en compte notamment la perte d'un disque. On peut disposer de cette technologie de façon logicielle sous Linux même si il est tout à fait envisageable de l'utiliser par l'intermédiaire de cartes d'interface IDE ou SCSI à enficher dans votre système (Linux en supporte un grand nombre)

6 Multiplication des cartes réseaux Sécuriser l'accès aux unités de stockage externes Un câble réseau peut être accidentellement débranché ; Une carte réseau peut subir les aléas d'une panne et ne plus pouvoir être utilisable. Le service réseau que vous proposez est donc fortement tributaire de la disponibilité de ce type de composants. Heureusement pour nous, il existe une couche logicielle sous Linux permettant de créer une interface réseau virtuelle regroupant plusieurs cartes : On appelle cela, le Channel Bonding [4]. Ce procédé est normalisé, vous pourrez donc l'utiliser en point à point mais aussi en interface avec des switchs et mêmes des hubs selon le type d'algorithme sélectionné. En considérant le prix modeste de certaines cartes réseaux, il parait incontournable d'utiliser massivement cet artifice Le RAID logiciel sous Linux (driver MD) supporte depuis peu un nouveau mode dit Multipath [3] qui s'utilise dans le cas ou vous disposez de deux liens physiques qui pointent vers une seule et même ressource. Un seul des deux liens sera effectivement utilisé et, en cas de panne, c'est le second qui prendra la relève. Cela peut être très utile si vous disposez d'une baie de stockage externe en SCSI ou en Fibre Channel disposant de deux interface d'entrées/sorties. Il vous faudra prévoir deux contrôleurs dans votre serveur mais cela reste la solution idéale pour sécuriser vos écritures disque si votre baie de disque supporte cette fonctionnalité Multipliez les serveurs peut être, au même titre que la multiplication des composants, un bon moyen de garantir la disponibilité d'un service : Si le service est rendu par l'intermédiaire d'un cluster de machines, on pourra alors survivre à la perte de N-1 noeuds.

7 Heartbeat FailSafe Fake Heartbeat [5] est un maillon essentiel dans la construction d'un cluster avec basculement de services (de type Failover Services). Les services sont démarrés généralement sur un seul noeud du cluster, appelé communément le noeud principal : En cas de détection d'une panne, les services sont alors basculés sur le noeud de secours. Pour garantir la continuité apparente du service coté utilisateur, on utilise le principe des alias IP pour associer une adresse IP virtuelle à la machine qui héberge le service (Heartbeat utilise le programme Fake qui s'occupe de plus de mettre à jour les tables ARP). Les deux machines du cluster communiquent entre elles par l'intermédiaire de liaisons Ethernet et de liaisons séries dédiées pour obtenir toutes les informations utiles sur l'état du cluster et décider éventuellement de déplacer un service d'un noeud vers un autre On peut choisir d'équilibrer la charge en démarrant une partie des services sur le noeud principal et une seconde partie sur le noeud secondaire : Heartbeat sait parfaitement gérer ce type de configuration. La principale difficulté consiste à disposer des données utilisées par les services indifféremment sur l'un ou l'autre des noeuds du cluster : Pour cela, il est possible de répliquer les données entre les noeuds ou partager ces dernières à partir d'une source commune partagée. La mécanique de surveillance de Heartbeat ne détecte que les pannes matérielles ou résultant d'un blocage du système d'exploitation. Il est alors nécessaire d'utiliser un logiciel dédié (Mon) pour réaliser la surveillance applicative des services. FailSafe [7] est une contribution de SGI qui nous permet de disposer d'un outil similaire à Heartbeat pour basculer des services entre plusieurs noeuds d'un cluster. L'approche est un petit peu différente avec une notion de plugins plus construite que sous Heartbeat et avec le support d'un plus grand nombre de noeuds (jusqu'à 16). L'application est architecturée pour fonctionner avec des données partagées mais rien ne vous empêche de l'utiliser sur de la réplication de données (un plugin pour DRBD est disponible). Moins connu que Heartbeat mais nettement plus puissant, ce programme mérite clairement qu'on lui donne sa chance Fake [6] permet de prendre l'identité d'un service présent dans un cluster en démarrant une adresse IP virtuelle (alias IP) et en s'occupant de mettre à jour les caches ARP des machines connectées pour qu'ils tiennent compte du basculement. Heartbeat intègre ce logiciel en standard

8 STONITH Derrière cet acronyme barbare se cache une fonctionnalité indispensable lorsque l'on souhaite mettre un oeuvre un cluster basé sur le basculement de services : Dans cette configuration, si un noeud est considéré comme indisponible, on est toujours confronté au risque de lancer le même service en concurrence sur plusieurs noeuds si la communication (lien Ethernet et lien série) à l'intérieur du cluster est rompue (il donc possible que les noeuds se posent la même question au même moment). Pour garantir l'intégrité des données, une solution toute simple a été trouvée qui permet de définitivement clarifier la situation : Tuer le noeud voisin. Cette approche donne finalement de très bon résultats si l'on considère que l'on coupe l'alimentation électrique de ce dernier en utilisant un équipement appelé Power Switches (intraduisible en Français). Ce sera donc au noeud le plus rapide de gagner (à moins que le noeud voisin ne soit réellement indisponible). La communication avec ce dernier se fait généralement par une connexion série et de nombreux modèles sont supportés par les solutions clusters disponibles sous Linux (par exemple Heartbeat pour ne citer que celui là). Que signifie STONITH en fait? Tout simplement, «Shoot The Other Node In The Head»! LVS Keepalived A la différence des solutions basées sur Heartbeat ou FailSafe, toutes les machines présentes dans un cluster LVS [8] (Linux Virtuel Server) sont capables de fournir le même service et accèdent donc toutes aux mêmes données partagées. Un noeud chef d'orchestre (dispatcher) s'occupe de répartir de façon transparente les requêtes réseau en équilibrant la charge sur l'ensemble du cluster. Coté client, ce mécanisme est transparent car seule l'adresse IP du chef d'orchestre est visible. Plusieurs avantages découlent de cette architecture : En cas de panne d'un des noeuds du cluster, on retire ce dernier de la liste des noeuds actifs ; Augmenter la puissance de traitement consiste simplement à ajouter à chaud un nouveau noeud dans le cluster. Il est habituel de placer le noeud chef d'orchestre au sein d'un cluster basé sur du basculement de services (Heartbeat ou FailSafe) pour éliminer son caractère critique. Le routage se fait par l'intermédiaire d'un module noyau, la performance est donc au rendez-vous Si vous utilisez LVS, vous avez sans doute besoin d'une solution efficace et robuste pour surveiller la santé de votre cluster et supprimer automatiquement les noeuds en panne ou déconnectés du réseau : Keepalived [9] est donc fait pour vous! La disponibilité d'un service est indissociable de la disponibilité des données. Dans la constitution de votre architecture HA, parvenir à garantir l'intégrité de vos données est l'un des paliers parmi les plus importants à franchir.

9 Les données sont sécurisées en multipliant les disques durs (RAID) ou par réplication sur un second serveur. De même, la notion de réplication est soit transparente pour l'application (on réplique une partition ou un répertoire), soit intégrée dans une application comme c'est le cas de certaines bases de données. Des systèmes de fichiers spécifiques offrent aussi des fonctionnalités de tolérance aux pannes intéressantes : On parle alors de systèmes de fichiers distribués ou partagés. Reste la solution ultime du clustering HA : L'utilisation d'une baie de disques partagée qui va permettre de centraliser les données sur un support unique accessible en concurrence ou non (selon le type de la solution) par l'un ou l'autre des noeuds. Utilisation du RAID Utilisation d'un gestionnaire de volume DRBD ENBD Le RAID est un mécanisme permettant d'agréger virtuellement plusieurs ressources de types blocs (dans notre cas, des disques durs) pour offrir à l'utilisateur une vision unifiée du stockage de ses données. De nombreux algorithmes sont disponibles pour sécuriser les données et améliorer les performances : Dans ce cas, la perte d'un disque sera transparente pour l'utilisateur et n'affectera pas l'intégrité des données. Il est classique d'utiliser un RAID de niveau 1 (miroir) pour sécuriser le système d'exploitation et un RAID de niveau 5 pour les données Lorsque vous installez votre système d'exploitation, il est possible que vous n'ayez pas encore d'idée précise de la volumétrie dont auront besoin vos partitions systèmes et vos données. Une mauvaise estimation sur la taille d'une partition pourra avoir des conséquences importantes. Il est pour cela fortement conseillé d'utiliser un gestionnaire de volume comme LVM [10] (Logical Volume Manager) ou EVMS [11] (Enterprise Volume Management System) pour manipuler vos données : Il sera par exemple possible d'augmenter la taille de certaines partitions à chaud (sans arrêt de votre applicatif) ou encore de rajouter un nouveau disque pour étendre le volume de données disponibles. En conjonction avec le RAID, cela permet d'obtenir une solution de gestion de données performante et évolutive DRBD est un outil de réplication réseau de données localisées sur deux serveurs distincts. La synchronisation peut se faire de façon partielle (après une déconnexion réseau par exemple) ou complète (dans le cadre d'un changement de média ou d'une première utilisation). DRBD ne gère pas directement les mécanismes de détection des pannes et de basculement des services pour une utilisation dans un cluster : Il fournit toutefois des scripts qui lui permettent d'être intégré assez facilement à Heartbeat. L'utilisation d'une telle couche de réplication (livré sous la forme d'un driver) est absolument transparente pour les applications ENBD [12] est une version améliorée du driver NBD (Network Block Device) que l'on trouve habituellement sous Linux. Ce driver nous permet de disposer en local d'une ressource présente sur un serveur distant ; Les échanges de données se faisant par l'intermédiaire du réseau. L'accès aux données est ensuite absolument transparente pour le système et les applications. Cela a donné l'idée à certains d'utiliser cette technique conjointement avec celle du RAID 1 (miroir) pour la réplication de données entre deux serveurs comme c'est le cas avec le driver DRBD

10 SafeKit NFS Baie de stockage partagée OpenGFS Ce produit de la société Evidian (Groupe BULL) offre un large panel de solutions clefs en main pour répliquer des données, équilibrer la charge et basculer des services dans des clusters Linux. SafeKit [13] fonctionne, au moins sur la partie réplication, sur un principe équivalent à DRBD. L'ensemble est cohérent et semble plutôt prometteur (non testé) ; C'est pour cette raison qu'il apparaît dans cette liste (pour ne rien gâcher, le produit est multi-plateformes) NFS est un système de fichiers distribués, bâtit sur un modèle client/serveur, permettant de partager des données entre plusieurs machines. Dans le cadre d'un cluster, on peut envisager une configuration où chaque noeud récupère ses données sur un serveur NFS ce qui simplifie les problématiques de réplication de données entre les noeuds. Par contre, le problème est déporté sur le serveur NFS qui doit être lui même sécurisé... Plutôt que de chercher à répliquer les données entre tous les noeuds d'un cluster, une solution idéale consiste à utiliser une baie de disques partagée pour stocker les données. Afin d'éviter les accès concurrents, seul un noeud du cluster à la possibilité de monter les données présentes sur la baie. En cas de panne, le noeud de secours réagit en récupérant la ressource et en redémarrant les services (adresse IP inclus). Le matériel nécessaire pour monter une architecture de ce type est assez spécifique : La baie de disques (de type Fibre Channel ou SCSI), les contrôleurs d'entrée/sortie et les câbles devront supporter cette fonctionnalité Le Global File System (GFS) [14] réalisé par la société SISTINA (auteurs de LVM) est un système de fichiers journalisé qui permet de manipuler sans risque des données présentes sur un support de stockage partagé par plusieurs machines. Sa caractéristique principale est de laisser les systèmes lire et écrire directement les données : Celles-ci ne passent pas par le réseau (ce qui permet un gain important au niveau des performances par rapport à un protocole comme NFS), seul transite un flux protocolaire permettant de verrouiller les accès et d'éviter les conflits. GFS coordonne en effet les accès en écriture à travers un gestionnaire de verrous distribués (DLM pour Distributed Lock Manager) qui permet de garantir l'intégrité des données. GFS supporte les baies de disques SCSI ou Fibre Channel ainsi que les protocoles iscsi et Firewire. On peut aussi l'utiliser au dessus du gestionnaire de volume EVMS. OpenGFS [15] est une implémentation libre en constante évolution de ce système de fichiers (les deux proviennent de la même souche)

11 InterMezzo CodaFS RSYNC Réplication de base de données InterMezzo [16] est un système de fichiers distribué permettant de propager des modifications apportées à des données entre plusieurs machines. Sa principale caractéristique, par rapport à ses confrères, est de supporter parfaitement la phase de déconnexion : Vous pouvez continuer, dans ce cas, à travailler sur une copie locale des fichiers. Lors de la re-connexion, vos données seront mises à jour automatiquement (phase de synchronisation). Initialement, on l'utilise plutôt sur de l'informatique mobile comme un parc de portable ; On peut alors éviter de fastidieuses mises à jour de données avec un serveur de fichiers. Même si le logiciel est jeune et reste assez rugueux à mettre en oeuvre, il devient possible d'envisager son utilisation au sein d'un cluster HA pour répliquer des données entre deux ou plusieurs noeuds On pourrait dire que CodaFS [17] est l'ancêtre de InterMezzo car ce dernier est fait par quasiment la même équipe. Il offre donc les mêmes fonctionnalités tout est étant plus stable et plus aboutit au niveau technique RSYNC est un petit programme assez sympathique qui peut nous permettre de synchroniser à la demande deux répertoires localisés sur deux machines distantes. Le protocole utilise soit la couche RPC, soit la couche SSH pour transporter les données. Ces dernières peuvent être compressées et seules les données réellement modifiées sont échangées. C'est une brique élémentaire indispensable lorsque l'on souhaite répliquer des données qui évoluent peu, ce qui est le cas d'un serveur web statique Les bases de données relationnelles fonctionnent sur un modèle transactionnel : La tentation est donc forte de vouloir placer au niveau de la base de données la notion même de réplication en considérant très justement qu'un tel mécanisme sera forcément plus efficace qu'une réplication de type DRBD. C'est le moyen idéal pour répliquer des données entre deux serveurs dans le cadre d'un cluster avec basculement de services (Heartbeat) lorsque ce dernier est constitué d'un service rendu par l'intermédiaire d'une base de données Il ne faut pas hésiter à l'utiliser si cela est supporté par votre base de données : MySQL [18] et PostgreSQL [19], en particulier, supportent parfaitement cette fonctionnalité Redonder les composants matériels de votre architecture permettra certainement au système d'exploitation de réagir correctement en cas de panne mais nécessitera à terme une intervention manuelle corrective : Plus vous attendez avant de remplacer un composant en panne, plus le risque est important d'en voir un second suivre le même chemin. L'arrêt de service doit être évité au maximum : Une architecture cluster vous permet d'arrêter uniquement le noeud hébergeant un élément défectueux ; Une approche moins brutale consiste à changer à chaud le composant en panne (aucun arrêt de la machine) si ce dernier supporte la fonctionnalité sous Linux.

12 Une panne peut aussi affecter l'ensemble de votre architecture imposant un arrêt brutal qui peut laisser votre système de fichier dans un état instable. Ce dernier doit donc pouvoir être vérifié au redémarrage de la machine en un temps raisonnable. Toutes ces techniques sont regroupées dans la notion de reprise sur panne : Système de fichiers journalisé Chargement à chaud des périphériques Changement à chaud des composants matériels En cas d'arrêt violent d'un serveur, rien ne peut garantir l'intégrité des systèmes de fichiers si l'on considère les mécanismes de cache mémoire mis en place pour accélérer les entrées/sorties. Linux a été longtemps pénalisé par l'absence de solutions adaptées : Tout arrêt anormal résultait en une vérification minutieuse de la surface du disque pour localiser et réparer les erreurs de cohérence dans les systèmes de fichiers (le fameux fsck). Depuis environ 2 ans, des systèmes de fichiers dit journalisés se sont mis à fleurir sous Linux : Ext3, Reiserfs, Xfs ou encore JFS. Ces systèmes de fichiers mémorisent dans un journal de bord tous les évènements et sont donc capables, en cas de problèmes, de ne vérifier que les derniers échanges en cours sur le disque. Le redémarrage d'un serveur qui utilise un système de fichiers journalisé est donc quasiment immédiat : Cette brique élémentaire est donc indispensable Si vous utilisez une solution RAID, il est dommage de devoir arrêter votre système juste pour changer un disque dur en panne (changement à froid). Pour vous éviter cette étape inutile, certains constructeurs de cartes RAID vous permettent de changer vos disques durs à chaud (indispensable dans la pratique). Dans le cas du RAID logiciel, la situation est plus compliquée car vous devez d'abord enlever le périphérique du système d'exploitation avant de pouvoir le remplacer physiquement par un nouveau disque. La situation est différente suivant le type du contrôleur : Le SCSI permet assez facilement ce type de manipulation en jouant sur un fichier virtuel présent sous /proc ; Le cas de l'ide est plus complexe mais peut en certaines circonstances être envisagé. Attention, cela doit être supporté par votre matériel! Ne jouez donc pas aux apprentis sorciers avec vos périphériques (les manipulations sont décrites dans l'article sur le RAID logiciel) Le regroupement PCIMG (PCI Industrial Manufacturers Group) a élaboré tout un ensemble de normes et de recommandations pour faciliter la maintenance des composants au format CompactPCI : Ceux ci peuvent être remplacés à chaud dans un serveur du moment que toute la chaîne logicielle et matérielle supporte la fonctionnalité. Vous pouvez consulter le site officiel [20] du support CompactPCI sous Linux (PCIMGR standard 2.12) pour obtenir plus d'informations A force de chercher à corriger les dysfonctionnements matériels, vous pourriez facilement oublier le logiciel qui est un des aspects les plus imprévisibles de votre architecture. Aucun code n'est exempte de bogues et rien ne peut garantir que le système d'exploitation ne va pas vous trahir, ou que vos applications ne vont pas imploser. Il est donc nécessaire de surveiller la bonne marche du logiciel, quitte à le relancer automatiquement en cas de nécessité :

13 Mon Scriptage maison Utilisation d'un chien de garde Mon [21] est un outil de surveillance applicative qui va vous permettre de surveiller l'état de vos ressources logicielles et de déclencher des actions paramétrables. C'est un composant essentiel pour déclencher un basculement dans le cadre d'un cluster avec migration de services (Heartbeat) si l'application ne tourne plus sur le noeud actif Un script taillé à la mesure de vos applications est peut être la solution idéale qui vous permettra de surveiller la bonne marche de vos services et de relancer ceux-ci automatiquement en cas de problème ou de provoquer un basculement dans un cluster. La réalisation d'un tel script peut prendre une petite heure à une personne expérimentée Linux a la réputation d'être un système stable et robuste : Mais comme tout logiciel, celui-ci n'est pas exempte de bogues. La tentation est souvent forte pour les éditeurs d'intégrer dans leurs distributions une version récente du noyau au détriment d'une version plus ancienne, moins performante, mais plus éprouvée. Généralement, cela se traduit par un blocage général du système entraînant à coup sûr un redémarrage. Une carte de type WATCHDOG permet de provoquer automatiquement une telle relance (reset matériel) du moment que le système d'exploitation cesse de la stimuler. Cela assure le redémarrage de l'applicatif lorsque l'arrêt n'a pas été causé par une défaillance matérielle permanente. Cette solution n'est à utiliser que dans les cas extrêmes car une mise à jour du noyau est à envisager en cas de répétition du problème Les phases d'administration et d'exploitation d'un système en Haute Disponibilité ne se comparent pas avec celles des autres serveurs moins critiques. Il faut notamment parvenir à détecter une panne le plus rapidement possible pour pouvoir rétablir le service sous les meilleurs délais : Surveiller l'état du système Redémarrage à distance du serveur Dimensionner correctement le serveur Suivre l'évolution de la température ou vérifier la bonne marche des ventilateurs font partie du travail à accomplir dans le cadre de la surveillance d'un système critique : Le projet lm_sensors [22] vous permettra de disposer de ces informations. Ce projet supporte une large gamme de chipset, il y a de bonnes chances qui vous puissiez y trouver votre bonheur Votre système est arrêté et vous ne voulez pas perdre un temps précieux à descendre en salle machine pour redémarrer manuellement le serveur. Pas d'inquiétude, si votre système est de type ATX et moyennant une configuration adéquate dans le BIOS, vous pourrez démarrer à distance votre serveur en envoyant une simple requête UDP sur l'adresse MAC de votre serveur. La technique s'appelle le "Wake On Lan" [23] (le réveil par le réseau) De nombreuses pannes ou dysfonctionnements ont pour origine une installation bâclée ou une sous-évaluation de la charge que devra tenir le serveur. Veillez donc à disposer d'une partition de swap adaptée, d'une volumétrie disque évolutive et d'une puissance CPU convenable. Il est aussi inutile de lancer un serveur X sur votre système : Cela consomme du CPU et le driver pourrait être à l'origine de fuites mémoire qui dégraderaient progressivement les performances (c'est du vécu)

14 Démarrage dès la mise sous tension Accès distant Remontée des évènements Imaginons que suite à une panne de courant, votre système soit de nouveau alimenté. Il pourrait être souhaitable de ne pas à avoir à redémarrer manuellement le serveur (pour gagner du temps) : Certains BIOS autorise ce type de configuration à utiliser néanmoins avec précaution (il faut éviter les redémarrages en boucle) Même si cela parait être une chose évidente pour un utilisateur habitué aux systèmes Unix et Linux, disposer d'un accès distant sur le serveur vous permettra de gagner en temps et en réactivité. N'oubliez donc pas d'activer un serveur telnet ou ssh et (re)découvrez le plaisir des commandes shell peu consommatrices en bande passante réseau Si vous utilisez des briques logicielles aussi diverses que le Channel Bonding ou le RAID logiciel, vous devez mettre en place des moyens pour remonter les évènements (perte d'une carte, perte d'un disque) vers un exploitant (par un généralement). N'hésitez donc pas dans ce cas à user et abuser de scripts shell qui feront ce travail à votre place. Surveiller le pourcentage de saturation des partitions systèmes peut aussi donner une indication précieuse sur un dysfonctionnement à venir (surtout si c'est la partition /var qui est pleine...) Exemples d'architectures Cluster basé sur la réplication de données Ce type de cluster connaît plusieurs variantes suite aux nombreuses briques logicielles ou matérielles misent à notre disposition. Nous avons choisi d'utiliser DRBD pour répliquer les données entre les noeuds, MON pour surveiller l'état de nos services et du système, le Channel Bonding pour sécuriser les composants réseaux et améliorer en particulier les performances entre les noeuds (la vitesse de réplication dépend directement de la performance du réseau), une carte RAID pour fiabiliser les données et héberger le système d'exploitation, un onduleur (UPS) couplé à NUT pour sécuriser l'alimentation électrique et enfin Heartbeat pour lancer et basculer les services. Un petit schéma peut vous aider à appréhender la configuration nécessaire :

15 Cluster basé sur le partage des données La difficulté principale consiste à réunir au sein d'une même configuration tous les composants matériels nécessaires pour autoriser le partage d'une ressource par plusieurs machines. Ce n'est pas une étape triviale à mener et il s'agit de ne pas se tromper dans le choix des composants. Il nous faut d'abord trouver une baie de disques externe qui supporte l'accès simultané de tous les noeuds de notre cluster. Il est conseillé de choisir une baie de type RAID permettant de garantir la disponibilité des données à la différence d'une baie standard moins cher : On utilise justement le terme JBOD (Just a Bunch Of Disks) pour désigner une baie de disque qui n'intègre pas de contrôleur RAID interne ; La Haute Disponibilité des données n'est donc pas garantie dans ce cas. On peut toutefois utiliser du RAID logiciel (RAID 1 ou RAID 5) pour sécuriser les données (activé sur un noeud à la fois). Voici une liste non exhaustive extraite du manuel d'utilisation de la distribution RedHat Enterprise Server [24] : Les baies de disques RAID FlashDisk de la société Winchester Systems ; Les systèmes de stockage SANnet de la société Dot Hill ; Les baies de disques RAID Silicon Image. Il nous faut ensuite sélectionner un contrôleur SCSI ou Fibre Channel pour connecter notre baie aux machines présentes dans le cluster : Le choix d'une interface de type SCSI vous permettra de partager une ressource entre deux et quatre noeuds alors que le Fibre Channel pourra en supporter beaucoup plus. Le choix final va donc dépendre du type de configuration que vous souhaitez mettre en oeuvre. Voici une liste de contrôleur qui sont supportés dans ce type de configuration : Contrôleurs SCSI Adaptec 2940U2W, 29160, 29160LP, et 3950U2 (ainsi que le contrôleur AIC-7896 présent sur la carte mère Intel L440GX+)

16 QLOGIC LSI Logic TEKRAM Contrôleurs Fibre Channel QLOGIC QLA1080 et QLA12160 SYM22915 Ultra2 DC-390U2W QLA2200 Le logiciel que nous allons ensuite utiliser pour gérer le cluster doit pouvoir nous garantir l'unicité du service si les connexions dédiées (Ethernet et liaison série) entre les noeuds du cluster sont rompues. Dans ce cas précis, personne ne sait dans quel état se trouve le voisin et le logiciel est donc dans l'incapacité de prendre une décision (choix d'un basculement de services). On dit alors que le cluster est en «site partition» : Une situation qui ne doit pas arriver. Une première solution consiste à dialoguer par l'intermédiaire d'une partition quorum dédiée sur la baie de disques pour échanger des informations et réserver des disques ou des partitions : C'est la solution technique la plus souvent implémentée sous Linux de par son indépendance au niveau du matériel ; Une seconde approche (dans un cluster de 2 noeuds) consiste à poser un verrou (commande SCSI RESERVE) sur le disque ou sur la partition que l'on souhaite réserver. Si le noeud de secours ne sait pas dans quel état se trouve son voisin, il va chercher à libérer la ressource par la commande SCSI RELEASE. Si le noeud principal du cluster repose immédiatement le verrou, c'est indubitablement qu'il est en vie. A ma connaissance, cette technique n'est pas implémentée sous Linux ; Une dernière approche met à contribution des équipements Power Switches pour essayer de "tuer" (au niveau électrique) le noeud voisin avant de récupérer ses services : On est alors certain de ne pas entrer en conflit avec un noeud avec lequel on ne parvient plus à communiquer. C'est une méthode simple mais particulièrement efficace. Seules la première et la troisième approche sont, à ma connaissance, implémentées sous Linux (il doit en exister d'autres, ce n'est sans doute pas exhaustif). Les clients ne discutent pas directement avec les adresses IP des machines du cluster mais uniquement avec des adresses IP flottantes qui permettent d'abstraire complètement la localisation des services dans le cluster. Il est possible, en combinant des composants logiciels et matériels que nous vous avons présentés tout au long de cet article, de réaliser ce type de cluster (le coeur principal étant constitué de Heartbeat ou bien de FailSafe). Il peut être prudent de considérer des logiciels clefs en main qui garantissent le résultat et qui vous permettront de gagner du temps : Convolo Cluster Dataguard Edition [25] : La société Mission Critical Linux est un précurseur dans la construction de clusters Linux HA car elle est constituée en partie d'ingénieurs ayant fait leurs armes chez DIGITAL (les premiers clusters HA ont été basés sur VMS, un système d'exploitation maison). Ce produit est donc le résultat de leurs expertises et offre toute les garanties suffisantes pour la Haute Disponibilité (interface graphique incluse) avec une limitation néanmoins à deux noeuds ; Cluster Kimberlite [26] : Ce logiciel est le petit frère du précédent car il a été placé sous une

17 licence libre par la même société. Le fonctionnel est le même mais vous ne disposerez alors d'aucun support ou conseil en dehors de celui de la communauté. Si vous vous sentez suffisamment sûr de vous techniquement ou si vos finances vous l'impose, vous pouvez considérer positivement l'installation et l'utilisation de ce logiciel ; Red Hat Cluster Manager [27] : Ce produit offre sensiblement les mêmes fonctionnalités que les précédents mais il est proposé par une pointure du monde Linux, ce qui en fait toute son originalité. Son intégration au coeur même du système d'exploitation du même nom en est forcément facilité ce qui pourrait emporter l'adhésion (il supporte de plus un nombre plus important de noeuds) ; HP Serviceguard [28] : A la différence des HA-CMP et autres TruCluster, HP a sauté le pas et propose sur ses serveurs Linux sa solution de clustering proposée auparavant uniquement sur HP-UX. Le produit bénéficie donc de l'expérience et du sérieux d'un grand constructeur Unix. Bien que d'un niveau technique largement suffisant pour des besoins standards, la solution précédente est pourtant handicapée par la notion même de partage des données qu'elle impose : La réservation est forcément exclusive et implique de verrouiller les accès au niveau du disque ou de la partition pour un seul noeud. Il est pourtant possible de descendre à un niveau beaucoup plus fin en considérant l'utilisation d'un système de fichiers distribué comme GFS ou OpenGFS. Par son intermédiaire et son arbitrage, chaque noeud pourra accéder aux mêmes données (pas forcément au même moment) et réduire d'autant les risques de corruption des données. Cluster en équilibrage de charge Un type de cluster est constitué d'une multitude de serveurs qui hébergent tous le même service ainsi qu'un noeud principal (appelé chef d'orchestre) qui reçoit les demandes des clients et les redistribue en équilibrant la charge. Cette architecture constitue de fait un cluster en Haute

18 Disponibilité puisque la perte d'un noeud ne met pas en péril l'intégrité du service (on peut ajouter ou soustraire un noeud à chaud). Les serveurs sont tous connectés sur un réseau et partagent habituellement, selon le type du service (FTP, HTTP, DNS,...), les mêmes données. L'architecture est transparent pour le client final qui ne discute jamais qu'avec une seule machine (le chef d'orchestre) qui peut elle même être sécurisée dans un second cluster. Grâce à Linux et aux logiciels libres, on peut mettre en place un cluster de ce type en utilisant LVS comme logiciel de clustering, Keepalived pour gérer la surveillance des noeuds, Heartbeat pour sécuriser le noeud principal, Mon pour surveiller l'état des services et un système de fichiers distribué comme CodaFS pour partager les données. Des solutions clefs en main existent qui permettent de mettre en place rapidement ce type de solution (la liste est sans doute plus longue mais cela vous donnera un bon aperçu) : Ultramonkey [29] : Cette solution est basée exclusivement sur l'assemblage de composants libres. Une référence en la matière ; Piranha [30] : Proposé par le leader historique des solutions à base de composants Linux, ce produit offre l'avantage d'être bien intégré dans l'offre commerciale de Redhat. Au même titre que son équivalent basé sur le partage de données et le basculement de services, celui-ci offre un gage sérieux de crédibilité ; Alinka raisin [31] : C'est fois-ci c'est au tour de la société Française Alinka de nous présenter un produit architecturé autour de LVS. Après avoir réalisé un cluster dans le domaine du calcul scientifique, ils ont utilisé leur expérience pour réaliser l'équivalent dans le domaine de la Haute Disponibilité et de l'équilibrage de charge ; En conclusion La Haute Disponibilité s'installe de plus en plus dans notre vie quotidienne ; Il est donc indispensable d'en maîtriser les principes. Nous espérons que cet article a vaincu vos dernières réticences (si nécessaire) et vous a donné envie d'aller voir plus loin dans ce domaine qui n'est finalement pas si compliqué que ça. Linux se révèle, comme à son habitude, un système d'exploitation complet doté d'une force d'adaptation peu commune. L'ombre du logiciel libre n'est pas très loin derrière et prouve que son modèle fonctionne parfaitement, notamment par le grand nombre de solutions commerciales qui cohabitent ou reposent sur des solutions libres. Si le domaine vous intéresse, vous pouvez poursuivre votre lecture par un article très intéressant parut dans le Linux Journal [32] sur le thème de la Haute Disponibilité. L'article date un peu (2000) mais les concepts et principes présentés n'ont pas vieillis. La société française Alcove [33] a fait paraître un livre blanc sur la Haute Disponibilité sous Linux. Même si le document mériterait une mise à jour, il reste encore un des rares documents paru en France traitant de la Haute Disponibilité. Lionel Tricon Références [1] Haute Disponibilité sous Linux : [2] Network UPS Tools (NUT) :

19 [3] RAID : et [4] Channel Bonding : [5] Heartbeat : [6] Fake : [7] FailSafe : [8] LVS : [9] Keepalived : [10] LVM : [11] EVMS : [12] DRBD : [13] SafeKit : [14] GFS : [15] OpenGFS : [16] InterMezzo : [17] CodaFS : [18] MySQL : [19] PostgreSQL : [20] PCIMG Hot-Swap site : [21] Mon : [22] lm_sensors : [23] Wake On Lan : [24] Liste de matériels supportés : 2.1-Manual/cluster-manager/ch-hardware.html [25] Convolo Cluster Dataguard Edition : [26] Cluster Kimberlite : [27] Red Hat Cluster Manager : [28] HP Serviceguard : [29] Ultramonkey : [30] Piranha : [31] Alinka raisin : [32] High Availability Cluster Checklist : [33] Livre blanc Alcove sur la Haute Disponibilité :

Livre blanc Haute disponibilité sous Linux

Livre blanc Haute disponibilité sous Linux Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet

Plus en détail

La continuité de service

La continuité de service La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici

Plus en détail

Introduction : Caractéristiques du RAID : La redondance et la parité : Les différents types de systèmes RAID :

Introduction : Caractéristiques du RAID : La redondance et la parité : Les différents types de systèmes RAID : Introduction : La technologie RAID (regroupement redondant de disques indépendants) permet de constituer une unité de stockage à partir de plusieurs disques durs. Cette unitée,appelée grappe, a une tolérance

Plus en détail

Solution Haute Disponibilité pour Linux

Solution Haute Disponibilité pour Linux Solution Haute Disponibilité pour Linux Nicolas Schmitz Ecole Centrale de Nantes Nicolas.Schmitz@ec-nantes.fr Introduction La haute disponibilité c'est notamment : Doubler au maximum le matériel Mettre

Plus en détail

Qu est ce que le RAID?

Qu est ce que le RAID? LES SYSTEMES RAID PLAN Introduction : Qu est ce que le RAID? Quels sont les différents niveaux de RAID? Comment installer une solution RAID? Conclusion : Quelle solution RAID doit-on choisir? Qu est ce

Plus en détail

LIVRE BLANC Accès ininterrompu à des

LIVRE BLANC Accès ininterrompu à des LIVRE BLANC LIVRE BLANC Accès ininterrompu à des volumes de cluster partagés à mise en miroir synchrone sur des sites métropolitains actifs La prise en charge des clusters de basculement sous Windows Server

Plus en détail

Les éléments «sensibles» d'un réseau sont par ordre d'importance:

Les éléments «sensibles» d'un réseau sont par ordre d'importance: LA CONTINUITÉ DE SERVICE INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Les

Plus en détail

WebSphere MQ & Haute Disponibilité

WebSphere MQ & Haute Disponibilité L objectif de cet article est d identifier les problèmes pouvant se poser lors de la mise en place d un système de secours dans une configuration WebSphere MQ, et de proposer des pistes pour régler ces

Plus en détail

Service WEB, BDD MySQL, PHP et réplication Heartbeat. Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox

Service WEB, BDD MySQL, PHP et réplication Heartbeat. Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox Version utilisée pour la Debian : 7.7 Conditions requises : Dans ce TP, il est nécessaire d'avoir une machine Debian sous ProxMox Caractéristiques de bases : Un service web (ou service de la toile) est

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Journées. MARSEILLE 3 & 4 Avril 2006

Journées. MARSEILLE 3 & 4 Avril 2006 Journées MARSEILLE 3 & 4 Avril 2006 Agenda Les architectures de Stockages SAN NAS : une Anagramme? SAN : Détails NAS : Détails Présentation de l offre «NetApp» Q & R Les Architectures de Stockage DAS Centralisées

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDTM Table des matières 1. Objet du projet... 3 2.

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Institut National de la Recherche Agronomique. Établissement Public à caractère Scientifique et Technologique

Institut National de la Recherche Agronomique. Établissement Public à caractère Scientifique et Technologique Institut National de la Recherche Agronomique Établissement Public à caractère Scientifique et Technologique Cahier des charges Fourniture d'équipements informatiques de stockage de grande capacité et

Plus en détail

La haute disponibilité de la CHAINE DE

La haute disponibilité de la CHAINE DE Pare-feu, proxy, antivirus, authentification LDAP & Radius, contrôle d'accès des portails applicatifs La haute disponibilité de la CHAINE DE SECURITE APPLICATIVE 1.1 La chaîne de sécurité applicative est

Plus en détail

Architecture d'un serveur

Architecture d'un serveur Architecture d'un serveur I Définitions Un service (ou deamon sous Linux) est un programme qui fonctionne en tâche de fond sans avoir été lancé par un utilisateur connecté. On parle d'un serveur, suivi

Plus en détail

Linux Solutions de Haute Disponibilité (2ième édition)

Linux Solutions de Haute Disponibilité (2ième édition) Introduction 1. Introduction 19 2. Remerciements 22 Disponibilité du stockage 1. Introduction au SAN 23 1.1 Mutualiser le stockage 23 1.2 Avantages 24 1.3 Protocoles 25 1.4 Infrastructure 26 1.5 Accès

Plus en détail

Logiciel simple pour un Plan de Continuité d'activité et un Plan de Reprise d'activité PCA PRA pdf ppt

Logiciel simple pour un Plan de Continuité d'activité et un Plan de Reprise d'activité PCA PRA pdf ppt Pour la version enregistrée de ce webinaire, aller à http://www.evidian.com/fr/produits/haute-disponibilite-logiciel-clustering-application/plan-de-continuite-d-activite-plan-de-reprise-d-activite-pca-pra-pdf-ppt/

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

Déploiement et gestion d ordinateurs avec un outil centralisé (Ghost Serveur 7.5)

Déploiement et gestion d ordinateurs avec un outil centralisé (Ghost Serveur 7.5) Déploiement et gestion d ordinateurs avec un outil centralisé (Ghost Serveur 7.5) QU EST CE Q UN SYSTEME D ADMINISTRATION ET DE DEPLOIEMENT?... 1 1. INSTALLATION SUR LE SERVEUR :... 4 2. PREPARATION DE

Plus en détail

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données La meilleure protection pour les données vitales de votre entreprise Autrefois, protéger ses données de manière optimale coûtait

Plus en détail

«clustering» et «load balancing» avec Zope et ZEO

«clustering» et «load balancing» avec Zope et ZEO IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4

Plus en détail

PLAN. Industrialisateur Open Source LANS DE SECOURS INFORMATIQUES PRINCIPES GENERAUX ETAT DE L ART SELON BV ASSOCIATES

PLAN. Industrialisateur Open Source LANS DE SECOURS INFORMATIQUES PRINCIPES GENERAUX ETAT DE L ART SELON BV ASSOCIATES PLAN LANS DE SECOURS INFORMATIQUES PRINCIPES GENERAUX & ETAT DE L ART SELON BV ASSOCIATES Copyright BV Associates 2013 IMEPSIA TM est une marque déposée par BV Associates Page 1 SOMMAIRE 1 PRINCIPES GENERAUX

Plus en détail

CA XOsoft. Suite logiciels. WANSync Solution de réplication des données en LAN ou WAN.

CA XOsoft. Suite logiciels. WANSync Solution de réplication des données en LAN ou WAN. Suite logiciels CA XOsoft WANSync Solution de réplication des données en LAN ou WAN. WANSyncHA Solution de haute disponibilité basée sur la répartition asynchrone en temps réel, le basculement sur incident

Plus en détail

HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES. Simple & Performant. www.quick software line.com

HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES. Simple & Performant. www.quick software line.com HAUTE DISPONIBILITE & CONTINUITÉ DE SERVICE MULTI PLATES FORMES Haute disponibilité pour Serveurs Ouverts (Windows, UNIX, AIX, Linux, VMware (Windows, UNIX, AIX, Linux, VMware ) Généralités Quelques définitions

Plus en détail

Veritas Storage Foundation par Symantec

Veritas Storage Foundation par Symantec Veritas Storage Foundation par Symantec Gestion en ligne de ressources de stockage hétérogènes Veritas Storage Foundation offre une solution complète pour la gestion en ligne de ressources de stockage

Plus en détail

GESTION CENTRALISÉE DELL POWERVAULT DL 2000 OPTIMISÉ PAR SYMANTEC

GESTION CENTRALISÉE DELL POWERVAULT DL 2000 OPTIMISÉ PAR SYMANTEC GESTION CENTRALISÉE DELL POWERVAULT DL 2000 OPTIMISÉ PAR SYMANTEC NOTE DE SYNTHESE La solution Dell PowerVault DL2000 optimisée par Symantec Backup Exec est la seule à proposer un système intégré de sauvegarde

Plus en détail

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 186 Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 L'utilisation des fonctionnalités de haute disponibilité intégrées aux applications, L'ajout de solutions tierces. 1.1 Windows Server

Plus en détail

Infrastructure Exemple

Infrastructure Exemple Infrastructure Exemple Table des matières 1. Serveurs...2 1.1 Serveurs physiques...2 1.2 Serveurs Virtuels...2 2. Services...3 2.1 Service mail...3 2.2 Service MySQL...3 2.3 Service Web...4 2.4 Cas particulier

Plus en détail

Niveau 1. Disque 1 Bande 1 Bande 4 Bande 7. Disque 3 Bande 3 Bande 6 Bande 9. Disque 2 Bande 2 Bande 5 Bande 8

Niveau 1. Disque 1 Bande 1 Bande 4 Bande 7. Disque 3 Bande 3 Bande 6 Bande 9. Disque 2 Bande 2 Bande 5 Bande 8 Présentation de la technologie RAID, un article de «Comment ça marche» La technologie RAID (acronyme de Redundant Array of Inexpensive Disks, parfois Redundant Array of Independent Disks, traduisez Ensemble

Plus en détail

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé Les technologies de virtualisation de serveurs séduisent les organisations car elles permettent de réduire le Coût Total de Possession

Plus en détail

Institut National de la Recherche Agronomique Cahier des charges

Institut National de la Recherche Agronomique Cahier des charges Institut National de la Recherche Agronomique Cahier des charges Fourniture d'équipements informatiques de stockage de grande capacité pour les Centres de Recherche de Paris & Nancy Objet de la consultation

Plus en détail

mai-2008 Infogérance des serveurs conçus par SIS alp 1

mai-2008 Infogérance des serveurs conçus par SIS alp 1 Infogérance des serveurs conçus par SIS alp SIS alp 1 Infogérance pour OpenERP solutions intégrées en abonnement mensuel OpenERP-Online OpenERP-Infogérance versions VDS et Dédié OpenERP-Serveur HaaS OpenERP-Continuité

Plus en détail

CA ARCserve D2D. Une récupération après sinistre ultra-rapide vous permet d'éviter une interruption de service. DOSSIER SOLUTION : CA ARCserve D2D r16

CA ARCserve D2D. Une récupération après sinistre ultra-rapide vous permet d'éviter une interruption de service. DOSSIER SOLUTION : CA ARCserve D2D r16 CA ARCserve D2D CA ARCserve D2D est un produit de récupération sur disque conçu pour offrir la combinaison idéale de protection et de récupération rapides, simples et fiables de vos données professionnelles.

Plus en détail

Plan de secours informatique à chaud, virtualisation, et autres recettes...

Plan de secours informatique à chaud, virtualisation, et autres recettes... Plan de secours informatique à chaud, virtualisation, et autres recettes... Groupe de travail OSSIR 12 mars 2007 http://bruno.kerouanton.net Contexte Vis-à-vis de l'activité de l'entreprise : Un plan de

Plus en détail

Le cluster à basculement

Le cluster à basculement Le cluster à basculement La technologie de cluster à basculement a une approche très différente de NLB. L objectif est de maintenir des ressources en ligne en permanence. Chaque ressource est instanciée

Plus en détail

Les systèmes RAID Architecture des ordinateurs

Les systèmes RAID Architecture des ordinateurs METAIS Cédric 2 ème année Informatique et réseaux Les systèmes RAID Architecture des ordinateurs Cédric METAIS ISMRa - 1 - LES DIFFERENTS SYSTEMES RAID SOMMAIRE INTRODUCTION I LES DIFFERENTS RAID I.1 Le

Plus en détail

Évaluation du système de stockage

Évaluation du système de stockage Évaluation du système de stockage Rapport préparé sous contrat avec EMC Corporation Introduction EMC Corporation a chargé Demartek de procéder à une évaluation pratique du nouveau système de stockage d

Plus en détail

Chapitre 3 Gestion des sauvegardes

Chapitre 3 Gestion des sauvegardes Chapitre 3 Gestion des sauvegardes 1. Notions préalables et terminologie Gestion des sauvegardes 1.1 Consistance, snapshots et VSS L'erreur la plus commune lorsque l'on parle de solutions de sauvegarde,

Plus en détail

Nouvelles stratégies et technologies de sauvegarde

Nouvelles stratégies et technologies de sauvegarde Nouvelles stratégies et technologies de sauvegarde Boris Valera Laurent Blain Plan Contexte Les nouveaux enjeux de la sauvegarde La sauvegarde des machines virtuelles La déduplication Les architectures

Plus en détail

Concours interne d ingénieur des systèmes d information et de communication. «Session 2010» Meilleure copie "étude de cas architecture et systèmes"

Concours interne d ingénieur des systèmes d information et de communication. «Session 2010» Meilleure copie étude de cas architecture et systèmes Concours interne d ingénieur des systèmes d information et de communication «Session 2010» Meilleure copie "étude de cas architecture et systèmes" Note obtenue : 14,75/20 HEBERGE-TOUT Le 25 mars 2010 A

Plus en détail

Installation du Serveur - Windows Server 2003

Installation du Serveur - Windows Server 2003 Installation du Serveur - Windows Server 2003 Nous allons commencer par l installation du serveur afin de remplir les conditions nécessaires et préparer celui-ci à l installation des services : Active

Plus en détail

Extrait de Plan de Continuation d'activité Octopuce

Extrait de Plan de Continuation d'activité Octopuce v. 2 décembre 2012 Extrait de Plan de Continuation d'activité Octopuce Introduction Octopuce est un hébergeur d'infrastructures web, opérateur Internet indépendant, et fournisseur d'infogérance pour ses

Plus en détail

LIVRE BLANC PRODUIT. Evidian SafeKit. Logiciel de haute disponibilité pour le clustering d application

LIVRE BLANC PRODUIT. Evidian SafeKit. Logiciel de haute disponibilité pour le clustering d application Evidian SafeKit Logiciel de haute disponibilité pour le clustering d application Le produit idéal pour un éditeur logiciel «SafeKit est le logiciel de clustering d application idéal pour un éditeur logiciel

Plus en détail

Haute Disponibilité High-Availability : HA. Les enjeux

Haute Disponibilité High-Availability : HA. Les enjeux Haute Disponibilité High-Availability : Définitions Sûreté de fonctionnement Coût de l indisponibilité Classification des systèmes Concepts et terminologie Grandeurs caractéristiques Analyse des causes

Plus en détail

Utilisation du RAID logiciel Sur un serveur Windows 2000

Utilisation du RAID logiciel Sur un serveur Windows 2000 BTS INFORMATIQUE DE GESTION Option Administrateur de réseaux développement d applications COMPTE-RENDU D ACTIVITE ACTIVITE N 6 Nom et Prénom : Casanova Grégory Identification (objectif) de l activité Utilisation

Plus en détail

Configurations maximales

Configurations maximales Rubrique Configurations maximales VMware vsphere 5.0 Lorsque vous sélectionnez et configurez votre équipement physique et virtuel, vous devez vous limiter aux maxima (ou en deçà) pris en charge par vsphere

Plus en détail

PRESTATION DE SERVICE POUR LE REMPLACEMENT DU SERVEUR INFORMATIQUE

PRESTATION DE SERVICE POUR LE REMPLACEMENT DU SERVEUR INFORMATIQUE PRESTATION DE SERVICE POUR LE REMPLACEMENT DU SERVEUR INFORMATIQUE Introduction Définitions : «le prestataire»: entreprise retenue pour l'exécution de ce contrat «la SAHLM»: la SA HLM de la Région d'elbeuf

Plus en détail

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA DOSSIER SOLUTION : CA ARCSERVE BACKUP R12.5 CA ARCserve Backup CA ARCSERVE BACKUP, LOGICIEL DE PROTECTION DE DONNÉES LEADER DU MARCHÉ, INTÈGRE UNE TECHNOLOGIE DE DÉDUPLICATION DE DONNÉES INNOVANTE, UN

Plus en détail

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES Cours Administration des Bases de données M Salhi Architectures des Système de base de données Systèmes centralisés et client-serveur Server System Architectures

Plus en détail

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510 Introduction A. Au sujet du livre 10 B. Au sujet de l'examen 10 Chapitre 1 Les nouveautés de vsphere A. Présentation 14 B. En quoi vsphere 5 diffère de vsphere 4? 14 1. Un Service Console abandonné 14

Plus en détail

Un projet de PRA peut se découper en quatre phases :

Un projet de PRA peut se découper en quatre phases : Définition Le plan de continuité de service PCA est mis en place pour faire face à une situation de crise pouvant perturber ou interrompre l activité de l entreprise. Le PCA est donc l ensemble des procédures

Plus en détail

Shaman-X projet de de logiciel libre Plan de de secours informatique

Shaman-X projet de de logiciel libre Plan de de secours informatique Shaman-X projet de de logiciel libre Plan de de secours informatique Nouvelles fonctionnalités à moindre coût pour la haute disponibilité, la tolérance au désastre et la gestion de crise Auteur: Dominique

Plus en détail

Introduction aux Systèmes Distribués. Introduction générale

Introduction aux Systèmes Distribués. Introduction générale Introduction aux Systèmes Distribués Licence Informatique 3 ème année Introduction générale Eric Cariou Université de Pau et des Pays de l'adour Département Informatique Eric.Cariou@univ-pau.fr 1 Plan

Plus en détail

Cahier de charges Projet 24

Cahier de charges Projet 24 Cahier de charges Projet 24 Répartition automatique de surcharge sur serveur web virtualisé Etudiants : KAOUACHI Youssef ELFELLAH Amine Encadré par : M. HAYEL Yezekael Année universitaire : 2008/2009 I-

Plus en détail

Cours 13. RAID et SAN. 2004, Marc-André Léger

Cours 13. RAID et SAN. 2004, Marc-André Léger Cours 13 RAID et SAN Plan Mise en contexte Storage Area Networks Architecture Fibre Channel Network Attached Storage Exemple d un serveur NAS EMC2 Celerra Conclusion Démonstration Questions - Réponses

Plus en détail

PRESENTATION DE LA VIRTUALISATION DE SERVEURS

PRESENTATION DE LA VIRTUALISATION DE SERVEURS PRESENTATION DE LA VIRTUALISATION DE SERVEURS SOMMAIRE QU EST-CE QUE LA VIRTUALISATION? POURQUOI VIRTUALISER? LES AVANTAGES DE LA VIRTUALISATION NOTION DE CONSOLIDATION, RATIONALISATION ET CONCENTRATION

Plus en détail

Windows 2008 server -Introduction-

Windows 2008 server -Introduction- Windows 2008 server -Introduction- Rappel sur les systèmes d exploitation Un système d exploitation (Operating System) est un ensemble de programmes responsables de la liaison entre les ressources matérielles

Plus en détail

Dossier Solution - Virtualisation Arcserve Unified Data Protection

Dossier Solution - Virtualisation Arcserve Unified Data Protection Dossier Solution - Virtualisation Arcserve Unified Data Protection La virtualisation des serveurs et des postes de travail est devenue omniprésente dans la plupart des organisations, et pas seulement au

Plus en détail

Positionnement produit

Positionnement produit DNS-323-2TB Boîtier de stockage réseau à 2 baies avec 2 disques durs 1 téraoctet (2 x 1 To) Cas de figure d'utilisation Garantie 2 ans Sauvegarde du système permettant la récupération en cas de panne grave

Plus en détail

PROGRAMME FONCTIONNEL RELATIF A L ACHAT D UN CLUSTER DE CALCUL

PROGRAMME FONCTIONNEL RELATIF A L ACHAT D UN CLUSTER DE CALCUL PROGRAMME FONCTIONNEL RELATIF A L ACHAT D UN CLUSTER DE CALCUL I Contexte Le Lycée de Bagnols sur Cèze veut se doter d'un centre de calcul scientifique et de stockage pour la conduite de projets éducatifs

Plus en détail

au Centre Inter-établissement pour les Services Réseaux Cédric GALLO

au Centre Inter-établissement pour les Services Réseaux Cédric GALLO au Centre Inter-établissement pour les Services Réseaux Cédric GALLO En théorie Introduction Présentation de l ESXi VMFS Virtual Center Vsphere Client Converter Vmotion High Availability/DRS/DPM Gestion

Plus en détail

Institut National de la Recherche Agronomique. Cahier des charges pour la fourniture du dispositif de sauvegarde des serveurs du Système d Information

Institut National de la Recherche Agronomique. Cahier des charges pour la fourniture du dispositif de sauvegarde des serveurs du Système d Information Institut National de la Recherche Agronomique Cahier des charges pour la fourniture du dispositif de sauvegarde des serveurs du Système d Information Page 1 sur 9 1. Objet de la consultation L Institut

Plus en détail

SÉCURISER EMC VSPEX END-USER COMPUTING AVEC RSA SECURID

SÉCURISER EMC VSPEX END-USER COMPUTING AVEC RSA SECURID GUIDE DE CONCEPTION SÉCURISER EMC VSPEX END-USER COMPUTING AVEC RSA SECURID VMware Horizon View 5.2 et VMware vsphere 5.1 - Jusqu à 2 000 bureaux virtuels EMC VSPEX Résumé Le présent guide décrit les composants

Plus en détail

CELAR Sécurité des logiciels libres Haute disponibilité

CELAR Sécurité des logiciels libres Haute disponibilité Auteur : Eric Bérenguier Référence : 00-176/200000633 Version : 1.0 Date : 30/06/2000 État : Approbateur : Guy Autier CELAR Sécurité des logiciels libres Haute disponibilité Copyright 2000 EADS SYCOMORE

Plus en détail

1 LE L S S ERV R EURS Si 5

1 LE L S S ERV R EURS Si 5 1 LES SERVEURS Si 5 Introduction 2 Un serveur réseau est un ordinateur spécifique partageant ses ressources avec d'autres ordinateurs appelés clients. Il fournit un service en réponse à une demande d un

Plus en détail

SISR3 : Cluster de basculement de serveurs de fichiers

SISR3 : Cluster de basculement de serveurs de fichiers SISR3 : Cluster de basculement de serveurs de fichiers Objectif : Mettre en place un cluster de basculement de deux serveurs de fichiers. Il est nécessaire pour ce TP de disposer d'un Active Directory,

Plus en détail

Guide d installation du système RAID VIA / JMicron

Guide d installation du système RAID VIA / JMicron Guide d installation du système RAID VIA / JMicron 1. Introduction au guide d installation du système RAID VIA / JMicron 3 2. Guide d installation VIA RAID.3 2.1 Guide d installation VIA BIOS RAID 3 2.1.1

Plus en détail

CATALOGUE DES FORMATIONS Linux

CATALOGUE DES FORMATIONS Linux RTN / EC2LT Réseaux et Techniques Numériques Ecole Centrale des Logiciels Libres et de Télécommunications CATALOGUE DES FORMATIONS Linux La gamme des formations Linux RESEAUX et TECHNIQUES NUMERIQUES Zone

Plus en détail

Contribution à la mise en service d'une ferme de serveurs connectée à une grille de calcul pour la physique des hautes énergies

Contribution à la mise en service d'une ferme de serveurs connectée à une grille de calcul pour la physique des hautes énergies Contribution à la mise en service d'une ferme de serveurs connectée à une grille de calcul pour la physique des hautes énergies Charlier Fabrice 2è licence en informatique Année Académique 2005-2006 Plan

Plus en détail

SUPERVISION. Centreon 5.9

SUPERVISION. Centreon 5.9 SUPERVISION Centreon 5.9 Steven DELAPRUNE BTS SIO 11/03/2015 Sommaire CAHIER DES CHARGES... 3 INTRODUCTION... 3 PRINCIPES GENERAUX... 3 Définition... 3 Problématique... 3 Description du besoin... 3 Solution...

Plus en détail

Présentation SERVEUR EN CLUSTER. Clinkast 4 Avenue du Général de Gaulle F 92360 Meudon (+33) 6 20 44 86 95 (+33) 1 46 30 24 13

Présentation SERVEUR EN CLUSTER. Clinkast 4 Avenue du Général de Gaulle F 92360 Meudon (+33) 6 20 44 86 95 (+33) 1 46 30 24 13 Présentation SERVEUR D APPLICATIONS EN CLUSTER Description Un cluster est un ensemble d instances de serveurs d applications combinant haute disponibilité et forte évolutivité. Contrairement à un système

Plus en détail

Protection des données avec les solutions de stockage NETGEAR

Protection des données avec les solutions de stockage NETGEAR Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La

Plus en détail

Sauvegarde et restauration en environnement VMware avec Avamar 6.0

Sauvegarde et restauration en environnement VMware avec Avamar 6.0 Livre blanc Sauvegarde et restauration en environnement VMware avec Avamar 6.0 Analyse détaillée Résumé Dans les entreprises, les environnements virtuels sont de plus en plus déployés dans le cloud. La

Plus en détail

EMC Data Domain Boost for

EMC Data Domain Boost for EMC Data Domain Boost for Symantec Backup Exec Augmentez vos performances de sauvegarde grâce à une intégration avancée dans OpenStorage Avantages clés Sauvegardes plus rapides et meilleure utilisation

Plus en détail

LANDPARK NETWORK IP LANDPARK NETWORK IP VOUS PERMET D'INVENTORIER FACILEMENT VOS POSTES EN RÉSEAU

LANDPARK NETWORK IP LANDPARK NETWORK IP VOUS PERMET D'INVENTORIER FACILEMENT VOS POSTES EN RÉSEAU LANDPARK NETWORK IP Avril 2014 LANDPARK NETWORK IP VOUS PERMET D'INVENTORIER FACILEMENT VOS POSTES EN RÉSEAU Landpark NetworkIP est composé de trois modules : Un module Serveur, que l'on installe sur n'importe

Plus en détail

Yphise. Le SAN. Architectures SAN

Yphise. Le SAN. Architectures SAN Architectures SAN Mardi 28 mars 2000 Laurent Ruyssen - 53 Bd de Sébastopol - T 1 45 08 86 70 F 1 45 08 05 51 yphise@yphise.com - http://yphise.fr ABS0003-1 Nous accompagnons les Directions Informatiques

Plus en détail

Le client/serveur repose sur une communication d égal à égal entre les applications.

Le client/serveur repose sur une communication d égal à égal entre les applications. Table des matières LES PRINCIPES DE BASE... 1 Présentation distribuée-revamping...2 Présentation distante...3 Traitements distribués...3 données distantes-rd...4 données distribuées-rda distribué...4 L'ARCHITECTURE

Plus en détail

Livre blanc sur la technologie RAID

Livre blanc sur la technologie RAID Livre blanc sur la technologie RAID En tant que spécialiste du stockage de données, LaCie sait que la majorité des utilisateurs d'ordinateurs ont besoin d'une solution de stockage ou de sauvegarde et que

Plus en détail

Construisez un cluster HA avec Heartbeat, ENBD et le Raid Logiciel Introduction

Construisez un cluster HA avec Heartbeat, ENBD et le Raid Logiciel Introduction Construisez un cluster HA avec Heartbeat, ENBD et le Raid Logiciel Article publié dans le hors série spécial Haute Disponibilité du GNU/Linux Magazine France, numéro 18 (Février/Mars 2004). Introduction

Plus en détail

Bénéficiez d'un large choix d'applications novatrices et éprouvées basées sur les systèmes d'exploitation i5/os, Linux, AIX 5L et Microsoft Windows.

Bénéficiez d'un large choix d'applications novatrices et éprouvées basées sur les systèmes d'exploitation i5/os, Linux, AIX 5L et Microsoft Windows. 1. Le nouveau eserver i5 en bref Gérez plusieurs systèmes d'exploitation et environnements d'applications sur un seul serveur pour simplifier votre infrastructure et réduire les frais de gestion Simplifiez

Plus en détail

Artica. La déduplication. Révision Du 08 Février 2011 version 1.5.020818

Artica. La déduplication. Révision Du 08 Février 2011 version 1.5.020818 Artica La déduplication Révision Du 08 Février 2011 version 1.5.020818 Table des matières Introduction :...2 Historique du projet :...2 A qui s'adresse Artica?...2 Licence et support...2 Que fait Artica?...

Plus en détail

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration.

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration. Windows 2000: Introduction W2K: Architecture Système d'exploitation multitâche multithread 32 bits à architecture SMP. Multiplateforme: intel x86, Compaq Alpha Jusqu'à 64 Go de mémoire vive Système d'exploitation

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

La Continuité d Activité

La Continuité d Activité La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique

Plus en détail

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis

Plus en détail

Architecture complète de protection du stockage et des données pour VMware vsphere

Architecture complète de protection du stockage et des données pour VMware vsphere Architecture complète de protection du stockage et des données pour VMware vsphere Synthèse Les économies de coûts et les avantages en termes de flexibilité de la virtualisation des serveurs ont fait leurs

Plus en détail

Exploitation de la ferme de serveurs Esxi

Exploitation de la ferme de serveurs Esxi BTS SIO SISR4 Page 1 Exploitation de la ferme de serveurs Esxi Table des matières 1. Objectif... 2 2. Paramètres préalables... 2 3. Création d un cluster... 2 4. Augmenter la taille des LUN... 2 4.1. Sur

Plus en détail

FANTEC LD-H35U3 Manuel d utilisation

FANTEC LD-H35U3 Manuel d utilisation Contenu 1. AVANT UTILISATION... 2 1.1. NOTE DE SECURITE... 2 1.2. DECLARATION... 4 1.3. INTRODUCTION AUX CARACTERISTIQUES DU PRODUIT :... 4 1.4. TERMES DE LA GARANTIE... 5 2. PREPARATION... 5 2.1. ACCESSOIRES

Plus en détail

OpenMediaVault installation

OpenMediaVault installation OpenMediaVault installation 2013-01-13/YM: version initiale 1 Introduction L'installation de OpenMediaVault, basé sur Debian, présente quelques difficultés pour l'utilisateur de Windows. Cette procédure

Plus en détail

Fiche Technique Windows Azure

Fiche Technique Windows Azure Le 25/03/2013 OBJECTIF VIRTUALISATION mathieuc@exakis.com EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Fiche Technique Objectif 25/03/2013 27/03/2013 Windows

Plus en détail

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance.

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance. CLOUD CP3S La virtualisation au service de l entreprise Virtualisation / Cloud Évolutivité Sécurité Redondance Puissance SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE SOLUTION D INFRASTRUCTURE

Plus en détail

Contexte InfoRéseau50. Charles SAINT-LÔ SIO2 Lycée Notre Dame de la Providence Année 2014-2015

Contexte InfoRéseau50. Charles SAINT-LÔ SIO2 Lycée Notre Dame de la Providence Année 2014-2015 Contexte InfoRéseau50 Charles SAINT-LÔ SIO2 Lycée Notre Dame de la Providence Année 2014-2015 1 Présentation du contexte : Je travaille chez InfoRéseau50, qui est une société spécialisée dans la gestion

Plus en détail

La sécurité informatique dans la petite entreprise Etat de l'art et Bonnes Pratiques (2ième édition)

La sécurité informatique dans la petite entreprise Etat de l'art et Bonnes Pratiques (2ième édition) Généralités sur la sécurité informatique 1. Introduction 13 2. Les domaines et normes associés 16 2.1 Les bonnes pratiques ITIL V3 16 2.1.1 Stratégie des services - Service Strategy 17 2.1.2 Conception

Plus en détail

Qu'est-ce que c'est Windows NT?

Qu'est-ce que c'est Windows NT? Qu'est-ce que c'est Windows NT? Que faire en cas de blocage d'une station NT? Profils «errants» avec win NT : des éclaircissements Echange de fichiers entre les deux environnements PC/Mac Blocage réseau

Plus en détail

Master Informatique et Systèmes. Architecture des Systèmes d Information. 03 Architecture Logicielle et Technique

Master Informatique et Systèmes. Architecture des Systèmes d Information. 03 Architecture Logicielle et Technique Master Informatique et Systèmes Architecture des Systèmes d Information 03 Architecture Logicielle et Technique Damien Ploix 2014-2015 Démarche d architecture SI : structuration en vues Quels métiers?

Plus en détail

Installation du SLIS 4.1

Installation du SLIS 4.1 Documentation SLIS 4.1 Installation du SLIS 4.1 1.3RC2 CARMI PÉDAGOGIQUE - ÉQUIPE «INTERNET» DE L'ACADÉMIE DE GRENOBLE juillet 2013 Table des matières Objectifs 5 I - Prérequis 7 A. Préconisations matérielles...7

Plus en détail