Urbanisation et architecture des systèmes



Documents pareils
Le e s tocka k ge g DAS,NAS,SAN

Cours 13. RAID et SAN. 2004, Marc-André Léger

La continuité de service

Thomas Briet Ingenieurs 2000 Cyril Muhlenbach

Concepts et systèmes de stockage

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

Livre blanc Haute disponibilité sous Linux

Consolidation de stockage

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows W2K pro: configuration.

Unitt Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

en version SAN ou NAS

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

NOTIONS DE RESEAUX INFORMATIQUES

Le Raid c est quoi? Comment ca marche? Les différents modes RAID :

vbladecenter S! tout-en-un en version SAN ou NAS

Etude d architecture de consolidation et virtualisation

Network storage solutions

ERP Service Negoce. Pré-requis CEGID Business version sur Plate-forme Windows. Mise à jour Novembre 2009

Systèmes et algorithmes répartis

Easy as NAS Supplément Entreprises. Guide des solutions

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

Stockage Réseau. Le stockage s'échappe du système pour devenir une fonction réseau

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Distinguer entre «Enregistrer» et «Sauvegarder»

Licences Windows Server 2012 R2 dans le cadre de la virtualisation

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

EX4C Systèmes d exploitation. Séance 14 Structure des stockages de masse

Présentation d HyperV

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles

Système de stockage Cisco NSS baies Gigabit

Module 0 : Présentation de Windows 2000

Agenda. Exemple : données et back à Eurecom SANs and NAS. Les bases: SANs. Back-up Partage de fichier. Disques et Raid SCSI et FCP

Structure et fonctionnement d'un ordinateur : hardware

Ebauche Rapport finale

Version de novembre 2012, valable jusqu en avril 2013

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Module : Virtualisation à l aide du rôle Hyper-V

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant R&T 1ère année. Sylvain MERCHEZ

Exposé de réseau IR3 10/02/2003. Abdelwaheb DIDI Gilles SCALA Michael DIOT. Nouvelles technologies - SAN/NAS - 1/24

EMC AVAMAR. Logiciel et système de sauvegarde avec déduplication

Fiche Technique. Cisco Security Agent

Projet : PcAnywhere et Le contrôle à distance.

L'évolution dans les technologies de stockage

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

VMWare Infrastructure 3

Présentation du déploiement des serveurs

Serveur EMC/CX Solution de stockage hautes performances dotée d'une connectivité flexible

L état de l ART. Évolution récente des technologies. Denis Szalkowski Formateur Consultant

Disponibilité et fiabilité des services et des systèmes

«clustering» et «load balancing» avec Zope et ZEO

Micro ordinateur & Périphériques Mémoire de masse Disque dur (SOLUTION)

Rapport d activité. Mathieu Souchaud Juin 2007

11 janvier 2006 NAS - SAN 1 / 42. Exposé - Nouvelles Technologies Réseau. Les solutions de stockage. NAS et SAN KOMAR MANCEL LE CAM

Protection des données avec les solutions de stockage NETGEAR

CAHIER. DES CLAUSES TECHNIQUES PARTICULIERES N du 16 avril 2007 ORDINATEURS. C.I.E.P 1, Avenue Léon JOURNAULT SEVRES

Détection d'intrusions en environnement haute performance

Système de stockage sur disque IBM Storwize V5000

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA

Bénéficiez d'un large choix d'applications novatrices et éprouvées basées sur les systèmes d'exploitation i5/os, Linux, AIX 5L et Microsoft Windows.

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Cours n 12. Technologies WAN 2nd partie

Sauvegarde des données au LAAS

--- Le Fusion RX1600Fibre. un stockage partagé haute performance optimisé pour l'édition vidéo

LE CLUSTERING DANS LES ENTREPRISES

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation

Serveur de sauvegarde à moindre coût

DSCG : UE5 - Management des Systèmes d'information CARTE HEURISTIQUE...1 ARCHITECTURE PHYSIQUE...2

Déduplication des données : un élément essentiel de votre stratégie de protection des données

FAMILLE EMC RECOVERPOINT

Spécifications Techniques Générales. Techno Pole Internet. Lycée Djignabo / Ziguinchor

La virtualisation, des postes de travail

Immobilier de prestige, biens d exception, Tour d horizon. de stockage 48 // 49

Matériel & Logiciels (Hardware & Software)

Spécifications détaillées

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

Les hyperviseurs leaders du marché qui ont fait leurs preuves en production

Clients et agents Symantec NetBackup 7

DÉVELOPPEMENT INFONUAGIQUE - meilleures pratiques

Sauvegarde : Supports de données et Infrastructures

Copyright Eurice Diffusion interdite

//////////////////////////////////////////////////////////////////// Administration systèmes et réseaux

La haute disponibilité

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE

Chapitre VII : Principes des réseaux. Structure des réseaux Types de réseaux La communication Les protocoles de communication

Symantec Backup Exec.cloud

Concept de machine virtuelle

WebForce International Federation Projet Global Applications techniques. Présenté par Prof. R. Mellet Brossard Président CEO WebForce International

Windows Server Chapitre 1: Découvrir Windows Server 2008

HYPER-V CLOUD GUIDES DE DÉPLOIEMENT MODULE 1: ARCHITECTURE ET DIMENSIONNEMENT

et dépannage de PC Configuration Sophie Lange Guide de formation avec exercices pratiques Préparation à la certification A+

Symantec Backup Exec 11d

Windows serveur 2008 installer hyperv

netzevent IT-MARKT REPORT 2013 Infrastructure ICT en Suisse: Le point de vue des entreprises utilisatrices

Guide des solutions My First SAN. 2ème édition

Transcription:

David Eudeline. CNAM UE NFE 107 Urbanisation et architecture des systèmes.. d information........ Architecture technique des serveurs

2

TABLE DES MATIERES INTRODUCTION... 5 DEFINITIONS LIEES A LA SURETE DE FONCTIONNEMENT... 5 CLUSTERS... 7 DEFINITIONS... 7 PREMIER ASPECT : L'EVOLUTION DES MICROPROCESSEURS... 10 LES RESEAUX ET COMMUNICATIONS... 11 LE SYSTEME D'EXPLOITATION... 12 ARCHITECTURE PARALLELE... 12 COUPLAGE FORT: SMP... 13 COUPLAGE FAIBLE: MPP... 13 REDONDANCE MATERIELLE... 14 STOCKAGE... 14 STOCKAGE DE MASSE: SYSTEMES RAID... 14 STOCKAGE EN RESEAU : NAS/SAN... 16 CONCLUSION... 17 3

Architecture technique des serveurs «J ai un SYSTEM ERROR 8301! Et t en es content?» Le guide du cabaliste Usenet Introduction Les serveurs ont pour objet de mutualiser les ressources critiques des systèmes d information. A ce titre ils sont dotés de caractéristiques spécifiques mises à disposition des utilisateurs finaux. Par exemple, cela peut être de l espace disque pour stocker des données, une disponibilité élevée pour les applications critiques, de la ressource CPU pour le calcul scientifique. Pour toutes ces raisons les serveurs ont toujours été un investissement majeur pour les DSI. Leurs spécificités en font des équipements onéreux. Toutefois, on le verra au cours de cet exposé, la monté en puissance des postes utilisateurs et l augmentation de la bande passante disponible sur le réseau a quelque peu déplacé le problème. Les serveurs sont aujourd hui confrontés à la concurrence des PC dits de commodité. En effet, le niveau de service atteint par des PC à bas coûts dotés de système d exploitation grand public se rapproche sans cesse des fonctionnalités offertes par les serveurs d entrée de gamme. Ce cours passe en revue les principales spécifiques pour la disponibilité et les performances. Performances/disponibilité : Mise en cluster Disponibilité des données : Stockage Disponibilité matérielle: Redondance matérielle locale Connexions multiples : Équilibrage de charge Définitions liées à la sûreté de fonctionnement La sûreté de fonctionnement d'un système, peut être définie comme étant la propriété qui permet à ses utilisateurs de placer une confiance justifiée dans le service qu'il leur délivre [LAP95] ; le service délivré par un système est son comportement tel que perçu ou requis par ses utilisateurs, un utilisateur étant un autre système (humain ou physique) qui interagit avec le système considéré. 5

Cette notion de confiance est fondamentale, étant donné que tout système matériel/logiciel contient inéluctablement des fautes, la grande majorité d'entre elles étant des fautes introduites lors des phases de conception. La sûreté de fonctionnement est la science des défaillances. L'erreur représente le lien entre fautes et défaillances. Du point de vue de l'utilisateur d'un système, une défaillance survient lorsque le service attendu n'est plus délivré. Une interaction inappropriée entre utilisateur et système est une faute; l'altération des données traitées qui en résulte est une erreur, les erreurs produiront des défaillances. La défaillance d'un composant électronique est vue comme une faute pour le système. Le terme de panne désigne l'état du système résultant d'une défaillance. La sûreté de fonctionnement est une combinaison de propriétés différentes mais complémentaires, qui permettent de la caractériser : La fiabilité (reliability), si l'on se place du point de vue de la continuité du service que le système doit accomplir. Dans ce cas, la sévérité des défaillances n'est pas prise en compte. Un exemple de mesure de fiabilité est le taux de défaillance (inverse du MTTF: Mean Time To Failure, temps moyen jusqu'à l'occurrence de la première défaillance) ; La maintenabilité (maintenability), lorsque l'on s'intéresse à l'aptitude aux réparations et aux évolutions du système, et lorsque la maintenance doit être accomplie dans des conditions données avec des procédures et des moyens prescrits. Un exemple de mesure de maintenabilité est le MTTR (Mean Time To Repair), le temps moyen de réparation ou de restauration du système dans l'état de bon fonctionnement ; La disponibilité (availability), par rapport au fait d'être prêt à l'utilisation ; ce qui importe, c'est que le service correct soit fourni au moment où l'utilisateur en a besoin. La disponibilité est une mesure sans unité ; elle correspond à la proportion du temps de bon fonctionnement sur le temps total d'exécution du système. La disponibilité est tributaire à la fois de la fiabilité et de la maintenabilité ; La sécurité-innocuité (safety), si l'on s'intéresse à la non occurrence de défaillances catastrophiques, c'est-à-dire celles pour lesquelles les conséquences sont inacceptables vis-à-vis du risque encouru par les utilisateurs du système. Accroître la sécurité d'un système peut parfois se faire au détriment de sa disponibilité. Dans le cas d'une centrale nucléaire, par exemple : arrêt d'un réacteur pour éviter la fusion du cœur ; La sécurité-confidentialité (security), par rapport à la prévention d'accès ou de manipulations non autorisées de l'information, ou de façon plus générale, si la préoccupation essentielle est de lutter contre les fautes intentionnelles (virus, bombes logiques, chevaux de Troie,...). Fiabilité : La fiabilité évalue l aptitude à assurer la continuité du service. C est la probabilité conditionnelle qu un système n ait défailli pendant l intervalle de temps [0,t], sachant qu il était opérationnel à l instant 0. 6

Métrique de cette aptitude : Probabilité d être en bon fonctionnement jusqu au temps t. Les autres estimateurs sont le MTBF (Mean Time Between Failures), MTTF (Mean Time To Failure), et le taux de défaillance. Disponibilité : La disponibilité exprime la fraction du temps pendant lequel le système accepte de rendre un service. C est la probabilité que le système soit opérationnel à l instant t. Métrique mesurant cette aptitude: Pourcentage du temps de bon fonctionnement par produit ou proportion de produits utilisables dans le parc, sur une période donnée. Clusters Le terme de cluster (grappe en français) fait référence à une batterie d'ordinateurs, tous interconnectés, dans le but de partager des ressources informatiques. Un cluster peut être, soit un ensemble d'ordinateurs connectés en réseaux et capable de traiter de concert un même travail (cumul de puissances), soit un ensemble d'ordinateurs connectés en réseaux dans le but de répartir des tâches sur chaque machine du cluster. Les principales problématiques auxquelles répondent les clusters sont liées à la puissance et à la diminution du temps d'exécution de tâches. De plus, le cluster forme un système informatique plus fiable car il représente un ensemble où le stockage des données est redondant sur chaque ordinateur. Ainsi, le cluster offre une meilleure qualité de service (QOS) aux utilisateurs. Il existe deux grands types de clusters : Systèmes en clustering. Ici ce sont les tâches qui sont réparties sur plusieurs machines. Typiquement, les sites Web important en terme de connexion comme Google utilisent des clusters de serveurs Web, qui ne sont ni plus ni moins que des miroirs du site, et qui traitent un ensemble de requêtes utilisateurs. Logiciel en clustering. Ici c'est une seule et même tâche qui sera divisée et répartie sur chaque machine du cluster. Généralement se sont les clusters de calcul qui répondent à ce besoin. Définitions Dans un cluster, chaque machine du réseau est une station de travail dans la mesure où elle possède un ou plusieurs processeurs (en opposition aux terminaux), et sera appelé un Node. La machine d entrée sur le réseau sera appelée Node Server. L interconnexion de cet ensemble de Workstation est appelé un NOW (Network Of Workstation). 7

Figure 1: Architecture d'un cluster En fait, le terme clustering peut être utilisé dans différents contextes. En effet, en temps qu ingénieurs des systèmes d information vous n aurez pas les mêmes besoins de parallélisation qu un mathématicien ou un ingénieur réseaux télécoms. Ainsi, nous pouvons distinguer 4 grands types de clusters pouvant être combinés les uns aux autres et répondant aux exigences de chacun des utilisateurs : Offre : Les clusters scientifiques : il s agit d un cluster où l ensemble des nœuds cumulent leurs puissances de calcul pour arriver à des performances égales à celles d un super calculateur. Les clusters de stockage : il s agit de combiner les espaces disques de chacune des machines afin de fournir un espace disque total important. Les clusters haute disponibilité : ici il s agit de créer plusieurs nœuds redondants permettant de prendre le relais de la machine principale en cas de crash. C est la fiabilité qui prime dans ce type d architecture. En effet, le stockage des données étant redondants, le fonctionnement du cluster et l assurance contre les pertes de données peuvent être garantis à 99,9%. Les clusters à répartition de charge : ces clusters permettent de répartir des processus vers les nœuds du cluster. Chaque machine traite un processus et donc la qualité de service rendue est améliorée. Les clusters «propriétaire» : il s agit des clusters commerciaux tournant sur des Unix propriétaires modifiés et interconnectés par des liaisons haut débit. Les solutions commerciales de clustering. Il s agit de société rendant un service autour de technique de clustering. Typiquement une société en sécurité offrant une prestation dans la haute disponibilité d un firewall. Les clusters Microsoft : Windows 2000 advanced et datacenter server propose des services de clustering mais on est limité à 32 nœuds. 8

Les projets de clustering sous linux : offre une alternative quasi gratuite pour mettre en œuvre tous types de clusters. Les clusters reposent essentiellement sur deux types de librairies : PVM (Parallèle Virtual Machine) permet de créer un cluster à partir de nœuds de types différents (PC/Linux, PC/Windows, CRAY, etc.). Il supporte tous les réseaux capables d'une connexion par socket comme par exemple, Ethernet et ATM. PVM se présente sous la forme d'un deamon et de bibliothèques C et FORTRAN. Les applications qui utilisent PVM doivent être compilées avec les bibliothèques PVM. Ceci implique une modification du code dans le cas d'une application déjà existante. MPI (pour Message Passing Interface) est souvent considéré comme le concurrent principal de PVM. Créé à posteriori il est plus optimisé mais s accommode moins bien de nœuds hétérogènes. MPI est très utilisé dans les clusters LINUX. Haute performance : Systèmes parallèles vs grappes de PC Destinés à des applications telles que les créations d'images de synthèse, les traitements de bases de données, ou conceptions et simulations scientifiques diverses, les systèmes à haute performance exécutent les tâches sur plusieurs microprocesseurs. On parle alors d'ordinateur parallèle. (Lorsque des centaines de microprocesseurs sont implémentés à l'intérieur d'un même ordinateur parallèle, on parle d'ordinateur massivement parallèle). Figure 2: Hiérarchie des ordinateurs Jusqu'ici, les Superordinateurs conçus pour la performance étaient fabriqués par des constructeurs tels que CRAY, IBM avec sa gamme SP/2, SUN, DIGITAL, qui y intégraient des technologies spécifiques. Cependant, ces solutions technologiques ne sont pas bien placées sur le rapport puissance/prix. Aujourd'hui, ces systèmes se voient concurrencés par des grappes d'ordinateurs de commodité. 9

Figure 3: Rapport prix/performance Les grappes de calcul basées sur du matériel de commodité parviennent à la même puissance de calcul que les superordinateurs traditionnels pour moins cher. Il est intéressant de noter que ces solutions sont utilisées opérationnellement. Ainsi, certaines entreprises font des économies en remplaçant leurs superordinateurs traditionnels par des clusters. Les solutions de haute performance en grappe de PCs ont déjà été adoptées par de nombreux laboratoires et universités américaines. Toutefois, les grappes n'ont pas encore véritablement pénétré le secteur privé, les directions informatiques commencent seulement à les considérer comme des solutions fiables, et pour lesquelles elles peuvent trouver support technique et maintenance. Evolutions technologiques Cette nouvelle tendance technologique est le concours d'évolutions de marché de plusieurs acteurs de l'industrie informatique. De manière générale, le matériel informatique de commodité ne cesse de voir ses performances s'accroître pour un prix de vente continuellement à la baisse. La révolution du cluster est le fruit d'évolutions dans les trois domaines suivants : le marché des ordinateurs de commodité (et de ses microprocesseurs) le marché des matériels de réseaux et communications le domaine des systèmes d'exploitation Premier aspect : l'évolution des microprocesseurs La puissance d'un ordinateur est directement corrélée à la puissance de son microprocesseur. Ainsi analyser l'évolution de l'informatique de haute performance suppose la compréhension de l'évolution, aussi bien technologique que commerciale, des microprocesseurs. On distingue deux types de fabricants de microprocesseurs : les fabricants de microprocesseurs de commodité, produisant de gros volumes pour le marché de masse. C'est le cas d'intel ou de MOTOROLA, dont les produits présentent de bons rapports puissance/prix. 10

les fabricants de processeurs spécifiques Alors que les ordinateurs les plus puissants étaient habituellement équipés de processeurs spécifiques, les processeurs de commodité ont tendance à être de plus en plus présents dans l'informatique de haute performance. Ceci est illustré par la figure cidessous, dans laquelle est représentée l'évolution dans le temps des processeurs utilisés par les 500 plus puissants ordinateurs au monde (CMOS off the shelf = processeurs de commodité). Figure 4: CPU et Top 500 En principe, les processeurs suivent la loi de Moore : la puissance double tous les 18 mois. Si c'était le cas, les fabricants de processeurs spécifiques seraient toujours leaders du marché des processeurs pour l'informatique de haute performance. Les fabricants de microprocesseurs sont en fait confrontés à de très grandes contraintes, depuis la conception jusqu'à la fabrication. Il s'avère que seuls les constructeurs parvenant à se positionner sur le marché de masse sont capables de produire des processeurs à la fois puissants et bon marché. Ceci explique pourquoi les processeurs de commodité équiperont de plus en plus de systèmes à haute performance. On retrouve dans cette catégorie des processeurs de commodité les ALPHA, conçus par Digital, les MIPS de SGI, les POWER de IBM, les SPARC de SUN, et bien évidemment les gammes x86, Pentium d'intel (ou de concurrents comme AMD). La tendance est claire : les futurs ordinateurs à haute performance seront équipés de processeurs de commodités. Les réseaux et communications Un ordinateur parallèle pouvant contenir beaucoup de microprocesseurs, le parallélisme transforme un problème de puissance en un problème de communication. Tous les processeurs ont besoin de communiquer entre eux. Lorsqu'on parle de communication, deux principaux paramètres sont à considérer : la bande passante, qui doit être la plus importante possible, les temps de latence, qui doivent être les plus bas possibles. La force des fabricants d'ordinateurs parallèles traditionnels comme CRAY repose sur leur savoir-faire en communications à l'intérieur même d'un ordinateur. Ces systèmes présentent de grosses bandes passantes (plusieurs gigabits par seconde) et des temps de latence très faibles (moins d'une microseconde). Cependant, ces implémentations sont 11

très coûteuses car elles sont le fruit de développements spécifiques lourds pour un petit volume de ventes. L'alternative : utiliser plusieurs ordinateurs et les relier en réseau. Il n'y a pas si longtemps, les réseaux n'étaient pas assez performants pour être compétitifs, même sur un rapport performance/prix, face aux superordinateurs traditionnels. Mais l'industrie des réseaux a beaucoup progressé ces dernières années. Le standard en 1995 pour les réseaux de PCs était l'ethernet 10 Mbits/s non commuté : pour un réseau de 10 à 20 PCs connectés, le débit variait de 0.5 à 1 mégabit de transfert par seconde. En 1999, on dispose pour le même ordre de prix de full duplex Ethernet 100 Mbits/s commuté. La bande passante est beaucoup plus élevée. Les temps de latence ont également suivi une nette progression. Les deux sources de latence sont typiquement les matériels de connexion réseau et les traitements par la couche réseau du système d'exploitation. Or, l'amélioration de ces matériel, ajoutée à l'apparition de communications directes entre les logiciels parallèles et les cartes réseaux, ont permis de réduire considérablement ces temps de latence. Les bandes passantes disponibles en matériels standards de réseaux et les temps de latence disponibles aujourd hui permettent d envisager le déploiement de grappes de PC afin un niveau de performances élevé. Le système d'exploitation Les trois principaux systèmes d exploitation sur les PC de commodité sont : Microsoft Windows 2000 Microsoft Windows XP Linux Concernant Windows NT, Microsoft annonçait en 1996 la mise en place de support pour les clusters NT, support qui ne concerne encore aujourd'hui que les clusters de deux PCs, et uniquement pour la redondance. Il n y a pas réellement de solution sur étagère. Idem pour Windows XP/2000. Par contre, le support pour clustering sous Linux existe depuis 1994. La NASA a mis en place le premier cluster de PCs sous Linux, sous le nom de projet Beowulf. Aujourd'hui, plus de 30 grappes sous Linux fonctionnent dans différentes universités américaines. Dans le top 500 des plus puissants ordinateurs au monde, 9 sont des clusters sous Linux. Le système d'exploitation Linux est incontestablement plus mûr pour le clustering que Windows. Linux supporte les librairies parallèles de passages de messages MPI (Message Passing Interface) et PVM (Parallel Virtual Machine) qui sont actuellement utilisées dans les calculateurs parallèles traditionnels. Il est relativement aisé de programmer un cluster sous linux. Architecture parallèle Les architectures multi processeurs ont été élaborées pour d une part améliorer les performances en répartissant les traitements sur plusieurs processeurs et d autre part pour garantir la sûreté de fonctionnement en cas de défaillance du processeur. On distingue généralement deux grandes familles d architecture parallèle : 12

SMP : Symetric Multi Processor ou couplage fort MPP : Massively Parallel Processing ou couplage faible Couplage fort: SMP Cette architecture permet à plusieurs processeurs d accéder aux même ressources partagées à savoir la mémoire et les systèmes d entrées /sorties. Les conflits sont gérés par un système d exploitation SMP. Souvent les systèmes d exploitation monoprocesseurs sont modifiés afin de supporter le multi processeurs (Windows NT, Solaris, etc.) Ce type de solution est peu onéreux et très largement répandu dans les systèmes d exploitation serveur disponible sur le marché. En effet les principaux systèmes supportent le multiprocesseur (Solaris, Linux, Windows au sens large). Le principal avantage de ces architectures est qu elles sont transparentes pour les applications en ce sens que seul le système d exploitation gère l aspect multiprocesseur. Une application classique va donc pourvoir fonctionner sur un système multiprocesseur. Cependant ces solutions ont des inconvénients, le gain de performance n est pas proportionnel au nombre de processeurs. Le nombre de processeur est limité (<20) car au delà la gestion des conflits devient pénalisante par rapport au gain de performance. De plus les applications et systèmes d exploitation doivent être modifiés (avec l ajout de threads par exemple) afin de tirer parti de l architecture SMP sans les gains de performance sont minimes. Enfin un bus système gère les conflits matériels entre les processeurs et les ressources. Couplage faible: MPP Les architectures dites massivement parallèles sont des architectures de type cluster dont certains éléments propriétaires (matériel et logiciel) permettent d assurer les performances et le passage à l échelle. Cray a été longtemps le constructeur de référence de ce domaine. Ces architectures sont en voie de disparition sous leur forme ultra propriétaire, à l exception peut-être des clusters SP d IBM au profit des clusters de PC bien moins onéreux. Une architecture MPP peut être vue comme un ensemble de nœuds autonomes interconnectés. Le nombre de nœuds interconnectés est important (entre 10 et 100 nœuds). Chaque nœud dispose de ressources minimales lui permettant (par exemple) d exécuter une copie de l OS. Dans ce type d architecture matérielle le gain est proportionnel au nombre de processeurs. Ce type de solution permet de répondre à des besoins très spécifiques tels que les applications de calcul scientifique, la simulation ou bien certaines bases de données critiques (réservation SNCF). Les principaux avantages de ces solutions reposent sur les performances pour des applications «exigeantes» et la disponibilité élevée. Enfin le gain est proportionnel au nombre de processeurs. Par contre du fait de sa spécificité, il existe très peu d applications adaptées à ce type d architecture car elles doivent être développées spécifiquement ou réécrites si elles existent déjà. La complexité de développement et les compétences afférentes à ces systèmes sont des paramètres à prendre en compte. De plus ces solutions nécessitent un système d exploitation spécifique ainsi qu un réseau d interconnexion dédié interne à la machine. Le réseau d interconnexion peut avoir des topologies diverses en fonction des technologies utilisées et des buts recherchés (Bus, Anneau, Hypercube, Arbre, Grille). 13

Redondance matérielle La redondance matérielle est l ensemble des moyens techniques mis en œuvre pour garantir la disponibilité du service. On trouve notamment sur les serveurs professionnels des périphériques redondants (stockage, réseau, alimentations, CPUs), une capacité chez certains de changement "à chaud" de périphériques (hot plug), l utilisation d alimentation secourue (onduleur) pour pallier les déficiences de la distribution électrique. Enfin à noter l apparition des de watchdogs (périphériques permettant de déclencher un redémarrage matériel en cas de "plantage" du système d'exploitation). Ces caractéristiques spécifiques permettent de garantir la disponibilité du service car le serveur est un point focal du système d information du point du stockage des données et de la mutualisation de l information. Stockage Le stockage de données adresse non seulement la disponibilité au travers des techno RAID mais aussi la mutualisation des ressources de stockage via les NAS et les SAN. Dans tous les cas il est nécessaire de bâtir une politique de sauvegarde afin de garantir la continuité du service. Stockage de masse: Systèmes RAID La technologie RAID (Redundant Array of Independent Disks) permet d'utiliser plusieurs disques durs ensemble pour constituer un système de stockage de données pouvant résister à la panne d'un seul de ces composants. Le système RAID offre un autre intérêt : accélérer les accès aux données en répartissant celle-ci sur plusieurs disques selon diverses stratégies. Deux possibilités existent pour la mise en place d'un tel système : une solution matérielle ou une solution logicielle. Dans la solution matérielle, l'application de RAID est confiée au contrôleur de disques, située sur une carte PCI dans l'ordinateur ou dans un boîtier séparé. L'avantage est que le système d exploitation n'est pas sollicité. Les transferts de données sont aussi plus rapides, car le contrôleur RAID n'a qu'une tâche à effectuer, alors que le système peut être sollicité pour d'autres services au même moment. Dans la solution logicielle, c'est le système d'exploitation qui gère le système de RAID. On évite ainsi le passage de toutes les données par le point d'engorgement que peut constituer le contrôleur RAID. Ce procédé est aussi plus économique, car il n'y a pas besoin d'acheter du matériel spécial, cela fonctionne avec des disques IDE. En contrepartie, le stockage utilise une plus grande partie des ressources du système. Les types de RAID supportés sont les suivants : RAID 0 : stripping : les informations sont découpées en "tranches" qui sont éclatées entre les différents disques ou partitions utilisés ; pas de tolérance aux pannes. Cette solution permet de répartir les bloques d un fichier entre plusieurs disques pour répondre à des impératifs de performances RAID 1 : mirroring simple : les mêmes informations sont écrites sur tous les disques ; RAID 2 : Cette solution est similaire au niveau 0 mais travaille au niveau du bit (et non du bloc). Cette solution est très rarement mise en œuvre RAID 3 : contrôle avec bit de parité : Répartition entre support au niveau de l octet. Utilisation d un disque dédié au contrôle de parité des octets stockés. Cette solution ne permet pas des accès multiples 14

et de ce fait est rarement utilisé dans des contextes à exigence de performance RAID 4 : stripping avec utilisation d'un disque supplémentaire pour stocker les informations de parité. Ce type de RAID supporte la panne d'un disque; RAID 5 : comme le RAID 4, mais les informations de parité sont réparties entre les disques. La ventilation des informations de parités entre les différents supports de données permet les accès multiples. Cette solution est perçue comme le meilleur compromis entre performance et disponibilité. Cette solution est l une des plus utilisées RAID 6 : idem 4 avec information de parité répartie sur les disques de données. D autres solutions sont apparues depuis la définition de ces 7 niveaux initiaux, en particulier : Niveau 0+1 : miroir entre deux ensembles de niveau 0. Cette solution a été introduite pour permettre la répartition des données entre différents supports physiques (performance et scalabilité) en l associant à la disponibilité offerte par une solution en miroir. Niveau 10 : stripping entre miroir. Symétrique de la solution précédente. Cette solution est basée sur une solution RAID1 sur laquelle est ajoutée une stratégie RAID0 pour répondre à des impératifs de scalabilité. Figure 5 : ventilation de l information en RAID 0, 1, 3 et 5 15

Stockage en réseau : NAS/SAN Le stockage en réseau fait généralement référence à deux types de solutions distinctes et une alternative: Le NAS (Network Attached Storage) : le réseau dont on parle est le réseau IP qui permet de mutualiser les données stockées sur les serveurs de fichiers reliés entre eux par le LAN de l'entreprise. Le SAN (Storage Area Network). Il n'est pas question d'infrastructure IP. C et un réseau dédié au stockage le plus souvent constitué par des câbles en fibre optique (fiber channel) relié à un commutateur. iscsi (combinaison de IP et SCSI) => la solution n est pas mure! L'une et l'autre tentent de répondre aux besoins croissants des entreprises en matière de consolidation et de mutualisation des données à stocker et à sauvegarder. A mesure que le volume et les sources des données à conserver se font plus importants, il devient en effet matériellement impossible de n'avoir qu'un point de stockage, comme dans le cas du DAS. Une différence radicale sépare cependant les deux technologies : le NAS utilise le réseau courant de l'entreprise (LAN), alors que le SAN constitue en lui-même un réseau dédié au stockage. Les possibilités offertes par le second sont donc nettement supérieures à celles du NAS, mais le coût induit est plus élevé. Pour simplifier, on peut dire que le SAN répond aux exigences des grandes entreprises en termes de disponibilité de bande passante comme de criticité des applications, alors que le NAS correspond en général aux besoins moins contraignants des PME/PMI. Comparaison NAS/SAN : Qualité de service (Qos) : c'est l'un des arguments majeurs du SAN. Le réseau Ethernet se lequel repose le NAS n'offre en effet aucune garantie quant au fait que la requête envoyée par un serveur a bien été reçue et prise en compte par les systèmes de stockage. Dans le cas du SAN le commutateur prend en charge cette fonction et garantit en outre un débit fixe (100Mo/s par lien en fibre optique). Les entreprises qui ont des applications critiques nécessitant une haute qualité de service opteront donc plutôt pour le SAN. Disponibilité : idem. Le SAN assure la redondance du stockage (c'est à dire l'accessibilité au système de stockage en cas de panne de l'un de ses éléments) en doublant au minimum chacun des éléments du système. Le NAS lui ne permet pas cette fonction vitale pour certaines applications (type bancaires, assurances, sites de commerce électronique, etc.) Hétérogénéité : on dit parfois que le NAS convient bien aux environnements hétérogènes. Il serait plus exact de dire que l'interopérabilité des éléments de stockage ne joue ici que sur une variante majeure : l'os du serveur de fichier, qui selon qu'il sera Unix ou Windows, utilisera un protocole NFS (Network File System) ou CIFS (Common Internet File System). Coût : le NAS ne requiert pas de l'entreprise qu'elle mette en place une infrastructure de câbles en fibre optique (solution majoritairement adoptée pour le SAN). Son prix est donc abordable pour des petites entreprises ou des services départementaux de grands groupes dont les volumes de données ne sont pas trop importants. 16

NAS Conclusion Dans la pratique les modèles d architecture matérielles répondant à des besoins différents. Peu d applications tirent parti des architectures spécifiques proposées par les ordinateurs massivement parallèles. Ce sont essentiellement les bases de données (Oracle) et les applications de calcul scientifique lourd. La majeure partie des besoins est couverte par des architectures SMP mettant en œuvre des processeurs x86 d Intel. La quasi totalité des systèmes d exploitation supporte le SMP. Les 20% restant sont couverts par des architectures spécifiques pour des besoins très particuliers. A noter l émergence de clusters à bas prix sous Linux et les grilles qui permettent de démocratiser les serveurs pour des applications non critiques mais aussi pour les applications réclamant de hautes performances. 17