Intégration d un serveur Linux sur une plateforme «Disaster / Recovery»

Dimension: px
Commencer à balayer dès la page:

Download "Intégration d un serveur Linux sur une plateforme «Disaster / Recovery»"

Transcription

1 Institut Supérieur d Informatique Modélisation et leurs Applications Complexe des Cézeaux BP AUBIERE CEDEX International Business Machines Rue vielle poste MONTPELLIER Rapport de stage 3 e année F5 Intégration d un serveur Linux sur une plateforme «Disaster / Recovery» Présenté par : Guillaume CRESTA Responsable entreprise : Mme Christine O SULLIVAN Responsable ISIMA : M. Romuald AUFRERE Avril 2006 Octobre 2006

2 Institut Supérieur d Informatique Modélisation et leurs Applications Complexe des Cézeaux BP AUBIERE CEDEX International Business Machines Rue vielle poste MONTPELLIER Rapport de stage 3 e année F5 Intégration d un serveur Linux sur une plateforme «Disaster / Recovery» Présenté par : Guillaume CRESTA Responsable entreprise : Mme Christine O SULLIVAN Responsable ISIMA : M. Romuald AUFRERE Avril 2006 Octobre 2006

3 Rapport de stage ISIMA 2006 Page 3 REMERCIEMENTS J ai eu le plaisir d effectuer mon stage de six mois au sein de l entreprise IBM située à Montpellier (34). Je tiens à remercier plus particulièrement Christine O Sullivan ma tutrice pour son accueil, sa sympathie, et la confiance qu elle m a accordée tout au long de mon stage. Grâce à son suivi et ses conseils lors de cette expérience j ai pu réaliser un travail efficace. Ses explications précises sur ses attentes nous ont permis de produire un travail rapide et ciblé. Je remercie également Romuald Aufrere mon tuteur à l ISIMA et Christine O Sullivan pour leur encadrement, leur disponibilité et leurs explications claires. Je remercie Olivier Alluis et toutes les personnes du service Storage pour m avoir accueilli au sein de leur structure et m avoir consacré du temps dès mon arrivée et tout au long de mon stage ; tous ont toujours été disponibles et j ai passé de bons moments en leur compagnie. Un autre remerciement ira à Emmanuel Tong-Viet pour son aide sur la plateforme, le partage de ses connaissances sur le SAN et sur l entreprise. Pour finir, je tiens à remercier toutes les personnes qui m ont aidé d un point de vue technique (les personnes travaillant au setup, sur le réseau, sur la technologie System x) et relationnel (les hôtesses d accueil, les agents de sécurité) ainsi qu aux membres de l équipe de rugby pour mon intégration dans le club de l entreprise.

4 Rapport de stage ISIMA 2006 Page 4 GLOSSAIRE ABLE : Agent Building Learning Environment, permet la gestion des incidents sur un System i. AIX : Advanced Interactive executive, système d'exploitation de type UNIX d'ibm, mais seul l'acronyme est utilisé. AMD : Advanced Micro Devices, entreprise américaine qui fut la première à briser le monopole de son ancien partenaire Intel, en produisant ses propres processeurs 286 et 386 pour PC. Après de longues péripéties concernant le microcode, elle produit aussi, depuis 1993, des processeurs 486. AMD réussit également très bien dans le domaine des mémoires flash et des processeurs RISC ANSI : American National Standards Institute, organisme privé de normalisation américain à but non lucratif. Il est le représentant des États-Unis à l'iso (Organisation internationale de normalisation). ARS : Asset Recovery Service, une des divisions d IBM présente sur le site de Montpellier et qui est en charge de la valorisation des produits et de la réutilisation des produits des générations précédentes. ATM : Asynchronous Transfer Mode : Mode de transfert asynchrone, technique de réseau de transmission d'informations numérisées permettant de transmettre simultanément sur le même support et à de très hauts débits, différents types de contenus (vidéo, audio, données). Cette technique permet l'utilisation optimale des capacités des lignes. Benchmark : Banc d essai permettant de mesurer les performances d un système pour le comparer à un autre.

5 Rapport de stage ISIMA 2006 Page 5 Bridge : Equipement effectuant une conversion de protocoles, par exemple pour raccorder des réseaux Ethernet et Token Ring. CLI : Command Line Interface, invite de commande qui est un mode de contrôle d'un ordinateur fonctionnant en ligne de commande (commandes tapées au clavier). Il utilise un interpréteur de commandes en mode interactif. CSC : Customized Solution Center, une des divisions d IBM présente sur le site de Montpellier et qui est en charge d intégrer des logiciels et du matériel pour proposer des solutions clés en main. CSI : Consultants and Systems integrator Interchange, événement IBM comportant des conférences techniques pour convaincre les clients. DB2 : est un système de gestion de base de données utilisant le langage SQL tout comme Oracle ou bien encore Mysql. Cette base de donnée est un système propriétaire appartenant à IBM déployé sur les Mainframe, systèmes UNIX, Windows et Linux. Il existe une version allégée pour les ordinateurs type PALM DHCP : Dynamic Host Configuration Protocol, est un terme anglais désignant un protocole réseau dont le rôle est d'assurer la configuration automatique des paramètres TCP/IP d'une station, notamment en lui assignant automatiquement une adresse IP et un masque de sousréseau. DHCP peut aussi configurer l'adresse de la passerelle par défaut, des serveurs de noms DNS et des serveurs de noms NBNS (connus sous le nom de serveurs WINS sur les réseaux de la société Microsoft). DLPAR : Dynamic Logical PARtitionning, permet aux administrateurs de réattribuer des ressources matérielles et de s'adapter en fonction des modifications de configurations matérielles requises, sans affecter la disponibilité du système. DOS : Disk Operating System, système d'exploitation d'un ordinateur sous forme de commandes texte compatible PC.

6 Rapport de stage ISIMA 2006 Page 6 DRAM : Dynamic Random Access Memory, fut le type de mémoire à accès aléatoire Random Access Memory RAM le plus utilisé dans les ordinateurs. La DRAM ne disposait que d'un seul canal de transfert, au contraire de la VRAM qui en avait deux. EMEA : Europe, Middle-East and Africa, Europe Moyen-Orient Afrique est un découpage souvent retenu par les sociétés américaines. E-port : Extension-port, pour un switch d un port vers un switch. ESCON : Enterprise Systems CONnection, est une interface série pour relier les systèmes de stockage. Son débit est de 17 Mégabit par seconde. ESS : Enterprise Storage Server est une baie de disque qui résout les problèmes de stockage dans un environnement «On Demand». EXP : EXpandable storage Plus, est une solution de stockage de coût réduit pour la connexion directe en grappe. FC ou Fibre Channel : Fibre Channel est un protocole permettant une connexion haut débit entre un ordinateur et son système de stockage. Il a été conçu à l'origine pour les superordinateurs, mais il est maintenant devenu le protocole standard des SAN. Le protocole Fibre Channel peut fonctionner sur de la paire torsadée ou de la fibre optique. FC-AL : Fiber Channel - Arbitated Loop L'interface FC-AL est une méthode de travail optique point à point. Elle supporte néanmoins des câblages en cuivre beaucoup moins onéreux. Le FC-AL peut être utilisé comme interface de stockage offrant de hauts niveaux de performance pour les systèmes de stockage en informatique. FCP : Fibre Channel Protocol. FC-S : Fibre Channel Switched.

7 Rapport de stage ISIMA 2006 Page 7 FICON : FIber CONnectivity, est le même type de protocole que ESCON sauf que celui-ci se transmet sur support Fibre Channel. Flash Copy : Service de copie d IBM. Fortran : FORmula TRANslation, est un langage de programmation utilisé principalement en mathématiques et dans les applications scientifiques. F-port : fabric-port, est la désignation d un port d un switch vers un nœud. FSPF : Fabric Shortest Path First, protocole de cheminement utilisé dans des réseaux de fibre channel. Il calcule le meilleur chemin entre les commutateurs, établit des itinéraires à travers le réseau et calcule les itinéraires alternatifs dans le cas d'un d'échec ou d'un changement de topologie. FSPF peut garantir la livraison de trames, même si la topologie de cheminement a changé pendant un échec. Gateway : Passerelle, le plus souvent entre deux réseaux mais aussi entre deux protocoles. GBIC : GigaBit Interface Converter, est un module qui convertit un signal électrique en signal optique. GUI : Graphic User Interface. En opposition à la ligne de commande, le GUI permet de s'affranchir de taper des lignes de commandes, pour pouvoir tout effectuer à la souris, en mode graphique souvent sous forme web. HACMP : High Availability Cluster MultiProcessing, technique de clustering utilisée par IBM, à base de RSCT. HACoC : High Availability Center of Competency, équipe fondée dans le but d être plus efficace sur les solutions de haute disponibilité proposées aux clients et de pourvoir des recommandations régulières afin d améliorer les infrastructures existantes.

8 Rapport de stage ISIMA 2006 Page 8 HMC : Hardware Management Console, est un outil d administration qui permet de gérer les partitions logiques d un système. Hub : (Français : concentrateur) Élément de connectivité qui constitue une connexion commune entre des composants d'un réseau en étoile. Les concentrateurs actifs nécessitent une alimentation électrique car ils régénèrent et retransmettent les signaux sur le réseau. Les concentrateurs passifs interconnectent simplement les éléments du réseau. IBM : International Business Machines. IEEE : L Institute of Electrical and Electronics Engineers (que l on peut prononcer «i trois e») est une organisation à but non lucratif. ifcp : Protocole définissant une technique de stockage en réseau IP, dans laquelle les instructions et les données Fibre Channel sont encapsulées dans des datagrammes IP, au moment où elles sont acheminées d'un nœud à l'autre d'un réseau de stockage. IFL : Integrated Facility for Linux, est un processeur d'unité centrale IBM consacré à exploiter le logiciel d'exploitation Linux, avec ou sans z/vm. IFL est l'un des deux types de processeurs d'unité centrale expressément conçus pour réduire des coûts de logiciel. (L'autre type est zaap.) Le microcode limite IFL à la charge de travail de Linux. IGS : IBM Global Services, service d IBM qui fournit un support aux équipes de maintenance et maintient des parcs informatiques de nos clients. ISC : Integrated Supply Chain, service d IBM qui a pour mission l assemblage des grands systèmes IBM. iscsi : Technique consistant à faire passer des commandes SCSI à travers une pile IP. Le principe est de piloter des disques durs SCSI à distance via le réseau de façon transparente, dans le cadre du SAN.

9 Rapport de stage ISIMA 2006 Page 9 ISIMA : Institut Supérieur d Informatique Modélisation et leurs Applications, est une école d ingénieur en informatique située à Clermont-Ferrand (63). IO : Input Output, désigne un périphérique acceptant de recevoir et d émettre des données, ou l ensemble des périphériques permettant d échanger des données avec la carte mère. LAN : Un réseau local (en abrégé RLE pour réseau local d'entreprise, en anglais LAN pour Local Area Network) est un réseau informatique à une échelle géographique relativement restreinte, par exemple une salle informatique, une habitation particulière, un bâtiment ou un site d'entreprise. LC : connecteurs mâles fibre channel pour un débit de 2 ou 4 GB. Linux : noyau de système d exploitation de type UNIX, inventée par Linux Torvalds. L-port : est la désignation d un port d un hub. LUN : Logical Unit Number, est employé pour identifier des dispositifs SCSI, ainsi le host peut adresser et accéder aux données sur chaque unité de disque d un array. Mc Data : spécialiste dans les solutions de sécurité pour le stockage. MFM : Modified Frequency Modulation, type de codage numérique de l information sur disque dur. Ce type d encodage est limité aux disques de capacité inférieure à 20 Mo et autorise un débit maximum de 625 Kbytes. NAS : Network Acces Server, équipements utilisés par les opérateurs dans le cadre des services d'accès à Internet par le réseau téléphonique commuté. Ils servent à transformer les communications téléphoniques en flux de données IP en assurant l'interface entre le réseau téléphonique commuté et le réseau de transport de données IP NetFinity : est un modèle de la gamme System X d IBM.

10 Rapport de stage ISIMA 2006 Page 10 NL-port : est la désignation d un port d un nœud vers un hub. N-port : Node-port, est la désignation d un port d un nœud (serveur, système de stockage) vers un switch. Oracle : Oracle est un système de gestion de base de données relationnelle fourni par Oracle Corporation et couramment utilisé dans les applications sur différentes plateformes. Il a été développé par Lawrence Ellison, accompagné d'autres personnes telles que Bob Miner et Ed Oates. OSI : Open Systems Interconnection, désigne le modèle de référence permettant d'assurer les échanges d'information entre des systèmes hétérogènes. Ce modèle, dit à sept couches, définit sept niveaux de compatibilité (physique, liaison de données, réseau, transfert, session, présentation, application). PC : Personal Computer, désigne un ordinateur personnel. Pentium III Xéon : est un processeur informatique de la gamme x86 fabriqué par Intel. PPRC : Peer to Peer Remote Copy, logiciel de la firme StorageTek permettant d'automatiser des copies massives de sécurité en temps réel d'espaces de stockage d'un serveur vers un autre sans en dégrader les performances générales. PSSC : Product and Solutions Support Center, service d IBM permettant de démontrer les avantages des systèmes IBM. R&D : Les activités de R&D (Recherche et Développement) servent la stratégie de développement de l'organisation. Ses missions consistent à anticiper les révolutions technologiques, les ruptures d'usages et à innover. RAMAC : Random Access Method of Accounting and Control, est le premier ordinateur équipé d un disque dur composé de 50 plateaux de 24" pouvant stocker un volume considérable de données, 5 millions d octets.

11 Rapport de stage ISIMA 2006 Page 11 RISC : Reduced Instruction-Set Computer. Le microprocesseur à jeu d'instruction réduit est une architecture matérielle de microprocesseurs. On l'a opposé à la fin des années 1980 et au début des années 1990 à l'architecture CISC (Complex Instruction-Set Computer). Routeurs : Un routeur est un matériel de communication de réseau informatique. Son travail est de déterminer le prochain nœud du réseau auquel un paquet de données doit être envoyé, afin que ce dernier atteigne sa destination finale le plus rapidement possible. Ce processus nommé routage intervient à la couche 3 (couche réseau) du modèle OSI. Le routage est souvent associé au protocole de communication IP, même si d'autres protocoles routables moins populaires existent. RSCT : Reliable Scalable Cluster Technology. Logiciel de glu (programme permettant de faire fonctionner ensemble d'autres programmes) utilisé par IBM pour faire tenir ses clusters GPFS ou HACMP en un seul morceau, à l'origine pour les RS/6000 SP, puis porté sur d'autres plateformes du groupe. SAN : Storage Area Network, est un réseau spécialisé permettant de partager de l'espace de stockage à une librairie de sauvegarde et à des serveurs. SC : Connecteurs mâles d une fibre channel pour un débit de 1 GB. SCSI : Small Computer System Interface, est un standard définissant un bus informatique permettant de relier un ordinateur à des périphériques ou bien même à un autre ordinateur. SFP : Small form Factor Pluggable. SLT : Solid Logic Technology, est une technologie de fabrication de circuits électroniques développée par IBM dans les années 1960 pour la série d ordinateurs S/360. Elle consistait à assembler les divers circuits sur une plaquette de céramique puis d interconnecter plusieurs de ces plaquettes pour arriver au circuit logique final voulu.

12 Rapport de stage ISIMA 2006 Page 12 SMT : Simultaneous MultiThreading, est une technologie proposée afin d améliorer l efficacité globale des unités centrales de traitement. SMT permet aux multiples tâches indépendantes d exécution d utiliser au mieux les ressources fournies par des architectures modernes de processeur. SNIA : Storage Network Industry Association, association de normalisation et de promotion des systèmes SAN, formée en 1997 et dont le but est normalement non lucratif. SSA : Serial Storage Architecture, interface série de disque dur à la norme SCSI. SSPD : Solution Scénario Profile update, est une publication rapide d une conception de solution. Elle contient juste assez d information pour nous laisser déterminer dans quel but la solution a été utilisée et comment celle-ci fonctionne. Switch : un switch ou commutateur est un dispositif électronique servant de commutateur réseau et permettant de créer un réseau informatique local de type ethernet. Ce dispositif est dit intelligent par opposition au hub car, alors que ce dernier fait transiter les données par toutes les machines, le switch permet de diriger les données uniquement vers la machine destinataire. System i : serveurs ayant une base de donnée relationnelle directement intégrée au système d exploitation. System p : serveur IBM permettant le calcul scientifique très rapide en précision étendue. System x : serveurs en lames (cartes équipées de processeur Intel) pouvant être modifées et réparés au vol sans arrêt du système. System z : désignation des mainframes 64 bits IBM. System/360 : est une famille de système d'ordinateur central annoncée par IBM le 7 avril C'était la première famille des ordinateurs faisant une distinction claire entre l'architecture et l'exécution. L'architecte en chef du S/360 était Gene Amdahl.

13 Rapport de stage ISIMA 2006 Page 13 Token-Ring : L'Anneau à jeton, plus connu internationalement sous le terme de Token-Ring, est un protocole de réseau local qui fonctionne sur les couches Physique et Liaison du modèle OSI. Il utilise une trame spéciale de trois octets, appelée jeton, qui circule dans une seule direction autour d'un anneau. Les trames Token Ring parcourent l'anneau dans un sens qui est toujours le même. ULP : Upper Layer Protocol, application logique de couche haute employant les services Unix : UNIX est un système d'exploitation, à usage principalement professionnel, conceptuellement ouvert (nombreux outils qui font une chose et la font bien), multitâche et multiutilisateur, créé en VE : Virtualization Engine, logiciel d'ibm permettant d'exécuter plusieurs serveurs (jusqu'à 10) Unix sur un unique microprocesseur. Par exemple, une machine quadri-processeurs pourra simuler jusqu'à 40 systèmes processeurs, ce qui autorise 40 instances d'un seul système d'exploitation (OS), ou 40 versions d'un même OS, voire 40 OS différents. Virtualization Engine utilisera les outils de logistique et de gestion de Tivoli, et empruntera des fonctions de WebSphere. WAN : Wide Area Network, réseau étendu : Réseau qui communique sur une longue distance, comme à l échelle d une ville ou à travers le monde. Windows : est une gamme de systèmes d'exploitation propriétaires pour des ordinateurs personnels, principalement distribuée pour les plateformes x86 (Intel/AMD). Si ses versions les plus récentes sont des systèmes d'exploitation complets 32 ou 64 bits, multi-utilisateur, multitâches, et parfois même multi-poste, Windows a commencé par être une simple interface graphique fonctionnant sous DOS. WWN : World Wide Name, est un unique identifiant dans le réseau de stockage type fibre channel. Chaque WWN est un nombre de 8 bits dérivé d un IEEE OUI (pour les 3 premiers bits) et d une information de vendeur (pour le reste).

14 Rapport de stage ISIMA 2006 Page 14 WWNN : World Wide Node Name, est le World Wide Name que possède les nœuds d un réseau SAN. WWPN : World Wide Port Name, est le World Wide Name que possède le port fibre channel du nœud d un réseau SAN.

15 Rapport de stage ISIMA 2006 Page 15 TABLE DES ILLUSTRATIONS Figure 1 : Photos d IBM Montpellier...21 Figure 2 : Répartition du chiffre d affaire suivant le secteur d activité...22 Figure 3 : Répartition des secteurs PSSC...25 Figure 4 : Organigramme du PSSC...26 Figure 5 : Schématisation d un réseau SAN...27 Figure 6 : Architecture du SAN...28 Figure 7 : Technologie du SAN...29 Figure 8 : Différents types de stockage...32 Figure 9 : Photo du System x...34 Figure 10 : Photo du BladeCenter...35 Figure 11 : Photo de la famille System p...38 Figure 12 : Photo de l Open Power Figure 13 : Illustration d un partitionnement logique...40 Figure 14 : Protection LPAR dans un environnement IBM Power Figure 15 : Photo de la famille System i...41 Figure 16 : Schématisation du concept de capacité temporaire...43 Figure 17 : Différentes applications intégrables sur System z...43 Figure 18 : Photo du Z Figure 19 : Plateforme HACoC à mon arrivée...46 Figure 20 : Plateforme HACoC à venir...48 Figure 21 : Zoning, nom de la zone...52 Figure 22 : Zoning, sélection des WWPN...53 Figure 23 : Zoning, clôture de la zone...53 Figure 24 : Zoning, enregistrement et application...54 Figure 25 : Signalisation du port...55 Figure 26 : Information sur le port interrogé...55 Figure 27 : Schématisation du cycle Global Mirror...73 Figure 28 : Planning de travail au début du stage...78 Figure 29 : Planning de travail effectif...79

16 Rapport de stage ISIMA 2006 Page 16 RESUME IBM est une multinationale américaine qui est un des leaders dans le monde des serveurs. Elle est implantée entre autre en Languedoc-Roussillon à Montpellier. Une des principales préoccupations des clients est la continuité du business. Pour cela, IBM développe une plateforme de disaster / recovery dans le but de prouver la haute disponibilité de leurs produits. La solution utilisée basée sur un System x avec Linux comme système d exploitation en relation avec une baie de stockage correspond parfaitement aux besoins et attentes du service Storage d IBM Montpellier. Ma tutrice de stage Christine O Sullivan avait précédemment développé une plateforme de haute disponibilité contenant un serveur AIX, une baie de stockage sur deux sites distants, un situé à Montpellier et l autre à Poughkeepsie. Afin d obtenir une diversité de serveurs sur la plateforme «Disaster / recovery» entre les Etats-Unis et la France, un serveur Linux y a été intégré. Une analyse de compatibilité entre la baie de stockage et le serveur, a été effectuée avant la réalisation du projet. Pour le développement de cette partie de la plateforme, je me suis servi de mes acquis en matière de SAN, de service de copie, et de Linux. Le projet réalisé répond entièrement aux attentes de Mme O Sullivan. Il permet une diversité de serveurs sur la plateforme. Ce module étant réalisé dans le cadre d un projet de grande envergure permet d étoffer un peu plus la plateforme et de donner plus de poids à celle-ci. Mots clés : continuité du business, plateforme de disaster / recovery, Linux, baie de stockage, haute disponibilité, diversité de serveurs. ABSTRACT IBM is an american firm, leader in the servers world leadership. It s located in Montpellier, Languedoc-Roussillon. One of the clients main preoccupations is the business continuity. That s why IBM is developing a disaster/recovery platform in order to prove the high availability of their products. The used solution, based on a System X, with an operating system Linux, in relation with a storage unit perfectly corresponds to the Storage service of IBM Montpellier needs and attempts. My supervisor Christine O Sullivan has previously developed a high availability platform containing an AIX server, a storage unit on two distant sites, one in Montpellier and the other one in Poughkeepsie. In order to obtain a diversity of servers on the disaster / recovery platform between the United States of America and France, a Linux server has been integrated. A compatibility analysis between the storage unit and the server has even been studied before the realization of this project. In order to develop this part of the platform, I used my own competencies in SAN, copy services and in Linux. This specific project fully fits to Mrs O Sullivan s needs. It allows a diversity of servers on the platform. This module which is realized within the framework of a great scale project extends the platform capacities and gives it more strategic opportunities. Keywords: business continuity, disaster / recovery platform, Linux, storage unit, high availability, diversity of servers.

17 Rapport de stage ISIMA 2006 Page 17 REMERCIEMENTS GLOSSAIRE TABLE DES ILLUSTRATIONS RESUME, ABSTRACT SOMMAIRE SOMMAIRE INTRODUCTION 18 I PRESENTATION GENERALE 19 I.1 Présentation de l entreprise 19 I.1.1 Historique 19 I.1.2 Présentation des activités d IBM 21 I.1.3 Présentation des activités de Montpellier 22 I.1.4 Présentation du PSSC 23 I.1.5 Gamme IBM 27 I SAN 27 I Baies de stockage 29 I IBM System anciennement appelé e-server 33 I.2 Présentation de la plateforme High Availability Center of Competency (HACoC) 44 I.2.1 Objectifs de la plateforme 44 I.2.2 Technologies utilisées 45 I.2.3 Future plateforme 47 I.3 Cahier des charges 49 II REALISATION DU PROJET 51 II.1 Intégration Linux 51 II.1.1 Configuration du SAN 51 II.1.2 Configuration des disques 56 II.1.3 Installation de sdd outil de multipathing 60 II.2 Global Mirror 65 III RESULTATS ET DISCUSSIONS 76 III.1 Travail effectué conformément au cahier des charges 76 III.2 Méthodologie et planning 77 III.3 Difficultés rencontrées 79 III.4 Améliorations possibles 84 CONCLUSION 86 OUVRAGES CONSULTES 87

18 Rapport de stage ISIMA 2006 Page 18 INTRODUCTION Dans le cadre de ma troisième année d étude à l Institut Supérieur d Informatique de Modélisation et des Applications, j ai effectué un stage de six mois, d avril 2006 à octobre 2006, sous la tutelle de M. Romuald AUFRERE professeur à l ISIMA. Ce stage s est déroulé dans l entreprise IBM à Montpellier (Hérault) au sein du Products and Solutions Support Center (PSSC) sous la direction de Mme Christine O Sullivan. L une des responsabilités de ce département est de déployer différentes solutions afin de les vendre à ses clients. Il faut donc développer des solutions très pointues. La plateforme actuelle permet de démontrer une solution de «Disaster / Recovery» entre deux sites distants de 7000 kilomètres. Elle est dotée dans un premier temps de serveurs AIX. L objectif est d intégrer un serveur Linux et Windows sur celle-ci afin de diversifier la plateforme et ainsi fournir une meilleure offre aux clients. J ai donc été accueilli en tant que stagiaire pour intégrer un serveur Linux sur la plateforme afin de la varier et de tester les performances du serveur Linux. Tout d abord je devais m adapter au fonctionnement d IBM, et appréhender les technologies sur lesquelles j allais travailler et que je devais utiliser par la suite, puis élaborer des configurations par rapport aux discussions échangées avec les membres de l équipe et enfin réaliser le «module» de la plateforme. L objectif principal était donc de pouvoir intégrer un serveur System X muni d un système d exploitation Linux permettant de diversifier la plateforme qui contenait déjà un serveur AIX et utiliser des services de copie afin de sauvegarder les données sur un site distant de plus de 7000 kilomètres. Ce serveur se devait d être accessible à tous et d être compatible avec la plateforme déjà en place. Dans un premier temps, je vais présenter l entreprise dans laquelle j ai effectué mon stage, puis les connaissances et technologies apprises, et enfin la plateforme sur laquelle j ai travaillé. Ensuite, j expliquerai le travail effectué sur la plateforme, que ce soit le serveur Linux, les services de copie ou les applications présentes sur le Linux, et mes choix techniques et les différents développements pour répondre à ces attentes, ainsi que les différentes évolutions. Enfin, je présenterai les différentes phases du stage ainsi que les difficultés rencontrées et les possibles améliorations à apporter. Je conclurai ce rapport en soulignant ce que m a apporté ce stage, tant au niveau technique et professionnel qu au niveau humain.

19 Rapport de stage ISIMA 2006 Page 19 I PRESENTATION GENERALE I.1 Présentation de l entreprise I.1.1 Historique IBM est une société américaine fondée en Surnommée Big Blue, cette entreprise est le leader mondial dans le domaine informatique avec plus de employés à travers le monde. IBM est à l origine de la très grande majorité des technologies informatiques. En 1944, IBM lance son premier ordinateur Mark 1. Il fut développé en collaboration avec l université d Harvard. A cette époque, c est l unique machine qui est capable d exécuter des opérations simultanément. Il mesure 15,24 mètres de long, 2,44 mètres de haut et pèse 5 tonnes. Mark1 additionne une opération en une seconde, mais il met environ six secondes pour une multiplication et le double pour une division. En 1952, la firme introduit l IBM 701, un ordinateur à lampes. Les lampes sont plus faciles à remplacer que les pièces électromécaniques du Mark1. L IBM 701 exécutait instructions par secondes, et fut utilisé par le gouvernement et la recherche. En 1956, IBM crée le Fortran, un langage de programmation basé sur le langage de l algèbre, de la grammaire et des règles syntaxiques. Ce langage est utilisé pour le travail technique. L année suivante, IBM crée l IBM 305 RAMAC qui fut le tout premier ordinateur possédant un disque de stockage. En une seconde, le RAMAC retrouve les données stockées dans cinquante disques rotatifs de 61 cm et stocke 5 Mo. En 1959, les transistors remplacent les lampes. L IBM 7090, un des premiers ordinateurs fabriqués avec des transistors, atteint alors des performances de calculs par seconde. L Air Force utilisa le 7090 pour gérer le «Balistilic Missile Early Warning System». Dans les années soixante, IBM devient le leader mondial de l informatique. Il installe alors 90% des ordinateurs en Europe, son chiffre d affaire et son personnel augmentent fortement. Le 7 avril 1964, IBM introduit le System/360, une large «famille» d ordinateur interchangeable entre les logiciels et périphériques. Le S/360 offre un choix de cinq processeurs et de 19 combinaisons de puissance, de vitesse et de mémoire. L utilisateur peut employer des cassettes à bandes magnétiques ou des disques combinés avec un processeur 100 fois plus rapide. Le System/360 offre des gains de performance incomparables avec le Solid Logic Technology, des modules de céramique et contient des circuits de transistors de plus en plus petits.

20 Rapport de stage ISIMA 2006 Page 20 Dans les années soixante-dix, IBM réalise quelques inventions. Tout d abord, en 1971, elle invente la première disquette (8 pouces ¼) pour stocker les informations personnelles. Puis, en 1973, IBM invente les lecteurs optiques pour les supermarchés. Depuis cette date, les banques utilisent l IBM 3614 pour faciliter les transactions. Elle invente successivement le disque dur, le curseur, la DRAM qui constitue la mémoire vive dynamique, ainsi que les bases de données relationnelles. En 1980, IBM réalise des travaux sur l architecture RISC et lance le PC. Ce n est pas une machine spectaculaire en technologie. Elle offre 16 ko à 256 ko et possède un ou deux lecteurs de disquettes de 5 pouces ¼ ou un disque MFM de 10/20 Mo. Pour le PC, IBM utilise un processeur INTEL et le système d exploitation DOS. IBM réalise alors de nombreux travaux sur DOS et élabore un microscope à effet tunnel (prix nobel de Physique attribué à Gerd Binnig et Heinrich Roher, chercheurs à IBM). En 1985, IBM invente le réseau local Token-Ring qui permet aux PC d échanger des données dans un même immeuble. Dans les années 80, IBM travaille également sur son Unix propre : AIX. Il est un des systèmes les plus stables et robustes. IBM est également à l origine de la célèbre combinaison de touches Ctrl + Alt + Suppr. Dans les années 90, IBM met en place le power PC et lance le serveur Net Finity comprenant des processeurs Pentium III Xeon, ainsi que des unités de stockage pouvant atteindre 12 To de disques. Durant les années 90, IBM fut un des pionniers du e-business, à la pointe de l innovation. La firme est devenue un acteur majeur du progrès grâce à la mobilisation de toutes les actions pour ses clients : services, technologies de l information, matériels et logiciels. Portée par l anticipation du besoin du client, IBM a centré sa stratégie autour du «e-business on Demand» modifiant ainsi sa culture et sa stratégie. L e-business, concept lancé par IBM en 1996, est l utilisation par l entreprise des nouvelles technologies, par exemple Internet, pour apporter plus de valeur ajoutée et d efficacité à la relation qu elle entretient avec ses clients, partenaires, fournisseurs et employés. L e-relation client est un facteur d accroissement du chiffre d affaire et de la productivité des forces commerciales. L e-procurement ou gestion des achats en ligne facilite les relations avec ses fournisseurs. A l heure actuelle, 98 % des transactions réalisées par IBM en France sont électroniques, pour des commodités aussi variées que les fournitures, les voyages ou les services. Au niveau mondial, IBM est présent dans près de 170 pays, cela représente plus de collaborateurs dans le monde dont environ en France. IBM a réalisé un chiffre d affaire de près de 96,5 Milliards de

21 Rapport de stage ISIMA 2006 Page 21 dollars en 2004 avec une croissance de plus de sept pour cent par rapport à l année précédente. Figure 1 Photos d IBM Montpellier I.1.2 Présentation des activités d IBM IBM développe plusieurs activités qui sont la recherche et le développement, les logiciels (17,3 % du chiffre d affaire), les serveurs (26,7 % du chiffre d affaire), et les services (52 % du chiffre d affaire). Du point de vue de la recherche et du développement, IBM représente la plus vaste entité de recherche mondiale dans le domaine des technologies de l information avec plus de 3000 chercheurs et ingénieurs, huit laboratoires de R&D fondamentales, basés à New-York, San José, Austin, Zurich, Haifa, Tokyo, Beijing et Dehli ; répartis dans six pays, vingt-quatre laboratoires logiciels et avec un investissement annuel de plus de cinq milliards de dollars. Pour la onzième année consécutive IBM a été, en 2004, le numéro 1 aux Etats-Unis en terme de nombre de brevets obtenus. Cela représente un écart de 1600 brevets par rapport à son concurrent informatique le plus proche. La société dépose environ 3000 brevets par an. Elle a à son actif brevets dont 6000 brevets logiciels. D un point de vue logiciels et software, IBM se positionne sur le marché comme le numéro 2 mondial du logiciel avec un CA de 15,1 Milliards de dollars en IBM est numéro 1 mondial en part de marché dans le domaine des bases de données (Gartner/Dataquest). Ces résultats sont dus avant tout au développement d IBM software avec l acquisition en 2003

22 Rapport de stage ISIMA 2006 Page 22 d Information Laboratory (Rational), Aptrix (DB2), Green Pastures (DB2), CrossAccess (DB2) et ThinkDynamics (Tivoli). En matière de serveurs, la société IBM en est le premier fournisseur mondial avec 31, 8% de part de marché en Avec environ collaborateurs opérant dans 170 pays, IBM Global Services (IGS) est la plus grande entreprise mondiale de services et de conseils dans les technologies de l information. Depuis sa création en 1991, IBM Global Services est devenu la plus grande division de l entreprise. Elle a pour mission d aider ses clients à développer des solutions innovantes et à forte valeur ajoutée dans différents secteurs d activités. Cette activité représente 52% du chiffre d affaire d IBM. L acquisition de Pricewaterhouse Coopers Consulting, en septembre 2002, permet à IBM d offrir aux entreprises une multitude de compétences et place l entreprise en tête des sociétés de conseils et de services de haute technologie. A l issue de cette fusion, a été créée la nouvelle entité IBM Business Consulting Services qui fournit des prestations de conseils fondées sur l expertise sectorielle et le savoir-faire en technologie de pointe. Répartition du chiffre d'affaire suivant le secteur d'activité 3% 17% 1% 52% 27% Financement Logiciel Divers Matériels Services Figure 2 Répartition du chiffre d affaire suivant le secteur d activité I.1.3 Présentation des activités de Montpellier Depuis sa création en 1965, le site de Montpellier a développé une expertise unanimement reconnue dans la fabrication et le support des grands systèmes. Historiquement basée sur la fabrication des grands serveurs d entreprises, IBM Montpellier se diversifie et développe des

23 Rapport de stage ISIMA 2006 Page 23 activités de service en partageant son expertise avec ses clients de la zone Europe Moyen Orient Afrique (EMEA). Le site d IBM Montpellier fait partie de la zone Europe du Sud dont le siège est à Madrid. Ce site est le premier exportateur de la région Languedoc-Roussillon, compte 1000 employés et reçoit environ 8000 visiteurs par an. Deux divisions sont principalement représentées sur le site : l IGS et l ISC (Integrated Supply Chain). Dans l IBM Global Services, on trouve l European Server Support Center qui fournit un support aux équipes de maintenance des pays d EMEA pour les serveurs fabriqués à Montpellier. On trouve également l Infogérance qui a pour mission la maintenance des parcs informatiques des clients, en garantissant la sécurité, la fiabilité, la haute disponibilité et l industrialisation de l exploitation informatique de ces derniers ainsi que la formation de leurs équipes techniques. Son objectif principal est de garantir le taux maximal de disponibilité des solutions basées sur les IBM eserver. Les spécialistes de ce centre fournissent un support technique de niveau 1 et 2 aux équipes de maintenance européenne. Dans l Integrated Supply Chain, on trouve tout d abord la production qui a pour mission l assemblage des grands systèmes IBM. On trouve sur ce site également deux autres divisions qui sont l Asset Recovery Service (ARS) et le Customized Solution Center (CSC). L ARS est un centre de valorisation des produits et est en charge de la réutilisation des produits de générations précédentes de manière efficace. La valorisation des équipements d occasion s opère aux travers des activités telles que la réutilisation des équipements qui ont encore une valeur sur le marché et le recyclage pour tous les autres. Pour cette deuxième activité, IBM respecte scrupuleusement l environnement en allant très souvent au-delà des normes réglementaires. Le CSC, en intégrant des matériels et des logiciels, IBM ou non IBM, permet aux ventes et à l IGS de proposer des solutions clés en main. I.1.4 Présentation du PSSC Le PSSC, créé en 1995, est le lieu où l on démontre les avantages des systèmes IBM. On s assure que les exigences des clients sont servies au mieux par les équipes concernées. Le PSSC est basé sur le site d IBM Montpellier, il reçoit environ 8000 visiteurs par an représentant 1200 compagnies provenant de 58 pays, participant à 1046 engagements exécutés dans le centre de Montpellier. Le PSSC est composé d une équipe de 230 ingénieurs et architectes informatiques qui ont pour mission d aider les forces commerciales d IBM à

24 Rapport de stage ISIMA 2006 Page 24 signer des affaires lorsque la décision du client repose sur la validation technique d une solution. Cette équipe aide ainsi les clients à mettre en oeuvre les technologies les plus avancées et sert de support clientèle au niveau EMEA. L objectif est de conclure des affaires en montrant les avantages des solutions IBM et en répondant aux exigences critiques des clients ou partenaires. Souvent le centre est soumis à des questions de performance, d adaptabilité, de disponibilité, de possibilité de gestion, de fonctionnalité ; et les 230 professionnels du centre conseillent les clients en définissant une architecture appropriée et des scénarios de tests permettant de prouver les performances et les fonctionnalités de la solution testée, et tentent de mettre en œuvre et de gérer un projet de benchmark pour délivrer des résultats concluants face aux espérances du client. L envergure du support n est pas limitée à l infrastructure du système. Grâce à des années d expérience, les équipes du PPSC fournissent une qualité sur la configuration et la performance du «On Demand Business», sur les applications scientifiques et techniques disposées sur les serveurs IBM et sur les plateformes de stockage. Le noyau de l activité est focalisé sur le benchmarking, la performance et la validation des solutions. Les activités du PSSC sont l organisation de séminaires techniques personnalisés et de conférence, la réalisation d études de faisabilité des solutions, le «benchmarking» ou test de validation et le transfert de compétences au travers de formation, de consulting et d assistance technique. Le PSSC dispose de plusieurs services. Tout d abord, il dispose d un centre de briefing qui permet d organiser des séminaires techniques personnalisés, des conférences, des événements pour convaincre les clients (par exemple l événement Consultants & Systems Integrator Interchange (CSI)) et les partenaires des avantages des différentes plateformes IBM, ainsi que des briefings fait sur mesure et détaillés d un point de vue technologique. Le PSSC dispose également d un centre de solution qui permet de fournir des solutions complètes aux clients en partenariat avec différents éditeurs comme Oracle, Siebel, et de réaliser des études de faisabilité de solutions applicatives ou techniques. Le centre Benchmark permet au client d évaluer les performances des plateformes IBM et permet également de faire des tests de validation. Ce centre teste l environnement de production du client simulé sur les solutions IBM. Ce centre est également utilisé lorsqu on désire vérifier que l on prend le minimum de risque avant de mettre une nouvelle solution dans l environnement existant d un client.

25 Rapport de stage ISIMA 2006 Page 25 Enfin, IBM propose un transfert de compétences au travers de formations, de consulting, et d assistance technique proposée en partie par le centre d éducation qui forme essentiellement sur les technologies des eserver et du TotalStorage. Le service éducation dispose d équipements complets et d ateliers avancés d un point de vue technologique afin de convaincre le client de la valeur des propositions IBM, et passe du temps en laboratoire sur les configurations de systèmes adaptées aux besoins du client. Répartition des secteurs PSSC 24% 2% 36% 15% 23% Technical support Briefing Testing services & porting Education & NTC Wildfire Benchmark & POC Figure 3 Répartition des secteurs PSSC

26 Rapport de stage ISIMA 2006 Page 26 Figure 4 - Organigramme du PSSC

27 Rapport de stage ISIMA 2006 Page 27 I.1.5 Gamme IBM I SAN A network whose primary purpose is the transfer of data between computer systems and storage elements and among storage elements. A SAN consists of a communication infrastructure, which provides physical connections, and a management layer, which organizes the connections, storage elements, and computer systems so that data transfer is secure and robust est la définition formelle du SAN donnée par la SNIA, l'un des organismes contribuant à sa standardisation. Le SAN est un réseau à haut débit géré de façon centrale et constitué de serveurs d'applications, d'unités de stockage et d'équipements réseaux hétérogènes. Il permet aux entreprises de tirer le meilleur parti de leurs données au travers d'un accès universel et d'un partage des ressources. Figure 5 Schématisation d un réseau SAN Le SAN a été conçu car il y avait non seulement une limitation du nombre de serveurs et de stockage avec le SCSI mais aussi une limitation de distance. Avec les LANs, la distance n est plus un problème et l échange ne se fait que via les serveurs.

28 Rapport de stage ISIMA 2006 Page 28 Le SAN permet donc une communication directe, fiable et performante, "any-to-any" entre tous les serveurs d'application et les systèmes de stockage qui leur sont connectés, ainsi que des transferts de données directs entre systèmes de stockage. Le but de cette architecture est de faire des réplications, des archivages, des sauvegardes et des restaurations de données. On évite ainsi le transit de celles-ci sur le réseau local (LAN) entre les serveurs d'applications et de sauvegarde. Le SAN ouvre les perspectives de consolidation de stockage, de partage de données, de déport des unités de stockage et de solutions de reprise après désastre. Les principaux avantages du SAN sont une interconnexion simple et standardisée et l'amélioration des performances dont : la vitesse, le nombre important de serveurs et éléments de stockage interconnectables, l extensibilité du stockage, la consolidation et le partage des données, l'amélioration des procédures de sauvegarde/restauration, l administration centralisée, une haute disponibilité du système d'information et l'indépendance des choix et des évolutions de l élément serveur/stockage. Figure 6 Architecture d un réseau SAN

29 Rapport de stage ISIMA 2006 Page 29 Figure 7 Technologie du SAN Le réseau SAN se caractérise par une transmission de type "série", bidirectionnelle ("full duplex") sur fibre optique à 100/200/400 Méga Octet par seconde, suivant un protocole appelé Fibre Channel. Le terme bidirectionnelle est employé pour des liaisons point à point et pour des liaisons switchées dont nous allons parler mais pas pour des liaisons utilisant le protocole en boucle arbitrée "FC-AL". De plus amples informations sur le SAN figure en Annexe 4. I Baies de stockage Que les besoins en capacité de stockage soient de quelques Go ou de plusieurs To la gamme IBM TotalStorage propose un large choix de solutions intégrables à l infrastructure existante. La stratégie d IBM dans le domaine du stockage est d unifier et de simplifier la gestion des données dans l entreprise. Les solutions globales et intégrées de stockage sont signe d une croissance maîtrisée, d un investissement pérenne, et d un avenir préparé. Avec des systèmes bandes ou disques, IBM TotalStorage est une gamme complète de produits pour des solutions de stockage sur mesure, de l attachement direct aux serveurs et aux technologies les plus avancées de stockage en réseau. Voici un tableau composé de certains produits de la gamme.

30 Rapport de stage ISIMA 2006 Page 30 Produits DS 8100/8300 & ESS DS6800 DS4500 & DS4400 Storage Server DS4300 Storage Server DS4100 Storage Server SAN Integration Server Système d entreprise, prêt pour les SAN, haute disponibilité, performance et adaptation à la charge, connexion à de multiples serveurs hétérogènes. Il comporte les services de copie pour une sauvegarde rapide et une reprise après sinistre. Système pour l entreprise sous un format réduit, adaptable, modulaire, design haute disponibilité, utile pour rattachement aux systèmes ouverts et sites centraux. Système disques SAN pour serveurs UNIX et intel pour une haute performance, 2 GB fibre channel, continuité des opérations, fonction Remote Copy. Quatre ports 2 Gb Fibre Channel basculement multivoies pour cluster serveurs UNIX et Intel directement attachés, consolidation de stockage en SAN, NAS et attachements directs, support de windows, AIX, Sun Solaris, HP UX, Novell NetWare, Linux. Stockage externe RAID souple et économique pour groupe de travail et services, attachement Fibre Channel host avec unité disques Fibre Channel. Solution intégrée d infrastructure SAN, Fibre Channel, adaptable en charge. Les familles DS8000 et ESS sont des solutions SAN ultra performantes de consolidation du stockage. Leurs grandes capacités (420 Go à 192 To), la haute disponibilité et la possibilité de connexions hétérogènes garantissent leur pérennité dans un environnement grand système et systèmes ouverts. Ces systèmes disposent de fonctions avancées de copie : «Flash Copy» minimise le temps de sauvegarde et «Peer to Peer Remote Copy» permet une reprise d activité immédiate dans le cas de sinistre primaire. Ce sont ausssi des solutions incontournables pour les environnements System z avec des connexions FICON 2 Gbps et des fonctions avancées. La technologie et les fonctionnalités avancées de stockage de ses solutions sont au service des grandes et moyennes entreprises et proposent une alternative séduisante pour résoudre les problèmes de stockage dans un environnement «à la demande». L ESS est une excellente solution pour des capacités moyenne (jusqu à 4.6 To) qui requiert haute disponibilité et performance, conçu pour satisfaire les besoins haute disponibilité des

31 Rapport de stage ISIMA 2006 Page 31 sites centraux et environnements ouverts. L ESS Modèle 750 supporte la plupart des fonctions offertes sur l ESS Modèle 800 avec les mêmes éventails très larges de systèmes d exploitation supportés. La partie hardware des unités de stockage se situe en Annexe 1 et 2. Les EXP et SSA ont été conçus pour un stockage en connexion directe sur les serveurs. Le 2104 EXP Plus 320 est une unité de coût réduit pour la connexion directe en grappe en Ultra 320 SCSI sur p5 et System p Unix. Cette unité est idéale pour les entreprises, telles que les fournisseurs d accès ou de services Internet, à la recherche de stockage performant dans un espace réduit. Flexibilité, capacités d évolution (jusqu à 2 To) et prix très attractif caractérisent cette solution de stockage directe en environnement Unix. Le SSA 7133 constitue la solution de stockage direct sur serveurs Unix et NT. Dépassant les limites de la technologie SCSI, l architecture série SSA offre des niveaux de performances exceptionnelles en accès aux données. Optimisation du débit (160 Mo/s sur une boucle SSA), forte capacité d évolution (jusqu à 14 To), facilité de gestion, forte disponibilité des données (chemins d accès redondants) caractérisent cette solution. La famille DS4000 (ex-fastt) est une gamme d unités de stockage pour le SAN, une famille d unités souples et performantes pour construire une infrastructure SAN. Les solutions DS4100, 4300, 4400, 4500 répondent aux besoins des environnements ouverts Intel et UNIX. Haute disponibilité, performance, souplesse (Fibre Channel), facilité d administration, et capacité d évolution (108 Go à 56 To) font de cette gamme une excellente solution comme base d une infrastructure SAN. DS300 et DS400 ont été introduits pour fournir des solutions économiques de stockage à la famille des serveurs System X. Ils se connectent en direct ou sur le réseau, en étant modulaires, faciles à installer. Ils représentent véritablement un nouveau prix d entrée plus bas pour un stockage adaptable et souple, idéal pour le déploiement des serveurs x336, x346, et BladeCenter. Les serveurs de stockage NAS sont utilisés pour le stockage intégré à un réseau IP, basé sur un système ouvert. Les produits IBM NAS augmentent la souplesse d une solution de stockage en réseau IP. Ils supportent plusieurs protocoles sur IP : CIFS (Windows), NFS (Unix), http, FTP Apple Talk et Netware. Ces unités NAS 200 et 300, optimisées pour le

32 Rapport de stage ISIMA 2006 Page 32 partage de fichiers, sont hautement disponibles, fiables (composants redondants) et évolutives (108 Go à 6,6 To) et constituent des systèmes de stockage aussi faciles à installer aujourd hui que capables d évoluer demain. La mise en réseau de serveurs et d unités de stockage hétérogènes par le biais de connexion LAN/IP ou Fibre Channel permet de répondre aux impératifs de performance, connectivité, disponibilité, fiabilité et de distance, en apportant les avantages de la consolidation : mutualisation d un espace de stockage commun entre serveurs hétérogènes, administration homogène centralisée, indépendance des choix et des évolutions serveurs/stockage, adaptation à la charge, souplesse et rapidité d adaptation du stockage aux situations nouvelles, amélioration des procédures de sauvegarde et possibilité de partager des données. IBM TotalStorage permet de disposer du choix entre les différentes technologies de stockage en réseau SAN et iscsi (SCSI over IP). La nouvelle technologie iscsi permet d obtenir des performances voisines du SAN, avec les avantages d économie et de simplicité du NAS en appliquant le protocole SCSI d accès aux données sur le réseau IP. Une solution NAS constitue une alternative économique par l utilisation d une infrastructure LAN (plus répandue) et du réseau IP. Mais les solutions NAS et SAN peuvent aussi se compléter par l utilisation de passerelles entre les réseaux LAN et SAN (gateway NAS). Figure 8 Différents types de stockage

33 Rapport de stage ISIMA 2006 Page 33 I IBM System anciennement appelé e-server IBM est de nos jours le leader en terme de serveurs et dispose d une palette importante : System x, System p, Open Power, System i et System z. System x Les modèles System x utilisent des processeurs Intel. Le modèle e326 basé sur le processeur Opteron d AMD, est composé de 2 voies, supporte Windows ou Linux, et on peut le monter en rack x 2 unités rack avec 2 emplacements PCI x 2 baies disque. IBM eserver cluster 1350 est un cluster de serveurs System x : X336, x346, e326. C est un ensemble pré testé. Les System x sont des serveurs économiques au standard du marché, de haute performance format réduit pour de nombreuses options grâce au Calibrated Vectored Cooling. Ces serveurs sont optimisés pour un déploiement rapide et sont conçus pour évoluer avec les besoins (jusqu à 32 voies). Les X-architecture et Xtended Design Architecture apportent flexibilité, fiabilité et sécurité pour les serveurs à base d Intel destinés aux applications critiques de l entreprise. IBM étend les possibilités des serveurs à base de processeurs Intel. Avec le serveur x445, IBM combine ce processeur, le plus puissant d Intel, avec un nouveau chipset qui intègre la technologie Enterprise X-Architecture et les technologies cuivre et silicium-sur-isolant d IBM. Le système délivre une puissance évolutive, grâce à l intégration de concepts dérivés des sites centraux. Le châssis du x445 peut accueillir jusqu à 32 processeurs et offre une adaptation à la charge inégalée. Il permet également de consolider un grand nombre de serveurs d application, de messagerie ou d impression et de réduire leur coût total de possession. Le chipset Enterprise X-Architecture permet de réduire les coûts opérationnels et fournit un avantage en terme de délais de mise sur le marché précédemment inconnu dans le domaine des serveurs à base d Intel. A l intérieur des partitions physiques, VMware peut permettre un partitionnement virtuel pour des serveurs logiques. Le fait qu on dispose d un 64 bits représente un point d inflexion dans l évolution des serveurs Intel. Le marché adopte les extensions 64 bits EM64T disponibles dans la majorité des serveurs System x, du x206 au x346. Pour compléter l effort d innovation, IBM a introduit Xtended Design Architecture, articulé autour de la technologie Calibrated Vector Cooling. Cette nouvelle technologie de

34 Rapport de stage ISIMA 2006 Page 34 refroidissement permet de rassembler plus de fonctionnalités et d options dans un même boîtier sans risque de surchauffe. Le résultat est une offre de base plus riche en fonctionnalités que le standard du marché, par exemple en terme d emplacements PCI, mémoire et fonctions câblées sur la carte mère. Figure 9 Photo d un System x Blade Center L architecture eserver BladeCenter facilite les transformations qui s opèrent actuellement dans l industrie et qui banalisent les fonctions des serveurs, et tend à offrir une puissance modulaire sans limite et une disponibilité plus forte, tout en réduisant coûts et complexité. Le concept du BladeCenter permet de densifier les fermes des serveurs, en réduisant la complexité de gestion et en renforçant l intégration de l ensemble.

35 Rapport de stage ISIMA 2006 Page 35 Figure 10 Photo d un Blade Center System p Avec la génération de systèmes POWER 4, IBM avait introduit DLPAR, permettant de partitionner dynamiquement un système en plusieurs serveurs logiques. Il devenait possible d allouer librement à ces serveurs logiques des processeurs, des zones mémoires, des adaptateurs et un système d exploitation AIX ou Linux. Avec la nouvelle génération de systèmes POWER5, IBM innove de façon plus significative encore en découplant totalement les systèmes d exploitation et leur application des ressources matériel : aller plus loin que la génération précédente consistait à éliminer le besoin d allouer des ressources I/O physiques et de dédier un nombre entier de processeurs aux partitions. C est ce qui est possible avec les systèmes POWER5 avec les technologies de IBM Advanced POWER Virtualization qui introduit des avancées significatives. Le micro partitionnement permet de créer de multiples partitions virtuelles cloisonnées en UNIX, AIX, Linux et i5/os. Ces partitions peuvent utiliser des fractions de processeur (avec une granularité de 1/10 ème de processeur) et des blocs de 16 Mo de mémoire. Jusqu à 160 partitions peuvent être créées sur le 16 voies p5 570! Les capacités dépassent largement les besoins de beaucoup d applications et le micro partitionnement permet de leur allouer la juste quantité des ressources qui leur sont nécessaires sans déployer des serveurs coûteux faiblement utilisés. De plus, les différents serveurs logiques ont la capacité de rendre disponible des ressources (CPU, mémoire) qui ne seraient pas utilisées temporairement. L hyperviseur gérant les différents serveurs logique pourra réaffecter ces ressources aux

36 Rapport de stage ISIMA 2006 Page 36 partitions qui en ont besoin. Ce mécanisme a pour effet d augmenter le taux d utilisation des ressources processeur et mémoire et d améliorer considérablement la flexibilité du système. Et pour alimenter ces partitions et micro partitions en toute flexibilité, l allocation physique d adaptateurs peut être remplacée par une virtualisation complète des I/O : tout ou partie des adaptateurs peuvent être regroupés dans un ou plusieurs serveurs Virtual I/O, constitués d une ou plusieurs partitions dédiées. Les autres partitions applicatives pourront alors exécuter leur I/O par le biais de ces virtual I/O. Le ou les serveurs Virtual I/O assureront également les liaisons entre partitions et tous les besoins de réseau Ethernet ou stockage à grande vitesse au travers du bus interne de la machine. L utilisation du serveur Virtual I/O non seulement offre une flexibilité exceptionnelle dans l allocation des I/O mais permet aussi le partage des adaptateurs physiques de la machine. Le partitionnement permet de segmenter les ressources systèmes en de multiples serveurs indépendants, supportant chacun leur propre système d exploitation. Ce concept, bien connu chez IBM, est une fonction essentielle du grand système (System z) et reste inégalé sur le marché. Avec les systèmes POWER 4 et POWER 5, les investissements en infrastructure ne sont plus dictés par des spécificités applicatives mais deviennent «on demand». Le micro partitionnement entrées/sorties virtuelles colle parfaitement aux besoins actuels. Les charges machines difficilement prévisibles à long terme, les croissances rapides de certaines activités, tout cela milite pour des systèmes dont le périmètre peut être rapidement et facilement redéfini. Ils doivent à tout moment pouvoir héberger des serveurs de production, des serveurs de développement et d intégration et d autres serveurs logiques avec la possibilité de modifier ou rééquilibrer les ressources dynamiquement. Les applications ne voient qu un pool de ressources virtualisées. Si l on veut augmenter la capacité du système de production, il suffit de rééquilibrer les ressources en ajoutant une ressource non critique à ce serveur logique. L investissement matériel n est plus dicté par les applications et les serveurs p5 peuvent être installés avec l assurance qu ils pourront être reconfigurés pour s adapter à des charges nouvelles. C est là que se situe la principale économie au niveau du coût de possession. Tous les serveurs System p utilisent le processeur POWER, véhicule majeur du leadership technologique d IBM. Power affiche une consommation électrique relativement réduite pour d excellentes performances, ce qui signifie moins de chaleur et de contraintes et donc une

37 Rapport de stage ISIMA 2006 Page 37 meilleure fiabilité. Pour une performance donnée, les p5 consomment moins d énergie, dans un encombrement réduit et nécessitent moins d unités de ventilation. Avec la dernière génération POWER 5, IBM introduit le mécanisme de «simultaneous multithreading» (SMT) ou traitement de multiples threads. Ce mécanisme tire partie de l architecture super scalaire de POWER pour augmenter la capacité de traitement de ce processeur. SMT est la capacité d un processeur à envoyer à ses unités de traitement les instructions de plusieurs codes programme simultanément. POWER 5 supporte jusqu à deux threads en parallèle. Les System p et p5 apportent un nouveau sens au mot «disponibilité» : ils introduisent «le concept de l opérationnel 24h/24, 7j/7» issu du monde des grands systèmes. La plupart des constructeurs cherchent encore des solutions pour la simple reprise après incident. Le concept de «fonctionnement en continu» fait partie du projet IBM informatique autonome. L objectif est de contrôler le système en marche, détecter les sous-systèmes en échec et prendre les mesures préventives. Les System p sont les seuls systèmes à être équipés de plus de 5000 points de contrôles. Une intelligence système supplémentaire capture les premières données générées par une anomalie, prend les mesures appropriées pour assurer la continuité du service, trace les événements et identifie précisément la source du problème en vue de la maintenance. HACMP permet à un groupe de serveurs (nœuds) System p et p5 de coopérer pour offrir une disponibilité plus forte et/ou une puissance transactionnelle consolidée. Le produit utilise une redondance de tous les éléments critiques pour garantir une reprise automatique dans tous les cas de panne de l un des composants matériel et logiciel de la machine. Une configuration HACMP type comprend deux machines partageant physiquement deux grappes de disques en miroir, des réseaux Ethernet doublés, une ligne de veille et le logiciel HACMP installé sur chaque machine au-dessus d AIX. Les machines peuvent être des System p de type différent. La grappe de systèmes fédérés dans un seul cluster peut s étendre à 32 systèmes. Dans le cas le plus simple de fonctionnement, avec deux nœuds, l une des machines assure la production, la machine de veille reprend automatiquement les opération sans intervention manuelle, s alloue les grappes disques, reprend les transactions en cours et restaure le service applicatif vis-à-vis des utilisateurs. HACMP supporte aussi des configurations plus avancées dites en

38 Rapport de stage ISIMA 2006 Page 38 cascade, avec plus de deux systèmes, où chaque machine supporte une charge applicative : si l un des systèmes subit une panne, un autre reprend sa charge de travail. HACMP peut fonctionner soit en mode basculement d une machine sur une autre, soit en mode partage de disques avec contrôle d accès aux bases de données par verrouillage d enregistrement. Figure 11 Photo de la famille System p Open Power L Open Power est un serveur puissant, solide mais économique pour Linux. Construits sur une plateforme inspirée des grands systèmes, dérivés des lignes de produit p5 et i5 et optimisés pour l environnement Linux, les systèmes Open Power satisfont les besoins de clients cherchant performance, fiabilité, haute disponibilité et puissance de calcul à un prix abordable pour Linux. Ces serveurs power5 64 bits sont conçus pour des architectures Linux basées sur des standards et simplifient les infrastructures en supportant les fonctions avancées de virtualisation.

39 Rapport de stage ISIMA 2006 Page 39 Figure 12 Photo de l Open Power 750 System i Un ensemble complet de modèles à base de la nouvelle génération de processeurs POWER5 a été introduit en 2004 sous le nouveau nom de IBM eserver i5. Power 5 délivre une performance 2 à 3 fois supérieure à la génération précédente Power4. Cette génération de système renforce les points communs avec la famille Unix P5. Des outils de développement commun et le partage des technologies entre les deux familles permettent de rendre la famille i5 plus compétitive encore sans changer les forces fondamentales de la plateforme. Les serveurs i5 offrent un gain en prix/performance de 40% en moyenne par rapport à la génération System i précédente. La gamme eserver i5 supporte les technologies et services de IBM Virtualization Engine en offrant aux utilisateurs les moyens d améliorer considérablement le taux d utilisation des machines. Virtualization Engine inclut des services systèmes tels que IBM Director Multiplatform, pour contrôler et gérer les ressources entre systèmes hétérogènes. VE inclut aussi une implémentation du partitionnement logique à l image de grands systèmes, permettant un équilibrage des performances entre plusieurs charges de travail dans un système unique, ce qui réduit les coûts d exploitation. En parallèle avec l arrivée de la gamme i5, le nouveau système d exploitation i5/os V5R3 s inscrit dans la continuité de l OS/400. i5/os renforce les qualités d intégration des générations précédentes et est conçu pour faciliter le travail des éditeurs de logiciel. IBM intègre WebSphere Express avec chaque licence i5/os, augmentant ainsi les qualités des i5 en tant que serveur d application. Le support récemment annoncé d AIX en parallèle avec i5/os en plus de Linux a ouvert de nouvelles voies de développement pour la gamme i5 dans le domaine de la consolidation de serveurs. Pour faciliter cette opportunité, des changements majeurs ont été introduits dans le modèle de tarification des systèmes i5 570 et i Ces supports procurent aux clients une exceptionnelle flexibilité pour acheter la capacité dont ils ont besoin et ces

40 Rapport de stage ISIMA 2006 Page 40 nouvelles options constituent véritablement une percée dans le domaine de la tarification à la demande et une évolution vers de nouveaux modèles économiques. Cette tarification flexible répond aux demandes de nombreux clients dans le cadre de consolidation en leur permettant de choisir librement les systèmes d exploitation adaptés à l évolution de leur infrastructure. Le partitionnement logique dynamique (DLPAR) de i5/os V5R3 améliore la tolérance aux pannes et réduit les coûts de gestion des partitions : la partition primaire des versions précédentes de LPAR sur System i est remplacée par une console de gestion du matériel (HMC). Figure 13 Illustration d un partitionnement logique

41 Rapport de stage ISIMA 2006 Page 41 Figure 14 Protection LPAR dans un environnement IBM Power 5 Figure 15 Photo de la famille des System i System z Etre un leader technologique c est plus que simplement offrir de la technologie pour la technologie. C est également fournir des solutions, satisfaire les besoins de clients en

42 Rapport de stage ISIMA 2006 Page 42 constante évolution, et leur permettre de résoudre leurs défis. C est ce que tente de réaliser le System z depuis 40 ans. Le System z a construit sa réputation autour d un ensemble de valeurs telles que l intégration, l automatisation, la virtualisation, et la qualité de services. Chacune de ces valeurs peut être directement reliée aux besoins et aux challenges des utilisateurs. Le z890 est la dernière génération de système taillé pour les entreprises moyennes tout en offrant la technologie du z990, un potentiel de croissance très granulaire et une importante souplesse des configurations. Le System z offre un large choix de modèles avec différents niveaux de capacité sans trop de limite de puissance. Le «grand système», à savoir le site central, possède de nombreuses caractéristiques telles que la capacité à traiter de grands volumes de transactions, l évolutivité et la croissance sans interruption du système, une disponibilité continue (environ 99,999%), un concept de sécurité «globale» par partitionnement logique, la virtualisation des ressources, un équilibrage dynamique de la charge de travail, de multiples serveurs Linux virtuels en un seul système, et une préservation des investissements à long terme «mainframe Charter». De nouvelles fonctionnalités sont présentes ainsi qu une performance innovante pour satisfaire les besoins d une activité à la demande. Le leadership en innovation travaille pour étendre l utilisation des System z et supporter un nombre croissant de solutions intégrées et souples pour une activité «à la demande». Les System z restent la référence de la plateforme souple, productive et adaptable pour des environnements complexes et intégrés, supportant de multiples applications critiques tout en augmentant les fonctions automatiques et d auto-gestion par le biais de simplification des procédures utilisateurs et des tâches d administration. Les objectifs sont d améliorer la valeur ajoutée et de réduire le coût de la transaction pour les solutions System z de façon attractive, claire et cohérente, d étendre les caractéristiques «on demand» des serveurs System z, en particulier les forces dans un environnement de tarification à l usage et d augmenter les moyens de comptabiliser les ressources et leur utilisation dans un environnement «on-demand». Le service des System z tente également de développer un portefeuille solide d applications et de services, de fournir les compétences et l expertise pour assister les clients dans la conception, le design, et le développement de solutions «à la demande» dont le pilier central est un site central System z. Ces principes fixent les priorités des investissements pour le service des System z et démontrent l engagement d IBM à fournir plus de valeur pour ses clients à l offre System z. IBM a introduit le concept de capacité temporaire - on/off (figure 28) - sur les moteurs IFL du z990 pour assister les clients qui ont

43 Rapport de stage ISIMA 2006 Page 43 besoin d une capacité additionnelle pour faire face à un pic de demande ou pour des plans de reprise par exemple. Figure 16 Schématisation du concept de capacité temporaire. Figure 17 Différentes applications intégrables sur les System z

44 Rapport de stage ISIMA 2006 Page 44 Figure 18 Photo du Z9. I.2 Présentation de la plateforme High Availability Center of Competency (HACoC) I.2.1 Objectifs de la plateforme Une équipe a été mise en place dans le but d être plus efficace sur les solutions de haute disponibilité proposées aux clients et de pourvoir des recommandations régulières afin d améliorer les infrastructures existantes. Le projet de «Disaster / Recovery» est devenue une nécessité pour les clients, un besoin pour les banques qui, avec les nouvelles lois, doivent sauvegarder des données à distance de leur site principal. L équipe HACoC est un lien priviliégié avec les clients car elle permet de les aider dans leurs attentes en haute disponibilité et de transmettre des retours aux laboratoires d IBM afin d identifier les lacunes des produits et les opportunités de solutions. Les engagements HACoC avec les clients sont d analyser les implémentations courantes et proposer des déploiements. L engagement HACoC repose sur cinq points : l analyse et la collecte de toutes les informations sur des projets de haute disponibilité, le rétablissement après la chute du site de Montpellier à partir de Poughkeepsie, la conversion des engagements des clients de Montpellier en garantie pour les clients, l éducation et les ateliers sur les solutions et les engagements des clients. Un des buts de cette plateforme mise en place à Montpellier et sur laquelle je travaille, est de prouver la valeur des solutions clients d IBM Business Continuity, démontrer les possibilités des solutions "clé en main" aux clients. L autre est de produire un outil pour les clients ainsi que pour les équipes du service «Education» d IBM fournissant les meilleures prestations.

45 Rapport de stage ISIMA 2006 Page 45 Afin d atteindre ses buts, le projet propose une solution intercontinentale intégrant la haute disponibilité afin de rétablir, sur un site secondaire, le désastre subi sur un site de production. Afin de convaincre le client, l équipe du «High Availability Center of Competency» met en place des démontrations de «Disaster / recovery» sur des longues distances. Montpellier et Poughkeepsie sont distants d environ 7000 kilomètres. On simule l arrêt du site de Montpellier et la reprise de l activité sur le site de Poughkeepsie. Le but est de connecter un utilisateur sur une application sur le site de production, de simuler un désastre sur ce site (rôle du site de Montpellier), d établir un processus de failover de failback (rôle du site de Poughkeepsie) et ensuite d évaluer l uniformité des données et les erreurs engendrées. Ce projet est à ma connaissance unique dans le monde informatique et fait l objet de diverses publications techniques dans le monde IBM et extérieur. Il est présenté à différents clients ou partenaires dans le but de leur proposer une solution clé en main basée sur des produits IBM. I.2.2 Technologies utilisées A mon arrivée sur la plateforme, celle-ci contenait deux System p, deux baies de stockage, à savoir un DS8000 et un DS6000 sur Montpellier, des switchs et des routeurs McData, et un simulateur de distance. Lors des premiers mois, j ai pu assister à la mise en place et à la configuration de la baie de stockage à Poughkeepsie. Ce concept développé dans le centre de Benchmark PSSC d IBM Montpellier, implémente une solution de «Disaster / Recovery» située sur deux sites dans un environnement de DS6/8000 et de System p et x. Les principaux composants de l architecture sont des serveurs System p IBM avec AIX 5.5, des unités de stockage IBM DS6000 et DS8000, des switchs SAN McData , et des routeurs ifcp McData 2027-R16. Cette plateforme est représentée sur la figure située page suivante. Les switchs sont utilisés afin de connecter les System p (puis x), et les routeurs afin de faire la liaison entre les deux sites. La présentation hardware des switchs et des routeurs figure en annexe A.3. Le site de Montpellier est considéré comme site de production où sont rassemblées toutes les données et la sauvegarde s effectue sur la baie de stockage sur le site secondaire à Poughkeepsie par un système de copie appelé «Global Mirror» que j approfondirai dans la partie expliquant l intégration du Linux. Le site primaire supporte une application Oracle, un système d exploitation AIX sur un System p.

46 Rapport de stage ISIMA 2006 Page 46 Figure 19 - Plateforme HACoC à mon arrivée

47 Rapport de stage ISIMA 2006 Page 47 I.2.3 Future plateforme La plateforme à venir est donc d intégrer à l actuelle, dans un premier temps, des System x avec un système d exploitation différent. On a tout d abord pensé à intégrer un Linux mais la possibilité d intégrer un Windows par la suite n est pas à exclure. Cette conception est basée sur la diversité des offres IBM et également sur la diversité des entreprises touchées. Afin de toucher un maximum d entreprise, le projet HACoC est donc diversifié et montre la capacité d IBM à s adapter. Ce Linux doit dans un premier temps pouvoir effectuer les copies entre les deux sites. Afin de ne pas encombrer la plateforme et ne connaissant pas la performance de cette solution, les tests sont effectués à Montpellier entre un DS8000 et un DS6000 séparés par un simulateur de distance (Spirent) qui va simuler la distance qu il y a entre les deux sites en réglant la latence sur le spirent. Suivant les performances du système d exploitation Linux, il est prévu par la suite d y intégrer une application Oracle dessus tout en laissant la base de donnée sur le System p. Par cette diversité de système d exploitation et de serveurs ainsi que ce concept exceptionnel, IBM se place en tête pour les solutions de haute disponibilité face aux clients. Dans l avenir, une solution sur trois sites est prévue. Elle utilisera la notion de Metro Global Mirror qui permet d établir une réplication synchrone entre le site primaire et le site secondaire distant d une centaine de kilomètre par le biais du Metro Mirror, ainsi qu une réplication asynchrone entre le site secondaire et le site tertiaire situé à Poughkeepsie (7000 kilomètres) grâce au Global Mirror. Cette solution est représentée ci-après.

48 Rapport de stage ISIMA 2006 Page 48 Figure 20 - Plateforme à venir

49 Rapport de stage ISIMA 2006 Page 49 I.3 Cahier des charges Dès mon arrivée, nous avons établi un planning prévisionnel. Trois phases devaient être prises en compte durant le stage : la phase d adaptation, l intégration dans un projet en cours et le développement du serveur. La phase d adaptation comprenait un travail sur la mise en place d infrastructure de benchmarks afin de faciliter l apprentissage et l appréhension de l environnement IBM. La phase d intégration permettait de comprendre le fonctionnement et la mise en place d une plateforme de «Disaster/Recovery» entre la France et les Etats-Unis ainsi que de commencer à travailler en équipe. Le troisième volet, à savoir, le développement d un nouveau serveur, Linux, et son intégration sur la plateforme, faisait appel à ma capacité d autonomie. Les deux premières phases devaient durer un mois chacune et la dernière s étaler sur les quatre mois restants. Les différents axes de développement ont été déterminés par : - la participation au câblage avec l équipe réseau, - la participation à l installation de baies de stockage avec l équipe infrastructure, - la participation à la création des volumes, des volumes groupes avec l équipe infrastructure, - la participation à la mise en place de système d exploitation avec l équipe setup, - la recherche de documents expliquant le SAN, les services de copies, - la recherche de documents présentant les produits IBM, - la lecture de documents IBM : redbooks, SSPD, - l assistance à différentes présentations (produits, technologies), - les échanges avec différentes personnes du service System x, - les explications sur les différents produits de stockage de la part des personnes du service éducation, - les différents entretiens avec les personnes de mon service et leurs conseils face à certaines situations.

50 Rapport de stage ISIMA 2006 Page 50 De plus, le développement du serveur Linux devait être en conformité avec la matrice de compatibilité de la baie de stockage. Les tests de performance du global mirror devaient être optimisés, et les différents paramètres être réglés au mieux pour obtenir des résultats favorables. Enfin, les documents mis à la disposition des IBMers et plus particulièrement de l équipe avec laquelle je travaillais devaient être clairs, précis, et révéler les problèmes rencontrés ainsi que les moyens pour les résoudre. Pour finir, j ai eu l opportunité de participer à un événement IBM afin d observer la facette client et briefing d IBM.

51 Rapport de stage ISIMA 2006 Page 51 II REALISATION DU PROJET II.1 Intégration Linux II.1.1 Configuration du SAN Tout d abord, il faut regarder la matrice de compatibilité afin de vérifier que la version du Linux installé est en concordance avec l unité de stockage. Pour cela, il faut connaître la version du Linux et du noyau : [root@halinux Desktop]# more /etc/redhat-release Red Hat Enterprise Linux AS release 4 (Nahant Update 3) [root@halinux Desktop]# uname -a Linux halinux ELsmp #1 SMP Fri Feb 24 16:54:53 EST 2006 i686 i686 i386 GNU/Linux Pour l intégration du serveur Linux sur la plateforme, une connexion sur le SAN existant ainsi qu une opération de zoning ont été nécessaire. Dans le but d effectuer le zoning, il faut avoir les WWPN des cartes fibres du System x : [root@halinux Desktop]# cd /proc/scsi/qla2xxx/ [root@halinux qla2xxx]# ls 1 [root@halinux qla2xxx]# cat 1 QLogic PCI to Fibre Channel Host Adapter for QLA2310: Firmware version IPX, Driver version d4 ISP: ISP2300, Serial# D76762 Request Queue = 0x1bc0000, Response Queue = 0x37a00000 Request Queue count = 2048, Response Queue count = 512 Total number of active commands = 0 Total number of interrupts = 2781 Device queue depth = 0x20 Number of free request entries = 784 Number of mailbox timeouts = 0 Number of ISP aborts = 0 Number of loop resyncs = 0 Number of retries for empty slots = 0 Number of reqs in pending_q= 0, retry_q= 0, done_q= 0, scsi_retry_q= 0 Host adapter:loop state = <READY>, flags = 0x1a03 Dpc flags = 0x MBX flags = 0x0 Link down Timeout = 000 Port down retry = 030 Login retry count = 030 Commands retried with dropped frame(s) = 0

52 Rapport de stage ISIMA 2006 Page 52 Product ID = SCSI Device Information: scsi-qla0-adapter-node=200000e08b05babf; scsi-qla0-adapter-port=210000e08b05babf; scsi-qla0-target-0= b7; scsi-qla0-target-1= bc0b7; FC Port Information: scsi-qla0-port-0= ffc0b7: b7:740d13:81; scsi-qla0-port-1= ffc0b7: bc0b7:740f13:82; SCSI LUN Information: (Id:Lun) * - indicates lun is not registered with the OS. ( 0: 0): Total reqs 1674, Pending reqs 0, flags 0x0, 0:0:81 00 ( 1: 0): Total reqs 1587, Pending reqs 0, flags 0x0, 0:0:82 00 [root@halinux qla2xxx]# Afin d administrer et de monitorer les switchs McData, une application web est disponible. Grâce à EFCM Basic, on peut configurer les switchs. Pour cela on y accède par le menu Configure > Zoning, et apparaît la page ci-dessous. Dans la première colonne, tous les nœuds sont listés. Il faut alors inscrire le nom de la zone dans la deuxième colonne. Figure 21 Zoning, nom de la zone

53 Rapport de stage ISIMA 2006 Page 53 Il faut alors ajouter les WWPN en utilisant le bouton >. Figure 22 Zoning, sélection des WWPN Voilà le résultat avec dans la zone S1_LINUX, les WWPN de la fibre optique et du DS8000. Une fois cela effectué, il faut ajouter cette zone à la zone set. Pour cela on utilise le bouton >. Figure 23 Zoning, clôture de la zone

54 Rapport de stage ISIMA 2006 Page 54 Maintenant la zone apparaît dans la colonne «Zone set». Il faut alors sauvegarder la modification (Update) puis l appliquer (Activate). Figure 24 Zoning, enregistrement et application On peut éditer les zones créées en utilisant les boutons <, et refaire les étapes citées précédemment. On peut également configurer le port qu on utilise. Dans le cas étudié, le System x est connecté sur le port 0 du Switch, on renseigne alors les champs associés au port 0.

55 Rapport de stage ISIMA 2006 Page 55 Figure 25 Signalisation du port On peut alors par la suite, accéder à la liste des ports du switch (Product > Port List). En cliquant sur le port 0, on obtient les informations liées à ce port dont le WWPN et le WWNN. Figure 26 Information sur le port interrogé On peut effectuer le zoning et la configuration de l unité de stockage dans l ordre désiré.

56 Rapport de stage ISIMA 2006 Page 56 II.1.2 Configuration des disques Pour la configuration de l unité de stockage, on peut le faire soit par GUI (interface web) soit par CLI (lignes de commande). Personnellement, je préfère fonctionner par ligne de commande. Le fonctionnement est le même que l on utilise un DS6000 ou un DS8000. Les extraits ci-dessous sont tirés de la création sur le DS8000. Pour créer le host sur l unité de stockage qui va permettre la relation entre le Linux et l unité de stockage, il faut spécifier le World Wide Port Name de la carte fibre du System x (210000E08B05BABF), le type de système d exploitation qu on utilise (LinuxRHEL) et les ports du DS que nous allons utiliser (all : tous ceux qui sont disponibles) : dscli mkhostconnect -wwname E08B05BABF -hosttype LinuxRHEL -ioport all 'HA1Linux' -cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 4 ao?t :25:30 CEST IBM DSCLI Version: DS: IBM CMUC00012I mkhostconnect: Host connection 0013 successfully created. Date/Time: 08 04, :25:39 Execution time : 12 Seconds. On peut alors vérifier la configuration que l on vient d effectuer : dscli lshostconnect -l -cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 25 juillet :42:57 CEST IBM DSCLI Version: DS: IBM Name ID WWPN HostType LBS addrdiscovery Profile portgrp volgrpid atchtopo ESSIOport =========================================================================== =========================================================================== =========================================================================== =========================================================================== ============================================================== BSBI_P C93EC6FE pseries 512 reportlun IBM pseries - AIX 1 - FC-AL all [ ] HA1Linux E08B05BABF LinuxRHEL 512 LUNPolling Intel - Linux RHEL all [ ] SVC_SpeederMan_EW EA SVC 512 reportlun San Volume Controller 0 V2 - all Date/Time: 07 25, :43:06 Execution time : 11 Seconds. Ensuite, il faut créer les espaces de stockage que l on appelle Volumes en précisant la capacité (5 Gb), le nom du volume (Vol1Halinux), et le numéro que celui-ci aura (4700) ainsi que l extendpool sur lequel il va se créer (P3). Il faut vérifier que l extendpool a bien un espace alloué.

57 Rapport de stage ISIMA 2006 Page 57 dscli lsextpool -l -cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 4 ao?t :29:36 CEST IBM DSCLI Version: DS: IBM Name ID stgtype rankgrp status availstor (2^30B) %allocated available reserved numvols numranks =========================================================================== ============================= extpool_ha0 P0 fb 0 below extpool_ha1 P1 fb 1 below extpool_ha2 P2 fb 0 below extpool_ha3 P3 fb 1 below [ ] Date/Time: 08 04, :29:51 Execution time : 17 Seconds. dscli mkfbvol -extpool P3 -cap 5 -name 'Vol1Halinux' cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 4 ao?t :30:45 CEST IBM DSCLI Version: DS: IBM CMUC00025I mkfbvol: FB volume 4700 successfully created. Date/Time: 08 04, :30:55 Execution time : 12 Seconds. Une fois les volumes établis (dans notre cas, on en crée un seul), on les regroupe dans un volume groupe. Pour cela, il faut préciser le type (scsimap256 dans le cas d un Linux Red Hat), les numéros des volumes que regroupe le volume groupe (4700) et le nom du volume groupe (VolGrpe1HALinux) : dscli mkvolgrp -type scsimap256 -volume 4700 'Volgrpe1HALinux' -cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 4 ao?t :31:45 CEST IBM DSCLI Version: DS: IBM CMUC00030I mkvolgrp: Volume group V4 successfully created. Date/Time: 08 04, :31:53 Execution time : 10 Seconds. On peut vérifier l établissement du Volume groupe par la commande : dscli lsvolgrp -l -cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 4 ao?t :22:27 CEST IBM DSCLI Version: DS: IBM Name ID Type ======================================== FC_OracleCode V0 SCSI Mask HAVG1 V1 SCSI Mask SVCDEMO_EW V2 SCSI Mask MED4PC12 V3 SCSI Map 256 VolGrp1_HALINUX V4 SCSI Map 256 sdvolume V5 SCSI Map 256 VGPC2 V6 SCSI Map 256 blue_aix_vg V7 SCSI Mask Volumes_for_AIX V8 SCSI Mask

58 Rapport de stage ISIMA 2006 Page 58 Date/Time: 08 04, :22:36 Execution time : 12 Seconds. ainsi que l établissement du volume et qu il est bien associé au volume groupe V4: dscli lsfbvol -l -cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 17 mai :40:59 CEST IBM DSCLI Version: DS: IBM Name ID accstate datastate configstate devicemtm datatype extpool sam captype cap (2^30B) cap (10^9B) cap (blocks) volgrp =========================================================================== ================================================================ Online Normal Normal FB 512 P7 Standard DS V18 [...] Vol1Halinux 4700 Online Normal Normal FB 512 P3 Standard DS V4 [...] volaixlaurent FB00 Online Normal Normal FB 512 P7 Standard DS Date/Time: 05 17, :41:08 Execution time : 12 Seconds. On doit alors associer le volume groupe créé à l host établi précédemment, en précisant le numéro du volume groupe (V4) et celui de l host (0013) : dscli chhostconnect -volgrp V cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 4 ao?t :32:43 CEST IBM DSCLI Version: DS: IBM CMUC00013I chhostconnect: Host connection 0013 successfully modified. Date/Time: 08 04, :32:51 Execution time : 10 Seconds. et vérifier que l opération a bien été effectuée en contrôlant à nouveau la configuration du host : dscli lshostconnect -l -cfg C:\Progra~1\IBM\dscli\profile\DS8000_HA.profile Date/Time: 25 juillet :42:57 CEST IBM DSCLI Version: DS: IBM Name ID WWPN HostType LBS addrdiscovery Profile portgrp volgrpid atchtopo ESSIOport =========================================================================== =========================================================================== =========================================================================== =========================================================================== ============================================================== BSBI_P C93EC6FE pseries 512 reportlun IBM pseries - AIX 1 - FC-AL all [ ] HA1Linux E08B05BABF LinuxRHEL 512 LUNPolling Intel - Linux RHEL 0 V4 - all [ ]

59 Rapport de stage ISIMA 2006 Page 59 SVC_SpeederMan_EW EA SVC 512 reportlun San Volume Controller 0 V2 - all Date/Time: 07 25, :43:06 Execution time : 11 Seconds. Après avoir configuré la partie propre au DS6/8000 et le zoning, il faut redémarrer le Linux. On vérifie alors si les disques sont bien en relation avec le système d exploitation : login as: root Sent username "root" root@ 's password: Last login: Wed Aug 16 11:04: from [root@halinux ~]# fdisk -l Disk /dev/sda: 36.4 GB, bytes 255 heads, 63 sectors/track, 4425 cylinders Units = cylinders of * 512 = bytes Device Boot Start End Blocks Id System /dev/sda1 * Linux /dev/sda e Linux LVM Disk /dev/sdb: 5368 MB, bytes 166 heads, 62 sectors/track, 1018 cylinders Units = cylinders of * 512 = bytes Disk /dev/sdb doesn't contain a valid partition table Disk /dev/sdc: 5368 MB, bytes 166 heads, 62 sectors/track, 1018 cylinders Units = cylinders of * 512 = bytes Disk /dev/sdc doesn't contain a valid partition table Si la commande fdisk -l ne fonctionne pas, on peut forcer le montage des disques à travers la carte Fibre Channel par la ligne de commande echo "scsi-qlascan" > /proc/scsi/qla2xxx/1. Côté DS8000, le system X ne possède qu une seule carte, et dans le zoning, on a mis deux liens pour l unité de stockage. On voit alors le disque en double (/etc/sdb et /etc/sdc cidessus). Puisque sur le System x côté DS6000 on possède 2 cartes, vu qu on a deux fibres pour l unité de stockage, on voit quatre disques comme indiqué ci-dessous (/etc/sdb, /etc/sdc, /etc/sdd et /etc/sde): login as: root Sent username "root" root@ 's password: Last login: Wed Aug 16 11:05: from [root@halinux2 ~]# fdisk -l Disk /dev/sda: 36.4 GB, bytes 255 heads, 63 sectors/track, 4425 cylinders Units = cylinders of * 512 = bytes Device Boot Start End Blocks Id System /dev/sda1 * Linux

60 Rapport de stage ISIMA 2006 Page 60 /dev/sda e Linux LVM Disk /dev/sdb: 5368 MB, bytes 166 heads, 62 sectors/track, 1018 cylinders Units = cylinders of * 512 = bytes Disk /dev/sdb doesn't contain a valid partition table Disk /dev/sdc: 5368 MB, bytes 166 heads, 62 sectors/track, 1018 cylinders Units = cylinders of * 512 = bytes Disk /dev/sdc doesn't contain a valid partition table Disk /dev/sdd: 5368 MB, bytes 166 heads, 62 sectors/track, 1018 cylinders Units = cylinders of * 512 = bytes Disk /dev/sdd doesn't contain a valid partition table Disk /dev/sde: 5368 MB, bytes 166 heads, 62 sectors/track, 1018 cylinders Units = cylinders of * 512 = bytes Disk /dev/sde doesn't contain a valid partition table II.1.3 Installation de sdd outil de multipathing On installe alors le fichier IBM.sdd i686.rhel4.rpm. Il suffit de double cliquer sur le fichier et il s installe automatiquement. Ce fichier est la dernière version sdd pour Red Hat 4. Une fois le fichier installé, il faut alors vérifier son statut : [root@halinux ~]# sdd status IBMsdd status: [FAILED] You have new mail in /var/spool/mail/root Si celui-ci a comme statut : FAILED, il suffit de démarrer le service sdd : [root@halinux ~]# sdd start Starting IBMsdd driver load: [ OK ] Issuing killall sddsrv to trigger respawn... Starting IBMsdd configuration: [ OK ] [root@halinux ~]# sdd status IBMsdd status: [ OK ] 000 vpatha ( 252, 0) = ffc0b = /dev/sdb /dev/sdc Pour faire du multipathing, sdd crée un vpath qui va prendre en compte les deux disques et gérer le trafic sur les deux liens. J ai été confronté à un problème avec le fichier /etc/lvm/lvm.conf dont l explication figure dans la partie «Difficultés rencontrées». Une fois ce léger problème solutionné, on a pu alors s assurer que les path étaient créés :

61 Rapport de stage ISIMA 2006 Page 61 ~]#cfgvpath query /dev/sdb ( 8, 16) host=1 ch=0 id=0 lun=0 vid=ibm pid= serial= lun_id= ffc0b ctlr_flag=0 ctlr_nbr=0 df_ctlr=0 /dev/sdc ( 8, 32) host=1 ch=0 id=1 lun=0 vid=ibm pid= serial= lun_id= ffc0b ctlr_flag=0 ctlr_nbr=0 df_ctlr=0 On peut donc vérifier qu un nouveau disque est présent lors du scan des disques qui correspond au groupe de tous les path : [root@halinux ~]# fdisk -l Disk /dev/vpatha: 5368 MB, bytes 166 heads, 62 sectors/track, 1018 cylinders Units = cylinders of * 512 = bytes Disk /dev/vpatha doesn't contain a valid partition table Ensuite, on doit créer une partition [root@halinux ~]# fdisk /dev/vpatha Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel Building a new DOS disklabel. Changes will remain in memory only, until you decide to write them. After that, of course, the previous content won't be recoverable. Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite) Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First cylinder (1-1018, default 1): Using default value 1 Last cylinder or +size or +sizem or +sizek (1-1018, default 1018): Using default value 1018 Command (m for help): t Selected partition 1 Hex code (type L to list codes): l 0 Empty 1e Hidden W95 FAT1 75 PC/IX be Solaris boot 1 FAT12 24 NEC DOS 80 Old Minix bf Solaris

62 Rapport de stage ISIMA 2006 Page 62 2 XENIX root 39 Plan 9 81 Minix / old Lin c1 DRDOS/sec (FAT- 3 XENIX usr 3c PartitionMagic 82 Linux swap c4 DRDOS/sec (FAT- 4 FAT16 <32M 40 Venix Linux c6 DRDOS/sec (FAT- 5 Extended 41 PPC PReP Boot 84 OS/2 hidden C: c7 Syrinx 6 FAT16 42 SFS 85 Linux extended da Non-FS data 7 HPFS/NTFS 4d QNX4.x 86 NTFS volume set db CP/M / CTOS /. 8 AIX 4e QNX4.x 2nd part 87 NTFS volume set de Dell Utility 9 AIX bootable 4f QNX4.x 3rd part 8e Linux LVM df BootIt a OS/2 Boot Manag 50 OnTrack DM 93 Amoeba e1 DOS access b W95 FAT32 51 OnTrack DM6 Aux 94 Amoeba BBT e3 DOS R/O c W95 FAT32 (LBA) 52 CP/M 9f BSD/OS e4 SpeedStor e W95 FAT16 (LBA) 53 OnTrack DM6 Aux a0 IBM Thinkpad hi eb BeOS fs f W95 Ext'd (LBA) 54 OnTrackDM6 a5 FreeBSD ee EFI GPT 10 OPUS 55 EZ-Drive a6 OpenBSD ef EFI (FAT- 12/16/ 11 Hidden FAT12 56 Golden Bow a7 NeXTSTEP f0 Linux/PA- RISC b 12 Compaq diagnost 5c Priam Edisk a8 Darwin UFS f1 SpeedStor 14 Hidden FAT16 <3 61 SpeedStor a9 NetBSD f4 SpeedStor 16 Hidden FAT16 63 GNU HURD or Sys ab Darwin boot f2 DOS secondary 17 Hidden HPFS/NTF 64 Novell Netware b7 BSDI fs fd Linux raid auto 18 AST SmartSleep 65 Novell Netware b8 BSDI swap fe LANstep 1b Hidden W95 FAT3 70 DiskSecure Mult bb Boot Wizard hid ff BBT 1c Hidden W95 FAT3 Hex code (type L to list codes): 8e Changed system type of partition 1 to 8e (Linux LVM) Command (m for help): w The partition table has been altered! Calling ioctl() to re-read partition table. Syncing disks. Avec le nouveau service sdd, on a accès à de nouvelles commandes qui permettent de voir les LUN, les LSS en relation, les volumes entre autre. [root@halinux ~]# datapath query essmap Disk Path P Adapter LUN SN Type Size LSS Vol Rank C/A S Connection Port RaidMode vpatha sdb Host1Channel IBM GB Y R1-B3-H1-ZC 202 RAID5 vpatha sdc Host1Channel IBM GB Y R1-B4-H3-ZD 333 RAID5 [root@halinux ~]# datapath query adapter Active Adapters :1 Adpt# Name State Mode Select Errors Paths Active 0 Host1Channel0 NORMAL ACTIVE

63 Rapport de stage ISIMA 2006 Page 63 ~]# datapath query device Total Devices : 1 DEV#: 0 DEVICE NAME: vpatha TYPE: POLICY: Optimized Sequential SERIAL: =========================================================================== Path# Adapter/Hard Disk State Mode Select Errors 0 Host1Channel0/sdb CLOSE NORMAL Host1Channel0/sdc CLOSE NORMAL 83 0 Ensuite une série de commande est à exécuter afin de créer les volumes physiques, les volumes groupes, les volumes logiques, avant de monter le disque sur /halinux1. [root@halinux ~]# pvcreate /dev/vpatha1 Physical volume "/dev/vpatha1" successfully created [root@halinux Desktop]# pvscan PV /dev/sda2 VG VolGroup00 lvm2 [33.78 GB / MB free] PV /dev/vpatha1 VG VGHALINUX1 lvm2 [4.99 GB / 4.00 MB free] Total: 2 [38.77 GB] / in use: 2 [38.77 GB] / in no VG: 0 [0 ] [root@halinux ~]# vgcreate VGHALINUX1 /dev/vpatha1 Volume group "VGHALINUX1" successfully created [root@halinux Desktop]# vgscan Reading all physical volumes. This may take a while... Found volume group "VolGroup00" using metadata type lvm2 Found volume group "VGHALINUX1" using metadata type lvm2 [root@halinux Desktop]# vgdisplay VGHALINUX1 --- Volume group --- VG Name VGHALINUX1 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 2 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 1 Max PV 0 Cur PV 1 Act PV 1 VG Size 4.99 GB PE Size 4.00 MB Total PE 1278 Alloc PE / Size 1277 / 4.99 GB Free PE / Size 1 / 4.00 MB VG UUID 5P3JKI-ztYt-eQ4p-zzAp-4tVF-jrJW-4ZK7PN [root@halinux ~]# pvscan PV /dev/vpatha1 VG VGHALINUX1 lvm2 [4.99 GB / 4.99 GB free] Total: 1 [4.99 GB] / in use: 1 [4.99 GB] / in no VG: 0 [0 ]

64 Rapport de stage ISIMA 2006 Page 64 ~]# lvcreate VGHALINUX1 -n lv_halinux1 -l 1277 Logical volume "lv_halinux1" created Desktop]# lvscan ACTIVE '/dev/volgroup00/logvol00' [31.78 GB] inherit ACTIVE '/dev/volgroup00/logvol01' [1.94 GB] inherit ACTIVE '/dev/vghalinux1/lv_halinux1' [4.99 GB] inherit /]# mkdir /halinux1 /]# ls bin etc initrd media opt sbin sys usr boot halinux1 lib misc proc selinux tftpboot var dev home lost+found mnt root srv tmp /]# mount /dev/mapper/volgroup00-logvol00 on / type ext3 (rw) none on /proc type proc (rw) none on /sys type sysfs (rw) none on /dev/pts type devpts (rw,gid=5,mode=620) usbfs on /proc/bus/usb type usbfs (rw) /dev/sda1 on /boot type ext3 (rw) none on /dev/shm type tmpfs (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw) [root@halinux ~]# lvscan ACTIVE '/dev/volgroup00/logvol00' [31.78 GB] inherit ACTIVE '/dev/volgroup00/logvol01' [1.94 GB] inherit inactive '/dev/vghalinux1/lv_halinux1' [4.99 GB] inherit [root@halinux ~]# lvchange /dev/vghalinux1/lv_halinux1 -a y [root@halinux ~]# lvscan ACTIVE '/dev/volgroup00/logvol00' [31.78 GB] inherit ACTIVE '/dev/volgroup00/logvol01' [1.94 GB] inherit ACTIVE '/dev/vghalinux1/lv_halinux1' [4.99 GB] inherit [root@halinux ~]# mount /dev/mapper/volgroup00-logvol00 on / type ext3 (rw) none on /proc type proc (rw) none on /sys type sysfs (rw) none on /dev/pts type devpts (rw,gid=5,mode=620) usbfs on /proc/bus/usb type usbfs (rw) /dev/sda1 on /boot type ext3 (rw) none on /dev/shm type tmpfs (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw) [root@halinux ~]# mkfs.ext3 /dev/vghalinux1/lv_halinux1 mke2fs 1.35 (28-Feb-2004) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) inodes, blocks blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks= block groups blocks per group, fragments per group inodes per group Superblock backups stored on blocks:

65 Rapport de stage ISIMA 2006 Page , 98304, , , , , Writing inode tables: done Creating journal (8192 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 30 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. ~]# mount /dev/vghalinux1/lv_halinux1 /halinux1/ ~]# cd /halinux1 halinux1]# ll total 16 drwx root root Aug 18 19:12 lost+found Une fois cette configuration terminée, et le script de démarrage (cf. «Difficultés rencontrées») effectué, le linux est réellement intégré sur la plateforme, et les services de copie peuvent être testés. II.2 Global Mirror Global Mirror est une technologie de sauvegarde de données créée par IBM, qui permet d effectuer des sauvegardes très rapides depuis des sites distants géographiquement. Cette technologie s appuie sur des principes de Peer to Peer asynchrone. Le Peer to Peer Remote Copy (PPRC) est un protocole conçu pour copier un volume de stockage sur une autre unité de stockage sur un site distant. Le PPRC synchrone ordonne à chaque écriture sur le site primaire d être exécutée sur le secondaire sans délai. Les I/O ne sont considérés terminés que lorsque la mise à jour sur les deux sites a été effectuée. Le PPRC asynchrone arrête les flux sur le site primaire pour les dupliquer sur le secondaire quand les applications le permettent. Le PPRC peut être utilisé pour permettre une restitution très rapide suite à une panne sur le site primaire. Sur IBM System z et System z9 qui possèdent deux unités de contrôle Direct access storage Device (DASD) connectées à travers des connexions dédiées, le PPRC est le protocole utilisé pour copier un volume DASD d une unité de contrôle (primaire) sur un volume DASD sur une autre unité de contrôle (secondaire). Sur le IBM SAN Volume Controller (SVC), PPRC est utilisé pour copier un volume de stockage virtualisé sur un autre (ou le même) cluster situé à distance.

66 Rapport de stage ISIMA 2006 Page 66 Global Mirror est une technologie IBM qui permet de répliquer des données sur de longues distances à travers deux sites afin d assurer la continuité du business et leur récupération en cas de catastrophe «disaster / recovery». Il fournit un Recovery Point Objective (RPO) d un minimum de 3 à 5 secondes avec une bande passante adéquate entre les deux sites séparés par de très longues distances sans pour autant affecter les performances des applications présentes sur le site primaire. Il réplique de manière asynchrone les données et forme ensuite un «Consistency Group» à intervalles réguliers permettant une restitution propre de l application. Le RPO est le point de synchronisation où l application redémarrée est en pause. Ce point peut également être défini comme une mesure du temps qui établit que le travail peut être perdu en cas de problème non prévu sur le site primaire. En réduisant les besoins de RPO, on augmente la synchronisation de la réplication des données. RPO est un paramètre très important dans les solutions de «disaster recovery», avec le Recovery Time Objective (RTO). La réplication de données réfère au stockage de données et à la stratégie de sauvegarde qui permet de copier des données d un ordinateur hôte sur un autre ordinateur pouvant se trouver sur un emplacement proche ou lointain. La réplication à travers un réseau d ordinateur peut établir une sauvegarde des données entièrement indépendamment du centre local de stockage physique des données. Deux réplications de données sont possibles : la réplication «en ligne» et «hors ligne». Dans la réplication de donnée «en ligne» à travers un réseau comme Internet, la sauvegarde de donnée est faite en temps réel. La donnée à partir du serveur hôte est copiée sur l emplacement de sauvegarde aussitôt la donnée modifiée. En ce qui concerne la réplication de données hors ligne, la sauvegarde des fichiers de données est prise sur l emplacement de sauvegarde sur une base hors ligne. La réplication de donnée «hors ligne» est préférée dans des environnements où le nombre de transactions est très important et que la réplication en temps réel peut ainsi affecter les performances du système. Le RTO est déterminé en se basant sur le temps de panne acceptable dans le cas d une perturbation des opérations. Il indique le dernier point de synchronisation pour lequel les opérations de business doivent reprendre après un désastre. RTO doit être considéré en conjonction avec le RPO afin d avoir une vision globale du temps que l entreprise peut perdre suite à un désastre. Ces deux paramètres sont des éléments très importants lorsque l on établit une solution de disaster recovery. Cela peut se résumer par :

67 Rapport de stage ISIMA 2006 Page 67 RTO = Temps entre une catastrophe et le moment où le système est opérationnel. RTO = Time UP Time Crash. RPO = temps entre le moment où la dernière sauvegarde a été complète (données sauvegardées et concordantes) et le crash. RPO = Tcrash Tbackup Le temps perdu pour le Business peut être défini par : Tup Tcrash Tbackup. Les deux sites peuvent se situer sur deux continents différents ou simplement sur deux réseaux différents. IBM fournit également une méthode de réplication de donnée mais de manière synchrone. Cette méthode, appelée Metro Mirror, a été conçue pour supporter une réplication sur des distances métropolitaines d environ 300 kilomètres. Les fonctions Metro Mirror offrent une copie en mode synchrone sur de longues distances et permettent de mettre à jour constamment une copie d un volume lorsque des changements sont effecutés sur celui-ci. Avec les services de copie Metro Mirror, les volumes sources et cibles peuvent être sur la même unité de stockage ou sur des unités de stockage distinctes. On peut positionner l espace de stockage de sauvegarde sur un site éloigné. Le mirroring synchrone signifie que chaque mise à jour sur le site de stockage source doit aussi être mis à jour sur l unité de stockage du site cible avant qu une autre mise à jour soit effectuée. Quand Metro Mirror reçoit une mise à jour du host sur le volume source, il effectue la mise à jour correspondante sur le volume cible. Lorsqu une opération d écriture est terminée, une garantie est reçue par l application du host après que la mise à jour est été effectuée sur l unité de stockage cible et reconnue par les unités de stockage sources et cibles. Les volumes cibles sont souvent sur différentes unités de stockage. Ces résultats presque parfaits d un point de vue concordance des données, peut être le résultat d un retard entre les transactions. Avec Metro Mirror, la concordance est assurée à travers les volumes sur lesquels une application écrit ses opérations aussi longtemps que les volumes paires sont dans un état «full duplex». Quand les conditions d erreur affectent quelques uns des volumes pairs (ou différents volumes paires à des instants différents), cette concordance peut être perdue. Par exemple, si un des volumes cibles ne peut être mis à jour à cause de la perte de lien, le volume source correspondant se met normalement dans un état «suspended», mais continue à autoriser les mises à jour. Cependant, ces mises à jour ne sont pas transférées vers le volume cible. Seulement la table des partitions modifiées est créée et maintenue. Ainsi, la

68 Rapport de stage ISIMA 2006 Page 68 concordance des volumes est perdue, bien que l ordre des opérations d écriture est toujours garanti pour les autres volumes cibles. La copie Metro Mirror supporte une distance maximale de 300 kilomètre (186 miles). Les délais des temps de réponse pour un Metro Mirror sont proportionnels à la distance entre les volumes. Cependant, la totalité des données sources est disponible sur le site de sauvegarde quand les opérations de copie sont terminées. La procédure suivante décrit comment les données sont écrites et les procédures de copie effectuées dans le cas d un Remote Mirror. La copie sur une unité de stockage est synchrone avec les opérations I/O sur les volumes de source. 1. Une application demande une écriture I/O sur l unité de stockage source. L écriture I/O est écrite dans le cache. 2. Metro Mirror envoie une écriture I/O sur le cache de l unité de stockage cible. 3. L unité de stockage du site de sauvegarde signale que l opération d écriture a été effectuée quand la donnée mise à jour figure dans le cache. 4. Quand l unité de stockage du site de production reçoit la notification de l unité de stockage du site cible que l opération d écriture est réalisée, il retourne un statut d I/O «effectué» à son application Global Mirror est basé sur des fonctions existantes de services de copies IBM : le Global Copy et le Flash Copy. Les fonctions Global Copy permettent de copier de manière non synchrone sur de longues distances. Les opérations d écriture d une unité de stockage sur le site de production doivent être achevées avant d être transmises à l unité de stockage d un site de restitution. Global Copy est une fonction de mirroring non synchrone et une approche alternative mirroring aux opérations Metro Mirror. Les mises à jour des hosts sur les volumes sources ne sont pas retardées par une attente de la mise à jour qui doit être confirmée par l unité de stockage du site secondaire. Le volume source envoie une copie périodique de fichiers mis à jour au volume cible au lieu d un flux constant de mises à jour. Il n y a aucune garantie que les opérations dépendant des écritures ne soient transférées dans une même séquence car les opérations peuvent être appliquées au volume source. Cette opération non synchrone aboutit à un «fuzzy copy» sur le site de sauvegarde. Cependant, à travers les procédures, on peut créer

69 Rapport de stage ISIMA 2006 Page 69 une copie avec des points de synchronisation sur le site de restitution qui convient pour une migration de données, un backup ou pour des intentions de disaster / recovery. Pour garantir qu une copie logique des données soit effectuée, on peut périodiquement basculer d un mode Global Copy à un mode Metro Mirror. Ensuite, chaque copie arrête les applications I/O et gèlent les applications d écriture sur les volumes sources et attend que toutes les mises à jour en suspens soient copiées sur le site secondaire. A ce moment là, on peut créer une opération de Flash Copy sur le site de sauvegarde pour obtenir une donnée concordante. La fonction Global Copy peut être utilisée sur de très longues distances, bien au-delà des 300 kilomètres que peut supporter le Metro Mirror, et avec un impact minimal sur les applications, sur une distance qui est limitée seulement par le réseau et les technologies utilisées. Durant un désastre, les données peuvent être restituées seulement sur le dernier incrément concordant qui a été créé. Cela signifie que les données qui ont été écrites sur le site de production, en attente pour être transférées sur le site secondaire, sont perdues quand les deux sites ne peuvent plus communiquer entre eux. Il faut avoir conscience que l utilisation des fonctions Global Copy ne donne aucune garantie vis-à-vis de la perte de donnée. Les fonctions Global Mirror, d un autre côté, permettent des copies des données de production récupérables sur un site de sauvegarde lointain en formant continuellement des ensembles de données logiques avec aucun impact significatif sur les performances. Il autorise un redémarrage rapide sur le site de sauvegarde en cas de désastre sur le site de production. Les phases suivantes décrivent la séquence d écriture du Global Copy : 1. Durant une opération Global Copy, l unité de stockage du site de production capture des informations sur les mises à jour des volumes sources et envoie périodiquement ces mises à jour au volume cible du site secondaire. 2. Après la copie initiale de fichiers, l unité de stockage démarre de manière périodique un cycle de synchronisation où les données mises à jour, dans un ordre ascendant à partir du plus petit nombre de donnée, sont copiées du volume source au volume cible. L unité de stockage met à jour les données cibles avec les informations courantes pour cet espace, sans regarder le nombre de mises à jour effectué entre la dernière mise à jour qu il a établie sur son site et le temps présent ni l ordre dans lequel les mises à jour ont eues lieu.

70 Rapport de stage ISIMA 2006 Page Quand ce processus est terminé, le cycle est répété. Il y a une légère dégradation du temps de réponse des opérations d écriture d une application suivant la distance parcourue. 4. Les mises à jour d écriture sur le volume source reçoivent un achèvement immédiat car le cycle de synchronisation est indépendant des mises à jour sur le volume source. Les opérations de Global Mirror assurent de manière périodique une copie avec des points de synchronisation à intervalle régulier sur le site de sauvegarde sans endommager les I/O sur les volumes sources. En groupant plusieurs volumes dans une session Global Mirror, de multiples volumes peuvent être copiés sur le site secondaire de manière simultanée, en réglant le «point-in-time consistency» pour ces volumes. IBM dévoile Global Mirror, une technologie de mirroring (copie de données) capable de sauvegardes ultra-rapides, depuis des sources de données géographiquement éloignées. Techniquement, Global Mirror utilise un système de contrôle Peer-to-Peer de type asynchrone (à l inverse du type synchrone - Synchronous Peer-To-Peer Remote Copy - embarquée dans Metro Mirror, autre outil de sauvegarde de la marque), pour transférer les données via la fibre optique. Côté performance, la technologie n affiche que 3 à 5 secondes de latence (soit un débit de I/O par seconde) pour transiter sur 180 miles (au maximum). Global Mirror fournit une solution de copie sur longue distance entre deux sites pour les données des systèmes d exploitation ou pour les z/os (ou pour les deux) utilisant une technologie asyncrhone. Ce processus est accompli en utilisant le DS Storage Manager ou l interface de ligne de commande (CLI). Le processus Global Mirror est le plus souvent associé à un phénomène de désastre et de restitution ou pour préparer à ce phénomène. Cependant, il peut aussi être utilisé pour des opérations quotidiennes ou pour la migration de données. La fonction Global Mirror est désignée pour refléter les données entre les paires de volume d une unité de stockage à travers de grandes distances sans affecter la performance d ensemble. Elle est également créée pour fournir une application permettant aux données d un site primaire d être sauvegardées sur un site secondaire dans le cas d un désastre du site primaire. En créant un groupe de volumes à espace de temps régulier (quelques secondes), cette fonction s adresse au problème d uniformité qui peut se poser quand de grosses bases de

71 Rapport de stage ISIMA 2006 Page 71 donnée et des volumes sont répartis sur plusieurs unités de stockage. Avec Global Mirror, les données du site secondaire sont maintenues pour être une copie logique, à chaque synchronisation, des données du site primaire. Global Mirror est basé sur des fonctions de services de copie existante : Global Copy et Flash Copy. Les opérations Global Mirror invoquent un point de synchronisation Flash Copy au site secondaire, à intervalle régulier, sans interrompre les I/O du volume source, donnant ainsi une mise à jour continuelle, presque un backup de donnée instantanée. Puis, en groupant plusieurs volumes dans une session, qui est gérée par une unité de stockage master, on peut copier simultanément de multiples volumes sur le site secondaire en maintenant des points de synchronisation à travers ces volumes. Les raisons d utilisation du processus Global Mirror peuvent inclure : Le support pour des distances illimitées théoriquement, entre le site primaire et secondaire, mais avec une distance limitée seulement par les capacités du réseau et de la technologie employée. Cette distance illimitée nous permet de choisir l emplacement du site de sauvegarde en se basant sur les besoins de business et permet, par la séparation des sites, d ajouter une protection par rapport aux désastres localisés. Une copie de donnée logique et redémarrable sur le site secondaire, créée avec un impact minimum sur les applications du site primaire Une circulation des données, sur notre site secondaire avec un retard sur le site primaire de 3 à 5 secondes, minimisant la quantité de données perdue en cas de problème non prévu. L actuel retard dans la circulation des données, peut dépendre d un bon nombre de facteurs incluant les caractéristiques spécifiques du réseau et la bande passante entre les deux sites. Un support de la session qui permet l uniformité des données qui est gérée en interne au travers de plusieurs unités de stockage qui sont localisés à travers le site local et le site de copie. Une synchronisation efficace entre les deux sites avec le support des modes de failover et failback, aidant à réduire le temps qui est requis pour basculer à nouveau sur le site primaire après un désastre prévu ou non. Afin de mieux comprendre comment le Global Mirror fonctionne, nous devons être plus familiarisés avec les termes suivants :

72 Rapport de stage ISIMA 2006 Page 72 Master L unité de stockage master contrôle la création des «consistency groups» dans la session Global Mirror. Le master envoie des commandes aux unités de stockage subordonnées. Une unité de stockage est autorisée à être master d une seule session Global Mirror. Subordinate L unité de stockage subordonnée reçoit des commandes d une unité de stockage master. L unité de stockage subordonnée est identifiée quand la session Global Mirror est démarrée. L unité de stockage subordonnée forme un «consistency group» et exécute d autre processus Global Mirror. Une unité de stockage subordonnée peut seulement être contrôlé par une unique unité de stockage master. Session Une session est un rassemblement de volumes à travers de multiples unités de stockage qui sont gérées ensemble pour créer des copies logiques de données. La session est identifiée avec un identificateur (ID) qui est unique dans l entreprise. Cet ID identifie les volumes qui participeront au global Mirror «consistency group». Une session est ouverte sur chaque LSS présent dans l entreprise possédant des volumes qui participeront au Global Mirror «consistency group», associés à cet ID spécifique de session. Control path Le control path est établi entre l unité de stockage master et l unité de stockage subordonnée quand plus d une unité de stockage participe à la session du Global Mirror. S il y a seulement une unité de stockage qui est nécessaire, on ne doit pas créer de control path : l unité de stockage master communique directement avec l unité de stockage subordonnée. Le cycle automatique dans une session active Global Mirror fonctionne comme un suivi afin de maintenir les données sur un site secondaire et d être une copie concordante à certains moments par rapport aux données présentes sur le site primaire.

73 Rapport de stage ISIMA 2006 Page «Consistency groups» de volumes sont créés sur le site primaire 2. Augmentation des données consistantes envoyées sur le site secondaire 3. Opérations de Flash Copy sont effectuées sur le site secondaire 4. Des opérations de Global Copy sont effectuées entre le site primaire et le site secondaire afin de copier entre les points de synchronisation 5. Ces étapes sont répétées en concordance avec les intervalles de temps définis. Figure 27 Schématisation du cycle Global Mirror Le Global Mirror peut contrôler la formation des «consistency groups» pour des données logiques. Global Mirror est basé sur la combinaison des fonctions Global Copy et Flash Copy. Afin de supporter des données à travers des unités de stockage, Global Mirror utilise une fonction appelée session afin d établir des copies logiques. Un «consistency group» est un groupe de volumes présent sur de multiples unités de stockage et qui sont gérées ensemble quand l utilisateur crée des copies de donnée. La formation de ces groupes est coordonnée par l unité de stockage «master» qui envoie les commandes à travers le «remote mirror» et copie les liens aux unités de stockage subordonnées. Avec les fonctions Global Mirror, les groupes peuvent être formés plusieurs fois par heure, au lieu d une à deux fois par jour. En combinant plusieurs volumes dans une session, qui sont gérées par l unité de stockage master, de nombreux volumes peuvent être copiés sur le site secondaire simultanément en entretenant des points de synchronisation à travers les volumes. Les propriétés suivantes contrôlent à quelle fréquence les «consistency groups» sont formés. On peut modifier leurs valeurs en utilisant l interface Web appelée IBM System Storage DS

74 Rapport de stage ISIMA 2006 Page 74 Storage Manager. On peut accéder à la page Global Mirror et ensuite définir les propriétés à partir des fonctionnalités du menu. Consistency group interval time Indique le temps (en secondes) que l unité de stockage attend entre la formation des différents «consistency groups». Si l on met cette valeur à zéro (ce qui requiert une bande passante suffisante), les «consistency groups» se forment continuellement, ce qui signifie que le «consistency group» commence à se former dès que le précédent l a réalisé Maximum coordination interval Indique le temps maximum (en millisecondes) que l unité de stockage master communique avec les unités de stockage subordonnées afin de former un point de synchronisation («consistent data point»). Par défaut, ce temps est de 50 millisecondes. Parce que l écriture I/O des hosts est retardée quand le point de synchronisation est fait, la performance peut être affectée en autorisant un temps trop long pour cet intervalle. Si le temps programmé pour le «maximum coordination interval» expire avant que la formation d un point de coordination soit terminée, le «consistency group» échoue. Maximum time writes Indique le temps maximum (en secondes) durant lequel les opérations d écriture ne sont pas autorisées sur le site secondaire, et ceci avant que l unité de stockage stoppe la formation du «consistency group» courant. Si le «drain time» est maintenu sur une longue durée, le nombre d opérations d écriture qui est exigé pour le transfert de données en direction du site secondaire peut devenir assez large pour augmenter le temps de création du «consistency group». La perte de données peut aussi être augmentée en situation de désastre. Si ceci est réglé sur zéro, cela prend quatre minutes ou deux fois la valeur du «consistency group interval» pour la reprise. Cela dépend de la valeur la plus importante. Le premier «consistency group» est formé sans se soucier du «consistency group drain time». Pour le reste des «consistency groups», si le temps spécifique

75 Rapport de stage ISIMA 2006 Page 75 expire avant que la donnée soit envoyée sur le site secondaire, la formation des «consistency group» s arrête. Après que la formation des «consistency group» soit stoppée durant cinq temps consécutifs, l horloge est mise hors service et le prochain «consistency group» est formé sans se soucier du temps requis. Note : Quand la distance augmente, le retard augmente en fonction du temps que prend une donnée pour être écrite sur le site secondaire. Ce retard est référencé comme «drain time». Le Global Mirror peut être combiné avec un produit permettant le clustering d une surface large, tels que Geographically Dispersed Parallel Sysplex (GDPS), ou l HACMP/XD. Cela permet d automatiser le failover entre les sites. La solution combinée fournit le Recovery Time Ojective le plus petit possible et permet à la plupart des applications de reprendre les opérations de production dans les 30 à 600 secondes. Les fonctions de Global Miror sont disponibles sur les unités de stockage incluant le DS8100, le DS83000, le DS6800, l ESS Model 800 et l ESS Model 750. Le script Global Mirror effectué durant ma période de stage figure en Annexe 8 et est en cours de test au moment de l écriture de ce rapport.

76 Rapport de stage ISIMA 2006 Page 76 III RESULTATS ET DISCUSSIONS III.1 Travail effectué conformément au cahier des charges Les utilisateurs de la plateforme, à savoir les membres de l équipe HACoC, ont validé l intégration du linux sur la plateforme car celle-ci répond à leurs attentes, aux exigences du cahier des charges, aux besoins de l équipe HACoC et plus particulièrement à ceux de Mme Christine O SULLIVAN. Un des System x est intégré sur la plateforme sur le site 1 à Montpellier, et l autre est en relation avec le DS6000 présent à Montpellier afin de continuer les tests. Aucun System x n a pour le moment été configuré à Poughkeepsie car les tests sont en cours à Montpellier à l aide du simulateur de distance. Ce System x permet d effectuer des services de copie tel que le global mirror ou le metro mirror et pourra par la suite supporter une application Oracle. Ce serveur dispose d un système d exploitation Linux Red Hat Release 4.0 avec un logiciel de multipathing «sdd». Des logiciels permettent également d analyser le trafic, la perte de trames, les erreurs et aussi d établir les performances. Les utilisateurs sont en permanence tenus au courant de l état et de l évolution des performances du système et peuvent récupérer les statistiques à leur guise. Toutes ces évolutions apportés par le nouveau système me permettent d affirmer que son emploi est d une grande utilité pour la plateforme «Disaster / Recovery». La mise en place des System x étant terminée, j ai commencé à rédiger une publication IBM qui explique aux IBMers et aux clients toute la démarche pour procéder à l intégration d un Linux en relation avec une unité de stockage ainsi que les problèmes que j ai pu rencontrer et comment je les ai résolus. Une fois, le System x en place, il est aisé de lancer les scripts global mirror ; et il faut alors analyser les graphiques obtenus. Certaines vérifications voire manipulations sont encore à effectuer. Il faut vérifier certaines informations et au besoin les modifier. Le System x a été progressivement mis en exploitation par les utilisateurs, avec une phase de tests qui a duré plusieurs semaines pendant lesquelles Mme Christine O SULLIVAN et moimême avons pu observer le fonctionnement du système et cette phase est encore en cours.

77 Rapport de stage ISIMA 2006 Page 77 J ai, dans le même temps, commencé à expliquer ma démarche aux personnes travaillant avec moi sur la plateforme. A mon grand étonnement, l accueil de celle-ci fut enthousiaste, car l installation du système répondait aux besoins énoncés au début du stage. Certains tests de redémarrage permirent de mettre en évidence des anomalies auxquelles je n avais pas pensé. Ils permirent aussi de détecter quelques problèmes de suppression et de recréation qu il fallait effectuer. Ils servirent aussi à me confirmer le bon fonctionnement. Le retour des collaborateurs m a énormément servi pour parfaire l intégration du serveur à la satisfaction de ma tutrice et pour établir ma publication. III.2 Méthodologie et planning Une fois le cahier des charges défini, j ai planifié les diverses tâches à accomplir pour développer le projet qui m était confié : - la configuration de la baie, - l installation des linux, - les différents tests de copie, - la rédaction de la publication. Au fur et à mesure de l avancement du projet, j ai pu en contrôler la progression et tester les réalisations effectuées. Le planning de travail que j ai suivi durant ce stage est présenté sur la figure 32. On remarque la nécessité d une période d adaptation au monde de l entreprise et aux technologies utilisées ainsi qu une période de compréhension totale de la plateforme qu il fallait faire évoluer. Le développement propre du linux et de la plateforme ne représente qu une infime partie, car le travail de réflexion, de concertation, de discussion et de recherche des informations fut long mais fructueux. Néanmoins, j ai réussi à respecter le planning que nous nous étions fixé avec Mme O SULLIVAN au début du stage, présenté sur la figure 31.

78 Rapport de stage ISIMA 2006 Page 78 Avril Mai Phase d adaptation : Travail sur la mise en place d infrastructure de benchmarks pour faciliter l apprentissage et l appréhension de l environnement matériel IBM. Intégration dans un projet en cours (mise en place d une plateforme de «Disaster/Recovery» entre la France et les Etats-Unis) et travail en équipe. Juin Septembre Nouveau développement par l intégration d un nouveau serveur (Linux) dans la plateforme testée. Ce troisième volet fait appel à la capacité d autonomie du stagiaire. Figure 28 - Planning de travail au début du stage Début avril Avril Fin Avril Début Mai Prise en main de ma machine de travail et configuration de mon ThinkPad. Visite des différentes salles machines. Présentation du service. Assistance de l équipe réseau et setup storage. Lecture de documents sur les System IBM. Conférence sur la gamme DS4000. Rédaction du cahier des charges en collaboration avec ma tutrice. Apprentissage et compréhension de la plateforme et des technologies SAN (routeur, switch ). Lecture de documents sur Red Hat. 02 mai 22 mai Lecture des matrices de compatibilité, vérification du noyau et de la version Red Hat utilisée. Apprentissage de l outil de configuration des unités de stockage (soit par gui : web soit par cli : ligne de commandes). Création des volumes, volumes groupes et Host. Assistance à un Benchmark Linux pour le client IN2P3 avec Cyril Langlais de l équipe TotalStorage. Semaine du 22 mai Semaine du 29 Mai Début Juin Mi Juin Fin Juin Début Juillet Mi Juillet Problème à la création de vpath et de configuration du linux. Recherche de documentation pour le rapport. Lecture de la documentation sur IOZone. Etablissement de scripts de démarrage. Event CSI sur 3 jours : rôle de Room Manager. Fin d établissement des scripts de démarrage et tests. Documentation Global Mirror. Etablissement du script Global Mirror commenté. Présentation à mi-stage de l avancée du projet à mon manager et à mes collègues. Visite du tuteur ISIMA. Assistance à la conférence sur les activités IBM. Mise au vert avec l équipe TotalStorage. Installation du deuxième Linux. Problème sur le DS6000 : ouverture d incident, intervention du support.

79 Rapport de stage ISIMA 2006 Page 79 Fin Juillet Mi Août Mi Août Fin Août Début Septembre Problème sur les ports Ethernet des switchs McData. Problème sur le spirent et plus particulièrement sur les fibres. Mise à jour du DS8000 (montée du code). Problème sur la configuration des linux par rapport au storage : vérification des fibres, du zoning, réinstallation des Linux, recréation des volumes sur les DS, vérification des System x. Support SAN pour l équipe SVC et aide à Eric Wong de l équipe TotalStorage. Mise en place de fichiers pour le recensement d HACoC Room et des password des machines. Briefing d un nouvel arrivant sur la plateforme. Vérification de la configuration des linux et des unités de stockage. Débuts des tests. Fin de rédaction du rapport et début de rédaction de la publication. Tests. Université des partenaires sur 2 jours : rôle de Room Manager. Fin de rédaction de la publication. Préparation à la soutenance. Figure 29 - Planning de travail effectif III.3 Difficultés rencontrées Au cours de mon stage, les difficultés rencontrées ont été d ordre technique et bien souvent d ordre matériel. Problème de lien entre le volume groupe et le host Lors de la création par ligne de commande du volume groupe, j ai configuré le type en «SCSI Mask» et je n arrivais pas alors à créer la liaison entre le volume groupe et le host qui est configuré comme une RedHat EL. Après une recherche approfondie sur les différentes liaisons possibles, afin que cette liaison s opère, il fallait configurer le type en «SCSI Map 256». Cette erreur m a permis d apprendre qu il ne fallait pas forcément garder les valeurs par défaut, ni établir des paramètres en fonction d autres créations qui ne sont pas forcément adaptées à notre solution.

80 Rapport de stage ISIMA 2006 Page 80 Problème de filtrage des disques de l unité de stockage Lors de la configuration du linux et plus particulièrement de sdd, il a fallu modifier la configuration du fichier /etc/lvm/lvm.conf. En effet, je n arrivais pas à créer mon vpath dans le but d établir un multipathing ; et je ne voyais pas d où cela pouvait provenir. Après m être entretenu avec des spécialistes Red Hat et suite à des recherches personnelles, j ai résolu le problème en modifiant deux lignes du fichier : filter = ["a/.*/"] types = ["fd", 16] par les lignes : filter = ["a /dev/sda ", "r /dev/sd ", "a/.*/"] types = ["vpath", 16] Ces nouvelles lignes permettent au serveur linux de ne pas filtrer les autres disques que sda (disque principal sur lequel est installé Linux). Problème du au redémarrage du système d exploitation Une fois, ce problème de vpath résolu et ma configuration terminée, j ai redémarré le système d exploitation afin de voir ce qui était pris en compte et j ai pu constater que le service sdd n était pas démarré par défaut, et qu il fallait une intervention de l administrateur sur le système afin de le mettre en route. De plus, le volume logique créé sur le linux apparaissait à chaque démarrage en statut Inactive, il fallait une autre opération de l utilisateur afin de le passer en statut Active et puis de faire un mount. J ai donc pris l initiative de faire un script de démarrage qui permettrait de redémarrer le système d exploitation sans avoir à reconfigurer et sans que l administrateur ait à intervenir. Je me suis renseigné afin d apprendre à créer un script de démarrage et ainsi permettre l automatisation de la configuration au redémarrage du système d exploitation. Le script se situe ci-dessous :

81 Rapport de stage ISIMA 2006 Page 81 #!/bin/bash # # script_sdd This shell script takes care of starting and stopping # sdd and configurating Linux. # # description: sdd is a service which is the program # that permits to make multipathing ; and lvchange to change # the logical volume status. # processname: sdd # Stop sdd. /etc/init.d/sdd stop # Start sdd. /etc/init.d/sdd start # Source sdd configuration. # Physical volume scan pvscan # Volume Groupe scan vgscan # Logical volume scan lvscan # Change logical volume lv_halinux1 to active lvchange /dev/vghalinux1/lv_halinux1 -a y # Logical volume scan lvscan mount /dev/vghalinux1/lv_halinux1 /halinux1 exit 0 Ce script est présent sur les deux sites afin d automatiser la configuration et que l utilisateur n ait pas à intervenir à chaque redémarrage. Le fait d écrire ce script m a permis de prendre conscience d un léger problème, à savoir qu un script sous windows ne peut être retranscrit sous Linux. En effet, j avais confectionné mon script sur mon ordinateur de travail équipé de Windows et lorsque je l ai transféré sous Linux, les en-têtes étant différentes, celui-ci ne s exécutait pas. Une fois, le script écrit, il a fallu configurer le Linux pour qu il le prenne en compte à chaque redémarrage. Pour cela, il fallait procéder comme défini ci-après.

82 Rapport de stage ISIMA 2006 Page 82 ~]# ln -s../init.d/script_sdd /etc/rc2.d/s81script_sdd_site1 ~]# ln -s../init.d/script_sdd /etc/rc3.d/s81script_sdd_site1 ~]# ln -s../init.d/script_sdd /etc/rc4.d/s81script_sdd_site1 ~]# ln -s../init.d/script_sdd /etc/rc5.d/s81script_sdd_site1 ~]# ~]# chmod 755 script_sdd ~]# Le processus est le suivant : il faut tout d abord mettre le script dans le répertoire /etc/init.d, le passer en mode exécutable (à savoir en -rwxr-xr-x) puis créer des liens (commande ln -s) vers les différents rc.d pour parvenir à la prise en compte au démarrage. Incidents sur le DS6000 de Montpellier Par la suite, au moment de l installation du linux côté DS6000, j ai voulu créer mes volumes ainsi que mes volumes groupes par ligne de commande, mais il était impossible de communiquer avec l unité de stockage. J ai essayé de résoudre le problème mais cela était impossible, car on ne pouvait pas se connecter sur le port COM du DS6000. J ai donc fait appel aux spécialistes du «Setup Storage» qui n ont pas réussi à le résoudre et ont ouvert un incident pour y parvenir. L équipe du support storage est alors intervenue mais entre la tentative de création et la résolution du problème, quelques semaines se sont écoulées durant lesquelles on ne pouvait pas travailler. Les IP des contrôleurs avaient été changées, et des fichiers de configuration avaient été altérés. Quelques difficultés d ordre matériel sont apparues sur la plateforme. Tout d abord la carte Ethernet du poste qui sert de HMC était endommagée, et on ne pouvait plus alors contacter l unité de stockage. Une fois celle-ci changée, on a remis l adresse IP sur ce poste mais le lendemain, on ne pouvait plus correspondre avec le DS6000. L adresse IP était repassée en DHCP. On a alors rétabli l ancienne adresse et changé le mot de passe d accès de ce poste par précaution. Ce problème n a pas été détecté depuis. Malgré toutes ses résolutions, je ne voyais toujours pas les disques de l unité de stockage à partir de mon Linux. Après des recherches et des vérifications, le zoning avait mal été configuré entre le DS6000 et le Linux du site 2. En redémarrant le Linux, je voyais mes volumes. Problème entre le DS8000 et le System x L équipe du «Setup Storage» est intervenue sur le DS8000 afin de faire une mise à jour du microcode. Une fois la partie DS8000 en place, je ne voyais toujours pas les disques de l unité

83 Rapport de stage ISIMA 2006 Page 83 de stockage à partir de mon Linux. J ai testé le linux sur un autre System x en créant une image mais cela donnait le même résultat. J ai alors décidé de réinstaller mon système d exploitation. Je pense que cela a été une erreur car un simple redémarrage aurait sûrement résolu le problème mais par manque d expérience je n y ai pas pensé. J ai donc réalisé une réinstallation du système d exploitation mais malheureusement j ai laissé les fibres optiques connectées au System x. Lors de la réinstallation, le Linux a affiché Kernel Panic et ne pouvait poursuivre l installation. Un problème surgissait à chaque redémarrage. Je pense qu à la réinstallation, la Red Hat est allée écrire sur les volumes du DS8000 et de ce fait allait scanner les volumes à chaque redémarrage. J ai alors retiré les fibres connectées au System x et suis parvenu à installer la Red Hat Release 4.0. Mais à son redémarrage, une fois les fibres rebranchées le linux affichait toujours Kernel Panic. J ai alors supprimé les volumes créés pour les créer à nouveau. Le Linux a bien redémarré, et à cette étape il décelait bien les volumes créés sur le DS8000. Problème d ordre matériel Par la suite, quelques problèmes d ordre matériel sont apparus sur la plateforme. Les liens vers le spirent ne fonctionnaient plus même après l intervention de l équipe du réseau. On a alors réinitialisé les ports du spirent par l interface web de management et les liens furent rétablis. Suite à une coupure de courant organisé par la direction du PSSC, nous avons observé un problème avec le port Ethernet du switch McData : nous n arrivions plus à l atteindre et à configurer les différents ports. L équipe «Réseau» est alors intervenue afin de le replacer dans le bon réseau et lui redonner la bonne adresse. Les System x se trouvant dans les salles machines, j ai mis en route et configuré le ssh afin d y avoir accès depuis mon poste ou à partir des postes de la salle de tests mise à notre disposition. Mais un matin dès mon arrivée j ai constaté que je n avais plus accès à un des linux. J ai tout d abord pensé au souci qu il avait rencontré. Mais, en fait, celui-ci était démarré, et je n arrivais pas à le joindre. Cela provenait d un faux contact au sein du câble. Une fois changé le ssh a pu reprendre. La dernière difficulté rencontrée est apparue lors de mon support auprès de SVC. On ne voyait pas les World Wide Port Name sur les switchs pour le zoning. Cela provenait du fait que les fibres avaient été connectées à des ports non disponibles. Le port du routeur qui permet la relation entre les deux sites était tombé. Une réinitialisation a permis l accès aux disques.

84 Rapport de stage ISIMA 2006 Page 84 III.4 Améliorations possibles Sur la plateforme, de nombreuses améliorations sont possibles. Tout d abord, si l on souhaite diversifier la plateforme côté hardware, on peut encore intégrer deux types de serveurs tels que le System i et le System z. Cette diversité de serveurs permettrait d étoffer la plateforme et ainsi de s adresser et de convaincre davantage de clients sur l utilité de cette plateforme. Une autre diversité serait, après avoir installé AIX et Linux (Red Hat), de configurer d autres systèmes d exploitation tels que Windows ou OS400 (sur System z) par exemple. Cette autre étoffe permettrait de satisfaire davantage d utilisateurs potentiels suivant les ressources humaines de l entreprise qui ne possède pas forcément des employés spécialisés en Linux ou AIX. Ces différents rajouts démontreraient aux clients que n importe quelle configuration est possible et que, surtout, celle-ci fonctionne sur un site réel de production. Pour l instant, sur la plateforme, on dispose d un System x et d un System p. Sur ce dernier, on a une base de données et une application Oracle. Dans l avenir, on pourrait laisser la base de données sur le System p et faire tourner l application sur le System p. Cela permettrait d alléger le System p et comme l application n est pas trop encombrante, la disposer sur le System x. Cela permettrait très certainement de gagner en performance et surtout de libérer de l espace pour faire évoluer une autre application. Dans les améliorations possibles, on pourrait penser également à automatiser davantage et à faciliter la tâche de l utilisateur. Lors de la création du script de démarrage et de l automatisation du lancement du service sdd, l idée est venue de réaliser la même chose pour le global mirror. En effet, l utilisateur est obligé de lancer un script manuellement ou d interagir et de taper les lignes de commande afin de régler un temps ou d arrêter une session. On pourrait imaginer alors une interface qui faciliterait la sélection de commande suivant le cas dans lequel on se trouve et permettrait une amélioration du facteur «perte de temps» pour l employé en charge de la maintenance. Ainsi, il faudrait penser à tous les phénomènes susceptibles d intervenir (lien tombé, perte de données, site primaire tombé ), et faire en sorte de solutionner au mieux le problème rencontré.

85 Rapport de stage ISIMA 2006 Page 85 Pour finir, on dispose d un outil TPC (Totalstorage Productivity Center) qui permet de gérer les données et d assurer une sûreté d un point de vue software. Il serait souhaitable de disposer sur une plateforme comme celle d HACoC d un outil permettant de garantir une sûreté côté matériel.

86 Rapport de stage ISIMA 2006 Page 86 CONCLUSION Afin de conclure cette étude, je dresserai en premier lieu un bilan du projet réalisé. Puis, j évoquerai les difficultés rencontrées, et les connaissances acquises au cours de ce stage. Enfin, j aborderai les possibilités d amélioration de la plateforme. A la vue de ce rapport et du travail effectué, je peux dire que les objectifs fixés au départ par Mme O SULLIVAN ont été atteints. L intégration des deux System x sur la plateforme a été effectuée conformément au planning de travail et sa mise en application début Juillet en mode simulation à Montpellier a été réalisée avec succès. Cette intégration a été validée par ma tutrice, et accueillie avec enthousiasme par l ensemble des personnes travaillant sur la plateforme ; ce qui, au départ, ne pouvait être une certitude. Le planning de développement fixé par le cahier des charges a bien été respecté, même si parfois, nous étions en avance sur celui-ci. Les quelques difficultés rencontrées ont été d ordre technique car je ne maîtrisais pas les relations stockage-linux. Je n ai, par contre, pas rencontré de difficulté d organisation de temps de travail lorsqu il fallut commencer l intégration des différents systèmes d exploitation sur la plateforme. Les tests effectués devaient être précis et réalisés dans un laps de temps très court tout en étant accomplis de manière efficace. Il en fut de même pour la publication réalisée lors de ce stage. J ai su mener de front les deux tâches dans les délais impartis et l avancement du projet n en a pas été bouleversé. Ce stage m a permis d apprendre énormément dans la gestion d un projet étalé sur six mois. J ai pu aussi accroître mes connaissances techniques, d apprendre la technologie SAN, les espaces de stockage (baies de stockage, bande), de comprendre la mise en relation entre un système d exploitation (Linux) et une baie de stockage. De plus, le développement de cette plateforme m a associé comme membre d une équipe sur un projet extraordinaire. Il m a donné la possibilité de consolider mes acquis en réseau, au programme de deuxième et troisième année à l ISIMA. Enfin, cela m a ouvert à l importance de la communauté des clients lors du développement de ce projet ainsi qu à la volonté et la capacité d une entreprise à les satisfaire. L intégration du Linux sur la plateforme est maintenant terminée et il est pleinement opérationnel. Cependant, je vais continuer, durant les semaines à venir, à travailler sur la possibilité d établir de manière automatique le global mirror.

87 Rapport de stage ISIMA 2006 Page 87 OUVRAGES CONSULTES Sites Internet : ibm.com/support/docview.wss?rs=540&context=ST52G7&dc=DA400&uid=ssg1S &loc=en_us&cs=utf-8&lang=en#linuxsdd Livres : DUFRASNE B., ALLWORTH B., ARZENSEK J., HECHLER G., LIN A. - IBM TotalStorage DS4000 Series & StorageManager IBM TotalStorage DS8000 Series Interoperability Matrix WARRICK C., GORDON C., GRANIER B., IMAI K., Mc CUTCHEN R., PROCTOR B., SEDGWICK J., USONG P., VANDERMARK M., WICKES J. - IBM TotalStorage DS4000 Series : Performance Monitoring and Tuning

88 Rapport de stage ISIMA 2006 Page 88 IBM TotalStorage DS8000 Series datasheet WARRICK C., ALLUIS O., BAUER W., BLASCHEK H., FOURIE A., GARAY J.A., KNOBLOCH T.., LAING D., O SULLIVAN C., PREACHER S., ROTHENWALDT T., SANO T., TANG J.N., VANDEWERDT A., WARMUTH A., WOLF R. - IBM TotalStorage DS6000 Concepts and architecture WARRICK C., DUFRASNE B., KIMMEL P., KLEE P., MYYRYLAINEN J., NGUYEN L., SCHMIDT G., TAKATA S., VANDEWERDT A., WESSELBAUM B., WEST S. - IBM TotalStorage DS8000 Series Implémentation WARRICK C., DUFRASNE B., KIMMEL P., KLEE P., MYYRYLAINEN J., NGUYEN L., SCHMIDT G., TAKATA S., VANDEWERDT A., WESSELBAUM B., WEST S. - IBM TotalStorage DS8000 Series : Copy services in open environnements Montpellier PSSC Education - Asynchronous PPRC Global Mirror TotalStorage Hands-on Workshops : DS8000, DS6000 & ESS Copy Services for Open Workshop Solvay Solid Standard Operating Procedure SLD137 UX Managing Filesystems and Volumegroups V2.0 Matrice compatibilité sdd Linux Manu Ori - Linux RDAC v9.15 for Kernel 2.4 on xseries Tuning Red Hat Enterprise Linux on IBM eserver xseries Servers Emmanuel Tong-Viet - How to Disaster Recovery platform using McData solutions IBM IBM Learning services - Introduction to storage networking.

89 Rapport de stage ISIMA 2006 Page 89 System Storage and TotalStorage Product Guide (SAN, DR, disques) Francis Courteaux, Julien Maussion, Laurent Majcher - Easy_dscli tool to learn, reuse, and share DS Command Line Interface scripts (dscli) Tate J., Kanth R., Telles A. - Introduction to storage area networks Bertrand Dufrasne, Ronald Annuss, James Goodwin, Paul McWatt, Arwed Tschoeke - Implémenting Linux with IBM Disk Storage Host Systems Attachment Guide

90 Rapport de stage ISIMA 2006 Page I ANNEXES

91 Rapport de stage ISIMA 2006 Page II TABLE DES ANNEXES A.1 Complément sur les serveurs IBM System III A.2 Présentation hardware du DS8000 VII A.3 Présentation hardware du DS6000 XII A.4 Complément sur le SAN XVI A.5 Présentation hardware du switch 24M-1 XXV A.6 Présentation hardware du routeur SAN16M-R XXVII A.7 Présentation du spirent XXIX A.8 Script Global Mirror effectué XXXI

92 Rapport de stage ISIMA 2006 Page III A.1 Complément sur les serveurs IBM System Blade Center Un serveur devient une simple carte appelée «serveur lame» («blade server») doté de processeurs, de mémoire, d entrées/sorties et même de disques. Dans le cas du BladeCenter IBM, quatorze lames sont hébergées par un seul châssis de sept unités rack de hauteur. Grâce aux serveurs lames, on double la densité atteinte avec une offre traditionnelle. L ensemble intégré porte le nom de BladeCenter. Deux types de lames Intel (HS20-2 processeurs et HS40 4 processeurs) et un type de lame POWER (JS20-2 PowerPC 970) sont proposés pour équiper un châssis. Le châssis est disponible en version standard (BladeCenter) ou durcie (BladeCenter T) pour des applications Telecom. Cette nouvelle dimension en densité n est pas obtenue au détriment de la performance puisque chaque serveur lame est doté de 2 processeurs Xéon ou Power et deux canaux Gigabit Ethernet. Le châssis d accueil est doté en face arrière d un ensemble de connexion haute vitesse entre serveurs lame et de commutateurs KVM (clavier, écran, souris) pour l accès à chaque serveur lame si nécessaire. L ensemble est conçu pour éviter tout point de panne unique. IBM BladeCenter est conçu pour un déploiement rapide et modulaire. Grâce à IBM Director 4.2, le BladeCenter offre des fonctions d administration globale qui aident les responsables informatiques à maximiser les ressources, augmenter la productivité tout en réduisant les coûts opérationnels. Des fonctions optionnelles telles que «Remote Deployment» permettent l activation des lames en quelques minutes. Fonctionnant sous Linux, Windows, AIX selon le type de «blade», le BladeCenter trouvera de nombreuses applications, aussi bien en scientifique et technique, qu en gestion. IBM travaille avec des leaders de l industrie comme Broadcom, Citrix, D-Link, Intel, Microsoft, Nortel, Qlogic, ainsi que les équipes DB2, WebSpere, Lotus, Tivoli pour fournir des solutions innovantes utilisant le BladeCenter. Plus de applications peuvent tourner sur le BladeCenter. System p Les systèmes POWER4 et POWER5, au contraire, sont très flexibles. A partir du jeu de processeurs, de la totalité de la mémoire et de tous les adaptateurs, on configure librement des

93 Rapport de stage ISIMA 2006 Page IV partitions en associant logiquement des processeurs, des zones mémoire et des cartes PCI pour les entrées/sorties. On peut ainsi créer des serveurs logiques à partir d un ou plusieurs processeurs. Le partitionnement logique répond parfaitement aux besoins actuels liés aux charges dynamiques et non prévisibles. Une croissance rapide suppose des systèmes dont le périmètre peut être rapidement redéfini. A un moment donné ils peuvent par exemple supporter un serveur de production logique, des systèmes de développement et d intégration et d autres serveurs. Innovation IBM 1 : Micro partitionnement Avec les serveurs POWER 5 annoncés récemment, IBM a franchi une nouvelle étape en termes de flexibilité en introduisant la possibilité de définir des micros partitions «sub processeur», c'est-à-dire n utilisant que des fractions de processeurs. Avec une taille de base de 1/10 de processeur, une partition peut être augmentée par tranches d 1/100 ème de processeur. Cette définition des différents serveurs logiques est faite par le biais de la console de gestion du matériel. La partition peut être limitée à une taille prédéfinie («capped») ou non limitée. Avec le micro partitionnement, toutes les plus petites applications peuvent trouver place sur un system POWER5 sans gaspiller des ressources. Innovation IBM 2 : Virtualisation des entrées/sorties (I/O) avec le concept de serveur d I/O virtuel IBM introduit avec les systèmes p5 une virtualisation des entrées/sorties qui complète la virtualisation des partitions logiques. Tout ou partie des adaptateurs physiques du système sont regroupés en pols et hébergés par une ou plusieurs partitions dédiées appelées serveurs d entrées/sorties virtuelles. Ces partitions se mettent au service des autres partitions applicatives et assurent les entrées/sorties vers l extérieur (réseau, stockage) mais aussi reconstituent un environnement de réseaux virtuels internes à la machine. Le résultat est un découplage total des partitions applicatives des entrées/sorties physiques (les adaptateurs) avec, en complément, des réseaux locaux Ethernet virtuels. De plus, ce mécanisme permet un partage efficace des adaptateurs et sous systèmes matériels et augmente leur taux d utilisation. Les serveurs d entrées/sorties utilisent AIX 5L comme système d exploitation mais sont

94 Rapport de stage ISIMA 2006 Page V encapsulées pour simplifier la gestion de l ensemble. Le partage des adaptateurs Fibre Channel est fait en allouant et associant les LUNs SAN aux partitions applicatives. La fonction logicielle entrées/sorties multi voies au sein des partitions gérant les entrées/sorties virtuelles permet de les protéger contre des pannes éventuelles des liaisons Fibre Channel avec les contrôleurs de stockage SAN. Le concept de disques virtuels est mis en œuvre en utilisant le gestionnaire de volumes logiques de AIX 5L dans les serveurs d entrées/sorties virtuelles. Les volumes deviennent des disques virtuels pour les partitions applicatives clientes. L approche traditionnelle impliquait une évaluation des besoins matériels pour chaque application avant son déploiement, avec souvent un coûteux surdimensionnement pour couvrir les incertitudes dans le calcul des charges et parer aux éventuels pics de charge. Plus tard en opération, une montée en charge imprévue pouvait conduire à des upgrades coûteux ou l achat de nouveaux serveurs. Avec les nouveaux serveurs p5, le responsable informatique aura toute liberté pour coller aux besoins changeants de ses applications en leur allouant en opération les ressources adéquates. Les options de capacité «on demand» pour les systèmes p5 sont au nombre de quatre : capacity upgrade on demand, on/off capacity on demand, reserve capacity on demand, trial capacity on demand. La capacity upgrade on demand consiste en un upgrade en capacité processeurs ou mémoire d un système. Le on/off capacity on demand permet d une part l utilisation temporaire d un nombre de processeurs et d un volume mémoire identifiés, et d autre part au client de choisir la capacité requise, d activer la ressource (système enregistré), et d ajouter et de retirer à volonté la capacité. La reserve capacity on demand concerne les ressources processeurs seulement et la capacité peut être activée et désactivée par le client. Le trial capacity on demand permet au client de tester l impact d une action de processeurs ou de mémoire et d activer partiellement ou totalement des processeurs/mémoire. Si le client désire des ressources supplémentaires, elles ne sont disponibles que pour un temps limité (30 jours). IBM propose la dé-allocation dynamique de processeur. L objectif n est pas d être capable de remplacer un processeur défaillant sur une machine arrêtée mais d empêcher ce processeur de perturber les applications qui tournent sur le serveur et ainsi d assurer la continuité du service. La fonction de dé-allocation permet de mettre hors circuit un processeur défaillant avant que celui-ci ne conduise à l arrêt du serveur (valide pour les serveurs équipés de plus de deux processeurs). Avec les systèmes p5, on pourra même compléter le schéma en prévoyant des processeurs de rechange, prêts à prendre automatiquement la relève de processeurs défaillants

95 Rapport de stage ISIMA 2006 Page VI pour maintenir le niveau de service. Pour les applications d aujourd hui, on a besoin d une disponibilité de service 24h/24, 7j/7. System i L autonomie se résume en quatre points : auto-protection, auto-optimisation, auto-dépannage, et auto-configuration. L auto-protection ou Enterprise Identity Mapping rassemble les signatures digitales et détection d intrusion, l auto-optimisation le partitionnement Logique Dynamique, l auto-dépannage qui supporte la commutation de disques, l Agent Building Learning Environnement (ABLE) pour la gestion d incidents, et l autoconfiguration rassemble les assistants graphiques pour gérer les charges de travail multiples et la performance, la commutation des disques en clusters, la sécurité et le réseau, la sauvegarde des données et système.

96 Rapport de stage ISIMA 2006 Page VII A.2 Présentation hardware du DS8000 Cette annexe va permettre de présenter succinctement la partie hardware du DS8000. Un DS8000 est composé d alimentations, d une console de management (HMC), de disques, de serveurs pseries intégrés, de batteries et de tiroirs I/O comme représenté ci-dessous : L IBM TotalStorage DS8100 (2-Way) est ainsi représenté comme ceci :

97 Rapport de stage ISIMA 2006 Page VIII et l IBM TotalStorage DS8300 (4-Way) : Le DS8000 peut être décomposé en différents modules comme représenté ci-dessous : On peut voir les différents composants du DS8000. Tout d abord, le processeur, ci-dessous en vue de face et arrière, dispose de ports RIO-G, d alimentations, d emplacements pour carte PCI.

98 Rapport de stage ISIMA 2006 Page IX On peut voir plus précisément les ports RIO-G sur la figure ci-dessous. Les «enclosures» I/O sont représentées ci-dessous, que ce soit en vue de face ou arrière. On peut ainsi remarquer les alimentations redondantes et les ports que possèdent ces enclosures.

99 Rapport de stage ISIMA 2006 Page X Des ports Ethernet sont disponibles sur les unités de stockage afin de s y connecter et de pouvoir également les relier à un réseau privé via la HMC. On peut donc voir les branchements effectués et les ports disponibles sur la HMC et sur les switchs en vue arrière.

100 Rapport de stage ISIMA 2006 Page XI

101 Rapport de stage ISIMA 2006 Page XII A.3 Présentation hardware du DS6000 Le DS6000 est présenté en vue de face et arrière. Le DS6000 est composé d alimentation, de contrôleurs, de batteries. Comparé au DS8000, il ne contient pas de HMC. Celle-ci est un poste de travail que l on relie au DS6000. On voit cidessous la partie arrière du DS6000.

102 Rapport de stage ISIMA 2006 Page XIII Ci-dessous, on peut remarquer les cartes d expansion et les contrôleurs ainsi que les câblages constitués avec les différents ports (host, Ethernet, expansion). On a également des indicateurs de puissance et d erreur sur le contrôleur.

103 Rapport de stage ISIMA 2006 Page XIV Afin de mettre les DS6000 en cascade, voici le câblage FC-AL (en boucle) que l on effectue : Ci-après, la vue arrière du DS6000 nous permet d exposer les différents éléments (ports, boutons, indicateurs, connecteurs ) de l unité de stockage. Le tableau ci-dessous permet de référencer les différentes capacités des disques suivant les modèles :

104 Rapport de stage ISIMA 2006 Page XV Voici une schématisation avec un seul hôte sur le DS6800 en comparaison avec un hôte relié à deux contrôleurs permettant de faire du multipathing par exemple :

105 Rapport de stage ISIMA 2006 Page XVI A.4 Complément sur le SAN Les équipements interconnectés par le réseau SAN sont appelés "noeuds". Plusieurs topologies de réseau peuvent être utilisées : topologie point à point, et les topologies réseaux qui sont la topologie switchée et la topologie en boucle arbitrée. Pour la topologie point à point, il n'y a pas réellement la mise en œuvre d'un réseau, mais on effectue des connexions directes entre les unités de stockage et les serveurs d'applications. Topologie point à point Par rapport à une connexion traditionnelle SCSI, la connexion Fibre Channel apporte ici, grâce à la fibre optique, les avantages suivants : un débit jusqu'à 400 méga octets par seconde en mode full duplex, et une distance jusqu'à 10 km sans répéteur. Deux topologies réseaux sont disponibles. Elles correspondent à deux variantes du protocole Fibre Channel : le protocole FC-S pour les topologies commutées et le protocole FC-AL pour les boucles. La topologie "switchée" (ou commutée) utilise une infrastructure réseau appelée "switch fabric". Celle-ci est constituée d'un ou plusieurs "switch" reliés aux serveurs d'applications, aux serveurs de stockages ou de sauvegardes, ou encore entre eux.

106 Rapport de stage ISIMA 2006 Page XVII Topologie switchée Les switchs assurent un transfert simultané au débit nominal de 100/200/400 Méga Octets par seconde entre tous les noeuds connectés comme l indique la figure suivante. Fonctionnement d un commutateur

107 Rapport de stage ISIMA 2006 Page XVIII Les caractéristiques de cette solution sont un débit de 400 Méga Octets par seconde dédié pour chaque nœud offrant de hautes performances, une possibilité d'interconnecter des switchs entre eux et de traverser plusieurs switchs sur un chemin (configuration en cascade), une capacité d'adressage de 16 millions de nœuds, une redondance possible d'accès aux données pour augmenter la disponibilité globale du réseau, un temps d'accès aux données dépendant du chemin et de la charge, une connexion possible de boucles "FC-AL" aux switchs, et une gestion de réseau nécessaire pour optimiser les performances. L autre topologie réseau est donc la topologie en boucle arbitrée. Avec cette topologie (FC- AL) les équipements sont interconnectés au travers d'une boucle, donc, la capacité de transmission est partagée par ces différents équipements. Host HUB Host Storage Controler Storage Controle r Switch Topologie en boucle arbitrée Le câblage de la boucle est facilité par l'utilisation d'un concentrateur ("hub") qui accroît la disponibilité de la boucle en permettant de court-circuiter un noeud défaillant comme l indique la figure ci-dessous. Fonctionnement d un concentrateur

108 Rapport de stage ISIMA 2006 Page XIX Les caractéristiques de cette solution sont : une boucle offrant un débit de 100, 200 ou 400 Méga Octets par seconde partagé entre les nœuds (127 au maximum), une solution économique, un câblage autour d'un hub augmentant la disponibilité du réseau, des performances liées au nombre de nœuds (la performance diminue avec l augmentation des nœuds), une reconfiguration possible à chaud et une possibilité de double boucle pour augmenter la disponibilité globale du réseau. L'infrastructure d'un réseau SAN est constituée de matériels d'interconnexion : hubs pour les boucles et switchs pour les topologies commutées. D'autres équipements comme les "gateways", "bridges" et routeurs, peuvent être utilisés pour connecter au réseau "Fibre Channel" des équipements ou réseaux qui ne supportent pas ce protocole de façon native. Ces équipements assurent alors les conversions de protocoles nécessaires. C'est le cas, par exemple, pour les serveurs ou systèmes de stockage ne supportant que l'interface SCSI. Il en est de même pour interconnecter des réseaux SAN distants au travers d un réseau WAN (ATM par exemple). Les différents équipements cités précédemment comme les noeuds, les hubs, ou les switchs sont interconnectés par des fibres optiques sur des ports dont le comportement dépend de l'équipement auquel ils appartiennent et de celui auquel ils sont interconnectés : Différents types de ports Les différents types de ports dépendent de l'équipement. Pour les noeuds (serveur, système de stockage ou gateway) on a deux types de ports : NL-port d un port vers un hub et N-port d un port vers un switch. En ce qui concerne les hubs, on utilise du L-port. Enfin, pour les switchs, deux types de ports sont utilisés à savoir F-port d un port vers un nœud, et E-port d un port vers un autre switch.

109 Rapport de stage ISIMA 2006 Page XX Le réseau SAN se caractérise par une transmission de type "série", bidirectionnelle ("full duplex") sur fibre optique à 100, 200 ou 400 MO/s, suivant un protocole appelé Fibre Channel. Le protocole Fibre Channel est défini par des standards (parmi lesquels ANSI T11), organisés en couches conformément au modèle OSI : FC-4 Mapping FC-3 Mapping FC-2 Signal Protocol FC-1 Transmission Protocol FC-0 Interface /Media Multimedia Channels Networks Audio Video P / Upper Level Protocol (ULP) Common Services Framing Protocol / Flow Control Encode / Decode Physical Characteristics Single Mode Fiber / Multimode Fiber / Copper Couches du protocole Fibre Channel Les trois couches basses FC-0, FC-1 et FC-2 se rapportent au transport physique Fibre Channel (FC-PH). La couche FC-0 définit le support et l'interface physique : bien que la fibre optique ne soit pas exclusive pour le SAN, on ne considèrera que cette possibilité, la plus répandue aujourd'hui. Au niveau physique FC-0, Fibre Channel spécifie la transmission à 100, 200 et 400 Méga Octets par seconde sur fibres optiques multimodes ou monomodes.

110 Rapport de stage ISIMA 2006 Page XXI Fibre Optique M onomode Gaine 125µ Fibre Optique M ultimode Fibre 9µ Gaine 125µ Fibre 50µm ou 62.2µm Schématisation des fibres Le tableau suivant donne la distance maximale entre deux équipements reliés en Fibre Channel, en fonction du type de fibre optique et du type d'onde optique (ce dernier est déterminé par le type d'adaptateur GBIC utilisé), ou SFP (Small Form Factor Pluggable). Type d'ondes optiques Ondes courtes (Shortwave-SW) rouge 780/850 nm Ondes courtes (Shortwave-SW) rouge nm Ondes longues (Longwave-LW) Infra-Rouge 1300 nm Type de fibre Diamètre Distance Distance Distance interne maxi 1Gb/s maxi 2Gb/s maxi 4Gb/s Fibre multimode 62,5µ 300 mètres 150 mètres 70 mètres Fibre multimode 50 µ 500 mètres 300 mètres 150 mètres Fibre monomode 9 µ 10 Km 10 Km 10 Km Caractéristiques des fibres

111 Rapport de stage ISIMA 2006 Page XXII Chaque lien FC est constitué de deux fibres (une par sens de transmission) en général dotées de connecteurs mâles SC (1Gb) ou LC (2/4Gb) aux extrémités. Les deux types de connecteurs sont de dimensions différentes, ne se remplacent pas et ne s'interconnectent pas physiquement. Types de connecteur Fibre Channel La couche FC-1 définit les modes de codage/décodage du protocole de transmission (8B/10B). Un transcodage 8bits/10bits est fait de manière à garantir un équilibrage entre le nombre de 0 et de 1 dans un flux de données quelconque (synchronisation aussi des décodeurs HW). La couche FC-2 définit la signalisation et le format des trames Fibre Channel. Trame Fibre Channel Dans un réseau SAN Fibre Channel, chaque composant est identifié par un nom unique de 16 caractères (64 bits), appelé "World Wide Name" (WWN). Celui-ci est affecté par son constructeur, à qui une autorité (l'ieee) attribue une plage de noms, afin de garantir l'unicité. Le format des "WWN" est le suivant :

Plan du Travail. 2014/2015 Cours TIC - 1ère année MI 30

Plan du Travail. 2014/2015 Cours TIC - 1ère année MI 30 Plan du Travail Chapitre 1: Internet et le Web : Définitions et historique Chapitre 2: Principes d Internet Chapitre 3 : Principaux services d Internet Chapitre 4 : Introduction au langage HTML 2014/2015

Plus en détail

Cours 13. RAID et SAN. 2004, Marc-André Léger

Cours 13. RAID et SAN. 2004, Marc-André Léger Cours 13 RAID et SAN Plan Mise en contexte Storage Area Networks Architecture Fibre Channel Network Attached Storage Exemple d un serveur NAS EMC2 Celerra Conclusion Démonstration Questions - Réponses

Plus en détail

NOTIONS DE RESEAUX INFORMATIQUES

NOTIONS DE RESEAUX INFORMATIQUES NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des

Plus en détail

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES Marie GALEZ, galez@cines.fr Le propos de cet article est de présenter les architectures NAS et SAN, qui offrent de nouvelles perspectives pour le partage

Plus en détail

Le e s tocka k ge g DAS,NAS,SAN

Le e s tocka k ge g DAS,NAS,SAN Le stockage DAS,NAS,SAN Sommaire Introduction SAN NAS Conclusion Bibliographie Questions Introduction Besoin de partage de données à travers un réseau Explosion des volumes de données Comment assurer les

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ MODULE I1 Plan Chapitre 1 Qu'est ce qu'un S.E? Introduction Historique Présentation d'un S.E Les principaux S.E R&T 1ère année Votre environnement Sylvain MERCHEZ Introduction Introduction Rôles et fonctions

Plus en détail

L état de l ART. Évolution récente des technologies. Denis Szalkowski Formateur Consultant

L état de l ART. Évolution récente des technologies. Denis Szalkowski Formateur Consultant L état de l ART Évolution récente des technologies Denis Szalkowski Formateur Consultant Composants et infrastructure L entreprise interconnecté Les composants Les processeurs Le stockage La sauvegarde

Plus en détail

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration.

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration. Windows 2000: Introduction W2K: Architecture Système d'exploitation multitâche multithread 32 bits à architecture SMP. Multiplateforme: intel x86, Compaq Alpha Jusqu'à 64 Go de mémoire vive Système d'exploitation

Plus en détail

Le Programme SYGADE SYGADE 5.2. Besoins en équipement, logiciels et formation. UNCTAD/GID/DMFAS/Misc.6/Rev.7

Le Programme SYGADE SYGADE 5.2. Besoins en équipement, logiciels et formation. UNCTAD/GID/DMFAS/Misc.6/Rev.7 CONFÉRENCE DES NATIONS UNIES SUR LE COMMERCE ET LE DÉVELOPPEMENT UNITED NATIONS CONFERENCE ON TRADE AND DEVELOPMENT Le Programme SYGADE SYGADE 5.2 Besoins en équipement, logiciels et formation UNCTAD/GID/DMFAS/Misc.6/Rev.7

Plus en détail

Cours n 12. Technologies WAN 2nd partie

Cours n 12. Technologies WAN 2nd partie Cours n 12 Technologies WAN 2nd partie 1 Sommaire Aperçu des technologies WAN Technologies WAN Conception d un WAN 2 Lignes Louées Lorsque des connexions dédiées permanentes sont nécessaires, des lignes

Plus en détail

et dépannage de PC Configuration Sophie Lange Guide de formation avec exercices pratiques Préparation à la certification A+

et dépannage de PC Configuration Sophie Lange Guide de formation avec exercices pratiques Préparation à la certification A+ Guide de formation avec exercices pratiques Configuration et dépannage de PC Préparation à la certification A+ Sophie Lange Troisième édition : couvre Windows 2000, Windows XP et Windows Vista Les Guides

Plus en détail

//////////////////////////////////////////////////////////////////// Administration systèmes et réseaux

//////////////////////////////////////////////////////////////////// Administration systèmes et réseaux ////////////////////// Administration systèmes et réseaux / INTRODUCTION Réseaux Un réseau informatique est un ensemble d'équipements reliés entre eux pour échanger des informations. Par analogie avec

Plus en détail

Consolidation de stockage

Consolidation de stockage (Information sur la technologie Sto-2003-2) Wolfgang K. Bauer Spécialiste stockage Centre de compétence transtec AG Waldhörnlestraße 18 D-72072 Tübingen Allemagne TABLE DES MATIÈRES 1 RÉSUMÉ...3 2 INTRODUCTION...4

Plus en détail

L offre Stockage et serveurs System x / BladeCenter F.Libier, Business Partner Technical Manager

L offre Stockage et serveurs System x / BladeCenter F.Libier, Business Partner Technical Manager L offre Stockage et serveurs System x / BladeCenter F.Libier, Business Partner Technical Manager 2009 IBM Corporation Une offre IBM optimisée pour les infrastructures dynamiques Réduire les coûts Améliorer

Plus en détail

Serveur EMC/CX4-240. Solution de stockage hautes performances dotée d'une connectivité flexible

Serveur EMC/CX4-240. Solution de stockage hautes performances dotée d'une connectivité flexible Serveur EMC/CX4-240 Solution de stockage hautes performances dotée d'une connectivité flexible La baie CX4-240 est une solution remarquablement flexible, capable de protéger vos investissements. Elle offre

Plus en détail

L3 informatique Réseaux : Configuration d une interface réseau

L3 informatique Réseaux : Configuration d une interface réseau L3 informatique Réseaux : Configuration d une interface réseau Sovanna Tan Septembre 2009 Révision septembre 2012 1/23 Sovanna Tan Configuration d une interface réseau Plan 1 Introduction aux réseaux 2

Plus en détail

Bénéficiez d'un large choix d'applications novatrices et éprouvées basées sur les systèmes d'exploitation i5/os, Linux, AIX 5L et Microsoft Windows.

Bénéficiez d'un large choix d'applications novatrices et éprouvées basées sur les systèmes d'exploitation i5/os, Linux, AIX 5L et Microsoft Windows. 1. Le nouveau eserver i5 en bref Gérez plusieurs systèmes d'exploitation et environnements d'applications sur un seul serveur pour simplifier votre infrastructure et réduire les frais de gestion Simplifiez

Plus en détail

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données La meilleure protection pour les données vitales de votre entreprise Autrefois, protéger ses données de manière optimale coûtait

Plus en détail

Système de stockage EMC CLARiiON AX4

Système de stockage EMC CLARiiON AX4 FICHE PRODUIT Système de stockage EMC CLARiiON AX4 Simplifier la transition vers le stockage réseau Pour les entreprises qui cherchent une alternative au stockage sur serveur, le système EMC CLARiiON AX4

Plus en détail

Symantec Backup Exec 2012

Symantec Backup Exec 2012 Better backup for all Fiche technique : Sauvegarde et reprise après incident Présentation est un produit unique et intégré qui protège les environnements physiques et virtuels, simplifie la sauvegarde

Plus en détail

EMC DATA DOMAIN HYPERMAX

EMC DATA DOMAIN HYPERMAX EMC DATA DOMAIN HYPERMAX Optimisation du stockage de protection EMC AVANTAGES CLÉS Déduplication évolutive et ultrarapide Jusqu à 58,7 To/h de débit Réduit de 10 à 30 fois le stockage de sauvegarde, et

Plus en détail

CA ARCserve r16 devance Symantec Backup Exec 2012

CA ARCserve r16 devance Symantec Backup Exec 2012 devance En juillet 2012, Network Testing Labs (NTL) a réalisé une analyse concurrentielle à la demande de CA Technologies. Son rapport compare la gamme de produits CA ARCserve r16 à la gamme de produits

Plus en détail

LENOVO THINKSERVER GUIDE DES PRODUITS. Haute évolutivité et flexibilité conjointes au développement de l entreprise

LENOVO THINKSERVER GUIDE DES PRODUITS. Haute évolutivité et flexibilité conjointes au développement de l entreprise GUIDE DES PRODUITS LENOVO THINKSERVER Haute évolutivité et flexibilité conjointes au développement de l entreprise Augmentez le rendement, maximisez l efficacité et garantissez la continuité des activités

Plus en détail

HP Simply Storage Consolidation

HP Simply Storage Consolidation HP Simply Storage Consolidation Stockage partagé pour le service de fichiers et les données d application Eté 2009 Table des matières Présentation de HP Simply StorageWorks... 4 Sélectionnez la solution

Plus en détail

Spécifications détaillées

Spécifications détaillées Hewlett Packard HP ProLiant ML110 G5 Serveur micro tour 4U 1 voie 1 x Xeon E3110 / 3 GHz RAM 1 Go Disque dur 1 x 250 Go DVD RW Gigabit Ethernet Moniteur : aucun(e) Le serveur HP ProLiant ML110 G5 offre

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

EMC DATA DOMAIN OPERATING SYSTEM

EMC DATA DOMAIN OPERATING SYSTEM EMC DATA DOMAIN OPERATING SYSTEM Au service du stockage de protection EMC AVANTAGES CLÉS Déduplication évolutive ultrarapide Jusqu à 31 To/h de débit Réduction des besoins en stockage de sauvegarde de

Plus en détail

Thomas Briet Ingenieurs 2000 Cyril Muhlenbach

Thomas Briet Ingenieurs 2000 Cyril Muhlenbach 4 Stockage Réseau DAS / SAN / NAS / iscsi Ingenieurs 2000 Cyril Muhlenbach Introduction Ces dernières années, l impressionnant grossissement du volume d information et de leur sauvegarde dirigée par une

Plus en détail

Internet et Programmation!

Internet et Programmation! Licence STS Informatique - Semestre 1! BUT de l enseignement:!! Comprendre une grande partie des termes utilisés dans l écriture des pages actuellement véhiculées sur le NET!! Et tendre vers une écriture

Plus en détail

La continuité de service

La continuité de service La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici

Plus en détail

Spécifications détaillées

Spécifications détaillées Hewlett-Packard HP ProLiant DL380 G5 Storage Server 1.8TB SAS Model - NAS - 1.8 To - montage en rack - Serial ATA-150 / SAS - DD 36 Go x 2 + 300 Go x 6 - DVD±RW x 1 - RAID 0, 1, 5, 6 - Gigabit Ethernet

Plus en détail

Réplication de données de classe entreprise pour environnements distribués et reprise sur sinistre

Réplication de données de classe entreprise pour environnements distribués et reprise sur sinistre Réplication de données de classe entreprise pour environnements distribués et reprise sur sinistre La tendance actuelle vers une conception distribuée de l entreprise, avec des agences, des centres de

Plus en détail

Fiche technique RDS 2012

Fiche technique RDS 2012 Le 20/11/2013 OBJECTIF VIRTUALISATION mathieuc@exakis.com EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Fiche technique RDS Objectif 02/04/2013 20/11/2013

Plus en détail

10 choses à savoir sur le 10 Gigabit Ethernet

10 choses à savoir sur le 10 Gigabit Ethernet Livre blanc 10 choses à savoir sur le 10 Gigabit Ethernet Sommaire Introduction... 3 Le 10 Gigabit Ethernet et Les serveurs : une meilleure efficacité... 3 SAN contre Fibre Channel : plus simple et plus

Plus en détail

UPSTREAM for Linux on System z

UPSTREAM for Linux on System z FICHE PRODUIT UPSTREAM for Linux on System z UPSTREAM for Linux on System z UPSTREAM for Linux on System z est conçu de manière à assurer une protection de données complète pour votre environnement Linux

Plus en détail

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) ETABLISSEMENT PUBLIC DE SANTE MENTALE «Morbihan» 22, Rue de l Hôpital - B. P. 10 56896 SAINT-AVE Cédex Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) CAHIER DES

Plus en détail

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé Les technologies de virtualisation de serveurs séduisent les organisations car elles permettent de réduire le Coût Total de Possession

Plus en détail

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA DOSSIER SOLUTION : CA ARCSERVE BACKUP R12.5 CA ARCserve Backup CA ARCSERVE BACKUP, LOGICIEL DE PROTECTION DE DONNÉES LEADER DU MARCHÉ, INTÈGRE UNE TECHNOLOGIE DE DÉDUPLICATION DE DONNÉES INNOVANTE, UN

Plus en détail

ERP Service Negoce. Pré-requis CEGID Business version 2008. sur Plate-forme Windows. Mise à jour Novembre 2009

ERP Service Negoce. Pré-requis CEGID Business version 2008. sur Plate-forme Windows. Mise à jour Novembre 2009 ERP Service Negoce Pré-requis CEGID Business version 2008 sur Plate-forme Windows Mise à jour Novembre 2009 Service d'assistance Téléphonique 0 825 070 025 Pré-requis Sommaire 1. PREAMBULE... 3 Précision

Plus en détail

Les réseaux de campus. F. Nolot 2008 1

Les réseaux de campus. F. Nolot 2008 1 Les réseaux de campus F. Nolot 2008 1 Les réseaux de campus Les architectures F. Nolot 2008 2 Les types d'architectures L'architecture physique d'un réseau de campus doit maintenant répondre à certains

Plus en détail

Informatique Générale Les réseaux

Informatique Générale Les réseaux Informatique Générale Les réseaux 1 Réseaux locaux, étendus, Internet Comment permettre à l information de circuler d un ordinateur à un autre. 2 Les réseaux le modèle OSI les topologies adressage du matériel

Plus en détail

Symantec Backup Exec.cloud

Symantec Backup Exec.cloud Protection automatique, continue et sécurisée qui sauvegarde les données vers le cloud ou via une approche hybride combinant la sauvegarde sur site et dans le cloud. Fiche technique : Symantec.cloud Seulement

Plus en détail

Cours des réseaux Informatiques (2010-2011)

Cours des réseaux Informatiques (2010-2011) Cours des réseaux Informatiques (2010-2011) Rziza Mohammed rziza@fsr.ac.ma Supports Andrew Tanenbaum : Réseaux, cours et exercices. Pascal Nicolas : cours des réseaux Informatiques, université d Angers.

Plus en détail

Tout le monde parle du Cloud Computing, Mais qui offre une solution complète? Copyright IBM Corporation, 2009 All Rights Reserved

Tout le monde parle du Cloud Computing, Mais qui offre une solution complète? Copyright IBM Corporation, 2009 All Rights Reserved Tout le monde parle du Cloud Computing, Mais qui offre une solution complète? Copyright IBM Corporation, 2009 All Rights Reserved Blade Power i Journée technique du 21 octobre 2009 BOUCHOT Jean-Marie jm_bouchot@fr.ibm.com

Plus en détail

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,

Plus en détail

Administration des ressources informatiques

Administration des ressources informatiques 1 2 La mise en réseau consiste à relier plusieurs ordinateurs en vue de partager des ressources logicielles, des ressources matérielles ou des données. Selon le nombre de systèmes interconnectés et les

Plus en détail

FAMILLE EMC RECOVERPOINT

FAMILLE EMC RECOVERPOINT FAMILLE EMC RECOVERPOINT Solution économique de protection des données et de reprise après sinistre en local et à distance Avantages clés Optimiser la protection des données et la reprise après sinistre

Plus en détail

Spécifications Techniques Générales. Techno Pole Internet. Lycée Djignabo / Ziguinchor

Spécifications Techniques Générales. Techno Pole Internet. Lycée Djignabo / Ziguinchor Techno Pole Internet Lycée Djignabo / Ziguinchor Sommaire 1 ARCHITECTURE LOGICIELLE 2 1.1 APACHE, UN SERVEUR POLYVALENT, PERFORMANT ET MONDIALEMENT RECONNU 2 1.2 ARCHITECTURE LOGICIELLE DU SERVEUR 2 1.3

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Chapitre VII : Principes des réseaux. Structure des réseaux Types de réseaux La communication Les protocoles de communication

Chapitre VII : Principes des réseaux. Structure des réseaux Types de réseaux La communication Les protocoles de communication Chapitre VII : Principes des réseaux Structure des réseaux Types de réseaux La communication Les protocoles de communication Introduction Un système réparti est une collection de processeurs (ou machines)

Plus en détail

Stockage Réseau. Le stockage s'échappe du système pour devenir une fonction réseau

Stockage Réseau. Le stockage s'échappe du système pour devenir une fonction réseau Stockage Réseau Le stockage s'échappe du système pour devenir une fonction réseau Philippe Latu Université Toulouse III Paul Sabatier www.inetdoc.net Philippe.latu(at)inetdoc.net Introduction Les enjeux

Plus en détail

Catalogue & Programme des formations 2015

Catalogue & Programme des formations 2015 Janvier 2015 Catalogue & Programme des formations 2015 ~ 1 ~ TABLE DES MATIERES TABLE DES MATIERES... 2 PROG 1: DECOUVERTE DES RESEAUX... 3 PROG 2: TECHNOLOGIE DES RESEAUX... 4 PROG 3: GESTION DE PROJETS...

Plus en détail

La Continuité d Activité

La Continuité d Activité La virtualisation VMware vsphere au service de La Continuité d Activité La virtualisation VMware vsphere La virtualisation et la Continuité d Activité La virtualisation et le Plan de Secours Informatique

Plus en détail

Easy as NAS Supplément Entreprises. Guide des solutions

Easy as NAS Supplément Entreprises. Guide des solutions Easy as NAS Supplément Entreprises Guide des solutions Introduction Nous sommes heureux de vous présenter le Supplément Entreprises du Guide des solutions Easy as NAS. Ce guide, basé sur la première édition

Plus en détail

CA ARCserve r16 devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle

CA ARCserve r16 devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle En octobre 2012, Network Testing Labs (NTL) a réalisé une analyse concurrentielle à la demande de CA Technologies. Selon

Plus en détail

1.Introduction - Modèle en couches - OSI TCP/IP

1.Introduction - Modèle en couches - OSI TCP/IP 1.Introduction - Modèle en couches - OSI TCP/IP 1.1 Introduction 1.2 Modèle en couches 1.3 Le modèle OSI 1.4 L architecture TCP/IP 1.1 Introduction Réseau Télécom - Téléinformatique? Réseau : Ensemble

Plus en détail

Concepts et systèmes de stockage

Concepts et systèmes de stockage Concepts et systèmes de stockage Francesco Termine, professeur HES, francesco.termine@he-arc.ch 1 Plan Gestion de volumes de stockage Systèmes RAID DAS SAS Concepts Technologies actuelles NAS Concepts

Plus en détail

Fiche Technique. Cisco Security Agent

Fiche Technique. Cisco Security Agent Fiche Technique Cisco Security Agent Avec le logiciel de sécurité de point d extrémité Cisco Security Agent (CSA), Cisco offre à ses clients la gamme de solutions de protection la plus complète qui soit

Plus en détail

Gestion électronique de documents

Gestion électronique de documents you can Canon ADOS Architecture for Document Services TM Gestion électronique de documents Gestion électronique de documents ADOS Les exigences complexes posées à la gestion des documents requièrent des

Plus en détail

Fiche technique: Sécurité des terminaux Symantec Endpoint Protection La nouvelle technologie antivirus de Symantec

Fiche technique: Sécurité des terminaux Symantec Endpoint Protection La nouvelle technologie antivirus de Symantec La nouvelle technologie antivirus de Symantec Présentation Protection avancée contre les menaces. Symantec Endpoint Protection associe Symantec AntiVirus à la prévention avancée des menaces pour fournir

Plus en détail

Tout sur les Réseaux et Internet

Tout sur les Réseaux et Internet Jean-François PILLOU Fabrice LEMAINQUE Routeur Tout sur les Réseaux et Internet Switch Téléphonie 3G/4G CPL TCP/IP DNS 3 e édition DHCP NAT VPN Ethernet Bluetooth WiMAX WiFi Etc. Directeur de collection

Plus en détail

Sauvegarde : Supports de données et Infrastructures

Sauvegarde : Supports de données et Infrastructures Sauvegarde : Supports de données et Infrastructures Les supports à mémoire permanente Disques «durs» ATA et S-ATA, SCSI et SAS Baie de disques : organisation RAID Les supports optiques Les bandes magnétiques

Plus en détail

Introduction. René J. Chevance

Introduction. René J. Chevance et restauration des données : Introduction Février 2002 René J. Chevance Introduction Présentation de différentes politiques de sauvegarde Plusieurs types de granularité en fonction de la fonctionnalité

Plus en détail

Spécifications techniques

Spécifications techniques Spécifications techniques Compatibilité avec Active Directory Toute installation doit être compatible avec la version du domaine «Active Directory» Windows 2008R2 actuelle du SPF Consolidation En 2007

Plus en détail

Ch2 La modélisation théorique du réseau : OSI Dernière maj : jeudi 12 juillet 2007

Ch2 La modélisation théorique du réseau : OSI Dernière maj : jeudi 12 juillet 2007 Ch2 La modélisation théorique du réseau : OSI Dernière maj : jeudi 12 juillet 2007 I. LA NORMALISATION... 1 A. NORMES... 1 B. PROTOCOLES... 2 C. TECHNOLOGIES RESEAU... 2 II. LES ORGANISMES DE NORMALISATION...

Plus en détail

Le Serveur de Stockage IBM TotalStorage DS4500

Le Serveur de Stockage IBM TotalStorage DS4500 Le Serveur de Stockage IBM TotalStorage DS4500 Le serveur de stockage sur disques IBM Disk Storage DS4500 fait partie de la famille IBM DS4000 dont il constitue le haut de gamme. La famille DS4000 est

Plus en détail

Microsoft Dynamics AX. Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server

Microsoft Dynamics AX. Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server FLEXIBILITÉ Microsoft Dynamics AX Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server Livre blanc Comment les entreprises peuvent-elles utiliser la technologie Microsoft

Plus en détail

Clients et agents Symantec NetBackup 7

Clients et agents Symantec NetBackup 7 Protection complète pour les informations stratégiques de l'entreprise Présentation Symantec NetBackup propose un choix complet de clients et d'agents innovants pour vous permettre d optimiser les performances

Plus en détail

1. Introduction à la distribution des traitements et des données

1. Introduction à la distribution des traitements et des données 2A SI 1 - Introduction aux SI, et à la distribution des traitements et des données Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Support de cours élaboré avec l aide de

Plus en détail

Fiche technique: Sauvegarde et restauration Symantec Backup Exec 12.5 for Windows Servers La référence en matière de protection des données Windows

Fiche technique: Sauvegarde et restauration Symantec Backup Exec 12.5 for Windows Servers La référence en matière de protection des données Windows La référence en matière de protection des données Windows Présentation Symantec Backup Exec 12.5 offre une protection en matière de sauvegarde et de restauration, tant au niveau des serveurs que des ordinateurs

Plus en détail

Présentation du modèle OSI(Open Systems Interconnection)

Présentation du modèle OSI(Open Systems Interconnection) Présentation du modèle OSI(Open Systems Interconnection) Les couches hautes: Responsables du traitement de l'information relative à la gestion des échanges entre systèmes informatiques. Couches basses:

Plus en détail

Travail collaboratif. Glossaire

Travail collaboratif. Glossaire Glossaire Ajax Traduction anglaise : Ajax (Asynchronous JavaScript And XML) AJAX est un combiné de différents langages de développement Web comme XHTML, JavaScript ou XML, il est fréquemment utilisé pour

Plus en détail

Le stockage unifié pour réduire les coûts et augmenter l'agilité

Le stockage unifié pour réduire les coûts et augmenter l'agilité Le stockage unifié pour réduire les coûts et augmenter l'agilité Philippe Rolland vspecialist EMEA Herve Oliny vspecialist EMEA Mikael Tissandier vspecialist EMEA Des défis informatiques plus complexes

Plus en détail

Administration de systèmes

Administration de systèmes Administration de systèmes Windows NT.2000.XP.2003 Copyright IDEC 2002-2004. Reproduction interdite. Sommaire... 2 Eléments logiques et physiques du réseau... 5 Annuaire et domaine... 6 Les utilisateurs

Plus en détail

Symantec Endpoint Protection

Symantec Endpoint Protection Fiche technique : Sécurité des terminaux Symantec Endpoint Protection La nouvelle technologie antivirus de Symantec Présentation Protection avancée contre les menaces Symantec Endpoint Protection associe

Plus en détail

Les hyperviseurs leaders du marché qui ont fait leurs preuves en production

Les hyperviseurs leaders du marché qui ont fait leurs preuves en production VMware ESX et VMware ESXi Les hyperviseurs leaders du marché qui ont fait leurs preuves en production EN BREF VMware ESX et VMware ESXi sont des outils fondamentaux permettant de créer et de gérer une

Plus en détail

Présentation Infrastructure DATACENTRE

Présentation Infrastructure DATACENTRE Présentation Infrastructure DATACENTRE Innovatec de Gemsol : l activité ISP & le Datacentre 1500 hébergements h et services associés s de clients situés s en France & en Espagne Datacentre d un haut niveau

Plus en détail

Cahier des charges pour la mise en place de l infrastructure informatique

Cahier des charges pour la mise en place de l infrastructure informatique 1 COMMUNE DE PLOBSHEIM Cahier des charges pour la mise en place de l infrastructure informatique Rédaction Version 2 : 27 /05/2014 Contact : Mairie de PLOBSHEIM M. Guy HECTOR 67115 PLOBSHEIM dgs.plobsheim@evc.net

Plus en détail

Les Réseaux Informatiques

Les Réseaux Informatiques Les Réseaux Informatiques Licence Informatique, filière SMI Université Mohammed-V Agdal Faculté des Sciences Rabat, Département Informatique Avenue Ibn Batouta, B.P. 1014 Rabat Professeur Enseignement

Plus en détail

Agenda. Exemple : données et back à Eurecom SANs and NAS. Les bases: SANs. Back-up Partage de fichier. Disques et Raid SCSI et FCP

Agenda. Exemple : données et back à Eurecom SANs and NAS. Les bases: SANs. Back-up Partage de fichier. Disques et Raid SCSI et FCP Storage Area Networks (SAN) G. Urvoy-Keller 2 Agenda Exemple : données et back à Eurecom SANs and NAS Back-up Partage de fichier Les bases: Disques et Raid SCSI et FCP SANs Terminologie Protocoles SCSI

Plus en détail

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz Choix d'un serveur Vous êtes responsable informatique d'une entreprise. Vous devez faire un choix pour l'achat d'un nouveau serveur. Votre prestataire informatique vous propose les choix ci-dessous Vous

Plus en détail

Catalogue OmniAcademy 2011

Catalogue OmniAcademy 2011 Catalogue OmniAcademy 2011 Centre de Formation, agréé : Centre de Tests, agréé : page 1/16 Sommaire Accueil... 1 HP... 3 HP-UX... 4 Vmware... 8 Blades... 11 SAN... 15 page 2/16 HP Administration des systèmes

Plus en détail

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé IBM CloudBurst Créer rapidement et gérer un environnement de Cloud privé Points clés Accélérez le déploiement d'un Cloud privé à l'aide d'un système préinstallé et préintégré avec des logiciels, des serveurs

Plus en détail

LYCEE DE BRAS PANON MAPA MAI 2015

LYCEE DE BRAS PANON MAPA MAI 2015 LYCEE DE BRAS PANON MAPA MAI 2015 ****** Etablissement demandeur : Lycée de Bras-Panon 51 Chemin de Bras-Panon 97412 Bras-Panon Lycée de Bras-Panon - Mai 2015 Page 1 sur 7 1 - Objet de l appel d offres

Plus en détail

CAHIER. DES CLAUSES TECHNIQUES PARTICULIERES N 07 08 du 16 avril 2007 ORDINATEURS. C.I.E.P 1, Avenue Léon JOURNAULT 92 310 SEVRES

CAHIER. DES CLAUSES TECHNIQUES PARTICULIERES N 07 08 du 16 avril 2007 ORDINATEURS. C.I.E.P 1, Avenue Léon JOURNAULT 92 310 SEVRES CAHIER DES CLAUSES TECHNIQUES PARTICULIERES N 07 08 du 16 avril 2007 ORDINATEURS C.I.E.P 1, Avenue Léon JOURNAULT 92 310 SEVRES MARCHE EN PROCEDURE ADAPTEE En application des articles 28 et 40 du Code

Plus en détail

Guide de prise en main Symantec Protection Center 2.1

Guide de prise en main Symantec Protection Center 2.1 Guide de prise en main Symantec Protection Center 2.1 Guide de prise en main Symantec Protection Center 2.1 Le logiciel décrit dans cet ouvrage est fourni dans le cadre d'un contrat de licence et seule

Plus en détail

Structure et fonctionnement d'un ordinateur : hardware

Structure et fonctionnement d'un ordinateur : hardware Structure et fonctionnement d'un ordinateur : hardware Introduction : De nos jours, l'ordinateur est considéré comme un outil indispensable à la profession de BDA, aussi bien dans les domaines de la recherche

Plus en détail

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 186 Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 L'utilisation des fonctionnalités de haute disponibilité intégrées aux applications, L'ajout de solutions tierces. 1.1 Windows Server

Plus en détail

Une présentation de HP et de MicroAge. 21 septembre 2010

Une présentation de HP et de MicroAge. 21 septembre 2010 Une présentation de HP et de MicroAge 21 septembre 2010 Programme Présentation de MicroAge Maria Fiore Responsable du développement des affaires MicroAge Virtualisation et stockage optimisé à prix abordable

Plus en détail

Exposé de réseau IR3 10/02/2003. Abdelwaheb DIDI Gilles SCALA Michael DIOT. Nouvelles technologies - SAN/NAS - 1/24

Exposé de réseau IR3 10/02/2003. Abdelwaheb DIDI Gilles SCALA Michael DIOT. Nouvelles technologies - SAN/NAS - 1/24 Abdelwaheb DIDI Gilles SCALA Michael DIOT LES SOLUTIONS DE STOCKAGE EN RESEAU LE SAN CONTRE LE NAS Nouvelles technologies - SAN/NAS - 1/24 SOMMAIRE. La petite histoire. 4 Présentation du DAS. 5 Introduction

Plus en détail

IBM Tivoli Compliance Insight Manager

IBM Tivoli Compliance Insight Manager Simplifier les audits sur la sécurité et surveiller les activités des utilisateurs privilégiés au moyen d un tableau de bord permettant de contrôler la conformité aux exigences de sécurité IBM Points forts

Plus en détail

Livre blanc Haute disponibilité sous Linux

Livre blanc Haute disponibilité sous Linux Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises

Plus en détail

Protection des données avec les solutions de stockage NETGEAR

Protection des données avec les solutions de stockage NETGEAR Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La

Plus en détail

Services Réseaux - Couche Application. TODARO Cédric

Services Réseaux - Couche Application. TODARO Cédric Services Réseaux - Couche Application TODARO Cédric 1 TABLE DES MATIÈRES Table des matières 1 Protocoles de gestion de réseaux 3 1.1 DHCP (port 67/68)....................................... 3 1.2 DNS (port

Plus en détail

CA ARCserve Backup r12

CA ARCserve Backup r12 DOSSIER SOLUTION : CA ARCSERVE BACKUP r12 CA ARCserve Backup r12 CA ARCSERVE BACKUP R12 ASSURE UNE PROTECTION EXCEPTIONNELLE DES DONNÉES POUR LES SERVEURS, LES BASES DE DONNÉES, LES APPLICATIONS ET LES

Plus en détail

Vous avez des problèmes d'impression réseau? UniPrint. est la solution qu'il vous faut. Aperçu du produit

Vous avez des problèmes d'impression réseau? UniPrint. est la solution qu'il vous faut. Aperçu du produit Aperçu du produit Vous avez des problèmes d'impression réseau? est la solution qu'il vous faut. Les responsables IT et les administrateurs systèmes savent que dans tout environnement informatique d'entreprise,

Plus en détail