Evolution du stockage à l Université de La Rochelle Frédéric BRET frederic.bret@univ-lr.fr Centre de Ressources Informatiques



Documents pareils
La consolidation du stockage, maillon de l'architecture informatique intégrée d'un établissement universitaire multi-communautés: retour d'expérience

Le e s tocka k ge g DAS,NAS,SAN

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Agenda. Exemple : données et back à Eurecom SANs and NAS. Les bases: SANs. Back-up Partage de fichier. Disques et Raid SCSI et FCP

Stockage Réseau. Le stockage s'échappe du système pour devenir une fonction réseau

Concepts et systèmes de stockage

Nouvelles stratégies et technologies de sauvegarde

Consolidation de stockage

Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM

CA ARCserve Backup Option NAS (Network Attached Storage) NDMP (Network Data Management Protocol)

Cours 13. RAID et SAN. 2004, Marc-André Léger

en version SAN ou NAS

NOTIONS DE RESEAUX INFORMATIQUES

Thomas Briet Ingenieurs 2000 Cyril Muhlenbach

FAMILLE EMC RECOVERPOINT

EMC DATA DOMAIN HYPERMAX

Système de stockage Cisco NSS baies Gigabit

Distinguer entre «Enregistrer» et «Sauvegarder»

La Continuité d Activité

vbladecenter S! tout-en-un en version SAN ou NAS

Easy as NAS Supplément Entreprises. Guide des solutions

//////////////////////////////////////////////////////////////////// Administration systèmes et réseaux

Projet : PcAnywhere et Le contrôle à distance.

Présentation Infrastructure DATACENTRE

Sauvegarde des données au LAAS

JRES 2007 Solution de stockage répartie sur les centres de recherche INRIA, à base de serveurs de fichiers de type «NAS»

Service de réplication des données HP pour la gamme de disques Continuous Access P9000 XP

EMC DATA DOMAIN OPERATING SYSTEM

Protection des données avec les solutions de stockage NETGEAR

Chapitre 1 : Introduction aux bases de données

Introduction. René J. Chevance

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

ACQUISITION DE MATERIEL INFORMATIQUE

11 janvier 2006 NAS - SAN 1 / 42. Exposé - Nouvelles Technologies Réseau. Les solutions de stockage. NAS et SAN KOMAR MANCEL LE CAM

Artica. La déduplication. Révision Du 08 Février 2011 version

Le stockage unifié pour réduire les coûts et augmenter l'agilité

Le Raid c est quoi? Comment ca marche? Les différents modes RAID :

CA ARCserve Backup r12

1 LE L S S ERV R EURS Si 5

Les réseaux de campus. F. Nolot

EMC AVAMAR. Logiciel et système de sauvegarde avec déduplication

Guide des solutions My First SAN. 2ème édition

Direction de l Innovation et des Systèmes d Information. Pôle Systèmes Informatiques CONSULTATION POUR L ÉVOLUTION DE L ARCHITECTURE DE SAUVEGARDES

--- Le Fusion RX1600Fibre. un stockage partagé haute performance optimisé pour l'édition vidéo

Serveur EMC/CX Solution de stockage hautes performances dotée d'une connectivité flexible

PLAN. Industrialisateur Open Source LANS DE SECOURS INFORMATIQUES PRINCIPES GENERAUX ETAT DE L ART SELON BV ASSOCIATES

Livre blanc Haute disponibilité sous Linux

Logical Volume Manager (LVM)

La continuité de service

e-novatic PRATIQUES, PLANIFICATION SUITE

Examen professionnel. Informatique, système d information. Réseaux et télécommunications

Découverte des tablettes tactiles (ipad d'apple et Galaxy Tab de Samsung

Exposé de réseau IR3 10/02/2003. Abdelwaheb DIDI Gilles SCALA Michael DIOT. Nouvelles technologies - SAN/NAS - 1/24

Le Ro le Hyper V Premie re Partie Configuration et Prise en main du gestionnaire Hyper-V

BASE DE DONNÉES ORACLE 11G SUR LE SYSTÈME DE STOCKAGE PILLAR AXIOM. Livre blanc publié par Oracle Novembre 2007

mai-2008 Infogérance des serveurs conçus par SIS alp 1

EMC Data Domain Boost for Oracle Recovery Manager (RMAN)

Il est titulaire d'un baccalauréat en informatique de l'université de Montréal. Décembre 2014 à aujourd hui

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA

DOSSIER SOLUTION : CA ARCserve r16. Recours au Cloud pour la continuité d'activité et la reprise après sinistre

au Centre Inter-établissement pour les Services Réseaux Cédric GALLO

Réseau : Interconnexion de réseaux, routage et application de règles de filtrage.

Prise en main d un poste de travail sous Windows sur le réseau du département MMI de l'upemlv. d après M. Berthet et G.Charpentier

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E GHz

HYPER-V CLOUD GUIDES DE DÉPLOIEMENT MODULE 1: ARCHITECTURE ET DIMENSIONNEMENT

VMWare Infrastructure 3

Etude d architecture de consolidation et virtualisation

MUNICIPALITÉ PREAVIS N AU CONSEIL COMMUNAL. Présidence : Groupe "Les Verts" Groupe Socialiste

MARCHE PUBLIC DE FOURNITURES CAHIER DES CLAUSES TECHNIQUES PARTICULIERES (CCTP)

Présentation d'un Réseau Eole +

Technologie Netapp. Novembre 2010

La Solution Crypto et les accès distants

Principaux utilisateurs du Réseau

Clients et agents Symantec NetBackup 7

Optimisation WAN de classe Centre de Données

Non-Stop. de vos Données. Acronis Backup & Recovery 11. Pouvoir compter sur ses données est indispensable!

Notre offre Réseaux

Sur un ordinateur exécutant Windows 2000 Server Ayant une adresse IP statique

Virtualisation de Windows dans Ubuntu Linux

White Paper - Livre Blanc

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance.

PRÉAVIS N o 12/14 AU CONSEIL COMMUNAL

GUIDE DE L UTILISATEUR Recoveo Récupérateur de données

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows W2K pro: configuration.

Plan du Travail. 2014/2015 Cours TIC - 1ère année MI 30

Solution Haute Disponibilité pour Linux

LES OFFRES DE NOTRE DATA CENTER

COMMUNE DE PAYERNE MUNICIPALITE. Préavis n 18/2011 AU CONSEIL COMMUNAL

Principe. Technologies utilisées. 1. Linux et LVM. Les snapshots (instantannés) sous Linux et FreeBSD. Présentation de LVM. Organisation de LVM

DSCG : UE5 - Management des Systèmes d'information CARTE HEURISTIQUE...1 ARCHITECTURE PHYSIQUE...2

Symantec Backup Exec 2012

Configurations maximales

Stockage des machines virtuelles d un système ESXi jose.tavares@hesge.ch & gerald.litzistorf@hesge.ch

Mise en œuvre de la virtualisation à l IGBMC. Guillaume Seith Remy Fritz

Transcription:

Evolution du stockage à l Université de La Rochelle Frédéric BRET frederic.bret@univ-lr.fr Centre de Ressources Informatiques Résumé : Ce document reprend l étude menée courant 2001 à l Université de La Rochelle pour décider de l avenir du stockage de son système d information. Après une rapide introduction sur l historique des ressources informatiques on abordera une partie sur la solution SAN telle qu elle a été perçue et sur les points techniques incontournables à sa mise en œuvre, puis nous conclurons par une partie sur les solutions NAS envisagées 1 Présentation du système d information Née en 1993, l'université est installée sur le site des Minimes à La Rochelle. Ses différentes entités étaient interconnectées à l'époque par des liaisons routées par des liens WAN bas débit, impliquant une répartition des données et des services au travers de routeurs. Le poste de travail utilisateur type de l'enseignant/chercheur ou administratif est un PC sous NeXTStep. La capacité gérée par le CRI est de quelques Go, répartie sur autant de serveurs NFS (NeXT) que de sites distants. Sa sauvegarde sur bande est fastidieuse. En 1995, un réseau métropolitain fibre optique sur le site des Minimes, réalisé sur l initiative de l'université (pierre angulaire de son schéma directeur) et grâce à la communauté de villes et du FEDER, nous a permis d'envisager une refonte de notre informatique et la possibilité de faire progresser les débits au fur et à mesure de la disponibilité des technologies. Après une courte période sur des transceivers optiques 10mbps, c'est le 100VG, seule technologie à proposer à l'époque la possibilité de raccorder des sites à 100mbps sur des distances allant jusqu'à 2km, qui nous a permis d'emblée de mettre en route une interconnexion 100mbps commutée à la fois sur les backbones et jusqu'au poste utilisateur. Cela a été aussi pour nous l'occasion de débuter une mise "à plat" des machines et d'une renumérotation de nos LANs avec la définition de 2 grandes communautés toujours existantes : Administration/Recherche et Enseignement. La translation d'adresse a fait son apparition à l'université au travers d'un PIX de Cisco. Cette première ébauche d'un réseau fort était la condition nécessaire pour faire converger les aspects services/serveurs afin d'en simplifier l'administration et offrir des services uniformes à l'ensemble de nos entités. Les données migrent alors petit à petit des serveurs NeXT vers une paire de stations de travail HP et des disques SCSI externes. Ces machines sont choisies pour leur robustesse tant matérielle que logicielle. La capacité poursuit elle aussi sa croissance mais reste cantonnée aux ordres de grandeurs de l'époque. La montée en puissance de l'université en 1997, tant en étudiants qu'en enseignants et administratifs, a nécessité la mise en place de services robustes et performants. L'informatique étudiante n'était encore que marginale et destinée essentiellement aux filières informatiques dont les besoins en stockage et en services pouvaient être traités au moyen d'une simple station de travail et de disques internes. Pour la partie Administration/Recherche, les comptes jusqu'alors en réseau par NFS doivent être de plus en plus souvent accessibles aussi en CIFS, au fur et à mesure que nos utilisateurs demandent à voir leur poste de travail devenir une machine sous Windows. Parallèlement à cela, notre système d'information sous oracle voit ses besoins en puissance de calcul augmenter. Pour ces raisons, c'est vers un ensemble de 2 serveurs HP et d'une baie de disques en RAID 5 que l'informatique d'administration/recherche a été refondue. Le but étant d'offrir performances et hautedisponibilité, les machines et la

chaîne de stockage sont redondées. On souhaite limiter au maximum les Single Point Of Failure (SPOF) avec des double-attachements SCSI, double-contrôleurs sur la baie, système RAID, etc... Ceci offre de surcroît une grande souplesse dans la gestion des serveurs, l'ensemble des services de l'un pouvant être basculé sur l'autre (en mode forcément un peu dégradé mais très exploitable) Les capacités se montent alors à une petite centaine de Go. La sauvegarde s'effectue maintenant au moyen d'une librairie DLT4000 et du logiciel Omniback. Des agents installés sur diverses plates-formes permettent d'y inclure des donnés annexes. En 1999, le réseau a évolué. Grâce à la fibre noire, ce sont maintenant des backbones gigabits parcourus par des VLANs 802.1Q qui ont pu être déployés entre les différents sites. Les postes clients sont maintenant connectés par du 100bT commutés. Une autre étape est prête à être franchie, le système d'information est mûr mais demande plus de puissance. Le poste utilisateur est banalisé sur une communauté donnée. Tout utilisateur, même étudiant, doit pouvoir disposer d'un compte électronique et d'un stockage qui lui est propre. La centralisation se poursuit donc et s'optimise en terme de gestion par la relégation des anciens serveurs D370 à des tâches extranet et la suppression des dernières stations de travail comme serveurs de fichiers. Trois serveurs HP N4000 multi-processeurs sont achetés et le stockage renouvelé pour regrouper la quasi-intégralité des données et des services de l'université. Deux N4000 viennent en lieu et place des 2 D370 et reprennent en haute-disponibilité les données utilisateurs administration/recherche la messagerie électronique d'environ 800 comptes et le calcul des chercheurs pour l'une et les bases de données pour l'autre. Le 3ème N4000 centralise dorénavant une communauté d'environ 6000 étudiants. En cas de panne de cette machine, une simple reconfiguration matérielle de la machine habituellement dévolue aux bases permet de reprendre l'exploitation étudiante en moins d'une heure. Dans la pratique cela n'a jamais été nécessaire en raison d'une grande fiabilité. Il n'est par rare de voir des uptimes de plusieurs mois sur ces machines, les quelques arrêts étant à l'occasion de patches des systèmes. Le stockage représente alors environ 280 Go répartis en 2 baies Autoraid HP, plus 60Go de l'ancienne baie HP (Clariion OEM) pour l'extranet. La technologie d'interconnexion reste le SCSI-FastWide Différentiel qui au travers de doubles liens proposent une bande passante serveurs-baie de 40Mo/s. Fin 2000, on assiste à une forte augmentation de la demande de la part des utilisateurs. Les baies autoraid atteignent plus rapidement que prévu leurs limites, tant en terme de capacité qu'en terme de performances, tout particulièrement sur le réseau Administration/Recherche où le débit et les I/Os sont très clairement le goulot d'étranglement de l'ensemble : Les serveurs, en capacité très largement supérieure à celles de leur stockage, passent leur temps à attendre les disques. Elle peut être considérée comme pérenne et fortement évolutive pour quelques années encore, c'est donc tout naturellement vers une évolution du stockage que nous nous penchons. 5000 4000 3000 2000 1000 0 1993 1995 1997 1999 2001 2003 2005 2 - l'option technique SAN et les critères de choix La technologie SAN est accessible et offre enfin les fonctionnalités que l'on attend depuis 2 ans. Un rapide tour du marché nous indique les tendances et les interlocuteurs susceptibles de nous fournir de nouveaux systèmes de stockage sur Fibre Channel. Des constructeurs tels que EMC et HDS sont d'emblée écartés du panel car trop leurs gammes sont inadaptées car trop coûteuses et/ou surdimensionnées pour nos besoins. La prospection nous amène naturellement vers HP qui nous propose sa nouvelle gamme des Virtual Array comme le VA7100 et le VA7400, ainsi que vers LSI/Metastor dont les modèles E2400 et E4400 semblent présenter des caractéristiques plus qu'intéressantes par rapport aux baies HP.

Maîtrise des coûts En plus des contraintes d un système de marchés publics qui était en pleine transition alors, l'enveloppe totale de l'opération ne pouvait dans tous les cas pas dépasser 100k HT en incluant la connectique et la sauvegarde. Cette dernière devait répondre à un besoin en capacité étendue et en performances par rapport à l'existant. La sauvegarde pourrait être une librairie de type LTO équipée d'une quarantaine de slots et compatible avec notre logiciel Omniback. Il s'agit donc d'intégrer au mieux une solution évolutive et de considérer l'ensemble des coûts engendrés sur une période de 4 à 5 ans. Ces coûts doivent être envisagés dans leur globalité afin de comparer sur un pied d'égalité les différents choix et doivent intégrer notamment : - le coût d'achat initial de la solution (SAN + connectique + Librairie) pour une capacité de départ de 1To brut. - le coût humain de migration et de gestion de la solution sur une longue durée. Coût très faible. - le coût de maintenance du matériel (durée de la garantie initiale, coût de maintenance une fois la garantie échue) sur une durée donnée. L'évolutivité de la solution La solution technique retenue devra bien-sûr être suffisante mais aussi évolutive de par sa capacité de stockage, sa technologie et son ouverture vers notre environnement pour ne pas avoir à la remettre en question trop tôt. Je rappelle que la dépréciation du stockage précédent avait été très rapide (1999-2001) tant techniquement que financièrement (les valeurs de reprises sont dérisoires), il convenait donc de préserver du mieux que nous le pouvions le nouvel investissement par une solution ouverte. La compatibilité multi-os. Un des critères de choix évident pour un SAN est sa capacité à être compatible multi-os. Certains OS s'accommodent en effet très mal de la cohabitation, pas vraiment pour eux-même mais plutôt pour les autres systèmes. Je veux biensûr parler de Windows dont la fâcheuse tendance à signer tous les volumes qu'il découvre nous oblige à l'isoler de ses congénères. Pour cela des méthodes existent, comme le zoning consistant à découper la topologie matérielle visible par une machine au niveau des switches en créant des mini-sans ou comme le LUN masking associant de manière autoritaire la visibilité des LUNs par HBA. Cette capacité de LUN-masking ou de zoning peut aussi être exploitée pour partager un même stockage entre plusieurs entités indépendantes dans un soucis de rentabilisation. Dans notre cas le CRI est le seul utilisateur du SAN, mais on pourrait imaginer que le service informatique de l'iut de La Rochelle souhaite profiter de l'infrastructure SAN et de son interconnexion de site fibre optique. Il suffit de rajouter du disque et l'affaire est jouée. La technologie RAID Le recul sur la technologie utilisée dans nos baies HP nous amène à quelques remarques concernant leur gestion des disques par la technologie Autoraid. Développée il y a quelques années pour favoriser les écritures rapides en RAID 0/1 et la conservation de l'espace dans un second temps en convertissant ces données RAID 0/1 en RAID 5 à l arrière plan. L'autoraid travaille en offrant au système d'exploitation qui l'utilise une vue simple d'un espace de stockage, alors que derrière les données peuvent se trouver n'importe où sur les disques. Notre expérience montre que ceci favorise une fragmentation des données au fil du temps sans possibilité d'y remédier avec les outils de défragmentation du constructeur sans réinitialisation du filesystem après sauvegarde des données, puis restauration. Après 2 ans, les performances avaient tellement chuté qu'il devenait impossible de copier un fichier de 2Go en moins de 1 heure tant les blocs libres étaient dispersés sur les disques bien que l'os en avait une vue plutôt propre...

De nos jours, l'écriture à la volée en RAID 5 n'est plus vraiment un problème si l'on cherche la capacité sans pour autant dégrader les performances. Les benchmarks HP a mis à notre disposition un logiciel venant de leurs labos afin de nous permettre de réaliser des benchmarks sur le matériel existant. Ce logiciel permet de s'affranchir convenablement des caches des machines et des stockages en procédant à des lectures et/ou écritures suffisamment aléatoires sur un certain nombre de threads simultanés représentant autant de clients. En procédant à un certain nombre de mesures où l'on fait varier divers paramètres, on peut mettre en évidence certains critères techniques comme, l'influence de la taille des blocs sur les performances, le débit par contrôleur, le temps de réponse moyen. De cette connaissance précise du comportement des baies va dépendre l'implémentation des filesystems. Influence de la taille des blocs sur le temps de réponse en lecture Incidence de la taille des accés sur le débit en lecture 30,00 25,00 256 200,00 Autorai 2 H/W path Nike Response Time (ms) 20,00 15,00 10,00 5,00 0,00 128 64 32 16 2 4 8 16 32 64 128 256 Taille des accés Autoraid 2 H/W path Nike Autoraid 1 H/W Path E4400 2 H/W path Débit Mo/s 150,00 100,00 50,00 0,00 Taille des accés Autoraid 1 H/W Path E4400 1H/W path 4 disks E4400 2H/W path 2x6disks Max FWD 1 H/W path Max FWD 2 H/W path Max FC 1 H/W path Max FC 2 H/W path Le choix de la taille des blocs La taille des blocs de stockage tels qu'ils vont être présentés à l'os ont une incidence directe sur les performances de l'ensemble selon ce que l'on souhaite implémenter sur un volume : Une base de donnée nécessite naturellement des blocs plus petits qu'un serveur de streams vidéos par exemple. Il est possible de connaître sur un filesystem la taille moyenne d'un fichier, c'est un bon indicateur Tout comme le contrôle du niveau de RAID, le contrôle dynamique de la taille des blocs par LUNs est un atout certain. IOPS Influence de la taille des blocs sur les IOPS en lecture 100,00% 60,00% 4 8 64 32 64 128256 32 16 128 256 Autoraid 2 H/W path E4400 2 H/W path 20,00% 2 Taille des accés

Configuration des volumes et les tests d'extensibilité. Pour l'instant les seuls types de systèmes de fichiers implantés sur le SAN sont ceux des serveurs HP, donc à base de Logical Volume Manager ou LVM L un des avantages de ce type de gestionnaire de volumes, est sa capacité à prendre à son compte les chemins multiples vers un même disque. Dans notre cas, chaque LUN déclaré sur la baie SAN et rendu visible au serveur sera accessible par autant de chemins qu'il y a de Host Bus Adapters (HBA). De base et dans cette configuration, LVM est tolérant aux pannes : pannes d'un HBA, rupture d'un lien, panne d'un contrôleur du SAN, d'un switch FC. La panne passerait même inaperçue sans les alertes des agents de surveillance. Afin d'en comprendre l'intérêt voyons rapidement leur fonctionnement : Un certain nombre de volumes physique (Physical Volume ou PV) est regroupé en un groupe de volume (Volume Group ou VG) dans lequel on va découper des volumes logiques (Logical Volumes ou LV). Une fois un VG défini, on peut l'étendre en taille ou en redondance en lui désignant de nouveaux PV qui sont éventuellement d'autres chemins vers les PV d'origine. VxFS dans ce cas les reconnaîtra et les associera au VG comme des chemins alternatifs (Alternate Paths). Comme on le voit sur le schéma, le VG suivant est basé sur 2 PVs. Chaque PV comporte un alternate path lui assurant une continuité d'exploitation en cas de rupture sur un des liens. Structure d un Volume Group ROOT: > vgdisplay -v vg11 --- Volume groups --- VG Name /dev/vg11 Cur LV 4 Cur PV 2 --- Logical volumes --- LV Name /dev/vg11/lvol-utilisateurs LV Size (Mbytes) 200000 Used PV 2 --- Physical volumes --- PV Name /dev/dsk/c16t0d0 PV Name /dev/dsk/c14t0d0 Alternate Link PV Status available Autoswitch On PV Name PV Name PV Status Autoswitch /dev/dsk/c14t0d1 /dev/dsk/c16t0d1 Alternate Link available On Structure d un Logical Volume ROOT: > lvdisplay -v /dev/vg11/lvol-utilisateurs --- Logical volumes --- LV Name /dev/vg11/lvol-utilisateurs VG Name /dev/vg11 Schedule striped LV Size (Mbytes) 200000 Stripes 2 Stripe Size (Kbytes) 64 --- Distribution of logical volume --- PV Name LE on PV PE on PV /dev/dsk/c16t0d0 6250 6250 /dev/dsk/c14t0d1 6250 6250 --- Logical extents --- LE PV1 PE1 Status 1 00000 /dev/dsk/c16t0d0 00000 current 00001 /dev/dsk/c14t0d1 00000 current 00002 /dev/dsk/c16t0d0 00001 current 00003 /dev/dsk/c14t0d1 00001 current../.. Il convient de parfaitement connaître les contraintes inhérentes à la structure même de ce type de volumes. Avant de déclarer un VG, il faut tenir compte de son évolution future. Parmi les paramètres à connaître ou à estimer avec suffisamment de précision se trouvent la taille initiale, le nombre d'extension successives, la taille qu'est susceptible d'atteindre le VG, etc... Une fois ces paramètres estimés, une série de tests est impérative...

Achat, mise en œuvre et conclusion SAN La mise en œuvre doit être compatible avec nos impératifs d'exploitation (calendrier). Le choix final dépendra donc aussi de la capacité du constructeur à être suffisamment réactif et à pouvoir livrer dans les temps. Sur l'année, seules 2 périodes traditionnelles du calendrier sont propices à des refontes d'envergure : 2 semaines de fermetures d'août et 1 semaine à Noël. La solution technique choisie devra donc être compatible avec ces "fenêtres". Nous avançons très vite dans le calendrier. Nous arrivons à minovembre et il reste très peu de temps pour se décider. Au fil de la négociation commerciale les 2 solutions plus les HBAs et la sauvegarde finissent par tenir toutes deux dans l'enveloppe initiale, mais le E4400 de LSI offre près de 3 fois plus de performances et de capacité que le produit HP VA7400. Pour les différentes raisons techniques évoquées, c'est le produit haut de gamme LSI/Metastor qui est retenu. La baie a été livrée début décembre. Les tests pour "se faire la main" ont eu lieu durant la semaine précédent Noël, quant à la migration des données, elle s'est faite sans soucis en une nuit le week-end du nouvel an, au moyen de commandes dump/restore de disques à disques. La seule difficulté possible de l'implémentation d'un SAN sur HP résidait donc dans une bonne maîtrise de LVM et des serveurs. En 3 mois d'exploitation, aucun soucis n est à signaler, les performances sont bien là tant en débit qu'en temps de réponse. La notion de stockage s'est faite oublier. Le but est atteint. Nous nous apprêtons maintenant à étendre très bientôt la capacité et l'usage du SAN lors de l'évolution des serveurs extranet.

3 - l'option technique NAS Même si nous disposions d'une solution technique SAN dès l'été 2001, une prospection du côté du NAS a été envisagée afin de ne pas regretter notre choix. Les forces en présence : NetApp et Auspex Parmi les concurrents du marché, deux sont démarchés. Le cahier des charges qui est réalisé permet à chacun d'eux de nous proposer un modèle susceptible de convenir comme base de travail pour le projet : le F820 chez Network Appliance et le NS3010 chez Auspex. Les critères les plus sélectifs du cahier des charges pour les constructeurs sont le niveau de performances, la capacité, la disponibilité et le surtout le coût. Ce dernier est prépondérant et au terme des négociations, le budget dont nous disposons ne permettra l'achat tout au plus d'un seul matériel. Fini donc dans ce cas la redondance, le partage de charge et la haute-disponibilité en cas de panne. Ceci sous-entend donc aussi la présence d'un contrat de maintenance performant. Le maintient et l'évolutivité des services lors de la transition technologique. Notre implémentation actuelle des services rendus aux utilisateurs, oracle mis à part, est basée sur des produits du domaine public nous permettant une grande souplesse de configuration et d'adaptation. L'intégration de services aux utilisateurs sur les NAS nous oblige à voir différemment les contraintes et à réfléchir sur notre implantation logique. - partage de fichiers CIFS. Notre topologie réseau repose sur 2 VLANs imperméables (à quelques exceptions près), chacun servi par un domaine CIFS et un PDC basé sur un serveur HP. - peu de NFS du fait des problèmes de sécurité qu'il génère dans des environnements de type Unix non maîtrisé au niveau de la sécurité des partages. - messagerie électronique de type IMAP avec des boîtes de parfois plusieurs dizaines de Mo sur lesquelles les utilisateurs font des recherches très demandeuses en débit. Les services devront perdurer mais peut-être migrer. - quotas par individus. - niveau de performances. Une estimation des performances respectives des matériels du marché est possible grâce à des sites tels que www.spec.org. Questions techniques abordées Une fois les constructeurs en mesure de nous proposer un produit vient pour nous le moment d'affiner avec chacun d'eux les nombreux points techniques propres à notre implémentation et susceptibles d'être décisifs : - Capacité à gérer des scripts du type netlogon à la connexion/deconnexion de l'utilisateur. - Capacité à intégrer les sauvegardes omniback. Cette application offre un lien avec les agents NDMP NetApp. - Quid de la redondance et de la haute-disponibilité. En cas de panne, c'est l'ensemble de l'informatique qui s'arrête à moins de prendre 2 NAS, mais dans ce cas les prix explosent. - Quid de la base de données oracle? Des solutions techniques existent via NFS et des implémentations particulières notamment par Network Appliance pour offrir la compatibilité avec oracle. La prudence semblait pourtant l'avis général envers ce type de solution lors de l étude. - Capacité à interdire la manipulation sur le réseau de fichier CIFS portant une extension donnée. Des virus comme NIMDA manipulent des fichiers ".eml" pour prendre la main du poste de travail et se manipuler. Le seul moyen de les stopper est de les interdire. Sous Samba, l'option de configuration "veto files" permet de le faire facilement. Rien d'équivalant ne le permettait alors sur les NAS. - Capacité à gérer facilement les comptes au travers de scripts Unix: création en masse lors des périodes d'inscription, manipulation des quotas, etc... La solution aurait consisté à conserver un serveur PDC distinct et à inscrire le NAS comme serveur membre. Se profile alors la question relative au nombre de domaine NT auxquels sont capables de se connecter les NAS (1 pour NetApp, autant que l'on veut chez Auspex) et la conservation de leur imperméabilité : Un étudiant ne doit pas pouvoir accéder par un moyen quelconque à des données d'un enseignant quand bien même celui-ci peut se connecter sur une machine du réseau étudiant. - La limitation à 1 domaine NT chez NetApp impliquait pour nous fusion des communautés ainsi qu'une refonte de la configuration du parc de machines. Devions nous remettre cette implémentation en question si une capacité multi-pdc n est pas disponible? Cette solution fut jugée trop contraignante et NetApp abandonné. La capacité multidomaines est maintenant annoncée chez NetApp.

Conclusion NAS Une solution NAS Auspex finalement trop proche d'un serveur Unix équipé d'un stockage RAID. Le cœur du NS3010 est une machine Sun. Si nous devons faire du partage de fichier avec une machine Unix, nous savons très bien le faire avec nos HP. Le NAS semble intéressant pour une structure homogène et ne disposant pas encore d'infrastructure de services. Dans notre cas précis, il créait plus de problème qu'il n'en résolvait et n'aurait réussi qu'à nous faire reculer dans le niveau d'intégration de nos services/serveurs.