Infrastructure pour un datacenter haute densité



Documents pareils
SOMMAIRE. 1. Architecture proposée. 2. Constituants de la solution. 3. Supervision DATA CENTER OPTION SERVICE

DATA CENTER. Règles d'ingénierie du Data Center DATA CENTER

Retour d'expérience CC-IN2P3

DEFINITION DU DATACENTER

COÛTS ET EFFICACITE ENERGETIQUE - ETUDE COMPARATIVE ENTRE TROIS CONCEPTS DE REFROIDISSEMENT POUR DATACENTERS

Energy Logic : Emerson Network Power. Feuille de route pour la réduction r de la consommation d'énergie dans le Centre de données

Sécurisation, état de l art et nouveaux enjeux des «Green» Data Centers

Protection de l'alimentation APC pour solutions Cisco VoIP et téléphonie IP

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

Etablissement Recevant du Public (ERP) de 5 ème catégorie avec locaux à sommeil

EHDC. Système de refroidissement pour Data Center et armoires de serveur.

FRnOG, 25/01/2013. Marilyn, un datacenter vertical

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

FormaSciences 2014 «Les énergies du futur»

Datacentre : concilier faisabilité, performance et éco-responsabilité

Outils de planification et gestion pour datacentres

HEBERGEMENT DANS LE DATACENTER GDC3 DE VELIZY

Réduction de la consommation énergétique des datacenter : optimisation du conditionnement d air, influence de. l architecture

Audit 360. Votre Data Center peut-il vraiment répondre à vos objectifs? À quelles conditions? Avec quelles priorités? Pour quels budgets?

Urbanisation. des Datacentres. Urbanisation de DC TutoJres 18 Septembre 2014 Paris

Technique de pointe. Une autoconsommation efficace de l'électricité solaire

Data Center Condorcet, Paris Excellence technique et éco-efficacité.

Afrique du sud du 23 au 28 novembre 2011

De nouveaux horizons pour votre Datacenter

Systèmes de baies pour datacenters Essentiels pour la Business-Critical Continuity TM

ETUDE D EFFICACITE ENERGETIQUE. MICROSOFT Sites : Paris les Ulis - Issy les Moulineaux

Description de l entreprise DG

DATA CENTER NOTRE OFFRE DATACENTER. Infrastructure sécurisée et optimisée en énergie. Infrastructure sécurisée et optimisée en énergie

Bearstech. Datacenters écologiques ( green ) Salon THD Johan Charpentier. Bearstech Green Datacenters

TUTOJRES 2014 Retour d'expérience Datacentre du CC IN2P3,

DSCG : UE5 - Management des Systèmes d'information CARTE HEURISTIQUE...1 ARCHITECTURE PHYSIQUE...2

Audit type de datacenter réalisé par la société EduWatt

POLITIQUE SECURITE PSI - V3.2 VSI - 15/04/2014. L architecte de vos ambitions

Séparation air froid- air chaud. page 3. Organisation des câbles. page 9. Contrôle de l environnement. page 14

SERVICE PATRIMOINE CONSULTATION POUR DEMANDE DE DEVIS

data center conception intégration maintenance en conditions opérationnelles

HEBERGEMENT DANS LE DATACENTER GDC1 DE SURESNES

Enjeux énergétiques Datacenter et postes de travail

1. Définition Quantité de données stockées La miniaturisation Les enjeux 4 LA MINIATURISATION ET SES CONSÉQUENCES 5

Fiche-conseil C5 Production d eau chaude sanitaire

IBM Nouvelle Calédonie CITIUS. Yves BERTHELOT Pascal BOUTTIER Éric LARTHE DATACENTER

L EVACUATION DES PERSONNES EN SITUATION DE HANDICAP

Connect FH. La connectivité Très-Haut Débit par faisceaux hertziens

Extinction. Choisissez votre système d extinction. Qu'est-ce qu'un système d extinction? Les principes du feu

Service d'installation et de démarrage de la solution de stockage réseau HP StoreEasy 1000/3000

Service départemental d incendie et de secours du Territoire de Belfort

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé

1 LE L S S ERV R EURS Si 5

Immeuble EXEMPLE Audit Technique mars 2004

Colt Colocation Services Colt Technology Services Group Limited. Tous droits réservés.

Vers le Green Datacenter. du contrôle á la réduction des coûts l innovation au service de l environnement

APPEL A PROJETS. Implantation d un Datacenter dans les locaux du Conseil général du Calvados

LES DATACENTRES. ANGD MATHRICE Novembre Françoise Berthoud Violaine Louvet. Merci à Dominique Boutigny. Site web :

Modélisation du rendement électrique des datacenters

Emerson montre aux centres de données comment réduire ses coûts énergétiques

Bienvenue au Club Logistique! Jeudi 05 décembre 2013

Optimisation des performances de refroidissement d un rack à l aide de panneaux-caches

Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT

Groupe d'eau glacée Liebert Multi-Scroll de 500 à 1450 kw. Groupe d'eau glacée à condensation par air haute disponibilité

Aide à l'application Preuve du besoin de réfrigération et/ou d humidification de l air Edition mai 2003

ITIL V3. Exploitation des services : Les fonctions

Comment aborder l Optimisation énergétique de salles anciennes et hétérogènes?

Résolution des problèmes de refroidissement provoqués par le déploiement de serveurs haute densité en dix étapes

Rittal l heure est venue...

Nos solutions d hébergement mutualisés

Partie 1 : Synthèse des connaissances acquises... 3

Extrait de Plan de Continuation d'activité Octopuce

Installation du SLIS 4.1

Présentation Datacenter Lausanne

PLAN DE PRÉVENTION DES RISQUES TECHNOLOGIQUES. Établissement OM GROUP. Communes de SAINT-CHERON et de SERMAISE

Aide à l'application Chauffage et production d'eau chaude sanitaire Edition décembre 2007

La solution éco performante pour la sécurisation de l alimentation électrique des Datacenters à haut niveau de disponibilité

ALWAYS ON GLOBALSWITCH.COM

Note technique. Consommation électrique d'un poêle à granulés à émission directe

En savoir plus pour bâtir le Système d'information de votre Entreprise

Annexe 3 Captation d énergie

Plan de secours informatique à chaud, virtualisation, et autres recettes...

Solutions pour data centers Améliorez la fiabilité, maîtrisez les coûts et optimisez la durée de fonctionnement

STIMERGY. Data Centers distribués

Présente au Maroc sur Casablanca et Fès depuis 2006, HosToWeb Maroc est une filiale de HosToWeb LTD dont le siège est basé à Londres.

Architecture des ordinateurs. Environnement Windows : sauvegarde

Réduction des coûts de consommation dans un datacenter

La pratique - ITIL et les autres référentiels. Fonctions ITIL et informatique en nuage

NOTICE TECHNIQUE DE SECURITE

Urbanisation en datacenter (deuxième partie) Arnaud de Bermingham

Les autres définitions énumérées les conditions générales de vente sont applicables.

CEP-CICAT 5 Février Lieutenant Jean-marc BRUCKERT - Service Prévention

PRÉAVIS N o 12/14 AU CONSEIL COMMUNAL

de l Université Laval Orientations et exigences générales et techniques de construction

Haute disponibilité avec Microsoft SQL Server

L activité Datacenter de Cap Ingelec

DatacenterS et DÉvelOPPeMent DurABle

greng /77 L( ~ d el '. parlementaire 1 ~ :.UV Monsieur Laurent Mosar Président de la Chambre des Député-e-s Luxembourg

Conception d une infrastructure «Cloud» pertinente

Notre offre PCA/PRA

Migration vers la téléphonie sur IP Etude pour l'université Pierre et Marie CURIE Campus JUSSIEU, PARIS

Paul-François Cattier, APC by Schneider Electric France : la France est un territoire propice pour les datacenters

MultiPlus sans limites

Le pétitionnaire pourra remplir une notice par établissement isolé les uns des autres au sens de l article GN 3.

Transcription:

Infrastructure pour un datacenter haute densité Cédric Houssier CRI de l'université de Rouen 1, rue Thomes Becket 76821 Mont Saint Aignan Cédex Nathalie Delestre CRI de l'université de Rouen Matthieu Clavier CRI de l'université de Rouen Résumé Cette présentation est un retour d'expérience sur le projet de construction d'un datacenter à l'université de Rouen. Initialement dû à une restructuration immobilière, ce projet s'est révélé être une occasion de créer une infrastructure capable de supporter les usages récents et à venir : haute disponibilité, haute densité, support des serveurs de lames, virtualisation, hébergement, mutualisation. L'expression des besoins et les études menées ont conduit à des choix innovants : confinement d'allée chaude, suppression du faux plancher, extinction par micro-brouillard d'eau, prise en compte des aspects éco-énergétiques, supervision intégrale jusqu'à la distribution électrique, contrôle d'accès par baie. L'article présente ces technologies et les raisons de leur choix. Il dresse également un bilan des difficultés rencontrées tout au long du projet tant en phase d'étude, que de réalisation. Mots clefs datacenter, sécurité, haute disponibilité, haute densité, redondance, consommation électrique, climatisation, groupe électrogène, onduleur, PRA, PCA, Green IT. 1 Introduction À l'origine, ce projet est lié à une restructuration immobilière. Celle-ci prévoit la démolition du bâtiment hébergeant le cœur historique du réseau de campus et l'actuelle salle «serveurs». En outre, l'emprise de certaines constructions nouvelles touchait les dessertes optiques de plusieurs bâtiments. Il était donc nécessaire de déplacer notre cœur de réseau, notre salle «serveurs» et de modifier le cheminement de certaines fibres inter-bâtiments. Ceci impliquant des travaux de génie civil, nous avons profité de l'opportunité pour réorganiser la desserte optique du campus et la faire aboutir dans le nouveau local cœur de réseau. L'emplacement de celui-ci a fait l'objet d'une étude permettant de choisir le lieu le plus adapté. Au final, le choix s'est orienté vers la reconversion d'un bâtiment existant. Celui-ci était organisé en deux parties : un rez de chaussée haut d'environ 100m2 qui accueillera le datacenter; un rez de chaussée bas constitué d'anciens garages qui accueilleront les locaux techniques. Ces deux parties, initialement non communicantes, sont toutes les deux accessibles de plain-pied. 1/7 JRES Décembre 2009

2 Les choix possibles La durée de vie de cette salle devrait être supérieure à une dizaine d'années, il nous faut donc anticiper les besoins sur cette période. 2.1 L'approche classique La tendance classique pour une salle informatique consiste à prévoir une vingtaine de serveurs par baie et de prévoir un refroidissement par soufflage d'air froid par le faux plancher devant les baies. L'air froid traverse ensuite les serveurs. Ceux-ci rejettent l'air chaud à l'arrière de la baie. La climatisation récupère l'air chaud dans l'ambiance pour réinjecter de l'air froid dans le faux plancher (Cf. Illustration 1 ci-dessous). Illustration 1 : Principe allées chaudes/froides (Source : Emerson Network Power / Yalta) On crée ainsi des alternances d'allées chaudes (derrière les baies) et froides (devant les baies). Un des inconvénients de cette approche est de ne remplir les baies qu'à moitié. On perd 50% de la place disponible car la solution de climatisation permet difficilement de dépasser les 6kW/baie. De plus, «la nature ayant horreur du vide», il y a fort à parier qu'un jour ou l'autre les baies seront remplies au delà de leur capacité ce qui occasionnera des problèmes de fonctionnements (électriques ou climatiques). 2.2 L'approche «Haute densité» Dans cette approche, on prévoit de remplir les baies au maximum de leur capacité (40 serveurs par baies). La technique du soufflage par le faux plancher n'est plus adaptée, principalement pour des questions de hauteur de la colonne d'air soufflée et de limite du débit d'air au travers des dalles perforées du faux plancher. Pour atteindre cet objectif, il faut rapprocher le froid des sources de chaleur. Plusieurs solutions techniques existent : intercaler les unités de refroidissement entre les baies. Ainsi, le soufflage d'air froid est régulier sur toute la hauteur des baies. En fonction du rendement souhaité, on pourra également forcer la convection ; faire circuler l'eau glacée dans les portes des baies ; refroidir directement les serveurs à l'eau glacée. Ce qui suppose alors des serveurs spécifiques. 2/7 JRES Décembre 2009

2.3 Extinction Incendie Dans la plupart des datacenters, on trouve des systèmes d'extinction automatiques basé sur la dispersion d'un gaz inerte. Ce type de système nécessite un périmètre «étanche» (Ventitest annuel) ainsi que la mise en place d'évents de surpression. Par ailleurs, une évacuation du personnel est obligatoire avant le déclenchement, nécessitant la mise en place d'un système de pré-alerte visuel. Une possibilité plus récente est basée sur la dispersion d'un micro-brouillard d'eau. Cette solution surprenante, voire effrayante, dans un environnement électrique s'avère en fait parfaitement adaptée aux systèmes informatiques. 3 Nos choix 3.1 Puissance électrique Les installations électriques doivent être dimensionnées dès l'origine pour pouvoir supporter la capacité maximum prévue. Il n'est pas pour autant raisonnable de sur provisionner la capacité électrique. Pour déterminer les besoins, nous avons donc choisi de réaliser un enregistrement de courant sur un de nos serveurs. La configuration du serveur (encombrement 1 u) retenu pour le test n'est pas vraiment importante. Il s'agit d'un serveur rackable classique «moyen». Dans l'avenir, la puissance consommée par les modèles équivalents devrait suivre une tendance à la baisse (amélioration du rendement des alimentations, diminution des consommations des composants). Cette tendance sera éventuellement compensée partiellement par un accroissement de consommation lié à l'évolution du matériel. Notre mesure devrait donc conserver sa validité pendant les années à venir. La mesure effectuée nous donne une consommation de 300W. Soit avec 40 serveurs par baie : 3.2 Climatisation P baie = 40 x 300 W = 12kW Vu la puissance à dissiper par baie, nous optons pour une solution où les climatiseurs sont implantés entre les baies. La solution comprend 18 échangeurs alimentés en eau glacée produite par un groupe froid. Un groupe aéro-réfrigérant est positionné à l'extérieur pour évacuer les calories excédentaires. La production de froid est très critique. Un réservoir d'eau froide tampon permet, lors d'une coupure de courant, d'arrêter le groupe froid jusqu'au démarrage du groupe électrogène. La pompe de circulation d'eau froide doit, quant à elle, être maintenue en fonctionnement permanent. Elle est donc secourue par onduleur. En terme de tolérance aux pannes, le groupe froid et le groupe aéro-réfrigérant sont composés de sous-éléments montés en parallèle, la pompe de circulation est un modèle à double corps et les unités de climatisation comportent 3 turbines échangeables à chaud. Les climatiseurs communiquent entre eux pour compenser automatiquement une élévation ponctuelle de la température ou une panne d'une unité. Pour éviter les problèmes liés aux recirculations d'air chaud, ce choix sera complété par un confinement d'allée. En phase d'appel d'offres, il n'est pas fait de choix entre confinement de l'allée chaude ou de l'allée froide afin de garder une ouverture maximale entre les solutions des différents constructeurs. Nous avons fixé la température de l'eau à 12 C afin de limiter les risques de condensation, la consommation électrique et surtout les déperditions. De plus, une température élevée (alors que l'on peut descendre jusqu'à 4 C) nous laisse une marge de manœuvre au cas où nous aurions besoin d'augmenter la puissance à refroidir. 3.3 Secours électrique Le secours électrique est un des points cruciaux d'un datacenter. Dans notre cas, la double adduction électrique n'était pas réalisable. Nous nous sommes donc rabattus vers l'implantation d'un groupe électrogène pour pallier les défauts d'alimentation de longue durée. Des onduleurs sont prévus pour assurer le secours lors de coupures brèves. Afin de réduire les coûts, un choix a dû être fait. Nous considérons 2 niveaux de services : 3/7 JRES Décembre 2009

critique : les serveurs sont secourus par un onduleur (autonomie : 5 minutes) et un groupe électrogène autonomie : 3 jours). L'onduleur assure la qualité du courant et évite les démarrages du groupe lors de coupures très courtes ; normal : les serveurs sont secourus par un onduleur (autonomie 10 minutes). En cas de coupure plus longues, les serveurs reçoivent un ordre d'arrêt de l'onduleur. Ce choix permet de retenir un groupe électrogène moins coûteux et moins encombrant. Il s'agit d'une contrainte, mais celle-ci se révèle structurante dans le sens où elle oblige à réfléchir au classement de ces serveurs. 3.4 Extinction incendie Nous avons opté pour une solution à micro brouillard d'eau. Elle présente l'avantage d'absorber l'énergie radiante du feu et donc d'abaisser rapidement la température lors de l'extinction. Le micro brouillard d'eau n'est pas conducteur et est très bien adapté aux salles informatiques. Le micro brouillard d'eau est généré grâce à un piston activé par de l'azote sous pression (et non pas par un moteur, qu'il aurait fallu secourir et redonder). Le gaz n'est pas dispersé dans la pièce. De ce fait, ni l'étanchéité du volume à traiter, ni la présence d'évents de surpression ne sont nécessaires. 3.5 Aménagement Une conséquence majeure du choix du type de climatisation est de ne pas nécessiter de faux plancher. Bien entendu, celui-ci aurait pu être conservé pour faire cheminer les câbles. Nous avons choisi de supprimer purement et simplement le faux plancher, éliminant du même coup tous les problèmes de charge supportée. Les fluides chemineront de manière visible sous le faux plafond. Différentes simulations d'aménagement de l'espace ont été réalisées. La première était basée sur plusieurs zones à accès contrôlé selon le public (opérateur, réseau, système). Le système de climatisation retenu se satisfait mieux d'un grand nombre de baies plutôt que de plusieurs groupes de quelques baies. Nous sommes donc revenus sur une salle unique accueillant l'ensemble des baies. Toutefois, en plus du contrôle d'accès classique au bâtiment, un niveau plus fin est ajouté en contrôlant l'accès individuel aux différentes baies. Deux possibilités s'offraient à nous pour contrôler l'accès aux baies : un contrôle par badge à chaque porte de baies (onéreux) ; une clé différente par baie et une armoire avec système électronique de gestion des clés, permettant de ranger, protéger, limiter la prise de clés, mémoriser et journaliser les mouvements. Nous avons retenu la seconde solution. 3.6 Aspects réseaux L'architecture de notre infrastructure n'impose aucune contrainte sur le choix de l'architecture réseau. Nous avons d'ailleurs choisi de laisser la partie équipement réseau hors du projet datacenter. L'architecture réseau a été étudiée dans le cadre de la refonte du réseau de campus. Elle doit être la moins bloquante possible (voire non bloquante) en terme de débit. Là encore, différentes solutions sont envisageables : architecture «Top of Rack» : un commutateur dans chaque baie ; architecture «End of Row» : un chassis par groupe de baie (rangée) ; architecture «Converged Network» : des commutateurs intégrant Ethernet et Fibre Channel dans les baies et remontant l'ensemble vers des commutateurs spécifiques en bout de rangée. Dans notre cas, le cœur de réseau étant lui même situé dans une des baies du datacenter, c'est une architecture «Top of Rack» qui sera mise en place, avec redondance des commutateurs. 4/7 JRES Décembre 2009

4 Bilan 4.1 Les possibilités offertes Pour résumer les choix : en nombre de baies : 4 baies passives, 4 baies réseau, 4 baies serveurs «critiques»,4 baies serveurs «normaux», 4 baies serveurs «normaux» en tranche conditionnelle, soit un total de 20 baies (1200 x 750-42 u de hauteur) réparties en 2 rangées de 10 en nombre de serveurs : 480 serveurs (320 serveurs en tranche ferme et 160 en tranche conditionnelle). La solution retenue à l'issue de la procédure d'appel d'offres est une allée chaude confinée (Illustration 2 : La solution Infrastruxure d'apc). Illustration 2 : La solution Infrastruxure d'apc Dans chaque rangée, une baie de refroidissement contenant les échangeurs de climatisation (largeur 30 cm) est implantée entre chaque baie de serveurs. 5/7 JRES Décembre 2009

Ces unités de climatisation sont alimentées en eau glacée et comportent 3 turbines (hot swappable) ainsi qu'un échangeur eau/air permettant le refroidissement de l'air. L'ensemble de l'architecture a été revu pour éliminer les points individuels de défaillance (SPOF 1 ). La distribution électrique a fait l'objet d'une attention toute particulière. Toutes les baies sont alimentées : directement en triphasé, pour permettre l'équilibrage des phases ; par 2 circuits physiquement distincts, chaque serveur peut ainsi être doublement alimenté (les tests réglementaires sont réalisés sans impact sur le fonctionnement de l'ensemble du datacenter) ; par des bandeaux de prises commandées et monitorées. Enfin, l'ensemble des baies est supervisé (température, consommation électrique, gestion de l'espace physique, état des composants) par un logiciel dédié, embarqué sur une appliance. Le contrôle d'accès par baie permet d'accueillir des serveurs de partenaires. Il n'est pas question ici d'hébergement commercial, mais plutôt d'accueillir des machines d'un autre établissement d'enseignement supérieur et de recherche de la région (Caen, Le Havre, Rouen). 4.2 L'évolutivité Vu le principe adopté pour la conception, la capacité maximale ne peut pas être dépassée. On serait de toute façon limité par l'espace physique ou par la puissance électrique maximale. En revanche, la possibilité de passer de serveurs traditionnels à des serveurs de lames a été prise en compte. Des blade servers peuvent être implantés dans les baies à raison de 2 par baies (éventuellement 3 selon l'encombrement) dans la limite de 12 kw par baie. L'aspect modulaire de l'installation permet d'envisager d'isoler un groupe de 4 baies (2 baies de chaque côté de l'allée confinée) et d'utiliser les adductions de ces baies pour alimenter et refroidir une seule baie confinée de 48 kw. Il s'agit là d'une opération plus lourde, mais qui reste possible sans revoir la conception de l'ensemble (onduleurs, groupe électrogène, groupe froid). 4.3 Et l'environnement dans tout ça? La première réaction qui vient à l'esprit est de se demander si on peut décemment parler d'environnement alors que l'on consomme plus de 300 kw (en incluant la puissance du groupe froid et le rendement des onduleurs). En fait, la réponse est «oui» sans hésitation. En premier lieu, parce qu'aujourd'hui, ces serveurs existent déjà de manière dispersée. En les regroupant, on réunit également les onduleurs et les climatisations correspondantes. On minimise ainsi les pertes liées au faible rendement de ce type de petits équipements sans augmenter la consommation liée aux serveurs. En les regroupant, on ouvre la porte de la virtualisation ce qui amènera encore un gain supplémentaire. En second lieu, le fait d'utiliser un principe d'allée chaude confinée génère une température plus élevée dans cette allée chaude. On obtient donc une différence de température air chaud/air froid plus élevée (ΔT). Ceci a pour effet direct d'améliorer le rendement du système de climatisation. Enfin, le projet inclut la récupération de la chaleur générée pour chauffer un amphithéâtre de 500 places. 5 Quelques conseils (modestes) Un datacenter va accueillir tous les serveurs d'un établissement, mais peut-être aussi son cœur de réseau et ses accès opérateurs. Tout dysfonctionnement aura des répercussions directes sur l'ensemble des services rendus et sur la disponibilité du Système d'information. C'est donc un projet vital pour l'établissement. 5.1 Impliquer le Service Informatique Même si le projet fait appel à des compétences en électricité, en climatisation et en bâtiment, il est vital que le Centre de Ressources Informatiques soit impliqué. En effet, les spécialistes de l'immobilier n'ont aucune idée de l'objectif visé (fonctionnalités attendues, contraintes d'exploitation informatiques, etc.). La personne (ou l'équipe) représentant le CRI devra avoir des compétences techniques variées, mais aussi des capacités humaines pour réaliser l'interface entre la maîtrise d'œuvre et les futurs utilisateurs. 1 SPOF: Single Point Of Failure 6/7 JRES Décembre 2009

Enfin, le CRI devra être capable de mobiliser tous les exploitants de serveurs afin de les amener à emménager dans le datacenter dès sa disponibilité. C'est un projet d'établissement, et à ce titre, il doit être porté par les instances politiques pour assurer le succès du projet. 5.2 Impliquer le Service Patrimoine/Ressources Immobilières Même si ce type de projet est d'origine informatique, il faut être réaliste, c'est un projet immobilier. Il est donc capital d'y associer et de laisser la main au Service Patrimoine/Ressources Immobilières. Voici quelques raisons pour vous en convaincre : le besoin d'espace est bien supérieur à l'espace nécessaire aux baies. Il faut accueillir les aéro-réfrigérants, le groupe froid, un groupe électrogène et sa cuve, les onduleurs et dans certains cas, recréer un poste de transformation EdF ; certaines compétences sont très clairement hors du domaine informatique ; les contraintes réglementaires que le projet devra remplir sont très fortes. Il est indispensable de s'associer avec les services des professionnels de la maison. Nous travaillons dans des environnements accueillant du public, et donc, soumis aux règles des ERP 2. Celles-ci sont strictes et nécessitent l'aval de la commission de sécurité. Enfin, accepter dès le début le rôle des «Ressources Immobilières» est un bon moyen : d'éviter les «querelles de clocher» stériles ; d'assurer sa position client final «incontournable» jusqu'au bout du projet. 5.3 Bien choisir son bureau d'études Ce dernier point paraît trivial : il est toujours important de bien choisir son bureau d'études. On l'a vu ci-dessus, les domaines à prendre en compte sont variés (bâtiment, climatisation, électricité, informatique, etc.) mais le plus difficile est sans doute d'obtenir l'alchimie entre tous les éléments sans jamais perdre de vue l'objectif. C'est pourquoi, il nous semble souhaitable de rechercher un bureau d'études spécialisé plutôt qu'un bureau d'études généraliste. Ils sont certes moins nombreux et souvent plus coûteux, mais le surcoût est justifié. 6 Conclusion Nous sommes convaincus qu'une telle infrastructure est incontournable pour faire face à l'inévitable augmentation du nombre de serveurs et à l'exigence d'une continuité de service de plus en plus forte. Il s'agit d'une brique de base du Système d'information et de la Sécurité du SI. C'est un des éléments qui peut nous permettre de rendre un service de qualité professionnelle. Le regroupement des ressources en un point unique permet de retrouver la maîtrise des choix techniques et stratégiques. En contrepartie, il peut poser un problème de redondance. Toutefois, il faut considérer : que les conditions environnementales sont meilleures ; qu'avec la généralisation de ce type d'infrastructure, il est possible d'externaliser des ressources dans un établissement partenaire (membre d'une UNR 3 par exemple). 2 Etablissement Recevant du Public 3 Université Numérique Régionale 7/7 JRES Décembre 2009