Sécurisation, état de l art et nouveaux enjeux des «Green» Data Centers



Documents pareils
DATA CENTER. Règles d'ingénierie du Data Center DATA CENTER

Sommaire. APL France : qui sommes nous? Pourquoi l engouement du «Green» DC? «Green» DC : ce n est pas que du marketing?

Comment aborder l Optimisation énergétique de salles anciennes et hétérogènes?

IBM Nouvelle Calédonie CITIUS. Yves BERTHELOT Pascal BOUTTIER Éric LARTHE DATACENTER

SOMMAIRE. 1. Architecture proposée. 2. Constituants de la solution. 3. Supervision DATA CENTER OPTION SERVICE

Audit 360. Votre Data Center peut-il vraiment répondre à vos objectifs? À quelles conditions? Avec quelles priorités? Pour quels budgets?

ETUDE D EFFICACITE ENERGETIQUE. MICROSOFT Sites : Paris les Ulis - Issy les Moulineaux

data center conception intégration maintenance en conditions opérationnelles

Réduction de la consommation énergétique des datacenter : optimisation du conditionnement d air, influence de. l architecture

Bearstech. Datacenters écologiques ( green ) Salon THD Johan Charpentier. Bearstech Green Datacenters

Afrique du sud du 23 au 28 novembre 2011

Data Center Condorcet, Paris Excellence technique et éco-efficacité.

Datacentre : concilier faisabilité, performance et éco-responsabilité

RÉNOVATION DES DATA CENTERS : ENTRE AMÉLIORATION DES CONSOMMATIONS ÉNERGÉTIQUES ET NÉCESSITÉ DE CONTINUITÉ D ACTIVITÉ

Audit type de datacenter réalisé par la société EduWatt

Enjeux énergétiques Datacenter et postes de travail

Immeuble EXEMPLE Audit Technique mars 2004

Critical Power : Solutions pour une distribution électrique sécurisée répondant à la

Energy Logic : Emerson Network Power. Feuille de route pour la réduction r de la consommation d'énergie dans le Centre de données

Résolution des problèmes de refroidissement provoqués par le déploiement de serveurs haute densité en dix étapes

Experts efficience informatique

CONSTRUCTON DE DATACENTER

Retour d'expérience CC-IN2P3

Data Centers Solutions intégrées

L activité Datacenter de Cap Ingelec

FRnOG, 25/01/2013. Marilyn, un datacenter vertical

Présentation Datacenter Lausanne

LES DATACENTRES. ANGD MATHRICE Novembre Françoise Berthoud Violaine Louvet. Merci à Dominique Boutigny. Site web :

Connect FH. La connectivité Très-Haut Débit par faisceaux hertziens

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

HEBERGEMENT DANS LE DATACENTER GDC3 DE VELIZY

Outils de planification et gestion pour datacentres

La solution éco performante pour la sécurisation de l alimentation électrique des Datacenters à haut niveau de disponibilité

TUTOJRES 2014 Retour d'expérience Datacentre du CC IN2P3,

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

Emerson montre aux centres de données comment réduire ses coûts énergétiques

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013

Hosting Eolas : Build & Run actif

Externaliser le système d information : un gain d efficacité et de moyens. Frédéric ELIEN

Conception d une infrastructure «Cloud» pertinente

Urbanisation en datacenter (deuxième partie) Arnaud de Bermingham

Des solutions complètes pour la protection et l optimisation des datacenters

Continuité de Service. Maîtrise de l Energie

DatacenterS et DÉvelOPPeMent DurABle

Rittal l heure est venue...

30 MAI 1 er JUIN 2011 PARIS

Guide Housing. Découvrez nos solutions Housing. de 1U à 46U

NOTE TECHNIQUE RELATIVE A L INGENIERIE DES NRO DU RESEAU THD SEINE

La sécurité physique et environnementale

Qu est ce que le Cloud Computing?

Les data centers. à l ère de la consolidation, de la virtualisation. l informatique verte

DEFINITION DU DATACENTER

APPEL A PROJETS. Implantation d un Datacenter dans les locaux du Conseil général du Calvados

Réduction des coûts de consommation dans un datacenter

Modélisation du rendement électrique des datacenters

Optimisation des performances de refroidissement d un rack à l aide de panneaux-caches

EHDC. Système de refroidissement pour Data Center et armoires de serveur.

FormaSciences 2014 «Les énergies du futur»

Rittal Data Center Efficiency

Solutions ABB pour data centers. ABB Group May 29, 2013 Slide 1

Leader belge en énergies renouvelables. Etudes de financement, conception, installation, exploitation et maintenance

Aide à l'application Preuve du besoin de réfrigération et/ou d humidification de l air Edition mai 2003

Séparation air froid- air chaud. page 3. Organisation des câbles. page 9. Contrôle de l environnement. page 14

La première infrastructure numérique au service du Cloud en Tunisie

Solutions didactiques. Laboratoire de conception et d exploitation des réseaux électriques MT/BT

Les conteneurs: état de l art actuel

HosmaT - ciculaire DHOS/O1 n

data center SolutionS intégrées Powered by experts SpécialiSte mondial des infrastructures électriques et numériques du bâtiment

Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT

Logiciel Orgabat V.Net. Maîtrisez et valorisez vos infrastructures VDI et datacenter

Gestion de l infrastructure des Datacenters

Votre Partenaire pour vos projets d Automatismes de bâtiments Tertiaires et Industriels

Commutateur statique de transfert Liebert La solution incontournable pour vos systèmes d alimentation à haute disponibilité

VITODATA VITOCOM. bien plus que la chaleur. Télésurveillance et télégestion d installations de chauffage par Internet. Internet TeleControl

Classification des actions d efficacité énergétique

Eau chaude Eau glacée

Swisscom centre de calcul Wankdorf

Bienvenue au Club Logistique! Jeudi 05 décembre 2013

Une offre globale pour les datacenters. Siemens France.

PRESENTATION DU STANDARD TIA (Télécommunications Industry Association) 942

Colt Colocation Services Colt Technology Services Group Limited. Tous droits réservés.

Information Technique Derating en température du Sunny Boy et du Sunny Tripower

Indicateurs Normes Codes de conduite. Françoise Berthoud Grenoble, 12 juin 2012

Hébergement d Infrastructures Informatiques

Partie 1 : Synthèse des connaissances acquises... 3

[ La série de normes EN x-y, Réponse de l Europe à l Uptime Institute et au TIA 942-A? ]

HEBERGEMENT DANS LE DATACENTER GDC1 DE SURESNES

Green (?) datacenter. Green Datacenter - TIC et environnement - Institut Mines Telecom - 13 mai 2014, boutherin@lpsc.in2p3.fr

Site de repli et mitigation des risques opérationnels lors d'un déménagement

Gestion active des bâtiments. Classification des niveaux d intégration de la sécurité

Le centre de donnees le plus écologique d Europe

Estimation & amélioration du DCiE d un datacenter

Presentation Reseau Argos IDF. Conception de Salle Informatique. xxxx

Perspectives pour l entreprise. Desktop Cloud. JC Devos IBM IT Architect jdevos@fr.ibm.com IBM Corporation

Comment répondre aux challenges des Datacenters d aujourd hui et de demain : l urbanisation un élément clé

NO-BREAK KS. Système UPS dynamique PRÉSENTATION

Vers le Green Datacenter. du contrôle á la réduction des coûts l innovation au service de l environnement

Transcription:

DATA CENTERS Sécurisation, état de l art et nouveaux enjeux des «Green» Data Centers Christophe WEISS SSTIC- Sécurisation, état de l art et nouveaux enjeux des «Green» Data Centers 5 juin 2008

Sommaire APL France. Qui sommes-nous? Qu'est ce qu'un Data center? Les évolutions récentes L efficience énergétique La classification des sites Nouveaux ratios et coûts Les salles serveurs: de nouvelles problématiques Les sites hétérogènes Conclusion 2

APL France Qui sommes-nous? 3

APL France Qui sommes-nous? Expert en Continuité de Service et Sécurité Physique de Data Centers 1 400 sites analysés, étudiés et réalisés Une vision indépendante et pertinente de la sécurité des centres informatiques et télécoms Une expertise unique, les bonnes pratiques issues de centaines d audits et d'expertises Un savoir faire reconnu en conception / réalisation de Data Centers hautement sécurisés et disponibles La capitalisation d expériences que procure la gestion des infrastructures 4

APL France Chiffres Création en 1983 DG : Christophe WEISS S.A. au Capital de 1,031104 26 collaborateurs C.A. 2007 : 8,84 M Forte progression du conseil en 2007 Implantations : Paris, Lyon Plus de 1400 références 5

APL France Activités Le CONSEIL La REALISATION L EXPLOITATION Audit de sécurité / continuité de service Conseil et études de faisabilité Assistance à maîtrise d ouvrage Conception réalisation Clé en Main Maîtrise d Oeuvre Restructuration Sans interruption de l exploitation Supervision de l exploitation Extension de garantie Assistance et conseil en gestion de sites 6

Qu'est-ce qu'un DATA CENTER? 7

Qu'est ce qu'un Data Center? Un bâtiment Sûr et sécurisé, conçu pour un usage bien spécifique : Assurer la continuité de service et la sécurité des matériels informatiques, réseaux et télécoms du Système d Information de l'entreprise. 8

Qu'est ce qu'un Data Center? Le périmètre Le terrain et son environnement Une coque sécurisante Une architecture intérieure adaptée à l'exploitation Des installations techniques lourdes et complexes Une supervision en temps réel Un gestion de site performante Une mise à niveau proactive et conforme à l état de l art sur son cycle de vie 9

Qu'est ce qu'un Data Center? Le périmètre Le terrain et son environnement Une enveloppe sécurisante = la coque 10

Qu'est ce qu'un Data Center? Le périmètre Des installations techniques lourdes et complexes distribution courants forts protection surtension groupes électrogènes onduleurs / batteries Climatisation / ventilation protection incendie détection eau contrôle d'accès protection anti-intrusion surveillance vidéo GTC / GTB / supervision technique des alarmes pré câblage informatique et téléphonique téléphonie / autocom 11

Qu'est ce qu'un Data Center? Le périmètre Une supervision en temps réel Nécessaire pour gérer le site et traiter les incidents dans un minimum de temps Permet de disposer de l'état capacitaire du site à tout instant Permet d'anticiper sur les évolutions Une gestion de site performante Une mise à niveau proactive et conforme à l état de l art 12

Evolution ou révolution?.. 13

Les évolutions récentes L arrivée des serveurs Blades Avant 2004 : le parc des DC est en général à un ratio moyen 500 W/m2, bat. non dédié, en redondance N+1. 2004 : apparition charge capacitive globale, remplacement par serveurs 2U en racks (hausse de la densité thermique, double alim., aspiration frontale), ratio 500 W à 800 W/m2. 2005 : forte croissance charge capacitive, apparition serveurs Blades à forte densité thermique, forte demande en haute disponibilité 2N ou 2(N+1), accroissement densité thermique en salle, ratio 700 à 1000 W/m2. 2006-2007 : généralisation charges capacitives sur sites à prédominance serveurs en baies, forte croissance serveurs Blades (doublement à minima des consommations et dissipations), ratio dépassant 1000 W/m2 sur certains sites, apparition demandes classification par Tier (UPTIME INSTITUTE). et en 2008? 14

Les évolutions récentes Les serveurs Blades en 2008 Une baie 42 U de serveurs Blades, selon les constructeurs, comporte : Un rack 7 à 10 U Un rack contient 10 à 16 Blades Un rack consomme et dissipe entre 2000 à 3000 W sur les dernières générations de Blades Soit une puissance maxi de 12 kw à 15kW par baie haute densité 15

Les évolutions récentes Simulation de dissipation sur les prochaines années Pour une surface typique hétérogène de 1000 m2 utiles de salle informatique : A. Serveurs : 600 m² Haute densité : 12 kw pour baie 42 U à 100% Moyenne densité : 6 kw pour baie 42 U à 100% Basse densité : 3 kw pour baie 42 U à 100 % B. Librairies : 250 m², ratio moyen 200 W/m², soit un total de 50 KW C. Réseaux & divers : 150 m², ratio moyen 500 W/m², soit total 75 kw 16

Les évolutions récentes Résultats après pondération de 20% : Hypothèse 2004 : 640 kw, soit 640 w/m² Dont serveurs 1/8ème équipements moyenne densité 4/8ème équipements basse densité 3/8ème volume inerte (vide, câblage inerte, ) Hypothèse 2006 : 1000 kw, soit 1000 W/m² Dont serveurs 1/8ème équipements haute densité 2/8ème équipements moyenne densité 2/8ème équipements basse densité 3/8ème volume inerte (vide, câblage inerte, ) 17

Les évolutions récentes Résultats après pondération de 20% : Hypothèse 2008 : 1 300 kw, soit 1 300 W/m² Dont serveurs 2/8ème équipements haute densité 2/8ème équipements moyenne densité 2/8ème équipements basse densité 2/8ème volume inerte (vide, câblage inerte, ) Si la salle est remplie uniquement de baies serveurs, des puissances de 1500 à 2000W/m2 utile sont à mettre en oeuvre! ce qui entraîne 18

Les évolutions récentes L inadaptation du parc actuel des Data Centers à 500W/m2 en N+1) Des mises à niveau très conséquentes sont nécessaires ce qui est souvent délicat, voire impossible La nouvelle problématique actuelle : Surface disponible inutilisable faute de réserve de puissance nécessaire Doublement des chaînes et des puissances par chaîne Une urbanisation différente des salles délicates à mettre en œuvre sur l existant Coûts de réalisation des nouvelles installations et des sites x3 ou par x4!...et comment anticiper les prochaines évolutions? 19

Les évolutions récentes Les questions de nos clients aujourd hui Comment faire pour refroidir mes matériels haute dissipation? Quel est mon état capacitaire, ma marge réelle de manœuvre? Je croyais être redondant, avoir suffisamment de puissance et mon site est pourtant tombé! Quid du Tier IV, de la résilience, de la très haute disponibilité, de la sustainability pour mon site? Quel solution choisir pour l extinction incendie de mon site? Comment maintenir correctement mes installations et gérer mon site alors que je ne peux plus arrêter mon exploitation informatique? Comment optimiser les consommations de mon site : le Green DC? 20

Les évolutions récentes L apparition de nouveaux concepts bien malmenés : La haute dissipation et sa cohorte d informations erronées La haute dissipation et la classification des sites La résilience La sustainability L optimisation énergétique De nouvelles exigences et contraintes : Etre «classé par Tier» selon Uptime Institute Intégrer les nouveaux matériels et leurs évolutions Budgéter selon les nouveaux ratios de coûts La complexité croissante des Data Centers 21

L efficience énergétique 22

L efficience énergétique Un concept popularisé par 2 organismes américains Nouvelles contraintes: La pression écologique La recherche de la réduction des rejets CO2 L inflation des consommations électriques ces dernières années La hausse du cout de l énergie Deux métriques utilisés: Le PUE (Green Grid) et le SIEER (Uptime Institute), Source HP 2007 PUE = Consommation globale site / consommation équipements IT sur 1 an de fonctionnement. 23

L efficience énergétique Quelques éléments de réflexion: L efficience énergétique : Sur la moyenne des sites existants en France: PUE= 2,5 environ mais ciblé à 1,8 voire 1,6 sur les nouveaux DC en Europe Ci-dessous benchmark sur 22 DC aux USA qui montre des disparités très fortes. PUE de 3 PUE de 1,34! Source ACEEE 2006 24

L efficience énergétique Quelques éléments de réflexion: La facture d un DC de 2000 m2 info utiles à 1 kw/m2 et avec un PUE de 2,3 est de environ 1,2 M par an! Une réduction du PUE à 1,8 permet de réduire la facture annuelle de 260 k! Soit sur 10 ans à cout énergétique constant, gain de 2,6 M minimum La recherche de la redondance amène à multiplier les équipements en fonctionnement, ce qui accroit la consommation et les pertes à faible taux d utilisation. Réelle antinomie entre Efficience énergétique et Haute disponibilité à conjuguer dans le cadre d une complexité accrue de la conception et de la conduite de l exploitation de site. 25

La classification par Tier 26

La classification par Tier En préliminaire Répond à une demande de positionnement de son Data center Elaborée par l Uptime Institute (non officiel, Santa Fe) et K. Brill pour permettre d apprécier le niveau de disponibilité d un site et de ses installations. S applique aux limites physiques du DC, de ses systèmes et soussystèmes. Issue de l expérience et de constats sur un certain nombre de sites. Ne traite que les aspects continuité de service liés aux chaînes électriques et climatiques. Nécessite un audit approfondi des installations et de la gestion du site pour déterminer les lacunes ou points forts puis classifier le site. Sujette à critiques et discussions, à interprétations 27

La classification par Tier Le principe 2 axes majeurs analysés: Les architectures techniques critiques Leur mise en œuvre et la maîtrise de l exploitation du site. Ce second point est essentiel pour la disponibilité et la fiabilité du site. On parle de «sustainability» La classification par Tier est simple et ne peut être fractionnée Elle est équivalente à celle de son sous-système critique le plus faible (16) Le classement doit évaluer de manière objective et rigoureuse la capacité d un site face à un évènement planifié ou non. 28

La classification par Tier Tier I Composants et chaînes élec. et clim. non redondants Une défaillance ou intervention planifiée = interruption production informatique Tier II Certains composants redondants et chaînes élec. et clim. non redondantes Une défaillance ou intervention planifiée peut interrompre la production informatique 29

La classification par Tier Tier III Composants redondants par chaîne Deux distributions élec. et clim. redondantes mais à basculement manuel en général Sources de puissance N+1 mutualisées (UPS, GE, production de froid, ) Une intervention planifiée n interrompt pas la production informatique Un incident sur composant ou chaîne peut interrompre la production informatique Les équipements informatiques doivent être à double alimentation ou avec module de transfert de charge 30

La classification par Tier III MT/BT GE +1 GE N MT/BT TGBT A ARMOIRE GE TGBT B U P S N U P S +1 ARMOIRE ELEC. CVC SYSTEMES DE CLIMATISATION ARMOIRE ELEC. CVC TGHQ A ARMOIRE ELECTRIQUE ELEMENTS DE CLIMATISATIONS CRITIQUES ARMOIRE ELECTRIQUE ELEMENTS DE CLIMATISATIONS CRITIQUES TGHQ B VENTILATEURS ET POMPES CRITIQUES? TDHQ A TDHQ B MATERIEL INFORMATIQUE Source Uptime Institute 2006 31

La classification par Tier Tier IV Site à tolérance de pannes Composants redondants par chaîne Deux chaînes élec. et clim. redondantes en fonctionnement simultané Sources de puissance distinctes en N+1 (UPS, GE, production de froid) Une intervention planifiée / Un incident sur composant ou chaîne n interrompt pas la production informatique Les équipements informatiques doivent être à double alimentation ou avec module de transfert de charge Les différents chemins et systèmes doivent être séparés et compartimentés pour éviter les sinistres conjoints 32

La classification par Tier IV MT/BT GE A GE+1 GE B GE +1 MT/BT TGBT A ARMOIRE GE A ARMOIRE GE B TGBT B U P S U P S ARMOIRE ELEC. CVC SYSTEMES DE CLIMATISATION ARMOIRE ELEC. CVC U P S U P S N +1 N +1 TGHQ A ARMOIRE ELECTRIQUE ELEMENTS DE CLIMATISATIONS CRITIQUES ARMOIRE ELECTRIQUE ELEMENTS DE CLIMATISATIONS CRITIQUES TGHQ B VENTILATEURS ET POMPES CRITIQUES? TDHQ A MATERIEL INFORMATIQUE TDHQ B Source Uptime Institute 2006 33

La classification par Tier Source Uptime Institute 2006 Obligations standards par Tier selon UPTIME INSTITUTE TIER I TIER II TIER III TIER IV Sources de puissance (GE, UPS, prod. de froid ) Redondance des composants de chaque système 1 système 1 système 1 système mutualisé 1 système + 1 système N N+1 N+1 Minimum N+1 desserte ou chaîne de distribution 1 1 1 normal + 1 alternatif 2 actifs en simultanée en veille Compartimentage des systèmes et sous-systèmes non non oui oui Maintenance planifiée avec non non oui oui continuité de service Tolérance aux pannes (un seul non non non oui événement) Nécessite des matériels non non oui oui informatiques double alimentation Taux de disponibilité 99,67 % 99,75 % 99,98 % 99,99 % et + Durée annuelle d'interruption du système informatique (statistique) 28,8 H 22 H 1,6 H 0,8 H 34

De nouveaux Ratios 35

De nouveaux ratios Qui change tout! La puissance dissipée / m2 s accroît (500 W à 1000 W, voire 1500 W/m2 ou 2000 W/m2) L exigence de disponibilité augmente N+1 à 2 (N+1) Les coûts sont multipliés logiquement par 3 à 4 par rapport à ceux pratiqués il y a seulement quelques années On parle de coût au kw et plus seulement au m2! Le m2 utile informatique doit être correctement défini! De solides arguments pour une rupture dans le dimensionnement des sites! 36

De nouveaux ratios COMPARATIF Ratios DATA CENTER en Bâtiment dédié Ratio surface totale / surface info utile 1,8 2,3 2,5 3,1 3,8 Ratio puissance (W ond / m2) 500 500 500 1000 1500 Ratio coût k HT/ m2 de surface informatique utile 5 à 6 8 à 10 10 à 12 15 à 17 17 à 20 Classement par TIER Tier II Tier III Tier IV Tier IV Tier IV AVERTISSEMENT : les valeurs ci-dessus sont des valeurs moyennes susceptibles de variations plus ou moins importantes en fonction des projets 37

De nouveaux ratios Comparatif principaux Ratios DATA CENTER ratio W ond/m2 20 000 500 500 500 1000 1500 4 cout HT/m2 18 000 16 000 14 000 12 000 10 000 8 000 6 000 4 000 2 000 3,5 3 2,5 2 1,5 1 0,5 Ratio m2 total/ m2 info 0 Tier II Tier III Tier IV Tier IV Tier IV classement par Tier 0 AVERTISSEMENT : les valeurs ci-dessus sont des valeurs moyennes susceptibles de variations plus ou moins importantes en fonction des projets 38

De nouveaux ratios de surface Tier II à 500W ond/m2 20% 13% 55% utile Zone info Circulation et galeries techniques Locaux techniques 12% Zone vie 39

De nouveaux ratios de surface Tier III à 500W ond/m2 Tier II Zone info Circulation et galeries techniques 44% utile Locaux techniques Zone vie 40

De nouveaux ratios de surface Tier IV à 500W ond/m2 Tier II Zone info Circulation et galeries techniques 38% utile Locaux techniques Zone vie 41

De nouveaux ratios de surface Tier IV à 1000W ond/m2 Tier II Zone info Circulation et galeries techniques 32% utile Locaux techniques Zone vie 42

De nouveaux ratios de surface Tier IV à 1500W ond/m2 Tier II Zone info Circulation et galeries techniques Locaux techniques 26 % utile Zone vie 43

Les salles serveurs : de nouvelles problématiques 44

Les salles serveurs Les alimentations électriques Démultiplication des alimentations terminales 2 x 3 voire 2 x 4 alimentations par baie 19" Obligation de différentiel 30 ma (PC) Soit pour 60 baies sur 200 m2, 480 disjoncteurs et câbles! Des ajouts et modifications fréquents sous tension Caractéristiques électriques nouvelles (cos phi =1 voire négatif, tx harmoniques élevés, déclassement onduleurs, échauffement,..) Recherche de haute disponibilité en double alimentation 45

Les salles serveurs La climatisation Dissipation constructeur par baie souvent surestimée (réelle de moitié ) Aspiration en façade, rejet en face arrière Débits d'air nécessaire difficile à assurer avec le soufflage par plancher technique Des puissances «froids» très importantes (par ex. 60 baies = 600 kw froid..) Recherche de haute disponibilité en double chaîne de froid.. Respect du concept "allée chaude et allée froide", voire allées couvertes! 46

Les salles serveurs Les nouvelles contraintes de refroidissement Source APC 47

Les salles serveurs La climatisation Quelle orientation faut-il prendre? Espacer les baies? Diminuer le nombre de serveurs par baie? Mettre en œuvre des aménagements spécifiques et hors normes dans les salles? Créer des mini salles à l'intérieur de la salle? Refroidir chaque baie en interne? Réintroduire l'eau glacée dans les salles? Supprimer le faux plancher En fait, pas de solution unique. A étudier au cas par cas en fonction des besoins et contraintes avec l'aide d'un expert 48

Les salles serveurs La climatisation : 1,5 kw:m2 avec Baies 3 kw Galerie technique clim clim Salle informatique 16 baies informatiques (*) Surface informatique 49

Les salles serveurs La climatisation: ratio 1,5 kw/m2 avec Baies 12 kw! Galerie technique clim clim Salle informatique (*) Surface informatique 50

Les salles serveurs La climatisation : une solution avec allées chaudes et allées froides Source APC 51

Les salles serveurs La climatisation : une solution avec allées chaudes et allées froides Gainage Gaine Supplémentaire De reprise ALLEE FROIDE ALLEE CHAUDE Climatiseur Climatiseur Soufflage en plenum de plancher Grille de soufflage Grille de soufflage 52

Dimensionnement site hétérogène 53

Dimensionnement site hétérogène Eléments sommaires de méthodologie Exprimer précisément ses besoins et contraintes : Surfaces de salles Puissance Niveau de service / continuité Évolution envisagée, flexibilité Modalités d'exploitation future Se doter d'une assistance spécialisée et expérimentée Quelques principes: Évaluer la répartition par type d'équipement et globaliser le calcul de puissance sur un ratio moyen pour tout le site Dédier les salles : éviter de mélanger des baies serveurs haute densité avec des robots d'archivage 54

Conclusion 55

Conclusion A retenir : Restructuration inévitable de la majeure partie des Data Centers à court et moyen terme Restructurer ou construire posent des problématiques différentes = nécessité de la phase de programmation (au sens du bâtiment) Solution hébergement externe ou interne = expression des besoins et pilotage des opérations indispensables par la DSI (vis-à-vis de l immobilier et de la logistique) Des Sites et des solutions de plus en plus complexes qui nécessitent des compétences d experts 56

Glossaire UPTIME : Mesure du temps du système allumé et en fonctionnement SUSTAINABILITY Prise en compte cycle de vie du site, facilité d utilisation, niveau des équipes de supervision technique, gestion des procédures et consignes, qualité tableau de bord et indicateurs, niveau d intégration architecture technique et IT RESILIENCE Capacité à surmonter un choc, une perturbation, à être proactif et réactif (en clair un incident ne mène pas à la coupure redoutée ). On parle d ingénierie résiliente chez les anglo-saxons. 57

Des questions?.. 58

Christophe.weiss@apl-france.fr Tél. 01.46.71.32.32 www.apl-france.fr 59