Retour d'expérience CC-IN2P3

Documents pareils
LES DATACENTRES. ANGD MATHRICE Novembre Françoise Berthoud Violaine Louvet. Merci à Dominique Boutigny. Site web :

FormaSciences 2014 «Les énergies du futur»

TUTOJRES 2014 Retour d'expérience Datacentre du CC IN2P3,

DATA CENTER. Règles d'ingénierie du Data Center DATA CENTER

Energy Logic : Emerson Network Power. Feuille de route pour la réduction r de la consommation d'énergie dans le Centre de données

Green (?) datacenter. Green Datacenter - TIC et environnement - Institut Mines Telecom - 13 mai 2014, boutherin@lpsc.in2p3.fr

Sécurisation, état de l art et nouveaux enjeux des «Green» Data Centers

SOMMAIRE. 1. Architecture proposée. 2. Constituants de la solution. 3. Supervision DATA CENTER OPTION SERVICE

Audit type de datacenter réalisé par la société EduWatt

Immeuble EXEMPLE Audit Technique mars 2004

Datacentre : concilier faisabilité, performance et éco-responsabilité

DEFINITION DU DATACENTER

Réduction de la consommation énergétique des datacenter : optimisation du conditionnement d air, influence de. l architecture

FRnOG, 25/01/2013. Marilyn, un datacenter vertical

Data Centers Solutions intégrées

Outils de planification et gestion pour datacentres

Urbanisation. des Datacentres. Urbanisation de DC TutoJres 18 Septembre 2014 Paris

Système ASC unitaire triphasé. PowerScale kva Maximisez votre disponibilité avec PowerScale

Comment peut-on produire du chauffage et de l'eau chaude à partir de l'air? EFFICACITÉ POUR LES MAISONS

Bearstech. Datacenters écologiques ( green ) Salon THD Johan Charpentier. Bearstech Green Datacenters

ETUDE D EFFICACITE ENERGETIQUE. MICROSOFT Sites : Paris les Ulis - Issy les Moulineaux

Estimation & amélioration du DCiE d un datacenter

Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT

Retours d expériences et perspectives sur les aspects énergétiques

1,2,3 SOLEIL EN AVANT PREMIERE

Solutions pour data centers Améliorez la fiabilité, maîtrisez les coûts et optimisez la durée de fonctionnement

Emerson montre aux centres de données comment réduire ses coûts énergétiques

Infrastructure pour un datacenter haute densité

Colt Colocation Services Colt Technology Services Group Limited. Tous droits réservés.

Réduction des coûts de consommation dans un datacenter

Technologie et solutions pour un monde en mouvement

SCIENCES TECHNOLOGIES

Résolvez vos problèmes d énergie dédiée à l informatique

Appel à propositions n PTD/10/001. Annexe 4 Cahier des charges

Enjeux énergétiques Datacenter et postes de travail

Quelques liens entre. l'infiniment petit et l'infiniment grand

greng /77 L( ~ d el '. parlementaire 1 ~ :.UV Monsieur Laurent Mosar Président de la Chambre des Député-e-s Luxembourg

Audit 360. Votre Data Center peut-il vraiment répondre à vos objectifs? À quelles conditions? Avec quelles priorités? Pour quels budgets?

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013

La solution éco performante pour la sécurisation de l alimentation électrique des Datacenters à haut niveau de disponibilité

1 LE L S S ERV R EURS Si 5

Petite centrale hydroélectrique : PCH1

Unités de mesure de l énergie Septembre 2009

L activité Datacenter de Cap Ingelec

Datacenter nouvelle génération : SDMO sécurise l alimentation électrique du site

Présentation Datacenter Lausanne

Groupe d'eau glacée Liebert Multi-Scroll de 500 à 1450 kw. Groupe d'eau glacée à condensation par air haute disponibilité

Mission du facilitateur URE PROCESS

Gestion de l infrastructure des Datacenters

NO-BREAK KS. Système UPS dynamique PRÉSENTATION

Solutions logicielles de gestion énergétique coopérante smart building in smart grid : Exemple CANOPEA. Xavier Brunotte info@vesta-system.

C3. Produire de l électricité

CAMPING-CAR. La chaleur douce et silencieuse

STIMERGY. Data Centers distribués

Énergie décentralisée : La micro-cogénération

Aide à l'application EN-1 Part maximale d'énergies non renouvelables dans les bâtiments à construire Edition janvier 2009

Data Center Condorcet, Paris Excellence technique et éco-efficacité.

EHDC. Système de refroidissement pour Data Center et armoires de serveur.

Experts efficience informatique

Rittal Data Center Efficiency

1. Définition Quantité de données stockées La miniaturisation Les enjeux 4 LA MINIATURISATION ET SES CONSÉQUENCES 5

Visite de presse. Le supercalculateur Tera - 10

Qu est ce que le Cloud Computing?

Le groupe CSS. La société CEGI intervient depuis la Martinique au cœur des systèmes de gestion de nos clients. La société existe depuis 1973!

Fiche-conseil C5 Production d eau chaude sanitaire

DATA CENTER NOTRE OFFRE DATACENTER. Infrastructure sécurisée et optimisée en énergie. Infrastructure sécurisée et optimisée en énergie

Indicateurs Normes Codes de conduite. Françoise Berthoud Grenoble, 12 juin 2012

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

DOSSIER DE PARTENARIAT

Introduction. Gestion de la consommation énergétique. Contexte du cloud computing Instrumentation et contrôle

TRAITEMENT DE DONNÉES

Autoconsommation en photovoltaïque Principe et intérêt

en version SAN ou NAS

Des systèmes de chauffage avec pompe à chaleur et accumulateur de chaleur pour les construction dans les zones de montagne.

8/10/10. Les réactions nucléaires

Optimisation des performances de refroidissement d un rack à l aide de panneaux-caches

27/31 Rue d Arras NANTERRE Tél. 33.(0) Fax. 33.(0)

Production et stockage d énergie local : un réalité! SMA Solar Technology AG

Liebert APS de 5 à 20 kva Une protection électrique modulaire pour répondre aux besoins changeants en matière d alimentation

Forum annuel Plan Climat des Alpes-Maritimes

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

Swisscom centre de calcul Wankdorf

Le séchage des ateliers :

Annexe 3 Captation d énergie

Résolution des problèmes de refroidissement provoqués par le déploiement de serveurs haute densité en dix étapes

Armoire de traitement d'air. Ciatronic System. Solutions pour data centers N D

LE CHAUFFAGE. Peu d entretien. Entretien. fréquent. Peu d entretien. Pas d entretien. Pas d entretien. Entretien. fréquent. Peu d entretien.

MODULAIRE REDONDANT EVOLUTIF FLEXIBLE

Modélisation du rendement électrique des datacenters

Formation Bâtiment Durable :

Le centre de donnees le plus écologique d Europe

neotower Principe de fonctionnement

Manuel d'utilisation du détecteur de fumée

Améliorer la performance énergétique, les aides de l'état

La combinaison. naturelle DAIKIN ALTHERMA HYDRIDE POMPE À CHALEUR CHAUFFAGE ET EAU CHAUDE SANITAIRE. Informations préliminaires

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E GHz

Smatrix. Le système de réglage intelligent de chauffage et de refroidissement sol Plus de confort avec moins d'énergie

Protection de l'alimentation APC pour solutions Cisco VoIP et téléphonie IP

Transcription:

Dominique Boutigny Retour d'expérience CC-IN2P3 ANF - Datacentres

Le CC-IN2P3 au CNRS Centre de calcul dédié Institut National de Physique Nucléaire et de Physique des Particules Le CC-IN2P3 centralise les moyens de calcul "lourds" de la communauté de Physique nucléaire Physique des particules Physique des astroparticules Irfu Commissariat à l'energie Atomique 2

LHC Auger HESS AMS AMS Planck ANTARES Supernovae VIRGO 3

LHC = Large Hadron Collider Le LHC est construit dans un tunnel de 27 km de circonférence installé à 100 m sous terre au CERN près de Genève Deux faisceaux de protons tournant en sens inverse Collisions dans 4 zones d expériences 10 ans de construction Coût de la machine: ~3 milliards d Plus de 9000 aimants supraconducteurs Plusieurs milliers de physiciens et ingénieurs impliqués 4

CMS ATLAS ALICE LHCb 5

Infrastructure informatique du CC-IN2P3 ~16 000 tâches en // 8 Po LHC 11 Po Total 17 Po 6

Le problème de l'infrastructure Le problème est d'accommoder une augmentation exponentielle de la puissance informatique avec une salle machine conçue 20 ans plus tôt Le problème est le même lorsque l'on veut installer un cluster moderne (même de taille modeste) dans des locaux non adaptés 7

kw Évolution de la puissance électrique Seuil de disjonction Seuil de sécurité Situation avant 2009 Accroissement de 500W / jour! Budget élec. 2009: 600 k 2012 : 820 k 8

Consommation Elec. / Puissance CPU Un centre de calcul ne peut plus raisonner seulement en terme de puissance CPU ou d'espace de stockage Puissance CPU Encombrement Puissance électrique Capacité de stockage Facilité de mise en œuvre et d'exploitation Respect de l'environnement Ampères ou W / Unité puissance CPU Ampères ou W / To Élément prépondérant du cahier des charges 9

Puissance / Conso CPU Ampères /ksi2k Loi de Moore Facteur 2 tous les 1.5 ans IBM idataplex Intel 5430 LV 2.66 GHz 50 W 16 Go DELL 1U 1950b 3 GHz 16 Go Lames DELL Nehalem E5540 (2.53 Ghz) 48 Go 10

Puissance / Conso CPU 400 350 300 250 200 150 SPEC-HEP06 total SPEC-HEP06/core (x10) 100 50 0 Pe1950 M610 C6100 C6220 500 450 400 350 300 250 200 Conso (W) W/SPEC (x100) 150 100 50 0 Pe1950 M610 C6100 C6220 11

Consommation des serveurs de disques Ampères / TBytes 0.5 To IBM / DDN DCS9550 Mesuré sur des SUN X4500 / X4550 1 To 1.5 To Loi de Moore 12

kw kva Cos F Il faut faire très attention aux unités que l'on utilise Un serveur utilise des Watts Un groupe électrogène développe des kw Un disjoncteur est calibré en Ampères Attention les constructeurs utilisent les unités qui les arrangent! 13

kw kva Cos F Les éléments capacitifs ou inductifs introduisent un déphasage F entre le courant (A) et la tension (U) P U I cos F Dans les salles informatiques le déphasage est essentiellement inductif (bobines) Si F est important (cos F est petit) alors pour une même puissance il faut fournir plus d'ampères risque de disjonction Un mauvais cos F est pénalisé par EDF (0.8?) Notions de puissances active et réactive 14

Et si le déphasage est trop grand? Il faut installer un compensateur de cos F Compensation dynamique grâce a des batteries de condensateurs et / où d'inductance Celui-ci doit être correctement dimensionné et placé au bon endroit! 15

PUE / ERE PUE : "Power Usage Efficiency" Ratio entre le dépense énergétique totale d un datacenter et l énergie effectivement consommée par le matériel informatique. Toujours > 1 Dans une salle classique, e n moyenne, plus de 60% de l énergie est consommée par le froid, le système électrique lui-même, l éclairage etc. (PUE=2.5) Attention au PUE, c'est un indicateur parmi d'autres.. Exemple: L'alimentation électrique des serveurs fait partie du matériel informatique. Une alimentation inefficace ne dégrade pas le PUE, et pourtant Dans le cas de la valorisation énergétique de la chaleur produite on parle de ERE ou ERF (Energy Reuse Effectiveness / Factor) 16

L'importance du monitoring Un bon monitoring des consommations électriques est crucial Armoires électriques équipées de tores PDA adressables Châssis "intelligents" Idéalement on doit être capable de connaître la consommation en temps réel de chaque équipement 17

Le problème du refroidissement A moins d'avoir un système aéraulique complexe, Le refroidissement par air suppose de traiter le volume complet de la salle informatique Peu efficace 18

Refroidissement Organisation en allées chaudes / allées froides Serveurs Capotage PUE > 2 Reprise d'air chaud Armoire de clim 19

Un comportement non intuitif Un monitoring efficace est indispensable afin de comprendre en temps réel le fonctionnement 3 décembre de la 2012 salle 20

Renforcement de l'infrastructure Beaucoup d'argent investi entre 2004 et 2010 pour pousser l'infrastructure à ces limites. Mais insuffisant par rapport à nos engagements scientifiques 21

22

Refroidissement à eau Améliorer l efficacité du refroidissement Air Eau Arrière Système IBM i-dataplex 412 serveurs (5 racks) Intel 5430 LV 2.66 GHz 50 W 85 kw total ~pas de chaleur en dehors des racks Aussi efficace que des racks entièrement fermés Moins cher que des Blades fin 2008 Avant Échangeur sur porte arrière 23

idataplex et portes froides Fonctionne avec de l'eau à 18 o pas de condensation Nécessite l'installation d'un échangeur eau glacée eau à 18 o 24

Quelques astuces! Brumisateurs d'eau installés sous les aéroréfrigérants Brumisation on Brumisation off 25

Quand les choses dérapent Lorsqu'on exploite une salle au maximum de sa capacité une panne sur un groupe froid peut rapidement dégénérer Effet boule de neige sur les groupes froids La température a atteint plus de 60 o dans certaines zones à l'arrière des serveurs 26

L'étape d'après Confinement des allées chaudes et refroidissement intégré aux racks PUE ~ 1.7 27

Alimentation sans coupure Des alternatives: Groupes tournants (avec volant d'inertie) Alimentation par 2 postes sources indépendants 28

Nouveau datacenter Prise en compte des évolutions scientifiques futures du CC-IN2P3 ~40-50 groupes "standards" + Calcul LHC + ses évolutions Augmentation considérables des besoins pour les futures expériences d'astro (LSST EUCLID) Capacité supplémentaire pour le réseau, les services + flexibilité ~ 80 000 coeurs d'aujourd'hui Décalage de 3-4 ans des prévisions 29

Procédure de conception-réalisation CPER : Budget de 7.5 M Utilisation d'une procédure dérogatoire de conception-réalisation Projet hautement technique Une salle machine et rien qu'une salle machine! Permet aussi d'accélérer la réalisation Exige un cahier des charges extrêmement précis aide d'un bureau d'étude spécialisé Un seul marché global Les différents corps de métier doivent se regrouper sous la direction d'un bureau d'étude pour présenter un projet global et cohérent Premier round : 15 projets soumis Sélection de 4 d'entre eux Deuxième round projets détaillés Sélection du "gagnant" Succès : 1 an de construction Budget parfaitement tenu Nous avons même récupéré le 1 M mis en réserve pour les aléas 30

Une conception modulaire L'idée est d'installer dès le départ l'infrastructure de base dans sa configuration finale (m 2 tuyaux d'eau glacée distribution électrique ) Tout le reste est modulaire et peut être ajouté plus tard (groupes froids onduleurs transformateurs Phase intermédiaire 2012 / 2013 80 rack 600 kw Redondance N+1 2011 2 alim. HV 50 racks 600 kw Redondance N+1 Autonomie électrique minimale 2015 120-160 racks 1.5 MW Redondance N+1 2 alim. HV 2019 240 racks 3.2 MW Redondance N+1 et 2N 2 alim. HV Ancienne salle : 1 MW redondance N+1 et 2N 2 alims. HV 31

Conception basée sur le confinement des allées chaudes Électricité, eau glacée et réseau routés sous le plafond Pas de faux plancher 32

Récupération de la chaleur Une possibilité intéressante est de récupérer la chaleur de la salle informatique pour le chauffage Le CC-IN2P3 est uniquement chauffé par sa salle machine Inconvénients: Efficace surtout l'été! Eau relativement peu chaude (~55 o ) Chauffage de piscine de cantine etc Chauffage "basse température" 70 m 3 / h 33

Salle informatique au 1 er étage (850 m 2 ) Équipements de refroidissement sur le toit Passerelle + monte-charge Équipement électrique au rez de chaussé 34

Nouveau bâtiment Juin 2010 Avril 2011 35

Pour le moment nous avons atteint un PUE = 1.47 On espère le descendre à ~1.4 en jouant sur les températures de fonctionnement de la climatisation 36

37