Estimation & amélioration du DCiE d un datacenter

Documents pareils
Datacentre : concilier faisabilité, performance et éco-responsabilité

LES DATACENTRES. ANGD MATHRICE Novembre Françoise Berthoud Violaine Louvet. Merci à Dominique Boutigny. Site web :

SOMMAIRE. 1. Architecture proposée. 2. Constituants de la solution. 3. Supervision DATA CENTER OPTION SERVICE

ETUDE D EFFICACITE ENERGETIQUE. MICROSOFT Sites : Paris les Ulis - Issy les Moulineaux

Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT

Immeuble EXEMPLE Audit Technique mars 2004

AERIS SYSTEME DE REFROIDISSEMENT PAR EVAPORATION INDIRECTE POUR LES DATA CENTRES. Aermec 1

Partie 1 : Synthèse des connaissances acquises... 3

FormaSciences 2014 «Les énergies du futur»

Réduction des coûts de consommation dans un datacenter

EHDC. Système de refroidissement pour Data Center et armoires de serveur.

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013

Présentation Datacenter Lausanne

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

Groupe d'eau glacée Liebert Multi-Scroll de 500 à 1450 kw. Groupe d'eau glacée à condensation par air haute disponibilité

Indicateurs Normes Codes de conduite. Françoise Berthoud Grenoble, 12 juin 2012

Retour d'expérience CC-IN2P3

Sommaire. APL France : qui sommes nous? Pourquoi l engouement du «Green» DC? «Green» DC : ce n est pas que du marketing?

Prescriptions techniques et de construction pour les locaux à compteurs

Fiche de Lecture Génie Climatique et Énergétique. Étude d un data center en phase d exécution

DATA CENTER. Règles d'ingénierie du Data Center DATA CENTER

Méthode de calcul de l efficacité énergétique (PUE)dans les datacenters

Energy Logic : Emerson Network Power. Feuille de route pour la réduction r de la consommation d'énergie dans le Centre de données

La sécurité physique et environnementale

Green (?) datacenter. Green Datacenter - TIC et environnement - Institut Mines Telecom - 13 mai 2014, boutherin@lpsc.in2p3.fr

Forum annuel Plan Climat des Alpes-Maritimes

Sécurisation, état de l art et nouveaux enjeux des «Green» Data Centers

HEBERGEMENT DANS LE DATACENTER GDC3 DE VELIZY

Hosting Eolas : Build & Run actif

RAPID Prenez le contrôle sur vos données

Modélisation du rendement électrique des datacenters

Économie d énergie dans les centrales frigorifiques : La haute pression flottante

HEBERGEMENT DANS LE DATACENTER GDC2 DE VELIZY

DEFINITION DU DATACENTER

Instructions Mozilla Thunderbird Page 1

Résolvez vos problèmes d énergie dédiée à l informatique

Swisscom centre de calcul Wankdorf

Bearstech. Datacenters écologiques ( green ) Salon THD Johan Charpentier. Bearstech Green Datacenters

Le centre de donnees le plus écologique d Europe

Fiche de lecture du projet de fin d étude

Audit 360. Votre Data Center peut-il vraiment répondre à vos objectifs? À quelles conditions? Avec quelles priorités? Pour quels budgets?

L efficience énergétique...

physicien diplômé EPFZ originaire de France présentée acceptée sur proposition Thèse no. 7178

Unités de mesure de l énergie Septembre 2009

Data Centers Solutions intégrées

Comment répondre aux challenges des Datacenters d aujourd hui et de demain?

greng /77 L( ~ d el '. parlementaire 1 ~ :.UV Monsieur Laurent Mosar Président de la Chambre des Député-e-s Luxembourg

La première infrastructure numérique au service du Cloud en Tunisie

Data Center Condorcet, Paris Excellence technique et éco-efficacité.

Retours d expériences et perspectives sur les aspects énergétiques

Audit type de datacenter réalisé par la société EduWatt

Au sein de l entreprise Cegelec, j ai étudié le data center de la caisse de retraite AGIRC-

Passez d une vision passive de votre consommation énergétique à une gestion active de l énergie

Enjeux énergétiques Datacenter et postes de travail

Aide à l'application Preuve du besoin de réfrigération et/ou d humidification de l air Edition mai 2003

Armoire de traitement d'air. Ciatronic System. Solutions pour data centers N D

Emerson montre aux centres de données comment réduire ses coûts énergétiques

Paul-François Cattier, APC by Schneider Electric France : la France est un territoire propice pour les datacenters

data center SolutionS intégrées Powered by experts SpécialiSte mondial des infrastructures électriques et numériques du bâtiment

Optimisation des performances de refroidissement d un rack à l aide de panneaux-caches

de faible capacité (inférieure ou égale à 75 litres) doivent être certifiés et porter la marque NF électricité performance.

L offre DualSun pour l eau chaude et le chauffage (SSC)

SAUTER novapro Open : B-AWS. BACnet Advanced Workstation

Appel à propositions n PTD/10/001. Annexe 4 Cahier des charges

FRnOG, 25/01/2013. Marilyn, un datacenter vertical

Cahier Thématique. La gestion intelligente de l énergie dans le datacenter. Décembre 2011 Janvier Sommaire

Une offre globale pour les datacenters. Siemens France.

Solutions pour data centers Améliorez la fiabilité, maîtrisez les coûts et optimisez la durée de fonctionnement

Film DATACENTER INTRODUCTION. 1 Depuis le début de l année 2009, la région de Chartres est le centre d une intense activité.

Description du système. Pompe 1 : Pompe de régulation du retour sur le poêle.

The new consumables catalogue from Medisoft is now updated. Please discover this full overview of all our consumables available to you.

Rittal Data Center Efficiency

Réalisation d'un dépôt de tramways pour la STIB - Marconi

Mission du facilitateur URE PROCESS

Experts efficience informatique

2.0. Ballon de stockage : Marque : Modèle : Capacité : L. Lien vers la documentation technique :

Réduction de la consommation énergétique des datacenter : optimisation du conditionnement d air, influence de. l architecture

L activité Datacenter de Cap Ingelec

Leader belge en énergies renouvelables. Etudes de financement, conception, installation, exploitation et maintenance

Information Technique Derating en température du Sunny Boy et du Sunny Tripower

Cliquez pour modifier les styles du texte du masque

I. Introduction: L énergie consommée par les appareils de nos foyers est sous forme d énergie électrique, facilement transportable.

TROIS ASPECTS DE LA COMPARAISON ALLEMAGNE-FRANCE SUR L ELECTRICITE

DESCRIPTION DES DOCUMENTS TECHNIQUES REQUIS

Rittal l heure est venue...

Technologie et solutions pour un monde en mouvement

Les conteneurs: état de l art actuel

Outils de planification et gestion pour datacentres

Produits pour Datacenters. Séries RP. Solutions d habillages pour les applications IT

Solutions ABB pour data centers. ABB Group May 29, 2013 Slide 1

Transformez votre vision énergétique en économies d énergie

Comment peut-on produire du chauffage et de l'eau chaude à partir de l'air? EFFICACITÉ POUR LES MAISONS

Consortium e-server. Avec le soutien de

Transition énergétique Les enjeux pour les entreprises

RAMOS. Etude d Application. All rights reserved, CONTEG 2013

Comment exploiter. Salles serveurs informatiques TECHNIQUE. 1. Objectif et synthèse

CONSTRUCTON DE DATACENTER

Secure Power ds la Santé. Samia HABEL ITB Country Leader

NO-BREAK KS. Système UPS dynamique PRÉSENTATION

Le No.1 de l économie d énergie pour patinoires.

Transcription:

Estimation & amélioration du DCiE d un datacenter Ing. G. BAUDOIN PIERRARD Virton Dans un premier temps, le but de ce travail réalisé dans les domaines de l HVAC et de l électricité est d estimer théoriquement le rendement d un centre de données, à savoir le DCiE (DataCenter infrastucture Efficiency). Pour ce faire, il est indispensable de créer un modèle de relations des différents éléments à prendre en compte dans cette estimation. Par la suite, plusieurs pistes d améliorations de ce rendement seront développées, à la fois dans les domaines de l électricité et de l HVAC. Celles-ci ont pour but d optimiser le rendement du datacenter étudié mais également de dégager de nouvelles solutions dans le cadre de la construction d un nouveau centre de données. Il est important de préciser que tout ce qui concerne directement les équipements informatiques ne sera pas traité, ce domaine ne concernant pas le Bureau d études pour lequel ce travail a été réalisé. Mots-clefs : centres de données DCiE PUE Kyotocooling Firstly, the aim of this survey carried out in the fields of HVAC and electricity is to theoretically estimate the efficiency of a datacenter the DCiE (DataCenter infrastructure Efficiency). Therefore, it is essential to create a model of relations of the different elements to be taken into account in this estimation. Then, several improvement possibilities of this efficiency will be developed in the fields of electricity and HVAC. Their aim is to enhance the efficiency of the datacenter but also to find new solutions for the building of new datacenters. It is important to specify that we will not deal with what is directly linked to the computer equipment as our R& D Department is not concerned with it. Keywords: datacenters, DCiE, PUE, Kyotocooling. Revue scientifique des ISILF n 24, 2010

210 1. Introduction Le travail accompli est un prolongement d une étude réalisée par le Bureau d études dans lequel a été effectué un stage. L étude effectuée concerne la construction de trois bâtiments, dont un comprenant un datacenter (centre de données). Ce type de salle nécessite l installation de matériel spécifique à son fonctionnement, que ce soit du point de vue alimentation électrique ou production de froid. Après avoir étudié en profondeur le système conçu par le Bureau d études, le travail à réaliser consiste dans un premier temps à estimer l indice de rentabilité énergétique du datacenter, le DCiE (Datacenter Infrastructure Efficiency). Dans un second temps, il consiste à trouver diverses solutions afin d améliorer le DCiE de cette salle. 2. Etude du système conçu par le Bureau d études 2.1. Notions préalables Avant d entrer dans le vif du sujet, il est important de définir les quelques notions importantes rencontrées dans la suite de cet article : Datacenter : Un datacenter (ou centre de données) se présente comme un lieu où se trouvent différents équipements électroniques, surtout des ordinateurs et des équipements de télécommunications. Comme son nom l'indique, il sert surtout à traiter les informations nécessaires aux activités d'une entreprise. Par exemple, une banque peut recourir à un tel centre, lui confiant les informations relatives à ses clients, tout en traitant les transactions de ceux-ci. Tous ces équipements dégageant une grande quantité de chaleur, il est nécessaire de l évacuer afin d assurer le bon fonctionnement de ceux-ci. Dès lors, il est indispensable d installer un dispositif de refroidissement important. Une autre particularité des centres de données est liée à l alimentation électrique. Tous les équipements informatiques présents dans ce type de salle étant très sensibles aux variations et autres coupures électriques, il

211 est indispensable de prévoir des systèmes de sécurité adéquats (NO- BREAK, onduleurs). DCiE : Le DCiE (Datacenter Infrastructure Efficiency) est défini comme étant le rapport entre la consommation électrique des équipements informatiques et la consommation électrique totale qu engendre le datacenter. Sa valeur varie donc entre 0 et 1. Il existe un autre indice, le PUE (Power Usage Effectiveness) qui se trouve être l inverse du DCiE. Il varie donc entre 1 et l infini. Un DCiE de 0,6 veut dire que seulement 60% de l énergie utilisée par le datacenter est consommée par les équipements IT (énergie utile). Le reste servant principalement au refroidissement de la salle et au fonctionnement du NOBREAK. 2.2. Description de l installation Comme on l a évoqué précédemment, tous les équipements informatiques présents dans le centre de données (440 kw dans ce cas-ci, lorsque le datacenter est à 100% de sa capacité) dégagent une grande quantité de chaleur. Sans dispositif de refroidissement d air, la température grimperait très rapidement et cela provoquerait des dégâts au niveau des équipements. Pour faire fonctionner ces dispositifs de refroidissement, des unités de production d énergie sont nécessaires. Dans le système, nous pouvons séparer en deux parties la production des énergies. D'un côté il y a la production d'électricité proprement dite, de l'autre, l'énergie nécessaire à la production de froid (HVAC - Heating, Ventilation & Air-Conditioning). En ce qui concerne l électricité, le courant provient de la distribution et arrive dans des cabines HT (Haute Tension) où il est transformé via des transformateurs. De là, le courant est envoyé vers le TGBT (Tableau Général de Basse Tension) qui alimente les équipements informatiques et l HVAC. A noter que pour un centre de données, il est primordial d avoir une bonne disponibilité (consiste à faire le maximum pour éviter toute interruption des équipements). Dès lors, des UPS (Uninterruptible Power Supply) et des

212 groupes électrogènes sont présents dans l installation afin de pallier à des problèmes d alimentation via la distribution. L HVAC peut également être subdivisé en deux parties : la production d eau glacée (servant à préparer de l air froid) et la production d air froid proprement dite. L eau glacée est obtenue via des groupes frigorifiques et des aéroréfrigérants (free-chilling, consiste à utiliser l air extérieur pour refroidir directement l eau quand la température extérieure est suffisamment froide). Cette production d eau glacée alimente les armoires de climatisation qui refroidissent l air chaud extrait de la salle. Une fois cet air refroidi, il est renvoyé dans cette même salle. 3. Estimation du DCIE 3.1. Eléments à prendre en compte et modèle utilisé Comme on l a vu précédemment, le DCiE est le rapport entre la consommation électrique des équipements informatiques et la consommation électrique totale qu engendre le centre de données. La consommation à l intérieur d un centre de données peut être répartie en trois catégories : La première de ces catégories est l alimentation. Celle-ci reprend toutes les pertes engendrées par les transformateurs, les UPS et la distribution électrique. La seconde catégorie est l HVAC. Cette partie comprend la consommation des aéroréfrigérants (production de froid grâce à l air extérieur lorsque la température le permet), groupes frigorifiques, pompes, humidificateurs et groupes de traitement d air. Enfin, la dernière catégorie est l éclairage que l on considère constant. Une fois que tous les éléments à prendre en compte dans les différentes catégories sont répertoriés, il faut les relier ensemble afin d obtenir un modèle à partir duquel on va pouvoir estimer les différentes pertes nécessaires au calcul du DCiE.

213 Figure 1 : Modèle utilisé pour estimer le DCiE

214 Afin d estimer correctement le DCiE il est primordial de prendre en compte que la consommation des divers équipements destinés à refroidir les équipements IT varie en fonction de la température extérieure et de la charge IT. En effet, les besoins en refroidissement du datacenter ne seront pas les mêmes si la charge à l intérieur de cette salle est de 100 ou de 400 kw d équipements informatiques (la chaleur dégagée augmente en fonction de la charge). De même, si la température extérieure permet le fonctionnement des aéroréfrigérants, les groupes frigorifiques (fortement énergivores) consommeront beaucoup moins d énergie (car leur fonctionnement sera réduit). Enfin, il faut également tenir compte du fait que le rendement des UPS diminue en même temps que la charge. Il est réellement fondamental de tenir compte de tous ces paramètres. Au final, en fonction de la charge informatique présente à l intérieur de la salle, les pertes totales correspondantes permettent de déterminer le DCiE. Pour tenir compte de l effet de la température extérieure sur le DCiE, un calcul de la consommation pour les températures inférieures à 10 C (température à partir de laquelle les aéroréfrigérants sont efficaces) a été effectué. Une fois ce calcul réalisé, une moyenne annuelle de la consommation du datacenter en fonction de sa charge a été effectuée à partir d une base de données des températures annuelles d Uccle. 3.2. Résultats de l estimation Comme on peut le constater sur la figure 2, le DCiE atteint 60% dès que la charge interne du datacenter atteint 60% (DCiE de 62% dès 65% de charge). On peut considérer le résultat comme étant concluant et bon. En effet, l ASHRAE (American Society of Heating, Refrigerating and Air- Conditioning Engineers) a fixé comme objectif un DCiE de 62% pour les nouveaux datacenter (objectif à atteindre pour 2011). De nos jours, la plupart des centres de données ont une valeur de DCiE variant entre 33 et 50% (PUE variant entre 2 et 3).

215 Figure 2 : Résultats de l estimation. A noter que la charge IT varie de 0 à 440 kw (100%). En plus de l estimation théorique basée sur le modèle de la page précédente, une deuxième estimation a été effectuée à l aide d une application disponible chez APC (fabricant d UPS). On peut constater sur le graphique cidessus que les deux résultats concordent sensiblement. 4. Amélioration du DCIE 4.1. Introduction Sur la figure 3, on peut apercevoir la répartition de la consommation dans un centre de données typique (DCiE 60%, càd consommation des équipements IT de 60%). On remarque directement que la partie influençant le plus le DCiE est l HVAC. C est donc la partie la plus importante à traiter en vue d améliorer le DCiE.

216 Consommation 'typique' 5% 3% 32% 60% IT (60%) HVAC (32%) UPS (5%) Autres (3%) Figure 3 Répartition de la consommation dans un datacenter typique Etant donné que tout ce qui est équipements IT ne concernait pas directement le Bureau d Etudes, cette partie n a pas été développée. La recherche de solutions fut donc surtout centrée autour des domaines de l HVAC et de l électricité. 4.2. Electricité La solution développée dans cette partie concerne l utilisation des UPS. Afin d augmenter la disponibilité du système, il est nécessaire d installer des appareils en redondance. Les équipements informatiques devant dès lors être alimentés via deux sources qui vont elles-mêmes se répartir la charge à fournir, ces UPS sont grandement surdimensionnés pour les faibles charges. Le rendement de ces appareils diminuant très fortement lorsque la charge à fournir est faible, les pertes sont dès lors importantes lorsque le pourcentage d utilisation du centre de données est faible. Ainsi, une solution visant à réduire le nombre d UPS en fonctionnement lorsque la charge est suffisamment faible a été développée. Cette solution permet de réduire les pertes dues aux UPS lorsque la charge informatique est faible. On obtient dès lors un meilleur DCiE.

217 4.3. HVAC Dans cette partie, deux solutions ont principalement été développées : le KyotoCooling et la modification des régimes de températures. KyotoCooling Ce concept propose une nouvelle approche du refroidissement d un centre de données en se débarrassant des unités de refroidissement classiques pour refroidir en utilisant l air extérieur. Dans notre installation, l air extérieur est déjà utilisé pour le refroidissement de la salle. Mais cet air est utilisé pour refroidir l eau destinée à alimenter les unités de refroidissement d air. Ici, l air extérieur est directement utilisé pour refroidir l air de la salle. Figure 4 : Principe du KyotoCooling Ci-dessus, on peut apercevoir le principe de fonctionnement du KyotoCooling. Une unité de KyotoCooling est constituée d un échangeur de chaleur rotatif. L air frais extérieur est échangé avec l air chaud extrait de la salle. Cet air chaud est refroidi pour ensuite être renvoyé à l intérieur du centre de données. Ce système constitue un très gros avantage étant donné qu il peut fonctionner sans refroidissement complémentaire jusqu à une température extérieure de 22 C. Ce qui veut dire que pendant 95% du temps (annuellement en Belgique, la température extérieure est supérieure à 22 C seulement 5% du temps), le refroidissement consomme beaucoup moins d énergie que dans les centres

218 de données traditionnels. Le DCiE s en trouve grandement amélioré. Audelà des 22 C, un système de refroidissement complémentaire est utilisé afin d obtenir une température de pulsion de maximum 25 C à l intérieur du centre de données. Une estimation du rendement du datacenter a été effectuée à partir des mêmes données que pour le datacenter développé par le BET (440 kw de charge IT). Ainsi, le même centre de données conçu avec des unités de KyotoCooling obtiendrait un DCiE supérieur à 85%. Suite à cette estimation, d autres parties ont été développées (construction d un centre de données avec cette solution, écologie, étude économique). Ainsi, cette solution ne coûterait pas plus cher que la solution étudiée par le bureau d études, tout en étant plus efficace sur plusieurs aspects. Du côté des avantages : Résultats impressionnants. Simplicité du système (forte diminution des équipements de refroidissement par eau). Modularité (agrandissement, ajout d une ou plusieurs unités de Kyoto- Cooling). Economies annuelles (consommation et production de CO2). Marketing (image «verte»). Climat de la Belgique adapté à la solution. Ne devrait pas coûter plus cher qu une installation classique. Mais il y a également des inconvénients : Difficultés d adapter cette solution à une installation existante. Il est en effet préférable de développer directement cette solution dans l étude du centre de données (point de vue modularité future, etc.). Jeunesse de la solution (donne des résultats intéressants aux Pays-Bas, mais les conclusions et les analyses qui découlent des tests réalisés ne sont pas encore parus). Solution non-conventionnelle. Ce qui peut faire peur aux constructeurs de centres de données. L installation de racks pouvant travailler à des températures plus élevées est indispensable.

219 Malgré le fait que cette solution est récente et est toujours en phase d analyse, le concepteur a déjà annoncé la construction de plusieurs centres de données utilisant cette technologie. Cette solution comprenant des avantages très intéressants lorsqu elle est bien étudiée, il apparait réellement intéressant de s y intéresser. Modification des régimes de températures Cette solution consiste à augmenter les différents régimes de températures du système par rapport à la solution étudiée par le bureau d études, tout en conservant le même matériel. Le régime de la salle choisi par le BET est le suivant : Température de l air pulsé dans la salle : 16 C. Température de l air extrait de la salle : 28 C. Nouveau régime de température : Température de l air pulsé dans la salle : 20 C Température de l air extrait de la salle : 32 C Ces derniers régimes de température se rapprochent de ceux utilisés avec la solution du KyotoCooling et sont recommandés par l ASHRAE. Cette solution permet principalement une utilisation bien plus importante du freechilling sur l année, ce qui représente une grande économie d énergie. Avec la première solution, le free-chilling devrait fonctionner seul 34% du temps sur l année (lorsque la température est en dessous de 6 C). Avec la seconde solution, les aéroréfrigérants fonctionneront seuls 55% du temps sur l année (lorsque la température est en dessous de 10 C). A noter qu étant donné que le ΔT ne varie pas entre les nouveaux régimes et les anciens, le débit d air à envoyer dans la salle ne varie pas. Donc les différents équipements de froid utilisés peuvent rester les mêmes. Avec toutes ces données, une nouvelle estimation du DCiE a pu être effectuée. Ainsi le DCiE de l installation passerait de 62 à 68%. Une certaine économie sur la consommation des équipements serait donc faite en adoptant ces nouveaux régimes de températures (plus de 30.000 par an pour une installation de 440 kw d équipement IT), le tout sans dépenser un de plus.

220 La seule contrainte est de s assurer que les équipements informatiques de la salle peuvent fonctionner à une température de 32 C (au lieu de 28 précédemment). 4.4. Autres D autres solutions ne trouvant pas place dans les précédentes catégories ont été étudiées. A savoir une étude concernant l utilité des faux-planchers et une étude sur l éclairage de la salle. La première étude a été développée car il apparaîtrait que le faux-plancher des centres de données ne serait plus réellement utile et pourrait être supprimé dans certains cas. Après avoir effectué une étude sur la pertinence de ces faux-planchers, il semble cependant qu ils demeurent très utiles pour faire parvenir l air au pied des équipements informatiques et pour y faire passer tous les câbles des ces mêmes équipements. C est notamment pour ces deux raisons que le faux-plancher reste toujours la meilleure solution. La deuxième étude effectuée concerne l éclairage de la salle. En effet, 21,6 W/m² d éclairage sont prévus par le BET. Ce chiffre étant assez élevé, il était intéressant de se pencher dessus afin de tenter de faire des économies. Mais après avoir effectué une étude des différentes contraintes, il apparait que ces 21,6 W/m² sont indispensables pour satisfaire les contraintes de la salle et du client. Et étant donné que les luminaires utilisés sont à faible consommation, aucune économie significative ne peut être faite sur l éclairage.

221 5. Conclusions et perspectives Dans l ensemble, le cahier des charges a été respecté. En effet, une estimation du DCiE a été effectuée et diverses solutions intéressantes ont été développées. Le centre de données étant seulement en phase de construction, la valeur du DCiE estimé n a pu être vérifiée. Néanmoins, l ordre de grandeur obtenu semble être cohérent au vu des technologies utilisées dans le système (UPS à haut rendement, free-chilling). Les éléments responsables des pertes les plus importantes dans un centre de données sont donc optimisés. D où la valeur du DCiE obtenue. Concernant les solutions étudiées, le bureau d études devrait conseiller à son client d augmenter le régime de températures des différents équipements ainsi que de limiter le nombre d UPS en fonctionnement tant que la charge informatique à l intérieur du centre de données ne sera pas assez élevée. Toutes ces modifications ne nécessiteront pas d investissement supplémentaire, amélioreront le DCiE et au final, permettront de faire des économies sur le fonctionnement du centre de données. Si une étude concernant la construction d un nouveau centre de données devait être effectuée, la solution du KyotoCooling devrait être prise en compte et étudiée en profondeur. En effet, celle-ci présente des résultats impressionnants et ne devrait pas avoir un coût plus élevé (tout ce qui est groupes de refroidissement d eau et diverses canalisations ne sont plus nécessaires). Sans compter que cette solution apporterait d autres avantages du point de vue marketing et approche du client (faible consommation, écologie). De plus cette solution présente l avantage d avoir été conçue aux Pays-Bas (même climat, faibles coûts d importation). Toutes ces raisons font donc que cette solution est très intéressante à étudier. Au final, on peut donc conclure que ce travail pourra être utile au bureau d études. Celui-ci pourra remettre une estimation du DCiE à son client, tout en lui apportant des conseils lui permettant de faire des économies. Dans un second temps, lors de la construction d un nouveau centre de données, le KyotoCooling devrait être étudié en profondeur.

222 6. Références bibliographiques [1] APC, White Papers (n 1, 3, 25, 37, 43, 46, 49, 50, 56, 64, 113, 114, 120, 124, 126, 131, 135, 154, 157). [2] The Green Grid, White papers (n 1, 2, 7, 11, 14, 15, 20). [3] Publication Siemens, Be One, Le magazine de la technique de bâtiment intégrée, 03-2008. [4] Publication Intel, Reducing Data Center Cost with an Air Economizer, 08-2008. [5] Publication IBM, Refresh, managing it by sharing intelligence, 03-2008, n 3. [6] Techniques de l Ingénieur BE 9620, BE 2480, BE 9572, BE 8097, BE 9755, B 9745, BE 9775, BE 2482. [7] ETNO, Energy Task Team, first annual report 2005-2007, 04-2008. [8] Sites Internet: www.kyotocooling.com www.wikipedia.com www.mgeups.be www.ciat.fr www.emersonclimate.eu energie.wallonie.be www.apc.com/fr www.wilo-select.com www.guideinformatique.com www.arcadisbelgium.be