Audrey CHOPITON Génie Climatique et Energétique INSA de Strasbourg BE Alain Garnier Projet de Fin d Études : Les Green Datacenters COMPTE RENDU DE VISITE IKOULA 10/04/2015
2
1) Caractéristiques du datacenter Présentation de Ikoula Ikoula possède 2 datacenters dans la région (Reims, Laon). Ancien collaborateur de TeleHouse et Telecity. Pour Ikoula, le but d un datacenter est d assurer haute disponibilité et sécurité. Présentation du site Le site de Reims possède une équipe de 15 personnes dont 5 développeurs. Un logiciel de DCIM coute 200 000 E. Son prix est un frein à son installation notamment pour les petits hébergeurs. Ikoula a choisi d'embaucher des développeurs qui ont mis en place un outil de gestion. Dans cette stratégie, il y a un double intérêt : - Ikoula a investi dans des hommes compétant en informatique et non dans un logiciel. Les informaticiens mettent en application leurs connaissances variées sur de nombreux projets - Le logiciel est modulable, il est peut être modifié en interne en fonction de valeurs à suivre, des besoins et des demandes clients. Il peut suivre les consommations de nombreux appareils car chaque serveur est connecté à l outil de gestion. Chaque serveur est connecté et suivi en permanence. Un code couleur permet de savoir si la consommation des clients est normale ou pas. On peut suivre la consommation de chaque serveur, chaque baie, chaque climatiseur, chaque UPS ils peuvent également faire un bilan des consommations à la semaine, au mois ou à l année. Le bâtiment est Tier II. Le bâtiment est raccordé à 2 boucles distinctes d EDF. Performance du datacenter PUE moyen annuel = 1,7 1,8 Le PUE est calculé en temps réel et le calcul se fait dans le cas le plus défavorable. La consommation des baies est divisée par la consommation totale du datacenter au niveau du compteur électrique. Zone géographique Le bâtiment se trouve dans la ville de Reims dans une zone résidentielle. Il possède des fenêtres et à l apparence d un immeuble de logements. La contrainte de ce type d emplacement est le voisinage. Il faut maitriser les pollutions et notamment le bruit ce qui restreint le choix en matière de condenseur. Type de bâtiment Le bâtiment appartenait avant à France Telecom. Il date de 1970. Il possédait déjà des faux planchers, un local TGBT et une climatisation comme il avait une application similaire. M. Poret m a donc expliqué que le bâtiment proposant de nombreux avantages liés à son ancienne utilisation était un choix facile lorsqu il a fallu chercher un lieu où s installer. 3
Cependant, il conseille les bâtiments plats pour les datacenters pour des raisons de manutentions. Les armoires de climatisation et les baies remplies de serveurs sont extrêmement lourdes et il est beaucoup plus facile de les déplacer horizontalement que verticalement. D autant plus que lorsqu'il n y a pas d ascenseur et que la location d une grue est très onéreuse. Services du datacenter En France, il y a 3 types de datacenters : - les datacenters d entreprise - les datacenters de location de serveurs (ex : OVH) - les datacenters de location de baies (= colocation) Chez Ikoula 90% des clients sont en location de serveurs et 10% en colocation. Ceci leur permet de maitriser le paramètre «technologie» des serveurs à défaut de pouvoir maitriser le paramètre «utilisation». C est déjà un pas vers le green puisqu avant toute chose, pour réduire les consommations, il faut travailler sur les serveurs! 2) Refroidissement Conditions en ambiance T : 21 2 C (pour assurer 18-20 C à l entrée des serveurs) HR : de 20 à 80% On laisse les conditions dériver dans ses plages. Il y a un très faible contrôle sur l humidité (50 30%) et tout fonctionne très bien : - quand humidité est faible : Dans une salle qui comporte plusieurs climatiseurs, seul un est équipé d un humidificateur. Lorsque l humidité descend sous 20%, alors il se met en route. Aucun problème d électricité statique car toutes les baies sont reliées à la terre. - quand humidité trop élevée : Lorsque HR >80%, une résistance se met en route : on chauffe l air avant de le refroidir (entrée de l évaporateur). A Reims, pas de problème de trop fort pourcentage d hygrométrie 4
Instrumentation : - sonde de régulation : 1 par armoire. Contrairement aux armoires du datacenter Victor Hugo où la régulation se faisait sur la température de soufflage, ici la régulation se fait sur la température de retour. - Sonde de contrôle : 1 au soufflage de chaque armoire et plusieurs en ambiance, placées sur les faces avant des baies. Quand une armoire de climatisation (ou CRAC) tombe en panne, il faut arrêter son ventilateur au bout que quelques minutes pour éviter le phénomène de recyclage. Le recyclage c est lorsque l armoire continue d aspirer et de souffler l air de la salle sans le traiter. Cet air est chaud et crée des points chauds dans les serveurs les plus proches des armoires. D où l intérêt de la sonde de soufflage qui permet de couper le ventilateur d une armoire en panne de climatisation. Les techniciens peuvent couper l armoire à distance à partir de leur téléphone. Climatisation des locaux techniques Local TGBT (sous sol) : 2 Climatiseurs split plafonniers Salles des onduleurs (sous-sol) : 4 onduleurs de 120 kva + climatiseurs qui aspirent par le bas et soufflent par le haut à 15 C car absence de faux plancher. 5
Salles des batteries (sous-sol) : 2 unités intérieures split au plafond (elles semblent être faites sur mesure). Salle n 1 Salle n 2 Salles des transformateurs (sous-sol) : 3 armoires de climatisation, soufflage en faux plancher (30cm) à 13-14 C et reprise en haut entre 19 et 23 C. 6
Climatisation des salles informatiques Salle 1 : La salle est alimentée en triphasé (3*400V) puis les différentes baies sont réparties sur les différentes phases pour équilibrer l utilisation de l électricité. Les baies sont alimentées en 240V. Ce système permet une forte réduction de nombre de câbles en faux plancher, ici les faux plancher sont presque entièrement vides, l air circule très bien. C est la salle la plus récente, elle suit une logique similaire au datacenter Victor Hugo. C està-dire qu on a une logique allée chaude / allée froide avec soufflage en faux plancher et climatiseurs placés le long des murs. C est la salle la plus optimisée en termes de diffusion d air mais elle ne comporte pas de baie confinée. Elle comporte 12 rangées de baies et 3 CRACs (=Armoires de climatisation). Schéma de la salle avec organisation de la salle : 7
La salle comporte des climatiseurs à détente directe à 2 circuits frigorifiques totalement indépendants d une puissance de 50kW (2*25kW). Grâce à ce système, le secours ne se fait pas entre armoire (1 armoire principale et 1 armoire de secours) mais au sein d une même armoire (1 circuit principal et 1 circuit de secours). Pour les groupes extérieurs, on retrouve les deux circuits indépendants. NB : Ce schéma est à doubler pour avoir une armoire complète 8
Zoom sur les circuits frigorifiques (sur cette photo, on peut aisément distinguer la plupart des éléments composants les circuits) : Composants : - Bouteille de liquide : bouteille noire à l arrivée du condenseur - Déshydrateur (+filtre) : élément vert - Voyant de liquide - Détendeur électronique : relié à un DP de l évaporateur - Evaporateur : il est protégé par un filtre et rejoint le compresseur par un conduit calorifugé Les climatiseurs sont à l aplomb des fenêtres. En cas de panne de climatisation, les fenêtres sont ouvertes. Celles-ci sont également ouvertes l hiver mais je ne sais pas dans quelle proportion ni quelles économies cela permet, ni même si c'est plus efficace 9
Une nouvelle salle est en construction, elle sera composé de baies confinées sur l allée froide et avec des climatiseurs «in-row» (=insérés dans les rangées de baies) comme la solution proposée par Climaveneta ci=dessous. Le bâtiment et composé de salles longues et peu larges, cette solution permettra d optimiser l espace au sol, et permettra entre autre une meilleure circulation des personnes. Exemple de Modèle In-Row de Climaveneta : 10
Salle 2 : Salle la plus ancienne. Elle est composée de modèles anciens de racks (armoires) qui sont ouverts et dont les étagères ne sont pas pleines. Le soufflage se fait en faux plancher, mais les grilles sont placées au-dessous des armoires. Il n y a pas d organisation allée chaude / allée froide, toutes les allées sont chaudes et toute les rangées de racks sont froides. Cette solution est ancienne et n est plus utilisée pour son inefficacité prouvée. En effet, les serveurs situés en haut de rack ne sont pas bien refroidis car l air se réchauffe en traversant un à un les serveurs. Bilan sur la climatisation : L installation de climatisation est composée uniquement d appareils en détente directe au R407C ou R410A en TOR (fonctionnement ou arrêt, pas de modulation). Les groupes extérieurs sont dimensionnés pour un Text de 45 C. Pour local batteries : cassettes à l intérieur et groupe condenseur + compresseur à l extérieur = système split car ce local nécessite une puissance de climatisation plus faible. Pour salles informatiques, local TGBT, salle transformateurs et salles onduleurs : climatiseur intérieur (43 000E) et condenseur déporté à l extérieur (7 000E). On peut compter 1000E/1kW. Le fonctionnement est identique pour toutes les saisons, pas de rafraîchissement gratuit (sauf quelque fois par ouverture de fenêtres mais je ne suis pas en mesure de chiffrer la durer d ouverture ni les économies engendrées). Soufflage La régulation du soufflage se fait à l aide une sonde sur la température de retour par action sur les compresseurs. La consigne est à 212 C : - TR < 19 C : Mise en marche de chauffage : cas qui n arrive jamais - 19 C < T < 23 C : Aucun soufflage - 23 < T : Mise en route du froid, soufflage à 12 C. le soufflage se fait aussi bas pour assurer de bonnes conditions et pour laisser du temps pour intervenir lors d une éventuelle intervention en cas de panne. 11
3) Ventilation Pour la ventilation, il y a un petit réseau de gaine. L air est presque totalement brassé, il n y a qu un infime pourcentage d air neuf qui est apporté via à une petite CTA au dernière étage du bâtiment. Local onduleur : un conduit permet l évacuation des fumées en cas d incendie par aspiration : 4) Réjection Système Le refroidissement se fait à travers des condenseurs à air, pas de fonctionnement adiabatique. Réutilisation La chaleur est rejetée aux oiseaux. 12
5) Questions diverses Températures Même question que celle posée lors de la visite de Victor Hugo et même réponse : en l absence de climatisation et au-delà de 40 C, le fonctionnement d un serveur est détérioré. Par contre, Telecity annonçait 5 minutes de fonctionnement avant d atteindre les 40 C dans la salle, M.Poret annonce une augmentation de la température ambiante de 1,2 C par minute, ce qui donne dont 15 minutes de fonctionnement correct des serveurs. Mais rappelons que les CRACs doivent tout de même être arrêter pour éviter le phénomène de recyclage. Comment diminuer les consommations? Pour savoir comment faire des économies, il faut savoir où faire des économies. Dans une salle informatique, il y a des milliers de serveurs qui sont branchés en permanence. Ceux-ci consomment beaucoup d énergie qu ils soient en fonctionnement ou pas. Ainsi, pour réduire les consommations, il faut agir à la source et il faut commencer par travailler sur les serveurs : - il faut impérativement se tourner vers des serveurs de nouvelle technologie pour lesquels la consommation est optimisée - il faut couper les serveurs qui ne fonctionnent pas (ou mettre en place des stratégies pour pousser les utilisateurs à les utiliser) - Il faut maximiser le nombre de serveurs en fonctionnement par baie. En effet, «le rendement électrique devient intéressant au-delà de 70% de remplissage des baies». Comme vu au salon SDM, les serveurs inutilisés ou «zombies» ou «morts» sont la bête noire des hébergeurs. En effet, les hébergeurs sont tenus de ne pas «regarder» ce qui se fait au sein des serveurs qu ils hébergent et ne peuvent donc pas savoir lorsqu un serveur est utilisé ou pas. Il existe des logiciels qui permettent de suivre la consommation des serveurs mais celle-ci ne témoigne pas du fonctionnement des serveurs. En effet, un serveur de nouvelle génération en fonctionnement pourra consommer moins qu un serveur ancien à l arrêt. Puis lorsque l on a travaillé sur les serveurs, alors on peut adapter des concepts green au datacenter. Une installation de free cooling est 20% plus chère à l achat et s amortit généralement sur 6 ans. La durée de vie d une salle informatique est de 10 ans (évolution des technologies ), ce qui veut dire que cette installation est rentable pendant 4 ans. Difficile d être green car les technologies évoluent beaucoup dans le temps et une très bonne climatisation ne sera plus adaptée au bout de quelques années. Une des contraintes pour le green vient souvent de l argent! Les gros hébergeurs peuvent se tourner vers le green et les petits, beaucoup moins facilement Secours Pour le secours, il y a de groupes électrogènes : 2 de 1MW. Ils peuvent reprendre la totalité du bâtiment en 40 secondes. 13
Sécurité incendie Se fait avec bonbonnes d azote et des buses dans les salles. Attention à partir d une certaine température, la pression chute trop, il faut donc chauffer la salle contenant les bonbonnes l hiver pour maintenir un bon fonctionnement de celles-ci. Pour ce faire, des radiateurs électriques ont été installés. Je trouve dommage de devoir brancher des radiateurs électriques l hiver alors que la chaleur des machines est entièrement rejetée. Nous en avons parlé et les contraintes sont trop importantes pour chauffer une si petite salle (le bâtiment est ancien et les travaux ne seraient pas simples). 6) Contact Aurélien PORET Responsable infrastructure 14