Efficacité énergétique des technologies et infrastructures dans les datacentres et salles serveurs

Dimension: px
Commencer à balayer dès la page:

Download "Efficacité énergétique des technologies et infrastructures dans les datacentres et salles serveurs"

Transcription

1 floorfour Agentur für Kommunikation Efficacité énergétique des technologies et infrastructures dans les datacentres et salles serveurs Partenaires Soutenu par Contact : Agence autrichienne de l Energie Dr. Bernd Schäppi Mariahilferstrasse 136 A-1150 Vienna Tel [email protected] Contact France : BIO Intelligence Service Shailendra Mudgal Villa Deshayes Paris Tel [email protected]

2 Mentions légales Direction éditoriale : consortium projet PrimeEnergyIT, juillet 2011 Coordination projet : Dr. Bernd Schäppi, Agence autrichienne de l Énergie (Vienne) Version française du document : BIO Intelligence Service (Traducteur - François-Xavier Durandy) Reproduction partielle autorisée, sous réserve de mention exhaustive de la source. Document imprimé sur papier blanchi sans chlore. Le contenu de cette publication relève de la seule responsabilité de ses auteurs et ne prétend pas refléter la position de l Union européenne. L AECI et la Commission européenne ne sauraient être tenues pour responsables de l utilisation pouvant être faite des informations contenues dans le présent document.

3 Des technologies efficaces pour réduire la consommation énergétique et les coûts des datacentres et salles serveurs La consommation énergétique des datacentres et salles serveurs a fortement progressé au cours des dix dernières années. La montée en puissance des matériels et la complexité accrue des services informatiques ont entraîné une hausse de la demande en énergie. Les coûts liés aux infrastructures et à l énergie dans les datacentres sont ainsi devenus un facteur essentiel de la gestion de site et de l infogérance. Un ensemble de technologies ont donc été développées pour améliorer l efficacité énergétique et de nouvelles options de matériels et de gestion des systèmes d information soutiennent les stratégies d économies d énergie. Le potentiel d économie des datacentres et salles serveurs est généralement élevé, souvent supérieur à 50 %, en fonction des technologies et des infrastructures. Les mesures d économies d énergie ont jusqu à présent surtout porté sur les solutions d alimentation et de refroidissement, mais l efficacité énergétique des matériels fait désormais partie des pistes à l étude. Des travaux récents montrent que les mesures d optimisation entraînent d ores et déjà une réduction significative de la demande en énergie par rapport à un scénario de statu quo [Koomey 2011]. Le potentiel demeure pourtant élevé et les technologies nouvelles permettent un déploiement encore plus efficace des mesures d économies d énergie. Cette brochure présente un aperçu succinct des technologies actuelles (matériel informatique et infrastructure) en faveur de l efficacité énergétique. Elle couvre l ensemble des équipements informatiques essentiels des datacentres : serveurs, stockage et réseaux. Les stratégies pour une plus grande efficacité énergétique englobent la conception des systèmes, la gestion de l énergie à différents niveaux (du matériel informatique au datacentre dans son ensemble) ainsi que les mesures de consolidation et de virtualisation. Des recommandations de bonnes pratiques mettent en avant les choix les plus intéressants à envisager dans la gestion et les achats des matériels. Des suggestions de lecture sont également indiquées. La brochure constitue ainsi une source d informations de base pour aider les gestionnaires en technologies et infrastructures à optimiser l efficacité énergétique et la rentabilité des datacentres. Cette brochure s inscrit dans le projet international PrimeEnergyIT ( mené dans le cadre du programme de l UE «Intelligent Energy Europe». 1) Koomey, J. (2011): Growth in Data center electricity use 2005 to 2010, Jonathan Koomey, Analytics Press, Oakland, CA, August 1,

4 Table des matières 1 Suivi de la consommation d énergie dans les datacentres et salles serveurs Concepts de monitoring Appareils de mesure 9 2 Équipements de serveur Efficacité énergétique et gestion de l énergie au niveau du serveur et de ses composants Efficacité du processeur Efficacité de l alimentation électrique Gestion de l énergie au niveau du rack et du datacentre Gestion de la capacité et de l énergie Power capping Options de gestion de l énergie spécifiques pour serveurs lames Châssis et composants des serveurs lames Problèmes d alimentation et de refroidissement Virtualisation des serveurs Potentiel d économie d énergie de la virtualisation Exigences et outils de planification de la virtualisation Gestion de l énergie dans les environnements virtualisés : migration vers serveur virtuel Refroidissement et infrastructures des systèmes virtualisés 25 3 Équipements de stockage de données Appareils de stockage Systèmes à bandes Disques durs (DD) Disques SSD Disques durs hybrides (HHD) Éléments de stockage Disques de grande capacité et miniaturisation Baies de disques de type MAID Niveaux RAID efficaces Tiering horizontal, virtualisation du stockage et allocation granulaire de capacité Consolidation au niveau du stockage et de la matrice Déduplication de données 34 4

5 4 Équipements de réseau Cadre technique et opérationnel Schéma fonctionnel Attributs du réseau Équilibrer la performance et la consommation énergétique Amélioration de l efficacité énergétique Fusionner les classes de trafic (consolidation E/S) Consolidation du réseau Virtualisation du réseau Sélection des composants et équipements Commutation floor-level 42 5 Refroidissement et alimentation des datacentres et salles serveurs Refroidissement des salles serveurs Climatiseurs «split» et mobiles Mesures d optimisation de l efficacité énergétique Refroidissement des datacentres moyens à grands Généralités Contrôle de la température et de l humidité Efficacité des composants (compresseurs, ventilateurs, centrales de traitement d air) Free cooling Refroidissement au niveau du rack/de la rangée Alimentation et onduleurs dans les datacentres 49 5

6 1 Suivi de la consommation d énergie dans les datacentres et salles serveurs Carlos Patrao, Université de Coimbra 1.1 Concepts de suivi On peut distinguer trois grands types de suivi : Le suivi de la consommation d énergie dans les datacentres et salles serveurs est un élément essentiel pour évaluer le potentiel d économie d énergie et l efficacité des mesures d efficacité énergétique. Ce monitoring doit être conçu de façon à garantir la collecte de données pertinentes. On tiendra compte des aspects suivants [1] : Niveau requis de précision et de résolution des données ; Répartition de la collecte de données, capacité à recueillir des données à partir de tous les appareils souhaités ; Facilité d utilisation et d intégration des données entre appareils et échelles de temps ; Evolutivité pour un déploiement de masse et capacité multi-sites ; Adaptabilité aux nouveaux besoins de mesure ; Options d analyse des données et intégration avec les systèmes de contrôle ; Capacité à détecter les problèmes et notifier les opérateurs des datacentres ; Montant de l investissement et retour. Charge du site Suivi minimum Reposant sur des mesures réalisées ponctuellement et périodiquement avec un équipement portable, ce suivi se prête surtout aux sites de très petite taille. Certaines données (consommation, etc.) pourront être tirées de la documentation du fabricant. Cette approche ne nécessite pas d investissement dans des équipements et infrastructures de mesure installés de façon permanente. Suivi avancé Les données sont communiquées en temps réel grâce à des équipements installés de façon permanente, avec le soutien éventuel d instruments en ligne. De légères modifications devront sans doute être apportées aux infrastructures. Suivi de pointe Les données sont collectées en temps réel grâce à des systèmes d enregistrement automatisé ou permanent, avec le soutien de logiciels en ligne dotés de fortes capacités d analyse. Ce suivi impose une modification des infrastructures et le soutien d un personnel technique expert. Le système de suivi doit disposer d un nombre adéquat de «nœuds d information» (ou «points d auscultation») pour fournir les informations nécessaires à une analyse exhaustive de la consommation d énergie. Sur les sites de grande taille, la sélection de ces «nœuds» doit commencer par les sous-systèmes les plus représentatifs en termes de consommation (cf. Figure 1.1), qui pourront faire figure de «points d auscultation». Charge informatique Alimentation électrique Équipements informatiques Appareillage électrique Services Consommation totale du site Générateurs Onduleurs Consommation des équipements informatiques Stockage Équipements télécoms etc. etc. Climatiseurs Compresseurs Free cooling etc. Fig. 1.1 Schéma simplifié des principaux sous-systèmes d un datacentre [Source: ASHRAE [2]]. 6

7 Plusieurs outils logiciels permettent d assurer la collecte des données, leur traitement et leur évaluation. Le programme «Save EnergyNow» du ministère américain de l Énergie a ainsi mis au point une suite logicielle baptisée «DC Pro», comprenant un processus d évaluation, des outils de benchmarking et de suivi de la performance ainsi que des recommandations pour les mesures. Cette suite est disponible en téléchargement gratuit. software.html AUTRES EXEMPLES D OUTILS LOGICIELS UTILES : Consommation d énergie : Reporting du PUE : Mesure de l évolutivité du PUE et analyse statistique : Entire%20Archive&type=Tool&lang=en&paging=All# TB_inline?&inlineId=sign_in Mesure du PUE et du DCiE (Data Center infrastructure Efficiency) : RECOMMANDATIONS DE BONNES PRATIQUES L efficacité du système de suivi de la consommation d énergie suppose que sa conception s appuie sur une bonne compréhension des objectifs principaux, notamment : Évaluer la consommation d énergie totale des équipements informatiques et des infrastructures ; Analyser l évolution de la consommation dans le temps ; Comprendre la demande d énergie instantanée des principaux équipements du site ; Contrôler la facturation ; Calculer les indices et indicateurs d efficacité énergétique. Les logiciels/matériels mis en œuvre pour le suivi de la consommation énergétique devront offrir les fonctionnalités suivantes (source : ASHRAE) : Fiabilité de la collecte de données et du stockage en fonction du taux et du niveau de précision souhaités ; Normalisation des données issues de différents appareils, interfaces et protocoles ; Sauvegarde des données sur de longues périodes de relevé ; Analyse et affichage des données sous forme de tableaux et graphiques ; Architecture extensible pour accompagner l expansion du datacentre. Les principaux aspects à prendre au compte au moment du choix des appareils pour le système de suivi sont notamment la plage de mesure de l instrumentation, sa résolution et sa précision. 7

8 Tab. 1.1 Exemples d appareils de mesure de la consommation énergétique Désignation Illustration Description Type de suivi Appareils de mesure portables Les appareils portables couvrent un vaste éventail de produits, des multimètres monophasés jusqu aux appareils d analyse triphasés les plus avancés, avec fonctions d enregistrement et de déclenchement programmé. Ils comportent généralement un écran intégré qui permet à l utilisateur de consulter les données mesurées ou enregistrées. Minimum et avancé Source: Chauvin Arnoux Appareils de tableau Source: Chauvin Arnoux Les appareils de tableau sont généralement installés de façon permanente au niveau de l armoire électrique mesurant les onduleurs, générateurs et autres appareils. Ils possèdent un écran qui affiche les mesures en temps réel et les variables cumulées comme la consommation totale d énergie. Ils peuvent être installés pour mesurer la consommation globale ou individuelle des différents appareils. Suivi de pointe et bonnes pratiques Compteurs Source: Itron Les compteurs sont principalement utilisés par les compagnies d électricité et les propriétaires adressant des factures à leurs clients, locataires, etc. Rarement affectés au suivi des datacentres, ils fournissent toutefois des données sur la consommation totale du site. Le fournisseur pourra parfois fournir l accès au port de communication numérique, permettant un relevé et une sauvegarde dans une base de données pour une analyse future (par ex. toutes les 15 minutes). Compatibles avec l ensemble des approches Unités de distribution d alimentation intelligentes Source: Raritan Les unités de distribution d alimentation (PDU) intelligentes ou PDU pour rack avec compteur assurent une fonction de mesure active pour optimiser l alimentation et protéger les circuits. Ils fournissent des données d utilisation de l énergie permettant aux gestionnaires de faire des choix informés sur la répartition de la charge et la micromisation des environnements informatiques pour réduire le coût total de possession. Les PDU peuvent être équipées d un suivi distant en temps réel de l énergie au niveau de l unité ou des différentes sorties : courant, tension, puissance, facteur de puissance et consommation (kwh) avec une marge d erreur de ±1 % (ISO/IEC) compatible avec la facturation. L accès et la configuration se font via une interface sécurisée de type web, SNMP ou Telnet. Compatibles avec l ensemble des approches Fonctions de mesure intégrées au serveur Fonction de mesure de l alimentation électrique intégrée au serveur Minimum et avancé Transducteurs Les transducteurs sont généralement des équipements dépourvus d écran et connectés de façon permanente à l armoire électrique, à l instar des appareils de tableau. Ce type d appareils sert souvent aux systèmes de suivi à obtenir des mesures issues de divers points du datacentre. Compatible avec l ensemble des approches Source: Chauvin Arnoux 8

9 1 Suivi de la consommation d énergie dans les salles serveurs et datacentres 1.2 Appareils de mesure Un grand nombre d appareils de mesure de tous types permettent de mesurer les variables clés telles que la consommation d énergie, la température, le débit et l humidité. Quelques exemples d appareils de mesure de l énergie sont présentés dans le Tableau 1.1 (cicontre, page 8). Pour tout complément d information, veuillez vous référer aux sources indiquées ci-après ou consulter le «Technology Assessment Report» sur le site web de PrimeEnergyIT. Pour aller plus loin ASHRAE (2010) : Real-Time Energy Consumption Measurements in Data Centres, ASHRAE American Society of Heating, Refrigerating and Air- Conditioning Engineers, ISBN: Stanley, J. and Koomey, J. (2009) : The Science of Measurement: Improving Data Centre Performance with Continuous Monitoring and Measurement of Site Infrastructure, Stanley John and Koomey Jonathan, October Ton, M. et al. (2008) : DC Power for Improved Data Centre Efficiency,Ton, My, Fortenbery, Brian and Tschudi, William, Ecos Consulting, EPRI, Lawrence Berkeley National Laboratory, March dcdemofinalreport.pdf The Green Grid (2008) : Green Grid Data Centre Power Efficiency Metrics. White Paper 6, The Green Grid, White Paper 6. December 30, papers/the-green-grid-data-centre-power-efficiency- Metrics-PUE-and-DCiE Rasmussen N. (2009) : Determining Total Cost of Ownership for Data Centre and Network Room Infrastructure, Neil Rasmussen, APC by Schneider Electric, White paper #6 Revision 4 R4_EN.pdf Rasmussen N. (2010) : Avoiding Costs From Oversizing Data Centre and Network Room Infrastructure, Neil Rasmussen, APC by Schneider Electric, White paper #37 Revision 6 R6_EN.pdf Schneider Electric (2011) : E-learning website (Energy University) that provides the latest information and training on Energy Efficiency concepts and best practice Webinar : The Data Centre in Real Time: Monitoring Tools Overview & Demon Measurement-Webinar/playback.htm Sources [1] Stanley, J. and Koomey, J. (2009) : The Science of Measurement: Improving Data Centre Performance with Continuous Monitoring and Measurement of Site Infrastructure. October [2] ASHRAE (2010) : Real-Time Energy Con sump tion Measurements in Data Centres: ASHRAE- American Society of Heating, Refrigerating and Air-Conditioning Engineers, ISBN:

10 2 Équipements de serveurs, Bernd Schäppi, Thomas Bogner, Hellmut Teschner, Agence autrichienne de l Énergie Les équipements de serveurs représentent environ % de la consommation d énergie totale des datacentres et salles serveurs. Ils constituent donc l une des cibles prioritaires pour la mise en œuvre de mesures d économies d énergie. Les équipements les plus courants englobent les serveurs de type rack, lame, mais aussi piédestal et multinœuds. Le potentiel d économie d énergie est élevé : il peut atteindre 20 à 60 %, voire plus, en fonction du type de système et des mesures déployées. Les approches fondamentales pour optimiser l efficacité énergétique reposent sur la sélection de matériels efficaces, la conception des systèmes, la gestion de l énergie à tous les niveaux (du composant hardware jusqu au système dans sa globalité) ainsi, bien sûr, que la consolidation et la virtualisation. Ce chapitre est consacré aux technologies et options d économies d énergie, du niveau du composant jusqu à celui du système. Les problèmes d efficacité énergétique et les améliorations possibles sont traités du niveau du serveur jusqu à celui du rack et du datacentre. La technologie des serveurs lames et la virtualisation en tant que stratégie d efficacité font l objet de deux sous-parties spécifiques. Les recommandations de bonnes pratiques sont récapitulées sous forme d encadrés. Tab. 2.1 Critères Energy Star en mode inactif Catégorie Nombre de processeurs installés Serveur géré Consommation plafond en mode inactif (W) A 1 Non 55 B 1 Oui 65 C 2 Non 100 D 2 Oui 150 Tab. 2.2 Concept de l outil d évaluation SERT Résultat benchmark système Serveur Processeur Résultat benchmark Mémoire Résultat benchmark 2.1 Efficacité énergétique et gestion de l énergie au niveau du serveur et des composants L efficacité énergétique des serveurs s est fortement améliorée ces dernières années, essentiellement du fait du développement d une gestion d énergie efficace pour les composants matériels. À ce jour, l efficacité des serveurs est évaluée et déclarée sur la base des critères Energy Star et du benchmark SPECpower (SPEC : Standard Performance Evaluation Corporation). Le cahier des charges actuel du label Energy Star pour les serveurs d entreprise [1] définit des critères d efficacité énergétique pour les serveurs de type rack et piédestal contenant jusqu à 4 sockets. Il définit des seuils plafonds de consommation électrique en mode inactif pour les serveurs à 1 ou 2 socket(s) ainsi que des critères d efficacité de l alimentation et des fonctions de gestion de l énergie (voir Tableaux 2.1 et 2.4). Les critères du mode inactif sont surtout utiles comme indicateurs pour des conditions de charge moyenne basse et de quasi-inactivité. Ces basses charges (<15 % par ex.) sont encore très courantes en pratique, même si le but doit rester de consolider les matériels afin d atteindre des niveaux plus élevés. L efficacité énergétique des serveurs à charge plus élevée et des systèmes consolidés se mesure avec le benchmark SPECpower, qui est toutefois davantage centré sur l efficacité et la charge au niveau du processeur (voir ci-dessous). Un outil complet d évaluation de l efficacité énergétique des serveurs (SERT) englobant tous les principaux composants matériels à différents niveaux de charge est actuellement mis au point par SPEC [2] et devrait être disponible à l hiver 2011/2012. Il permettra d évaluer l efficacité à partir de benchmarks partiels pour le processeur, la mémoire, le stockage et le système (Tableau 2.2) et aidera les gestionnaires informatiques à sélectionner des matériels efficaces pour des applications données. Stockage Résultat benchmark D E/S 10

11 SPECpower_ssj2008 [2] a été le premier benchmark standard permettant l évaluation de l effi- fig 2.1 cacité énergétique de serveurs de type volume. Il porte essentiellement sur l efficacité liée au processeur et fournit donc une bonne indication pour les charges importantes au niveau du processeur. Mais ce benchmark n est publié par les fabricants que pour certains matériels. La Figure 2.1 montre un exemple de résultats SPECpower pour un serveur de type volume. Ce graphique type nous renseigne sur la performance moyenne par watt et ce, pour dix niveaux de charge gradués. Il permet de comparer les serveurs du mode inactif jusqu à une charge 100 %. Dans la perspective d un achat, il conviendrait d exiger du fournisseur l information complète SPECpower. Il faut en outre tenir compte du fait que les produits sont souvent testés avec des configurations réduites. Axe des charges (de inactif à 100 % par tranche de 10 %) Target Load 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% Active Idle Axe de la performance Performance to Power Ratio 0 1,000 2,000 3,000 4,000 3,197 overall ssj_ops/watt 4,020 4,073 4,003 3,853 3,653 3,285 2,829 2,305 1, Score benchmark global (La valeur SPECpower_ssj2008 est égale à la somme des scores ssj_ops pour toutes les charges cibles divisée par la somme des moyennes de consommation (en watts) pour ces charges, y compris l intervalle de mesure en mode active idle) Barres indiquant la performance Courbe de consommation d énergie Average Active Power (W) Axe de la consommation d énergie Fig. 2.1 Diagramme SPECpower et principales données Recommandations de bonnes pratiques Critères et benchmarks pour la sélection de matériels efficaces Acheter en fonction des critères d efficacité Energy Star si disponibles. Pour les serveurs opérant à faible charge, les critères Energy Star Vers. 1 en mode inactif peuvent raisonnablement faire office d indicateurs. Les critères d alimentation sont valables pour tout type d équipement. Exiger du fabricant les résultats du benchmark SPECpower_ ssj2008 (et SPEC-SERT dès sa sortie). Pour SPECpower, tenir compte des points suivants : Ce benchmark ciblé CPU est surtout représentatif des charges intenses au niveau du processeur ; Vérifier la configuration dans laquelle le serveur a été testé, celle-ci pouvant être assez réduite ; Pour bien interpréter les résultats, ne pas se contenter de la valeur globale (opérations par watt), mais tenir compte aussi du détail du benchmark. 11

12 2.1.1 Efficacité du processeur Le processeur (CPU) est l élément le plus énergivore du serveur. Un modèle de CPU efficace avec gestion d énergie efficace peut donc jouer un rôle important dans l efficacité globale. La consommation du processeur dépend de la tension et de la fréquence d horloge. La gestion d énergie au niveau du CPU ou du cœur repose donc sur l adaptation dynamique de la tension et de la fréquence (DVFS) ou le fait d éteindre des cœurs. La consommation du CPU est souvent comparée en termes d enveloppe thermique (thermal design power, TDP), qui indique la puissance maximale que le système de refroidissement d un serveur doit pouvoir traiter. Or le TDP n est qu une mesure partielle, car l efficacité globale dépend aussi fortement de la gestion d énergie. Les fabricants proposent des CPU conçus spécialement pour une faible consommation et permettant une économie d énergie substantielle si les critères de performance spécifiques sont remplis. L efficacité énergétique d un CPU est étroitement liée à la réussite de la mise en œuvre de la gestion d énergie. Les grands systèmes d exploitation supportent cette gestion sur la base de la norme ACPI (advanced configuration and power interface) pour les états de performance du processeur et de consommation (P-states) et les états de gestion thermique (C-states). Les nouveaux contrôles système et composants que permet la version 3 de l ACPI assurent une gestion de l énergie optimisée et par là un ajustement affiné de l alimentation et de la performance en fonction de la demande. De nombreux modèles de serveurs récents possèdent des modes préconfigurés, par ex. : «Haute performance» (pour des serveurs très fortement sollicités et devant assurer une performance maximale quel que soit le coût de l énergie) ; «Économie d énergie» / «consommation minimum» (ce mode peut entraîner une économie d énergie supplémentaire pour les serveurs peu sollicités et ayant une capacité supérieure à leurs besoins réels) ; «Équilibre consommation/performance». La Figure 2.2 montre les effets positifs de la gestion d énergie des processeurs modernes à travers les résultats de benchmark (SPECpower) pour la famille de produits serveurs HP ProLiant DL 380 : le ratio puissance en mode inactif/puissance pleine charge a été fortement réduit entre les générations 5 et 7 de ce modèle. Sur le DL 380 G5, la puissance en mode inactif (charge zéro) était inférieure de 33 % (170 watts) à celle en pleine charge (253 W). Sur le G7, la différence est d environ 75 %. La nouvelle technologie est donc beaucoup plus efficace à basse charge ou en mode inactif, grâce à une gestion d énergie intelligente au niveau du CPU. Dans le même temps, la performance de calcul de ce modèle a été plus que triplée. Pour sélectionner un matériel dans la perspective d un achat, il est essentiel de vérifier les critères de performance concrets que devront remplir ses composants. Différents types de charges entraînent différentes exigences de performance, dont Target Load 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% Active Idle G7 (3.07 GHz, Intel Xeon X5675) G5 (2.66GHz, Intel Xeon L5430) Performance Performance to Power Ratio to Power Ratio Performance Performance to Power Ratio to Power Ratio 0 1,0000 2,000 1,000 3,000 2,000 4,000 3,000 4, , ,250 1,000 1,250 3,197 overall ssj_ops/watt 3,197 overall ssj_ops/watt 734 overall ssj_ops/watt 734 overall ssj_ops/watt 4, % 4, % 1, % 1,214 4,073 90% 4,073 90% 1,135 90% 1,135 4,003 80% 4,003 80% 1,049 80% 1,049 3,853 70% 3,853 70% 95170% 951 3,653 60% 3,653 60% 85460% 854 3,285 50% 3,285 50% 73850% 738 2,829 40% 2,829 40% 62040% 620 2,305 30% 2,305 30% 48430% 484 1,681 20% 1,681 20% 33520% % % 17510% 175 Target Load Active Idle Target Load Active Idle Target Load Active Idle Average Active Average Power Active (W) Power (W) Average Active Average Power Active (W) Power (W) Fig. 2.2 Exemple de benchmark SPECpower pour deux générations de serveur (serveurs HP G5 et G7) [SPEC (2010, 12

13 2 Équipements de serveurs il faut tenir compte pour une configuration matérielle efficace. Le Tableau 2.3 fournit une indication approximative des exigences de performance pour différentes charges de travail Efficacité de l alimentation électrique Le label Energy Star pour serveurs [1] définit des critères d efficacité de l alimentation électrique pour des charges de 10, 20, 50 et 100 %. La certification 80 PLUS possède ses propres critères d efficacité pour l alimentation des serveurs, mais pas à une charge de 10 %. En pratique et dans la perspective d un achat, il est recommandé de privilégier une alimentation remplissant au moins le niveau 80 PLUS «Or», qui correspond à une efficacité de 88 % à 20 % de charge et 92 % à 50 %. Les serveurs racks standards qui fonctionnent couramment à faible charge sont souvent équipés d une alimentation électrique redondante et surprovisionnée. Ceci entraîne une perte d énergie Tab. 2.3 Critères de performance de différentes applications serveur [5] Catégorie CPU RAM Disques durs Fichiers/impression Messagerie Virtualisation Web Base de données Application Terminal substantielle due au point d opération très bas de l équipement. Optimiser l alimentation électrique est donc un point essentiel. C est ce que permettent notamment les outils de configuration d énergie en ligne proposés par les fabricants et les outils d évaluation du power capping. Certains serveurs (HP ProLiant G6 et G7 par ex.) possèdent des fonctions spécifiques pour pallier E/S les pertes inutiles des alimentations redondantes. Ces matériels proposent un mode d opération permettant de n utiliser qu une seule alimentation en deçà d un seuil de charge prédéfini. La seconde alimentation demeure en mode veille, ce qui permet d avoir une redondance complète en cas de coupure de courant ou de défaillance du circuit. Tab. 2.4 Critères d efficacité pour l alimentation électrique selon le label Energy Star et la certification 80 PLUS [1, 3] Type d alimentation Puissance nominale de sortie Charge 10 % Charge 20 % Charge 50 % Charge 100 % Energy Star 1 Sorties multiples (CA-CC & CC-CC) Toutes puissances N/A 82 % 85 % 82 % Sortie unique (CA-CC & CC-CC) 500 W 70 % 82 % 89 % 85 % > W 75 % 85 % 89 % 85 % > W 80 % 88 % 92 % 88 % Energy Star 2 (en préparation) Sorties multiples (CA-CC & CC-CC) Toutes puissances N/A 85 % 88 % 85 % Sortie unique (CA-CC & CC-CC) Toutes puissances 80 % 88 % 92 % 88 % 80 PLUS Bronze Toutes puissances N/A 81 % 85 % 81 % Argent Toutes puissances N/A 85 % 89 % 85 % Or Toutes puissances N/A 88 % 92 % 88 % Platine Toutes puissances N/A 90 % 94 % 91 % 13

14 2.2 Gestion de l alimentation au niveau du rack et du datacentre Au-delà des composants matériels et des unités de serveur, la gestion de l énergie au niveau du système est un autre élément important pour optimiser l efficacité globale. Comme expliqué précédemment, la majorité des serveurs restent utilisés à un niveau de charge modeste. Il existe donc un important potentiel d économie d énergie par la consolidation matérielle (voir chapitre suivant) ou la gestion de l énergie au niveau du système. Comme pour le niveau composant, il s agit d ajuster la performance et la consommation en fonction de la demande en temps réel et de couper ou brider les ressources non utilisées. Le Tableau 2.5 résume les diverses approches de la gestion de l énergie à différents niveaux [7]. Certaines de ces options sont traitées dans les pages suivantes Gestion de la capacité et de l énergie Les logiciels de gestion de serveur fournissent des outils essentiels pour sécuriser les opérations mais aussi gérer l énergie de façon globale. Ces outils peuvent contribuer efficacement à réduire la consommation en facilitant la mise en œuvre de principes d économie à tous les niveaux du système et en fournissant des fonctions capables de favoriser fortement l efficacité. Ces principales fonctions sont : Provisionnement Monitoring Déploiement Gestion de configuration Contrôle des mises à jour Gestion de l énergie Gestion de la charge Les principaux fournisseurs proposent tous des outils puissants de gestion de serveur. Les solutions IBM (Systems Director) et HP (Systems Insight Manager avec Insight Dynamics) sont particulièrement complètes puisqu elles sont capables d intégrer les systèmes de parties tierces. Fujitsu (Server View Site) propose des produits aux fonctionnalités de base pouvant être intégrés dans les consoles d autres fabricants. Dell fait appel à la suite Altiris Total Management. Sun et Acer fournissent des consoles pour leurs propres environnements. Suites de gestion de l énergie (par ex. IBM Energy Manager) Ce type d outil permet, entre autres, le suivi et la collecte de données de consommation, la gestion de l énergie (configuration d options d économie d énergie et power caps) et l automation de certaines tâches liées à l énergie : configuration d appareils de mesure tels que PDU et capteurs, définition de seuils, création et configuration de principes, calcul des coûts, etc. Pour en savoir plus sur les suites de gestion de l énergie, voir plus bas. Tab Options de gestion de l énergie du niveau composant au niveau datacentre [7] Niveau composant Niveau système Niveau rack Niveau datacentre Processeur (package/core C-states, S-states P-states, T-states, étrangleur Gestion de l énergie sur plateforme thermique) Planificateurs de charge de travail Autres composants (D-states, L- Contrôle de vitesse des ventilateurs states) Gestion système ou nœud Équilibrage application/charge Gestion de châssis Équilibrage application/charge Suivis de sites et d équipements Déduplication des données, etc.. Gestion multi-racks, consolidation dynamique 14

15 2 Équipements de serveurs Outils de gestion de la capacité (e.g. HP Capacity Planner) Les outils de gestion de la capacité sont utilisés, entre autres, pour accroître l utilisation des serveurs, réduire la consommation d énergie et améliorer les performances des applications. Ils permettent de recueillir des données d utilisation pour les cœurs de processeur, la mémoire, le réseau, les E/S disque et l énergie. Ils permettent par ailleurs la planification des charges ou les modifications du système et l évaluation de l impact sur l utilisation des ressources. Ils évaluent enfin les tendances pour prévoir l évolution des besoins. Pour en savoir plus sur les outils de gestion de la capacité, voir plus bas. L outil HP, par ex., fait appel aux journaux d utilisation pour apporter une aide à la décision en évaluant la demande en ressources des applications candidates à la consolidation. La Figure 2.3 montre un exemple de comparaison d utilisation de deux systèmes. On voit que les pics de performance interviennent à des moments différents : une consolidation matérielle ne provoquerait donc qu un accroissement modeste de la charge moyenne. 3,0 2,5 Nombre de coeurs 2,0 1,5 1,0 Pic d utilisation du système Pic d utilisation du système 1 2 0,5 0,0 21 fév. 28 fév. 6 mars Temps 13 mars Système 1 Système 2 Allocation Fig. 2.3 Comparaison de l utilisation du CPU de deux systèmes (voir HP Capacity Planner) 15

16 2.2.2 Power capping Le terme power capping désigne l allocation active d un budget énergie à un serveur. Les gestionnaires informatiques peuvent définir un power cap pour leurs serveurs en fonction des besoins réels. Le dynamic power capping réduit la demande maximum du système et optimise ainsi le provisionnement au-delà du niveau généralement supporté par les configurateurs des fabricants. Les économies réalisées en pratique dépendent de la valeur du cap. Celui-ci doit être fixé de façon à limiter les pics d alimentation mais sans affecter de façon perceptible les performances de calcul RECOMMANDATIONS DE BONNES PRATIQUES Planification et gestion d un datacentre efficace du système. Un capping optimisé exige donc une évaluation des tendances de la charge et de la consommation. Pour les charges relativement uniformes, le cap pourra être fixé au niveau moyen sans affecter sensiblement la performance. D une façon générale, le cap ne doit jamais être situé en deçà de la valeur médiane entre plancher et plafond de consommation du serveur. Certains outils de gestion permettent un capping dynamique en définissant différentes valeurs sur différentes périodes, en fonction de la charge, du coût de l énergie, etc. Utiliser les outils de gestion de serveur pour la planification de la capacité, le suivi de la charge et de la puissance et la gestion spécifique de l énergie. Un descriptif détaillé et des recommandations sur l utilisation de la fonction gestion de l énergie sont fournis avec la documentation technique des suites de gestion de serveur. Équilibrer les applications et les charges pour optimiser l utilisation des ressources matérielles. Utiliser le power capping pour maintenir la demande au niveau souhaité sur l ensemble du système. Profiter des niveaux de résilience optimisés des matériels. Évaluer le niveau réellement justifié au vu de l impact prévu des incidents de service sur l activité pour chaque service déployé. Désaffecter les services et supprimer entièrement les matériels non utilisés. Évaluer la possibilité de désaffecter des services à faible valeur pour l activité en identifiant ceux pour lesquels le coût financier et environnemental n est pas justifié. 2.3 Options de gestion de l énergie spécifiques pour serveurs lames La technologie des serveurs lames est déployée à la fois dans les datacentres et les salles serveurs. Ce segment du marché est celui qui connaît la croissance la plus rapide de ces dernières années. Il est donc important de rendre cette technologie aussi efficace que possible. Les châssis à lames (voir Figure 2.4.) rassemblent généralement 7, 14 (ou plus) modules de serveurs lames, au moins un module de gestion ainsi que des interfaces KVM. Ils supportent des modules serveur, stockage et réseau et peuvent être optimisés pour des applications et types d utilisateur spécifiques. Par rapport aux serveurs racks standard, cette technologie permet de réduire certains composants matériels comme l alimentation électrique, les E/S réseau et la câblerie, qui sont partagés par plusieurs serveurs dans un coffret commun. Les principaux avantages de ces systèmes sont les suivants : Forte densité de calcul et faible encombrement ; Réduction du temps de maintenance et de mise à niveau grâce au remplacement à chaud des modules et aux fonctions de gestion intégrées ; Efficacité énergétique légèrement supérieure à celle des racks si la gestion de l énergie et le refroidissement sont optimisés. Fig. 2.4 Châssis à lames Fig. 2.5 Serveur lame à deux nœuds 16

17 2 Équipements de serveurs L utilisation de fortes densités de lames entraîne toutefois une demande élevée en infrastructure et refroidissement. Une forte densité de calcul accroît la puissance jusqu à kw/rack. Les solutions de refroidissement standard des datacentres et salles serveurs sont donc souvent insuffisantes et il faut mettre en place une solution de refroidissement spécifique. L efficacité énergétique d un serveur lame est donc fortement dépendante de la conception d ensemble du système. Les concepts à deux nœuds ou multi-nœuds reposent en partie sur la même philosophie. Le modèle multi-nœuds consiste à combiner un nombre fixe d unités de serveur (souvent 2 ou 4) sur un châssis unique monté en rack. À l instar des lames, ces serveurs partagent l alimentation et les ventilateurs, mais leur capacité d expansion est limitée. fig 3.7 Cette technologie permet de mettre en œuvre de hautes densités de calcul à un coût relativement réduit et correspond souvent aux besoins des petites et moyennes entreprises. Il existe toutefois des serveurs à deux nœuds hautes performances disponibles par exemple pour les systèmes à lames et qui combinent deux nœuds sur une seule lame. Les principaux avantages des systèmes à plusieurs nœuds standards sont les suivants : Coût et encombrement inférieurs à ceux d un serveur rack standard ; Consommation d énergie légèrement inférieure du fait du partage de l alimentation et des ventilateurs Châssis et composants des serveurs lames Les alimentations de grande taille sont souvent plus efficaces : le nombre réduit d alimentations dans les systèmes à lames peut donc accroître l efficacité énergétique par rapport aux serveurs racks. Dans la pratique, toutefois, l efficacité dépend aussi du rapport entre demande et capacité d alimentation. La Figure 2.6 représente la courbe d efficacité d une alimentation labellisée Platine [80plus 2011] d une puissance nominale de 2990 W pour un châssis à lame : les valeurs sont comprises entre 92 et 95 % en fonction de la charge. Pour être efficace, l alimentation des serveurs lames doit dépasser 90 % d efficacité entre 20 % et 100 % de charge. Efficiency (%) 100% 90% 80% 70% 60% 50% 40% 30% Sur les serveurs lames et multi-nœuds de dernière génération, certains fabricants fournissent plusieurs modèles d alimentation de puissance nominale différente, permettant de s adapter à la demande réelle. Des configurateurs en ligne proposés par les fabricants fournissent une aide à la sélection. Des alimentations moins nombreuses et plus efficaces, des ventilateurs plus efficaces et des options avancées de gestion de l énergie dans le châssis à lames permettent en théorie d accroître l efficacité énergétique globale par rapport aux serveurs racks standard. Dans la pratique, l effica- Efficiency of the Power Supply RECOMMANDATIONS DE BONNES PRATIQUES Sélectionner la technologie à lame sur des critères précis Définir et évaluer les principales raisons pour la mise en œuvre de la technologie à lame dans le datacentre (contrainte d espace par ex.). Évaluer les avantages escomptés par rapport à la technologie rack et vérifier le caractère réaliste des attentes. Vérifier si la virtualisation peut être une solution alternative au regard des objectifs définis. Évaluer le coût total de possession (TCO) et l efficacité énergétique par rapport à d autres options (d après les données fournisseurs). 0% 25% 50% 75% 100% 125% Loading (% of Rated Output Power) Fig. 2.6 Efficacité de l alimentation d un serveur lame [3] 17

18 Serveur lame Dell M610 Serveur rack R610 1U Target Load Performance to Power Ratio Performance to Power Ratio 0 1,000 2,000 3,000 4, ,000 2,000 3,000 4,000 3,093 overall ssj_ops/watt 2,938 overall ssj_ops/watt 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% Active Idle 3,885 3,911 3,873 3,733 3,502 3,158 2,754 2,255 1, % 90% 80% 70% 60% 50% 40% 30% 20% 10% Active Idle 3,739 3,725 3,697 3,572 3,337 2,999 2,623 2,125 1, ,000 2,000 3,000 4, Average Active Power (W) Average Active Power (W) Target Load Fig. 2.7 Comparaison SPECpower_ssj2008 entre un serveur lame (Dell M610) et un serveur rack (R610 1U). Système à 16 lames avec configuration du processeur identique à celle du serveur rack (2 x Intel Xeon 5670, 2.93GHz). SPEC (2010, cité dépend toutefois aussi de la configuration du châssis et de l utilisation des options de gestion de l énergie. Un châssis comportant un petit nombre de lames sera évidemment moins efficace, du fait du sur-provisionnement de ses capacités de refroidissement, d alimentation et de réseau. Pour une comparaison approximative de l efficacité entre serveurs lames et racks, on peut prendre l exemple d un système à lames entièrement configuré. La Figure 2.7 reprend les données publiées par Dell pour le diagramme SPECpower (SPECpower_ssj2008) de systèmes à lames et de serveurs racks comparables. À 100 % de charge, la performance maximale est de 3885 ops/watt pour le système à lames et 3739 ops/watt pour le serveur rack, soit une différence de 4 % en faveur du premier. Cet écart de performance par watt ou d efficacité énergétique atteint environ 8 % dans les basses charges (10 %) et 11 % en mode repos. Si cette simple comparaison ne doit pas être surinterprétée (SPECpower n évalue qu une partie de l efficacité des serveurs), elle suggère toutefois que les systèmes à lames, même entièrement configurés et optimisés pour un test, ne présentent sur les serveurs racks standard qu un avantage marginal en terme d efficacité énergétique, surtout à fort niveau de charge. L écart est plus significatif à basse charge, ce qui indique une meilleure gestion globale de l énergie dans ces conditions. Les solutions à lames semblent donc ne présenter qu un potentiel limité d amélioration de l efficacité énergétique, comparées notamment à la virtualisation. Comme avec les serveurs racks, il est possible de combiner les deux approches pour renforcer l amélioration de l efficacité énergétique. Les problèmes posés par les fortes densités de chaleur au niveau du rack et des rangées sont traités ci-après (2.3.2). Les châssis lames modernes contiennent des matériels et logiciels de gestion qui, associés à des contrôleurs d accès distant au niveau des lames, permettent un inventaire et une gestion de l alimentation des différentes lames. Des cartes de gestion spécifiques permettent un inventaire des matériels et de la demande en alimentation. Le contrôleur d accès distant transmet les informations de budget énergétique à la carte de gestion du châssis (CMC), laquelle confirme la disponibilité de l alimentation au niveau du système à partir de l inventaire total du châssis. La CMC peut définir des principes au niveau du système et la 18

19 2 Équipements de serveurs RECOMMANDATIONS DE BONNES PRATIQUES Critères à prendre en compte pour l achat d un serveur lame efficace consommation en temps réel de chaque module est suivie de façon à ne pas excéder la valeur allouée. Les fonctions de base de la gestion d énergie en mode automatique restent généralement invisibles pour l administrateur système. Mais les priorités de chaque module peuvent aussi être configurées manuellement : on pourra par exemple désigner les lames prioritaires pour passer en mode économie. Sur un châssis à lames, le dynamic power capping peut être utilisé de façon encore plus efficace que sur un serveur rack standard, sachant que le power cap peut être spécifié pour de multiples serveurs. Celui-ci peut être ajusté de façon dynamique par le module onboard administrator et le processeur de service. Les lames opérant à charge réduite recevront ainsi un cap moins élevé. L intensité de la charge et son évolution variant généralement d une lame à l autre, les pics de consommation peuvent se produire à des moments différents. Le cap global du châssis pourra donc être fixé à un niveau plus bas que la somme des caps des lames pris séparément. HP a calculé l économie d énergie et la réduction du TCO pour un centre à lames dont l alimentation reposait sur le power capping : le coût d alimentation maximum et de provisionnement baissait d environ 20 % par rapport à un design sans power capping [HP2011]. Définir les charges de travail et les niveaux prévus pour les systèmes à lames. Comparer la rentabilité et l efficacité énergétique entre fabricants. Exiger du fournisseur une information produit sur : Le coût total de possession (TCO) ; L efficacité énergétique globale (par ex. SPECpower_ssj2008, SPEC-SERT dès sa sortie) ; Les composants matériels efficaces (efficacité et optimisation de l alimentation) ; Les outils de gestion, surtout pour l énergie et l optimisation de la conception du système. Sélectionner l équipement présentant la plus haute efficacité énergétique pour le type et le niveau de charge prévus et les bonnes options de gestion de l énergie Problèmes d alimentation et de refroidissement On a souvent tendance à sous-estimer le défi posé par la conception d un système de serveurs lames, surtout en cas de forte densité. Les principales difficultés sont : Conception et capacité du refroidissement pour faire face aux fortes densités de chaleur ; Capacité et distribution de l alimentation (capacité du PDU local, câblerie, etc.). Les systèmes de refroidissements traditionnels sont conçus pour une puissance de 2-3 kw/rack, soit dix fois moins que la puissance d un rack de lames entièrement peuplé. Le refroidissement standard des datacentres et salles serveurs est donc souvent insuffisant pour les grands systèmes à lames et doit être modifié dans sa conception même. RECOMMANDATIONS DE BONNES PRATIQUES Utiliser les outils de gestion pour optimiser l efficacité des systèmes lames Utiliser les outils de gestion et les équipements réseau et alimentation intelligents pour effectuer un suivi de la consommation énergétique et de la charge de travail. Analyser les options pour équilibrer et gérer les charges et la consommation au niveau des châssis et des racks. Utiliser les fonctions de capping et d équilibrage de l énergie du châssis. Utiliser les outils de calcul fournis par les fabricants pour estimer approximativement la demande en énergie/capacité de refroidissement. Évaluer la demande réelle en énergie à l aide des outils de gestion disponibles pour un cycle d utilisation complet et définir des caps en fonction des pics de charge. Ajuster l alimentation et le refroidissement en fonction de ces caps. 19

20 Le Tableau 2.6 récapitule les options traditionnelles de conception pour différentes densités en fonction des exigences et contraintes de l activité telles qu infrastructures et capacités de refroidissement. Selon le niveau de densité de lames, on pourra envisager les options suivantes pour la conception du refroidissement [Rasmussen 2010] : Répartir la charge thermique des châssis à lames vers les différents racks : cette méthode n est possible que si les châssis à lames ne représentent qu une très faible partie du système global. Dédier la capacité de refroidissement : la capacité en excédent est affectée spécifiquement aux lames. Cette méthode n est possible qu avec un pourcentage de lames relativement bas, sachant qu on n utilise que la capacité de refroidissement existante. Installer un refroidissement supplémentaire pour les racks de lames. La densité de puissance par rack peut atteindre 10 kw. Cette technique permet d optimiser l espace au sol et l efficacité. Délimiter/concevoir une zone à forte densité (jusqu à 25 kw) au sein du datacentre. Cette technique permet d optimiser l efficacité et l utilisation de l espace. Concevoir un centre à forte densité (entièrement composé de racks de lames à forte densité). Cette solution extrême, plutôt rare, entraîne dans la plupart des cas des coûts substantiels et une forte sous-utilisation des infrastructures. Les datacentres existants présentent souvent certains obstacles au déploiement de la technologie lame du fait de leurs infrastructures. Un système à faux plancher standard peut par exemple ne pas permettre de densité de puissance supérieure à 5 kw par rack. Une bonne spécification de la densité électrique et thermique est donc une condition majeure à la conception de systèmes efficaces en termes d énergie, d espace et de coûts. Un point essentiel de l efficacité énergétique au niveau du système est d éviter le sur-provisionnement des infrastructures et du refroidissement. La spécification de la densité doit tenir compte de la variabilité dans l espace (différentes densités électriques locales dans les datacentres pour les racks de lames et les racks standard) et le temps (risque d augmentation à terme). La densité électrique doit donc être spécifiée au niveau du rack ou de la rangée. Pour les systèmes de grande taille, la rangée convient mieux, sachant que le refroidissement et la distribution électrique se font généralement à ce niveau. Dans la mesure du possible, il est recommandé de définir les spécifications pour chaque rack/rangée et de les laisser inchangées pendant les périodes d opération. La mise en œuvre d une nouvelle technologie avec des niveaux de densité différents doit donc se faire sur un rack ou une rangée nouveau/elle. Certaines solutions alternatives permettent toutefois de faire varier la densité sur un rack ou une rangée installé(e) : Ajout à chaud de modules onduleurs ; Utilisation de PDU remplaçables à chaud ; Ajout de capacité de refroidissement avec appareils montés en rack. Tab. 2.6 Configuration des systèmes à lames au niveau du rack et exigences liées pour le refroidissement [d après Rasmussen 2010] Nombre de châssis/racks Répartition de la charge entre racks Affectation d un refroidissement dédié Refroidissement supplémentaire Zone à forte densité Centre à forte densité 1 Possible dans la plupart Possible dans la plupart Possible dans la plupart Non rentable Non rentable des DC des DC des DC 2 Peu pratique dans la Possible dans la plupart Possible dans la plupart Non rentable Non rentable plupart des cas des DC des DC 3 Impossible Possible dans la plupart Possible dans la plupart Maximum pour les Non rentable des DC des DC selon solution retenue systèmes à faux plancher à efficacité optimisée 4 Impossible Peu pratique dans la Selon solution retenue Systèmes à balayage d air Balayage d air chaud, plupart des cas chaud réagencement des locaux 5 Impossible Impossible Impossible Systèmes à balayage d air Balayage d air chaud, chaud réagencement des locaux 6 Impossible Impossible Impossible Extrêmement coûteux Extrêmement coûteux 20

21 2 Équipements de serveurs Pour définir la densité d une rangée, il est recommandé de fixer le ratio pic/moyenne de puissance à un maximum de 2 dans les configurations standard. Si un rack donné dépasse le double de la moyenne, les charges devront être redistribuées au sein de sa rangée ou vers d autres rangées. D une façon générale, il est évidemment judicieux de disperser les racks à plus forte densité dans une rangée donnée. On pourra faire appel aux systèmes de gestion de l énergie et du refroidissement pour définir des règles de déploiement des capacités installées, par exemple permettre à un rack de dépasser la puissance moyenne uniquement si la demande du rack voisin est nettement inférieure à la moyenne. L un des principaux défis est de savoir comment faire face aux évolutions futures et aux besoins d expansion. Il n est évidemment pas recommandé de déployer une infrastructure couvrant d emblée la capacité future, ce qui entraînerait une surcapacité et des coûts élevés sur une longue période. Il est généralement préférable de poser tout le câblage destiné aux futures expansions de capacité, mais de n installer les équipements d alimentation et de refroidissement qu à mesure de l apparition des besoins. 2.4 Virtualisation des serveurs La virtualisation des serveurs présente un important potentiel d économie d énergie. Cette technologie permet de consolider les charges sur un matériel physiquement réduit et donc de réduire fortement la demande en électricité et refroidissement. D une façon générale, la virtualisation présente plusieurs avantages pour la conception efficace de systèmes informatiques dans les datacentres et salles serveurs, notamment l optimisation des tests et du développement (provisionnement rapide des serveurs par la réutilisation de systèmes préconfigurés, favorisant la collaboration des développeurs et la standardisation des environnements), la réduction de l encombrement grâce au déploiement de machines virtuelles opérant de façon sécurisée sur des matériels mutualisés (utilisation des serveurs accrue de 5-15 % à %) et la réduction du coût et de la complexité de la continuité de l activité (haute disponibilité et solutions de reprise après sinistre) en encapsulant des systèmes entiers dans des fichiers uniques pouvant être répliqués et restaurés sur n importe quel serveur cible. Les plateformes de virtualisation telles que VM- Ware, Microsoft Hyper-V et Citrix XEN offrent de nombreuses fonctions : haute disponibilité, basculement, réallocation automatique (DRS), équilibrage de charge, sauvegarde automatique, gestion de l énergie (DPM), VMotion serveur, stockage et réseau, etc. Les options de base de la virtualisation de serveurs sont : Création de partitions physiques ; Virtualisation basée sur un système d exploitation hôte ; Virtualisation des applications (par ex. Microsoft Termi nalserver, Citrix XenApp) ; Virtualisation par hyperviseur : VMware ESX Citrix /Open-Source: XENServer 5 Microsoft Hyper-V Le marché étant dominé par un petit nombre de produits, le chapitre suivant traite des plateformes de virtualisation de type hyperviseur : VMware ESX/ESXi/Vsphere4, Microsoft Hyper-V et Citrix XEN. Leaders sur le marché, ces plateformes supportent la plupart des systèmes d exploitation hôtes les plus répandus. Elles fournissent des consoles de gestion pour l administration d environnements de serveurs de petite taille ainsi que l administration au niveau du datacentre. Premier produit lancé sur le marché en 2001, VMware possède une architecture adaptée aux systèmes d exploitation et processeurs pré-virtualisation tels que Intel VT et AMD-V. VMware ESX/ VSphere4 possède de puissants outils d administration (VMotion - migration à chaud de machines virtuelles entre serveurs et migration du stockage, sur-provisionnement du stockage, virtualisation bureau et réseau, technologie de sécurité virtuelle) et constitue une plateforme de virtualisation complète du bureau jusqu au cloud computing en passant par le datacentre. La solution Microsoft Hyper-V Server repose sur l hyperviseur de Windows Server. Elle permet un faible encombrement et un minimum d overhead et se connecte aux environnements existants pour tirer parti des outils et process déjà en place pour le provisionnement, la gestion, l administration de correctifs et le support. Parmi les principales fonctions de Microsoft Hyper-V Server 2008 R2, on peut citer la migration à chaud, le support des volumes partagés de cluster et la montée en charge (processeurs et mémoire) sur le système hôte. La migration à chaud, intégrée à Windows Server 2008 R2 Hyper-V, permet de migrer des machines virtuelles sans interruption de service. En fonction des attentes de l utilisateur, Citrix XENServer peut constituer une solution de virtualisation rentable puisque ses éléments de base 21

22 (hyperviseur nu, architecture distribuée et résiliente, gestion XENServer et outils de conversion) sont gratuits. Les fonctions avancées de gestion et d automation telles que provisionnement virtuel, distributed virtual switching, migration à chaud instantanée, snapshots, récupération, rapports de performance et répartition de charge dynamique font que la solution XENServer est comparable aux deux autres produits dans sa version payante. BMC Software, Eucalyptus Systems, HP, IBM, Intel, RedHat, Inc. et SUSE ont annoncé la formation de l Open Virtualization Alliance, qui vise à favoriser l adoption de technologies de virtualisation open source, surtout la Kernel-based Virtual Machine fig 3.9 (KVM). Ce consortium s ajoute aux groupes gérant le développement de l hyperviseur KVM et autres capacités associées de gestion, à l origine de nombreuses innovations technologiques pour les clients virtualisant des applications sous Linux ou Windows. Il prévoit d accélérer l expansion de solutions de tierces parties autour de la KVM et de fournir un avis technique ainsi que des exemples de bonnes pratiques Potentiel d économies d énergie de la virtualisation La virtualisation est l une des technologies les plus puissantes pour réduire la demande en énergie dans les datacentres et salles serveurs. La consolidation des matériels, en concentrant la charge de travail sur un nombre réduit de serveurs physiques, permet souvent d économiser 40 à 80 % d énergie, voire plus. La technologie actuelle offre la possibilité de mettre en œuvre une virtualisation avec un facteur de consolidation d au moins 10-20, en fonction des systèmes et des exigences spécifiques. La Figure 2.8 montre un exemple de consolidation de serveurs par virtualisation au ministère allemand de l Environnement. Ces mesures spécifiques ont permis d économiser environ 68 % d énergie, avec une réduction des matériels à deux serveurs physiques sous VMware ESX [4]. Power [Watt] Access Control Intranet Help Desk IT Controlling VMware1 SAN-Enclosure File Server MS SQL SPS SMS Root DC Office DC Office DC Un autre exemple de virtualisation par IBM [5] avec serveurs lames montre que les économies d énergie pourraient dépasser 90 % si toutes les mesures appropriées étaient envisagées au niveau du matériel et de l infrastructure. Ces exemples montrent bien que la consolidation par virtualisation est l une des principales options pour améliorer sensiblement l efficacité énergétique des datacentres. Toutefois, comme dans les autres approches purement informatiques, le potentiel d économie ne peut être pleinement atteint que s il s accompagne de mesures parallèles sur l infrastructure, notamment l alimentation et le refroidissement. Inventory Server Software Packaging Logging Server Certificate Server VMware2 Help Line Novatime System Monitoring Terminal Server CMF Old Exchange Exchange Exchange FE Conference Proxy 4 Rack Monitor 4 Rack Fan & KVM New FC Switch IT NSeries NSeries Storage NSeries Controler ESX1 Server Fig. 2.8 Réduction de la demande d énergie par virtualisation : étude de cas [4] 22

23 2 Équipements de serveurs Exigences et outils de planification de la virtualisation La stratégie de virtualisation des datacentres doit passer par une évaluation et une identification des serveurs candidats appropriés. Pour ce faire, on recueillera des données sur la performance, l utilisation du système, les chronologies de fin de service, le domaine d activité et les spécifications de l application. Une fois identifiés les candidats à la virtualisation, on analysera les spécifications de l application et la charge de la machine. L évaluation de la performance se fera entre autres autour des paramètres suivants, critères de sélection des matériels : Performance du processeur ; Mémoire nécessaire ; Intensité E/S disque ; Exigences réseau ; Configuration du système d exploitation. Il est généralement possible de consolider plusieurs applications sur un même serveur physique, lequel est protégé des défaillances matérielles et coupures de courant tout en possédant la capacité d équilibrer les charges. Pour atteindre cet objectif, les serveurs hôtes pourront avoir une double alimentation, des disques durs miroirs et des cartes réseaux groupées. On pourra utiliser un réseau de stockage SAN avec tolérance aux pannes. La répartition de la charge pourra enfin être étayée par la migration de machines virtuelles entre serveurs physiques. En fonction du type de charges, on pourra envisager un ratio de consolidation compris entre 10:1 et 20:1. De nombreux environnements de virtualisation proposent une fonction de sur-provisionnement de mémoire : la mémoire affectée à l ensemble des machines virtuelles peut alors excéder la mémoire physique disponible d un facteur de 2 à 3. La virtualisation répond rarement à un simple souci d économie d énergie. Si une forte économie est en principe garantie, la réussite d un projet de virtualisation exige généralement une planification approfondie, avec un calcul du retour sur investissement (ROI) et du coût total de possession (TCO). Le TCO d un nouveau serveur virtuel se calcule en additionnant les facteurs de coûts. On pourra calculer un ROI à court et long termes pour évaluer le coût dans le temps. Pour bien estimer le ROI, il est essentiel de comprendre les coûts de virtualisation. Certains frais sont évidents, comme le matériel, les logiciels (et leur licence) ou la main-d œuvre. Mais la virtualisation peut aussi imposer l achat de nouveaux serveurs plus puissants et la mise à niveau du stockage, du réseau, de la sécurité, etc., sans oublier les coûts de formation et de gestion : autant de facteurs à prendre en compte dans le calcul du ROI. Plusieurs outils logiciels disponibles sur le marché permettent de planifier un projet de virtualisation et d en évaluer le ROI et le TCO. L outil Microsoft Assessment and Planning (MAP), par exemple, permet de planifier la migration. Il inventorie et évalue différents environnements informatiques pour la migration et la virtualisation sur diverses plateformes sans recourir à un logiciel agent. Les rapports qu il génère fournissent des recommandations spécifiques sur la mise à niveau pour la migration vers Windows Vista et Windows Server 2008 ainsi que pour la virtualisation. MAP fournit aussi des recommandations sur la façon de conso- Fig. 2.9 Exemple de calculateur de ROI/TCO par VMWare [6] 23

24 lider des serveurs physiques dans un environnement virtualisé avec Microsoft Hyper-V. Le calculateur ROI permet enfin d estimer les économies d énergie potentielles avec Hyper-V en amont de son déploiement. L outil permet d examiner les serveurs de production et de développement existants et les possibilités de virtualisation du bureau et des applications en quantifiant les économies potentielles, les avantages en termes de niveau de service, l investissement et le ROI. La méthodologie TCO/ROI proposée par VMware (disponible en tant qu outil en ligne) permet de comparer les économies de TCO, les investissements nécessaires et les avantages pour l activité des solutions de virtualisation. Elle repose sur des techniques financières standard, les données terrain et clients de VMware et les données sur les utilisateurs. Ces dernières permettent de calculer des chiffres clés tels qu économies, investissements, ROI, valeur actualisée nette, TCO et périodes d amortissement. Si ces données font défaut, les statistiques de la branche pourront être utilisées comme base de calcul Gestion de l énergie dans les environnements virtualisés : migration vers un serveur virtuel Les logiciels de virtualisation actuels supportent la migration de machines virtuelles et la mise hors service provisoire des hôtes pour réduire la demande en énergie. C est le cas par exemple de VMware Vsphere4, dont la fonction distributed power management (DPM) surveille l utilisation des ressources des machines virtuelles opérant au sein du cluster. En cas de capacité excédentaire, certaines de ces machines sont réparties de façon à pouvoir placer certains hôtes en mode veille et ainsi économiser de l énergie. Si la capacité devient insuffisante, ces hôtes sont rebasculés en mode actif. La gestion d énergie peut se faire en mode automatique (migration des machines virtuelles et mise en veille/sortie de veille des hôtes) ou manuel. On peut donc passer outre la configuration automatique pour chaque hôte et activer la gestion d énergie sous forme de tâche planifiée. L objectif de la fonction DPM de VMware est de maintenir l utilisation des hôtes ESX du cluster dans une fourchette cible. Mais pour réduire efficacement la consommation, la gestion de l énergie doit remplir les critères suivants : Évaluer précisément la demande en ressource. Une surestimation peut entraver les économies d énergie tandis qu une sous-estimation peut se traduire par une baisse des performances, voire une violation des accords de niveau de service ; Éviter de mettre en/hors tension les serveurs trop souvent, même en cas de fortes variations de la charge ; Réagir rapidement à un accroissement soudain de la demande de façon à réduire la consommation sans sacrifier la performance ; Bien sélectionner les hôtes à mettre en/hors tension. Déconnecter un hôte hébergeant un grand nombre de machines virtuelles peut entraîner une violation de la fourchette d utilisation d un ou plusieurs hôtes de plus petite taille. Redistribuer intelligemment les machines virtuelles en tirant parti de la planification des ressources distribuées (DRS). RECOMMANDATIONS DE BONNES PRATIQUES Bien évaluer et sélectionner sa solution de virtualisation : Élaborer une stratégie et évaluer les serveurs pour sélectionner les bons candidats à la virtualisation. Évaluer les exigences en termes de performance CPU, mémoire, intensité E/S disque, réseau et configuration du système d exploitation. Considérer le ratio de virtualisation approprié (de 1:6 à 1:20 en fonction des caractéristiques de la charge de travail). Comparer les fonctionnalités des produits de différents fournisseurs en tenant compte des questions de licence, de gestion de l énergie et du prix. Les principaux produits sur le marché ont chacun leurs points forts en fonction des besoins spécifiques en termes d application. Calculer le TCO et le ROI pour déterminer les avantages de la réduction du coût d alimentation et du refroidissement. Les modèles fournis par les fabricants devront être affinés en fonction des besoins spécifiques de votre structure. Étudier les options de gestion de l énergie permettant la migration des machines virtuelles et la mise hors service temporaire des serveurs. Envisager l évolution du refroidissement et de l alimentation (demande réduite et variant de façon dynamique) et vérifier la possibilité de revoir la conception du refroidissement. 24

25 2 Équipements de serveurs La façon traditionnelle d utiliser la DPM est de mettre en/hors service des hôtes ESX en fonction d un schéma d utilisation sur une journée ou une semaine. Des services tels que messagerie, fax, intranet et interrogations de la base de données sont par exemple davantage utilisés pendant les heures de bureau. Le niveau d utilisation peut chuter considérablement en dehors de ces plages horaires et la plupart des serveurs se trouvent ainsi sous-exploités. Ils peuvent alors être affectés à des tâches de sauvegarde, archivage, répondre aux requêtes de pays étrangers, etc. La consolidation des machines virtuelles et la mise hors service des hôtes superflus permettent de réduire la consommation d énergie. On distingue deux grandes approches pour ajuster manuellement l activité de la DPM : Augmenter le ratio demande/capacité ciblé : pour économiser l énergie en augmentant l utilisation de l hôte (en consolidant un plus grand nombre de machines virtuelles sur un nombre réduit d hôtes), la valeur par défaut pourra être augmentée (par ex. de 63 à 70 %). Utiliser VMware DPM pour forcer la mise en service de tous les hôtes avant 9 h, puis mettre certains hôtes hors service après 17 h, par ex. Cette approche plus proactive évitera l impact sur la performance que peut avoir le fait d attendre que VMware DPM mette en service des hôtes en réponse à un pic soudain dans la demande. L utilisation des ressources de chaque hôte ESX est calculée sous la forme demande/capacité pour chaque ressource (CPU et mémoire). La demande est la somme des ressources requises par les machines virtuelles en opération et la capacité, la somme des ressources disponibles sur l hôte. La gestion de l énergie des hôtes s exécute donc en fonction de l utilisation des ressources CPU et mémoire par rapport à la gamme d utilisation définie. Pour chaque hôte évalué, la DPM compare le coût d une mise hors service en tenant compte des risques estimés avec les économies d énergie pouvant raisonnablement être attendues Refroidissement et infrastructures des systèmes virtualisés Si elle réduit sensiblement la consommation totale d énergie, la virtualisation, surtout dans les systèmes de grande taille, peut entraîner un accroissement de la densité énergétique du rack. La gestion de l énergie par migration des machines virtuelles entraîne par ailleurs un déplacement physique de la densité énergétique et thermique, d où une demande localement accrue en alimentation et refroidissement. Des solutions appropriées devront être utilisées pour couvrir cette demande et éviter la formation de zones chaudes. Si la capacité d alimentation et de refroidissement totale n est pas adaptée à la demande minimum, la virtualisation peut détériorer le PUE, en réduisant la charge de refroidissement à un niveau très bas. Il est donc essentiel de bien dimensionner l alimentation et le refroidissement pour tirer parti du potentiel d économie d énergie. Les pertes fixes doivent être réduites avec les mesures suivantes : Réduire la capacité d alimentation et de refroidissement pour s adapter à la charge ; Utiliser des ventilateurs à vitesse variable et pompes à régulateur contrôlés par la demande ; Utiliser des équipements à haute efficacité ; Architecture de refroidissement avec circuits d air raccourcis (par ex. au niveau de la rangée); Utiliser un système de gestion adaptant la capacité à la demande ; Utiliser des panneaux d obturation pour limiter le mélange d air au sein du rack. AVANT APRES APRES Charges constantes > Refroidissement stable Migration des charges haute densité > Besoins imprévisibles Fig Densité thermique avant et après virtualisation [5] 25

26 RECOMMANDATIONS DE BONNES PRATIQUES Gestion efficace de l énergie dans les systèmes virtualisés : Dans un environnement traditionnel avec faux plancher, le refroidissement du local peut être configuré pour cibler les zones de chauffe en ré-agençant les panneaux de sol ventilés. La migration dynamique des serveurs virtuels entraîne toutefois de nouvelles exigences et donc des solutions de refroidissement en temps réel. Pour répondre à ce défi, on peut positionner des unités de refroidissement au sein des rangées et les équiper pour qu elles détectent et répondent aux variations de température. En les plaçant à proximité des serveurs, on réduira la circulation d air entre le refroidissement et la charge. Les variations dynamiques de l alimentation dans les environnements virtualisés sont l une des principales raisons justifiant l adoption d un refroidissement ciblé au niveau de la rangée ou du rack. Mettre en œuvre des principes stricts de mise en place et de gestion des serveurs virtualisés et éviter la prolifération anarchique des serveurs. Utiliser les outils de migration pour mettre hors service certains matériels en période de faible demande. Utiliser d abord la gestion de l énergie en mode automatique, puis développer ses propres configurations en fonction des rythmes d utilisation. Réduire le refroidissement en fonction de la demande et mettre en place des équipements pour un refroidissement local en temps réel si nécessaire. Traiter les changements dynamiques dans l espace. Adapter les process et workflows liés au déploiement de machines virtuelles, à la sauvegarde et restauration de données, à l administration de correctifs, à la disponibilité, etc. Il est essentiel de disposer d informations précises sur la demande en alimentation et refroidissement pour répondre aux variations des profils de charge. La gestion de capacité fournit l instrument pour un suivi et une analyse en temps réel des capacités d alimentation, de refroidissement et d espace physique et permet une utilisation efficiente et efficace d un bout à l autre du datacentre. Elle permet aussi d identifier les zones à capacité disponible ou dangereusement faible. Les systèmes de gestion de capacité doivent être capables de faire face aux problèmes suivants : Changement de densité et de localisation de la charge : la virtualisation peut créer des zones de chauffe, par ex. du fait de la migration des machines virtuelles ; Changements de système dynamiques : il peut être difficile de maintenir la stabilité du système si plusieurs parties procèdent à des changements sans coordination centrale ; Interdépendances : la virtualisation rend plus complexes les dépendances partagées et effets secondaires de la relation entre capacités d alimentation, refroidissement et espace ; Provisionnement d alimentation et de refroidissement : la charge électrique et thermique monte et descend à mesure que de nouvelles machines virtuelles sont créées. On pourra utiliser des systèmes d alimentation et de refroidissement extensibles. 26

27 2 Équipements de serveurs Pour aller plus loin HP (2011) : HP Power capping and HP Dynamic power capping for ProLiant servers. Hewlett Packard Development company. SPEC (2011) : Server Efficiency Rating Tool (SERT) TM Design Document. 3rd draft. Standard Performance Evaluation Cooperation Rasmussen, N. (2010) : Strategies for deploying blade servers in existing data centres. White paper 125. APC Schneider Electric 80 PLUS (2011) : 80 PLUS power supplies. Schäppi B. et al. (2009) : Energy and cost savings by energy efficient servers. IEE E-Server best practice cases. Brochure 2009 IBM (2011) : Server Management suite, Module Active Energy Manager www-03.ibm.com/systems/software/director/aem/ HP (2011) : Server managment suite «Systems Insight Manager» VMware DPM : Information Guide: VMware Distributed Power Management Concepts and Use. VMware TCO : VMware ROI TCO Calculator, Overview and Analysis. Sources [1] EPA (2010) : Energy Star ENERGY STAR Program Requirements for Computer Servers (vers 1.1) [2] SPEC (2010) : SPEC power and performance. Benchmark methodology 2.0. Standard Performance Evaluation Cooperation [3] 80 PLUS (2011) : 80 PLUS power supplies. [4] Schäppi B. et al. (2009) : Energy and cost savings by energy efficient servers. IEE E-Server best practice cases. Brochure 2009 [5] BITKOM (2010) : Bitkom/Beschaffungsamt des Bundesministeriums des Innern, Leitfaden Produktneutrale Leistungsbeschreibung x86-server, 2010 [5] Comtec Power : Overcoming the Challenges of Server Virtualization. [6] VMware TCO : VMware ROI TCO Calculator, Overview and Analysis. [7] The Green Grid (2010) : White paper Nr. 33 A roadmap for the adoption of power-related features in servers, Pflueger, J., et al., The Green Grid,

28 3 Équipements de stockage de données Marcos Dias de Asunção, Laurent Lefèvre, INRIA Si l information est au cœur de toute activité, le stockage et l accès aux données sont devenus un véritable défi pour les entreprises. On estime que les besoins en stockage devraient être multipliés par 44 entre 2010 et 2020 [1] et les stratégies d optimisation de l efficacité énergétique connaissent une demande sans précédent. La chute constante du prix par Mo de stockage fait qu il est devenu plus simple et moins coûteux de se doter de capacités supplémentaires que de chercher des solutions aux doublons et autres formes de stockage superflu. Or le coût de l alimentation et du refroidissement des ressources de stockage est désormais envisagé comme un problème et les inefficacités sont bien moins tolérées. Des études montrent que les grandes entreprises sont actuellement confrontées à un problème de capacité d alimentation et de refroidissement alors que les entreprises de taille moyenne ont du mal à trouver la surface suffisante pour leurs systèmes de stockage [2]. Le stockage des données représentant une part importante de l énergie consommée par les datacentres, il est essentiel d améliorer l efficacité énergétique des systèmes et de choisir les solutions adéquates pour le déploiement d une infrastructure de stockage. Ce chapitre passe en revue quelques technologies favorisant l efficacité énergétique des solutions de stockage de données. Il fournit également des recommandations de bonnes pratiques qui pourront s ajouter auxdites solutions pour améliorer l efficacité de l infrastructure de stockage dans les entreprises et datacentres. Les solutions de stockage telles que les ensembles de disques sont composées d un support offrant une capacité de stockage brute et de composants supplémentaires servant d interface et améliorant la fiabilité d ensemble. On distingue communément deux niveaux auxquels peuvent s appliquer les stratégies d amélioration de leur efficacité énergétique : les «appareils», ou composants individuels formant le stockage brut (lecteurs de bande, disques durs et SSD notamment), et les «éléments», solutions composites tels que produits de stockage en réseau. Nous évoquerons dans un premier temps les solutions s appliquant aux différents appareils avant d analyser la façon dont ces techniques sont utilisées et combinées pour améliorer l efficacité énergétique des éléments. 3.1 Appareils de stockage Systèmes à bandes Les bandes sont souvent considérées comme l un des supports les plus rentables pour le stockage des données à long terme. Plusieurs études [3][4] montrent que : Dans la perspective d un stockage à long terme, comme la sauvegarde et l archivage dans les datacentres de taille moyenne, les disques durs peuvent être jusqu à 23 fois plus chers que les solutions à bande et coûter 290 fois plus cher à alimenter et refroidir ; La consolidation des données avec un système d archives sur bandes peut diminuer considérablement le coût des centres de stockage. Les bandothèques à forte capacité peuvent remplacer les îlots de données grâce à la consolidation des opérations de sauvegarde, entraînant une réduction des coûts d infrastructure et sans doute une plus grande efficacité énergétique. Avec une durée de vie de 30 ans et de fortes capacités de stockage, les bandes sont une solution attractive pour les datacentres ayant des besoins importants en sauvegarde et archivage à long terme. Dans un environnement à plusieurs niveaux de stockage, les systèmes à bandes restent donc les solutions les plus efficaces pour un archivage à long terme et un faible taux de consultation des fichiers archivés. Cependant, certaines solutions de bibliothèques sur disque cherchent aujourd hui à minimiser l impact de la consommation des disques par des techniques telles que le spindown. Ces technologies sont évoquées plus bas. 28

29 Axe de l actionneur Actionneur Tête de lecture/écriture Bras de l actionneur Plateau Axe Cavaliers Alimentation électrique Fig. 3.1 Composants d un DD Interface IDE Disques durs (DD) Les disques durs (DD) sont depuis longtemps le support de référence pour le stockage non-volatile de données, grâce à leur rapidité d écriture et de lecture. Leur consommation d énergie est essentiellement liée à leurs pièces mobiles, telles que moteurs et têtes de lecture (voir Figure 3.1). Afin d accroître le débit de données, les fabricants augmentent la vitesse de rotation des plateaux, et donc la consommation d énergie. Les DD à haut débit actuels tournent généralement à tr/ min. Plusieurs techniques permettent d améliorer l efficacité des DD, comme stocker les données à certains endroits du plateau pour réduire l effort mécanique lié à la récupération, contrôler la vitesse des plateaux et réduire la consommation en période de repos. Une autre technique répandue, appelée spin-down, consiste à ralentir les plateaux et parquer les têtes dans une zone sécurisée après une période d inactivité définie en usine. Plutôt que de mettre les plateaux à l arrêt complet, certains DD les font tourner à une vitesse variant en fonction de la charge (lecture/écriture). Certains DD ont plusieurs états de repos et de veille, avec plusieurs actions à mesure que la période d inactivité se prolonge (par ex. désactivation du système d asservissement, puis parcage des têtes et enfin spin-down des plateaux). La technologie PowerChoice de Seagate [5], par exemple, augmente le nombre de composants désactivés à partir de seuils d activité prédéfinis. Les états intermédiaires présentent un temps de récupération généralement plus court que l état de spin-down. Le Tableau 3.1 montre que la consommation en veille est d environ 50 % inférieure à celle en mode repos. Ce type d approche pourrait permettre d importantes économies sur les systèmes RAID et MAID (Massive arrays of idle disks). Tab. 3.1 Profil de la technologie PowerChoice sur un disque 2,5 Constellation État Puissance (W) Économie d énergie* (%) Standby_Z min. * Les estimations en termes d économie d énergie et le temps de récupération constituent des valeurs préliminaires ; les chiffres mentionnés s appliquent au disque dur 2,5 pouces Seagate Constellation SAS. Temps de récupération (s) Temporisateur par défaut avant activation Idle n/a Idle_A sec. Idle_B min. Idle_C min. 29

30 Le spin-down pouvant limiter les performances du DD, les fabricants travaillent sur d autres techniques, comme augmenter la taille du cache et mettre en queue les instructions de lecture/écriture. Pour profiter des techniques du spin-down et de la vitesse de rotation variable, il a été envisagé d augmenter la durée des périodes d inactivité du disque au niveau du système d exploitation et des applications. Certaines de ces approches consistent à reprogrammer les requêtes d accès en modifiant le code d application ou la répartition des données. D autres techniques moins intrusives permettent de reprogrammer les requêtes au niveau du compilateur, sans avoir à toucher au code source de l application. Si ces techniques peuvent réduire la consommation d énergie, la répétition de cycles on/off pourrait toutefois entraver la durée de vie des DD. Moteurs et actionneurs étant les principaux responsables de la consommation d énergie des DD, la miniaturisation pourrait contribuer à les rendre plus efficaces. Un DD 2,5 occupant environ quatre fois moins de place qu un DD 3,5 (voir Figure 3.2), un châssis d un volume suffisant pour recevoir 16 DD 3,5 peut être réorganisé pour accueillir jusqu à 48 DD 2,5 sans avoir à accroître le volume total. Les DD hautes performances dans un boîtier 2,5 affichent une consommation réduite : leurs moteurs et actionneurs, plus petits, émettent aussi moins de chaleur. Les fabricants affirment que sur les DD 2,5 de type Tier-1, la performance IOPS/W peut être jusqu à 2,5 fois supérieure à celle d un DD 3,5 [6]. Le refroidissement consomme moins d énergie du fait que la chaleur émise et l encombrement au sol sont réduits. Le Tableau 3.2 indique la consommation approximative de deux modèles de DD hautes performances produits par Seagate. Le DD 2,5 consomme environ 46 % d énergie en moins que son homologue 3,5 en mode actif. L écart de consommation peut atteindre 53 % en mode repos. Si l on considère le coût d alimentation de Fig. 3.2 Disque dur 2,5 pouces posé sur un DD 3,5 (source: Wikipedia) 24 DD seulement sur un an, avec un kwh à 0,11, la différence entre DD 3,5 et 2,5 en mode actif avoisinerait les 140. Dans des datacentres avec systèmes de stockage sur plusieurs centaines, voire milliers de disques, les économies peuvent ainsi se chiffrer en milliers ou dizaines de milliers d euros. Tab. 3.2 Consommation électrique de deux DD hautes performances de Seagate Caractéristiques Cheetah 15K.7 300GB* Savvio 15K.2 146GB* Variation Facteur de forme Capacité 300 GB 146 GB Interface SAS 6 Gb/s SAS 6 Gb/s Vitesse de rotation (tr/min) Consommation moy. au repos (W) 8,74 4,1-53% Consommation moy. en fonctionnement (W) * Source : fiches techniques consultables sur le site du fabricant 12,92 6, % 30

31 3 Équipements de stockage de données Disques SSD Tab. 3.3 Consommation électrique d un SSD et d un DD de Seagate Les SSD sont constitués, entre autres, d une mémoire flash et d un contrôleur assurant diverses tâches. Ils reposent sur la technologie flash NAND, qui emploie l un des deux types de cellules de mémoire en fonction du nombre de bits que la cellule peut stocker (1 bit par cellule pour le flash SLC tandis que les mémoires MLC peuvent souvent stocker 2 ou 4 bits par cellule). La plupart des SSD bon marché font appel au flash MLC tandis que les appareils haut de gamme sont en SLC. Du fait de l absence de parties mécaniques (moteurs et actionnneurs), les SSD sont supérieurs Caractéristiques Savvio 15K.2 73GB* Pulsar SSD 50GB* Variation Facteur de forme Capacité 73 GB 50 GB Interface SAS 3 Gb/s SAS 6 Gb/s SATA 3 Gb/s Vitesse de rotation (tr/min) Type de flash NAND SLC Consommation moy. au repos (W) 3,7 0,65-82,4% Consommation moy. en fonctionnement (W) * Source : fiches techniques consultables sur le site du fabricant 6,18 0,8-87% aux DD par l efficacité énergétique et la fiabilité. Ils génèrent aussi moins de chaleur et peuvent être placés dans des boîtiers plus petits, ce qui réduit l encombrement physique et les besoins en refroidissement. Le Tableau 3.3 présente une comparaison simple entre le SSD d entreprise Pulsar (Seagate) et un DD SAS haute performance à tr/min. Le SSD consomme environ 87 % moins que le DD en mode actif et 82 % moins en mode repos. En pratique, les économies d énergie dépendront toutefois de la façon dont les solutions de stockage utilisent les disques et des caractéristiques de la charge de travail à laquelle ceux-ci sont soumis Disques durs hybrides (HDD) Les HDD sont des disques équipés d une importante mémoire tampon (buffer) composée de mémoire flash non volatile afin de minimiser les opérations de lecture ou d écriture sur les plateaux. Plusieurs algorithmes sont utilisés pour faire fonctionner ce buffer [7]. Plus ce dernier est volumineux, plus longtemps les plateaux pourront rester en mode repos. La mémoire flash supplémentaire permet aussi de réduire la consommation des moteurs et bras mécaniques et ainsi celle des solutions de stockage dans leur ensemble. Les HDD présentent des besoins en énergie potentiellement réduits par rapport aux DD classiques, mais leur application au stockage d entreprise reste limitée. RECOMMANDATIONS DE BONNES PRATIQUES Évaluer les avantages des différentes technologies de stockage de données dans l achat de matériels et la conception de systèmes Les bandes sont la solution la plus efficace pour le stockage à long terme. Les disques durs actuels possèdent des plateaux à vitesse de rotation variable pour économiser l énergie. Les multiples états de repos des DD permettent des économies d énergie considérables au sein de solutions de stockage composites telles qu ensembles de disques et MAID. Les SSD sont plus chers, mais beaucoup plus efficaces que les HDD. Les SSD peuvent être envisagés comme couche de stockage haute performance. 31

32 3.2 Éléments de stockage Cette partie présente les techniques matérielles pouvant être utilisées et combinées pour améliorer l efficacité énergétique des solutions de stockage composites telles que les ensembles de disques et le stockage à connexion directe (DAS) ou en réseau (NAS). Elle analyse aussi les solutions spécifiques au niveau éléments Disques de grande capacité et miniaturisation Pour les applications ne nécessitant pas un stockage haute performance, les disques de grande capacité présentent généralement une efficacité énergétique accrue. Un DD SATA traditionnel consomme jusqu à moitié moins par To de stockage qu un disque Fibre Channel [8]. Comme on l a vu, les boîtiers miniaturisés permettent un gain d espace dans les datacentres et Tous les disques tournent à pleine vitesse : hautes performances, mais consommation maximum une réduction de l empreinte énergétique grâce à leurs DD 2,5 plus efficaces. Dell a ainsi comparé deux de ses ensembles de disques avec le banc d essai SPC-1C du Storage Performance Council : l une avec des DD 3,5, l autre avec des DD 2,5 [9]. Les résultats montrent qu en plus d accroître la performance de 93 %, l ensemble composé de DD 2,5 consommait 40 % moins d énergie Baies de disques de type MAID La technologie MAID (massive array of idle disks) combine la mémoire cache et le mode repos pour traiter les requêtes, ne rehaussant les disques qu en fonction des besoins. L immobilisation des disques les moins demandés permet de réduire la consommation d énergie (voir Figure 3.3). Fujitsu, par exemple, permet à ses clients de définir des périodes durant lesquelles les disques devront être ralentis (ou mis hors service) en fonction de la charge ou du rythme de sauvegarde. L ampleur des économies d énergie à réaliser avec une baie MAID dépend de l application et de la fréquence d accès aux disques. Les critères retenus pour décider de quand placer les disques en mode veille ou repos (puis les en sortir) ont un impact sur la consommation d énergie ainsi que sur les performances. À l origine, la technique MAID ne permettait aux HDD que d être en position «on» ou «off», avec un lourd impact sur les performances d une application si celle-ci avait besoin d accéder à des données situées sur un disque en veille. La MAID de deuxième génération, ou «MAID 2.0», est équipée d une gestion de l énergie intelligente (IPM), avec différents modes d économie d énergie (adaptés aux différents besoins de la qualité de service) et de performance. L utilisateur peut ainsi configurer l équilibre entre réactivité et économie d énergie. Ces modes multiples font appel notamment aux différents états de repos du disque décrits plus haut. Parmi les autres techniques de conservation de l énergie pour les ensembles de disques figurent la popular data concentration (PDC) [10] et autres mécanismes d attribution de fichiers [11]. L idée qui sous-tend cette approche est de consolider les données auxquelles le système accède le plus souvent en les sauvegardant ou les migrant vers une sous-série de disques. La charge est ainsi dirigée vers un plus petit nombre de disques, les autres pouvant être basculés en mode basse consommation. 25% des disques sont en spin-down : jusqu à 25% d économie d énergie, mais baisse relative de la performance 32 Fig. 3.3 Représentation schématique d un MAID Niveaux de RAID efficaces L efficacité du stockage varie aussi avec le niveau de RAID : en termes de protection des données, certains niveaux tels que RAID-6 présentent un overhead important. Une implémentation RAID-6 haute performance peut toutefois fournir le même niveau de performance que RAID-5 avec jusqu à 48 % de réduction des exigences de capacités sur disque par rapport à RAID-10.

33 3 Équipements de stockage de données Serveur Volume virtuel (10 TB) (capacité de stockage reconnue par le serveur) Pool de disques physiques (2 TB) (capacité de stockage réellement disponible) ÉCRITURE Écriture de données ÉCRITURE ÉCRITURE Fig. 3.4 Allocation granulaire de capacité (Source : Fujitsu ETERNUS solutions) Tiering horizontal, virtualisation du stockage et allocation granulaire de capacité L utilisation efficace d une infrastructure de stockage suppose d élaborer et de mettre en œuvre de bons principes de gestion en hiérarchisant le stockage en fonction de la fréquence d accès aux données, de leur caractère recyclé ou non et de la durée de conservation (selon exigences opérationnelles ou réglementaires). Les fabricants de solutions de stockage proposent des logiciels qui hiérarchisent automatiquement les données en les transférant vers le niveau de tier adéquat d après un suivi de la performance. On peut citer par exemple Fully Automated Storage Tiering (FAST, EMC2), System Storage Easy Tier (IBM), Data Progression (Compellent) et Data Migration Facility (DMF, SGI). Combiner virtualisation des serveurs et virtualisation du stockage permet de créer des pools de disques et des volumes virtuels dont la capacité pourra être augmentée à la demande en fonction des besoins des applications. L efficacité des baies de stockage traditionnelles est généralement comprise entre 30 et 40 %. Selon certains travaux [12], la virtualisation du stockage pourrait la porter à 70 %, voire plus, en réduisant les exigences de stockage et augmentant les économies d énergie. La virtualisation du tiering, ou gestion hiérarchique du stockage (HSM), permet aux données de migrer automatiquement entre différents types de supports sans que l utilisateur ne s en aperçoive, grâce à des systèmes logiciels. Cette approche permet de réduire le coût et la consommation d énergie en n admettant que les données auxquelles l utilisateur accède le plus souvent sur les supports haute performance tandis que les données moins utilisées sont stockées sur des équipements moins onéreux et plus efficaces, utilisant des techniques telles que la MAID et la déduplication. L allocation granulaire de capacité, technologie qui vient souvent en complément de la virtualisation du stockage, vise à maximiser l utilisation des supports et éliminer les capacités pré-attribuées mais non utilisées. L espace de stockage n est provisionné qu au moment de l écriture des données. La capacité de réserve est généralement fixée à zéro au lieu d être définie par le stockage maximum exigé par les applications. Les volumes sont étendus en ligne et des capacités sont ajoutées sur-le-champ pour s adapter aux variations sans interruption de l activité (voir Figure 3.4). L allocation granulaire de capacité peut se traduire par des économies d énergie en réduisant la nécessité de sur-provisionner les capacités de stockage. 33

34 3.2.5 Consolidation au niveau du stockage et de la matrice La consolidation du stockage n est pas un sujet récent : les réseaux SAN (storage area networks) fournissent un certain degré de consolidation et d efficacité depuis plusieurs années en partageant les baies de disques à travers plusieurs serveurs par le biais d un réseau privé local, évitant ainsi la formation d îlots de données. Passer du stockage à connexion directe (DAS) au stockage en réseau présente plusieurs avantages en termes d efficacité énergétique. La consolidation des équipements de stockage de données peut entraîner à la fois des économies substantielles en termes d encombrement au sol et de consommation d énergie. Certains fabricants affirment qu en fournissant un équipement de réseau multi-protocole, la matrice réseau peut être consolidée sur un nombre réduit de ressources, ce qui réduit aussi l encombrement, la consommation d énergie et les besoins en refroidissement Déduplication des données Les infrastructures de stockage conservent souvent un grand nombre de copies des mêmes données. Les centres de stockage utilisent plusieurs niveaux de duplication, parfois nécessaires pour améliorer la fiabilité et le débit de données. Mais il est également possible de minimiser le gaspillage et donc de recycler les capacités de stockage. Les solutions SAN actuelles font appel à des techniques de déduplication pour réduire les doublons, qui interviennent principalement au niveau des blocs de données et des fichiers. En dehors du niveau de déduplication, ces techniques se distinguent selon qu elles agissent avant ou après l écriture des données sur le disque. Les deux approches ont leurs avantages et inconvénients. Tout en réduisant les besoins en support de stockage, la déduplication après écriture des données sur le disque exige une mise en cache pour la suppression des doublons. Pour les applications de sauvegarde, cette technique entraîne généralement des fenêtres de sauvegarde réduites et une moindre dégradation des performances. Les techniques de déduplication se distinguent enfin par leur lieu d intervention : à la source (client), à la cible (serveur) ou via un périphérique dédié connecté au serveur. Du fait qu elles permettent aux entreprises de recycler leurs capacités de stockage et de réduire leurs besoins en supports, les solutions de déduplication sont considérées comme une technique de réduction de la consommation d énergie. En pratique, les économies dépendent du degré de granularité. Les solutions qui segmentent les données («hash») et agissent au niveau des fichiers sont généralement moins efficaces, mais génèrent moins d overhead. L efficacité des techniques au niveau des blocs est généralement inversement proportionnelle à la taille de ces derniers. Si la déduplication des données constitue une technologie prometteuse pour réduire le gaspillage et la consommation d énergie, elle ne convient pas à toutes les applications. Dédupliquer des données avant qu elles ne soient stockées sur le disque, par exemple, peut entraver grandement les performances, ce qui ne saurait être toléré pour des applications de base de données. Les applications et services conservant d importants volumes de données sur des périodes prolongées sont ceux pour lesquels les technologies de déduplication présenteront les résultats les plus intéressants. D une façon générale, la déduplication fonctionne le mieux pour la sauvegarde, la réplication et la conservation des données.

35 3 Équipements de stockage de données Pour aller plus loin McClure T. (2009) : Driving Storage Efficiency in SAN Environments, Enterprise Strategy Group - White Paper, November Craig B. and McCaffrey T. (2009) : Optimizing Nearline Storage in a 2.5-inch Environment Using Seagate Constellation Drives, Dell Power Solutions, Jun SNIA (2010) : Storage Power Efficiency Measurement Specification: Working Draft Version , SNIA Green Storage Initiative, August Storage Tiering with EMC Celerra FAST, EMC2 Efficiency_Measurement_Spec_v0.2.10_DRAFT.pdf Clark T. and Yoder A. (2008) : Best Practices for Energy Efficient Storage Operations Version 1.0, SNIA Green Storage Initiative, October Freeman L. (2009) : Reducing Data Centre Power Consumption Through Efficient Storage. White Paper. NetApp, July Sources [1] IDC (2010) : The Digital Universe Decade Are you ready? IDC, May, [2] McClure T. (2009) : Driving Storage Efficiency in SAN Environments, Enterprise Strategy Group - White Paper, November [3] Reine D. and Kahn M. (2008) : Disk and Tape Square Off Again Tape Remains King of the Hill with LTO-4. Clipper Notes, February [4] ORACLE (2010) : Consolidate Storage Infrastructure and Create a Greener Datacentre. Oracle White Paper, April [5] Seagate (2011) : PowerChoice Technology Provides Unprecedented Hard Drive Power Savings and Flexibility - Technology Paper, Seagate, [6] Seagate (2010) : Seagate Savvio 15K.2 Data Sheet, Seagate, [7] Bisson T., Brandt S., Long D. (2006) : NV- Cache: Increasing the Effectiveness of Disk Spin- Down Algorithms with Caching, 14th IEEE International Symposium on Modeling, Analysis, and Simulation, pp , [8] Freeman L. (2009) : Reducing Data Centre Power Consumption Through Efficient Storage. White Paper. NetApp, July [9] Craig B. and McCaffrey T. (2009) : Optimizing Nearline Storage in a 2.5-inch Environment Using Seagate Constellation Drives, Dell Power Solutions, Jun [10] Pinheiro E. and Bianchini R. (2004) : Energy Conservation Techniques for Disk Array- Based Servers. 18th Annual International Conference on Supercomputing (ICS 2004), pp Malo, France, [11] Otoo E. D., Rotem D. and Tsao S.C. (2009) : Analysis of Trade-Off between Power Saving and Response Time in Disk Storage Systems, IEEE International Symposium on Parallel Distributed Processing (IPDPS 2009), pp. 1-8, May [12] Blade Network (2009) : Storage Consolidation for Data Centre Efficiency, BLADE Network Technologies White Paper, Jun

36 4 Équipements de réseau Alexander Schlösser, Technische Universität Berlin, Lutz Stobbe, Fraunhofer IZM D après les données actuelles, la consommation des commutateurs, routeurs et autres équipements de réseau représenterait 8 à 12 % de l empreinte énergétique totale des datacentres. Cette part relativement faible fait que les équipements de réseau sont rarement au centre des mesures d amélioration de l efficacité énergétique. Mais cette vision des choses commence à évoluer, surtout dans les centres de taille moyenne à grande. Plusieurs raisons font que la consommation d énergie des équipements de réseau et les effets de l architecture implémentée jouent un rôle de plus en plus important dans la conception et l opération des datacentres. Avec l augmentation des exigences en termes de qualité de service et des applications sensibles au délai, les réseaux et leurs équipements jouent un rôle de plus en plus décisif pour les datacentres. Leur consommation varie en fonction de la technologie choisie et de l architecture (câblerie, alimentation et refroidissement). 4.1 Cadre technique et opérationnel Schéma fonctionnel La Figure 4.1 représente un schéma fonctionnel simplifié des aspects énergétiques liés aux réseaux et à leurs équipements au sein d un datacentre. Ce modèle permet de visualiser les chevauchements des infrastructures d alimentation et de refroidissement ainsi que la relation entre le réseau et les principaux équipements informatiques tels que serveurs et systèmes de stockage. Il définit aussi les principaux éléments à améliorer au niveau du réseau, comme son architecture et sa topologie, son infrastructure physique, ses composants matériels, sa câblerie mais aussi la configuration des logiciels et les possibilités de virtualisation. L efficacité énergétique de l infrastructure du réseau et de ses équipements dépend aussi des applications, des accords de niveau de service et des exigences de performance en termes de bande passante et de latence définies par l opérateur du datacentre. La question de la performance doit être prise en compte dans la procédure de planification pour améliorer l efficacité énergétique. Salle serveur / datacentre Architecture & topologie Virtualisation & configuration Composants & câblerie Alimentation & onduleurs Refroidissement & flux d air Suivi & contrôles Réseau Équipement Infrastructure Fig. 4.1: Schéma fonctionnel des réseaux d un datacentre 36

37 4.1.2 Attributs du réseau L amélioration de l efficacité énergétique de l infrastructure réseau des datacentres exige une démarche structurée. La planification doit intégrer une perspective stratégique ou à long terme, sachant que cette infrastructure est généralement en place pour une période prolongée, souvent plus de huit ans. Modifier l infrastructure de base et la topologie du réseau, ses équipements, etc. représente donc un investissement considérable et non dénué de risque. L amélioration du réseau est pourtant synonyme d optimisation des performances du datacentre et bien souvent aussi de son efficacité énergétique. La planification commencera par une analyse stratégique. L opérateur doit définir les attributs de son réseau et ses exigences en termes de performance. Cette tâche passe par une analyse du marché. Le monde de l informatique connaît en 2011 une formidable transition vers une production centralisée des applications, qui transforme le volume et les modèles de circulation des données. Les applications ne sont plus produites du côté de l utilisateur final, à grand renfort de puissance de calcul et de packs logiciels, mais au sein des datacentres et du «nuage», du fait de l utilisation des logiciels en tant que service (SaaS) et du cloud computing. Les conditions préalables incluent une connectivité à haut débit et un faible niveau de latence. Cette tendance générale entraîne une augmentation des flux de données non seulement entre client et serveur, mais aussi de serveur à serveur et des supports de stockage vers les serveurs. Enterasys [1] prévoit que l architecture et la configuration des réseaux vont évoluer pour s y adapter. Afin d améliorer les performances (productivité informatique), la tendance est à l agrégation de réseau (bottom-up) et à la virtualisation (topdown). Fusionner l accès et l agrégation ainsi que l agrégation et le cœur du réseau dans une certaine mesure permet de réduire le nombre de strates de l architecture réseau (voir aussi Figure 4.3). En unifiant le réseautage, cette tendance pourrait éventuellement faire baisser la consommation d énergie. Tout est question d équilibre. On dispose encore de peu d informations et de données et aucune solution particulière n est en vue sur le marché. La virtualisation favorise elle aussi l incorporation des équipements de réseau et réseaux locaux (VLAN). Elle présente l avantage de consolider les équipements physiques et donc de permettre une plus grande efficacité énergétique. Toujours selon Enterasys [1], la conception des réseaux de datacentres répond à une série d objectifs communs : Bande passante et faible latence (sélection de la technologie réseau) ; Modularité et souplesse (architecture réseau) ; Capacité à supporter divers services (consolidation) ; Sécurité (de plus en plus important, avec une influence sur l overhead) ; Forte disponibilité et redondance (exigences sur la qualité de service) ; Gérabilité et transparence (solutions de virtualisation) ; Optimisation des coûts (réduire CAPEX et OPEX) Équilibrer la performance et la consommation énergétique Bande passante, haut débit, latence et intégrité des données sont des critères importants pour la performance des réseaux. La satisfaction du client ou «qualité de service» (QoS) est une autre exigence majeure. Elle se définit en termes d accords de niveau de service (SLA), avec des caractéristiques telles que débit minimum et temps de réponse ou latence maximum. Une architecture réseau réactive, convergente et intelligente, capable de gérer les flux de données de façon dynamique et dans le respect des SLA est non seulement un gage important de compétitivité, mais peut aussi servir de base à une approche systématique de l efficacité énergétique. RECOMMANDATIONS DE BONNES PRATIQUES Du fait du grand nombre de produits et d options de réseaux disponibles sur le marché, il est recommandé aux opérateurs de datacentres et administrateurs informatiques de lister les priorités concernant les attributs de leur réseau, tels que : Services ; Latence ; Qualité de service ; Possibilité de virtualisation ; Autres aspects de la performance ou de l interopérabilité. La meilleure approche consiste en une optimisation du système qui reflète les interactions entre l infrastructure et les performances du réseau et celles des autres équipements. 37

38 La mise en œuvre de la QoS peut toutefois entraîner une augmentation du trafic total et de la consommation énergétique du datacentre. Les différentes technologies réseau et leurs équipements présentent des avantages et des inconvénients. D une façon générale, on observe que la norme 10 Gigabite Ethernet (10GbE) s impose comme la technologie de référence dans les datacentres. Le protocole Ethernet relie non seulement les serveurs (LAN), mais s utilise aussi de plus en plus dans les réseaux de stockage (SAN). Or une faible latence et l intégrité des données sont des exigences de base pour le trafic de stockage. Selon Lippis [2], les commutateurs 10GbE actuels produisent 400 à 700 ns de latence. Ce chiffre devrait tomber à environ 100 ns d ici à On voit donc que l augmentation de la bande passante entraîne une réduction du temps de latence. Du point de vue de la consommation, il est nécessaire d équilibrer cette amélioration (technologie réseau) avec la consommation éventuellement accrue d une capacité haut débit (composant). La sélection des composants et la consolidation E/S sont deux aspects à envisager. De même, il est nécessaire de peser la question de l intégrité des données (disponibilité) au regard de la performance en termes de débit et d efficacité énergétique. Un réseau sens pertes se traduit généralement par des protocoles plus complexes (overhead) et une latence accrue, avec une plus grande puissance de calcul et une efficacité réduite de la bande passante. C est toutefois une condition sine qua non pour les réseaux de stockage SAN. Les pertes liées au protocole Ethernet l ont empêché par le passé d être appliqué à ce type de réseaux. Les protocoles Fibre Channel (FC) et InfiniBand (IB) étaient alors les deux technologies de réseau les plus répandues. Il existe aujourd hui de multiples options de réseau de stockage reposant sur le protocole Ethernet : Converged Enhanced Ethernet (CEE), Fibre Channel over Ethernet (FCoE), Internet Small Computer System Interface (iscsi) over Ethernet, ATA over Ethernet (AoE) et stockage en réseau (NAS). Ces options contribuent à unifier le réseautage (et éviter les adaptateurs), mais créent un surcroît d overhead, d où une efficacité réduite de la bande passante. On ignore quel peut être l impact éventuel sur l efficacité énergétique. L opérateur doit donc envisager l impact énergétique de l amélioration de la performance, de la modularité et de l adaptabilité des nouvelles solutions de réseau consolidé. Ces nouvelles solutions ont sans doute des conséquences positives sur la consommation, mais un bon dimensionnement reste essentiel. Il est recommandé de se renseigner sur l impact énergétique global au moment de l achat d un nouvel équipement ou de solutions de réseau complètes. 4.2 Amélioration de l efficacité énergétique Fusionner les classes de trafic (consolidation E/S) Les réseaux des datacentres doivent transmettre différents types de flux au sein de différents types d applications, d où l existence de protocoles et d architectures spécialisés. Mais les réseaux devenus très complexes ne partagent souvent plus leurs ressources. L objectif de base de l amélioration est de réduire les composants physiques et de partager la capacité du réseau en fonction des différentes unités fonctionnelles. La tendance technique générale vers une simplification et une réduction des structures ainsi qu une convergence E/S basée sur le protocole Ethernet découle aussi d un souci d efficacité énergétique. Le maître mot est la consolidation du réseau. Celle-ci s applique aux réseaux serveur et stockage ainsi qu à l architecture de distribution. La carte réseau convergent (CNA) fusionne ainsi plusieurs interfaces jusqu alors séparées : Contrôleur hôte de bus (HBA) pour les flux SAN; Carte réseau (NIC) pour les flux LAN; Adaptateur de canal hôte (HCA) pour les flux IPC. La consolidation E/S désigne la capacité d un commutateur ou adaptateur hôte à utiliser la même infrastructure physique pour différents types de flux, chacun ayant généralement des caractéristiques uniques et des exigences spécifiques. Pour l opérateur, cela revient à n avoir qu un seul réseau à installer et à gérer au lieu de trois (voir Figure 4.2). Pour les hôtes et les baies de stockage, la consolidation permet d avoir un petit nombre de cartes réseau convergent (CNA) à acheter au lieu des cartes Ethernet, HBA FC et HCA IB. Une carte HBA FC classique consomme environ 12,5 W [3]. En termes de redondance, plusieurs options devront être envisagées pour assurer la fiabilité de la conception. 38

39 4 Équipements de réseau Communication inter-processus (IPC) Réseau local (LAN) Réseau de stockage (SAN) IPC LAN SAN Switch Ethernet Switch FC Switch Ethernet Ethernet Fibre Channel/ Infiniband Ethernet 10G / 40G / 100G HCA NIC HBA CNA Processeur Mémoire Processeur Mémoire Serveur Fig. 4.2 Consolidation E/S et convergence des réseaux de datacentres AVANTAGES DES RÉSEAUX CONVERGÉS La consolidation E/S permet un plus haut niveau de regroupement des différents types de réseau (LAN, SAN) en vue de la virtualisation du système. Elle permet en outre une réduction sensible de l ampleur de l infrastructure physique (commutateurs, ports, connectique et câblerie) entre les différents réseaux. Les réseaux convergés entraînent : jusqu à 80 % d adaptateurs et câbles en moins ; jusqu à 25 % d espace en moins pour les commutateurs, adaptateurs et racks ; jusqu à 42 % d économie sur l alimentation et le refroidissement [4]. 39

40 4.2.2 Consolidation du réseau La principale approche pour optimiser la consommation du réseau d un datacentre consiste à repenser son architecture et faire converger des réseaux jusqu alors séparés en une technologie unique. L architecture pourra être composée d un arbre fait d équipements de routage et commutation (couches multiples), dans lequel les matériels les plus spécialisés et les plus onéreux seront placés au sommet de la hiérarchie. L objectif de consolidation doit être de créer une architecture réseau plate basée sur un maillage fonctionnel. Voici quelques exemples de mesures à prendre : Agréger les commutateurs : plusieurs commutateurs physiques sur un seul appareil logique ; Réduire le nombre de couches : utiliser un commutateur agrégé pour effectuer les tâches de plusieurs couches de commutateurs en tenant compte des services et de la sécurité ; Créer un maillage unifié : combinaison des deux approches alliant simplicité opérationnelle et haute performance, toujours en tenant compte des services et de la sécurité. La convergence des réseaux serveur (LAN) et stockage (SAN) est une tendance générale qui permet d économiser l énergie. Maintenir deux réseaux distincts entraînerait une hausse du coût total d opération et de la consommation du fait de la multiplication du nombre d adaptateurs, câbles et ports nécessaire pour connecter chaque serveur directement aux LAN et SAN. Pour simplifier ou aplanir la structure de leur réseau, les datacentres mettent actuellement en œuvre des technologies telles que iscsi, Fibre Channel over Ethernet (FCoE) et data centre bridging (DCB). Routeurs N W E Core S Agrégation Accès Fig. 4.3 Consolidation de réseau 40

41 4 Équipements de réseau Virtualisation du réseau La virtualisation est une technologie bien établie pour consolider un serveur physique et plusieurs machines virtuelles. Le même principe peut s appliquer aux réseaux : diverses approches matérielles et logicielles permettent de gérer les ressources réseau en tant qu unités logiques indépendantes de leur topologie physique. Ceci résulte en des flux réduits, une sécurité simplifiée et un contrôle amélioré. Les principaux éléments pour optimiser l efficacité des réseaux sont la connaissance et la visibilité du réseau dans le cycle de vie des machines virtuelles (VM). La possibilité de configurer les capacités réseau et ports au niveau de chaque VM prise séparément ainsi que d effectuer un traçage dynamique des VM dans leurs déplacements au sein du datacentre est un aspect important pour l efficacité de la gestion d un environnement virtualisé. L efficacité énergétique découle principalement de la consolidation des routeurs, adaptateurs physiques pour ports E/S et autres matériels réseau. Etendre la virtualisation du système au réseau signifie : Virtualiser le routeur (logiciel avec fonction routage, systèmes multiples sur une seule machine réelle) ; Virtualiser les liens (interconnexion logique du routeur virtuel) ; Virtualiser les réseaux (routeurs virtuels connectés par des liens virtuels). La virtualisation croissante des serveurs entraîne un surcroît de complexité et d overhead pour le réseau. Les commutateurs obsolètes ne détectent pas les VM, ce qui pose un risque d interruption de service et de failles dans la sécurité en cas de configuration incorrecte du réseau. Le réseau est un domaine clé qui doit lui aussi être virtualisé pour afficher le même niveau de souplesse, débit et performance. La virtualisation de service réseau est une stratégie qui permet de simplifier les opérations du réseau et de consolider plusieurs périphériques. Virtualiser un module pare-feu ou IPS en fournissant une image logiciel à différentes applications via un matériel unique permettrait de réduire la nécessité d avoir plusieurs appareils distincts. La consolidation de plusieurs services sur un seul appareil physique permet de réduire la consommation d énergie sans avoir à déployer un matériel dédié à chaque fois. Ceci permet aussi une économie sur l alimentation, le refroidissement et l encombrement du rack. La virtualisation de service réseau présente en résumé les avantages suivants : Flexibilité accrue des interfaces de gestion ; Réduction du coût d acquisition grâce à l utilisation de logiciels ; Performance accrue des applications grâce à la simplification de l extension et de l allocation des services ; Baisse potentielle de la consommation d énergie grâce à la consolidation des équipements. RECOMMANDATIONS DE BONNES PRATIQUES Pour les petits et moyens datacentres, le choix entre FCoE et iscsi dépendra fortement des exigences posées à l application et de la présence de personnel formé en Fibre Channel. La réussite de la mise en œuvre de la virtualisation d un réseau dépend de certains aspects tels que l investissement, la définition d objectifs précis et la compatibilité avec les matériels existants. Les projets de virtualisation exigent donc de bien peser le rapport coût/bénéfice, de gérer entièrement les processus et de bien tenir compte des risques éventuels pour la sécurité. Si les bases de données à hautes capacités et performances sont des applications critiques pour l activité, FCoE et iscsi sont deux solutions appropriées pour améliorer le niveau de service et réduire la consommation. Le stockage centralisé et la récupération de sinistre exigent un SAN commun : on préfèrera l iscsi. Pour les réseaux existants basés sur le protocole Fibre Channel, FCoE est recommandée [5]. 41

42 4.2.4 Sélection des composants et équipements La consommation des équipements réseau varie souvent avec le choix des composants et la configuration du système. Le standard de technologie (10GbE par ex.) est le facteur prédominant. La conception des puces et le degré d intégration du système présentent la plus forte marge de manœuvre, tendance accentuée par les améliorations de performance des semi-conducteurs, qui continuent de progresser de façon exponentielle. Cela englobe les performances thermiques des puces et technologies d interconnexion, avec le problème croissant de la fiabilité. La configuration du système, c est-à-dire le type et le nombre de ports déployés dans l équipement, est un autre facteur. La consommation des équipements de réseau dépend enfin de l efficacité du bloc d alimentation et des options de gestion de l énergie. RECOMMANDATIONS DE BONNES PRATIQUES Critères à prendre en compte pour la sélection de matériels de réseau (notamment blocs d alimentation) efficaces Choisir un équipement avec fonctions de gestion de l énergie et comparer la consommation des différents matériels en mode inactif et veille. Comparer les systèmes de différents fournisseurs en termes de rentabilité et d efficacité énergétique. Demander aux fournisseurs les informations produits sur : l efficacité énergétique globale (par ex. ECR, TEER dès sa sortie) ; l efficacité et la modularité des blocs d alimentation ; l efficacité et l extensibilité des blocs de ventilation (ventilateurs à vitesse variable, etc.). Gestion de l énergie La variation de la consommation d énergie des équipements de réseau est liée aux périodes d activité et d inactivité. La différence de consommation entre une charge à 100 % et le mode inactif (avec lien établi) est généralement d un facteur 1,1 (<10 %). Si le lien est désactivé, la consommation est réduite de moitié. Sur les petites installations (salle serveur ou petit datacentre par ex.), les phases d inactivité sont relativement prévisibles, surtout de nuit. Et pourtant, la gestion de l énergie avancée avec «veille active» reste trop rare. Ce terme a été créé dans l étude préparatoire à la Directive cadre européenne EuP/ErP pour la DG Énergie (Lot 26). D après cette étude, le temps de reprise de l application est le principal critère pour la mise en œuvre de la veille active. La gestion d énergie des équipements de réseau est étroitement liée aux systèmes de serveurs et stockage auxquels ils sont connectés. Si un cluster d appareils de serveur ou stockage passait en mode veille, il serait possible de réduire du même coup l alimentation des commutateurs d accès. Ici encore, le facteur essentiel est la latence et la fiabilité du système à la sortie du mode veille. Avec l introduction des normes IEEE 802.3az («Energy Efficient Ethernet») et ECMA-393 («proxzzzytm for sleeping hosts»), des approches spécifiques ont vu le jour pour la gestion basse énergie. Bloc d alimentation La fiabilité et le rendement de conversion des blocs d alimentation influent sur la consommation d énergie totale. Le rendement de conversion des gros blocs (>500 W de sortie) s est amélioré ces dernières années pour atteindre plus de 85 %, voire 90 %. Quand on sait que la consommation des gros commutateurs et routeurs core peut se mesurer en kw, on comprend qu une amélioration même infime du rendement de conversion (1 % par ex.) peut entraîner une économie d énergie substantielle. Le rendement n est pas toujours indiqué dans la documentation produit Commutation floor-level On distingue deux grands types de distribution de commutateurs au niveau floor ou applications : «fin de rangée» (end-of-row, EoR) et «haut de rack» (top-of-rack, ToR). Le premier correspond à une approche traditionnelle du réseautage, avec un commutateur unique dans un grand châssis supportant un ou plusieurs racks. Du point de vue de l efficacité énergétique, le déploiement EoR présente : l avantage d une commutation centralisée et modulaire, plus économe qu une solution ToR médiocre ; l inconvénient d une câblerie complexe, source d inefficacité dans les systèmes denses. Dans un déploiement ToR, un commutateur est intégré à chaque rack. Cette conception assure une faible latence et un haut débit de transmission de données. En termes d efficacité énergétique, ce déploiement présente : 42

43 4 Équipements de réseau 48 ports 48 ports } Switch 48 ports Tous les ports sont utilisés Câblage simple Rack #1 Rack #2 Rack #1 Switch 48 ports Switch 48 ports Switch 48 ports 10 serveurs 14 serveurs 16 serveurs 8 serveurs Rack #2 Rack #3 Rack #4 } Configuration sub-optimale des serveurs Certains ports sont inutilisés Commutation ToR optimale Fig. 4.4: Commutation floor-level «haut de rack» (ToR) Déploiement ToR sub-optimal l avantage d une commutation décentralisée pour les environnements de serveurs denses (consolidation E/S), ce qui réduit la câblerie. La distance réduite entre le serveur et son commutateur améliore la vitesse de transmission et réduit la consommation d énergie liée. l inconvénient du surdimensionnement dans un environnement moins dense (peu de serveurs par rack). La sous-utilisation des ports disponibles entraîne alors une faible efficacité énergétique. Le déploiement ToR présente donc des éco-avantages s il est appliqué à des systèmes correctement dimensionnés. La Figure 4.4 illustre le concept du déploiement ToR et sa bonne utilisation. Pour aller plus loin Hintemann R. (2008) : Energy Efficiency in the Data centre, A Guide to the Planning, Modernization and Operation of Data centres, BITKOM, Berlin, online available: aspx EC JRC ISPRA (2011) : Best Practices for the EU Code of Conduct on Data centres European Commission (2011), EC Joint Research Centre, Ispra, online available : standby_initiative_data_centres.htm Juniper (2010) : Government Data centre Network Reference Architecture, Using a High-Performance Network Backbone to Meet the Requirements of the Modern Government Data centre Juniper (2010), Juniper Networks, Inc., Sunnyvale, available online : reference-architectures/ en.pdf Sources [1] Enterasys (2011) : Data centre Networking Connectivity and Topology Design Guide; Inc Enterasys Networks, Andover. [2] Lippis (2011) : Open Industry Network Performance & Power Test Industry Network Performance & Power Test for Private and Public Data centre Clouds Ethernet Fabrics Evaluating 10 GbE Switches; Lippis Enterprises, Inc, Santa Clara. [3] Cisco (2008) : Converging SAN and LAN Infrastructure with Fibre Channel over Ethernet for Efficient, Cost-Effective Data centres; Intel, Santa Clara. [4] Emulex (2008) : Sheraton Case Study. Virtual Fabric for IBM BladeCentre Increases Server Bandwidth, Reduces Footprint and Enables Virtualization for High-performance Casino Applications; Emulex, Costa Mesa [5] Blade.org (2008) : Blade Platforms and Network Convergence; Blade.org,White Paper

44 5 Refroidissement et alimentation des datacentres et salles serveurs Andrea Roscetti, Politecnico di Milano, Shailendra Mudgal, Thibault Faninger, Bio Intelligence Service Le refroidissement représente jusqu à 50 % de la consommation d énergie totale des datacentres et salles serveurs. Il est donc essentiel de concevoir un refroidissement efficace pour les sites informatiques, quelle que soit leur taille. Ce chapitre présente plusieurs grandes options pour réduire la facture énergétique. 5.1 Refroidissement des salles serveurs Les armoires à serveurs ou petites salles serveurs sont généralement équipées de climatiseurs de confort (systèmes CVC 1 de bureau). Les petites salles comportent généralement de 1 à 5 racks de serveurs, pour une puissance totale n excédant pas 20 kw Climatiseurs «split» et mobiles Fig. 5.1: Climatiseur «split» : unité murale Unité extérieure (Source: Daikin) Les petites salles serveurs font le plus souvent appel à des climatiseurs composés de deux unités, d une puissance de refroidissement de 1 à 100 kw. Les systèmes «split» ou DX 2 présentent plusieurs avantages : Un coût d investissement généralement peu élevé ; Une grande simplicité de conception et d installation ; Un faible encombrement au sol (unités généralement montées aux murs) ; Une installation possible dans la quasi-totalité des situations ; La simplicité et la rapidité de l entretien et du remplacement. Il faut toutefois tenir compte de leurs inconvénients : Une efficacité globale très réduite pour les systèmes petits, anciens ou surdimensionnés ; Un mauvais contrôle de l humidité ; Des contraintes de longueur et hauteur des tuyaux reliant les unités. Il est possible d installer un système mobile, par exemple pour prévenir la formation de zones chaudes. Cette technologie présente les avantages suivants : Très faible coût d investissement ; Simplicité de l installation ; Faible encombrement au sol ; Simplicité et rapidité de l entretien et du remplacement. 1) CVC: chauffage, ventilation, climatisation 2) DX: détente directe 44

45 Elle présente aussi les inconvénients suivants : Faible efficacité globale (les systèmes mobiles de classe A sont moins efficaces que les systèmes «split» de classe D) ; Faible contrôle de l humidité et de la température ; Installation possible uniquement si l air peut être expulsé à l extérieur Mesures d optimisation de l efficacité énergétique Pour éviter le surdimensionnement, problème courant dans les petites salles serveurs, il est généralement recommandé que la puissance de refroidissement n excède pas 120 % de la puissance des systèmes informatiques installés dans les salles bien isolées. L étiquetage énergétique de l UE peut servir à orienter le choix au moment de l achat de nouveaux appareils jusqu à 12 kw de puissance de refroidissement. On privilégiera les ratios EER 3 /SEER 4 élevés et l efficacité de classe A ou plus. Le SEER et la consommation annuelle en kwh sont les deux principaux critères de comparaison. Le Tableau 5.1 indique l efficacité des meilleures technologies actuellement sur le marché. L étiquetage reste purement facultatif jusqu au 1 er janvier L ancien étiquetage des climatiseurs (Directive 2002/31/CE) reste permis pendant cette période de transition. Fig. 5.2: Étiquetage énergétique des climatiseurs (Source: Règlement délégué complétant la directive 2010/30/UE du Parlement européen et du Conseil sur l indication, par voie d étiquetage, de la consommation d énergie des climatiseurs) Tab. 5.1: Valeurs de performance énergétique des meilleures technologies disponibles pour les petits climatiseurs (<12 kw) (source: exigences d écoconception applicables aux climatiseurs et aux ventilateurs de confort) Critères de référence pour les climatiseurs Climatiseurs, à l exception des climatiseurs à double et simple conduit Climatiseurs à double conduit Climatiseurs à simple conduit SEER SEER SEER 8,50 3,00 3,15 3) Energy Efficiency Ratio: coefficient d efficacité énergétique 4) Seasonal EER: coefficient d efficacité énergétique saisonnier 45

46 RECOMMANDATIONS DE BONNES PRATIQUES Salles serveurs existantes Éliminer l apport solaire, la transmission de chaleur et les pertes de ventilation vers les autres pièces/l extérieur. Contrôler et gérer les conditions environnementales (points de consigne) : l air entrant dans les équipements informatiques doit être à C (suggestion : C). Vérifier l isolation des conduits/tuyaux (air chaud et froid/eau/liquides). Envisager de remplacer les composants du système de refroidissement obsolètes ou moins efficaces (comparer la classe d efficacité des systèmes existants avec les plus efficaces disponibles sur le marché). Contrôler et vérifier l architecture du système de refroidissement installé (par ex. la distance entre systèmes de refroidissement et les charges thermiques). Éteindre les lumières et supprimer dans la mesure du possible les autres charges et sources de chaleur mécaniques/électriques. Salles serveurs neuves Évaluer l utilisation de systèmes de refroidissement de précision (afin de supprimer la chaleur sensible et d éviter une déshumidification excessive). Définir et évaluer les caractéristiques de la pièce et de ses équipements, en tenant compte des contraintes d espace et de la distance entre charges et unités externes. Éviter le recours à des unités mobiles ou à faible EER (NB : les systèmes mobiles de classe A sont moins efficaces que les systèmes split de classe D). Comparer différents systèmes : choisir la classe énergétique supérieure (obligatoire pour les petits systèmes) ; maximiser l efficacité du refroidissement (SEER, voir tableau sur les meilleures technologies disponibles). Envisager les possibilités de free cooling. 5.2 Refroidissement des datacentres moyens à grands Généralités Le refroidissement des datacentres de taille moyenne à grande repose traditionnellement sur la ventilation. Un datacentre standard est conçu pour refroidir en moyenne 7,5-10 kw/m 2, soit 1 à 3 kw/rack. Ce chiffre a été porté à 20 kw/m 2 dans les nouveaux centres, mais la densité par rack reste limitée à 4-5 kw (ne pas oublier que la capacité maximale des systèmes consolidés ou des serveurs lames peut dépasser 25 kw/rack). Les équipements informatiques sont disposés en rangées, avec des entrées d air situées du côté des allées froides. L air froid est insufflé dans l allée, traverse les équipements puis est expulsé vers l allée chaude. Il convient de considérer les caractéristiques des flux d air, qui doivent de préférence aller d avant en arrière, d avant vers le haut ou d avant/du haut vers l arrière (voir source). Si des équipements ayant des conditions d opération ou des directions de flux d air différentes doivent être installés dans une même pièce, il faudra leur créer des espaces séparés. Si l équipement présente des exigences d environnement différentes, il est préférable de fournir des contrôles séparés afin d éviter des inefficacités dues à un point de consigne trop bas ou à un mauvais contrôle du flux [1]. 46

47 5 Refroidissement et alimentation des datacentres et salles serveurs Contrôle de la température et de l humidité Les datacentres doivent être conçus et opérés avec la plus grande efficacité possible compte tenu des données climatiques (température au thermomètre sec 5 ). La température recommandée est comprise entre 18 et 27 C, pour une humidité relative <60 % (air d entrée dans les équipements). Le point de rosée doit être situé entre 5,5 et 15 C. Les études sur la température de l air d entrée concluent à une fourchette optimale de C. Au-dessus, la consommation des ventilateurs internes des serveurs et autres équipements l emportera sur l efficacité accrue du système de refroidissement (voir sources). En dessous, le sur-refroidissement entraîne un gaspillage d énergie. En plus du contrôle de la température, l optimisation des flux d air (par ex. allées chaude/froide [2], plaques d obturation, étanchéisation) est essentielle à l efficacité énergétique. Elle l est d autant plus que la température est élevée, si l on veut éviter la formation de zones chaudes. À très haute densité énergétique (25 kw/rack par ex.), le refroidissement traditionnel par climatiseur ne suffit plus à éviter la formation de zones chaudes [3],[4],[5]. Un refroidissement spécifique au niveau du rack ou de la rangée peut alors s imposer. RECOMMANDATIONS DE BONNES PRATIQUES Gestion des systèmes de refroidissement : Contrôler et gérer les conditions environnementales (point de consigne, programmation, emplacement et nombre de capteurs). Remplacer les composants obsolètes ou moins efficaces du système de refroidissement par d autres plus efficaces. Vérifier l isolation des conduits/tuyaux (air chaud et froid/eau/liquides). Placer le climatiseur en bout d allée chaude (à la perpendiculaire). Séparer les équipements présentant des exigences distinctes (flux d air/température). Flux d air : Placer les alimentations (dalles de sol perforées ou buses) dans les allées froides uniquement et à proximité des équipements actifs. Confiner l air chaud pour éviter qu il ne se mélange à l air de la pièce. Installer des panneaux d obturation à tous les endroits ouverts du rack et au sein des racks pour empêcher la recirculation de l air chaud. Câblerie : Utiliser un chemin de câbles. Contrôler l emplacement et l étanchéité des passe-câbles et dalles de sol. Critères de sélection de nouveaux systèmes de refroidissement efficaces : Comparer l efficacité des unités de refroidissement (voir sources pour exigences de refroidissement). Comparer les différentes options de conception du flux d air (allées chaudes/froides, faux plancher/ faux plafond de retour d air). Envisager les solutions suivantes : refroidissement intégré au rack (pour les systèmes à haute densité) free cooling (direct/indirect) free cooling à eau installation de refroidissement par liquide (direct/indirect) récupération de chaleur Installer un système de refroidissement modulaire (lié à la conception et à la gestion des équipements informatiques). Utiliser un simulateur numérique (CFD) pour optimiser le refroidissement. 5) Se dit de la température relevée par un thermomètre exposé à l air, mais abrité du soleil et de l humidité. 47

48 5.2.3 Efficacité des composants (compresseurs, ventilateurs, centrales de traitement d air) Les différents types d unités de refroidissement se distinguent par leur coefficient d efficacité énergétique (EER) 6 : celui-ci est généralement d environ 3,5 pour les systèmes à eau et 2,5 pour les systèmes à air. Le coefficient d efficacité énergétique nominal («EERrated») est égal au rapport entre la puissance réfrigérante déclarée [kw] et la puissance électrique consommée nominale [kw] d une unité produisant du froid dans des conditions nominales. Eurovent fournit des données permettant de comparer l efficacité caractéristique de plusieurs systèmes et composants de refroidissement et ventilation ( Les compresseurs à eau sont préférables à ceux à air et à détente directe du fait de leur plus grande efficacité thermodynamique. Il faudra évaluer la possibilité d abaisser la température de condensation/augmenter la température d évaporation. Réduire le delta-t entre ces températures permet de réduire le travail du cycle de refroidissement et donc d améliorer l efficacité. Ces températures dépendent de la température de l air d entrée exigée (voir 5.2.2). L efficacité des ventilateurs dépend de celle de leur moteur. Les ventilateurs à vitesse fixe consomment plus et rendent difficile la gestion de la température au sol. Les ventilateurs à vitesse variable sont particulièrement efficaces en cas de forte redondance du système de refroidissement ou de fortes variations de la charge. Les ventilateurs peuvent être contrôlés par la température de l air de retour ou la pression de l air froid. 6) Coefficient d efficacité énergétique : refroidissement / consommation électrique pour un point d opération (température intérieure et extérieure, hygrométrie) donné Free cooling Le free cooling permet de bénéficier d un refroidissement «gratuit» quand la température de l air extérieur ou de l eau est inférieure à celle exigée à l intérieur. Plus la température extérieure moyenne est basse sur l année, plus grands sont le potentiel de free cooling et son niveau d efficacité. Des économiseurs à eau ou air peuvent apporter un refroidissement supplémentaire. L efficacité énergétique et le retour sur investissement dépendent des conditions climatiques. Le refroidissement peut passer en free cooling intégral si l écart entre la température de retour de l eau de refroidissement et la température ambiante est supérieur à environ 11 K. Plus la température d entrée est élevée et plus les économies d énergie seront importantes. Choisir une température ambiante plus élevée pour son système de refroidissement permet de recourir au free cooling plus longtemps dans l année. L implémentation du free cooling exige une étude de faisabilité et une évaluation économique. On pourra se reporter à l outil d évaluation conçu par The Green Grid. Pour des informations plus spécifiques sur le free cooling, se reporter aux suggestions de lecture. Transformateur réseau public Transformateurs surdimensionnés Inefficace, pertes importantes Générateur de réserve Distribution électrique Onduleurs (UPS) Faible capacité Topologie inefficace Faible facteur de puissance d entrée Fort facteur de courant d entrée Unités de distribution d alimentation (PDU) Transformateurs inefficaces Utilisation excessive Charge informatique Faible facteur de puissance Courant élevé Taux de distorsion harmonique Faible utilisation Autres charges (refroidissement, éclairage, etc.) Surdimensionné Redondance excessive Charge thermique excessive Pertes de charge dues aux câbles (typ.) Éclairage Espace au sol non utilisé Absence de contrôle de l éclairage Refroidissement Hautes températures dans la zone serveur Fig. 5.3: Composants de l infrastructure électrique d un datacentre avec leurs sources d inefficacité (ASHRAE: Save Energy Now Presentation Series, 2009). 48

49 5 Refroidissement et alimentation des datacentres et salles serveurs Refroidissement au niveau du rack/de la rangée Avec des densités énergétiques excédant 25 kw par rack sur les équipements modernes, le refroidissement traditionnel par climatiseurs ne suffit plus à éviter la formation de zones chaudes (voir sources). 5.3 Alimentation et onduleurs dans les datacentres Le système d alimentation électrique d un datacentre a pour tâche essentielle de transformer le courant alternatif (CA) en courant continu (CC). Les pertes dues à cette transformation varient en fonction du degré de charge. L efficacité la plus importante est généralement atteinte entre 80 et 90 % de la charge totale ; elle décroît sensiblement en-deçà de 50 %. La Figure 5.3 illustre le schéma électrique d un datacentre. Les sources traditionnelles d inefficacité sont indiquées pour chaque composant. Les onduleurs (UPS) sont souvent synonymes d importantes économies potentielles d énergie. L UPS est opéré en continu pour fournir une alimentation de secours et un conditionnement de puissance pour les équipements informatiques et certains éléments d infrastructure. Au-delà de sa fonction première assurer l alimentation à court terme en cas de défaillance du réseau l UPS fournit aussi différentes options pour remédier aux problèmes de puissance. On distingue trois grandes topologies disponibles en fonction de l application souhaitée : Attente passive : ce mode dépendant de la puissance et de la fréquence (VFD) ne protège que des défaillances d alimentation (coupures de courant, variations de tension). En situation normale, l UPS n a aucune interaction avec le réseau. Lorsque la tension alternative du réseau d entrée est hors des tolérances spécifiées, l onduleur et la batterie prennent le relais pour assurer la permanence de l alimentation de la charge. Cette topologie est surtout répandue dans les applications à faible puissance. Interaction avec le réseau : ce mode indépendant de la tension (VI) protège la charge comme l attente passive, mais régule la fréquence à un niveau optimal. Il assure notamment une protection contre les variations de tension d entrée (surtensions, sous-tensions) à long terme. Cette topologie est rarement utilisée au-delà de 5000 VA [7]. Double conversion : ce mode indépendant de la tension et de la fréquence (VFI) protège la charge des variations indésirables de la tension et de la fréquence sans entamer les réserves d énergie stockée. Il assure une alimentation continue de la puissance totale en régulant l électricité avant qu elle n atteigne la charge. Cette topologie est rare pour les charges inférieures à 750 VA. Chacune de ces topologies présente ses avantages et inconvénients. Sur les puissances comprises entre 750 et 5000 VA, le mode interactif tend à combiner longévité et fiabilité accrues avec un coût total de possession réduit, mais le mode double conversion est moins encombrant et peut réguler la fréquence de sortie. Les onduleurs offrent aussi plusieurs mécanismes de stockage d énergie pour assurer une alimentation continue en cas de coupure : batteries d accumulateurs, qui stockent et libèrent l énergie électrique par conversion de l énergie chimique ; volant d inertie pour un stockage à court terme, sous forme d énergie mécanique. 49

50 Tab. 5.2: Efficacité caractéristique des différentes topologies d onduleurs Topologie Efficacité à 25% de charge Efficacité à 50% de charge Efficacité à 75% de charge Efficacité à 100% de charge Double conversion 81 93% 85 94% 86 95% 86 95% Interaction avec le réseau Tab. 5.3: Efficacité moyenne minimum exigée pour les onduleurs à CA de sortie proposée par EnergyStar (P = puissance réelle en watts (W), ln = logarithme népérien) Efficacité moyenne minimum (EffAVG_MIN) Classe d onduleur Puissance de sortie n.a % 98% 98% Dépendance au courant d entrée (selon méthodologie ENERGY STAR) VFD VI VFI Datacentre P > 10 kw 0,97 0,96 0,0058 x ln (P) + 0,86 Deux options existent pour délivrer l énergie à la charge : UPS statique : pas de pièces mobiles (en dehors des ventilateurs de refroidissement). Le CA est converti en CC (redresseur pour le stockage au niveau des batteries pour assurer la continuité) puis à nouveau en CA pour alimenter les serveurs. UPS dynamique : le courant est transféré via un moteur/générateur et destiné à des applications devant traverser un court épisode d anomalie électrique (coupure, baisse de tension, etc.). Les pertes d énergie des onduleurs sont dues à la conversion du courant électrique (au niveau du chargeur et de l onduleur), de la charge de la batterie ou du système d inertie (volant). Ces pertes et la chaleur qui en résulte sont plus importantes en mode double conversion (redresseur, onduleur, filtre et interconnexion) qu en mode interaction et attente passive (filtre, transformateur et interconnexion). Les UPS à sortie en CC (ou redresseurs) et les UPS à sortie CA/CC combinée peuvent servir pour certaines applications et éviter les pertes au niveau de l onduleur et du redresseur. RECOMMANDATIONS DE BONNES PRATIQUES Critères pour les nouvelles installations Bien évaluer ses besoins et la taille des onduleurs (UPS multiples ou modulaires, solutions évolutives) : autonomie, coût, taille, nombre de sorties, etc. Analyser la technologie de l onduleur et son efficacité. Prendre en compte l efficacité à charge partielle. Sélectionner la bonne topologie. Sélectionner des onduleurs conformes au «Code of Conduct» européen ou au programme Energy Star. Critère pour l optimisation Analyser la technologie et son efficacité. Évaluer les options et les avantages du remplacement des vieux équipements. Évaluer les coûts et avantages de la redondance. 50

51 5 Refroidissement et alimentation des datacentres et salles serveurs La plupart des fabricants d onduleurs mentionnent une efficacité énergétique pour une charge de 100 %. Or l efficacité baisse de façon significative en conditions de charge partielle. La plupart des onduleurs tournent à 80 % et en cas de redondance, la charge peut chuter à 50 % et moins. Dans ce cas, les onduleurs modernes ou anciens sont moins efficaces énergétiquement, avec une chute significative pour les charges inférieures à 20 %. La bonne pratique consiste à adapter les onduleurs au plus près des charges des datacentres. Des solutions évolutives permettent un dimensionnement efficace de leur capacité. Le «Code de Conduite» européen (nouvelle édition 2011) définit des seuils planchers d efficacité énergétique pour les onduleurs, tout comme le programme Energy Star (draft 2011). De nouvelles valeurs pour les onduleurs à sortie CA et CC sont en cours d élaboration (voir Tableau 5.3). Energy Star envisage aussi de faire figurer des exigences pour les onduleurs multi-modes, pouvant alterner leur fonctionnement entre les différentes topologies présentées (VI, VFI, VFD). Ces onduleurs peuvent adopter un mode plus efficace, mais moins protecteur, puis passer en mode moins efficace mais plus protecteur quand la situation l exige, d où un important potentiel d économie d énergie. Pour aller plus loin ASHRAE (2011) : Thermal Guidelines for Data Processing Environments Expanded Data centre Classes and Usage Guidance ASHRAE, 2011, online available at: org/documents/ashrae%20whitepaper%20-% %20Thermal%20Guidelines%20for%20Data%20 Processing%20Environments.pdf EU Code of conduct for data centres (2009) : Full list of identified best practice options for data centre operators as referenced in the EU Code of Conduct: Best%20Practices%20v3.0.1.pdf The Green Grid (2011) : Evaluation tool for free cooling. calc_index_eu.html ENERGY STAR (2011) : UPS efficiency uninterruptible_power_supplies The Green Grid (2011) : Evaluation tool for power supply systems High Performance Buildings : Data centres Uninterruptible Power Supplies (UPS) Report.pdf EU CODE of CONDUCT (2011) : EU code of conduct on Energy Efficiency and Quality of AC Uninterruptible Power Systems (UPS): standby_initiative.htm Sources [1] ASHRAE : Save Energy Now Presentation Series, [2] Niemann, J. et al. (2010) : Hot-Aisle vs. Cold-Aisle Containment for Data centres; APC by Schneider Electric White Paper 135, Revision 1. [3] Rasmussen, N. (2010) : An improved architecture for High-efficiency High-density data centres; APC by Schneider Electric White Paper 126, Revision 1. [4] Blough, B. (2011) : Qualitative analysis of cooling architectures for data centres; The Green Grid White Paper #30. [5] Bouley, D. and Brey, T. (2009) : Fundamentals of data centre power and cooling efficiency zones; The Green Grid White Paper #21. [6] Rasmussen, N. (2011) : Calculating Total Cooling Requirements for Data centres; APC by Schneider Electric White Paper 25, Revision 3. [7] ENERGY STAR Uninterruptible Power Supply Specification Framework (2010) : Available at: new_specs/downloads/uninterruptible_power_supplies/ UPS_Framework_Document.pdf [8] Ton, M. and Fortenbury B. (2008) : High Performance Buildings: Data centres - Uninterruptible Power Supplies. Available at Report.pdf [9] Samstad, J. and Hoff M. : Technical Comparison of On-line vs. Line-interactive UPS designs; APC White Paper 79. Available at WP-79%20Technical%20Comparison%20of%20Online%20vs.%20Line-interactive%20UPS%20designs.pdf 51

52 floorfour Agentur für Kommunikation Efficacité énergétique des technologies et infrastructures dans les datacentres et salles serveurs Partenaires Soutenu par Contact : Agence autrichienne de l Energie Dr. Bernd Schäppi Mariahilferstrasse 136 A-1150 Vienna Tel [email protected] Contact France : BIO Intelligence Service Shailendra Mudgal Villa Deshayes Paris Tel [email protected]

Résolvez vos problèmes d énergie dédiée à l informatique

Résolvez vos problèmes d énergie dédiée à l informatique Résolvez vos problèmes d énergie dédiée à l informatique GRÂCE À UNE SOLUTION ENERGY SMART DE DELL Surmonter les défis énergétiques des datacenters Les responsables informatiques ont un problème urgent

Plus en détail

LES DATACENTRES. ANGD MATHRICE Novembre 2009. Françoise Berthoud Violaine Louvet. Merci à Dominique Boutigny. Site web : http://www.ecoinfo.cnrs.

LES DATACENTRES. ANGD MATHRICE Novembre 2009. Françoise Berthoud Violaine Louvet. Merci à Dominique Boutigny. Site web : http://www.ecoinfo.cnrs. LES DATACENTRES ANGD MATHRICE Novembre 2009 Françoise Berthoud Violaine Louvet Merci à Dominique Boutigny Site web : http://www.ecoinfo.cnrs.fr Quelques données : La consommation des centres de données

Plus en détail

Consortium e-server. Avec le soutien de

Consortium e-server. Avec le soutien de Consortium e-server Bernd Schäppi, Austrian Energy Agency Thomas Bogner, Austrian Energy Agency Bernhard Przywara, SUN Microsystems Silvio Weeren, IBM Frank Bellosa, Université de Karlsruhe Alain Anglade,

Plus en détail

Achats d équipements de datacentres et salles serveurs : Recommandations pour l inclusion de critères d efficacité énergétique

Achats d équipements de datacentres et salles serveurs : Recommandations pour l inclusion de critères d efficacité énergétique Achats d équipements de datacentres et salles serveurs : Recommandations pour l inclusion de critères d efficacité énergétique Une publication PrimeEnergyIT février 2012 Achats d équipements de datacentres

Plus en détail

Energy Logic : Emerson Network Power. Feuille de route pour la réduction r de la consommation d'énergie dans le Centre de données

Energy Logic : Emerson Network Power. Feuille de route pour la réduction r de la consommation d'énergie dans le Centre de données Energy Logic : Feuille de route pour la réduction r de la consommation d'énergie dans le Centre de données Emerson Network Power 2007 Emerson Network Power Agenda Efficacité énergétique : Où en sommes-nous

Plus en détail

DATA CENTER. Règles d'ingénierie du Data Center DATA CENTER

DATA CENTER. Règles d'ingénierie du Data Center DATA CENTER Règles d'ingénierie du Data Center SOMMAIRE La problématique La climatisation Les planchers techniques L énergie L urbanisation L industrialisation Conclusion LA PROBLEMATIQUE Rappel sur les Tiers Chaque

Plus en détail

Unités de distribution d'alimentation (PDU) :

Unités de distribution d'alimentation (PDU) : Unités de distribution d'alimentation (PDU) : Contrôles de l'alimentation et de l'environnement afin d'améliorer la 2009, Raritan Inc. Présentation Le monde des entreprises dépend plus que jamais des ressources

Plus en détail

LENOVO THINKSERVER GUIDE DES PRODUITS. Haute évolutivité et flexibilité conjointes au développement de l entreprise

LENOVO THINKSERVER GUIDE DES PRODUITS. Haute évolutivité et flexibilité conjointes au développement de l entreprise GUIDE DES PRODUITS LENOVO THINKSERVER Haute évolutivité et flexibilité conjointes au développement de l entreprise Augmentez le rendement, maximisez l efficacité et garantissez la continuité des activités

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

Emerson montre aux centres de données comment réduire ses coûts énergétiques

Emerson montre aux centres de données comment réduire ses coûts énergétiques Emerson montre aux centres de données comment réduire ses coûts énergétiques Face à des budgets de plus en plus serrés, des inquiétudes sur l empreinte écologique, ainsi que des coûts de plus en plus élevés

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Réduction des coûts de consommation dans un datacenter

Réduction des coûts de consommation dans un datacenter Réduction des coûts de consommation dans un datacenter Didier Magotteaux Thierry Engels L hôpital dans son environnement, journées d études 3 & 4 juin 2010 09/06/2010 1 Saviez-vous que NRB...? Est l une

Plus en détail

Outils de planification et gestion pour datacentres

Outils de planification et gestion pour datacentres ACT-MG-v2 Outils de planification et gestion pour datacentres Alain BIDAUD - CRIHAN TutoJRES 17 Outils de planification et gestion Agenda Pourquoi planifier? l écosystème du datacentre Les outils DCIM

Plus en détail

SOMMAIRE. 1. Architecture proposée. 2. Constituants de la solution. 3. Supervision DATA CENTER OPTION SERVICE

SOMMAIRE. 1. Architecture proposée. 2. Constituants de la solution. 3. Supervision DATA CENTER OPTION SERVICE SOMMAIRE DATA CENTER OPTION SERVICE 1. Architecture proposée 2. Constituants de la solution 3. Supervision 1 1 ARCHITECTURE GENERALE 2 Implantation Plan du site et localisation de la salle informatique

Plus en détail

Indicateurs Normes Codes de conduite. Françoise Berthoud Grenoble, 12 juin 2012

Indicateurs Normes Codes de conduite. Françoise Berthoud Grenoble, 12 juin 2012 Indicateurs Normes Codes de conduite Françoise Berthoud Grenoble, 12 juin 2012 Pas de normes globales.. Mais 2 initiatives importantes Recenser les Normes concevoir un document (2013) (Coordination Group

Plus en détail

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013 Gé[email protected] Ibrahim.Safieddine@eolas.

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013 Gérald.Dulac@eolas.fr Ibrahim.Safieddine@eolas. Le monde naissant des datacenters de nouvelle génération ICAR-2013 Datacenter vert agile Grenoble Lyon Paris Gé[email protected] [email protected] Datacenter de nouvelle génération vert agile?

Plus en détail

Conception d une infrastructure «Cloud» pertinente

Conception d une infrastructure «Cloud» pertinente Conception d une infrastructure «Cloud» pertinente Livre blanc d ENTERPRISE MANAGEMENT ASSOCIATES (EMA ) préparé pour Avocent Juillet 2010 RECHERCHE EN GESTION INFORMATIQUE, Sommaire Résumé........................................................

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de

Plus en détail

réduisez la facture électrique

réduisez la facture électrique réduisez la facture électrique et l empreinte carbone de votre parc informatique LE CONSTAT La consommation électrique liée aux TIC représenterait 13% de la consommation totale*. Cette dernière serait

Plus en détail

Stratégie intelligente de reprise d activité pour les postes de travail : postes de travail sous forme de service (DaaS) LIVRE BLANC

Stratégie intelligente de reprise d activité pour les postes de travail : postes de travail sous forme de service (DaaS) LIVRE BLANC Stratégie intelligente de reprise d activité pour les postes de travail : postes de travail sous forme de service (DaaS) LIVRE BLANC Sommaire Résumé analytique.... 3 L improbable n a jamais été aussi probable....

Plus en détail

Modélisation du rendement électrique des datacenters

Modélisation du rendement électrique des datacenters Modélisation du rendement électrique des datacenters Par Neil Rasmussen Livre blanc n 113 Révision n 1 Résumé de l'étude Les systèmes de mesure traditionnels du rendement énergétique des datacenters sont

Plus en détail

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz Choix d'un serveur Vous êtes responsable informatique d'une entreprise. Vous devez faire un choix pour l'achat d'un nouveau serveur. Votre prestataire informatique vous propose les choix ci-dessous Vous

Plus en détail

Protection des données avec les solutions de stockage NETGEAR

Protection des données avec les solutions de stockage NETGEAR Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La

Plus en détail

Enjeux énergétiques Datacenter et postes de travail

Enjeux énergétiques Datacenter et postes de travail Enjeux énergétiques Datacenter et postes de travail Sommaire Présentation de Greenvision L électricité : enjeux et chiffres clés Le datacenter Caractéristiques d un datacenter La consommation électrique

Plus en détail

EHDC. Système de refroidissement pour Data Center et armoires de serveur.

EHDC. Système de refroidissement pour Data Center et armoires de serveur. EHDC Système de refroidissement pour Data Center et armoires de serveur. EHDC PEN LP EHDC L est un module de refroidissement à haute densité pour les configurations en boucle ouverte. Il peut être utilisé

Plus en détail

Serveurs et solutions PowerEdge pour les applications métiers

Serveurs et solutions PowerEdge pour les applications métiers s et solutions PowerEdge pour les applications métiers s et solutions PowerEdge pour les applications métiers Chez Dell, nous sommes tous les jours à votre écoute. Vous nous avez dit que vos infrastructures

Plus en détail

EMC DATA DOMAIN HYPERMAX

EMC DATA DOMAIN HYPERMAX EMC DATA DOMAIN HYPERMAX Optimisation du stockage de protection EMC AVANTAGES CLÉS Déduplication évolutive et ultrarapide Jusqu à 58,7 To/h de débit Réduit de 10 à 30 fois le stockage de sauvegarde, et

Plus en détail

Toutes les solutions pour l efficacité énergétique de votre entreprise

Toutes les solutions pour l efficacité énergétique de votre entreprise Toutes les solutions pour l efficacité énergétique de votre entreprise Parc informatique Bâtiment intelligent & connecté Data Center Fruits de notre expertise IT, les logiciels que vous découvrirez dans

Plus en détail

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Des performances haut de gamme à un prix avantageux ETERNUS DX : le stockage centré

Plus en détail

L unique SAN industriel proposant un stockage multiniveau automatisé (Automated Tiered Storage)

L unique SAN industriel proposant un stockage multiniveau automatisé (Automated Tiered Storage) Storage Center Baie de stockage STORAGE CENTER Transcende les limites des systèmes de stockage classiques Les fournisseurs de stockage actuels promettent de réduire le temps et les sommes d argent que

Plus en détail

Datacentre : concilier faisabilité, performance et éco-responsabilité

Datacentre : concilier faisabilité, performance et éco-responsabilité Datacentre : concilier faisabilité, performance et éco-responsabilité La climatisation des salles informatiques: compréhension et état des lieux Charles Vion, Responsable Service Projet Sylvain Ferrier,

Plus en détail

Marché Public. Serveurs et Sauvegarde 2015

Marché Public. Serveurs et Sauvegarde 2015 Marché Public Serveurs et Sauvegarde 2015 Remise des Offres avant le lundi 22 juin 2015 à 16h 1 P a g e Table des matières 1. OBJET DE LA CONSULTATION... 4 1.1. Description de la consultation... 4 1.2.

Plus en détail

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé IBM CloudBurst Créer rapidement et gérer un environnement de Cloud privé Points clés Accélérez le déploiement d'un Cloud privé à l'aide d'un système préinstallé et préintégré avec des logiciels, des serveurs

Plus en détail

Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT 2014 1

Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT 2014 1 Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT 2014 1 Rittal Une entreprise du Friedhelm Loh Group Des faits et chiffres qui parlent d eux même: Fondé en 1961 Plus de 10 000 collaborateurs

Plus en détail

Green (?) datacenter. Green Datacenter - TIC et environnement - Institut Mines Telecom - 13 mai 2014, [email protected]

Green (?) datacenter. Green Datacenter - TIC et environnement - Institut Mines Telecom - 13 mai 2014, boutherin@lpsc.in2p3.fr Green (?) datacenter 1 Les enjeux Un datacentre c est quoi? Une baie = 40 à 80 serveurs, ou 240 disques Une baie, deux baies 100 baies, 10 000 baies! Une puissance de traitement/stockage qui donne le vertige!

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Estimation & amélioration du DCiE d un datacenter

Estimation & amélioration du DCiE d un datacenter Estimation & amélioration du DCiE d un datacenter Ing. G. BAUDOIN PIERRARD Virton Dans un premier temps, le but de ce travail réalisé dans les domaines de l HVAC et de l électricité est d estimer théoriquement

Plus en détail

DOCUMENT DE TRAVAIL DES SERVICES DE LA COMMISSION RÉSUMÉ DE L'ANALYSE D'IMPACT. accompagnant le document:

DOCUMENT DE TRAVAIL DES SERVICES DE LA COMMISSION RÉSUMÉ DE L'ANALYSE D'IMPACT. accompagnant le document: COMMISSION EUROPÉENNE Bruxelles, le 22.4.2015 SWD(2015) 88 final DOCUMENT DE TRAVAIL DES SERVICES DE LA COMMISSION RÉSUMÉ DE L'ANALYSE D'IMPACT accompagnant le document: Rapport de la Commission au Parlement

Plus en détail

Optimisez vos environnements Virtualisez assurément

Optimisez vos environnements Virtualisez assurément Optimisez vos environnements Virtualisez assurément Présenté par Jean-Steve Shaker Architecte de solutions - Virtualisation Une approche unique et simplifiée Solutions en Solutions d infrastructure infrastructure

Plus en détail

Prestations de conseil en SRM (Storage Ressource Management)

Prestations de conseil en SRM (Storage Ressource Management) Prestations de conseil en SRM (Storage Ressource Management) Sommaire 1 BUTS DE LA PRESTATION 2 PRESENTATION DE LA PRESTATION 3 3 3 ETAPE 1 : ELEMENTS TECHNIQUES SUR LESQUELS S APPUIE LA PRESTATION DE

Plus en détail

Résolution des problèmes de refroidissement provoqués par le déploiement de serveurs haute densité en dix étapes

Résolution des problèmes de refroidissement provoqués par le déploiement de serveurs haute densité en dix étapes Résolution des problèmes de refroidissement provoqués par le déploiement de serveurs haute densité en dix étapes De Peter Hannaford Livre blanc n 42 Résumé de l étude Le déploiement de serveurs haute densité

Plus en détail

Solution IT Power Management Gérer la consommation électrique de toute votre infrastructure IT

Solution IT Power Management Gérer la consommation électrique de toute votre infrastructure IT Solution IT Power Management Gérer la consommation électrique de toute votre infrastructure IT Executive Summary Contenu Introduction à JouleX Energy Manager... 3 Contexte client et enjeux... 4 Un enjeu

Plus en détail

EMC DATA DOMAIN OPERATING SYSTEM

EMC DATA DOMAIN OPERATING SYSTEM EMC DATA DOMAIN OPERATING SYSTEM Au service du stockage de protection EMC AVANTAGES CLÉS Déduplication évolutive ultrarapide Jusqu à 31 To/h de débit Réduction des besoins en stockage de sauvegarde de

Plus en détail

ACQUISITION DE MATERIEL INFORMATIQUE

ACQUISITION DE MATERIEL INFORMATIQUE ACQUISITION DE MATERIEL INFORMATIQUE MARCHE A PROCEDURE ADAPTEE (ARTICLE 28 DU CODE DES MARCHES PUBLICS) CAHIER DES CLAUSES TECHNIQUE PARTICULIERES VALANT REGLEMENT DE LA CONSULTATION 2/03/2015 Le présent

Plus en détail

Gestion de l infrastructure des Datacenters

Gestion de l infrastructure des Datacenters Gestion de l infrastructure des Datacenters La situation du marché vue par les spécialistes Promesses, défis et impératifs de la gestion de l Infrastructure des Datacenters DCIM) Promesses, défis et impératifs

Plus en détail

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? DOSSIER SOLUTION Solution CA Virtual Placement and Balancing Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? agility made possible La solution automatisée

Plus en détail

Présentation Infrastructure DATACENTRE

Présentation Infrastructure DATACENTRE Présentation Infrastructure DATACENTRE Innovatec de Gemsol : l activité ISP & le Datacentre 1500 hébergements h et services associés s de clients situés s en France & en Espagne Datacentre d un haut niveau

Plus en détail

7 avantages à la virtualisation des applications stratégiques de votre entreprise

7 avantages à la virtualisation des applications stratégiques de votre entreprise 7 avantages à la virtualisation des applications stratégiques de votre entreprise Contenu de cet ebook Mise en contexte Avantage 1 : Accélération des mises à niveau grâce au clonage Avantage 2 : Réservation

Plus en détail

Paul-François Cattier, APC by Schneider Electric France : la France est un territoire propice pour les datacenters

Paul-François Cattier, APC by Schneider Electric France : la France est un territoire propice pour les datacenters Page 1 of 6 INTERNATIONAL Interviews Paul-François Cattier, APC by Schneider Electric France : la France est un territoire propice pour les datacenters octobre 2008 par Emmanuelle Lamandé Prochains sommaires

Plus en détail

COMMENT... Gérer efficacement un centre de données

COMMENT... Gérer efficacement un centre de données COMMENT... Gérer efficacement un centre de données Note de l éditeur Dans le domaine des technologies de l information, notre efficacité a toujours fait notre fierté. Correctement appliquées, les technologies

Plus en détail

Présentation de la gestion des infrastructures de centres de données

Présentation de la gestion des infrastructures de centres de données Présentation de la gestion des infrastructures de centres de données 2010 Raritan Inc. Présentation La demande mondiale pour des applications informatiques innovantes et plus puissantes, combinée aux avantages

Plus en détail

Portefeuille de solutions HP pour la virtualisation

Portefeuille de solutions HP pour la virtualisation Portefeuille de solutions HP pour la virtualisation Table des Matières Introduction P3 1. Les avantages de la Virtualisation P4 2. La valeur Ajoutée HP P6 3. La valeur Ajoutée Intel P8 4. Le portefeuille

Plus en détail

Système de stockage IBM XIV Storage System Description technique

Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de

Plus en détail

Solutions globales de monitoring sans fil

Solutions globales de monitoring sans fil Solutions globales de monitoring sans fil Les Points forts Détails produit Packet Power fournit le moyen le plus simple et le meilleur rapport efficacité/performance pour la collecte détaillée des puissances

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

SAUTER novapro Open : B-AWS. BACnet Advanced Workstation

SAUTER novapro Open : B-AWS. BACnet Advanced Workstation SAUTER novapro Open : B-AWS BACnet Advanced Workstation SAUTER novapro Open : un système SCADA répondant à tous les besoins pour tout type de bâtiments. Ouvert pour les bâtiments publics Sûr pour FDA et

Plus en détail

Fiche produit Serveur FUJITSU PRIMERGY BX900 S2 Système de serveur lame

Fiche produit Serveur FUJITSU PRIMERGY BX900 S2 Système de serveur lame Fiche produit Serveur FUJITSU PRIMERGY BX900 S2 Système de serveur lame Elasticité pour une adaptation dynamique selon vos besoins Les serveurs lames Fujitsu PRIMERGY BX constituent une solution rapide,

Plus en détail

Cisco Unified Computing Migration and Transition Service (Migration et transition)

Cisco Unified Computing Migration and Transition Service (Migration et transition) Cisco Unified Computing Migration and Transition Service (Migration et transition) Le service Cisco Unified Computing Migration and Transition Service (Migration et transition) vous aide à migrer vos applications

Plus en détail

La nouvelle solution de stockage V3700

La nouvelle solution de stockage V3700 IBM Suisse Express Angebote Hiver 2013 La nouvelle solution de stockage V3700 SPECIAL SERVER TRADE-IN Up to CHF 600.- FOR A LIMITED TIME ONLY Offres IBM Express Hiver 2013 2 NOTRE offre d échange de serveurs

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Description du produit

Description du produit Fiche technique Solution de gestion de réseaux locaux sans fil WLM1200 Présentation des produits Au vu de l intérêt croissant pour la mobilité, la gestion des réseaux locaux sans fil (WLAN) revêt une importance

Plus en détail

La surveillance réseau des Clouds privés

La surveillance réseau des Clouds privés La surveillance réseau des Clouds privés Livre blanc Auteurs : Dirk Paessler, CEO de Paessler AG Gerald Schoch, Rédactrice technique de Paessler AG Publication : Mai 2011 Mise à jour : Février 2015 PAGE

Plus en détail

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization)

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization) Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization) Préparé par : Zeus Kerravala Les cinq raisons majeures pour déployer SDN et NFV NetworkWorld,

Plus en détail

TBR. Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013

TBR. Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013 Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013 TBR T E C H N O L O G Y B U S I N E S S R E S E AR C H, I N C. 1 TBR IBM Nurture Stream

Plus en détail

CONSULTATION : (MAPA) MAT_INFO_2013_03 Marché à procédure adaptée (MAPA) MAT_INFO_2013_03

CONSULTATION : (MAPA) MAT_INFO_2013_03 Marché à procédure adaptée (MAPA) MAT_INFO_2013_03 Ministère de l enseignement Supérieur et de la recherche SUPMECA INSTITUT SUPERIEUR DE MÉCANIQUE DE PARIS 3 Rue Fernand Hainaut 93400 Saint-Ouen cedex CONSULTATION : (MAPA) MAT_INFO_2013_03 Marché à procédure

Plus en détail

ETUDE D EFFICACITE ENERGETIQUE. MICROSOFT Sites : Paris les Ulis - Issy les Moulineaux

ETUDE D EFFICACITE ENERGETIQUE. MICROSOFT Sites : Paris les Ulis - Issy les Moulineaux ETUDE D EFFICACITE ENERGETIQUE Mai & Septembre 2009 MICROSOFT Sites : Paris les Ulis - Issy les Moulineaux APC by Schneider Electric Groupe Audit d Infrastructures Informatiques 35 rue Joseph MONIER CS30323

Plus en détail

Playbook du programme pour fournisseurs de services 2e semestre 2014

Playbook du programme pour fournisseurs de services 2e semestre 2014 Playbook du programme pour fournisseurs de services 2e semestre 2014 Sommaire 3 Bienvenue dans le programme VSPP (VMware Service Provider Program) 4 Présentation de VMware vcloud Air Network 5 VMware vcloud

Plus en détail

Optimisez votre installation électrique avec StruxureWare Power Monitoring Expert

Optimisez votre installation électrique avec StruxureWare Power Monitoring Expert Optimisez votre installation électrique avec StruxureWare Power Monitoring Expert Le logiciel StruxureWare Power Monitoring Expert permet d améliorer la fiabilité et les performances de votre installation

Plus en détail

UMG 20CM. UMG 20CM Appareil de surveillance des circuits de distribution avec 20 entrées et RCM. Analyse d harmoniques RCM. Gestion d alarmes.

UMG 20CM. UMG 20CM Appareil de surveillance des circuits de distribution avec 20 entrées et RCM. Analyse d harmoniques RCM. Gestion d alarmes. RCM Analyse d harmoniques Gestion d alarmes 02 Logiciel d analyse GridVis 20 entrées courant UMG 20CM Appareil de surveillance des circuits de distribution avec 20 entrées et RCM Interface / Communikation

Plus en détail

Retour d'expérience CC-IN2P3

Retour d'expérience CC-IN2P3 Dominique Boutigny Retour d'expérience CC-IN2P3 ANF - Datacentres Le CC-IN2P3 au CNRS Centre de calcul dédié Institut National de Physique Nucléaire et de Physique des Particules Le CC-IN2P3 centralise

Plus en détail

Retours d expériences et perspectives sur les aspects énergétiques

Retours d expériences et perspectives sur les aspects énergétiques Retour d expériences Retours d expériences et perspectives sur les aspects énergétiques d un mesocentre (Grenoble) GreenDays@Luxembourg CIMENT, LIG 28-29 Janvier 2013 Bruno Bzeznik Retour d expériences

Plus en détail

Experts efficience informatique

Experts efficience informatique Experts efficience informatique Date 3 février 2014 Martin Dargent Dirigeant EasyVirt [email protected] 06 69 55 75 18 Présentation d EasyVirt EasyVirt Jeune Entreprise Innovante issue de 7 ans

Plus en détail

Article sur les caractéristiques assignées du neutre dans l'ue

Article sur les caractéristiques assignées du neutre dans l'ue Article sur les caractéristiques assignées du neutre dans l'ue Introduction La concurrence mondiale explose, forçant les sociétés à rechercher la valeur ajoutée et à automatiser les processus chaque fois

Plus en détail

Je bénéficie désormais des avantages exceptionnels de la virtualisation pour mon stockage. Virtual SAN est aussi économique que simple à utiliser.

Je bénéficie désormais des avantages exceptionnels de la virtualisation pour mon stockage. Virtual SAN est aussi économique que simple à utiliser. Je bénéficie désormais des avantages exceptionnels de la virtualisation pour mon stockage. Virtual SAN est aussi économique que simple à utiliser. VMware Virtual SAN Le software-defined storage ultra simple

Plus en détail

En ce qui concerne le datacenter de Facebook à Prineville, l Open Compute a permis de :

En ce qui concerne le datacenter de Facebook à Prineville, l Open Compute a permis de : Facebook lance le projet Open Compute pour partager avec le reste du monde des serveurs sur mesure très puissants ainsi qu une technologie pour les centres de données Paris, 8 avril 2011 - Pour transformer

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

Batterie Li-ion Evolion. La solution éprouvée ultracompacte de Saft pour les applications télécoms

Batterie Li-ion Evolion. La solution éprouvée ultracompacte de Saft pour les applications télécoms Batterie Li-ion Evolion La solution éprouvée ultracompacte de Saft pour les applications télécoms Saft : fournisseur d énergie de secours des installations télécoms d aujourd hui Saft propose une gamme

Plus en détail

Leader belge en énergies renouvelables. Etudes de financement, conception, installation, exploitation et maintenance

Leader belge en énergies renouvelables. Etudes de financement, conception, installation, exploitation et maintenance Leader belge en énergies renouvelables Etudes de financement, conception, installation, exploitation et maintenance Structure de GDF SUEZ Energie Services BU Power & Gas Companies BU Tractebel Engineering

Plus en détail

Article 2 : Conseils et meilleures pratiques pour gérer un cloud privé

Article 2 : Conseils et meilleures pratiques pour gérer un cloud privé Article 2 : Conseils et meilleures pratiques pour gérer un cloud privé Sponsored by Mentions relatives aux droits d'auteur 2011 Realtime Publishers. Tous droits réservés. Ce site contient des supports

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Green it consulting nouveau leader de l informatique écologique

Green it consulting nouveau leader de l informatique écologique green it consulting Green IT Consulting est née d une réflexion fondamentale Comment peut-on améliorer un système d information tout en participant à la lutte contre le réchauffement climatique? 01 / green

Plus en détail

Guide Dell Alimentation et refroidissement

Guide Dell Alimentation et refroidissement A Refroidissement A Refroidissement A Refroidissement A Guide Dell Refroidissement A et refroidissement efroidissement PLUS D'INFORMATIQUE Une stratégie intelligente de gestion de la consommation POUR

Plus en détail

Alcatel-Lucent VitalQIP Appliance Manager

Alcatel-Lucent VitalQIP Appliance Manager Alcatel-Lucent Appliance Manager Solution complète de gestion des adresses IP et de bout en bout basée sur des appliances Rationalisez vos processus de gestion et réduisez vos coûts d administration avec

Plus en détail

WHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis

WHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis Copyright Acronis, Inc. 2000 2009 Table des matières Résumé... 3 Qu est-ce que la déduplication?... 4 Déduplication au

Plus en détail

Information Technique Derating en température du Sunny Boy et du Sunny Tripower

Information Technique Derating en température du Sunny Boy et du Sunny Tripower Information Technique Derating en température du Sunny Boy et du Sunny Tripower On parle de «derating» en température lorsque l onduleur réduit sa puissance afin de protéger les composants contre toute

Plus en détail

agility made possible

agility made possible DOSSIER SOLUTION Amélioration de la planification de la capacité à l aide de la gestion des performances applicatives Comment assurer une expérience utilisateur exceptionnelle pour les applications métier

Plus en détail

CA Automation Suite for Data Centers

CA Automation Suite for Data Centers FICHE PRODUIT : CA Automation Suite for Data Centers CA Automation Suite for Data Centers agility made possible «La technologie a devancé la capacité à la gérer manuellement dans toutes les grandes entreprises

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

Marché Public en procédure adaptée : Infrastructure Informatique régionale hébergée CAHIER DES CHARGES ET DES CLAUSES TECHNIQUES

Marché Public en procédure adaptée : Infrastructure Informatique régionale hébergée CAHIER DES CHARGES ET DES CLAUSES TECHNIQUES GROUPEMENT DE COMMANDES CA54, CA55, CA57, CA88, CRAL Marché Public en procédure adaptée : Infrastructure Informatique régionale hébergée CAHIER DES CHARGES ET DES CLAUSES TECHNIQUES Etabli en application

Plus en détail

Principaux utilisateurs du Réseau

Principaux utilisateurs du Réseau Bienvenue à l innovant apptap, la première solution intégrée de l'industrie à combiner les capacités de collecte de données sur le réseau (Tap) avec le suivi du réseau et des applications. Cette nouvelle

Plus en détail

Solutions NEC pour les collectivités territoriales

Solutions NEC pour les collectivités territoriales Solutions NEC pour les collectivités territoriales Relevons ensemble vos défis informatiques Au travers de son réseau de distribution, NEC s évertue à proposer les solutions intégrées les plus appropriées

Plus en détail

Économie d énergie dans les centrales frigorifiques : La haute pression flottante

Économie d énergie dans les centrales frigorifiques : La haute pression flottante Économie d énergie dans les centrales frigorifiques : La haute pression flottante Juillet 2011/White paper par Christophe Borlein membre de l AFF et de l IIF-IIR Make the most of your energy Sommaire Avant-propos

Plus en détail

Architecture Technique

Architecture Technique Architecture Technique Le Réseau & Télécom Les Systèmes et Serveurs Le Matériel Serveur La supervision Serveur Le Poste Client Les Applications dans cet environnement 2 Réseau & Télécom Administration

Plus en détail