COMMENT... Gérer efficacement un centre de données



Documents pareils
Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Résolvez vos problèmes d énergie dédiée à l informatique

Emerson montre aux centres de données comment réduire ses coûts énergétiques

Conception d une infrastructure «Cloud» pertinente

en version SAN ou NAS

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization)

vbladecenter S! tout-en-un en version SAN ou NAS

Serveur EMC/CX Solution de stockage hautes performances dotée d'une connectivité flexible

LENOVO THINKSERVER GUIDE DES PRODUITS. Haute évolutivité et flexibilité conjointes au développement de l entreprise

Système de stockage IBM XIV Storage System Description technique

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

La nouvelle solution de stockage V3700

Portefeuille de solutions HP pour la virtualisation

Cisco Unified Computing Migration and Transition Service (Migration et transition)

Tirez plus vite profit du cloud computing avec IBM

WHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

Gérez-vous vos serveurs virtuels et physiques en tant que partie intégrante de votre infrastructure sous-jacente?

Les data centers. à l ère de la consolidation, de la virtualisation. l informatique verte

Protection des données avec les solutions de stockage NETGEAR

TBR. Postes de travail virtualisés : IBM simplifie la gestion de l infrastructure avec ses serveurs System x Août 2013

Unités de distribution d'alimentation (PDU) :

virtualisation et consolidation des infrastructure: comment amèliorer la performance du SI

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

Une infrastructure IT innovante et flexible avec le Virtual Data Centre de BT

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé

Symantec Endpoint Protection Fiche technique

LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010.

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé

Brochure Datacenter. Novell Cloud Manager. Création et gestion d un cloud privé. (Faire du cloud une réalité)

Gestion de l infrastructure des Datacenters

Atteindre la flexibilité métier grâce au data center agile

EMC DATA DOMAIN HYPERMAX

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM

IBM Systems & Technology Recentrer l informatique sur l innovation plutôt que sur la maintenance

PRÉSENTE SES SERVEURS L ESPACE LE PLUS INNOVANT POUR FAIRE TRAVAILLER VOS DONNÉES EN TEMPS RÉEL

Vers une IT as a service

Une présentation de HP et de MicroAge. 21 septembre 2010

Etude d architecture de consolidation et virtualisation

Alcatel-Lucent VitalQIP Appliance Manager

36 arguments clés en faveur de la virtualisation du stockage DataCore

Serveurs et solutions PowerEdge pour les applications métiers

Faire de l infrastructure informatique une source de valeur ajoutée pour l entreprise.

L unique SAN industriel proposant un stockage multiniveau automatisé (Automated Tiered Storage)

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Stratégies gagnantes pour la fabrication industrielle : le cloud computing vu par les dirigeants Dossier à l attention des dirigeants

UNIFIED D TA. architecture nouvelle génération pour une restauration garantie (assured recovery ) que les données soient sur site ou dans le cloud

Consolidation de serveurs PRA consolidé Migration de matériel Approvisionnement de serveurs Relocalisation de Datacenter Optimisation du Datacenter

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage

Garantir une meilleure prestation de services et une expérience utilisateur optimale

Playbook du programme pour fournisseurs de services 2e semestre 2014

réduisez la facture électrique

EMC DATA DOMAIN OPERATING SYSTEM

B U L L E T I N S U R L E S F O U R N I S S E U R S D I D C. L é vo l u t i o n d u pays a g e d e s I a as publiques et p r i vé e s a u C a n a d a

Guide Dell Alimentation et refroidissement

1 ère Partie Stratégie et Directions Stockage IBM

Network storage solutions

agility made possible

Les plates-formes informatiques intégrées, des builds d infrastructure pour les datacenters de demain

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

La gestion des données de référence ou comment exploiter toutes vos informations

Système de stockage sur disque IBM Storwize V5000

Gamme Serveurs HP ProLiant Rack

Virtual Data Center d Interoute. Prenez la main sur votre Cloud.

Unitt Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Le data center moderne virtualisé

Citrix XenDesktop avec la technologie FlexCast. Citrix XenDesktop : la virtualisation des postes de travail pour tous.

Planifier la migration des applications d entreprise dans le nuage

DEVREZ VOUS RÉAPPRENDRE À TRAVAILLER AVEC VOTRE SUITE PRIMMO?

La consolidation des centres informatiques permet de restructurer vos coûts informatiques en vue d une productivité soutenue.

CA Automation Suite for Data Centers

La situation du Cloud Computing se clarifie.

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013

NEC infrastructure IT Dynamique

Optimisation WAN de classe Centre de Données

FOURNIR DES SERVICES NUMÉRIQUES DANS LE SECTEUR PUBLIC

Passez d une vision passive de votre consommation énergétique à une gestion active de l énergie

Gestion des licences électroniques avec Adobe License Manager

DATA CENTER. Règles d'ingénierie du Data Center DATA CENTER

Green it consulting nouveau leader de l informatique écologique

DOSSIER SOLUTION Amélioration de la planification de la capacité à l aide de la gestion des performances applicatives

IBM Maximo Asset Management for IT

VMWare Infrastructure 3

Flex Multipath Routing

Fiche produit Serveur FUJITSU PRIMERGY BX900 S2 Système de serveur lame

Système ASC unitaire triphasé. PowerScale kva Maximisez votre disponibilité avec PowerScale

2007 se termine déjà, et avec l heure du bilan qualitatif et quantitatif!

agility made possible

Editeur de solutions innovantes C 3. Solution globale managée de communication et de téléphonie sur IP

FAMILLE EMC RECOVERPOINT

Transcription:

COMMENT... Gérer efficacement un centre de données

Note de l éditeur Dans le domaine des technologies de l information, notre efficacité a toujours fait notre fierté. Correctement appliquées, les technologies ont permis aux entreprises de se développer plus rapidement et d optimiser leurs résultats. L année 2009 marque l entrée dans une nouvelle ère dans laquelle deux forces externes majeures se sont conjuguées pour accentuer la pression qui pèse sur nos épaules, à tel point que l efficacité s est imposée non plus comme un simple objectif, mais bien comme un impératif. Dans le contexte actuel de récession mondiale, les entreprises doivent compter sur des ressources limitées. Avec des technologies de l information plus efficaces, elles peuvent relever ce défi. Dans le même temps, la planète traverse une véritable crise environnementale qui contraint l ensemble de la société à limiter sa consommation d énergie et à réduire ses émissions de carbone. Les serveurs actuellement utilisés dans les centres de données sont désormais capables d excellentes performances pour une facture énergétique réduite. En investissant dès maintenant dans des technologies telles que la virtualisation ou dans le renouvellement du matériel informatique, les CIO seront étonnés de constater à quel point les centres de données peuvent contribuer à réaliser de réelles économies. Le présent guide contient les données les plus récentes sur ce sujet ainsi que des informations pratiques conçues pour vous guider dans ce nouveau monde de la virtualisation et pour vous aider à réduire l impact économique et environnemental de votre centre de données en particulier et de votre entreprise en général. SOMMAIRE Anne CONFOLANT Virtualisation page 3 En matière de maîtrise des coûts, d amélioration des capacités et de réduction de l empreinte environnementale, peu de technologies offrent un meilleur potentiel que la virtualisation Etude de cas : Orange page 6 France Telecom anticipe une réduction de son infrastructure de centre de données de 50 % avec la mise en œuvre d une nouvelle stratégie de virtualisation Réduire la consommation d énergie page 7 Chaque organisation est tenue de réduire l impact de ses activités sur l environnement. Il s agit là d une obligation morale dont le secteur des technologies de l information n est en rien exempté Etude de cas : Intel page 10 Le fondeur s est engagé dans un ambitieux programme de transformation de ses centres de données qui a permis à l entreprise de réaliser 77 millions de dollars d économie en un an Concevoir un centre de données efficace page 11 Pour gérer un centre de données qui soit à la fois écoénergétique et suffisamment flexible et évolutif pour répondre à vos besoins, la virtualisation s impose aujourd hui comme une stratégie incontournable Glossaire terminologique page 13 Explication des principaux termes et concepts utilisés dans ce guide 2

Virtualisation En matière de maîtrise des coûts, d amélioration des capacités et de réduction de l empreinte environnementale, peu de technologies offrent un meilleur potentiel que la virtualisation. La virtualisation n a rien d une nouveauté : elle est employée depuis des années sur les systèmes mainframes. Mais la virtualisation a réellement trouvé sa voie avec l amélioration des performances des serveurs x86, à tel point que des systèmes rack ou lames standard peuvent désormais gérer plusieurs machines virtuelles. Les avantages de la virtualisation sur une architecture x86 sont évidents : l emploi de matériel économique couplé à une utilisation efficace des ressources de stockage, mémoire et réseau. En exécutant des machines virtuelles sur des plates-formes x86, les organisations protègent leurs investissements matériels et logiciels existants et limitent les besoins en formation aux environnements virtualisés. Dans un centre de données important, de telles améliorations peuvent réduire considérablement les coûts informatiques. LES AVANTAGES Selon l institut d étude de marché 1 IDC, un simple environnement de serveurs virtualisés peut générer des économies annuelles de 35 % par utilisateur par rapport à une configuration x86 «statique». En déployant des techniques plus avancées, IDC estime que le coût par utilisateur peut être réduit de plus de 50 %. Il est possible de réaliser des économies plus importantes encore en poussant les organisations à migrer leur infrastructure de serveurs vers des systèmes plus modernes intégrant la prise en charge d environnements virtualisés (logiciels d administration optimisés ou possibilité de partager des connexions aux réseaux de stockage). Mais la réduction des coûts n est pas le seul avantage de la virtualisation. Le déploiement d un environnement virtualisé améliore l utilisation de la capacité matérielle, aussi bien pour les équipements existants que pour le matériel neuf. IDC estime qu un environnement de virtualisation entièrement optimisé ou «avancé» améliore la capacité utile des systèmes informatiques de 40 à 60 %. Les organisations bénéficient non seulement d une meilleure utilisation de leurs serveurs, mais également des ressources réseau et en particulier du stockage. La consommation d énergie est un autre avantage de la virtualisation. Le fait d affecter les charges de travail à des machines virtuelles permet de réduire le Les organisations qui cherchent à virtualiser leurs centres de données doivent procéder à une planification préalable nombre de serveurs physiques à l intérieur du centre de données en concentrant les ressources supplémentaires et en affectant plusieurs charges de serveurs à un nombre réduit de serveurs physiques plus puissants et plus efficaces. Ceci permet en outre aux organisations de mieux exploiter la capacité de leur centre de données, et éventuellement de différer la construction d un nouvel espace de centre de données. En réduisant le nombre de serveurs physiques à l intérieur d un centre de données, il est possible de libérer davantage d espace de rack pour une plus grande capacité d extension. La virtualisation est également utile lorsque les centres de données atteignent leurs limites en VMware est LE spécialiste de la virtualisation de serveurs d entreprise basée sur des architectures ouvertes. 3

termes de puissance électrique ou de capacité de refroidissement. Réduire le nombre de serveurs sans affecter la capacité utile de traitement est sans doute le seul moyen de résoudre efficacement les problèmes de l énergie et du refroidissement dans les centres de données. Les environnements de virtualisation avancés garantissent également un contrôle relativement poussé des charges de travail. Un responsable de centre de données peut concevoir un système de sorte que les machines virtuelles migrent automatiquement vers des serveurs supplémentaires en cas d augmentation de la demande. Lorsque la capacité supplémentaire n est plus utilisée, les machines peuvent être gérées de façon à consommer le moins d énergie possible. La virtualisation offre également l avantage d améliorer la continuité de service et la résilience. Les applications exécutées sur des machines virtuelles sont dans une large mesure protégées des pannes localisées des serveurs physiques. L exécution d environnements virtuels parallèles permet en outre d accélérer la transition vers un centre de données secondaire ou vers une installation de secours si jamais l organisation était amenée à appliquer son plan de continuité de service. Dans ses propres centres de données, Intel a remplacé 16 serveurs par un seul système basé sur des processeurs quatre cœurs à deux sockets Intel Xeon. INTEL ARCHITECTURE Les récents développements de l architecture x86 se sont accompagnés d une amélioration des outils de virtualisation et d une optimisation de la plate-forme, devenue plus pratique. Ceci est en particulier valable pour les centres de données importants qui peuvent avoir besoin de gérer de nombreux serveurs x86. L augmentation du nombre de cœurs de processeur par CPU a permis aux serveurs d exécuter un plus grand nombre de machines virtuelles sans pour autant accroître les coûts, la consommation d énergie ou la taille physique. Dans ses propres centres de données, Intel a remplacé 16 serveurs par un seul système basé sur des processeurs quatre cœurs à deux sockets Intel Xeon. Un autre aspect au moins aussi important est la prise en charge de plus grandes quantités de mémoire vive adressable. Des bancs de mémoire de densité supérieure, couplés à un plus grand nombre de bancs par machine, permettent aux serveurs x86 d atteindre 144 Go (via des modules RDIMM). Ce gain de mémoire est particulièrement utile dans les applications nécessitant l exécution d un plus grand nombre de machines virtuelles par hôte et l utilisation d applications plus puissantes dans l environnement virtuel. Dans la mesure où un serveur qui exécute des machines virtuelles a besoin de prendre en charge l environnement virtuel, le système d exploitation invité, les systèmes middlewares, les applications et les données, une meilleure prise en charge de la mémoire sur les systèmes x86 n était plus une simple priorité mais un véritable impératif. Grâce à une mémoire plus rapide et à une meilleure bande passante mémoire, les platesformes de virtualisation ont vu leurs performances se décupler. Ces améliorations s expliquent également par un plus large choix de formats de lames et de racks et par une meilleure prise en charge des E/S, en particulier pour la technologie iscsi et les autres technologies qui ont besoin d une prise en charge de la norme Ethernet 10 Gbit/s. PLATES-FORMES CLÉS La plate-forme x86 possède un autre avantage : le choix des environnements de virtualisation. VMWare est LE spécialiste de la virtualisation de serveurs d entreprise basée sur des architectures ouvertes, mais Microsoft propose une puissante suite d outils alternative destinée aux environnements Windows Server. En outre, l architecture x86 prend en charge les technologies de virtualisation Citrix, ce qui est utile pour l accès à distance ou pour les applications dans lesquelles aucune donnée ne réside sur la machine cliente (dans le domaine médical ou de la défense par exemple). Les systèmes x86 ont également l avantage de prendre en charge la virtualisation de bureau ainsi que les autres fournisseurs de solutions de virtualisation tels que Parallels. Chaque environnement possède ses propres points forts. Certains services IT opteront pour une standardisation tandis que d autres privilégieront le déploiement de plusieurs environnements sur la même plate-forme matérielle physique. CONFIGURATION MATÉRIEL- LE ET LOGICIELLE REQUISE Pour exploiter tout le potentiel de la virtualisation, il est indispensable d harmoniser les configurations matérielles avec les configurations des 4

machines virtuelles et les systèmes d exploitation hôtes. Bien que l architecture x86 permette d emblée d exécuter de nombreuses tâches de virtualisation, les DSI gagneront beaucoup à optimiser leurs configurations physiques, que ce soit en termes de coûts, de performances ou d impact environnemental. Dans un projet de virtualisation type, il convient de commencer par évaluer le nombre d applications, le nombre de machines virtuelles et le nombre de serveurs physiques. Mais la configuration des serveurs euxmêmes contribuera à déterminer à la fois le nombre de machines virtuelles par système et leur efficacité. L E/S et la mémoire sont également d importants facteurs à prendre en compte. Une bonne configuration d E/S, avec plusieurs canaux et la prise en charge de plusieurs protocoles, permet d optimiser les performances du système tout en exploitant au mieux la capacité de stockage. Une mémoire adaptée PROCESSEUR INTEL XEON 5500 permet aux responsables IT d équilibrer le besoin de capacité de mémoire (pour la prise en charge d un plus grand nombre de machines virtuelles) avec la vitesse des canaux de mémoire (pour les applications intensives) et avec la consommation d énergie. En outre, face à des environnements virtuels de plus en plus étendus et complexes, les DSI doivent accorder une attention particulière aux outils d administration. Ces outils sont constamment améliorés et prennent en charge des techniques telles que le «thin provisioning» (allocation de ressources à la demande) ou le transfert automatique des charges de travail entre les machines virtuelles. Certains serveurs Intel Architecture offrent des fonctionnalités supplémentaires, allant des capteurs de chaleur à des contrôles du provisioning et de la gestion du cycle de vie, qui permettent aux équipes IT de tirer le meilleur parti de leur investissement matériel tout en contrôlant les coûts d exploitation. EN BREF La virtualisation ne se limite plus désormais aux systèmes propriétaires : il s agit aujourd hui véritablement d une application mainstream destinée aux infrastructures x86. Ses nombreux avantages - en termes de rentabilité, de flexibilité, de résilience et d empreinte environnementale en font une solution extrêmement intéressante. Mais les organisations qui cherchent à virtualiser leurs centres de données ou à augmenter le pourcentage de charges virtualisées doivent procéder à une planification préalable afin d adapter la capacité matérielle à la charge de calcul. Les systèmes soigneusement planifiés et optimisés pour un environnement virtuel auront tendance à être plus efficaces et performants et à garantir un meilleur retour sur investissement tout au long de leur cycle de vie. Le processeur Intel Xeon 5500, également connu sous son nom de code «Nehalem-EP» jusqu à sa présentation officielle le 30 mars 2009, intègre une technologie innovante conçue pour améliorer de façon significative la rapidité et la polyvalence des systèmes. Le processeur Intel Xeon 5500 est équipé d interrupteurs électriques intégrés et de la technologie VT (Virtualization Technology) de nouvelle génération d Intel, optimisée grâce aux tables de pages étendues, qui permettent au système de s adapter à une grande diversité de charges de travail. Les processeurs peuvent automatiquement s adapter aux niveaux de consommation d énergie spécifiés et accélérer les transactions du centre de données et les requêtes dans la base de données client. Le processeur Intel Xeon 5500 offre des performances plus de deux fois supérieures à celle de la génération précédente de processeur Intel Xeon. La nouvelle fonction Intel Turbo Boost Technology, par exemple, augmente les performances du système en fonction de la charge de travail de l utilisateur et de l environnement, en augmentant de façon dynamique la vitesse d horloge d un ou plusieurs cœurs de traitement individuels. Le processeur Intel Xeon 5500 offre des améliorations en termes de rendement énergétique en permettant aux utilisateurs de mieux contrôler leurs dépenses énergétiques. Il redonne également un nouveau sens à l intelligence en offrant jusqu à 15 états de fonctionnement automatiques. Tout ceci garantit d importantes améliorations en termes de gestion de la puissance des processeurs en ajustant la consommation énergétique du système en fonction du débit réel et sans perte de performances. 2 5

Etude de cas : Orange France Telecom anticipe une réduction de son infrastructure de centre de données de 50 % avec la mise en œuvre d une nouvelle stratégie de virtualisation. Avec 174 millions de clients répartis sur les cinq continents et un nom jouissant d une excellente réputation internationale, Orange est sur le point d achever un plan de transformation interne sur trois ans conçu pour aligner ses services sur les attentes et les besoins de ses clients. Ce programme de transformation baptisé NExT (New Experience in Telecommunications) a été lancé en 2005. Le programme NExT regroupe les services Internet, mobiles et télévisuels proposés par France Telecom sous la marque Orange et encourage l innovation ainsi que les services convergés tels que la télévision sur IP. En réduisant l impact de ses activités et de ses produits sur l environnement, il reflète en outre l attachement du groupe au développement durable. Le service informatique est au centre du programme NExT. Afin de rappeler à chacun qu il est possible de réaliser des économies tout en respectant l environnement, l équipe a mis en œuvre un plan baptisé «Eco Center» dans lequel elle prévoit la consolidation des 17 centres de données existants en seulement deux centres de données, plus performants en termes de rendement énergétique. Eco Center doit répondre à cinq objectifs majeurs : soutenir la croissance en utilisant moins d énergie et d espace, gagner en flexibilité, réduire le temps de commercialisation des services, accroître les performances et améliorer la reprise sur sinistre. Pour économiser l espace, l équipe informatique a pris le parti de standardiser et de consolider ses serveurs lames. En 2006, elle a procédé à une évaluation poussée de plusieurs fournisseurs (dont Dell, IBM, Fujitsu et HP) avant de s engager auprès d un fabricant donné : «Nous cherchions le serveur lame le plus efficace, et notre choix s est vite arrêté sur HP et IBM», se rappelle Loïc Renaudon, directeur du programme NExT chez France Telecom. «Nous avons donc décidé de faire appel à ces deux fournisseurs de serveurs». Le groupe a choisi le logiciel de virtualisation de VMWare et a récemment évalué Citrix XenServer. Au cours des 18 derniers mois, l équipe IT de Renaudon a créé pas moins de 5 750 machines virtuelles qui devraient s étendre à 7 500 d ici fin 2009. Les caractéristiques de la virtualisation variant en fonction des différentes plates-formes :! 90 % des serveurs de l entreprise utilisent le système d exploitation Microsoft Windows Server ou Red Hat Enterprise Linux ; 20 machines virtuelles sont créées par hôte.! Les applications exécutées sous IBM AIX sont virtualisées à l aide du système Micro-Partitioning.! Les applications HP-UX qui étaient exécutées sur les serveurs PA-RISC seront virtualisées sur des serveurs lames HP Integrity BL860c équipés de processeurs Intel Itanium. Ces lames peuvent exécuter des logiciels capables de simuler les processeurs PA-RISC, avec 6 serveurs virtuels par hôte.! Les applications SPARC sur Solaris 8 ou 9 seront mises à niveau vers Solaris 10 et virtualisées avec les applications x86 Solaris 10 à l aide des conteneurs Solaris 10. 15 serveurs virtuels seront hébergés sur chaque serveur lame. UNE EFFICACITÉ MULTIPLIÉE PAR 10 Grâce à la virtualisation, Orange pense être en mesure de multiplier par 10 l utilisation de ses serveurs. «Nos serveurs à montage en rack n étaient utilisés qu à environ 5 % de leurs capacités», souligne Renaudon. «Les serveurs lames qui hébergent des machines virtuelles garantissent un taux d utilisation compris entre 50 et 70 %». Globalement, la société espère réduire de moitié les 20 000 serveurs autrefois utilisés pour soutenir ses opérations. Le programme de virtualisation s accompagne d ores et déjà d importantes économies en termes d énergie et d espace. Au cours de son étude, l équipe IT a identifié 950 serveurs physiques inutilisés. Ils ont donc été mis hors service, ce qui a permis de réduire les coûts énergétiques. Plus efficaces, plus productifs, plus écologiques et moins chers à entretenir, les centres de données d Orange sont aujourd hui en pleine mutation. Mais ce n est pas tout : ce programme s est également accompagné d une amélioration significative des services de France Telecom. «Nous pouvons aujourd hui déployer une nouvelle machine virtuelle en seulement quelques heures sur les lames HP», indique Renaudon. Auparavant, «il nous fallait pas moins de quatre semaines pour déployer un serveur à montage en rack. Aujourd hui, grâce à des procédures permettant d archiver l image d un serveur lorsqu il n est plus utilisé, un serveur peut être facilement déployé, désinstallé et remis en service». Aujourd hui, reconnaît le directeur, chacun est non seulement plus efficace, mais l entreprise dans son ensemble a considérablement accéléré ses délais de commercialisation. 6

Réduire la consommation d énergie Chaque organisation est tenue de réduire l impact de ses activités sur l environnement. Il s agit là d une obligation morale dont le secteur des technologies de l information n est en rien exempté. 7 On estime que les centres de données consomment 0,5 % de la production énergétique mondiale. Autrement dit, les technologies de l information et les télécommunications génèrent au moins 2 % des émissions mondiales de CO2, soit presque autant que l industrie aéronautique. Avec l importance croissante de l informatique, sa part de consommation énergétique a toutes les chances d augmenter. Ce constat soulève bien évidemment certaines questions concernant son impact environnemental, mais il pose également des problèmes d ordre pratique. Selon 3 l institut de recherche IDC, la demande d énergie est supérieure à l offre dans 40 % des centres de données. Les problèmes d approvisionnement énergétique se sont aggravés avec les besoins élevés de refroidissement à l intérieur des centres de données, qui ne font qu épuiser un peu plus les ressources des réseaux électriques. Même pour les entreprises de taille plus modeste qui utilisent vraisemblablement des salles de serveurs, le coût de l électricité et du refroidissement représente aujourd hui une proportion significative des coûts de fonctionnement des systèmes informatiques. En outre, de plus en plus de réglementations locales, nationales et internationales affectent la consommation énergétique des entreprises, et les centres de données ne font pas figure d exception. Toutes ces conditions ont créé un nouveau besoin : des systèmes informatiques offrant à la fois un bon rendement énergétique et une excellente puissance de calcul. PLANIFICATION D UN ENVIRONNEMENT À CONSOMMATION LIMITÉE Malgré la récente baisse des coûts de l énergie, les DSI ne devraient pas partir du principe qu ils pourront compter sur le réseau électrique public pour couvrir les besoins futurs en termes de capacité de calcul. Même si les fournisseurs d électricité projettent de moderniser leur réseau et leur système de génération, la mise en pratique d un tel projet peut prendre une dizaine d années, voire davantage. Tout ceci n est pas pour faciliter la tâche d un DSI confronté à court et moyen terme à une demande croissante de capacité de calcul. Le problème énergétique devient d autant plus pesant que la technologie ne cesse de s améliorer et que les centres de données intègrent des racks matériels plus denses. Avant même de manquer d espace physique (au sol ou de rack), il n est pas rare aujourd hui que les centres de données tombent à court d énergie électrique disponible ou d énergie de refroidissement. Certaines entreprises ont réagi en construisant de nouveaux centres de données dans des régions mieux approvisionnées en électricité, produite par exemple dans des centrales hydroélectriques. Mais pour la plupart des entreprises, cette option n est pas des plus économiques. Les opérateurs de centres de données peuvent adopter certaines mesures pour optimiser l efficacité de leurs installations et donc améliorer leur consommation d énergie. Une conception efficace, avec une bonne isolation des allées chaudes et froides, une meilleure modélisation de la circulation d air de refroidissement, le fonctionnement des centres de données à des températures légèrement supérieures et même des conduits de câbles optimisés, peut contribuer à réduire la consommation d énergie de 25 %. 4 Certaines entreprises ont opté pour des techniques de planification avancées, telles que la dynamique Les serveurs de dernière génération offrent des améliorations significatives en termes de consommation énergétique et de gestion de l énergie.

des fluides informatique, pour modéliser l air circulant à l intérieur du centre de données. Elles ont ainsi pu identifier et éliminer les «points chauds» sans modifier l infrastructure physique de la conception du centre de données. Pour les entreprises qui disposent des ressources suffisantes pour remodéliser leur centre de données, le développement de techniques de conception (éviter les fenêtres exposées plein sud, par exemple) ou le recours à un modèle de refroidissement à l air libre en lieu et place des systèmes d air conditionné, permet également de réduire les coûts de fonctionnement. Idéalement, les nouveaux centres de données devraient être conçus conformément aux critères de la certification LEED Gold ou de son équivalent européen BREEAM. Il est parfois possible d améliorer les performances des centres de données en modernisant les bâtiments à un coût relativement réduit. Certains opérateurs de centres de données sont parvenus à résorber la chaleur du soleil en installant des films réflecteurs sur les fenêtres de leur installation. Mais pour la plupart des entreprises, les mesures les plus efficaces, et les plus immédiates, sont celles qui traitent le problème de l énergie directement à sa source, c est-à-dire les serveurs. Ces mesures radicales se traduiront immanquablement par une amélioration du rendement énergétique de leur infrastructure informatique. ARCHITECTURES À FAIBLE CONSOMMATION D ÉNERGIE Le choix d architectures de serveurs plus denses (systèmes de rack 1U, serveurs lames, systèmes multicœurs et multisockets, formats de disques plus petits) a permis aux responsables de centres de données de concentrer davantage de puissance de traitement dans un rack standard. Mais cette solution présente des inconvénients en termes de consommation d énergie et de refroidissement. Les systèmes «rack-dense» et les serveurs lames de génération précédente n étaient pas toujours très performants en termes de rendement énergétique. Le refroidissement de racks de serveurs plus petits et denses est devenu problématique pour de nombreux opérateurs de centres de données, qui ont été contraints d investir massivement dans des systèmes de refroidissement et de ventilation. Dans le même temps, les serveurs standard ont accumulé un certain retard face aux systèmes mainframes et autres systèmes concurrents, aussi bien en termes de rendement énergétique des composants individuels que de la conception globale du système. Même les composants de base, tels que les systèmes d alimentation, ont un impact majeur sur la consommation d énergie dans les déploiements de centres de données denses.les serveurs de dernière génération offrent d importantes améliorations sur le plan de la consommation énergétique et de la gestion de l énergie. Le système d alimentation, par exemple, peut être conçu dans un souci de rendement énergétique. Un bon système d alimentation de serveur de la génération actuelle peut offrir plus de 90 % de rendement énergétique en plus (en convertissant plus de 90 % de l alimentation secteur en alimentation système). Certains serveurs de génération précédente atteignaient difficilement 2 les 50 % de rendement énergétique. Des systèmes d alimentation plus performants offrent un autre avantage : la baisse de la déperdition de chaleur s accompagne d une diminution des besoins en refroidissement. D autres améliorations architecturales contribuent à réduire la consommation d énergie. La dernière génération de processeurs Intel Xeon, par exemple, peut optimiser LE GREEN GRID Le Green Grid, une organisation fondée en 2007 par plus de 200 sociétés leaders dans le domaine des technologies de l information (parmi lesquelles Intel, HP, Microsoft et IBM) dans le but d élaborer des normes afin de mesurer l efficacité des centres de données, vient de publier les premiers indicateurs internationaux. Voici les deux premiers indicateurs établis pour l ensemble de l industrie mondiale : " PUE (Power Usage Effectiveness) Indicateur déterminé en divisant la quantité d énergie à l entrée d un centre de données par l énergie consommée pour faire fonctionner l infrastructure informatique qui y réside. L indicateur PUE est exprimé sous la forme d un ratio, un quotient proche de 1:1 indiquant un rendement énergétique optimal. Idéalement, les centres de données devraient toujours afficher un rendement inférieur à 2:1. " DCiE (Data Centre Infrastructure Efficiency) Cet indicateur, exprimé en pourcentage, est calculé en divisant l énergie des équipements informatiques par l énergie totale consommée par l installation. Plus le pourcentage est élevé, meilleur sera le rendement énergétique de votre centre de données. Bien que le processus de normalisation soit encore long, les efforts déployés par le consortium Green Grid pour définir scientifiquement la manière dont devraient être mesurées les performances des centres de données en termes d énergie consommée aussi bien pour la puissance de traitement que pour la réfrigération, marquent un véritable tournant et témoignent de la gravité du problème. 8

la vitesse d horloge d un cœur tout en limitant la puissance délivrée aux autres cœurs pour les applications qui ont besoin d un seul cœur de traitement rapide au lieu de répartir la charge de traitement entre plusieurs cœurs («hype threading»). Des améliorations similaires au niveau de l architecture de mémoire permettent aux serveurs de dernière génération d utiliser davantage de mémoire tout en réduisant leur consommation d énergie de 25 %. Certains contrôleurs d E/S et de stockage actuels sont deux fois plus efficaces que le matériel de génération précédente. L utilisation d un nouveau serveur ou de techniques actives de gestion de l énergie, soutenues par des capteurs intégrés et par des logiciels intelligents, peut garantir un rendement énergétique deux fois et demi supérieur à celui du matériel de génération précédente. Les systèmes de stockage, autres ressources extrêmement gourmandes en énergie, deviennent de plus en plus efficaces, en partie grâce à des contrôleurs de données et à des blocs d alimentation optimisés, mais SERVEURS HP PROLIANT G6 surtout à l utilisation de disques plus petits (2,5 pouces au lieu des traditionnels disques de 3,5 pouces). A moyen terme, le stockage SSD promet des performances énergétiques supérieures. ADOPTER UNE VISION À LONG TERME Il y a seulement deux ou trois ans, la réponse aux besoins croissants de capacité de calcul des entreprises passait par une augmentation des besoins énergétiques et par une hausse des coûts généraux. Les responsables de centres de données n avaient par conséquent guère d autre choix que de faire des compromis douloureux : limiter ou réduire la densité des équipements informatiques, réduire leurs performances ou rechercher des sources d énergie additionnelles. L amélioration de la conception des centres de données et plus particulièrement celle de leurs équipements n implique pas nécessairement un compromis. Avec les équipements adéquats et une bonne planification, un centre de données peut délivrer toute la capacité de traitement et de stockage dont a besoin une entreprise tout en limitant son budget énergétique. Pour les DSI, la gestion de la consommation d énergie à l intérieur du centre de données peut s avérer aussi critique que la gestion de la sécurité ou la continuité de service. Mais avec des systèmes offrant un rendement énergétique jusqu à deux fois et demi supérieur à celui des serveurs standard de génération précédente, ils peuvent aujourd hui relever facilement ce défi. Pour créer un centre de données écoénergétique, il est indispensable d aligner la capacité informatique sur les besoins des applications, d analyser et de moderniser l infrastructure du centre de données (y compris énergie et refroidissement) afin d implémenter les meilleures technologies disponibles, et surtout de sélectionner les bons serveurs et les performances de stockage et de réseau adéquates. En répondant à ces besoins, les entreprises ont toutes les cartes en main pour accroître la densité de leurs serveurs et ainsi mieux exploiter l espace de leur centre de données et réduire leur consommation d énergie. La nouvelle gamme de serveurs HP ProLiant G6 englobe 11 nouvelles plates-formes (racks, tours et lames) conçues pour atteindre trois objectifs majeurs : minimiser la consommation d énergie, optimiser le potentiel de la virtualisation et étendre autant que possible le budget des services informatiques. Avec la nouvelle gamme G6, HP va plus loin dans l utilisation de la technologie Thermal Logic qui lui permet de tripler le rendement énergétique de l ensemble de ses serveurs. G6 contrôle la consommation d énergie de chaque serveur avec un degré de précision inédit pour vous permettre de déployer un plus grand nombre de serveurs dans votre centre de données sans augmenter votre taux d utilisation : les serveurs intègrent 32 capteurs intelligents qui réduisent l énergie en temps réel en fonction des conditions de fonctionnement. Les serveurs G6 sont également dotés d un système d alimentation commun qui permet aux clients de choisir l alimentation adaptée à leurs besoins, en ajustant la configuration pour atteindre un rendement énergétique allant jusqu à 92 %. En outre, leur technologie Flex-10 intégrée vous permet d ajuster la bande passante d E/S aux besoins des serveurs virtuels. Les serveurs ProLiant G6 intègrent le nouveau processeur Intel Xeon 5500 qui, combiné à la technologie de mémoire DDR3, permet de doubler la bande passante et la capacité tout en consommant 25 % d énergie en moins. En mettant à niveau leurs serveurs, les clients peuvent obtenir un retour sur investissement extrêmement rapide : 3 mois entre les serveurs G4 et G6 et 12 mois entre les serveurs G5 et G6, selon les estimations de HP. 9

Etude de cas : Intel Le fondeur s est engagé dans un ambitieux programme de transformation de ses centres de données qui a permis à l entreprise de réaliser 77 millions de dollars d économie en un an En 2008, Intel a adopté un plan stratégique global sur huit ans visant à rationaliser son environnement de centre de données en augmentant son efficacité et sa réactivité commerciale. Traditionnellement, le fabricant avait l habitude d implanter au moins un centre de données de taille modeste sur chaque site Intel. Mais la société exploite également des centres de données de taille moyenne à grande qui appliquent les meilleures pratiques dans le domaine du refroidissement afin d atteindre des densités d énergie et chaleur de 15 kw par armoire et plus de 5 000 watts par mètre carré d espace de serveur. Des systèmes de récupération de chaleur captent la chaleur produite par les serveurs dans ces bâtiments pour la réutiliser afin de chauffer les bureaux l hiver et couvrir toute l année les besoins en eau chaude. Ce système permet d éviter l utilisation de chaudières, ce qui garantit des économies d énergie et une réduction notable des coûts (la société estime que les économies réalisées s élèvent à des centaines de milliers de dollars US par an). Intel utilise également de nouveaux serveurs équipés de sa dernière génération de processeurs multicœurs. La raison est simple : récemment encore, la société s attachait à optimiser la durée de vie utile de ses serveurs en amortissant leur valeur sur quatre ans et en cherchant à étendre leur durée de déploiement. L équipe IT a estimé que cette pratique pourtant bien intentionnée ne faisait en réalité qu augmenter le coût total de possession, dans la mesure où les machines plus anciennes fonctionnent beaucoup moins efficacement et nécessitent davantage de maintenance. Fort de ce constat, Intel a pris la décision de consolider ses ressources informatiques en huit centres de données de ce type implantés dans des endroits stratégiques. D ici la fin du programme, l espace supplémentaire ainsi libéré sera utilisé comme laboratoires, bureaux ou autres environnements de travail. Intel s attend à réaliser ainsi de nombreuses économies. Outre la réduction de l espace occupé par ses centres de données, la société s efforcera d implanter ses nouveaux centres de données sur des sites offrant des avantages en termes de frais de services ou de fiscalité afin de réduire encore davantage le coût total de possession de ses serveurs et équipements. La standardisation des processus qu implique un tel programme permettra également à Intel d intégrer les informations relatives à la puissance des serveurs, à l utilisation des serveurs, à l inventaire et au prévisionnel. De cette manière, le service IT pourra déployer rapidement les nouveaux serveurs, uniquement quand le besoin le justifiera. Ce système permettra également à l entreprise de gagner en visibilité. Intel a également décidé d associer à son programme de rationalisation des centres de données un plan d ouverture aux techniques d informatique en grille, au stockage consolidé et aux logiciels de virtualisation. Cette dernière initiative contribuera à optimiser l utilisation des serveurs, à réduire les coûts et à accélérer les processus métiers. 15 à 20 anciens serveurs seront consolidés sur chaque nouvel hôte de virtualisation équipé des nouveaux processeurs multicœurs Intel Xeon. De même, Intel pourra fournir à ses équipes de conception la capacité de serveur nécessaire pour couvrir leurs besoins de production durant les pics d activité grâce à un programme d informatique en grille qui permet aux concepteurs d utiliser les serveurs inactifs des centres de données distants de la même manière que s ils se trouvaient à proximité. La société espère ainsi augmenter l utilisation de ses serveurs d au moins 55 à 80 %. Enfin, Intel cessera de gérer le stockage des groupes ou applications spécifiques indépendamment en appliquant une stratégie consolidée en ce sens. Les premiers résultats du programme ambitieux d Intel se sont révélés plus que positifs. Depuis 2006, la société a observé une augmentation de 11 % de l utilisation de ses serveurs, ce qui a permis de réduire de plus de 30 millions de dollars ses nouvelles dépenses en immobilisations informatiques en 2007 et d environ 77 millions de dollars en 2008. 40 % de toutes les tâches par lot sont désormais exécutées à distance à l aide d un logiciel qui approvisionne automatiquement les systèmes d exploitation pour 100 serveurs en seulement 30 minutes. Ceci a eu un effet direct sur la productivité de l entreprise. Au final, le nombre de serveurs entretenus par la société a déjà chuté de 1 800 et le nombre de cœurs a augmenté grâce à l utilisation de machines virtuelles sur des serveurs plus modernes. A terme, le programme d Intel devrait lui permettre de réaliser des économies d échelle et d optimiser sa réactivité commerciale tout en garantissant à l entreprise le crédit écologique nécessaire à l obtention de la certification et au respect de ses engagements en matière de responsabilité sociale. 10

Concevoir un centre de données efficace Pour gérer un centre de données qui soit à la fois écoénergétique et suffisamment flexible et évolutif pour répondre à vos besoins, la virtualisation s impose aujourd hui comme une stratégie incontournable. Nous avons observé ces dernières années une hausse importante de la consommation d énergie dans les centres de données et les fermes de calcul d entreprise, à l heure où les entreprises cherchent à traiter davantage d informations et à acquérir un avantage concurrentiel en automatisant de façon massive leurs processus métiers. L émergence de nouvelles platesformes et technologies spécialement conçues pour aider les entreprises dans cette démarche n a fait qu entretenir cette vague, avec le déploiement de serveurs et de stations de travail plus nombreux que jamais. Les prochaines années seront marquées par une tendance majeure : l avènement des ordinateurs de bureau virtuels. Dans ce type d infrastructure, les technologies de virtualisation sont utilisées pour transformer un ordinateur de bureau en un environnement entièrement virtuel, accessible à partir de n importe quel ordinateur ou point d accès distant. Ce système permet aux employés individuels de travailler à distance de leur espace de travail physique, une véritable aubaine aussi bien pour le personnel mobile que pour le service informatique qui pourra ainsi contrôler entièrement les centres de données consolidés (mises à jour, applications, sécurité, sauvegardes en temps réel, etc.) quel que soit l endroit où ils se trouvent. L AVENIR EST DANS L ORDINATEUR DE BUREAU VIRTUEL 11 Les entreprises qui se sont jusqu à présent uniquement contentées de choisir la solution la plus simple pour élargir leur parc matériel afin de répondre à un nouveau besoin métier devraient sérieusement remettre en question leur stratégie. Cette solution est la moins écoénergétique et donc la plus onéreuse en termes de consommation d énergie et d utilisation de l espace physique. En outre, le matériel ajouté de cette manière est bien rarement utilisé au maximum de ses capacités, ce qui signifie que vous gaspillez de la puissance de traitement et que le coût total de possession de votre infrastructure est immanquablement supérieur à ce qu il devrait être. Les centres de données d entreprise, quelle que soit leur taille, manquent souvent d espace, génèrent des coûts énergétiques importants et rencontrent des problèmes de refroidissement. Avec l augmentation exponentielle des serveurs installés, les systèmes d alimentation et de refroidissement sont incapables de satisfaire le surplus de capacité que l on attend d eux. Des serveurs sur- ou sous-utilisés se traduisent par une hausse significative de votre facture d électricité (et donc de l empreinte carbone de votre entreprise). En Tout ceci garantit l autonomie des processus métiers par rapport aux serveurs physiques, ce qui a un effet positif sur la continuité de service.

outre, avec le manque d espace de rack, la surchauffe des machines et des conditions ambiantes souvent bien éloignées des niveaux recommandés, les coûts de gestion et de maintenance de vos serveurs explosent littéralement. Cette situation doit évoluer, aussi bien pour des raisons économiques qu environnementales : l exploitation des centres de données doit être optimisée afin de garantir des installations écoénergétiques et respectueuses de l environnement. Votre organisation respectera ainsi ses obligations environnementales ainsi que ses engagements en matière de responsabilité sociale, tout en réalisant des économies, en allégeant la charge du personnel et en améliorant sa puissance de traitement. En ces temps de crise financière et de récession mondiale, une telle démarche garantit la viabilité économique de votre entreprise à court terme et lui permet d acquérir un avantage concurrentiel à moyen ou long terme. La virtualisation permet aux entreprises non seulement de réduire leur consommation d énergie, mais également de garantir un fonctionnement optimal de leur infrastructure informatique et de leurs processus automatisés. Le matériel récent et optimisé offre à la fois une prise en charge native des plates-formes et technologies BIBLIOGRAPHIE 1. Business Value of Virtualization: Realizing the Benefits of Integrated Solutions. IDC, juillet 2008. 2. HP ProLiant G6 Technology Overview. HP, mars 2009. 3. HP Products Build to Protect The Environment. IDC, février 2007. 4. HP Virtual IT Center. HP, 2009. de virtualisation et une puissance de traitement accrue. Les serveurs les plus modernes intègrent des systèmes d alimentation efficaces et des processeurs multicœurs haute capacité et offrent une consommation d énergie optimale. Tout ceci, couplé à l amélioration des systèmes de stockage, des mémoires RAM et des systèmes d E/S, indique un réel décollage des techniques de virtualisation. Créer des machines virtuelles pour répondre à chaque besoin métier est un moyen pour les entreprises de s assurer que leur matériel n est jamais sous-utilisé et que la puissance de traitement peut être exploitée de façon souple, selon les besoins. Il est également possible de créer de doubles environnements de sauvegarde afin de garantir la continuité de service dans tous les scénarios de reprise. L IMPORTANCE DE LA PLANIFICATION Ceci étant dit, l adoption d une stratégie de virtualisation ne doit pas être prise à la légère. Elle nécessite en effet une planification détaillée des besoins métiers actuels et futurs, des coûts visibles et cachés ainsi que du processus de mise en œuvre lui-même, de façon à garantir à tout moment la continuité de service et de satisfaire les attentes de l entreprise. La première étape de la virtualisation consiste à choisir du matériel de d e r n i è r e g é n é r a t i o n Les serveurs les plus récents sont équipés de systèmes d alimentation efficaces et de processeurs multicœurs haute capacité offrant une consommation d énergie optimale. capable d héberger plusieurs machines virtuelles. Ce matériel doit intégrer des processeurs extrêmement puissants, tels que les nouveaux processeurs Intel Xeon 5500, une technologie de RAM rapide et des systèmes de stockage hautes performances. Après avoir correctement dimensionné le matériel requis en veillant à anticiper sur les besoins futurs, les entreprises doivent identifier et documenter les applications dont elles ont besoin, ainsi que les relations entre elles et la charge de travail qu elles doivent supporter. Bien que long et fastidieux, ce processus est indispensable à la réussite du projet. La migration en tant que telle vers des environnements virtuels doit idéalement s effectuer de façon progressive et répondre aux besoins prévisibles actuels et futurs de l entreprise. Vous ne devez plus avoir à vous soucier des copies de sécurité ou des points de défaillance uniques. Les entreprises doivent être capables de gérer leurs centres de données plus efficacement et plus facilement en sachant que leur infrastructure informatique leur offre toute la souplesse nécessaire pour déployer de nouvelles ressources et relever les nouveaux défis qui se présentent. 12

GLOSSAIRE TERMINOLOGIQUE 13 Architecture x86 Désignation générique des microprocesseurs commercialisés par Intel à la suite du processeur 8086 initial, comprenant entre autres les processeurs 286, 386, 486 et Pentium ou, plus récemment, les processeurs Intel Xeon, Intel Core i7, Intel Core 2 Quad et Intel Core 2 Duo. Les processeurs Intel Architecture sont la plus grande réussite commerciale de l histoire de l informatique personnelle. BREEAM BRE Environmental Assessment Method. Equivalent européen du système américain LEED. Cette méthode volontaire vise à promouvoir les meilleures pratiques en matière de développement durable et est utilisée pour évaluer l empreinte environnementale des bâtiments. Empreinte carbone «La totalité des émissions de gaz à effet de serre produites directement et indirectement par un individu, une organisation, un événement ou un produit» (UK Carbon Trust 2008). L empreinte carbone d un individu, d une nation ou d une organisation est mesurée par une évaluation de ses émissions de gaz à effet de serre. Une fois l ampleur de l empreinte carbone déterminée, il est possible de mettre au point une stratégie afin d en réduire les effets. Responsabilité sociale des entreprises (RSE) Forme d autoréglementation des entreprises intégrée dans un modèle commercial. Une politique RSE doit idéalement refléter les attentes légales, économiques, éthiques et philanthropiques de la société vis-à-vis des entreprises, et engager la responsabilité de l entreprise concernant l impact de ses activités sur l environnement, le consommateur, les communautés et le public en général. Les entreprises qui se conforment aux codes RSE acquièrent un avantage concurrentiel sur le marché en offrant aux acteurs concernés une réelle valeur ajoutée. Green Grid Organisation internationale à but non lucratif chargée d accroître le rendement énergétique dans le secteur des technologies de l information. Elle a pour objectif de créer et de promouvoir l adoption d indicateurs et de normes afin de mesurer le rendement énergétique des centres de données, ainsi que les processus et technologies susceptibles d aider les centres de données à améliorer leurs performances compte tenu de ces indicateurs. LEED Le système d évaluation environnementale des bâtiments appelé LEED (Leadership in Energy and Environmental Design), développé par l USGBC (United States Green Building Council), fournit un ensemble de normes de construction durable fondées sur cinq aspects fondamentaux de la santé humaine et de l environnement : le développement de sites durables, l économie d eau, le rendement énergétique, le choix des matériaux et la qualité environnementale en intérieur. Nehalem Nom de code attribué à la dernière microarchitecture de processeurs Intel, succédant à la microarchitecture Core. Le 30 mars 2009, Intel a introduit sa gamme de processeurs Intel Xeon 5500 basés sur la nouvelle architecture Nehalem. Cette microarchitecture Intel de nouvelle génération s adapte à la charge de travail en augmentant automatiquement la fréquence de processeur pour des performances accrues. Retour sur investissement Ratio des gains ou pertes réalisés dans le temps sur un investissement par rapport à la somme initiale investie. Pour les décideurs informatiques, le calcul du retour sur investissement doit tenir compte à la fois des coûts cachés d un projet et des dépenses économiques plus évidentes et pondérer le coût total par rapport aux avantages ou à la valeur perçus de l initiative pour l ensemble de l entreprise. Coût total de possession Estimation financière des coûts directs et indirects engagés dans l acquisition de matériel et de logiciels. Il s agit d une forme de comptabilisation globale des coûts. Virtualisation Terme inventé en 1960 en référence à la création d une machine virtuelle à partir d une combinaison d éléments matériels et logiciels. La virtualisation d une plateforme est effectuée sur une plate-forme matérielle donnée à l aide d un logiciel hôte qui simule un environnement informatique («machine virtuelle») pour le logiciel invité. Le logiciel invité (en règle générale, un système d exploitation complet) doit offrir les mêmes fonctionnalités que s il était installé sur une plate-forme matérielle autonome.

en association avec NetMediaEurope S.A. 2009. Tous droits réservés.