DOSSIER REPONSES Après une phase où l informatique s était largement disséminée dans de nombreux sites, l heure est nettement au regroupement des serveurs et à la consolidation ; cela étant dû à une augmentation des performances et à une amélioration de la fiabilité des réseaux et des serveurs. L autre tendance est celle de l informatique verte dont l objectif est de réduire la consommation électrique et donc les coûts. Les data centers à l ère de la consolidation, de la virtualisation et de l informatique verte Alors que les systèmes informatiques des composants aux ordinateurs sont de plus en plus fiables et performants, les DSI expriment quelques doutes sur la résilience (aptitude à s adapter et à réagir rapidement aux phénomènes extérieurs) de leurs systèmes informatiques. C est le principal enseignement d une enquête réalisée par le cabinet Vanson Bourne auprès de 250 responsables informatiques européens appartenant à des grands comptes. Ce qui pourrait être considéré comme paradoxal est en fait dû à plusieurs facteurs : une dépendance de plus en plus forte des entreprises vis-à-vis de leur informatique (pour des entreprises de vente au classement des dix technologies pour l année à venir, l informatique verte vient en première position et le phénomène devrait s accentuer en ligne sur Internet mais aussi pour des banques ou des opérateurs télécoms où l informatique peut être considérée comme l outil de production), une communication appuyée sur les différents risques qui menacent les centres informatiques et une médiatisation des catastrophes naturelles Dans un tel contexte, à combien est évalué le coût de dysfonctionnement de l outil informatique? L éventail des estimations des DSI est très large et va de 15 000 à 1,5 million d euros de l heure. Comment l interruption de services est-elle mesurée? Elle est directement liée au nombre d heures perdues. C est là un calcul assez simple, mais qui ne donne pas beaucoup
DOSSIER les data centers et l informatique verte d indications. Vient ensuite la perte de confiance (citée par 70 % des personnes interrogées), des différentes parties prenantes (stakeholders selon l expression anglaise) qui, elle, est beaucoup plus difficile à mesurer, voire à appréhender, mais dont les effets peuvent être dévastateurs pour l image de l entreprise. Au troisième plan, c est la perte d exploitation qui est citée. Dans cette perspective, les data centers sont placés sous le signe de la triple évolution de la consolidation, de la virtualisation et de ce que l on appelle aujourd hui l informatique verte ou Green IT. Après avoir distribué l informatique, les entreprises la consolident Après une vague de dissémination des systèmes informatiques avec la mini-informatique dans les années 80 et le modèle d informatique client-serveur qui s est imposé dans les années 90, l heure est aujourd hui à la consolidation des serveurs et de l ensemble des équipements périphériques (systèmes de stockage et équipements de réseaux). Pourquoi ce qui a été vrai à une période ne l est plus quelques années plus tard? Une des raisons majeures est que les réseaux sont beaucoup plus fiables et qu ils offrent désormais des débits beaucoup plus élevés. Par ailleurs, la performance des systèmes informatiques a suivi la loi de Moore selon laquelle la puissance des microprocesseurs les composants qui sont au cœur des ordinateurs double tous les 18 mois. Cette loi se trouve vérifiée depuis une quarantaine d années. La consolidation en un nombre réduit apporte plusieurs avantages, en particulier une administration nettement simplifiée et une réduction des coûts liée en partie à une réduction de la facture énergétique. Les constructeurs informatiques, HP et IBM en tête, se sont lancés dans une vague de consolidation sans précédent. Depuis 1997, IBM a réduit le nombre de ses centres informatiques de 155 à 7, mais sans pour autant réduire le nombre de serveurs dans une proportion comparable. Dans une seconde phase, IBM a indiqué en août dernier qu il allait consolider quelque 3 900 serveurs sur seulement 30 mainframes (ordinateurs centraux) avec comme objectif notamment une économie d énergie de 80 % dans les 5 ans à venir. Cette initiative s inscrit dans le projet Big Green au terme duquel IBM avait annoncé toute une série de dispositions pour réduire la consommation de ses propres sites, mais aussi des sites de ses propres clients. HP avait annoncé une opération comparable il y a quelques mois par le biais de laquelle la firme de Palo Alto avait décidé de passer de 85 centres informatiques à seulement six situés dans les trois villes américaines d Atlanta, Austin et Houston. Trois de ces centres sont déjà opérationnels, avait indiqué Randall Mort, DSI d HP lors du HP Technology Forum & Expo L électricité réellement utilisée par un data center S ur 1 kw/h consommé par un data center, l électricité réellement utilisée est 27 fois moindre. D abord les onduleurs et autres unités de refroidissement en consomment 40 %. Ensuite, les unités d alimentation représentent 42 % de la puissance totale. La puissance réellement utile (notamment pour les processeurs) est donc de 18 % seulement. On arrive donc à un résultat quelque peu surprenant 2007 en octobre dernier. La future infrastructure devrait permettre au constructeur de réduire ses coûts d environ 1 milliard de dollars dans les années à venir, passant de 3 milliards en 2003 à 2 milliards en 2008, date à laquelle la consolidation devrait être terminée. En terme de réduction du nombre de systèmes, HP est moins radical qu IBM passant de 19 000 à 10 000 serveurs. Le constructeur espère réduire le coût de la maintenance de ses logiciels de 80 % à seulement 20 % du budget logiciel total. Le nombre des informaticiens tend lui aussi à être singulièrement réduit de 19 000 à 8 000 seulement tout
comme le nombre des soustraitants. Enfin, notons que la réduction du nombre de centres informatiques permet de réduire le coût de la sécurisation de ces sites. La virtualisation, en complément de la consolidation Parallèlement à la consolidation, l autre évolution majeure concerne la virtualisation des serveurs. La virtualisation est un ensemble de technologies permettant de faire fonctionner sur un seul serveur physique plusieurs machines virtuelles mettant en œuvre plusieurs systèmes d exploitation et/ou plusieurs applications, indépendamment les uns des autres. Les technologies de virtualisation peuvent améliorer grandement l utilisation des ressources informatiques ainsi que la flexibilité nécessaire pour s adapter aux évolutions des charges de travail. Toutefois, en soi, les technologies de virtualisation ne sont que de simples outils pouvant contribuer à des réductions de coûts, à l amélioration de la flexibilité et la résilience des infrastructures. Accompagnées de technologies d automatisation avec une gestion basée sur les niveaux de services elles permettront une amélioration de l efficacité des ressources, de la flexibilité qui suit les besoins et des services qui peuvent être gérés de manière globale. Les raisons du choix de déploiement de solutions de virtualisation sont à l origine fondées sur le souci de consolidation des centres de calcul et de réduction du nombre de serveurs, afin de faciliter leur administration, de réduire les coûts et de mieux récupérer une puissance jusqu alors dispersée et souvent très mal utilisée. Les serveurs informatiques sont utilisés en moyenne à 20 % de leur capacité, la virtualisation permet, selon les constructeurs, d atteindre des niveaux beaucoup plus élevés de l ordre de 60 à 70 %. À cette première motivation sont venues s en ajouter d autres : des raisons sécuritaires d abord, le nombre de serveurs empêchant tout PRA (Plan de Reprise d Activité) crédible ; des objectifs de qualité de service dans la rapidité La virtualisation touche aussi le poste de travail La virtualisation gagne maintenant le poste de travail où elle apparaît d abord comme une solution performante de déploiement et d administration, avant d être ultérieurement exploitée pour améliorer la sécurité. Plusieurs formes sont en présence, permettant d insérer une couche logicielle de virtualisation soit entre le matériel et le système d exploitation (SE), soit entre le SE et l application. Ces différentes formes permettent d envisager de déployer via le réseau sur les postes de travail, soit une application en faisant abstraction du SE, soit un package application + SE en faisant abstraction du matériel. La dépendance des entreprises envers leur informatique est de plus en plus forte de déploiement de solutions agilité, les applications utilisant des serveurs virtualisés pouvant être déployées dans des délais autrement plus courts que celles utilisant des serveurs matériels. Concrètement, l impact de la virtualisation (et de la consolidation associée) devrait dès cette année se faire sentir sur le marché par une réduction du nombre de ventes des serveurs (du moins en quantité, sinon en chiffre d affaires). Faut-il externaliser le data center? Externaliser un service ou une fonction de l entreprise n est pas nouveau, surtout en informatique. Mais il semble que l on connaisse une nouvelle vague ces dernières années, en particulier dans la volonté des entreprises de faire appel à des services de data centers externalisés afin de pallier la hausse des prix et la complexité de gestion de ce type d installation hautement sécurisée en interne. Selon une enquête réalisée par le cabinet Coleman Parkes Study pour l opérateur Colt, près de la moitié (45 %) des entreprises externalise déjà une partie de la gestion de leurs data centers et 63 % d entre elles indiquent que cette tendance sera amenée à se développer. Selon le niveau de services proposés, le coût de location annuel est compris entre 1 500 et 2 500 euros le mètre carré, prix auquel il faut ajouter la facture électrique. Automatiser pour réduire le coût de l administration des data centers Le coût des matériels est en baisse constante et pourtant les budgets des DSI n en finissent pas de croître. Cela est tout simplement dû à la
DOSSIER les data centers et l informatique verte Les fournisseurs de serveurs communiquent largement sur les économies de consommation énergétique et la réduction d empreinte carbone Legrand s intéresse au Data Center L a vraie problématique du Data Center n est pas seulement le câblage, mais c est avant tout la performance électrique en raison du fort regroupement des serveurs qui est en train de s opérer, explique Denis Marangé, international Key Accounts & Project Manager de Legrand. Cette évolution pose les problèmes du refroidissement et de l alimentation avec plus d acuité. D ici à 2009, la moitié des Data Centers existant n auront pas la capacité électrique disponible dont ils auront besoin. Parallèlement, dans les 5 ans à venir, on prévoit la construction de quelque 500 000 m² de Data Center dans la seule Europe de l Ouest. Legrand est bien placé pour se positionner sur ce marché avec une offre assez large : armoires de puissance, sécurité, câblage VDI (offre LCS), offre Zucchini pour les canalisations préfabriquées. complexité croissante des data centers qui comportent de plus en plus d éléments qu il faut intégrer et faire fonctionner de concert. Les infrastructures des data centers sont de plus en plus complexes et l on observe un écart grandissant entre les coûts des serveurs et de leur administration. Selon IDC, le premier croît à 3 % par an et le second à 10 %. De telle sorte qu en 1996, le coût d administration était environ la moitié de celui des serveurs, dix ans plus tard il est environ le double. L administration des systèmes traditionnels est structurée en différentes activités (gestion des versions, gestion de la conformité, gestion des incidents ) qui sont souvent organisées en silos et donc sources de dysfonctionnements. Le respect de la conformité est de plus en plus lourd tout comme la gestion des changements. De plus, personne n a vraiment de vision globale de la gestion du data center. Tout ceci a des conséquences importantes en termes de coûts, de qualité et de sécurité. La fiabilité des serveurs, des périphériques, des composants du réseau est de plus en plus grande. Mais la complexité sans cesse croissante des infrastructures est source de fragilité. De telle sorte que la gestion manuelle n est plus du tout adaptée. Quelques chiffres donnent la dimension : 70 % des budgets informatiques sont
La cinquantaine de data centers répartis dans le monde devrait être ramenée à deux grands centres, situés à Limoges et à Varese en Italie Jean-Luc Chiron, DSI de Legrand. affectés à la maintenance, pour un euro en achat de matériel, il faut dépenser trois ou quatre euros en administration, 80 % des pannes pourraient être évitées Une des réponses est d automatiser l administration des data centers. Le déferlement de la vague informatique verte Dans son habituel classement des dix technologies pour l année à venir un exercice auquel le cabinet de conseil américain Gartner se livre chaque année l informatique verte vient en première position et le phénomène devrait s accentuer. Le Gartner conseille aux DSI d envisager des plans alternatifs de croissance pour leurs centres informatiques. D autant que la consommation énergétique, l émission de carbone et autres impacts sur l environnement de l augmentation de la puissance de traitement des systèmes informatiques sont sous surveillance. Le coût de l énergie pour faire fonctionner l ensemble des éléments qui constituent le data center serveurs, système de stockage et de réseaux ainsi que les équipements de refroidissement sont devenus le premier poste du budget d un centre informatique. Est-ce pour autant que les Directions des systèmes d information sont au fait de ces questions? Si elles sont de plus en plus conscientes que les problèmes environnementaux auront des répercussions sur l exploitation informatique (85 %), un quart des DSI seulement a introduit des critères écologiques dans sa façon d acquérir des technologies. C est ce qu indique une enquête auprès de professionnels des achats réalisée par le cabinet Forrester Research. Quelle pourrait être la motivation pour acheter vert? Une telle politique serait mise en œuvre dans le cadre de réduction des coûts. Sur ce point, les DSI indiquent qu ils ne sont pas encore suffisamment informés. Et pourtant les fournisseurs communiquent assez largement sur ce thème et il n est désormais plus une annonce de serveurs qui ne soit placée sous le signe des économies de consommation énergétique et de réduction d empreinte carbone. II Les data centers Legrand Legrand centralise, consolide et sécurise ses data centers Depuis 3 ans, Legrand a lancé une vague de centralisation et de consolidation de ses serveurs. La cinquantaine de data centers répartis dans le monde devrait être ramenée à deux grands centres, situés à Limoges et à Varese en Italie, précise Jean-Luc Chiron, DSI de Legrand. À Limoges, deux salles informatiques en miroir reliées par fibre optique hébergeront à la fin 2008 l ensemble des progiciels de gestion Mapics sur deux AS/400 haut de gamme virtualisés. Chaque AS/400 mettra en œuvre la moitié des applicatifs et servira de back up pour l autre moitié. Cette consolidation sur Limoges s effectue le plus souvent à l occasion de la standardisation autour de Mapics dans la plupart des filiales pour les activités production, commercial et finances. Ce fut récemment le cas du Royaume-Uni et de la Turquie. Ce sera bientôt celui de l Algérie et de Dubaï. Le data center de Varese en Italie sera utilisé, lui, pour jouer le rôle de back up pour l ensemble des progiciels Mapics mais aussi pour tout ce qui est développement, test et recette des applicatifs. Il est relié à Limoges grâce à une liaison fibre optique à 10 Mbit/s. Les applications très critiques, c est-à-dire celles pour lesquelles un arrêt de fonctionnement de plus d une demi-heure n est pas envisageable comme par exemple l application du centre de distribution de Verneuil en Halatte qui traite 15 000 lignes de commandes par jour, sont mises en œuvre par des serveurs Unix en miroir dans les deux centres de Limoges. D autres applications comme le courrier électronique vont également bénéficier de ce statut d applications critiques. L opération de consolidation touche une troisième catégorie de systèmes, les quelque 800 serveurs qui supportent des applications tels que les serveurs de fichiers pouvant tolérer une légère interruption de service et qui devraient être réduits à 300. Parallèlement, seront conservés une trentaine de sites dans lesquels la dizaine de serveurs existants sur chacun d eux sera réduite à un seul serveur physique virtualisé. L ensemble de ces opérations, conclut Jean-Luc Chiron, est désormais mis en œuvre dans le cadre d un programme d optimisation des infrastructures dont l objectif est à la fois d offrir un meilleur niveau de service, en particulier un fonctionnement 24/24, d optimiser l utilisation et de réduire les coûts. Salle centrale des systèmes informatiques de legrand équipée de baies xl vdi