L hyper-convergence, consolidation au niveau du datacenter Le mouvement de convergence entre les couches réseau, stockage et calcul ne s arrête plus à l échelle du rack. Il touche le centre de données, et permet l automatisation et l orchestration des ressources informatiques, via l utilisation par la DSI d outils software defined. Fin des silos, interopérabilité, gestion et maintenance de ce nouveau matériel, apport de la virtualisation, dimension software-centric : ZDNet.fr vous guide sur le chemin escarpé de l hyper-convergence. 1
SOMMAIRE 1. Les solutions convergées : une vraie alternative aux systèmes en silos?...4 1.1 La vague des hyperviseurs et de la virtualisation...5 1.2 Des initiatives alliance, par alliance...6 1.3 Le concept plus large d infrastructure convergée...6 1.4 De la convergence à la future hyper-convergence...8 1.5 Une offre considérablement enrichie par des alliances...9 2. Hyper-convergence et sites distants : une solution pour résoudre la complexité...10 2.1 L indispensable connaissance de la virtualisation...11 2.2 Eviter une forêt de câbles...11 2.3 Quid de l évolutivité?...11 3. Interopérabilité et hyper-convergence : les pièges de l incompatibilité...12 3.1 Deux cas de figure...13 3.2 L argument de la compatibilité...13 3.3 Compatibilité avec les standards de fait...14 3.4 Les cas Cisco, IBM...14 3.5 L interopérabilité en pratique...14 4. Solutions hyper-convergées : le syndrome de la boîte...18 4.1 Un mauvais procès?...19 4.2 Plus d intégration, c est moins de pannes...20 5. Convergence à hyper-convergence : les leviers du Software...21 5.1 Deux étapes à franchir...22 5.2 L infrastructure déterminée par logiciel...23 5.3 Une pile logicielle unique par noeud ou cluster...23 5.4 Ajuster les ressources VDI et le SAN...24 5.5 Le SDS, au-delà du stockage virtuel...24 5.6 Les critères-clés de l hyper-convergence...24 5.7 Hyperconvergence et «Sofware defined» : quelle réalité, quels avantages?...25 2
6. Le rôle de l hyperviseur et les services disponibles...27 6.1 Pas d Hyper-V en prime abord......28 6.2 Interception de l hyperviseur...29 6.3 EVO : RAIL de VMware, une offre OEM...29 6.4 Les rajouts d EMC VSPEX BLUE...29 6.5 HP sur deux gammes...30 6.6 Nutanix, pionnier et agnostique...30 6.7 Gestion des disques en tiering...31 6.8 SimpliVity (Cisco) : maintien d un contrôleur RAID...31 6.9 Et Citrix et Microsoft Hyper-V?...31 6.10 Datacore : le SDS agnostique, avec Fujitsu, Huawei......31 6.11 Fujitsu : une accélération de 30 fois...32 6.12 Fluidité des VM...33 7. Qu apporte une solution Software Centric ou VM Centric?...34 7.1 Software centric ou Software defined?...35 7.2 Nutanix confirme l approche «VM Centric»...36 7.3 Entretien avec George Teixeira, CEO de Datacore...37 8. L Hyper-convergence à la portée des entreprises utilisatrices...40 8.1 Au sens du Software Defined Datacenter...41 8.2 L intérêt d une intégration très poussée...41 8.3 La cible : entreprises moyennes et grands comptes...42 8.4 Des avantages mesurables...42 3
1. Les solutions convergées : une vraie alternative aux systèmes en silos? Pourquoi les solutions convergées intégrant les couches serveurs, stockage et réseau sont-elles une alternative crédible aux systèmes conventionnels en silos? Faut-il miser tout de suite sur l hyper-convergence? 4
La tendance à l intégration de l informatique, c est à dire sa concentration sur un minimumde volume ne date pas d aujourd hui. Elle remonte à la miniaturisation des composants et renvoie à la fameuse loi de Moore, ou, plus concrètement, à la progression phénoménale de la capacité des processeurs multi-coeurs, notamment dans les systèmes Intel x86, sur 64 bits. Mais dès avant 2010, on a vu arriver de nouvelles architectures informatiques concentrant dans des racks, une puissance de calcul très dense ainsi que des unités de stockage, interconnectés par un réseau en backplane (en fond de rack), attachement direct (SAS) ou en réseau local (SAN) très intégrées. Ces racks ont tiré parti des serveurs lames, extrêmement compacts et puissants (chez HP, Dell, IBM...) et des disques mémoires Flash SSD mais le coût, au départ, était un dissuasif et la fiabilité discutable. En concurrence, sont alors apparues d autres formes de serveurs en tiroirs très modulaires (comme l architecture Moonshot de HP, ou des équivalents chez Dell), facilement démontables et interchangeables, procédé très utile pour la maintenance et les reconfigurations à la demande, mais à la main. La vague des hyperviseurs et de la virtualisation En parallèle, côté plateforme logicielle, l avènement des hyperviseurs et de la virtualisation va également constituer un tournant important avec ESX de VMware et Hyper-V de Microsoft, une sorte de réinvention du système VM d IBM pour serveurs X86. En avril 2009, Cisco prend le pari d introduire son offre UCS (Unified computing system) en s appuyant directement sur VMware ESX comme OS système - c est le scénario baremetal (implémentation directe sur le système). Une option audacieuse, «disruptive», selon la terminologie de la SiliconValley. Conçue en partenariat avec Intel et VMware, elle aura été une des toutes premières plateformes convergées industrielles, incluant les CPU, le réseau et les unités de stockage dans un rack unique de 19 pouces, l ensemble étant géré par un seul logiciel d administration.le système supporte aussi Microsoft Hyper-V et Citrix. 5
L argument était déjà de réduire le coût total d exploitation (TCO) et de faciliter l évolutivité (scalability). Ainsi le volume de stockage peut être étendu sur un réseau SAN, la connectivité réseau étant assurée par un Fabric Interconnect, conçu à partir du Nexus 5000, précurseur en matière de connexions virtualisées. Des initiatives alliance, par alliance Avec EMC et VMWare, Cisco va ensuite créer la joint-venture VCE dédiée à l offre convergée vblock, incluant des services de stockage extensibles (fin 2014, Cisco a cédé ses parts VCE à EMC). Cette coopération avec EMC n a pas empêché Cisco de signer également un partenariat avec NetApp pour l offre de stockage intégré FlexPod, quasiment équivalente, toujours sur une base VMware. Et récemment, Cisco a également signé un partenariat avec Nimble, lequel, avec son architecture hybride CASL (Cache accelerated sequential layout), combine unités Flash SSD et disques durs conventionnels. Le concept plus large d infrastructure convergée Dans le même temps, les autres grands acteurs du secteur informatique - HP, Dell, Bull, IBM, Oracle (Sun)... - ne sont pas restés inactifs. Ils avaient, pour certains, déjà engagé des initiatives de systèmes dédiés. Mais le principe d infrastructure IT convergée a gagné du terrain, avec l arrivée des offres Cloud. Sur le modèle de vblock et de FlexPod, on a ainsi vu se généraliser le concept, plus global, d infrastructure convergée, qui consiste à organiser l administration d un data-centre autour d un fournisseur et de ses partenaires. Le but est de recourir à des ensembles matériels et logiciels préconfigurés et très concentrés dans un châssis unique, de façon à simplifier l exploitation de l ensemble, et en ayant à faire qu à un seul interlocuteur. 6
Le cabinet Gartner, pour établir son récent Magic quadrant (cf. schéma ci-dessous) sur ce créneau de marché très prometteur (50% de progression par an sur les 3 années écoulées), a utilisé plus sobrement le terme d «Integrated systems». Parmi les leaders et visionnaires, il a positionné VCE (EMC), Cisco-NetApp et Oracle et, ensuite, HP, IBM, Dell, puis encore HDS (Hitachi), Fujitsu, mais également Teradata - et au moins des start-ups de l hyper-convergence, dont Nutanix et Simplivity. Gartner s Integrated Systems Magic Quadrant 7
De la convergence à la future hyper-convergence Après les systèmes convergés, on entre désormais dans l ère de l infrastructure définie par logiciel. Et là, la partie paraît plus intéressante encore, même si certains risques en découlent au moins pour les phases pilotes. «Aujourd hui, les systèmes d infrastructure hyper-convergés fusionnent d emblée leurs fonctions centrales de calcul, de stockage et de mise en réseau dans une seule et même solution logicielle ou matérielle», constate le cabinet IDC. Les différences d architectures entre un système hyper-convergé et un système convergé ou intégré ne sont pas négligeables. Avec l hyper-convergence, on va au-delà de l intégration avec pré-paramétrage fait en usine. Une pile logicielle hyper-convergée est nécessairement distribuée; elle offre d emblée une contiguïté des charges de travail, une conteneurisation et une abstraction matérielle», comme l explique IDC. (lire l article spécifique dans ce dossier sur l hyper-convergence). On entre ici sur le terrain du Software defined. VMware, avec son appliance EVO:RAIL, a ouvert la voie, reprise par HP (offres Converged System HC 200) ou EMC (EMC VSPEX Blue) et d autres. Mais, comme le précise l article de ce dossier dédié à l hyper-convergence, il existe des pionniers ou des out-siders - comme Nutanix, Simplivity, Nimble et Datacore dans le domaine du stockage de données, ou encore Nexenta - un pionnier de l univers Open Source. Futjitsu et Huawei, pour ne citer qu eux, ont choisi de signer un partenariat avec Datacore. Mais rien n est exclusif.. Une offre considérablement enrichie par des alliances Tous les géants de l informatique ont développé des offres intégrées, plus ou moins «convergées». Certains sont ainsi plus mûrs que d autres pour se hisser vers l hyperconvergence. Mais rien n est joué. Les jeux sont en cours. HP : une longue lignée HP a introduit, depuis plusieurs mois, toute une gamme Converged Systems, notamment à partir de son nouveau gestionnaire HP OneView et d un ensemble d interfaces programmatiques API unifiés et des plug-ins VMware, Microsoft, Red Hat et OpenStack. Fin 2014, HP a annoncé l utilisation de commutateurs Cisco en top-of-rack de ses Converged Systems 700 (et non plus seulement, sa propre offre de commutateurs réseaux ProCurve), comme plateformes IaaS (Infrastructure-as-a-Service). HP a également développé l offre Helion pour le Cloud, dont le récent CloudSystem CS200- HC, qui intègre OpenStack (communauté Open Source) et plutôt orienté comme offre PaaS (Plateforme as a Service) et reposant sur la pile logicielle Cloud Foundry (Open source). Et tout récemment (cf. un autre article de dossier), HP a également introduit deux solutions hyper-convergées, une reposant du EVO:RAIL de VMware et l autre sur son portefeuille StoreVirtual (d origine Lefthand Networks). 8
Oracle (Sun) et ses Exadata Depuis plusieurs années déjà, Oracle, avec l héritage «système» de Sun Microsystems, dispose de son offre Exadata. C est une vraie plateforme convergée et mais dédiée, avec virtualisation. Elle embarque un moteur de bases de données Oracle, comme il se doit. IBM : VersaStack ; et les PureSystems sans blades X86 Fin 2014, IBM a signé un partenariat avec Cisco, dont il n est plus concurrent s agissant des serveurs X86 (activité cédée à Lenovo depuis le 1er octobre 2014). Il s agit de l offre intégrée VersaStack, qui vise les Clouds privés et les besoins de Big Data et d applications analytiques. Par ailleurs, IBM a lancé son architecture intégrée PureSystems, qui consiste, là aussi, à proposer des solutions complètes intégrées, matériel et logiciels, entièrement intégrées et configurées en usine. Il repose sur les systèmes Flex Systems à base de processeurs Power7+ (puisque les modèles X86 sont désormais chez Lenovo), sous Windows ou Linux, capables de supporter des milliers de VM (machines virtuelles). Les unités de stockage intégrées, virtualisées, sont des IBM Storwize V7000, mais le client peut préférer ou combiner avec des équipements EMC ou NetApp. IBM propose également PureFlex System (sur Power 7+, toujours) qui est une infrastructure Cloud complète. C est une offre IaaS, préconfigurée en usine, prête à l emploi, et administrée par une seule console de management unifiée. IBM a également décliné l offre pour des applications spécifiques: ce sont les PureApplication Systems pour des applications Web transactionnelles et bases de données. Là encore, le principe est celui de la simplicité de déploiement, de pré-paramétrage sur mesure. IBM y inclut des expertises métier. Ainsi, le tout récent PureData System est optimisé pour «fournir des services de données pour applications très exigeantes» (par exemple : PureData for Analytics ). Dell : du développement et des partenariats Dell a développé plusieurs générations de systèmes intégrés, dont les VRTX (ensemble que l on peut qualifier de «boite noire»), mais également la gamme Active Systems sur serveurs lames (1000, 800 et 200) sur le principe d ensembles pré-équipés et très extensibles, conçus pour constituer des plateformes Cloud, supportant aussi bien Windows que Linux, que des applicatifs Microsoft SQL, Lync ou Share- Point, ou encore Oracle, SAP, etc. Tout récemment, pour évoluer vers l hyper-convergence et l intégration sur le Cloud, Dell s est rapproché, d une part, de FireHost, et a conçu des plateformes convergées incluant, là encore, serveurs, stockage, sur virtualisation VMware (NSX). Dell a, d autre part, développé un partenariat avec Nutanix, qui a donné lieu à l offre Dell XC Web-scale Converged Appliance, avec 3 modèles (1 U, supportant VDI, tests ou Cloud privé) et deux de 2U, supportant respectivement Exchange, SharePoint, Big data; ou SQL, Oracle). 9
2. Hyper-convergence et sites distants : une solution pour résoudre la complexité Si les technologies de convergence et d hyper-convergence adressent en premier lieu les problématiques de consolidation et d automatisation des datacenters, une des vertus ide ces technologies est la simplification des opérations sur les sites distants. 10
Répartis sur les sites des filiales ou des agences commerciales, les boitiers convergés peuvent servir d extensions des ressources positionnées sur un site distant. Opérés à distance par la DSI, ils assurent la collecte d information à l échelon local, et peuvent le cas échéant stocker des données dupliquées dans le datacenter principal. Cette solution permet de mettre en place simplement un PRA, ou plus modestement un backup distant. C est la solution prônée entre autre par Simplivity et son boitier Omnicube, ou encore par Dell avec son VRTX. L indispensable connaissance de la virtualisation L autre aspect positif de l hyper-convergence appliquée à la problématique des sites distants est la simplicité de mise en œuvre. Des centaines de VDI peuvent être déployées depuis la plateforme et la gestion peut être réalisée depuis un seul point. Reste à maîtriser les logiques de provisionnement de machines virtuelles, mais c est un moindre mal au regard de la complexité imposée par les solutions classiques. Car la puissance de ces solutions est de proposer une couche d administration accessible à distance, qui sera à même de gérer finement le stockage, la puissance de calcul et les problématiques réseau, et ce sans paramétrage physique. Eviter une forêt de câbles Car sur le site distant, le packaging tout-en-un de la solution évite la forêt de câbles induis par une installation classique promettant les mêmes bénéfices. Néanmoins, cette configuration consolidée peut faire craindre une limitation en matière d évolutivité de la solution. Que faire en cas de montée en charge régulière? De besoin de plus d espace de stockage? Quid de l évolutivité? Face à cette problématique, les systèmes convergés sont évolutifs. Sur des sites distants, ils permettent de rajouter de la puissance et de la mémoire dans le boitier au fur et à mesure de la croissance de l activité des filiales, tout en limitant le risque d hétérogénéité des systèmes. Au-delà, le principe de consolidation joue aussi. «Si vous voulez augmenter la capacité, c est très simple. Vous commandez un second produit, vous le connectez au premier, et en deux minutes, vous avez un cluster deux fois plus gros prêt à fonctionner, avec deux fois plus de stockage, de puissance de calcul et de capacité réseau» explique Aboubacar Diare, Chief Architect Softwaredefined storage HP à propos du ConvergedSystem 200-HC. «De cette manière, vous pouvez étendre un cluster dans deux endroits différents, et le cluster va continuer à fonctionner comme une seule entité, et vos données sont automatiquement répliquées sur un autre site» ajoute Aboubacar Diare, notant l élasticité de la solution. 11
3. Interopérabilité et hyper-convergence : les pièges de l incompatibilité Les solutions hyper-convergées sont par essence l œuvre d un fournisseur unique, qui a conçu un tout-en-un entièrement intégré et automatisé. D où les questions légitimes sur l interopérabilité, sinon la compatibilité entre les diverses solutions du marché. 12
L une des principales motivations des DSI lorsqu ils ont à choisir une nouvelle solution IT, est qu elle permette de sortir d un environnement «propriétaire», surtout si la solution a vocation à évoluer en capacité. C est l assurance de réduire sinon de ne pas augmenter le cout total d exploitation, de ne pas devoir repayer non seulement des matériels mais de nouvelles licences à des prix très élevés, etc.. Or, les solutions hyper-convergées peuvent, à juste titre, soulever quelques inquiétudes, car, par définition, ce sont des offres fermées ou, du moins, tellement intégrées qu il est difficile de déterminer, a priori, le niveau d interopérabilité avec d autres solutions d autres constructeurs, ou avec celles déjà installées. Deux cas de figure Deux scénarios se présentent : Soit on s en remet à un standard de facto : un acteur leader (comme HP, VMware, Cisco, EMC, IBM...), est déjà très présent dans l environnement existant auquel cas il faudra vérifier qu il y a bien compatibilité. Soit on envisage un système «ouvert», ou réputé tel, et donc conforme aux développements Open source. Dès lors, se pose la question de l interopérabilité avec les autres systèmes ouverts. Sur le terrain, ces deux cas de figure peuvent se mêler : un système dit «propriétaire» peut, en partie, s appuyer sur une pile logicielle Open source (comme OpenStack, par exemple). L argument de la compatibilité Les solutions hyper-convergentes ne sont pas nécessairement compatibles entre elles. Or, comme elles incluent des mécanismes d automatisation à partir d une console centralisée, il faut qu il existe une compatibilité effective si l on doit y connecter des éléments externes. L ensemble doit fonctionner correctement. Ce qui renvoie à «la matrice de compatibilité». Sur le papier, le matériel est dit «full compatible» et «maitrisé». Mais ce sont des tests, ou les premiers clients, qui le vérifient. Le paradoxe est que l hyper-convergence est censée réduire la complexité de la mise œuvre. En pratique, mieux vaut vérifier et comparer, par exemple, avec le niveau d intégration de solutions convergées matures, déjà éprouvées, telles que Vblock (VCE, VMware, Cisco, EMC) ou FlexPod Cisco,NetApp, VMware), dont la matrice de compatibilité a été affinée avec le temps. Mais ce sont des configurations non pas «hyper» mais convergentes. Les start-ups de l hyper-convergence - comme Atlantis Nutanix, Pivot, Simplivity ou ScaleComputing - ont plutôt bonne réputation sur ce plan de la compatibilité. Mais les tests restent de rigueur. 13
Compatibilité avec les standards de fait Parmi les standards du marché, VMware ne figure pas en dernière place. Sa récente proposition EVO:RAIL, sorte d appliance en OEM, est ancrée sur vsphere et reliée à vcenter pour l administration, et donc la compatibilité est requise - notamment pour s assurer des mise à jours et des patch. Est-on très éloigné d un système «propriétaire»? L un des points à vérifier, par exemple, est si les hyperviseurs embarqués viennent bien s ajouter correctement à l inventaire vcenter comme n importe quel autre sous-ensemble virtualisé ESXi déjà installé. La compatibilité avec Virtual SAN, s il y a cohabitation, serait également un point à vérifier. De même, le support de HorizonView 6 (VMware) ou des cartes graphiques NVidia ou des cartes accélératrices du type PCoIP APEX. Au passage, HP, comparant à EVO:RAIL son offre ConvergedSystem200 HC sur son propre logiciel StoreVirtual (VSA), invoque une interopérabilité plus large. Les cas Cisco, IBM La compatibilité avec les leaders du marché se vérifie encore s agissant de Cisco ou IBM. Le champion des solutions réseau, Cisco, délivre des certifications de compatibilité sur ses racks UCS (Unified computing system), la C-Series, dans le cadre de son programme Solution Partner. De même, avec IBM, c est la compatibilité avec son environnement, de systèmes de fichier GPFS (General parallel file system), qui prime, depuis son introduction en 1998 (impact sur les réseaux SAN). Ces deux géants viennent d ailleurs de se rapprocher autour d une offre Cisco proposant d intégrer les Storwize V7000 d IBM à son portefeuille. L interopérabilité en pratique L interopérabilité, à la différence de la compatibilité, c est en principe l assurance de ne pas être verrouillé (locked down) par un éditeur ou un constructeur. Dans l hyper-convergence, cela se traduit par la liberté d ajouter des équipements et des nœuds individuels à des clusters existants en puisant dans les meilleures offres du moment, puisqu il est possible de les partager au niveau local ou distant. Clairement, la référence Open source actuelle est OpenStack. Cette pile logicielle apporte la capacité de contrôler de vastes pools de ressources - serveurs, stockage et réseau, au sein d un même datacenter - et de les gérer depuis un tableau de bord unique. Il permet de créer les conditions d un environnement SDDC (Software defined data center), donnant priorité au pilotage par la pile logicielle. L interopérabilité ne paraît pas soulever de problèmes, comme par exemple autour du client Cinder, qui est l interface de commande pour les interfaces API Block storage d OpenStack. 14
Cette pile logicielle apporte la capacité de contrôler de vastes pools de ressources - serveurs, stockage et réseau, au sein d un même datacenter - et de les gérer depuis un tableau de bord unique. Il permet de créer les conditions d un environnement SDDC (Software defined data center), donnant priorité au pilotage par la pile logicielle. L interopérabilité ne paraît pas soulever de problèmes, comme par exemple autour du client Cinder, qui est l interface de commande pour les interfaces API Block storage d OpenStack. Ce point est confirmé par un responsable de Nexenta (cf. entretien Frédéric Millon), une ex-startup fondée par des développeurs Open Source, qui avaient dès le départ, choisi de se focaliser précisément sur la connectivité et l interopérabilité entre systèmes. Stockage hyper-convergé : 3 familles en lice Trois familles d acteurs cohabitent dans l univers de la convergence des solutions de stockage : L approche Data systems : CEPH, Gluster, Openstack, Microsoft, AWS... Les solutions logicielles : VMware VSAN (virtualstorage SAN), Sanbolic, Nexenta, EMC ScaleiO, Datacore... Les appliances : HP, Atlantis, Nutanix, SimpliVity (avec Dell, Cisco), ScaleComputing, Pivot... Enfin, il y a aussi des acteurs atypiques, comme Wikibon ou Pluribus (Freedom Server-Switch et un hyperviseur, NetworksNetvisor). Frédéric Milon, Nexenta France : «L hyper-convergence? C est toujours plus de virtualisation!» Frédéric MILON, directeur commercial de Nexenta Europe du Sud, constate qu il est toujours possible d améliorer les plateformes de virtualisation. «C est l orientation vers l hyper-convergence. Mais sans que l on soit nécessairement intrusif». Comment qualifiez-vous l hyper-convergence? L hyper convergence consiste en une architecture basée sur les logiciels permettant une intégration de l ensemble des besoins informatiques d une entreprise. C est le fait d aller plus loin encore dans la virtualisation. Car les plateformes de virtualisation peuvent toujours être optimisées. Ainsi, nos solutions, comme NexentaConnect, apportent des fonctionnalités qui permettent d améliorer l efficacité des plateformes VMware -dont VSAN (qui fonctionne en mode bloc ) ou Horizon, ainsi qu un logiciel de stockage, NexentaStor, qui gère l ensemble des besoins en ce domaine de nos clients, quelle que soit sa stratégie de gestion des données. 15
De quelles améliorations s agit-il? Une solution comme NexentaConnect pour VDI, par exemple, permet d augmenter le nombre de VM par serveur. L amélioration peut aller jusqu à 50%. L explication est que notre code intervient en amont de la gestion de la mémoire utilisée par VMware. (Et nous ne sommes pas limités par le nombre de disques). Nous apportons également des ressources de caching, non pas au point de mémoire cache des traitements ESX, mais au niveau de la mémoire cache des VM elles-mêmes. Nous pouvons également rajouter une couche NAS à VMWare VSAN, si utile, grâce, là encore à NexentaConnect. Mais sans être intrusifs. En ce qui concerne NexentaStor, il est toujours possible de faire évoluer une configuration sans stopper la production ou de rajouter, à chaud, une JBOD d un constructeur (Dell, Supermicro, HP, etc.), sans temps d arrêt (arrêt de production). Et nous restons toujours neutres vis-à-vis des marques. Historiquement, le système de fichiers ZFS était basé sur Solaris (Sun), avec une capacité d adressage colossale sur 128 bits. Aujourd hui, il est Open Source, il est donc resté un système de fichiers indépendant. Nexenta a travaillé à partir de ce noyau et nos 130 développeurs ont amélioré grandement la solution afin de proposer aujourd hui ce qui est le produit phare du SDS (Software Defined Storage), NexentaStor. Nous possédons plus de 30 brevets dans ce domaine. Comment le «Software Defined» modifie-t-il la donne? Le Software defined permet de s affranchir du lien entre le logiciel et le matériel, ce qui permet aux clients de réduire significativement leurs coûts de fonctionnement lié au stockage. D autre part, du fait de la capacité de NexentaStor à fédérer les environnements hétérogènes (physiques et virtualisés) ainsi que les différentes stratégies de stockage (fichier, bloc et, demain, objet), nous permettons aux DSI d envisager sereinement l avenir, tout en contrôlant leurs investissements. Il apporte également des avancées techniques significatives : avec le Software defined, les contrôleurs RAID, par exemple n ont plus de raison d être. Nous gérons tout, de façon logicielle. La corruption de données n est plus possible. Chaque disque est tagué, en sorte que si l on déplace un tiroir de disques, l OS va automatiquement le détecter. Et on peut donc augmenter la capacité à chaud. C est très souple. A noter que le fait de supprimer les cartes RAID facilite énormément la reconstruction d un disque. S il contient 2 tera-octets, il sera possible de le reconstruire en 2 à 4 heures (contre 1 à 2 jours sur des environnements classiques). Ce n est là qu un exemple des multiples fonctionnalités de notre offre. 16
Donc comment vous positionnez-vous dans l hyper-convergence? Nous sommes vus comme leader du SDS (Software defined storage). Nous avons un portefeuille de produits, qui s inscrivent dans cette démarche. La solution NexentaStor appartient au domaine du SDS. Elle est transparente au niveau hardware. En outre, nous sommes ouverts à tous les types de protocoles du stockage (modes bloc, fichier, objet...) et à tous les environnements applicatifs (bases de données, messaging, etc.) Notre enjeu, c est être capable de gérer tous les environnements existants (SAN, NAS, hybride, virtualisé...) ou être capable de rajouter le mode objet (avec NexentaEdge), par exemple. Et que recouvre l orientation «Software centric»? C est l essence même de notre solution. Faire du matériel un produit de «commodité», et permettre au logiciel de délivrer la puissance et les fonctionnalités nécessaires à nos clients. Dans ZFS, beaucoup de code a été rajouté, pour parvenir à l hyper-convergence. C est, par exemple, le fait d être pré-configuré, prêt à l emploi très rapidement, ou le fait de déployer très rapidement, le file manager ZFS en mode fichier ou en mode objet. L intérêt du mode objet étant de permettre de constituer des conteneurs d informations, par exemple, autour des dossiers patients complets, avec ordonnances ou imagerie médicale, etc. Pour un traitement rapide, on ajoute de la capacité CPU, de la mémoire, de la capacité disque. Mais plutôt que de puiser dans de nouvelles ressources, c est un contrôleur qui détecte les ressources disponibles, jusque sur le Cloud, le cas échéant. Quels arguments motivent les clients? Beaucoup de DSI souhaitent sortir des solutions propriétaires. Ils veulent retrouver de l oxygène dans leur budget. Et être sereins quant à l évolution de leur architecture. Donc, ils sont à la recherche de scénarios alternatifs. Avec notre offre, c est le stockage qui s adapte à l applicatif, et pas le contraire. L interopérabilité autour d OpenStack estelle un acquis? Oui, l interopérabilité est réelle, vérifiable. Non seulement nous sommes compatibles mais Nexenta est un acteur important de cette communauté, comme l a montré notre forte implication lors du dernier sommet OpenStack à Paris en novembre. 17
4. Solutions hyper-convergées : le syndrome de la boîte noire Entre les systèmes convergés, partiellement intégrés, et les systèmes hyper-convergés totalement concentrés à l intérieur d une appliance bien close, faut-il s inquiéter des risques de pannes, pouvant mettre à terre toute une infra? Quelle stratégie, quelle bonnes pratiques de maintenance s applique? 18
Les systèmes informatiques hyper-convergés sont-ils plus fragiles, plus problématiques que les autres en terme de maintenance? La question est souvent posée. Certains évoquent un syndrome celui de la boîte noire Certains responsables d exploitation IT ont conservé des réflexes de maintenance sur des racks très accessibles, où avec un simple tournevis ils pouvaient sortir les tiroirs, retirer les cartes circuits, et, quasiment changer eux-mêmes les composants sur les cartes - pratique encore courante, par exemple, pour upgrader une carte-mère en changeant processeurs ou en rajoutant des réglettes de mémoire DIMM. Pour certaines personnes, il y avait là quelque chose de rassurant. Mais avec l intégration toujours plus poussée des composants et des sous-ensembles, ces pratiques vont sans doute disparaître. Car les constructeurs ont considérablement amélioré la modularité des systèmes. Depuis quelques années déjà, sont apparus des serveurs tours ou racks avec des modules (cartes mères, disques, blocs alimentation ) très facilement extractibles, souvent à chaud, et interchangeables -fort pratique pour la maintenance. En parallèle, on a vu se banalises les formats blades (lames), des modules très concentrés en composants électroniques, des modules que personne ne songerait à ouvrir en cas de panne. Certains fournisseurs d appliances invoquent parfois le concept de boîte noire - donc hermétiques pour les exploitants IT. Pour les mauvaises langues, cela leur permettrait de proposer des contrats d intervention sur site très juteux... Un mauvais procès? La maintenance reste, comme l assurance, une question de négociation en fonction de l appréciation des risques en jeu et du prix du service. Dans le cas des systèmes convergés, les contrats existent comme pour tout autre équipement informatique. Prenons le cas de l offre Vblock de VCE (cofondée en 2009 par Cisco, EMC, Intel et VMware, sous le nom d Acadia puis, en 2010, rebaptisée, VCE pour Virtual Computing EnvironmentCy). Le principe de départ était que chacun des acteurs partie prenante s engageait à assurer la maintenance pour les autres - une pratique non exceptionnelle dans le contexte de tels accords. La maturité de cette offre, pas plus que celle de Cisco et NetApp (FlexPod), n a pas été mise en doute, pas plus que sa matrice de compatibilité (cf. l article de ce dossier sur interopérabilité et compatibilité). Le service de maintenance a suivi. Pour les offres d hyper-convergences, il est peut-être encore un peu tôt pour se prononcer définitivement. Prenons un seul exemple : Cisco a dû suspendre, au printemps 2014, la livraison de ses appliances de stockage UCS Invicta en raison de problèmes rencontrés avec des unités Flash SSD provenant de l acquisition de Whiptail quelques mois auparavant. Donc de telles incidents existent. Mais faut-il s en alarmer outre mesure? Faut-il assimiler ces appliances à d obscures boîtes noires? «Non, on ne peut pas parler de boîte noire au sens d un système opaque, fermé... Il s agit généralement d appliances. Donc la maintenance ne pose pas de problèmes particuliers, pas plus que pour toute autre appliance», explique Jean-Luc Koch, consultant senior, directeur de Carvea Consulting. 19
«Ces équipements sont des produits industrialisés, réputés fiables et à forte résilience. Et quand, le cas échéant, on ne peut pas identifier l origine d une panne et changer le ou les modules défectueux, on se replie sur une autre appliance, le temps de la réparation.» «Dans le cadre d une migration vers un nouveau Datacenter, nous sommes actuellement sur une migration de 500 VM vers cette solution Nutanix, le choix a été dictée par une meilleure performance de ces systèmes par rapport à des ESX. C est une alternative apportant plus de puissante car il y a bien intégration verticale des CPU, de la mémoire et du stockage, ce qui a notamment pour avantage de réduire une partie des I/O liées au SAN», constate Jean-Luc Koch. Plus d intégration, c est moins de pannes Le fait est que les nouvelles configurations ultra-convergées suppriment quantité de sous-ensembles interconnectés entre eux (contrôleurs, unités disques mécaniques, serveurs SAN en racks...). On tend à réduire voire éliminer les unités de stockage externes, autonomes. On prévoit de supprimer les contrôleurs de stockage RAID. Car cette concentration est, en principe, source d amélioration des performances (moins de latence) et renforcement de la résilience, car il y a diminution des pannes. Moins d équipement mécaniques (disques durs avec points d usure, exposés aux vibrations, etc.), moins de connectique, moins de câblage, c est, statistiquement, moins de points de fragilité. L avenir semble bel et bien s écrire entre les offres du type Kinetic HDD (Seagate, très haute densité de 4To) sur le Cloud et les solutions Flash SSD directement intégrées aux systèmes. Ainsi, au- delà des appliances et en diminuant voire en supprimant les baies de stockage, on se rapproche du concept de Network gridstorage, avec des ressources réseau et stockage software defined, très étendues, cette fois. 20