DATA VIRTUALIZATION ENGINE PAR SIMPLIVITY Une vue d ensemble de l architecture de données aux commandes d OmniCube de SimpliVity Traduits de l anglais par Miel, distributeur à valeur ajoutée - -
2
Table des matières Table des matières... 3 Synopsis... 4 SimpliVity Data Virtualization Engine : Combattre la complexité à la racine... 5 1. UN SYSTEME CASSE... 5 2. LA PANACEE DES DONNEES DU 21E SIECLE : DEDUPLICATION, COMPRESSION, OPTIMISATION (DCO TM )... 7 Etat de l art du marché de la déduplication... 9 Data Virtualization Engine de Simplivity : l'architecture de donnée efficace du 21e siècle, centrée sur la mobilité... 10 1. LE POINT DE DEPART : DEDUPLICATION, COMPRESSION ET OPTIMISATION EN TEMPS REEL SANS IMPACT SUR LES PERFORMANCES... 11 2. OMNICUBE ACCELERATOR... 12 3. AUGMENTEZ LA VALEUR AJOUTEE PAR L OPTIMISATION... 13 4. RELIER LE TOUT ENSEMBLE : OMNICUBE GLOBAL FEDERATION... 14 OmniCube : Infrastructure IT hyper convergée globalement fédérée... 15 Résumé... 17 Data Virtualization Engine par Simplivity Miel, Juin 2013. 3
Synopsis OmniCube de SimpliVity est le remède à 2 des plus grands maux de l informatique (IT) : D abord un coût et une complexité rédhibitoires de l infrastructure, puis les limitations de la gestion inter-sites, incluant le Cloud. OmniCube est la première plateforme hyper convergée et globalement fédérée de l industrie. Conçu et optimisé pour l environnement virtuel, OmniCube fournit une infrastructure IT complète dans une seule plateforme. Flexible et évolutif, il répond à toutes les exigences de disponibilité, de performance et de mise en service. Ajouté aux services principaux de serveur, stockage et réseau, OmniCube fournit un ensemble complet de fonctions avancées qui gèrent et protègent les machines virtuelles dans les data centers ou entre ces derniers, y compris dans le Cloud. L évolutivité démarre dès que 2 systèmes OmniCube ou plus sont déployés ensembles. Ils créent alors OmniCube Global Federation, un ensemble de ressources partagées massivement évolutif qui permet un mouvement des données très efficace, une évolution linéaire, une intégrité totale, la possibilité de PRA (plan de reprise d activité), et une disponibilité du système de toute première catégorie. Vue d ensemble d OmniCube Système d infrastructure complet Evolutivité simple sans limite Administration centrée sur la VM Réplication efficace en bande passante pour le PRA Intégration au Cloud Public Figure 1 : Vue d ensemble d OmniCube 4
La crise de complexité aujourd hui constatée a une origine double : une architecture de données obsolète gérant des blocs de données volumineux, et optimisée à l origine pour un monde antérieur à la virtualisation de serveurs. Le besoin de couvrir plusieurs sites (PCA, PRA, Backup ), y compris le Cloud. Cette nécessité impose une mobilité des données que les infrastructures actuelles ne peuvent offrir. Simplivity a intégralement résolu ces problèmes en concevant une architecture de données fondamentalement nouvelle exploitant une fonctionnalité appelée «Simplivity Data Virtualization Engine TM», ou DVE TM. (Moteur de virtualisation de données) DVE déduplique, compresse et optimise toutes les données (à l origine, en temps réel, une fois et pour toujours). Il fournit par ailleurs un cadre global pour stocker et gérer les éléments de données granulaires qui en résultent. Ce cadre concerne tous les supports contenus dans un système (DRAM, Flash, HDD), toutes les étapes du cycle de la donnée (Primaire, backup, WAN, archive), tous les emplacements géographiques, tous les data centers et le Cloud. De cette manière, DVE permet à OmniCube d exécuter des fonctions qui ne pourraient être réalisées que par l administration de plus d une douzaine de produits disparates. DVE fait par ailleurs tout ceci pour une fraction de coût de cet empilement et en réduit considérablement sa complexité. Il en résulte un produit qui est le premier du genre, avec une architecture globale dont les capacités battent tous les records de fonctionnalités et d économie de coût de possession ou d exploitation. Ce document porte un regard détaillé sur le moteur de virtualisation de données (DVE), et montre comment DVE commande l ensemble des fonctions d OmniCube SimpliVity Data Virtualization Engine : Combattre la complexité à la racine 1. UN SYSTEME CASSE Le data center classique repose sur une architecture qui date de près de 30 ans. Il est inflexible, peu performant, et incapable de supporter les activités modernes avec leurs données modernes et leur besoin de mobilité. (cf. figure 2). La virtualisation a apporté une énorme valeur en consolidant les ressources et en apportant un certain niveau de simplification, mais son vrai potentiel se trouve bridé par l architecture de données sous-jacente en gros Data Virtualization Engine par Simplivity Miel, Juin 2013. 5
blocs. Cette architecture de données agit comme un poids pour les machines virtuelles (VMs), mobiles par essence. Le fait que ces architectures inhibent la virtualisation et la mobilité des données n est pas vraiment une surprise. Elles ont été optimisées pour un monde différent, un monde antérieur à la virtualisation, au Cloud ou aux disques SSD. Dans ce monde, l informatique était réduite à un unique data center et des éventuels sites distants fonctionnant indépendamment du data center primaire. La tailles des disques était petite (3 GB), le coût du stockage très élevé, et la réplication était un luxe que très peu pouvaient se permettre. De plus, pratiquement 100% des opérations de reprise d activité étaient optimisées pour l utilisation de media bande. Mais alors que les architectures de données évoluaient très peu, leur rôle a, lui, radicalement changé. L informatique, et les données que l équipe informatique est chargé de protéger, est au cœur de toute l activité économique. Le niveau d exigence envers l IT n en est que plus grand. Pour répondre à ces exigences, les équipes informatiques ont été forcées de déployer diverses technologies sous forme de produits disparates car l infrastructure native était incapable de les fournir. Aussi, les 10 dernières années ont vu déferler une vague de matériels spécialisés comme les appliances d optimisation WAN, les matériels de sauvegarde basée disque, de stockage SSD ou les passerelles Cloud. Individuellement, Chaque produit apporte de la valeur. Collectivement, ils ne font qu aggraver la crise de complexité. Figure 2 : Complexité de l infrastructure IT d aujourd hui 6
2. LA PANACEE DES DONNEES DU 21E SIECLE : DEDUPLICATION, COMPRESSION, OPTIMISATION (DCO TM ) Le besoin d une architecture de données plus légère, qui favorise la mobilité plutôt que l inhibe, est clair depuis longtemps. Nombreux sont ceux qui ont vu leur salut dans la déduplication et la compression, reconnaissant que ces technologies, bien utilisées, pouvaient faciliter des structures légères de données mobiles. L optimisation, elle, promet une gestion intelligente des données basée sur une anticipation de leur usage par les applications qu elles servent. Voici quelques brèves définitions de ces technologies : DEDUPLICATION Processus consistant à trouver et éliminer toutes les données redondantes d un ensemble de données, en référence à la totalité des données disponibles. Une technique prometteuse pour construire une structure légère de données mobiles, considérée par conséquent comme un point clé pour résoudre le problème de complexité à la racine. COMPRESSION Processus consistant à trouver et éliminer toutes les données redondantes d un ensemble de données, se référant seulement aux autres données de ce même ensemble (ex dans un fichier). Une technique plus restreinte mais qui apporte une valeur complémentaire. OPTIMISATION Une mise à disposition anticipée des données basée sur une analyse intelligente de leur usage par une application. Les systèmes qui peuvent identifier des types de fichier et prendre en temps réel la décision ou non de stockage de la donnée et son meilleur emplacement possible peuvent globalement améliorer l efficacité de stockage, les performances et l utilisation de la bande passante. Data Virtualization Engine par Simplivity Miel, Juin 2013. 7
Plus spécifiquement, la déduplication, la compression et l optimisation ont des avantages clés qui adressent les exigences essentielles du data center moderne : Une utilisation plus efficace du stockage de cache SSD. Un processus de déduplication fonctionnant au bon endroit d un flux de données peut réduire l empreinte sur le cache, améliorant ainsi les performances globales du système. Une réduction drastique de la bande passante de réplication entre les sites. 20 ans en arrière, les organisations informatiques étaient dédiées à un seul data center primaire. Aujourd hui la quasi-totalité des équipes gère plusieurs sites. L exigence fondamentale qui en découle est un transfert de données efficaces entre ces sites. «Dédupliquer» la donnée avant qu elle ne soit envoyée vers le site distant rend le transfert plus efficace et représente une économie significative de bande passante. Une mobilité des données améliorée. Un des principes fondamentaux de la virtualisation de serveur est la mobilité des VMs, mais les structures de données à gros blocs réduisent considérablement cette mobilité dans une infrastructure traditionnelle. Quand la donnée est dédupliquée, il est plus simple de la déplacer d un serveur à l autre, tout comme il est plus simple de la déplacer vers ou depuis le Cloud. Une utilisation du stockage efficace. Une exploitation complète de la déduplication, de la compression et de l optimisation (DCO) peut réduire la capacité par 2-3, comparée à des cas primaires. Une performance supérieure, étant donné que moins de données réelles doivent être lues ou écrites. Ceci est amplifié dans des environnements applicatifs tels que le VDI, où le «boot storm» peut générer des GB de lectures aléatoires des disques (Initiations de connexion massives dans un court laps de temps) Un temps d accès à la donnée amélioré. Permet un accès plus rapide aux données (car moins de données physiques à déplacer), lors de la migration des données ou lors de la récupération de données depuis un site distant ou depuis le Cloud. La liste ci-dessus détaille la valeur ajoutée de la déduplication dans de nombreux domaines. Il semble cependant paradoxal de constater que la déduplication n ait originellement été conçue que pour optimiser la capacité des seuls disques durs. Lorsqu elle a été introduite sur le marché au milieu des années 2000, la déduplication était entièrement destinée à la sauvegarde. Dans ce cas d utilisation, optimiser la capacité est effectivement crucial pour gérer à la fois une redondance massive et un volume actif grandissant. Dans les systèmes de stockage primaire, optimiser la capacité de 8
disque est une priorité plus faible. Par contre, la gestion des IOPs (Input/output Operations per second : Fréquence d entrée sortie) des données vers ces disques est une ressource beaucoup plus coûteuse. Tout ceci pointe dans une direction naturelle : la donnée du 21e siècle doit être dédupliquée, compressée et optimisée dès le stockage primaire. Une fois les données dédupliquées sur tous les supports et dès leur point de création, une chaîne d économies de ressources se déclenche tout au long de leur parcours, s ouvrant ainsi à toute la flexibilité requise aujourd hui. Etat de l art du marché de la déduplication La déduplication est apparue comme la technologie de référence au milieu des années 2000 et son utilisation reste prédominante. Cependant, elle a été traitée par les fabricants comme une opération consommatrice de ressources, ne gérant qu'une phase précise du cycle de la donnée, et implémentée dans diverses produits adressant chacun un problème spécifique : déduplication de la sauvegarde, déduplication des données du WAN ou déduplication des données d'archive. En dépit de la maturité de la déduplication, et des avantages importants de dédupliquer les données primaires, aucun fabricant n'a à ce jour totalement relevé le défi. Certains produits n'effectuent la déduplication que sur des supports SSD, limitant ainsi le niveau global d'efficacité. D'autres appliquent une technologie de compression et utilisent improprement le terme de "déduplication". A cause de la latence que la déduplication peut induire, nombreux sont ceux qui la déploient "après-coup", freinant sévèrement les opérations comme la sauvegarde ou la réplication. La plupart de ces implémentations d'une efficacité limitée sont le résultat de l'ajout d'une technologie de déduplication à une architecture traditionnelle standard. L'erreur est de ne pas avoir exploité la déduplication comme la fondation de l'architecture globale du 21e siècle. Les diverses opérations séparées que les fabricants ont proposées sont inégales en valeur, mais ont toutes échoué dans la résolution du problème. Malgré leur utilité respective, elles ne parviennent finalement pas à proposer une infrastructure globale de données vraiment mobiles et granulaires. En gérant la déduplication au travers de cet enchevêtrement d'infrastructures, les équipes informatiques se retrouvent confrontées à des dépenses plus importantes et à une complexité supérieure. Face à ces challenges, aucun fabricant n'a été en mesure de proposer un outil regroupant tous les besoins de déduplication tout au long du cycle de vie de Data Virtualization Engine par Simplivity Miel, Juin 2013. 9
la donnée : du stockage primaire au Cloud Public en passant par la sauvegarde, le WAN, ou l'archivage. C'est la raison pour laquelle les équipes informatiques, conscientes de ces besoins, ont été forcées de déployer de nombreux produits disparates, d'origines différentes, nécessitant chacun une compétence spécifique et une administration séparée. Malgré toutes les tentatives de ces dernières années, il apparait clair que le futur de l'infrastructure informatique dépendra grandement d'une vraie combinaison efficace de la déduplication, de la compression et de l'optimisation des ressources primaires. Data Virtualization Engine de Simplivity : l'architecture de donnée efficace du 21e siècle, centrée sur la mobilité Simplivity a choisi une approche inverse de celle consistant à essayer d'intégrer de la déduplication, de la compression et de l'optimisation à une architecture de données existante. La première étape a été de concevoir une technologie de cœur réalisant en temps réel la déduplication et la compression des données primaires, le tout sans impact sur les performances et la latence (voir ci-dessous, l'omnicube Accelerator TM ). Les éléments de données granulaires obtenus sont ensuite gérés grâce à L'étape suivante, qui consiste à construire toute une architecture de données composée de systèmes globalement fédérés autour de ces fondations. Ainsi, tout est réuni pour obtenir une déduplication, une compression et une optimisation réellement efficaces dès l'infrastructure primaire de production: En temps réel Une fois et pour toujours (pas besoin de second passage, ou de recomposition/décomposition des données) Sur tous les supports de données d'un système Pour tous les ensembles de données Dans tous les emplacements Y compris dans le Cloud Public Sans impacter les performances 10
Grâce à DVE, Simplivity exploite le potentiel d'une vraie implémentation de la déduplication, de la compression et de l'optimisation des données primaires. DVE optimise non seulement la capacité disque, mais aussi les IOPs, la capacité flash, la capacité DRAM et la capacité WAN. Au final l'ensemble optimise bien plus que la simple capacité. En effet, alors que ça ne semble pas couler de source, DVE améliore en fait les performances globales du système. Avec DVE, la déduplication, la compression et l'optimisation ont lieu avant que la donnée ne soit écrite sur le disque dur, économisant ainsi de précieuses IOPs sur les disques. L'effet "boot storm" en est un parfait exemple. Dans une plateforme de stockage traditionnelle, 100 VMs Windows démarrant en même temps génèrent environ 10 000 MB de lectures disques aléatoires. Dans l'omnicube de SimpliVity, la même charge va générer environ 100 MB de lectures car toutes les données que Windows lit pour booter sont communes aux 100 VMs. Il s'agit là d'une économie d'opérations disques d'un facteur 100. Déduplication, Compression, Optimisation Temps réel Granulaire 4-8KB Toutes les données : Primaires, sauvegarde, archive, trafic WAN Sur tous les supports : DRAM, Flash, HDD, Cloud A travers la fédération et dans le Cloud Figure 3 : DVE Déduplication, Compression, Optimisation 1. LE POINT DE DEPART : DEDUPLICATION, COMPRESSION ET OPTIMISATION EN TEMPS REEL SANS IMPACT SUR LES PERFORMANCES DVE réalise la déduplication, la compression et l optimisation en temps réel, dès la première écriture de la donnée dans la banque de données d OmniCube. Ceci contraste avec l approche prédominante aujourd hui appelée déduplication post-process qui écrit d abord la donnée sans déduplication avant de la réaliser lors d une étape postérieure. Le gros problème d une déduplication après-coup est qu elle introduit un décalage là où il n y en avait pas avant. L organisation a le choix entre répliquer la donnée avant qu elle ne soit dédupliquée, ou attendre que le processus de déduplication se termine pour répliquer. Mais aucune option n est satisfaisante : répliquer avant de dédupliquer annule complètement l intérêt de la déduplication, et attendre pour répliquer peut créer des problèmes Data Virtualization Engine par Simplivity Miel, Juin 2013. 11
d objectifs de point de reprise (RPO : Recovery Point Objective). Le temps pris pour dédupliquer peut être si élevé que les RPO ne sont finalement plus atteints. Etant donné la supériorité (et l élégance) d une éventuelle déduplication en temps réel, pourquoi est-ce si inhabituel? En un mot : La performance. La déduplication est un processus intensément consommateur de ressources. Lorsque la donnée entre dans le système, elle doit être scannée, analysée, comparée à un index ou à une table qui catalogue tous les blocs existant de l ensemble de données. Une fois cette étape passée, on agit sur la donnée en la supprimant si elle est redondante où en l écrivant si elle est nouvelle. Les pointeurs et les index ont besoin d être mis-à-jour en temps réel de manière à ce que le système puisse suivre tous les éléments de données dans leurs emplacements tout en maintenant une vision claire des ensembles complets de données qui ont été stockés dans le système (prédéduplication). Le défi est d autant plus ardu que l on essaie de maximiser l efficacité des données en concentrant l architecture sur des blocs de 4 KB ou 8 KB (qui est la taille originelle avec laquelle la donnée est écrite par l application). Un système gérant des blocs de 4KB et intégrant des données à 400 MB/s doit exécuter 100 000 opérations par seconde! Face à ce challenge, on comprend pourquoi de nombreux fabricants ont opté pour une exécution de ces opérations hors ligne, en différé, afin de ne pas impacter les performances. C est un challenge que SimpliVity a attaqué de front et a remporté. 2. OMNICUBE ACCELERATOR L arme capitale de la déduplication temps réel de SimpliVity est OmniCube Accelerator, un module PCIe mis au point par Simplivity, qui traite l ensemble des écritures et gère les tâches intensives de déduplication et de compression. Toutes les données écrites dans la banque de données d OmniCube passent d abord au travers d OmniCube Accelerator dès l origine, dès leur création. L effet pratique de la déduplication temps réel est que DVE finit par traiter des éléments de données dont la taille varie de 4 KB à 8 KB, en comparaison des 10 à 20 MB des architectures traditionnelles, soit près d une efficacité 2000 fois supérieure. La donnée est ainsi «née» pour être mobile dès le début, et le reste tout au long de son cycle de vie, à l intérieur de la Fédération Globale OmniCube. A l intérieur d un système OmniCube donné, la déduplication rend plus efficace n importe quel media de stockage (DRAM, Flash, SSD, and HDD), réduisant ainsi considérablement le coût du système comparé aux offres traditionnelles. 12
Alors que la déduplication dans un système OmniCube unique fournit de l efficacité et une réduction des coûts, la valeur additionnelle révolutionnaire d OmniCube repose sur la Fédération Globale, le réseau connecté de systèmes OmniCube qui fournit la haute disponibilité (HA), le partage de ressources, une évolutivité simplifiée et la réplication pour le mouvement des VM ou la reprise d activité (Disaster Recovery : DR). En plus de la déduplication au cœur, l architecture DVE a été conçue et optimisée pour gérer un ensemble très important d éléments de données finement granulaires à travers une Fédération de systèmes à la fois locaux (dans le même data center), distants (dans des data centers dispersés) ou dans le Cloud Public. Par exemple, une fédération modeste de quelques systèmes contient des dizaines de milliards d éléments de 4 KB dédupliqués, compressés et optimisés. DVE permet à cette Fédération de traquer efficacement et de gérer tous les éléments, puis de prendre des décisions en temps réel sur les éléments à envoyer via la réplication et ceux qui n ont pas besoins de l être grâce à la présence d une exacte correspondance sur le site de destination. Concevoir l architecture globale de données autour de la déduplication, de la compression et de l optimisation garantit que la valeur de déduplication concerne tous les media, tous les supports (primaires, de sauvegarde ou d archive), et tous les emplacements. 3. AUGMENTEZ LA VALEUR AJOUTEE PAR L OPTIMISATION Alors que la déduplication est au cœur de son action avec OmniCube, DVE améliore un peu plus le CAPEX et l OPEX grâce à des optimisations associées aux systèmes d exploitation et aux types de virtualisation. Ces optimisations dans OmniCube obtiennent des effets similaires à la déduplication, mais d une autre manière elles identifient les données qui n ont pas besoin d être copiées ou répliquées, et prend des actions spécifiques pour améliorer l efficacité globale du système. Etant donné qu OmniCube est conçu à ce jour pour l environnement VMware, la plupart de ces optimisations découlent de la connaissance du contenu des commandes spécifiques à VMware. Par exemple, les fichiers.vswp 1, bien qu importants pour les fonctionnalités de chaque VM individuelle, n ont pas besoin d être sauvegardés ou répliqués à travers les sites. Ainsi, lorsqu il s apprête à sauvegarder ou répliquer une VM donnée d un site à un autre, DVE reconnaît le fichier.vswp associé et élimine les 1 Les fichiers.vswp sont des fichiers d échanges de machines virtuelles (swap), uniquement utilisés lorsque la mémoire est sur-allouée. Les fichiers.vswp sont réécrits lorsqu une VM boote, et il n y a donc pas de besoin de les capturer dans une sauvegarde. OmniCube est construit pour reconnaitre les fichiers.vswp et par conséquent leur éviter le processus de sauvegarde et de réplication. Data Virtualization Engine par Simplivity Miel, Juin 2013. 13
données correspondantes du transfert, économisant du temps, de la bande passante, et de la capacité. D autres optimisations sont de nature similaire, s appuyant sur une capacité à trouver dans un environnement VMware des types de données communs et de prendre les décisions associées, le tout en temps réel. 4. RELIER LE TOUT ENSEMBLE : OMNICUBE GLOBAL FEDERATION Avec la donnée dans un état finement granulaire permanent, une architecture générale gérant des milliards d éléments, le tout dans un réseau global de systèmes, toute la puissance d OmniCube est activée : Une mobilité efficace des données dans et entre les data centers Un mouvement intelligent des données à l intérieur de la fédération Un partage des données pour la haute disponibilité Des performances de cache accélérées Une intégration au Cloud Un point unique d administration globale, qui est automatisé et centré sur la VM Figure 4 : OmniCube Global Federation La valeur de la déduplication, de la compression et de l optimisation est amplifiée dans la Fédération Globale car la bande passante requise est drastiquement réduite comparée aux systèmes ne dédupliquant pas. 14
Autre point important, la vitesse de transmission des données depuis/vers les sites distants et le Cloud est nettement accélérée. Le succès de la déduplication provenait traditionnellement de la comparaison entre les données entrantes avec celles se trouvant sur la plateforme locale, mais a toujours manqué d un paramétrage réellement global. A contrario, DVE contient un système de messages inter-nœuds avancé qui permet aux systèmes OmniCube de communiquer sur les contenus de leur banque de données locale. Par essence, ceci permet à chaque système OmniCube d en savoir suffisamment sur ce qui se trouve sur les systèmes distants pour être sûr qu une donnée unique est envoyée lorsqu un système se réplique vers un autre ; cette donnée est par ailleurs libérée des commandes liées à VMware, de celles liées au système d exploitation, ou toute autre charge. Cette communication inter-nœuds peut avoir des effets impressionnants. Typiquement, très peu de données ont besoin de traverser les liens dès la première réplication d une VM donnée. Il s agit d une rupture radicale avec n importe quel autre système de réplication obligé de transmettre une copie complète des données lors de la première réplication. En réalité, 2 VMs faisant fonctionner par exemple un système d exploitation comme Windows 2008 ont déjà un grand nombre d éléments de données en commun. DVE reconnaitra de telles données redondantes déjà présentes sur le site distant, et s assurera que seuls des éléments uniques sont envoyés. OmniCube : Infrastructure IT hyper convergée globalement fédérée La nouvelle architecture DVE supporte une solution globale intégrée qui consolide et optimise de façon spectaculaire chacune de ces nouvelles technologies en une plateforme unique et performante. Elle se développe de manière élégante dans le data center, et permet de naturellement l étendre à travers le monde, y compris dans le Cloud. En résumé, OmniCube est une infrastructure IT «hyper convergée» globalement fédérée, conçue et optimisée pour l environnement virtuel : Hyper convergée : OmniCube consolide en un seul bloc de construction évolutif toute l infrastructure de cœur du data center à laquelle s ajoute des fonctionnalités fournies aujourd hui par une douzaine de produits spécialisés. Globalement fédérée : Les systèmes OmniCube sont interconnectés par un réseau qui créée un ensemble dynamique partagé de ressources communes, ainsi qu une solution optimale de réplication et de reprise d activité interdata centers. Data Virtualization Engine par Simplivity Miel, Juin 2013. 15
Optimisée pour l environnement virtualisé : OmniCube a été conçu et optimisé pour simplifier les opérations IT de l environnement virtuel. OmniCube Global Federation fournit à l équipe informatique un cadre de travail centré sur la VM et globalement unifié. D une seule fenêtre, un administrateur peut voir et gérer la totalité des VMs, y compris toutes les copies de sauvegarde et dans tous leurs emplacements à travers le globe. 16
Résumé En concentrant dès le départ sa nouvelle architecture sur la résolution du problème des architectures de données traditionnelles, SimpliVity a soigné la maladie plutôt que simplement traité les symptômes. Simplivity a créé une solution globale nouvelle réglée pour une informatique virtualisée, globalement distribuée et liée au Cloud. Grâce au moteur DVE fonctionnant au cœur d OmniCube, Simplivity a réussi à fournir une infrastructure IT hyper convergée et globalement fédérée. DVE brise les diverses barrières qui ont limité le déploiement et l exploitation de la déduplication (dans le stockage primaire, en temps réel, à travers tous les supports, à travers tous les data centers et le Cloud, sous forme finement granulaire). Le résultat obtenu est une plateforme d infrastructure qui fournit tout ce que l informatique moderne exige : évolutivité, flexibilité, performances élastiques, mobilité des données, gestion globale et intégration au Cloud. Data Virtualization Engine par Simplivity Miel, Juin 2013. 17
A PROPOS DE SIMPLIVITY Créée en 2009, la société Simplivity Corporation s est donné pour mission de simplifier l informatique. Forte de plus de 10 brevets déposés, sa solution OmniStack TM devient le cœur d une nouvelle plateforme permettant de construire une architecture hyper-convergée grâce à l appliance OmniCube TM. Avec Omnicube, Simplivity propose la première appliance qui intègre de manière transparente les VMs, le stockage ainsi que la compression et la déduplication globale des données. Une gestion simple totalement centralisée permet de faire évoluer à l infini le data center en empilant simplement les appliances, en connectant des ressources de Cloud publics, et en gérant la réplication et la haute disponibilité avec des performances et une simplicité inégalées. Simplivity fournit un support mondial 24x7x365. Pour contacter le support : support@simplivity.com International : 00 1 508 536 4151 www.simplivity.com A PROPOS DE MIEL Miel a été créée en 1985 pour faire connaître en France les nouvelles technologies pour l'informatique des entreprises. Ses équipes d'ingénieurs découvrent des solutions innovantes, principalement aux Etats-Unis, et en font la promotion sur le marché français, avec l'appui d'un réseau de partenaires intégrateurs qualifiés. Nos solutions pour l'informatique des entreprises s'adressent aux responsables stratégiques et opérationnels des services informatiques et des intégrateurs autour de 4 pôles majeurs : la virtualisation des data centers et des postes, l'optimisation et la sécurité des réseaux, la gestion des données, l'informatique industrielle et embarquée. Miel est importateur, centre de compétence et de formation officiel. www.miel.fr SIMPLIVITY 8 Technology Drive Westborough, MA 01581 USA Tél. : +1 855 788 4636 MIEL SA Parc Burospace 5 91 571 Bièvres France Tél. : +33 1 60 19 34 52