DATA VIRTUALIZATION ENGINE



Documents pareils
FAMILLE EMC RECOVERPOINT

Une solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs

Technologie de déduplication de Barracuda Backup. Livre blanc

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA

UNIFIED D TA. architecture nouvelle génération pour une restauration garantie (assured recovery ) que les données soient sur site ou dans le cloud

UNIFIED. Nouvelle génération d'architecture unifiée pour la protection des données D TA. dans des environnements virtuels et physiques PROTECTION

Architecture complète de protection du stockage et des données pour VMware vsphere

EMC DATA DOMAIN HYPERMAX

EMC DATA DOMAIN OPERATING SYSTEM

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

36 arguments clés en faveur de la virtualisation du stockage DataCore

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

DOSSIER SOLUTION : CA ARCserve r16. Recours au Cloud pour la continuité d'activité et la reprise après sinistre

Je bénéficie désormais des avantages exceptionnels de la virtualisation pour mon stockage. Virtual SAN est aussi économique que simple à utiliser.

IT SERVICES BUSINESS STORAGE DATA AUDIT PARTNERSHIP INTEGRATOR SECURITY PLANNING PRIVATE AGILITY DYNAMIC PUBLIC TECHNOLOGY SOLUTIONS MANAGEMENT

WHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis

Optimisation WAN de classe Centre de Données

Veeam Backup & Replication v6

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Dossier Solution - Virtualisation CA arcserve Unified Data Protection

Symantec Backup Exec 2012

Portefeuille de solutions HP pour la virtualisation

Le data center moderne virtualisé

DES SAUVEGARDES ET DES RESTAURATIONS DE DONNEES SANS CONTRAINTES DE LIEU NI DE TEMPS

Accélérez la virtualisation de vos applications stratégiques en toute confiance avec Symantec

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

FUJITSU WORLD TOUR 2014 Paris

PRINCIPES DE BASE DE LA SAUVEGARDE POUR LA PROTECTION DE VOS DONNÉES ET DE VOTRE ACTIVITÉ

EVault Endpoint Protection en détails : Gestion de l entreprise, Sauvegarde, Restauration et Sécurité

en version SAN ou NAS

La Continuité d Activité

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

stockage, pour des économies en termes de temps et de coûts. Avantages principaux

Stockage Dell. Vos données disponibles, au bon endroit, au bon moment et au juste coût

Symantec Endpoint Protection Fiche technique

Les méthodes de sauvegarde en environnement virtuel

Protection des données avec les solutions de stockage NETGEAR

vbladecenter S! tout-en-un en version SAN ou NAS

Nouvelles stratégies et technologies de sauvegarde

LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE

CA ARCserve Backup r12

Outil d aide à la vente

arcserve r16.5 Protection des données hybride

10 façons d optimiser votre réseau en toute sécurité

EMC Data Domain Boost for Oracle Recovery Manager (RMAN)

Section I: Le Contexte du DATA CENTER Pourquoi l AGILITE est Nécessaire dans le DataCenter

Simplifiez-vous la vie et accroissez vos revenus choisissez la simplicité

EMC AVAMAR. Logiciel et système de sauvegarde avec déduplication

Présentation du déploiement des serveurs

TRANSFORMEZ VOTRE INFRASTRUCTURE DE BASE DE DONNEES

Microsoft Dynamics AX. Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?

Le stockage unifié pour réduire les coûts et augmenter l'agilité

Kick Off SCC 2015 Stockage Objet. Vers de nouveaux horizons

Technologie SDS (Software-Defined Storage) de DataCore

Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization)

Plate-forme Cloud CA AppLogic pour les applications d entreprise

Kick Off SCC 2015 Comment faire de votre infrastructure de stockage une source d économie? Vers de nouveaux horizons

100% Swiss Cloud Computing

Pourquoi OneSolutions a choisi SyselCloud

Consolidation de serveurs PRA consolidé Migration de matériel Approvisionnement de serveurs Relocalisation de Datacenter Optimisation du Datacenter

LES 5 PRINCIPALES RAISONS DE DÉPLOYER MICROSOFT SQL SERVER SUR LE SYSTÈME DE STOCKAGE UNIFIÉ EMC VNX

Sauvegarde de VMs : Veeam vs outils de sauvegarde traditionnels Les 10 meilleures raisons de choisir Veeam

Kick Off SCC Vers de nouveaux horizons

THE FLASH REVOLUTION IS RIGHT NOW. Pure Storage France Contact : france@purestorage.com Pure Storage, Inc. 1

Arcserve unifié UNE SOLUTION UNIQUE

V3 - Une Appliance Conçue pour le VDI

Analyse Concurrentielle Retrospect et ses concurrents

Square-IT-Consulting. Présentation

Conseils et astuces pour un déploiement réussi de la solution VMware Mirage

Symantec Protection Suite Enterprise Edition Protection éprouvée pour les terminaux, la messagerie et les environnements Web

Recover2Cloud. Reprise accélérée des environnements x86 physiques & virtuels via une réplication dans le Cloud.

L A T O U R D E P E I L Z Municipalité

Serveurs et solutions PowerEdge pour les applications métiers

Virtualisation des Serveurs et du Poste de Travail

agility made possible

L e r ôle de l optimi s a t i o n W A N v i r t u el le d a ns le

1 ère Partie Stratégie et Directions Stockage IBM

CA arcserve Unified Data Protection Livre blanc technique

Appliance Symantec NetBackup 5230

CA ARCserve Backup Option NAS (Network Attached Storage) NDMP (Network Data Management Protocol)

Sauvegarde EMC pour solutions SAP HANA prêtes pour le datacenter. EMC Data Domain avec DD Boost

Symantec NetBackup 7.5

EMC AVAMAR. Logiciel et système de sauvegarde avec déduplication AVANTAGES CLÉS INCONVÉNIENTS DE LA SAUVEGARDE ET DE LA RESTAURATION TRADITIONNELLES

LIVRE BLANC Pratiques recommandées pour l utilisation de Diskeeper sur les réseaux SAN (Storage Area Networks)

Sauvegarde et restauration EMC Avamar en environnement VMware

Atteindre la flexibilité métier grâce au data center agile

Edition de février Numéro 1. Virtualisation du Poste de Travail

Non-Stop. de vos Données. Acronis Backup & Recovery 11. Pouvoir compter sur ses données est indispensable!

Citrix XenDesktop avec la technologie FlexCast. Citrix XenDesktop : la virtualisation des postes de travail pour tous.

Dell vous aide à simplifier votre infrastructure informatique

Gérez-vous vos serveurs virtuels et physiques en tant que partie intégrante de votre infrastructure sous-jacente?

INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE

Marché Public en procédure adaptée : Infrastructure Informatique régionale hébergée CAHIER DES CHARGES ET DES CLAUSES TECHNIQUES

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Transcription:

DATA VIRTUALIZATION ENGINE PAR SIMPLIVITY Une vue d ensemble de l architecture de données aux commandes d OmniCube de SimpliVity Traduits de l anglais par Miel, distributeur à valeur ajoutée - -

2

Table des matières Table des matières... 3 Synopsis... 4 SimpliVity Data Virtualization Engine : Combattre la complexité à la racine... 5 1. UN SYSTEME CASSE... 5 2. LA PANACEE DES DONNEES DU 21E SIECLE : DEDUPLICATION, COMPRESSION, OPTIMISATION (DCO TM )... 7 Etat de l art du marché de la déduplication... 9 Data Virtualization Engine de Simplivity : l'architecture de donnée efficace du 21e siècle, centrée sur la mobilité... 10 1. LE POINT DE DEPART : DEDUPLICATION, COMPRESSION ET OPTIMISATION EN TEMPS REEL SANS IMPACT SUR LES PERFORMANCES... 11 2. OMNICUBE ACCELERATOR... 12 3. AUGMENTEZ LA VALEUR AJOUTEE PAR L OPTIMISATION... 13 4. RELIER LE TOUT ENSEMBLE : OMNICUBE GLOBAL FEDERATION... 14 OmniCube : Infrastructure IT hyper convergée globalement fédérée... 15 Résumé... 17 Data Virtualization Engine par Simplivity Miel, Juin 2013. 3

Synopsis OmniCube de SimpliVity est le remède à 2 des plus grands maux de l informatique (IT) : D abord un coût et une complexité rédhibitoires de l infrastructure, puis les limitations de la gestion inter-sites, incluant le Cloud. OmniCube est la première plateforme hyper convergée et globalement fédérée de l industrie. Conçu et optimisé pour l environnement virtuel, OmniCube fournit une infrastructure IT complète dans une seule plateforme. Flexible et évolutif, il répond à toutes les exigences de disponibilité, de performance et de mise en service. Ajouté aux services principaux de serveur, stockage et réseau, OmniCube fournit un ensemble complet de fonctions avancées qui gèrent et protègent les machines virtuelles dans les data centers ou entre ces derniers, y compris dans le Cloud. L évolutivité démarre dès que 2 systèmes OmniCube ou plus sont déployés ensembles. Ils créent alors OmniCube Global Federation, un ensemble de ressources partagées massivement évolutif qui permet un mouvement des données très efficace, une évolution linéaire, une intégrité totale, la possibilité de PRA (plan de reprise d activité), et une disponibilité du système de toute première catégorie. Vue d ensemble d OmniCube Système d infrastructure complet Evolutivité simple sans limite Administration centrée sur la VM Réplication efficace en bande passante pour le PRA Intégration au Cloud Public Figure 1 : Vue d ensemble d OmniCube 4

La crise de complexité aujourd hui constatée a une origine double : une architecture de données obsolète gérant des blocs de données volumineux, et optimisée à l origine pour un monde antérieur à la virtualisation de serveurs. Le besoin de couvrir plusieurs sites (PCA, PRA, Backup ), y compris le Cloud. Cette nécessité impose une mobilité des données que les infrastructures actuelles ne peuvent offrir. Simplivity a intégralement résolu ces problèmes en concevant une architecture de données fondamentalement nouvelle exploitant une fonctionnalité appelée «Simplivity Data Virtualization Engine TM», ou DVE TM. (Moteur de virtualisation de données) DVE déduplique, compresse et optimise toutes les données (à l origine, en temps réel, une fois et pour toujours). Il fournit par ailleurs un cadre global pour stocker et gérer les éléments de données granulaires qui en résultent. Ce cadre concerne tous les supports contenus dans un système (DRAM, Flash, HDD), toutes les étapes du cycle de la donnée (Primaire, backup, WAN, archive), tous les emplacements géographiques, tous les data centers et le Cloud. De cette manière, DVE permet à OmniCube d exécuter des fonctions qui ne pourraient être réalisées que par l administration de plus d une douzaine de produits disparates. DVE fait par ailleurs tout ceci pour une fraction de coût de cet empilement et en réduit considérablement sa complexité. Il en résulte un produit qui est le premier du genre, avec une architecture globale dont les capacités battent tous les records de fonctionnalités et d économie de coût de possession ou d exploitation. Ce document porte un regard détaillé sur le moteur de virtualisation de données (DVE), et montre comment DVE commande l ensemble des fonctions d OmniCube SimpliVity Data Virtualization Engine : Combattre la complexité à la racine 1. UN SYSTEME CASSE Le data center classique repose sur une architecture qui date de près de 30 ans. Il est inflexible, peu performant, et incapable de supporter les activités modernes avec leurs données modernes et leur besoin de mobilité. (cf. figure 2). La virtualisation a apporté une énorme valeur en consolidant les ressources et en apportant un certain niveau de simplification, mais son vrai potentiel se trouve bridé par l architecture de données sous-jacente en gros Data Virtualization Engine par Simplivity Miel, Juin 2013. 5

blocs. Cette architecture de données agit comme un poids pour les machines virtuelles (VMs), mobiles par essence. Le fait que ces architectures inhibent la virtualisation et la mobilité des données n est pas vraiment une surprise. Elles ont été optimisées pour un monde différent, un monde antérieur à la virtualisation, au Cloud ou aux disques SSD. Dans ce monde, l informatique était réduite à un unique data center et des éventuels sites distants fonctionnant indépendamment du data center primaire. La tailles des disques était petite (3 GB), le coût du stockage très élevé, et la réplication était un luxe que très peu pouvaient se permettre. De plus, pratiquement 100% des opérations de reprise d activité étaient optimisées pour l utilisation de media bande. Mais alors que les architectures de données évoluaient très peu, leur rôle a, lui, radicalement changé. L informatique, et les données que l équipe informatique est chargé de protéger, est au cœur de toute l activité économique. Le niveau d exigence envers l IT n en est que plus grand. Pour répondre à ces exigences, les équipes informatiques ont été forcées de déployer diverses technologies sous forme de produits disparates car l infrastructure native était incapable de les fournir. Aussi, les 10 dernières années ont vu déferler une vague de matériels spécialisés comme les appliances d optimisation WAN, les matériels de sauvegarde basée disque, de stockage SSD ou les passerelles Cloud. Individuellement, Chaque produit apporte de la valeur. Collectivement, ils ne font qu aggraver la crise de complexité. Figure 2 : Complexité de l infrastructure IT d aujourd hui 6

2. LA PANACEE DES DONNEES DU 21E SIECLE : DEDUPLICATION, COMPRESSION, OPTIMISATION (DCO TM ) Le besoin d une architecture de données plus légère, qui favorise la mobilité plutôt que l inhibe, est clair depuis longtemps. Nombreux sont ceux qui ont vu leur salut dans la déduplication et la compression, reconnaissant que ces technologies, bien utilisées, pouvaient faciliter des structures légères de données mobiles. L optimisation, elle, promet une gestion intelligente des données basée sur une anticipation de leur usage par les applications qu elles servent. Voici quelques brèves définitions de ces technologies : DEDUPLICATION Processus consistant à trouver et éliminer toutes les données redondantes d un ensemble de données, en référence à la totalité des données disponibles. Une technique prometteuse pour construire une structure légère de données mobiles, considérée par conséquent comme un point clé pour résoudre le problème de complexité à la racine. COMPRESSION Processus consistant à trouver et éliminer toutes les données redondantes d un ensemble de données, se référant seulement aux autres données de ce même ensemble (ex dans un fichier). Une technique plus restreinte mais qui apporte une valeur complémentaire. OPTIMISATION Une mise à disposition anticipée des données basée sur une analyse intelligente de leur usage par une application. Les systèmes qui peuvent identifier des types de fichier et prendre en temps réel la décision ou non de stockage de la donnée et son meilleur emplacement possible peuvent globalement améliorer l efficacité de stockage, les performances et l utilisation de la bande passante. Data Virtualization Engine par Simplivity Miel, Juin 2013. 7

Plus spécifiquement, la déduplication, la compression et l optimisation ont des avantages clés qui adressent les exigences essentielles du data center moderne : Une utilisation plus efficace du stockage de cache SSD. Un processus de déduplication fonctionnant au bon endroit d un flux de données peut réduire l empreinte sur le cache, améliorant ainsi les performances globales du système. Une réduction drastique de la bande passante de réplication entre les sites. 20 ans en arrière, les organisations informatiques étaient dédiées à un seul data center primaire. Aujourd hui la quasi-totalité des équipes gère plusieurs sites. L exigence fondamentale qui en découle est un transfert de données efficaces entre ces sites. «Dédupliquer» la donnée avant qu elle ne soit envoyée vers le site distant rend le transfert plus efficace et représente une économie significative de bande passante. Une mobilité des données améliorée. Un des principes fondamentaux de la virtualisation de serveur est la mobilité des VMs, mais les structures de données à gros blocs réduisent considérablement cette mobilité dans une infrastructure traditionnelle. Quand la donnée est dédupliquée, il est plus simple de la déplacer d un serveur à l autre, tout comme il est plus simple de la déplacer vers ou depuis le Cloud. Une utilisation du stockage efficace. Une exploitation complète de la déduplication, de la compression et de l optimisation (DCO) peut réduire la capacité par 2-3, comparée à des cas primaires. Une performance supérieure, étant donné que moins de données réelles doivent être lues ou écrites. Ceci est amplifié dans des environnements applicatifs tels que le VDI, où le «boot storm» peut générer des GB de lectures aléatoires des disques (Initiations de connexion massives dans un court laps de temps) Un temps d accès à la donnée amélioré. Permet un accès plus rapide aux données (car moins de données physiques à déplacer), lors de la migration des données ou lors de la récupération de données depuis un site distant ou depuis le Cloud. La liste ci-dessus détaille la valeur ajoutée de la déduplication dans de nombreux domaines. Il semble cependant paradoxal de constater que la déduplication n ait originellement été conçue que pour optimiser la capacité des seuls disques durs. Lorsqu elle a été introduite sur le marché au milieu des années 2000, la déduplication était entièrement destinée à la sauvegarde. Dans ce cas d utilisation, optimiser la capacité est effectivement crucial pour gérer à la fois une redondance massive et un volume actif grandissant. Dans les systèmes de stockage primaire, optimiser la capacité de 8

disque est une priorité plus faible. Par contre, la gestion des IOPs (Input/output Operations per second : Fréquence d entrée sortie) des données vers ces disques est une ressource beaucoup plus coûteuse. Tout ceci pointe dans une direction naturelle : la donnée du 21e siècle doit être dédupliquée, compressée et optimisée dès le stockage primaire. Une fois les données dédupliquées sur tous les supports et dès leur point de création, une chaîne d économies de ressources se déclenche tout au long de leur parcours, s ouvrant ainsi à toute la flexibilité requise aujourd hui. Etat de l art du marché de la déduplication La déduplication est apparue comme la technologie de référence au milieu des années 2000 et son utilisation reste prédominante. Cependant, elle a été traitée par les fabricants comme une opération consommatrice de ressources, ne gérant qu'une phase précise du cycle de la donnée, et implémentée dans diverses produits adressant chacun un problème spécifique : déduplication de la sauvegarde, déduplication des données du WAN ou déduplication des données d'archive. En dépit de la maturité de la déduplication, et des avantages importants de dédupliquer les données primaires, aucun fabricant n'a à ce jour totalement relevé le défi. Certains produits n'effectuent la déduplication que sur des supports SSD, limitant ainsi le niveau global d'efficacité. D'autres appliquent une technologie de compression et utilisent improprement le terme de "déduplication". A cause de la latence que la déduplication peut induire, nombreux sont ceux qui la déploient "après-coup", freinant sévèrement les opérations comme la sauvegarde ou la réplication. La plupart de ces implémentations d'une efficacité limitée sont le résultat de l'ajout d'une technologie de déduplication à une architecture traditionnelle standard. L'erreur est de ne pas avoir exploité la déduplication comme la fondation de l'architecture globale du 21e siècle. Les diverses opérations séparées que les fabricants ont proposées sont inégales en valeur, mais ont toutes échoué dans la résolution du problème. Malgré leur utilité respective, elles ne parviennent finalement pas à proposer une infrastructure globale de données vraiment mobiles et granulaires. En gérant la déduplication au travers de cet enchevêtrement d'infrastructures, les équipes informatiques se retrouvent confrontées à des dépenses plus importantes et à une complexité supérieure. Face à ces challenges, aucun fabricant n'a été en mesure de proposer un outil regroupant tous les besoins de déduplication tout au long du cycle de vie de Data Virtualization Engine par Simplivity Miel, Juin 2013. 9

la donnée : du stockage primaire au Cloud Public en passant par la sauvegarde, le WAN, ou l'archivage. C'est la raison pour laquelle les équipes informatiques, conscientes de ces besoins, ont été forcées de déployer de nombreux produits disparates, d'origines différentes, nécessitant chacun une compétence spécifique et une administration séparée. Malgré toutes les tentatives de ces dernières années, il apparait clair que le futur de l'infrastructure informatique dépendra grandement d'une vraie combinaison efficace de la déduplication, de la compression et de l'optimisation des ressources primaires. Data Virtualization Engine de Simplivity : l'architecture de donnée efficace du 21e siècle, centrée sur la mobilité Simplivity a choisi une approche inverse de celle consistant à essayer d'intégrer de la déduplication, de la compression et de l'optimisation à une architecture de données existante. La première étape a été de concevoir une technologie de cœur réalisant en temps réel la déduplication et la compression des données primaires, le tout sans impact sur les performances et la latence (voir ci-dessous, l'omnicube Accelerator TM ). Les éléments de données granulaires obtenus sont ensuite gérés grâce à L'étape suivante, qui consiste à construire toute une architecture de données composée de systèmes globalement fédérés autour de ces fondations. Ainsi, tout est réuni pour obtenir une déduplication, une compression et une optimisation réellement efficaces dès l'infrastructure primaire de production: En temps réel Une fois et pour toujours (pas besoin de second passage, ou de recomposition/décomposition des données) Sur tous les supports de données d'un système Pour tous les ensembles de données Dans tous les emplacements Y compris dans le Cloud Public Sans impacter les performances 10

Grâce à DVE, Simplivity exploite le potentiel d'une vraie implémentation de la déduplication, de la compression et de l'optimisation des données primaires. DVE optimise non seulement la capacité disque, mais aussi les IOPs, la capacité flash, la capacité DRAM et la capacité WAN. Au final l'ensemble optimise bien plus que la simple capacité. En effet, alors que ça ne semble pas couler de source, DVE améliore en fait les performances globales du système. Avec DVE, la déduplication, la compression et l'optimisation ont lieu avant que la donnée ne soit écrite sur le disque dur, économisant ainsi de précieuses IOPs sur les disques. L'effet "boot storm" en est un parfait exemple. Dans une plateforme de stockage traditionnelle, 100 VMs Windows démarrant en même temps génèrent environ 10 000 MB de lectures disques aléatoires. Dans l'omnicube de SimpliVity, la même charge va générer environ 100 MB de lectures car toutes les données que Windows lit pour booter sont communes aux 100 VMs. Il s'agit là d'une économie d'opérations disques d'un facteur 100. Déduplication, Compression, Optimisation Temps réel Granulaire 4-8KB Toutes les données : Primaires, sauvegarde, archive, trafic WAN Sur tous les supports : DRAM, Flash, HDD, Cloud A travers la fédération et dans le Cloud Figure 3 : DVE Déduplication, Compression, Optimisation 1. LE POINT DE DEPART : DEDUPLICATION, COMPRESSION ET OPTIMISATION EN TEMPS REEL SANS IMPACT SUR LES PERFORMANCES DVE réalise la déduplication, la compression et l optimisation en temps réel, dès la première écriture de la donnée dans la banque de données d OmniCube. Ceci contraste avec l approche prédominante aujourd hui appelée déduplication post-process qui écrit d abord la donnée sans déduplication avant de la réaliser lors d une étape postérieure. Le gros problème d une déduplication après-coup est qu elle introduit un décalage là où il n y en avait pas avant. L organisation a le choix entre répliquer la donnée avant qu elle ne soit dédupliquée, ou attendre que le processus de déduplication se termine pour répliquer. Mais aucune option n est satisfaisante : répliquer avant de dédupliquer annule complètement l intérêt de la déduplication, et attendre pour répliquer peut créer des problèmes Data Virtualization Engine par Simplivity Miel, Juin 2013. 11

d objectifs de point de reprise (RPO : Recovery Point Objective). Le temps pris pour dédupliquer peut être si élevé que les RPO ne sont finalement plus atteints. Etant donné la supériorité (et l élégance) d une éventuelle déduplication en temps réel, pourquoi est-ce si inhabituel? En un mot : La performance. La déduplication est un processus intensément consommateur de ressources. Lorsque la donnée entre dans le système, elle doit être scannée, analysée, comparée à un index ou à une table qui catalogue tous les blocs existant de l ensemble de données. Une fois cette étape passée, on agit sur la donnée en la supprimant si elle est redondante où en l écrivant si elle est nouvelle. Les pointeurs et les index ont besoin d être mis-à-jour en temps réel de manière à ce que le système puisse suivre tous les éléments de données dans leurs emplacements tout en maintenant une vision claire des ensembles complets de données qui ont été stockés dans le système (prédéduplication). Le défi est d autant plus ardu que l on essaie de maximiser l efficacité des données en concentrant l architecture sur des blocs de 4 KB ou 8 KB (qui est la taille originelle avec laquelle la donnée est écrite par l application). Un système gérant des blocs de 4KB et intégrant des données à 400 MB/s doit exécuter 100 000 opérations par seconde! Face à ce challenge, on comprend pourquoi de nombreux fabricants ont opté pour une exécution de ces opérations hors ligne, en différé, afin de ne pas impacter les performances. C est un challenge que SimpliVity a attaqué de front et a remporté. 2. OMNICUBE ACCELERATOR L arme capitale de la déduplication temps réel de SimpliVity est OmniCube Accelerator, un module PCIe mis au point par Simplivity, qui traite l ensemble des écritures et gère les tâches intensives de déduplication et de compression. Toutes les données écrites dans la banque de données d OmniCube passent d abord au travers d OmniCube Accelerator dès l origine, dès leur création. L effet pratique de la déduplication temps réel est que DVE finit par traiter des éléments de données dont la taille varie de 4 KB à 8 KB, en comparaison des 10 à 20 MB des architectures traditionnelles, soit près d une efficacité 2000 fois supérieure. La donnée est ainsi «née» pour être mobile dès le début, et le reste tout au long de son cycle de vie, à l intérieur de la Fédération Globale OmniCube. A l intérieur d un système OmniCube donné, la déduplication rend plus efficace n importe quel media de stockage (DRAM, Flash, SSD, and HDD), réduisant ainsi considérablement le coût du système comparé aux offres traditionnelles. 12

Alors que la déduplication dans un système OmniCube unique fournit de l efficacité et une réduction des coûts, la valeur additionnelle révolutionnaire d OmniCube repose sur la Fédération Globale, le réseau connecté de systèmes OmniCube qui fournit la haute disponibilité (HA), le partage de ressources, une évolutivité simplifiée et la réplication pour le mouvement des VM ou la reprise d activité (Disaster Recovery : DR). En plus de la déduplication au cœur, l architecture DVE a été conçue et optimisée pour gérer un ensemble très important d éléments de données finement granulaires à travers une Fédération de systèmes à la fois locaux (dans le même data center), distants (dans des data centers dispersés) ou dans le Cloud Public. Par exemple, une fédération modeste de quelques systèmes contient des dizaines de milliards d éléments de 4 KB dédupliqués, compressés et optimisés. DVE permet à cette Fédération de traquer efficacement et de gérer tous les éléments, puis de prendre des décisions en temps réel sur les éléments à envoyer via la réplication et ceux qui n ont pas besoins de l être grâce à la présence d une exacte correspondance sur le site de destination. Concevoir l architecture globale de données autour de la déduplication, de la compression et de l optimisation garantit que la valeur de déduplication concerne tous les media, tous les supports (primaires, de sauvegarde ou d archive), et tous les emplacements. 3. AUGMENTEZ LA VALEUR AJOUTEE PAR L OPTIMISATION Alors que la déduplication est au cœur de son action avec OmniCube, DVE améliore un peu plus le CAPEX et l OPEX grâce à des optimisations associées aux systèmes d exploitation et aux types de virtualisation. Ces optimisations dans OmniCube obtiennent des effets similaires à la déduplication, mais d une autre manière elles identifient les données qui n ont pas besoin d être copiées ou répliquées, et prend des actions spécifiques pour améliorer l efficacité globale du système. Etant donné qu OmniCube est conçu à ce jour pour l environnement VMware, la plupart de ces optimisations découlent de la connaissance du contenu des commandes spécifiques à VMware. Par exemple, les fichiers.vswp 1, bien qu importants pour les fonctionnalités de chaque VM individuelle, n ont pas besoin d être sauvegardés ou répliqués à travers les sites. Ainsi, lorsqu il s apprête à sauvegarder ou répliquer une VM donnée d un site à un autre, DVE reconnaît le fichier.vswp associé et élimine les 1 Les fichiers.vswp sont des fichiers d échanges de machines virtuelles (swap), uniquement utilisés lorsque la mémoire est sur-allouée. Les fichiers.vswp sont réécrits lorsqu une VM boote, et il n y a donc pas de besoin de les capturer dans une sauvegarde. OmniCube est construit pour reconnaitre les fichiers.vswp et par conséquent leur éviter le processus de sauvegarde et de réplication. Data Virtualization Engine par Simplivity Miel, Juin 2013. 13

données correspondantes du transfert, économisant du temps, de la bande passante, et de la capacité. D autres optimisations sont de nature similaire, s appuyant sur une capacité à trouver dans un environnement VMware des types de données communs et de prendre les décisions associées, le tout en temps réel. 4. RELIER LE TOUT ENSEMBLE : OMNICUBE GLOBAL FEDERATION Avec la donnée dans un état finement granulaire permanent, une architecture générale gérant des milliards d éléments, le tout dans un réseau global de systèmes, toute la puissance d OmniCube est activée : Une mobilité efficace des données dans et entre les data centers Un mouvement intelligent des données à l intérieur de la fédération Un partage des données pour la haute disponibilité Des performances de cache accélérées Une intégration au Cloud Un point unique d administration globale, qui est automatisé et centré sur la VM Figure 4 : OmniCube Global Federation La valeur de la déduplication, de la compression et de l optimisation est amplifiée dans la Fédération Globale car la bande passante requise est drastiquement réduite comparée aux systèmes ne dédupliquant pas. 14

Autre point important, la vitesse de transmission des données depuis/vers les sites distants et le Cloud est nettement accélérée. Le succès de la déduplication provenait traditionnellement de la comparaison entre les données entrantes avec celles se trouvant sur la plateforme locale, mais a toujours manqué d un paramétrage réellement global. A contrario, DVE contient un système de messages inter-nœuds avancé qui permet aux systèmes OmniCube de communiquer sur les contenus de leur banque de données locale. Par essence, ceci permet à chaque système OmniCube d en savoir suffisamment sur ce qui se trouve sur les systèmes distants pour être sûr qu une donnée unique est envoyée lorsqu un système se réplique vers un autre ; cette donnée est par ailleurs libérée des commandes liées à VMware, de celles liées au système d exploitation, ou toute autre charge. Cette communication inter-nœuds peut avoir des effets impressionnants. Typiquement, très peu de données ont besoin de traverser les liens dès la première réplication d une VM donnée. Il s agit d une rupture radicale avec n importe quel autre système de réplication obligé de transmettre une copie complète des données lors de la première réplication. En réalité, 2 VMs faisant fonctionner par exemple un système d exploitation comme Windows 2008 ont déjà un grand nombre d éléments de données en commun. DVE reconnaitra de telles données redondantes déjà présentes sur le site distant, et s assurera que seuls des éléments uniques sont envoyés. OmniCube : Infrastructure IT hyper convergée globalement fédérée La nouvelle architecture DVE supporte une solution globale intégrée qui consolide et optimise de façon spectaculaire chacune de ces nouvelles technologies en une plateforme unique et performante. Elle se développe de manière élégante dans le data center, et permet de naturellement l étendre à travers le monde, y compris dans le Cloud. En résumé, OmniCube est une infrastructure IT «hyper convergée» globalement fédérée, conçue et optimisée pour l environnement virtuel : Hyper convergée : OmniCube consolide en un seul bloc de construction évolutif toute l infrastructure de cœur du data center à laquelle s ajoute des fonctionnalités fournies aujourd hui par une douzaine de produits spécialisés. Globalement fédérée : Les systèmes OmniCube sont interconnectés par un réseau qui créée un ensemble dynamique partagé de ressources communes, ainsi qu une solution optimale de réplication et de reprise d activité interdata centers. Data Virtualization Engine par Simplivity Miel, Juin 2013. 15

Optimisée pour l environnement virtualisé : OmniCube a été conçu et optimisé pour simplifier les opérations IT de l environnement virtuel. OmniCube Global Federation fournit à l équipe informatique un cadre de travail centré sur la VM et globalement unifié. D une seule fenêtre, un administrateur peut voir et gérer la totalité des VMs, y compris toutes les copies de sauvegarde et dans tous leurs emplacements à travers le globe. 16

Résumé En concentrant dès le départ sa nouvelle architecture sur la résolution du problème des architectures de données traditionnelles, SimpliVity a soigné la maladie plutôt que simplement traité les symptômes. Simplivity a créé une solution globale nouvelle réglée pour une informatique virtualisée, globalement distribuée et liée au Cloud. Grâce au moteur DVE fonctionnant au cœur d OmniCube, Simplivity a réussi à fournir une infrastructure IT hyper convergée et globalement fédérée. DVE brise les diverses barrières qui ont limité le déploiement et l exploitation de la déduplication (dans le stockage primaire, en temps réel, à travers tous les supports, à travers tous les data centers et le Cloud, sous forme finement granulaire). Le résultat obtenu est une plateforme d infrastructure qui fournit tout ce que l informatique moderne exige : évolutivité, flexibilité, performances élastiques, mobilité des données, gestion globale et intégration au Cloud. Data Virtualization Engine par Simplivity Miel, Juin 2013. 17

A PROPOS DE SIMPLIVITY Créée en 2009, la société Simplivity Corporation s est donné pour mission de simplifier l informatique. Forte de plus de 10 brevets déposés, sa solution OmniStack TM devient le cœur d une nouvelle plateforme permettant de construire une architecture hyper-convergée grâce à l appliance OmniCube TM. Avec Omnicube, Simplivity propose la première appliance qui intègre de manière transparente les VMs, le stockage ainsi que la compression et la déduplication globale des données. Une gestion simple totalement centralisée permet de faire évoluer à l infini le data center en empilant simplement les appliances, en connectant des ressources de Cloud publics, et en gérant la réplication et la haute disponibilité avec des performances et une simplicité inégalées. Simplivity fournit un support mondial 24x7x365. Pour contacter le support : support@simplivity.com International : 00 1 508 536 4151 www.simplivity.com A PROPOS DE MIEL Miel a été créée en 1985 pour faire connaître en France les nouvelles technologies pour l'informatique des entreprises. Ses équipes d'ingénieurs découvrent des solutions innovantes, principalement aux Etats-Unis, et en font la promotion sur le marché français, avec l'appui d'un réseau de partenaires intégrateurs qualifiés. Nos solutions pour l'informatique des entreprises s'adressent aux responsables stratégiques et opérationnels des services informatiques et des intégrateurs autour de 4 pôles majeurs : la virtualisation des data centers et des postes, l'optimisation et la sécurité des réseaux, la gestion des données, l'informatique industrielle et embarquée. Miel est importateur, centre de compétence et de formation officiel. www.miel.fr SIMPLIVITY 8 Technology Drive Westborough, MA 01581 USA Tél. : +1 855 788 4636 MIEL SA Parc Burospace 5 91 571 Bièvres France Tél. : +33 1 60 19 34 52