LIVRE BLANC Guide pour rendre les VM 50 % plus rapides Sans matériel Think Faster. Visitez notre site Condusiv.com
GUIDE POUR RENDRE LES VM 50 % PLUS RAPIDES SANS MATÉRIEL 2 Résumé analytique Même si tout le monde a investi dans l idée de la virtualisation, nombreux sont ceux qui ne voient encore que la moitié des bénéfices. Les promesses de rapidité et de flexibilité ont certainement prévalu. Cependant, de nombreux directeurs financiers se grattent toujours les méninges à la recherche d avantages permettant de réaliser des économies. Dans de nombreux cas, les départements informatiques ont simplement troqué un coût pour un autre. L explosion inattendue des E/S liée aux VM a placé une pression énorme sur le stockage en réseau, ce qui occasionné une augmentation des coûts de matériel pour lutter contre les ralentissements des applications. À moins que les entreprises ne répondent à ce défi des E/S et à sa relation directe avec le matériel de stockage, elles ne peuvent pas atteindre le potentiel complet de leur environnement virtuel. L accélérateur de VM de Condusiv Technologies résout ce problème des E/S en optimisant les lectures et écritures à la source pour une accélération des performances de plus de 50 % sans matériel supplémentaire. Virtualisation, Toutes les promesses ne se sont pas réalisées Toutes les leçons de la virtualisation n ont pas été retenues immédiatement ; certaines ont été apprises au prix d essais et d erreurs. La bonne nouvelle est que nous avons appris que la virtualisation des serveurs a permis de reprendre une bonne partie des capacités serveur qui n étaient auparavant pas utilisées. Avant la virtualisation des serveurs, la réponse aux besoins d une demande toujours plus forte en termes de capacité de traitement consistait simplement à acheter plus de processeurs. La virtualisation des serveurs change cela en traitant tous les serveurs du groupe de serveurs virtuels comme un groupe unifié de ressources réduisant ainsi la quantité totale de serveurs requise tout en améliorant la rapidité, l évolutivité et la fiabilité. Les responsables informatiques peuvent répondre aux besoins de l entreprise rapidement et facilement tandis que les responsables commerciaux dépensent moins d argent dans des investissements de capital et les coûts d exploitation en lien avec le centre de données tout le monde y gagne. Le problème : une augmentation de la demande en termes d E/S Même si la virtualisation apporte la rapidité et l évolutivité requises pour répondre aux défis posés par la multiplication des données et permet de réaliser des économies, la nature même de la virtualisation des serveurs a conduit à une explosion inattendue des E/S. Cette explosion a causé des ralentissements des performances sur la couche de stockage, ce qui entrave finalement le bénéfice que les sociétés espèrent atteindre grâce à l environnement virtuel. Comme les départements informatiques ont économisé sur la couche serveur, ils ont simplement réappliqué une partie de ces économies sur la couche de stockage pour obtenir du matériel supplémentaire afin de faire face à la nouvelle demande en termes d E/S. Même si la virtualisation permet aux entreprises d ajouter rapidement plus de VM si nécessaire, la densité de VM par serveur physique augmente, et avec elle le nombre d E/S, contraignant plus encore les serveurs et dispositifs de stockage réseau. Toutes les VM se partagent la bande passante d E/S disponible, qui n évolue pas bien d un point de vue prix/performance. À moins que les sociétés ne puissent faire face à ce défi en optimisant les E/S à la source, elles ne pourront pas jouir de la promesse de la virtualisation en raison de la dépendance par rapport au matériel de stockage pour alléger le ralentissement une dépendance très onéreuse, comme de nombreuses sociétés l ont appris. Même si la densité de stockage a progressé de 60 % en TCAC, les performances de stockage n ont progressé que de 10 % en TCAC. Par conséquent, la lecture et l écriture de donnée est devenue un goulot d étranglement sérieux, les applications tournant sur des processeurs puissants devant attendre les données, et forçant ainsi les sociétés à constamment acheter plus de matériel de stockage pour répartir la charge.
GUIDE POUR RENDRE LES VM 50 % PLUS RAPIDES SANS MATÉRIEL 3 Cette pratique d achat est enracinée dans la non-anticipation du ralentissement des performances causé par les infrastructures de virtualisation du serveur. Ce qui n a pas été résolu est comment optimiser de manière importante les performances en termes d E/S à la source. En l absence d une solution, les sociétés se retrouvent avec une infrastructure inefficace, laquelle a un impact sur la manière dont les serveurs stockent et récupèrent les blocs de données depuis le groupe de stockage virtualisé. Qu est-ce qui a changé? Le stockage n a pas toujours été un goulot d étranglement. Dans une relation serveur stockage traditionnelle, une demande de blocs de données est organisée, séquentielle et efficace. Cependant, ajoutez des multitudes de serveurs virtuels faisant tous des requêtes similaires de blocs de données, à la fois aléatoires et séquentielles, vers un système de stockage partagé, et le comportement des blocs renvoyés ressemble à une tornade de données. Les blocs disparates, aléatoires pénalisent les performances de stockage lors des tentatives de gérer ce flux de données écrasant et chaotique. De plus, la restructuration des blocs de données en fichiers prend du temps sur le serveur, réduis ainsi les performances du serveur. Comme la virtualisation supporte plusieurs tâches et requêtes d E/S simultanément, les données sur le bus d E/S sont caractéristiquement passées de blocs circulant de manière efficace à l apparence de données passées à travers un mixeur d E/S dont l entrée est un petit entonnoir. Le problème n est pas l apparence désordonnée du paysage. Le problème est la dégradation des performances causée par l utilisation inefficace du paysage des E/S, limit ainsi à la fois les performances du serveur et du dispositif de stockage, et gaspillant une bonne partie de capacité des disques.
GUIDE POUR RENDRE LES VM 50 % PLUS RAPIDES SANS MATÉRIEL 4 Ralentissement des E/S Les ralentissements des E/S forcent les responsables informatiques à acheter plus de stockage, non pas pour la capacité, mais pour répartir la demande des E/S sur un plus grand nombre d interfaces. Ces ralentissements sont liés à des E/S inutiles, à un nombre grandissant de VM, à des limitations dans la connectivité au dispositif de stockage, et à des inefficacités dans la ferme de stockage. E/S inutiles Les comportements inhérents associés aux environnements virtuels créent des ralentissements des E/S. Par exemple, les fichiers écrits sur un système de fichiers à usage général sur le disque local sont généralement coupés en morceaux et stockés sous forme de clusters disparates dans le système de fichiers. Dans un environnement virtuel, le problème est aggravé par le fait que les machines virtuelles ou les disques virtuels peuvent aussi être fragmentés, créant un besoin encore plus grand en termes de bande passante ou de capacité d E/S pour savoir où placer les données entrantes écrites sur le disque. Chaque morceau de fichier nécessite son propre cycle de traitement E/S inutiles causant une augmentation malvenue du processus global qui réduit les performances de stockage et de réseau. Ces E/S supplémentaires ralentissent les machines virtuelles multiples situées sur le même matériel de serveur, réduisant ainsi les bénéfices de la virtualisation. Une meilleure option est d empêcher le morcellement des fichiers, pour commencer, et d agréger ces morceaux en un fichier séquentiel pour éliminer les E/S inutiles et augmenter l efficacité générale du réseau.
GUIDE POUR RENDRE LES VM 50 % PLUS RAPIDES SANS MATÉRIEL 5 Augmentation du nombre de VM Une fois qu un fichier quitte le système de fichiers, il passe à travers des initiateurs de serveurs (HBA). À mesure que les performances du processeur augmentent, les sociétés tendent à en tirer profit en augmentant le nombre de machines virtuelles s exécutant sur chaque serveur. Cependant, lorsque les performances des E/S dépassent la profondeur de file du HBA, la latence des E/S augmente, ce qui signifie que les temps de réponse des applications augmentent et que l activité des E/S diminue. Pour éviter l étranglement des E/S, les sociétés achètent des HBA et des serveurs supplémentaires et réalisent des investissements supplémentaires en matériel de serveur pour gérer l augmentation de la demande en E/S. Limitations de la connectivité du dispositif de stockage Les limitations de la connectivité du dispositif de stockage renforcent encore l impact sur les performances et l évolutivité. Lorsqu elles font face à ce problème, les sociétés doivent considérer le nombre d hôtes qu elles peuvent connecter à chaque réseau. Ce nombre dépend : Des files d attente disponibles par port de stockage physique ; Du nombre total de ports physiques ; De la bande passante disponible sur le réseau ; Les ports de stockage possèdent des profondeurs de file d attente variables, allant de 256 files à 2048 par port et au-delà. Le nombre d initiateurs qu un port de stockage peut supporter est directement lié au nombre de files disponibles sur le port de stockage. Par exemple, un port possédant 512 files et une profondeur de file d attente LUN typique de 32 peut supporter jusqu à : 512 / 32 = 16 LUN sur 1 initiateur, ou 16 initiateurs avec 1 LUN chacun, ou toute combinaison respectant cette limite. Les configurations réseau qui ignorent ces instructions risquent de se retrouver en état QFULL, dans lequel la cible ou le port de stockage est incapable de traiter les requêtes d E/S supplémentaires. Lorsqu un état QFULL a lieu, l initiateur limite les E/S vers le port de stockage, ce qui augmente le temps de réponse de l application et diminue l activité des E/S. Pour éviter la limitation des E/S, les administrateurs informatiques achètent du stockage supplémentaire pour répartir les E/S. Inefficacité des fermes de stockage La ferme de stockage présente des défis supplémentaires qui affectent les E/S. Les disques rotatifs possèdent des délais physiques inhérents pour chaque opération d E/S traitée. Le temps total requis pour accéder à un bloc de données est calculé comme la somme de : latence de rotation, temps de recherche moyen, temps de transfert, traitement de la commande, délai de propagation et temps de bascule. Dans un environnement de serveur standard, les ingénieurs compensent ce délai en répartissant les données sur plusieurs disques au sein du réseau de stockage grâce à la technologie RAID, qui délivre des performances de quelques milliers d E/S par seconde pour les transferts de lecture de petits blocs. Dans un environnement virtuel, cependant, on ne peut pas prédire la taille du bloc ni même s il s agira d une charge de travail d E/S séquentielle ou aléatoire. On ne peut pas non plus deviner sur combien de sous-systèmes de stockage les E/S se répartissent, ce qui créé des retards supplémentaires. En même temps, certains éléments sont sûrs d aggraver le ralentissement : par exemple, il est certain que quelqu un voudra écrire sur le disque, causant une pénalité de délai d écriture ; les blocs sortant du réseau seront aléatoires et inefficaces du point de vue des performances de transfert ; et le sous-système de stockage possèdera un délai tel qu une file d attente d E/S se créera, détériorant encore plus les performances du sous-système de stockage et le serveur.
GUIDE POUR RENDRE LES VM 50 % PLUS RAPIDES SANS MATÉRIEL 6 Même si une tendance émergeante est d utiliser des disques SSD (solid-state drives) pour éliminer certains des délais avec les E/S, il s agit d une solution onéreuse. Une meilleure alternative est de déplacer les fichiers fréquemment utilisés vers la mémoire du serveur, de manière intelligente, transparente et proactive en fonction du comportement de l application, réduisant ainsi le nombre d E/S que le réseau de stockage doit gérer. Avec le ralentissement économique actuel, l impossibilité de surmonter les ralentissements d E/S entravent la capacité du service informatique à soutenir les efforts de l entreprise pour réduire les coûts et augmenter les profits. Résoudre le problème La solution que Condusiv apporte au problème et constituée de deux parties, dans un produit appelé V-locity 4, contenant les technologies IntelliMemory et IntelliWrite. IntelliWrite élimine les E/S inutiles à la source causées par le morcellement des fichiers par le système d exploitation, et améliorant ainsi l efficacité en optimisant les écritures (et les lectures résultantes) pour augmenter la bande passante de données vers la VM de 50 % ou plus. IntelliMemory transfère automatiquement les fichiers utilisés fréquemment des disques où ils sont normalement stockés vers la mémoire-cache située dans le serveur. De cette manière, la technologie intelligente d IntelliMemory améliore jusqu à 50 % les performances d accès aux fichiers courants tout en éliminant aussi le trafic des E/S inutile.
GUIDE POUR RENDRE LES VM 50 % PLUS RAPIDES SANS MATÉRIEL 7 V-locity utilise ces capacités pour gérer de manière unique et intelligente l efficacité et les performances de l allocation des disques. La solution détecte les fichiers utilisés suffisamment fréquemment pour garantir une amélioration des performances et de la capacité. Elle réorganise ensuite les données depuis les fichiers stockés sur le disque de manière aléatoire et dispersée, vers un ordre séquentiel (ou très proche de cela) dans le cadre d une écriture normale sans que le service informatique n ait besoin d effectuer d action supplémentaire. Les performances augmentent en raison d un phénomène connu sous le nom de principe de localité, dans lequel les têtes du disque n ont pas besoin d être repositionnées pour demander le bloc de données suivant, éliminant ainsi les délais de traitement supplémentaires. Les améliorations en termes de principe de localité signifient que lorsque les données sont déplacées sur le bus des E/S, il y a moins de délais de traitement et d attente, réduisant ainsi souvent l utilisation des E/S par 50 %. Pour l utilisateur, les performances générales du système semblent augmenter de 50 % ou plus. L administrateur informatique remarquera que le besoin d achat de matériel de stockage ou de serveur supplémentaire est retardé ou éliminé. De plus, l optimisation des E/S de V-locity est spécifiquement conçue pour les environnements virtuels, et tire profit d un SAN ou NAS en fournissant pro activement des bénéfices d E/S sans affecter négativement les fonctionnalités de stockage avancées telles que la capture instantanée, la réplication, la duplication des données et l allocation dynamique. Conclusions Grâce à V-locity, les VM peuvent accomplir plus de travail en moins de temps, plus de VM peuvent s exécuter dans les serveurs existants, et l efficacité augmentée de l allocation du stockage améliore les performances tout en réduisant les dépenses. Plus de travail en moins de temps Les sociétés utilisant V-locity ont mesuré une amélioration de 300 % ou plus du taux d utilisation du cache dans une machine virtuelle. Un test réalisé par OpenBench Labs a constaté une réduction des E/S de 92 % dans un Environnement Virtuel, avec amélioration de 100 % des débits. Cela réduit le problème de l étalement des VM et de la croissance des E/S tout en améliorant les performances sans matériel de stockage supplémentaire. Plus de machines virtuelles fonctionnent dans les serveurs existants Comme les sociétés ont constaté des gains de performance de VM allant jusqu à 50 %, elles peuvent utiliser plus de VM sur un serveur unique, retardant ainsi les besoins d achat de matériel de serveur supplémentaire. Amélioration de l efficacité de l allocation de stockage Les tests ont prouvé des améliorations de 30 % ou plus dans l espace disque disponible. Le stockage dans un environnement VM est souvent acheté pour améliorer les E/S plutôt que pour augmenter la capacité. En corrigeant le ralentissement des E/S de l infrastructure de stockage, la capacité inutilisée qui était achetée uniquement pour répartir les E/S sur plus de ports peut être ajoutée au groupe de stockage disponible. Comme cette capacité est déjà payée, les organisations peuvent l utiliser pour éliminer le besoin d achat de nouveau stockage. Condusiv Technologies 7590 N. Glenoaks Blvd. Burbank, CA 91504 800-829-6468 www.condusiv.com Pour plus d informations, visitez www.condusiv.com. 2012 Condusiv Technologies Corporation. Tous droits réservés. Condusiv, Diskeeper, The only way to prevent fragmentation before it happens, V-locity, IntelliWrite, IntelliMemory, Instant Defrag, InvisiTasking, I-FAAST, Think Faster et le logo Condusiv Technologies Corporation sont des marques enregistrées ou déposées par Condusiv Technologies Corporation aux États-Unis et/ou dans d autres pays. Toutes les autres marques ou marques déposées appartiennent à leurs propriétaires respectifs.