Examen technique des technologies de mise en cache



Documents pareils
Optimisation WAN de classe Centre de Données

Optimisation WAN pour aujourd'hui et pour demain > Livre blanc

Chapitre 1 : Introduction aux bases de données

Optimisation WAN > Livre blanc. Des applications plus rapides pour tous vos utilisateurs, ou qu ils soient

Livre Blanc Trois façons simples d'optimiser votre gestion de la bande passante pour la vidéosurveillance

Présentation du déploiement des serveurs

Garantir les performances des applications dans le cloud

USERGATE PROXY & FIREWALL. Protection exhaustive de réseau corporate, optimisation de trafic Internet, administration flexible

Protection exhaustive de réseau corporate, optimisation de trafic Internet, administration flexible

Microsoft Dynamics AX. Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server

Guide de configuration de SQL Server pour BusinessObjects Planning

EMC DATA DOMAIN HYPERMAX

SafeNet La protection

Les entreprises qui adoptent les communications unifiées et la collaboration constatent de réels bénéfices

RÉSEAU WAN ET INTERNET HAUTES PERFORMANCES EN QUATRE ÉTAPES

Avantages de l'archivage des s

10 façons d optimiser votre réseau en toute sécurité

EMC DATA DOMAIN OPERATING SYSTEM

Service de réplication des données HP pour la gamme de disques Continuous Access P9000 XP

Linux sécurité des réseaux

Symantec Backup Exec.cloud

Annexe 5. Kaspersky Security For SharePoint Servers. Consulting Team

Conception d'applications de base de données ios plus rapides Guide Pratique FileMaker

[ Sécurisation des canaux de communication

Cours n 12. Technologies WAN 2nd partie

Un aperçu de la technologie d'accélération WAN de Silver Peak

Technologie de déduplication de Barracuda Backup. Livre blanc

IBM Software Big Data. Plateforme IBM Big Data

Tableau Online Sécurité dans le cloud

ManageEngine IT360 : Gestion de l'informatique de l'entreprise

Guide d'initiation aux. certificats SSL. Faire le bon choix parmi les options qui s'offrent à vous en matière de sécurité en ligne. Document technique

CA ARCserve Backup r12

SQUID P r o x y L i b r e p o u r U n i x e t L i n u x

Retrospect 7.7 Addendum au Guide d'utilisation

Principaux utilisateurs du Réseau

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA

NC 06 Norme comptable relative aux Immobilisations incorporelles

NOTIONS DE RESEAUX INFORMATIQUES

Proxy et reverse proxy. Serveurs mandataires et relais inverses

En synthèse. HVR pour garantir les échanges sensibles de l'entreprise

Symantec Protection Suite Enterprise Edition Protection éprouvée pour les terminaux, la messagerie et les environnements Web

Symantec Network Access Control

LIVRE BLANC Pratiques recommandées pour l utilisation de Diskeeper sur les réseaux SAN (Storage Area Networks)

CA ARCserve Backup Option NAS (Network Attached Storage) NDMP (Network Data Management Protocol)

Enterprise Intégration

Tarification comparative pour l'industrie des assurances

AccessMaster PortalXpert

PRINCIPES DE BASE DE LA SAUVEGARDE POUR LA PROTECTION DE VOS DONNÉES ET DE VOTRE ACTIVITÉ

Acronis Backup & Recovery for Mac. Acronis Backup & Recovery et Acronis ExtremeZ-IP ARCHITECTURE DE RÉFÉRENCE

MEDIAplus elearning. version 6.6

Performance et usage. La différence NETGEAR - R7000. Streaming HD illimitée

Sage CRM. 7.2 Guide de Portail Client

FileMaker Pro 12. Utilisation d une Connexion Bureau à distance avec FileMaker Pro 12

BASE DE DONNÉES ORACLE 11G SUR LE SYSTÈME DE STOCKAGE PILLAR AXIOM. Livre blanc publié par Oracle Novembre 2007

Fiche technique: Archivage Symantec Enterprise Vault for Microsoft Exchange Stocker, gérer et rechercher les informations stratégiques de l'entreprise

FAMILLE EMC RECOVERPOINT

Présentation de l'architecture QlikView. Livre blanc sur la technologie QlikView. Date de publication : octobre

Charte informatique. Ce document n est qu un exemple. Il doit être adapté à chaque entreprise selon ses moyens et ses nécessités.

Description du Service Service de suppression certifiée des données :

Table des Matières. 2 Acronis, Inc

PC Check & Tuning 2010 Optimisez et accélérez rapidement et simplement les performances de votre PC!

Windows Server Chapitre 3 : Le service d annuaire Active Directory: Concepts de base

White Paper ADVANTYS. Workflow et Gestion de la Performance

DÉVELOPPEMENT INFONUAGIQUE - meilleures pratiques

Spécifications de l'offre Surveillance d'infrastructure à distance

1 LE L S S ERV R EURS Si 5

Cours admin 200x serveur : DNS et Netbios

Wyse WSM. L informatique légère, économique, flexible et fiable. Wyse WSM. Tout ce que vous devez savoir. Cliquez ici

ORACLE TUNING PACK 11G

Virtualisation des postes de travail

INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE

FileMaker Pro 13. Utilisation d une Connexion Bureau à distance avec FileMaker Pro 13

Chapitre 2 Rôles et fonctionnalités

Le rôle Serveur NPS et Protection d accès réseau

SECURITE DES DONNEES 1/1. Copyright Nokia Corporation All rights reserved. Ver. 1.0

Gamme d appliances de sécurité gérées dans le cloud

RSA ADAPTIVE AUTHENTICATION

Windows Internet Name Service (WINS)

Graphes de trafic et Statistiques utilisant MRTG

Architecture des ordinateurs. Environnement Windows : sauvegarde

Livre Blanc WebSphere Transcoding Publisher

PRODIGE V3. Manuel utilisateurs. Consultation des métadonnées

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

CA ARCserve Backup Patch Manager pour Windows

Restriction sur matériels d impression

Vous avez des problèmes d'impression réseau? UniPrint. est la solution qu'il vous faut. Aperçu du produit

TABLE DES MATIERES. Page 1/17

Bind, le serveur de noms sous Linux

WHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis

Ebauche Rapport finale

Sophos Mobile Encryption pour Android Aide. Version du produit : 1.3

Cours CCNA 1. Exercices

Déduplication des données : un élément essentiel de votre stratégie de protection des données

Nokia Internet Modem Guide de l utilisateur

Installation d un serveur DHCP sous Gnu/Linux

KASPERSKY SECURITY FOR BUSINESS

La valeur des SSD partagés dans l'informatique d'entreprise

HSM, Modules de sécurité matériels de SafeNet. Gestion de clés matérielles pour la nouvelle génération d applications PKI

Transcription:

technologies de mise en cache LIVRE BLANC Au cours des 10 dernières années, l'utilisation d'applications facilitant les processus métier a considérablement évolué. Ce qui était un plus avantageux fait désormais partie intégrante de l'activité, de la formation et des autres opérations dans le monde. Dans la mesure où l'utilisation d'application a augmenté, le temps de réponse est devenu de plus en plus important, et ce de bonnes raisons. Le temps perdu à attendre des données représente une perte d'argent et de productivité. Les facteurs affectant le temps de réponse aujourd'hui sont, par exemple, les réseaux WAN saturés, les protocoles inefficaces/bavards, et la latence due aux longues distances entre les utilisateurs et les données. Tous ces facteurs sont exacerbés à mesure que les applications et les ressources de données sont consolidées, centralisées ou externalisées. Souvent, les retards frustrent les utilisateurs. Synthèse Mise en mémoire cache : un concept éprouvé Pour résoudre les problèmes de performances associés à l'extraction de données, l'optimisation du trafic des applications sur le WAN est devenue la solution stratégique qui fait l'unanimité auprès des entreprises du monde entier. Optimiser la quantité de données qui traversent le WAN, c'est-à-dire la stratégie au cœur de la plupart des solutions d'optimisation WAN, est une excellente solution, mais ce n'est pas la seule. L'un des principaux facteurs affectant le temps de réponse de l'extraction de données est la distance entre les données et l'utilisateur. L'optimisation du trafic WAN apporte une amélioration manifeste, mais une solution qui n'exige aucune extraction des données sur le WAN est évidemment idéale. C'est possible avec différentes formes de mise en mémoire cache. Dans la mesure où la réduction du temps de réponse est essentielle, une solution d'optimisation WAN complète doit inclure, non seulement, les technologies d'optimisation WAN les plus populaires (par exemple, l'optimisation de protocoles, la gestion de la bande passante et la compression), mais aussi deux formes de mise en mémoire cache : mise en mémoire cache des objets et mise en mémoire cache des octets. Tandis que la mise en mémoire cache des octets est plus répandue dans les solutions d'optimisation WAN, la mise en mémoire cache des objets est un composant clé actuellement absent de la plupart des solutions. Comme la mise en mémoire cache minimise la transmission des données sur le WAN et permet aux données d'être transmises immédiatement, cette technologie améliore directement le temps de réponse et l'utilisation de la bande passante. L'objectif de ce livre blanc est de traiter du rôle de la mise en mémoire cache, de décrire en détail le fonctionnement de la mise en mémoire cache des objets et des octets, et de montrer comment ces technologies s'associent fournir une réelle différence en termes de performances. Bien que certains la découvrent la première fois, la mise en mémoire cache est une technologie qui est en fait employée dans différents secteurs de l'industrie informatique et de réseau depuis un certain temps. Bien qu'il existe différentes manières de la déployer, la technologie de mise en mémoire cache est un concept relativement simple. La mise en mémoire cache consiste à stocker les données fréquemment utilisées dans un emplacement facile d'accès afin de gagner du temps et d'économiser des ressources car les données n'ont pas à être extraites de la source d'origine. Le temps et les ressources étant toujours des éléments de premier ordre dans le secteur de l'informatique et du réseau, les mémoires caches existent partout et sont utilisées dans tous les systèmes aux performances élevées. En fait, l'uc de chaque appareil du réseau (routeur, commutateur, PC) tire parti de la mise en mémoire cache accélérer l'accès à la mémoire. Assurément, le fait que plusieurs centaines de millions de PC utilisant la technologie de mise en mémoire cache dans le processeur illustre l'importance de la mise en mémoire cache, même au niveau matériel. Un autre cache très courant, que l'on retrouve sur pratiquement tous les PC, est le cache de navigateur Web. Internet Explorer et Firefox, les navigateurs les plus utilisés, par exemple, disposent de caches Web le stockage des objets demandés, de telle sorte que les mêmes objets n'ont pas à être extraits plusieurs fois du serveur Web. Ce processus est connu sous le nom de mise en mémoire cache des objets. examen technique des Différentes formes de mise en mémoire cache Quel que soit le type de déploiement, l'objectif de toute mise en mémoire cache est le même : éviter de récupérer de nouveau des données ayant déjà été extraites afin d'améliorer le temps de réponse et de minimiser l'utilisation de la bande passante. Les technologies détaillées ici sont conçues atteindre cet objectif en mettant en mémoire cache les données localement et en effectuant un service instantané lorsqu'une demande de données est reçue. Cette fonctionnalité permet d'obtenir les améliorations de performances importantes décrites ci-dessous. 1

Mise en mémoire cache des objets La mise en mémoire cache des objets est utilisée depuis plusieurs années et permet généralement d'accélérer l'accès au contenu HTTP. Outre la mise en mémoire cache des objets du contenu HTTP, certains fournisseurs ont étendu leur prise en charge de la mise en mémoire cache des objets inclure le contenu HTTPS, les objets média de streaming, le FTP et les fichiers CIFS. Parfois, la mise en mémoire cache des objets est appelée «mise en mémoire cache proxy», car elle est déployée à l'aide d'un proxy le protocole donné (par exemple, HTTP, HTTPS, FTP, CIFS ou RTSP/RTP). Fonctionnement de la mise en mémoire cache des objets Le mécanisme de la mise en mémoire cache des objets est relativement simple et ne nécessite aucune configuration. Le client envoie une demande d'objet (fichier, document, image, etc.) à un serveur et la demande est interceptée par le proxy qui se trouve entre le client et le serveur d'origine. Lors de la réception de la demande, le proxy vérifie qu'il dispose de l'objet demandé dans son cache. Si tel est le cas, le proxy répond en envoyant l'objet mis en mémoire cache au client. Sinon, il envoie la demande au serveur. Si le proxy demande l'objet au serveur d'origine, les données de cet objet sont mises en mémoire cache par le proxy afin de pouvoir répondre aux demandes ultérieures portant sur le même objet sans extraire à nouveau les données du serveur d'origine. Le traitement d'un objet mis en mémoire cache entraîne une utilisation zéro de la bande passante côté serveur le contenu et une large amélioration du temps de réponse l'utilisateur final. Bien que le bénéfice de la mise en mémoire cache soit clair et que le mécanisme du proxy soit simple, cela pose plusieurs problèmes, en particulier en matière de validité et de stockage du contenu. Validité du contenu Pour éviter les problèmes d'intégrité des données, les objets mis en mémoire cache doivent être à jour. Dans la mesure où le contenu change sur les serveurs, un cache d'objet doit maintenir son stock temporaire de contenus à jour. Il existe deux approches maintenir l'exactitude du contenu : une sorte de vérification périodique de la validité ou la vérification constante du contenu avec le serveur avant de servir l'objet mis en mémoire cache. En général, qu'un proxy HTTP fournisse du contenu à l'utilisateur final avec l'assurance que les données sont à jour, il doit envoyer une «vérification d'actualisation» au serveur d'origine. Cependant, fournir le contenu rapidement, il ne doit pas attendre qu'un utilisateur demande le contenu effectuer cette activité d'actualisation. Compte tenu de la manière dont les pages Web sont conçues (beaucoup d'objets imbriqués souvent liés à plusieurs serveurs dispersés géographiquement), si les vérifications d'actualisation ne sont effectuées que lorsque l'utilisateur demande le contenu, l'utilisateur subira les mêmes retards dus aux aller-retour qui ralentissent l'extraction des données, car chaque objet Web est validé. Le temps de réponse de l'application ne sera pas amélioré de manière significative. La technologie de mise en cache des objets intelligente doit pouvoir éviter les données obsolètes sans avoir d'impact négatif sur le réseau en raison de vérifications d'actualisation inutiles. Un fournisseur propose un déploiement de mise en mémoire cache des objets qui utilise un algorithme de rafraîchissement adaptatif intelligent garantir la validité du contenu sans avoir d'impact négatif sur les performances à cause de vérifications d'actualisation. Pour les services de fichiers CIFS, l'approche de mise en mémoire cache des objets consiste à toujours effectuer une vérification auprès du serveur avant de renvoyer un objet CIFS mis en mémoire cache. Cela est nécessaire s'assurer que le fichier n'a pas été modifié et vérifier les droits d'accès de l'utilisateur. La surcharge induite est toutefois négligeable par rapport à l'inefficacité globale du protocole CIFS. Un seul aller-retour vérifier la validité et les droits d'accès est bien plus efficace que la transmission des fichiers entiers. Stockage Un autre défi souvent associé à la mise en mémoire cache des objets est le stockage. En effet, stocker des millions d'objets d'application sur un système de fichiers général risque de ne pas être efficace et peut entraîner une latence supplémentaire en raison des lectures de disque. Par conséquent, la méthode de stockage des objets sur disque devient critique atteindre des performances et une évolutivité élevées. Elle détermine (1) la rapidité de l'accès à un objet mis en mémoire cache lorsqu'un client demande cet objet, (2) la rapidité avec laquelle de nouveaux objets peuvent être obtenus et stockés sur le disque, et (3) le débit auquel les demandes client peuvent être traitées par lecteur de disque. Les déploiements classiques de mise en mémoire cache des objets utilisent un système de fichiers, qui fonctionne moins efficacement lorsqu'il est plein. Un déploiement plus rapide de mise en mémoire cache des objets utilise un système de stockage des objets qui constitue réellement un cache d'objet. Au lieu d'utiliser un répertoire ou un système de fichiers couramment utilisé, l'accès à l'objet effectué via une table partitionnée dans la mémoire RAM garantit l'obtention de chaque objet dans une seule lecture de disque. Contrairement au système de fichiers, qui a un impact négatif lorsqu'il est plein, un cache d'objet fournit ses plus hautes performances lorsqu'il est plein. Dans un cache d'objet idéal, les anciens objets rarement utilisés sont constamment enlevés faire de la place aux nouveaux objets. Les algorithmes de présentation et de remplacement des disques doivent faciliter ce processus afin d'optimiser la vitesse de l'écriture de nouveaux objets sur le disque. 2

Quand la mise en mémoire cache des objets est-elle la plus utile? La mise en mémoire cache des objets est une technologie très bénéfique les types de contenus suivants : Contenu qui ne change pas très souvent, tel que des images, des logos et certains documents. Contenu qui peut être prérenseigné sur des appliances avant que les utilisateurs n'y accèdent (applications elearning, multimédia). Fichiers qui ne changent pas souvent et auxquels plusieurs utilisateurs doivent accéder. Mise en mémoire cache des octets Bien que la mise en mémoire cache des objets soit la méthode de mise en mémoire cache la plus efficace du point de vue du temps de réponse et de l'utilisation de la bande passante, elle présente trois limites relativement importantes. L'inconvénient le plus évident est qu'elle est limitée à des protocoles spécifiques, comme expliqué précédemment dans ce document. Une autre limite est que, même si seul un octet d'objet change, l'ensemble de l'objet doit être à nouveau extrait car l'objet a changé. La mise en mémoire cache des objets est également limitée aux fichiers demandés par le client, et n'est pas utilisée lorsqu'un client enregistre ou publie un fichier sur un serveur. Pour surmonter ces restrictions, l'évolution naturelle de la mise en mémoire cache a été de mettre en mémoire cache des portions répétitives d'un objet. C'est ce que l'on appelle la mise en mémoire cache des octets. La mise en mémoire cache des octets est une technologie de mise en cache bidirectionnelle indépendante du protocole, du port et de l'adresse IP, qui fonctionne au niveau de la couche TCP en recherchant des séquences de données communes. La mise en mémoire cache des octets est conçue fonctionner dans une conception de réseau maillé, hiérarchique ou arbitraire, et n'impose aucune limite à la conception des réseaux d'entreprise. Fonctionnement de la mise en mémoire cache des octets La mise en mémoire cache des octets est une fonctionnalité qui nécessite un déploiement symétrique entre deux points d'extrémité. Par conséquent, la mise en mémoire cache des octets est une amélioration courante les réseaux d'optimisation WAN, où une ou plusieurs appliances sont déployées dans les succursales, ainsi qu'au siège ou au centre de données. Dans la mesure où les appliances des deux côtés du WAN communiquent, elles conservent un cache de tout le trafic TCP envoyé et reçu sur le WAN. Chaque fois que des données doivent être envoyées, elles sont analysées rechercher les segments en double dans le cache. Si des doublons sont détectés, les données en double sont retirées de la séquence d'octets et des jetons sont insérés à la place. Lorsque l'autre appliance reçoit les données, les jetons sont enlevés de la séquence d'octets et les données d'origine sont réinsérées. La mise en mémoire cache des octets permet d'obtenir une quantité de données traversant le WAN aussi petite que possible sans perte du contenu d'origine. Pourquoi la mise en mémoire cache des octets est-elle utile? La mise en mémoire cache des octets est une technologie de mise en cache très utile car la proportion de répétition du trafic WAN peut atteindre 90 %. En effet, la plupart des trafics d'entreprise sont composés des éléments suivants : Trafic d'application Web : les utilisateurs d'une succursale utilisent généralement les mêmes applications Web ou des applications similaires. Chaque interaction avec ces applications entraîne un trafic WAN légèrement différent de celui des précédentes interactions, ce qui entraîne le renvoi des mêmes octets. Trafic de serveur de fichiers : le trafic de fichiers effectue plusieurs aller-retour sur le WAN tandis que l'utilisateur travaille sur un fichier. Les applications de bureau classiques enregistrent des copies du fichier à intervalles réguliers, renvoyant uniquement des versions légèrement modifiées du même document sur le lien WAN. Dans la mesure où la mise en mémoire cache des octets est bidirectionnelle, les fichiers demandés ou enregistrés tirent parti de la mise en mémoire cache des octets. Trafic de courriels : les courriels d'entreprise sont souvent adressés à plusieurs personnes. Pour chaque destinataire de la succursale, une copie du courriel traverse le WAN. Par ailleurs, les réponses aux courriels contiennent des données répétitives, ce qui entraîne un trafic d'autant plus redondant sur le WAN. En éliminant le trafic redondant, les solutions d'optimisation WAN qui déploient la mise en mémoire cache des octets peuvent augmenter radicalement la capacité WAN, voire la doubler, selon l'application. La mise en mémoire cache des octets fonctionne au niveau de la couche de transport et ne dépend pas des connaissances de l'application mettre en mémoire cache le trafic. Cela permet à la mise en mémoire cache des octets de gérer le trafic toutes les applications. Comme la mise en mémoire cache des octets fonctionne au niveau de la couche de transport, son déploiement ne nécessite aucune modification des applications elles-mêmes ou de la configuration des applications. Cela permet de respecter l'exigence de transparence les applications et les utilisateurs. Des déploiements réellement flexibles de mise en mémoire cache des octets doivent fournir la possibilité d'associer les données à des applications et utilisateurs spécifiques, assurant un contrôle sur les données mises en mémoire cache et sur ce qui est bloqué. Cela permet à l'administrateur de créer et de définir une stratégie sur l'utilisation du réseau et son accès. 3

Tandis que la mise en mémoire cache des octets accélère tout le trafic TCP, il accélère également les protocoles d'application spécifiques qui utilisent un cache d'objet, à savoir : Web : HTTP, HTTPS (SSL) Média en streaming : téléchargement progressif Courriel : MAPI Services de fichiers : CIFS En quoi la mise en cache d'objets et la mise en mémoire cache des octets sont-elles complémentaires? Les des objets et des octets présentent toutes deux des points forts et conviennent à différentes situations ; cependant, ensemble, elles fournissent une solution de mise en mémoire cache encore plus puissante. Ensemble, la mise en cache des objets et la mise en mémoire cache des octets fournissent une accélération drastique et inégalée des applications d'entreprise et une réduction de la bande passante WAN, ce qui constitue la base d'une solution répondant à un vaste éventail de défis WAN auxquels sont confrontées les entreprises d'aujourd'hui. Outre le fait qu'elle couvre une large gamme d'applications, la synergie qui existe entre les deux approches de mise en mémoire cache rend l'ensemble du système meilleur que la somme de ses parties. La mise en mémoire cache des objets permet l'extraction immédiate des objets à la vitesse LAN, avec une utilisation zéro de la bande passante, tandis que la mise en mémoire cache des octets minimise la quantité de données transmises sur le WAN les données à extraire. Prenons l'exemple d'un logo d'entreprise utilisé sur tous les documents de l'entreprise. La mise en mémoire cache des octets identifierait cet aspect commun de fichiers essentiellement différents et empêcherait ces données d'être transmises sur le WAN, même lorsque les utilisateurs demandent un document qui n'a pas encore été rencontré. L'un des avantages de la mise en mémoire cache des objets généralement négligé est la décharge de serveur. Alors qu'une solution déployant uniquement la mise en mémoire cache des octets réduit l'utilisation du WAN, elle génère une surcharge de serveur extrêmement importante et inutile car chaque demande doit toujours être extraite du serveur. La combinaison synergétique de la mise en mémoire cache des objets et de la mise en mémoire cache des octets œuvre à la fois le WAN et le serveur. En outre, la fonctionnalité de mise en mémoire cache des octets permet au sous-système de mise en mémoire cache des objets d'être agressif avec les algorithmes de rafraîchissement adaptatif qui maintiennent le contenu local à jour, ce qui améliore la latence de réponse de la succursale. De même, l'existence de contenu à jour dans le cache d'objet entraîne moins d'aller-retour TCP le sous-système de mise en mémoire cache des octets, puisque la demande peut être traitée localement. Liste de contrôle de la solution Lorsque vous choisissez une solution de mise en mémoire cache, souvenezvous qu'il existe un certain nombre de fonctionnalités clés qui composent une solution efficace et complète. Voici une liste de contrôle des fonctionnalités clés présentées dans ce livre blanc référence : Capacité à procéder à une mise en mémoire cache des objets et des octets Capacité à mettre en mémoire cache les objets HTTP, HTTPS, CIFS, FTP ainsi que les objets en streaming Utilisation d'un véritable cache d'objet et non d'un système de fichiers ou d'une structure de répertoire Contrôle basé sur des règles la fonctionnalité de mise en mémoire cache Capacité à actualiser les données de manière dynamique Configuration minimale, voire inexistante, procéder à la mise en mémoire cache Conclusion La mise en mémoire cache est une technologie largement utilisée et reconnue sur le secteur, permettant d'améliorer le temps de réponse de l'utilisateur et de minimiser l'utilisation de la bande passante. Aujourd'hui, cette exigence est essentielle suivre l'augmentation exponentielle du trafic WAN d'entreprise causé par la consolidation de serveur, la centralisation et l'externalisation. Une solution d'optimisation WAN est tout simplement incomplète à moins d'inclure la mise en mémoire cache des objets et la mise en mémoire cache des octets. Ces technologies sont des composants essentiels atteindre une amélioration significative du temps de réponse, effectuer des économies de bande passante et, si nécessaire, décharger le serveur. Blue Coat Systems reconnaît l'importance de la mise en mémoire cache et a déployé la mise en mémoire cache des objets dans ses appliances proxy depuis le lancement du premier produit en 1998. Au fur et à mesure que la technologie de mise en cache a avancé, Blue Coat a étendu son expertise inclure également la mise en mémoire cache des octets, ce qui a généré une solution d'optimisation WAN fournissant tous les composants essentiels requis une solution d'optimisation WAN totale. Puisqu'aucune modification d'application n'est requise bénéficier de la mise en mémoire cache et que pratiquement aucune configuration n'est nécessaire, les de Blue Coat fournissent les composants nécessaires fournir une solution d'optimisation WAN qui peut être facilement déployée dans différentes architectures de réseaux d'entreprise, assurant des améliorations significatives à la fois le temps de réponse de l'utilisateur final et l'utilisation de la bande passante. 4

Blue Coat Systems Inc. www.bluecoat.com Siège social Sunnyvale, CA, États-Unis +1 408 220 2200 Siège social la région EMEA Hampshire, Royaume-Uni +44 1252 554600 Siège social la France Montigny Le Bretonneux +33130577417 2013 Blue Coat Systems, Inc. Tous droits réservés. Aucune partie de ce document ne doit être reproduite par quelque moyen, ni transférée sur quelque support électronique que ce soit sans l'accord écrit de Blue Coat Systems, Inc. Les informations contenues dans ce document sont considérées comme exactes et fiables à la date de publication ; cependant, elles ne représentent en aucun cas un engagement de la part de Blue Coat. Blue Coat ne peut pas garantir l'exactitude des informations présentées à compter de la date de publication. Ce document est proposé à titre d'information uniquement. Blue Coat n'offre aucune garantie explicite, implicite, ni statutaire quant aux informations contenues dans ce document. Les informations contenues dans ce document ont été rédigées les produits et services proposés aux États-Unis. Il se peut que Blue Coat ne propose pas les fonctionnalités, produits ou services décrits dans le présent document dans d'autres pays. Pour obtenir des renseignements sur les produits et services actuellement disponibles dans votre région, veuillez contacter votre représentant Blue Coat. Les produits, services techniques et autres données techniques Blue Coat mentionnés dans ce document sont soumis aux contrôles à l'export, aux sanctions pénales, réglementations et exigences en vigueur aux États-Unis et peuvent être soumis aux réglementations importation et d'exportation en vigueur dans les autres pays. Vous acceptez de vous conformer strictement à ces lois, réglementations et exigences et reconnaissez qu'il est de votre responsabilité d'obtenir tout permis, licence ou approbation susceptible d'être requis exporter, réexporter, transférer dans un pays ou importer après la livraison. Blue Coat peut détenir des brevets ou des demandes de brevet couvrant les produits mentionnés dans le présent document. La remise du présent document ne vous accorde aucune licence relative auxdits brevets. Blue Coat, ProxySG, PacketShaper, CacheFlow, IntelligenceCenter et BlueTouch sont des marques déposées de Blue Coat Systems, Inc. aux États-Unis et dans le monde. Toutes les autres marques déposées mentionnées dans le présent document appartiennent à leurs propriétaires respectifs. v.wp-caching-technologies-a4-en-v3a-0413 5