Plan de Reprise d Activité et Continuité des Services 1
Agenda Interconnexion de Centres de Données distants (DCI): Business Drivers Solution Architecture o Plans de reprise d activité & Continuité de Services o Extension du Stockage o Extension du LAN Conclusions & Q&A
Evolution des Centres de Données Cloud Network Fabric Augmentation la dépendance sur le trafic Est-Ouest Virtualiza+on impose le 10GE DCI Applica+ons Cluster 40G & 100G 10G Mul+- Tenants Con+nuité de Services Mobilité des ressources applica+ves Evolution du réseau Décisions automatiques des Politiques pour le Provisionnement et le Mgmt Réduction des Coûts, Standardisation des Protocoles, Architectures ouvertes Business drivers Haute densité 10G à l Edge 40G &100GE dans le Core/Agg Unified I/O & Fabric I/O FabricPath/TRILL Non- Bloquant Tps de latence prévisible et réduit Segmenta+on sécurisée DCI en L2 et/ou L3 Extension du Stockage Large Domaine de L2 étendu Migra+on transparente non- destruc+ve
Distributed Virtual Data Center Architecture METRO Varia7on III: Metro Virtual Data Center (MVDC) Une paire de DC Ac+fs séprarés par une distance METRO pour la con+nuité des Ops + 1 PRA distant REGIONAL Variation II: Regional Virtual Data Center (RVDC) Plusieurs DC Actifs avec tps de latence plus important à travers un même continent GLOBAL Variation I: Global Virtual Data Center (GVDC) Existe dans 2 continents différents ou plus
Global Data Center Presence Infrastructure Résiliente Partagée permet une croissance diversifiée du Business Metro Virtual DC (MVDC) Pair de Metro-based DC + remote PRA Ex.: ecommerce Workspace (CCW) B A A/A A/A A/A A B A/A A B B B A Global Virtual DC (GVDC) Presence ds 2 continents ou plus Ex.: Active Directory, IronPort, WebEx Regional Virtual DC (RVDC) Plusieurs DC Actifs avec tps de latence plus important à travers un même continent Ex.: FTP, Cisco.com Distributed Virtual Data Center (DVDC) Architecture 3 Varia+ons de déploiement qui impactent respec+vement les tps de latence et les performances
Resiliency Capacité d'absorber les effets d'une panne ou d une catastrophe pour fournir la Continuité des Services et assurer un niveau acceptable minimum des Operations. Con+nuité des Opera+ons Con+nuité Planifiée et non- planifiée des Services Informa+ques dans un environnement Metro (jusqu à la perte d un DC) Reprise d Ac+vité (PRA) Perte de deux DC conduit à la reprise des Services dans un DC distant DC1 DC2 DC3 Metro Area MVDC Pervasive data protec+on + infrastructure repurpose GVDC
Centres de Données Distribués en mode Cold Standby Définition du mode Actif Standby Centre de données Centre de Primaire données (panne/ Primaire inactif) (Actif) Layer 3 WAN/MAN Accès réseaux Centre de données Centre de données Secondaire Secondaire (Actif) (Standby) Infrastructure Subnet A Servers Subnet A DC Primaire Applications Application A Application B Application C DC Secondaire
Centres de Données Distribués en mode Hot Standby Définition du mode Actif Actif Sélection Intelligente du site Centre Centre de de données Primaire données (panne/ Primaire inactif) (Actif) Layer 3 WAN/MAN Accès réseaux Centre de données Secondaire (Actif) Infrastructure Subnet A Servers Subnet A DC Primaire Applications Application A Application B Application C DC Secondaire
Plan de Reprise d Activité
Stratégie pour le Plan de Reprise d Activité Global & Regional Virtual DC Meilleurs ges+ons des dépenses par la réu+lisa+on de l infrastructure et des processus de mise en œuvre. Intégra+on des fonc+ons de PRA dans les Opera+ons quo+diennes Main+en d une capacité applica+ve croissante et durable à travers l infrastructure, les ressources informa+ques ainsi que les services réseaux partagées en exploitant au mieux la Distribu+on des Applica+ons Ac+ves Mise en place d un PRA supportant tout type d environnement pour les différents mé+ers de l Entreprise (Mul+- tenants) U+lisa+on d ou+ls de PRA: ex.: VMware Site Recovery Manager (SRM) pour les basculements de Services à «Froid» U+lisa+on des fonc+ons de la Mobilité offerte par la Virtualisa+on des systèmes hyperviseur pour les basculements de Services à «chaud» avec réini+alisa+on des sessions ac+ves. Réplica+ons Asynchrone des Bases de Données entre les Data Centers - ex: Oracle Data Guard (DG) Redirec+ons automa+ques des requêtes u+lisateurs vers les DC ac+fs - Services Réseaux Intelligents Cisco GSS (Global Site Selector), Load Balanceur ou LISP
Services PRA Redirection Dynamique des flux Changement Manuel o Basculement validé et contrôlé par le directeur infroma+que GSS (Global Site Selector ou DNS intelligent) o Redirec+ons Intelligentes basées sur les fonc+ons DNS Peut être u+lisé avec le Cisco Load Balancer ACE Peut être u+lisé avec vcenter (VMware) Load Balanceur o RHI Route Health Injec+on (injec+on des routes de Host) o Redirec+on HTTP LISP (IPv4 / IPv6) o Avec ou Sans Extension de LAN o Sécurité / chiffrement LISP avec GETVPN o Support pour Mul+- tenants (Hybrid cloud)
Continuité des Operations
Metro Virtual Data Center (MVDC): Vision Applica+on à Haute Disponibilité & Solu+on de Données s appuyant sur une Architecture physique de 2 Centres de Données jumelés. Concerne tous les niveaux de l infrastructure ü Niveau physique, Niveau Réseau, Niveau Services et Sécurité Réseau, Plateforme, Stockage, Applica+on N- Tier ü Pas de point de défaillance physique unique (100% de redondance) ü U+lisa+on op+misée de la capacité des ressources informa+ques, stockage et réseaux grâce à la virtualisa+on Ges+on et interac+on des applica+ons dans un environnement basé sur les 2 Centres de Données. Distribu+on de la charge de travail et des accès réseaux dans une infrastructure Ac+ve/Ac+ve pour mieux u+liser toutes les ressources plateformes disponibles (accéléra+on du tps de réponse) ainsi que le main+en de la Con+nuité des Services (augmenta+on de la confiance) Au- delà de l aspect résilience pour la Con+nuité des Ops, MVDC peut également supporter un certain niveau de PRA Zéro perte de Données dans un environnement Metro (réplica+on Synchrone, RPO=0)
Cisco Cloud-Centric Networking Cas d usage 1 Internal Data Center Workload increase Request resources 2 Workload Deployed 4 Cloud Data Center 1 2 Besoin de ressources addi+onnelles è Demande de Ressource au niveau du Cloud Vérifier la disponibilité, la performance Déterminer la localisa+on op+mal Cloud Data Center 3 Core Cloud VPN 3 Self- provisionning des Services Réseaux & informa+ques: è Virtual Ressources (réseau, stockage, systèmes, FW, SLB, VPN) Cloud Data Center 4 Charge de travail déployé dynamiquement et de manière transparente Ges+on évolu+ve des Ressources et de l Approvisionnement
Distributed Virtual Data Center Business Drivers Les Centres de Données physiques sont étendus au-delà des sites traditionnels pour former un DC Virtuel. La Virtualisation des Applications a accéléré l interco des PoDs (block d aggregration) ainsi que l interco des DC. Drivers Business Solution Constraints IT Technology Continuité du Service Plan de Reprise d activité HA Framework Stateless (redémarrage des services à froid) Sync des Services Réseaux Sync des Process GSLB Geo-clusters/ HA Cluster VMware SRM Maitrise des coûts Opérationnel Data Center Maintenance / Migration / Consolidation VLAN Extension Distributed Virtual Data Center Optimisation des Ressources informatiques Prévention de Pannes Workload Mobility Stateful Bandwidth Latency Mobilité des VM Cloud Services Inter-Cloud Networking XaaS Flexibilité Mobilité des VM Automation
Centres de Données Virtuels Distribués Les Tendances Mise en place de plusieurs Centres de données pour former le Cloud Centres de Données Distribués: Goals Maintenir la Mobilité des Machines/Applications transparente Distribution des Applications Maximiser les ressources globales de calcul distribuées Continuité des Opérations Interconnexion: Challenges Operations Complexes Dépendance du Transport Contrôle/ Utilisation de la band passante Confiner la Zone de fragilité par site. Geographically Dispersed Data Centers
Driver Continuité des Opérations Clusters à Haute Disponibilité - Local Enterprise Core Cluster VIP Cluster Application such as LAN Microsoft MSCS Vmware Cluster (Local) Solaris Sun Cluster Enterprise Vmware cluster (Local) Heartbeat 1 Heartbeat 2 SAN A Oracle RAC IBM HCMP Ac+ve SAN Standby. SAN B Basculement typique des Cluster en mode Ac+ve/Standby Heartbeats entres les membres du Cluster pour synchronisa+on des status et contrôle des états via un réseau privé ainsi que la VIP du Cluster via un réseau Impose l extension du Réseau de Niveau 2 entre les Membres du Cluster Reconnexion transparente du Client partage de la meme adresse IP (VIP) à Niveau 2 doit être «étendu»
Driver Continuité des Opérations HA Clusters Géographiquement Dispersés entre les Sites Distants Public LAN VIP Cluster Cluster A Node 1 Private LAN Heartbeat Cluster A Node 2 Améliore la disponibilité du Cluster HA pour se protéger contre les catastrophes au niveau du Site. Applica+ons en mode Cluster typiquement imposent l extension des VLANs entre les DC Certaines applica+ons supportent le «clustering» via le réseau routé de L3 entre les sites
Workload Mobility Déploiement Intra-DC DC/POD LAN ESX-A source ESX-B target SAN La Migra+on des Machines Virtuelles augmente la disponibilité des applica+ons Le réseau de Niveau 2 doit être adjacent entre les «hosts» physiques pour le main+en des sessions ac+ves et la transparence du déplacement Un LUN ID iden+que doit être également maintenu pour la préserva+on «stateful» des accès disques.
Virtualized Workload Mobility Déploiement Inter-DC Core Network DCI LAN extension http://cco/go/dci Cisco-VMware With EMC & NetApp Validated Design & Certification for Virtualized Workload Mobility DC 1 DC 2 ESX-A source ESX-B target SAN Mobilité des VM entre sites géographiquement Impose l extension des VLANs concernés et le main+en du meme LUN ID de part et d autres Possibilité d u+lisa+on d Applica+ons de type PRA: Ex: VMware Site Recovery Manager (SRM)
Distributed Virtual DC Le Modèle DCI Extension du SAN DC 1 Réplication Synchrone implique stricte limitation des distances Identifiant du Stockage Actif est un élément clé è Le même LUN ID doit-être maintenu pour une migration sans interruption ESX-A source DC 2 ESX-B target
Distributed Virtual DC Le Modèle DCI Extension du LAN Isolation du STP est un élément clé Support pour le Multipoint Protection des boucles + Storm-Control Unknown Unicast & Broadcast control Solidité des liens (physique ou virtuel) Evolutivité & Convergence DC 1 DC 2 ESX-A source ESX-B target
Distributed Virtual DC Le Modèle DCI Optimisation des chemins Options Egress è Mise en œuvre de la fonction FHRP Filtering Ingress: DC 1 1. Redirection DNS avec ACE et GSS 2. Injection des Routes de Hosts 3. LISP DC 2 ESX-A source ESX-B target
Agenda Interconnexion de Centres de Données distants (DCI): Business Drivers Solution Architecture o Plans de reprise d activité & Continuité de Services o Extension du Stockage o Extension du LAN Conclusions & Q&A
Solutions pour l Extension du Stockage
Déploiement du Stockage dans l environnement DCI Option 1 Stockage Partagé : Défaut / Traditionnel Core Network L2 extension for vmotion Network DC 1 ESX-A source DC 2 Initiator ESX-B target Virtual Center Volumes Target
Déploiement du Stockage dans l environnement DCI Option 2 - NetApp FlexCache (Active/Cache) Core Network L2 extension for vmotion Network DC 1 DC 2 NAS 2 ESX-A source data? Read Write 3 Temp Cache data data ACK 4 2 Read Write ESX-B target 1 data ACK Virtual Center FlexCache ne participe pas au cache du write-back FlexCache répond au Host seulement si/quand le sub-system d origine l approuve No de besoin impératif de protéger Flexcache d un problème électrique hrp://www.cisco.com/en/us/docs/solu+ons/enterprise/data_center/dci/4.0/netapp/dcinetapp.html
Déploiement du Stockage dans l environnement DCI Option 3 - EMC VPLEX Metro (Active/Active) Core Network L2 extension for vmotion Network DC 1 DC 2 Initiator ESX-A source ESX-B target From the Host Virtual Center From the Storage VMAX EMC VPLEX Virtual Layer Target LUNv Initiator Target VPLEX Engine Synchronous Latency requiments LUNv 5ms max CLARiiON EMC VPLEX Engine hrp://www.cisco.com/en/us/docs/solu+ons/enterprise/data_center/dci/4.0/ EMC/dciEmc.html
Redirection des flux Optimization des chemins
Services Réseaux Distribués Effet Ping Pong avec application Multi-Tier Service Réseaux Actifs 144.254.100.0/25 & 144.254.100.128/25 EEM or RHI can be used to get very granular 144.254.100.0/24 Backup for Data Center A ISP A DC A Layer 3 Core ISP B DC B Agg Public Network VLAN A Agg Access ü ü Short distances (campus) Used for DR A/S for long distances Access DB Front-End Data-Base L2 Links (GE or 10GE) 2012 Cisco and/or its affiliates. All rights L3 Links reserved. (GE or 10GE)
Services Réseaux Distribués Effet Ping Pong avec application Multi-Tier Service Réseaux Actifs 144.254.100.0/25 & 144.254.100.128/25 EEM or RHI can be used to get very granular 144.254.100.0/24 Backup for Data Center A ISP A DC A Layer 3 Core ISP B DC B Agg Public Network VLAN A Agg Access ü ü distances courtes (campus) PRA en mode A/S pour longues distances Access DB Front-End Data-Base L2 Links (GE or 10GE) 2012 Cisco and/or its affiliates. All L3 rights Links reserved. (GE or 10GE)
Application Migration and Distributed Services Redirection Dynamique et Optimisation des Chemins Ingress et Egress 144.254.100.0/25 & 144.254.100.128/25 EEM or RHI can be used to get very granular 144.254.100.0/24 Backup for Data Center A ISP A DC A Layer 3 Core Ingress Path Optimization: Clients-Server ISP B DC B Agg Server-Server Path Optimization Public Network VLAN A Agg Access DB ü Déplacement de l ensemble des Tiers de l application ü Optimisation des chemins: Client à Server Server à Server Server à Client Access Front-End Data-Base Egress Path Optimization: Server-Client L2 Links (GE or 10GE) L3 Links (GE or 10GE) Egress Path Optimization: Server-Client
Agenda Interconnexion de Centres de Données distants (DCI): Business Drivers Solution Architecture o Plans de reprise d activité & Continuité de Services o Extension du Stockage o Extension du LAN Conclusions & Q&A
Réseau du Niveau 2 DCI Les Technologies d Extension du LAN et les Modèles de Déploiements
Extension du LAN Les Principaux défits techniques L2 control-plane ü Extensibilité du Domaine STP ü Isolation de la Zone a risque due au STP ü L2 Multi-Homing L2 data-plane ü Data-plane flooding & Broadcast-Storm control ü Apprentissage des adresses MAC sur la Destination Transport Inter-site ü Protection des Liens Long distance avec «Fast Convergence» ü Point to Point & Multi-points bridging ü Chemins Diversifiés ü Répartition des flux sur les informations de niveau 2 ü Optimisation des Chemins en Entrée et Sortie ainsi qu entre les servers (multi-tier) et les services réseaux ü LAN Extension via un réseau de Niveau 3 (IP, MPLS) ü Optimisation du Trafic Multicast Les défis de la technologie: ü Le niveau 2 natif reste fragile ü IP n est pas mobile
Interconnexion des Centres de Données Permerre l Extension des VLAN entre les Sites Distants Path Op+miza+on STP domain Any type of links STP Domain isola+on + Storm- control STP domain Dual- Homing STP domain GW ALT GW Si ALT Si ALT Si Si GW DC1 DC2 DC3 Storage extension
Extension des VLAN Critères de Sélection pour les Technologiques de mise en oeuvre Technology Nature Ethernet MPLS IP Ø VSS & vpc or FabricPath Multi-Chassis EtherChannel (MCEC) pour l interconnexion des dual-sites FabricPath Pour les déploiements multi-sites Via la Fibre Noire ou D-WDM en mode Protégé Chiffrement de bout en bout facilité via 802.1AE (vitesse du lien) Ø EoMPLS & A-VPLS & H-VPLS L2oL3 pour la protection des liens (Fast detection & convergence / Dampening) Déploiement Style PE Large capacité d évolution & Multi-tenants Peut être utilisé avec des tunnels GRE Adapté aux Grandes Entreprises et SP Ø OTV L2oL3 pour la protection des liens (Fast detection & convergence / Dampening) Déploiement Style CE Adapté à la plupart des Enterprises ou des SP (DCI managed Services) Intégration transparente avec le Cœur du Réseau Supporte n importe quel type de Transport Innovation Cisco avec MAC Routing Selection Criteria
Conclusion
Distributed Virtual DC Le Modèle DCI Interconnexion de Centres de Données Virtualisés L2 Domain Elasticity - Local LAN Fabric - Extended LAN fabric IP Localization - Optimal Routing OTV OTV Service Localization - Any service anywhere Fabric Consolidation - Unified Fabric & I/O - Device Virtualization - Segmentation OTV OTV VN-link notifications Storage Elasticity - SAN Extensions VM-awareness - VN-link - 2Q
Distributed Virtual DC Les Bons Papiers HTTP://WWW.CISCO.COM/GO/DCI ü Cisco Overlay Transport Virtualiza+on Technology Introduc+on and Deployment Considera+ons Whitepaper ü Data Center Interconnect: Layer 2 Extension Between Remote Data Centers ü Distributed Virtual Data Center for Enterprise and Service Provider Cloud ü Enhanced Business Con+nuance with Applica+on Mobility Across Data Centers (PDF - 1 MB) ü LAN Extension Using MC- LAG to VPLS on the Cisco ASR9000 hpp://yves- louis.com/dci