MISE EN PRODUCTION DE LA PLATE-FORME DE VIRTUALISATION SOUS PROXMOX V2



Documents pareils
Retour d expérience de la plateforme de virtualisation sous Proxmox VE à l IPHC journée SysAdmin du 04/12/2014 à l INRA de Toulouse

Sébastien Geiger IPHC Strasbourg

Sébastien Geiger IPHC Strasbourg

au Centre Inter-établissement pour les Services Réseaux Cédric GALLO

La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience. Rodérick Petetin CRI INSA Rennes

vsphere 5 TP2 La virtualisation avec VMware CNFETP F. GANGNEUX technologie GANGNEUX F. 17/12/2012

Stockage des machines virtuelles d un système ESXi jose.tavares@hesge.ch & gerald.litzistorf@hesge.ch

Solutions de conversion P2V et V2V (v2.1)

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

VMware View Virtualisation des postes de travail (architecture, déploiement, bonnes pratiques...)

Kernel based Virtual Machine

La plate forme VMware vsphere 4 utilise la puissance de la virtualisation pour transformer les infrastructures de Datacenters en Cloud Computing.

VMware ESX/ESXi. 1. Les composants d ESX. VMware ESX4 est le cœur de l infrastructure vsphere 4.

La Continuité d Activité

Debian Lenny - Virtualisation avec Libvirt/KVM Debian GNU/Linux

Le Cloud Open-Mind! Emilien Macchi

Présentation OpenVZ. Marc SCHAEFER. 9 janvier 2009

Table des matières. 1. Installation de VMware ESXI Pré-requis Installation... 3

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

vbladecenter S! tout-en-un en version SAN ou NAS

Plan de cette matinée

VMotion ne peut fonctionner qu avec une architecture de stockage centralisé de type SAN FC, iscsi ou NAS.

Kernel based Virtual Machine

Veeam Backup & Replication

Informatique en nuage Cloud Computing. G. Urvoy-Keller

en version SAN ou NAS

Installation d une architecture VMware Infrastructure 3 : Bilan et perspectives

JOSY VIRTUALISATION 9 ET 10 JUIN 2011 POSTE DE TRAVAIL ET VIRTUALISATION. Sébastien Geiger IPHC

Table des matières. A - Introduction 13. B - Qu'est-ce que la virtualisation? 13

Les méthodes de sauvegarde en environnement virtuel

Visualization sur Ubuntu: Quels Choix? Nicolas Barcet

Nouveautés VMware vsphere 5.0 et retour d expérience d un upg

Installation de ndv 5

Genèse de l'installation Alban Peignier

Table des matières 1. Introduction. 1. Avant-propos Remerciements Chapitre 1 Virtualisation de serveurs

Le Ro le Hyper V Premie re Partie Configuration et Prise en main du gestionnaire Hyper-V

Manuel d installation serveurs

Utilisation de matériels industriels avec des outils de virtualisation open source. Open Source dans le monde industriel

vmware au CC-IN2P3 Déploiement rapide d une infrastructure destinée à de la formation et réflexions sur vsphere.

Commandes Linux. Gestion des fichiers et des répertoires. Gestion des droits. Gestion des imprimantes. Formation Use-IT

Manuel d utilisation de ndv 4

Année Universitaire ième année IMAC Mardi 6 janvier Cloud computing Travaux Pratiques

Etude d architecture de consolidation et virtualisation

Edition de février Numéro 1. Virtualisation du Poste de Travail

Mise en œuvre de la virtualisation à l IGBMC. Guillaume Seith Remy Fritz

CREER UNE VM DANS WORKSATION. Créer un Virtual Machine dans VMware Workstation 9

Virtualisation et le hosting. Christophe Lucas Sébastien Bonnegent rouen.fr>

INSTALLATION DEBIAN 7 (NETINSTALL) SUR VM

Hyper-V v2 : une évolution majeure des services de virtualisation

Mise en œuvre d une infrastructure de virtualisation au CNRGV

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Travail de Bachelor Cloud Management. : Mr. Gérald Litzistorf : Mr. Benoît Chalut : benoitchalut@gmail.com

Table des matières. 1. Installation de VMware ESXI Pré-requis Installation... 5

En ce moment (24/01/2014), Super bon plan: Micro Serveur HP Proliant G7 N54L à 159 ttc Plus d'informations sur dealabs.com

Red Hat Enterprise Virtualization. Architecte Sénior michaellessard

L INFORMATIQUE SOUS FORME DE SERVICE POUR VOTRE ENTREPRISE. Farid BENREJDAL Senior Systems Engineer VMware

Edito. Optimisation de la gestion d une Infrastructure Virtuelle. Questions / Réponses Amosdec Q Numéro 7

APPEL D OFFRE A PROCEDURE ADAPTEE MIGRATION SERVEURS WINDOWS. Cahier des Charges

MIGRATION ANNEXE SAINT YVES. 1 : L existant. Pourquoi cette migration Schéma et adressage IP. 2 : Le projet. Schéma et adressage IP.

Getting Started. 10 étapes pour bien démarrer. Avant de démarrer. Première connexion PCC

Tutoriel déploiement Windows 7 via serveur Waik

PACKS DE VIRTUALISATION HP

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

PRESENSTATION VMWARE ESXi NOTION DE MACHINE VIRTUELLE

Sommaire de la journée

Architecture de serveurs virtualisés pour la communauté mathématique

Cloud public d Ikoula Documentation de prise en main 2.0

Spécifications techniques

IDEC. Windows Server. Installation, configuration, gestion et dépannage

Description du logiciel Acronis Backup & Recovery 11.5

Guide d évaluation de VMware vsphere 5.0

Virtualisation des Serveurs et du Poste de Travail

Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM

SAN AoE (ATA over Ethernet)

Veeam Backup & Replication v6

Cloud Computing. Groupe : Vincent, Mohammed, Yannick, Allan Tuteur : Mr. NUSSBAUM Lucas Année : 2009/2010

Retrospect 7.7 Addendum au Guide d'utilisation

Conseils et astuces pour un déploiement réussi de la solution VMware Mirage

Présentation. NOUVEAU Prise en charge des derniers environnements virtuels VMware ESX 3.5, Microsoft Hyper-V et Citrix XenServer 4.

Monsieur Karim Korso

Installation d une architecture VMware Infrastructure 3 : Bilan et perspectives

Symantec Backup Exec Remote Media Agent for Linux Servers

Migration vers l'open-source de l infrastructure de pare-feu du campus CNRS d Orléans

Les hyperviseurs leaders du marché qui ont fait leurs preuves en production

Service Cloud Recherche

Configuration Cluster, DRS, HA, DPM et FT

Gestion des Appliances. M. AIRAJ Ecole Informatique IN2P

Veeam Backup and Replication

VMWARE VSPHERE ESXI INSTALLATION

arcserve r16.5 Protection des données hybride

Red Hat Enterprise Virtualization 3.0 Instructions d'installation et informations importantes

ACQUISITION DE MATERIEL INFORMATIQUE

Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5

MIRAGE VMWARE Solution de gestion d images en couches qui sépare le PC en plusieurs couches logiques. Olivier Emery

2 disques en Raid 0,5 ou 10 SAS

FOURNITURE ET INSTALLATION DE MATERIELS ET DE LOGICIELS INFORMATIQUES

Transcription:

MISE EN PRODUCTION DE LA PLATE-FORME DE VIRTUALISATION SOUS PROXMOX V2 Le 17/12/2013

Sommaire 2 Calendrier des actions Installation et configuration du matériel Test de fonctionnement KMS, live migration, configuration réseau, HA Migration des serveurs (P2V et V2V) Gestion des machines virtuelles Montée en charge Astuces Evolution Bilan

Calendrier 3 Achat du matériel 07/2012 Installation et configuration 08/2012 Vérification des fonctionnalités 09/2012 Migration des serveurs de 09/2012 à 03/2013 Mise à jour Proxmox 2.2 le 24.10.2012 Proxmox 2.3 le 03.01.2013 Extension de la solution Achat matériel (07/2013) blade 2500 + R720 3500 + 2*M620 7000 Ajout nouveau matériel 10/2013 Définition plan de reprise

Installation de la solution 4 Mise à disposition de 8 lames M600 pour réaliser 2 clusters de 4 nœuds. Installation du serveur NFS Installation du système ScientificLinux 6.3 Configuration du réseau et du bonding Configuration du raid6 de 6To avec disque de spare Création de deux volumes de 3To sous ext4 sur un LVM Export de l espace disque Configuration des outils de surveillance (Nagios, OpenManage) Installation des clusters Proxmox Installation de Proxmox v2.1 Activation du support pour la virtualisation : grep -E 'vmx svm' /proc/cpuinfo Création des 2 clusters de 4 noeuds Configuration des montages NFS Configuration des autorisations d accès et des groupes des vms Configuration des règles de backup Rédaction de la documentation d installation

Matériel 5 Stockage : Dell R720 + MD1220 Serveur NFS v3 Nœuds de virtualisation 8 lames M600 (8 core 2,5Ghz 16Go Ram) Châssis M1000e vm1 vm2 Proxmox Cluster 1 vm3 vm4 Proxmox Cluster 2 backup image NFS

6 Vérification des fonctionnalités KSM (Kernel Samepage Merging) Live migration Configuration réseau bonding Support Multicast Mode HA

KSM (Kernel Samepage Merging) 7 KSM permet au kernel Linux de partager les mêmes pages mémoires Par défaut Proxmox active le module ksm depuis la version 1.9 # grep. /sys/kernel/mm/ksm/* pages_shared : nombre de pages réellement utilisées par KMS pages_sharing : nombre de pages globalement partagé pages_volatile : les pages qui changent trop rapidement Utilisation avec 2 VM Linux et 2 VM Windows 8Go sans KSM 1Go après 6 minutes

Live migration 8 Déplacement d une VM en fonctionnement Temps de transfert < 30s Temps de coupure réseau < 20ms Pas de perte de connexion via ssh sur la VM Réponse au ping pendant la tâche de migration Reply from 193.48.86.223: bytes=32 time<1ms TTL=63 Reply from 193.48.86.223: bytes=32 time=43ms TTL=63 Request timed out. Request timed out. Reply from 193.48.86.223: bytes=32 time<1ms TTL=63 Reply from 193.48.86.223: bytes=32 time<1ms TTL=63

Configuration réseau et bonding 9 Configuration 4 liens sont agrégés sur le serveur de stockage. mode 4 : 802.3ad augmente la bande passante et la tolérance de panne implique que le switch gère le 802.ad et les interfaces soient compatibles mii-tool et/ou ethtool Mode de test Iperf s sur le serveur de stockage et iperf -c serveur -t 600 sur les nœuds lancement de trois clients décalés de 60s arrêt de 1, puis 2, puis 3 interfaces sur les 4 toutes les 60s mesure du débit avec sar n DEV vérification des erreurs de transfert

Kb/s Configuration réseau et bonding 10 500000 bonding émission 400000 300000 200000 100000 em1 em2 em3 em4 bon0 0 10 40 70 100 130 160 190 220 250 280 310 340 370 400 430 460 490 520 550 580 610 640 670 700 730 760 790 820 850-100000 -200000

10 30 50 70 90 110 130 150 170 190 210 230 250 270 290 310 330 350 370 390 410 430 450 470 490 510 530 550 570 590 610 630 650 670 690 710 730 750 770 790 810 830 850 Configuration réseau et bonding 11 700000 bonding réception 600000 500000 400000 300000 200000 100000 0-100000 -200000 em1 em2 em3 em4 bon0

Configuration du Multicast 12 L «igmp snooping» est une fonction qui permet d optimiser la diffusion des trames multicast en observant le trafic IGMP sur un switch. Fonction activée par défaut sur le matériel Cisco Cette fonction peut filtrer des informations échangées entre les nœuds de virtualisation. Il est conseillé de la désactiver # conf t # no ip igmp snooping Test multicast Utiliser omping depuis les différents nœuds omping node1 node2 node3 Utiliser ssmpingd et asmping entre deux nœuds. From node1 : ssmpingd Then from node2 : asmping 224.0.2.10 ip_for_node1

Configuration en Unicast 13 Problèmes de stabilité 4 nœuds maximum Limite l ajout à chaud d un nouveau nœud Passage en Unicast Ajouter transport="udpu" dans /etc/pve/cluster.conf.new <cman keyfile="/var/lib/pve-cluster/corosync.authkey" transport="udpu"/> Activer les modifications via l interface de gestion Ajouter tous les nœuds dans /etc/hosts et rebooter Avant d ajouter un nouveau nœud mettre à jour /etc/hosts sur tous les nœuds

Mode Haute Disponibilité 14 Prérequis pour le mode HA 3 nœuds minimum Espace de stockage partagé (NFS, NAS, SAN) La configuration des «fencing devices» Redémarrer une vm automatiquement Si elle est arrêtée ou crachée Si le nœud de virtualisation s arrête ou ne répond plus Test Arrêt d une vm en HA Arrêt forcé d un des nœuds du cluster Redémarrage de la vm sur un autre nœud Pas de conflit après le retour du nœud arrêté

15 Migration des serveurs Serveurs physiques sous Linux Serveurs virtuels sous Vmware Serveur physique sous Windows Pilote de paravirtualisation pour Linux pour Windows

Migration des serveurs 16 Serveur physique sous Linux Pas de vielles machines Distribution ScientificLinux 6.2 x64 Kernel 2.6.32 supporte par défaut des modules virtio (disque et net) Uniformisation des distributions

Migration des serveurs 17 Serveur Virtuel sous VMware Désinstaller les VMware Tools Rajouter le support des disques IDE au système Linux: reconfigurer les LVM Windows voir la KB314082 Arrêt du serveur et conversion de l image disque Sous Proxmox utiliser des disques de taille fixe. Si le disque VMware est dynamique, le convertir en disque de taille fixe avec l outil vmware-vdiskmanager. Ensuite convertir celui-ci en disque au format qcow2 # qemu-img convert myvmwflatimage-pve.vmdk -O qcow2 myvmwflatimagepve.qcow2 sous Proxmox, définir une nouvelle VM, et remplacer le disque virtuel avec le fichier qcow2 Reconfiguration les périphériques (virtio, Net, vidéo)

Migration des serveurs 18 Serveur physique sous Windows Préparer le serveur en rajoutant les pilotes IDE Standard vérifier la présence Atapi.sys, Intelide.sys, Pciide.sys, et Pciidex.sys dans le répertoire %SystemRoot%\System32\Drivers. Activer les pilotes IDE au démarrage avec le fichier Mergeide.reg (voir la procédure complète depuis http://support.microsoft.com/kb/314082/) Configurer une nouvelle VM sur Proxmox Définir le nombre de CPU, la RAM et une carte réseau en mode NAT Définir le contrôleur disque en IDE avec le même nombre de disques mais de taille de 1Go Depuis le poste de capture Installer VMware Vcenter Converter Standalone Client Démarrer une nouvelle capture et sélectionner Select source type : powered-on machine specify the powered-on machine : A remote machine, puis fournir les informations de connexion Select destination type: VMware Workstation or other VMware virtual machine Select VMware Product: VMware Workstation 8.0.x Name: Saisir le nom du serveur Select a location for the virtual machine: définir un répertoire de destination Image disque Choisir une taille fixe pour l image disque. Il est possible de redéfinir la taille des disques virtuels à la hausse ou à la baisse

Migration des serveurs 19 Transférer l image disque vmdk vers Proxmox par scp dans /mnt/pve/datastore/images/vmid/ Convertir l image vmdk en qcow2 depuis un des nœuds du cluster Proxmox # qemu-img convert myvmwflatimage-pve.vmdk -O qcow2 myvmwflatimage-pve.qcow2 Remplacer les disques temporaires par les disques qcow générés Démarrage de la machine virtuelle clonée détection de périphérique (réseau, carte vidéo, contrôleur IDE, souris) redémarrer le serveur vérifier si les logiciels ou services fonctionnent correctement désinstaller les anciens pilotes raid ou scsi désinstaller l agent de capture vmware désinstaller des outils de surveillance matérielle (OpenManage) Synchronisation des documents via la connexion NAT Arrêt du serveur physique et transfert de l ip vers la VM Passage de la connexion réseau en mode bridge Vérification de la reprise des services et de la montée en charge

Migration des serveurs 20 Pilote de paravirtualisation Pour Linux Kernel 2.6.32 supporte par défaut les modules virtio (disque, net et balloon) Pour Windows Pour augmenter les performances réseaux et d accès disque, il est conseillé d utiliser les pilotes virtio fournis sous forme d ISO depuis http://alt.fedoraproject.org/pub/alt/virtiowin/stable/ Arrêter la VM Ajouter un nouveau disque virtio temporaire (1Go) depuis l interface de gestion Ajouter le cdrom des drivers virtio pour Windows Démarrer la VM et ajouter le pilote virtio pour reconnaitre le disque temporaire Arrêter la VM Supprimer le disque temporaire virtio (1Go) Changer le type de disque de boot en virtio Démarrer la VM, Windows boote sans problème et sans écran bleu Pour plus d information voir : http://pve.proxmox.com/wiki/paravirtualized_block_drivers_for_windows

Serveurs virtualisés 21 21 VMs en production, 5 VMs en pré-test 10 serveurs Windows (contrôleur de domaine, accès au bureau à distance, serveurs antivirus, serveur d impression, PXE, Ms SharePoint) 6 serveurs Linux (outils de supervision, Owncloud, Annuaire LDAP, base de données Mysql, apache) 4 Images des systèmes de référence pour le déploiement par PXE Outils de compilation de circuit électronique (Xilinx) 5 Serveurs de pré-production pour tester des logiciels ou des scripts de déploiement

Gestion de VMs 22 Pour chaque VM, un administrateur est nommé. Celui-ci aura le rôle Pvevmuser lui permettant pour cette VM : l accès à la console distante l arrêt et le redémarrage la sélection de l image contenue dans le CD-Rom Les administrateurs de la plateforme ont un accès global à tous les paramètres la création et la configuration des VMs la configuration des règles de backup et la réalisation des opérations de restauration la migration en live des VMs sur un autre nœud la connexion par ssh sur les nœuds la mise à jour de la solution

Backup et restauration 23 Proxmox fournit un gestionnaire de sauvegarde et de restauration Sauvegarde complète en live, mode suspendu, arrêt démarrage Pas de sauvegarde incrémentale Définition des créneaux horaires pour la sauvegarde Politique de sauvegarde : Les VMs en production sont sauvegardées intégralement une fois par semaine avec un maximum de 2 historiques par VM. Les VM qui intègrent des fichiers utilisateurs sont sauvegardées sur bande avec les clients de sauvegarde traditionnelle. Il est bon d avoir un miroir des backups des VMs sur un autre espace que celui du serveur NFS

Charge des différents nœuds 24 Evolution cpu, load, mémoire, net au fur et à mesure de l ajout de nouvelles machines

Charge des différents nœuds 25 Répartition des VMs Trafic induit par les sauvegardes

Trafic du Serveur NFS 26 Evolution du trafic du serveur NFS du 11-25/11/2013 Vendredi backup FULL de toutes les VMs Windows Samedi et dimanche backup des VMs par Proxmox En semaine backup classique (rsync ou arcserv) des VMs La charge en journée est relativement faible

Astuces 27 Démarrage automatique des VMs Après un démarrage du cluster Proxmox, il est possible de définir les VMs à démarrer automatiquement ainsi que l ordre de démarrage avec les paramètres suivants : Démarrage au boot : oui ou non Ordre de démarrage : ordre de priorité pour le démarrage. 1 est la priorité la plus haute Délais de démarrage : délais à respecter avant de démarrer une autre vm. Temps d arrêt : temps après lequel la VM est arrêtée de force si elle ne répond pas au signal d arrêt. Par défaut c est 180 secondes pour les VMs sous KVM

Astuces 28 Arrêt des VMs Proxmox utilise l interface ACPI pour envoyer un signal aux VMs à éteindre. Cela nécessite l activation du support de l ACPI au niveau du système. Sous Linux vérifier que le daemon ACPI est installé et démarré. Sous Windows, autoriser l arrêt de la machine via une GPO par : Computer Configuration\Windows Settings\Security Settings\Local Policies\Security Options\Shutdown: Allow system to be shut down without having to log on.

Astuces 29 Par défaut la commande «du» affiche la taille utilisée d un disque virtuel sur l espace de stockage. Pour avoir la taille effective, il faut rajouter l option «--apparentsize» # du -h 5.7G. # du -hs --apparent-size 41G. Gestion des VMs en ligne de commande qm list, migrate, start, shutdown Vérifier l état du cluster pvecm status, pvecm nodes, /var/log/syslog

Evolution 30 Plan de reprise entre le bâtiment 25 et le bâtiment 60 Installation 2 ème serveur de stockage au bâtiment 60 Installation des lames et configuration du Cluster numéro 3 Configuration de la fonction «Storage live migration» Réplication des backups des VMs du bâtiment 25 Plan de reprise des VMs via une restauration du backup

Evolution Proxmox 3.1 31 Fonctionnalités Live storage migration, Templates, Spice, GlusterFS storage Changement de politique Mise à jour Enterprise Repository / No-Subscription Repository http://forum.proxmox.com/threads/15742-details-about-the-new-pve-nosubscripton-repository Prix par CPU et par mois Community 4 Basic 17 Standard 33 Premium 66 http://www.proxmox.com/proxmox-ve/pricing Arrêt du support Proxmox 2.x

Bilan 32 21 VMs en production et 5 VMs en pré-test Virtualisation sous Proxmox Produit complet, stable et supporte la montée en charge Nécessite de bien se documenter Suivre les évolutions de Proxmox (passage à la version 3.x) Gain en salle serveur Place :10 serveurs (16u) + 2tours + 1DLT contre 5u (1/2 blade)+ 4u serveur NFS Energie : 3,4Kw contre 1,6Kw Performance : les anciens serveurs avaient 6 ans (gain en RAM et CPU). Exemple pour la VM de compilation, un gain de 50% a été mesuré. Solution extensible, il reste de la place pour d autres VMs Si besoin de monter en charge Transfert des VMs sur la solution Cloud sous OpenStack de l IPHC.