Data Grid explorer: une plate-forme d émulation de grilles



Documents pareils
Contributions à l expérimentation sur les systèmes distribués de grande taille

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr

Plan du cours. Incarnations/applications du Grid Computing. Super-calcul virtuel

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

ViSaGe. Virtualisation du Stockage dans les Grilles. Informatiques. RenPar 16, 6-8 Avril 2005 Thiebolt François

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

Infrastructures Parallèles de Calcul

Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair

CONTRIBUTIONS À L EXPÉRIMENTATION

Cours 13. RAID et SAN. 2004, Marc-André Léger

Technique et architecture de l offre Suite infrastructure cloud. SFR Business Team - Présentation

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Grid5000 aujourd'hui : Architecture & utilisation

Les environnements de calcul distribué

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

Virtualisation & Sécurité

IPv6: from experimentation to services

Parcours en deuxième année

Disponibilité et fiabilité des services et des systèmes

Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS

Architectures d implémentation de Click&DECiDE NSI

1. Introduction à la distribution des traitements et des données

Limitations of the Playstation 3 for High Performance Cluster Computing

Gestion répartie de données - 1

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

«clustering» et «load balancing» avec Zope et ZEO

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.

Tests de performance du matériel

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

en version SAN ou NAS

Protection des données avec les solutions de stockage NETGEAR

La virtualisation, des postes de travail

Détection d'intrusions en environnement haute performance

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre Systèmes et Technologies de l Information

Caches web. Olivier Aubert 1/35

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Virtualisation et le hosting. Christophe Lucas Sébastien Bonnegent rouen.fr>

Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM

CA ARCserve r16 devance Symantec Backup Exec 2012

Prise en compte des ressources dans les composants logiciels parallèles

Communications performantes par passage de message entre machines virtuelles co-hébergées

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine Slimane.bah@emi.ac.ma

Square-IT-Consulting. Présentation

TESTING NETWORK HARDWARE

Cloud Computing. Introduction. ! Explosion du nombre et du volume de données

Consolidation. Grid Infrastructure avec la 11gR2

Architecture de la grille

vbladecenter S! tout-en-un en version SAN ou NAS

Robin Favre Fabien Touvat. Polytech Grenoble RICM 3 ème Année Vendredi 21 Novembre 2008 Etude d Approfondissement Réseau

Bonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX

Livre blanc Haute disponibilité sous Linux

Teste et mesure vos réseaux et vos applicatifs en toute indépendance

Lab Westcon-F5-Vmware. Frédéric Nakhle Directeur technique Westcon Nicolas Berthier Consultant Avant-vente F5

Description des UE s du M2

Mise en œuvre de la virtualisation à l IGBMC. Guillaume Seith Remy Fritz

Veille technologique sur l observatoire de l internet

Ces deux machines virtuelles seront installées sous VMWARE WORKSTATION.

Le socle de sécurité nouvelle génération Consolider, virtualiser et simplifier les architectures sécurisées

CORBA haute performance

Les réseaux de campus. F. Nolot

La tête dans les nuages

Service Cloud Recherche

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription

vsphere 5 TP2 La virtualisation avec VMware CNFETP F. GANGNEUX technologie GANGNEUX F. 17/12/2012

Copyright Eurice Diffusion interdite

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes

Les Content Delivery Network (CDN)

Infrastructure de calcul du CRRI

Système d administration autonome adaptable: application au Cloud

SRS DAY: Problématique liée à la virtualisation

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE

Sébastien Geiger IPHC Strasbourg

Date Titre de la présentation COMMENT VÉRIFIER LES PERFORMANCES RESSENTIES PAR L UTILISATEUR D UNE APPLICATION MOBILE JANV 2015

HSCS 6.4 : mieux appréhender la gestion du stockage en environnement VMware et service de fichiers HNAS Laurent Bartoletti Product Marketing Manager

Plan de cette matinée

Plan de la conférence. Virtualization. Définition. Historique. Technique. Abstraction matérielle

2 disques en Raid 0,5 ou 10 SAS

L état de l ART. Évolution récente des technologies. Denis Szalkowski Formateur Consultant

Performance et usage. La différence NETGEAR - R7000. Streaming HD illimitée

Emulation d un nuage réseau de grilles de calcul: ewan

Symantec Endpoint Protection Fiche technique

Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace

PREREQUIS TECHNIQUES ETAFI DECISIV. PRT ETAFI Decisiv 12/2014 Page 1 sur 16

au Centre Inter-établissement pour les Services Réseaux Cédric GALLO

VMWare Infrastructure 3

La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience. Rodérick Petetin CRI INSA Rennes

Présentation Infrastructure DATACENTRE

StruxureWare Power Monitoring v7.0. La nouvelle génération en matière de logiciel de gestion complète d énergie

Architecture des ordinateurs

Revue d article : Dynamic Replica Placement for Scalable Content Delivery

VMWARE VSPHERE ESXI INSTALLATION

Configuration du serveur ESX

2011 : l'année où tout va changer en matière de sécurité

Chapitre IX : Virtualisation

Pré-requis techniques

Installation d une architecture VMware Infrastructure 3 : Bilan et perspectives

Agrégation de liens xdsl sur un réseau radio

Transcription:

Data Grid eplorer: une plate-forme d émulation de grilles Franck Cappello, Pascale Primet, Olivier Richard, Christophe Cérin, Pierre Sens ACI Masses de Données

Plan de l exposé Contexte des grilles Problématique de l émulation L approche GD Les projets sur GD DGD Paristic 2005 2

2 types de grands systèmes distribués Contexte Les Grilles de calcul ou «GRID» Les systèmes distribués à grande échelle PC -> Les systèmes de Calcul Global -> Les systèmes Pair à Pair Grands sites de calcul Clusters Caractéristiques des nœuds : <1000 Stables Identification individuelle Confiance ~100 000 Volatiles Pas d ident individuelle Pas de confiance DGD Paristic 2005 3

Temps 1995 Perspective historique 1999 Aujourd hui CLUSTER GRID CALCUL GLOBAL I-WAY NOW Meta-Computing Cycle stealing Condor Internet Comp. Javelin,C, Atlas, charlotte Beowulf Globus, Ninf, Legion, Netsolve Cluster of Cluster DataGrid, GGF Distributed.net SETI@Home COSM UD Grands Clusters OGSA BOINC Clusters très haute densité WSRF (Web S.) tremweb P2P Distributed Systems DNS, mail Napster, Gnutella, Freenet Kazaa DHT: Pastry, Tapestry, Can Chord DGD Paristic 2005 4

Défis des grands systèmes Difficultés : Passage à l échelle => changement de problématique Délai de transmission variable Grand nombre de ressources Fautes Dynamicité Sécurité Hétérogénéité } Pas d'état global Développement de nouveaux systèmes et algorithmes : Prise en compte de la topologie approche hiérarchique Prise en compte de l incertitude - algorithmes «indulgents» Tolérances aux fautes Importance d expérimenter, dimensionner, calibrer, comparer les protocoles et les algorithmes DGD Paristic 2005 5

Outils de validation log(coût) OS réel Applications réelles Plates-formes In-lab Conditions synthétiques OS réel Applications réelles Plates-formes réelles Conditions réelles Modèles: Sys, apps, Plates-formes, Conditions Algo (noyau d application) Plate-forme virtuelle Conditions synthétiques log(réalisme) Math Simulation Emulation Systèmes Réels DGD Paristic 2005 6

Systèmes existants : Simulateurs Simulateurs à événements discrets Dédiés à un type d expériences Pour les grilles : SimGrid / SimGrid2 (Univ. San Diego / ENS Lyon) GridSim (Univ. Melbourne) fi Dédiés aux études sur l ordonnancement sur grilles fi Nombre de sites limités (~100) Pour les systèmes pair-à-pair : SimPastry (Microsoft) Large Scale Simulateur LS3 (Univ. Paris 6 / INRIA) DGD Paristic 2005 7

Systèmes existants Emulateurs : Netbed - emulab (Univ. Utah) Wan In Lab (Caltech) Systèmes réels : Planetlab (consortium): Sites distribués sur Internet (Nov. 2005 : 631 noeuds sur 298 sites) Conditions réseaux réelles Non reproductibilité Nombre de CPU faibles Très fortes charges DGD Paristic 2005 8

Netbed Description de la topologie => NS script Utilisation de Dummynet Outils de Mapping routeur_logique => machine physique Utilisation du simulateur NSE (ns emulation) Utilisation de noeuds exterieurs client (40 DSL) Environ 200 noeuds, partagés par les expériences DGD Paristic 2005 9

Wan In Lab Wireless Components Server Server ServerServer Server Server Server Server Server Server ServerServer Wireless Components Server Server Server Linux Farm OSPF Area: 10 To HEP Network (10GE) 192.168.10/24 CISCO 7613 (Bottleneck Rtr) ITANIUM - 10GE Server 10.0.3/24 Itanium - 10GE Server 10.0.3/24 10GE ONS 15454 Site A 10.0.1/24 OC- 48 OC-48 : 3000km OC-48 : 100km 10GE OC-48 OC-48 10.0.2/24 ML-Series Nework Module ONS 15454 Site B ONS 15454 Site D 10GE : 100KM 10GE : 100KM OC-48 : 3000KM 10GE: 100km 10.0.2/24 ML-Series Nework Module ONS 15454 Site C ONS 15454 Site E 10.0.4/24 OC-48 OC-48 : 100km OC-48 : 3000km OC- 48 OC-48 192.168.30/24 CISCO 7613 (Bottleneck Rtr) 10.0.5/24 ONS 15454 Site F OPTICAL NETWORK 10GE 10GE ITANIUM 10GE Server 10.0.3/24 ITANIUM 10GE Server 10.0.3/24 Server Server Server Linux Farm OSPF Area:30 6 Cisco ONS15454 4 routers 10s servers Wireless devices 800km fiber ~100ms RTT 10.0.4/24 10.0.1/24 10.0.5/24 CISCO 7613 (Bottleneck Rtr) ML-Series network module ML-Series Nework Module CISCO 7613 (Bottleneck Rtr) 192.168.20/24 10.0.2/24 10.0.2/24 192.168.40/24 Server Server Server Linux Farm Wireless Components Wireless Components Server Server Server Linux Farm OSPF Area: 20 ServerServerServerServer Server Server Server Server Server Server ServerServer OSPF Area: 40 DGD Paristic 2005 10

Système réel : PlanetLab Nombre de nœuds réduit (Novembre 2005 632 nœuds sur 298 sites) Expériences réelles : base de mesure pour calibrer les outils (simulateurs / émulateurs) Non reproductibilité DGD Paristic 2005 11

Data Grid eplorer Plate-forme expérimentale mutualisée à l échelle nationale ACI Masse de Données INRIA CNRS Région IdF ACI Masses de Donnée s DGD Paristic 2005 12

Positionnement de Grid eplorer log(coût) Grid 5000 Grid eplorer SimGrid MicroGrid Bricks NS, LS3 etc. Model Protocol proof Perte des conditions expérimentales réelles Perte de la reproductibilité des conditions expérimentales Math Simulation Emulation Systèmes réels log(réalisme) DGD Paristic 2005 13

GD : Les objectifs Cluster pour expérimentation Grid et P2P Ce n est pas un environnement de production Emuler les systèmes à large échelle Virtualisation de nœuds : Grid (~10 000 nœuds) Pair-à-pair (de 100 000 à plusieurs millions de nœuds) Emulation de longues distances : Liaisons nationales (20ms) et transcontinentales (300ms) Observation : Journalisation, Sondes pour observer points chauds Reproductibilité Base de Fichiers et de Scripts de configuration Reconfigurations : Systèmes de déploiement automatique d applications et de noyaux DGD Paristic 2005 14

Emulation Principe : Un cluster dédié aux expérimentations à large échelle Exécution d applications réelles dans un environnement contraint Propriétés attendues : Proche de la réalité (dépendant de la taille du cluster) Reproductibilité des mesures Observation fine des phénomènes Reconfigurabilité : possibilité de tester différentes configurations logicielles et matérielles DGD Paristic 2005 15

Emulation: Briques de bases Routeurs logiciels et émulation de distance: Topologie virtuelle: Réseau d overlay Emulation de distance: Ajouts de latence, sauts (hops) Emulation ou génération de charge Taux d erreurs & Variation de latence Outils logiciels ou matériels: Dummynet (FreeBSD), NISNet & netem(linux), Modelnet (FreeBSD) FPGA: GNET1 et GNET10, Network processors Virtualisation de sites Virtualisation de nœuds logiques sur 1 nœud physique Partage équitable de ressource (CPU, Mémoire) Limiter les effets de bord Outils : Vserver, en, User Mode Linux DGD Paristic 2005 16

Principe Cluster dédié Grilles Emulateur de lien &routeur Logiciels Commutateur x gigabits Virtualisation Liens Gigabits Nœuds de calcul Virtualisation Systèmes P2P FAI PC FAI PC FAI PC PC Cœur de réseau FAI DGD Paristic 2005 17

Principe : «boucle» d émulation Phase 1: Configuration Bases de données Grid 5000 PlanetLab Phase 2: Expérimentation Mesures / collecte de traces Phase 3: Comparaison avec des traces réelles Calibrage Phase 4 : Extrapolation, Analyse DGD Paristic 2005 18

Data Grid eplorer : Ressources H -Responsable -Référent ACI MD Franck Cappello (LRI, Inria Grand-Large) Luc Bougé (ENS) Les 4 thématiques transversales et leur responsable : -Infrastructure (Matériel + système), -Emulation (Virtualisation), -Réseau (infrastructure & emulation) -Applications. Olivier Richard (ID-IMAG) Pierre Sens (LIP6, Inria REGAL) Pascale Primet (LIP, Inria RESO) Christophe Cérin (LIPN) Comité Technique: Philippe Marty (philippe.marty@lri.fr) (CDD INRIA) Julien Leduc (leduc@imag.fr) (négociations INRIA) Jean-Claude Barbet (jean-claude.barbet@lri.fr) (bénévole - permanent LRI) Gilles Gallot (gilles.gallot@idris.fr) (bénévole - permanent IDRIS) DGD Paristic 2005 19

Les partenaires Institutionnels : CEA, Ecole Centrale Paris ID-IMAG, INRIA, IBCP LAAS, LABRI, LARIA, LIFL LIP, LIP6, LORIA, PRISM Industriels : Alcatel Space, France-Télécom R&D, EADS Internationaux: AIST (Japon), Argonne (USA) DGD Paristic 2005 20

Gd: Ressources financières Financement Equipement: ACI Masse de données: ACI Grid 5000 2004 : INRIA Rocquencourt: INRIA Futurs: Hébergement IDRIS SESAME Ile de France: 750 K TTC 155 K TTC 150 K TTC 150 K TTC 170 K TTC/an 900 K TTC Moyens humains: 36 mois (2x18 mois) ingénieur ACI Masse de données 24 mois ingénieur associé INRIA Ingénieurs IDRIS (difficile à quantifier) Soutien ingénieurs LRI (difficile à quantifier) + Connexion RENATER DGD Paristic 2005 21

Financement Equipement 33% 39% ACI MD ACI Grid5000 INRIA Roq INRIA Futur IDRIS Ile de France 7% 7% 7% 7% DGD Paristic 2005 22

Budget ACI Masse de Données Budget total 1030 K TTC CDD (2) 115 000,00 Fonctionnement 115 000,00 Equipement 800 000,00 DGD Paristic 2005 23

Gd: tranche 1 : fin 2004 Noeuds «de calcul» : 216 IBM eserver 325 2 CPU AMD Opteron 64 bits : 2GHz Horloge / 1Mo Cache 4 DIMM-DDR 512Mo 2 interfaces Ethernet Gigabit 1 HD 80 Go IDE Noeuds «réseau» : 32 xseries 335 (eon-32bits, 3GHz, 512Ko, 2Go, 2Gb, 40Go IDE) Noeuds «de service» : 2 xseries 346 (bi-eon-nokona-64bits, 3GHz, 1Mo, 2Go, 2Gb, 1To Raid) 2 eserveur 325 (bi-opteron-64bits, 2GHz, 1Mo, 2Go, 4Gb, 80Go IDE) Réseau hierarchique Gb Ethernet Routeur Cisco 6905 (360 Gbps) 200 ports Gigabit Ethernet Commutateurs Cisco 24 ports Gigabit Ethernet DGD Paristic 2005 24

DGD Paristic 2005 25

Les outils O DGD Paristic 2005 26

Architecture de sécurité «slogin bob@frontale.orsay.grid5000.fr» VPN GRID5000 Port 22 Firewall IDRIS Equipement réseau GD Port 22 Firewall GD Devgdx1 Devgdx2 Ldap/nfs Frontgdx1 gdx0xxx gdx0xxx gdx0xxx Frontgdx2 gdx0xxx gdx0xxx gdx0xxx gdx0xxx gdx0xxx gdx0xxx gdx0xxx DGD Paristic 2005 27

Architecture de sécurité DGD Paristic 2005 28

GDv2 : Evolution Novembre Début 2006 : 2006 1040 2004 : processeurs 648 : 432 processeurs (2GHz, 2Go) (216 Bi-processeurs 50 64 nœuds opteron, routeurs 2Go (plusieurs RAM, 80 Go interfaces) disque) Switch Réseau 32 Gigabit nœuds haute-performance routeurs + Switch 10G Gigabit ( Myrinet/Ethernet/IB) Nœuds de calcul (opteron bi-pro) Frontal Switch Ministère (ACI Masses de Données) INRIA Futurs / Rocquencourt Routeurs logiciels Région Ile de France Ministère (ACI Grid 5000) DGD Paristic 2005 29

Utilisation GD en 2005 DGD Paristic 2005 30

Utilisation de GD (2) Occupation journalière : 70 % (Travaux soumis) DGD Paristic 2005 31

Gd : Planning Aujourd hui Financement Appel d offre Sélection Fournisseur Installation Recette Exp. Logiciel Matériel Communauté Data Grid Explorer + réunions responsables (>10) Définition matériel Définition bench. Rédaction Appel d offre Sélection Nov03 Sept03 Dec03 Mars04 Test Recherches Data Grid Explorer Développement de prototypes Expériences Gd Coordination Gd + Grid 5000 Juil 04 Jui04 Livraison Oct 04 Nov 04 Fev. 05 DGD Paristic 2005 32

GD : Projets scientifiques 1) Construire l instrument: - Cluster de 1K CPU - Un réseau configurable (Ethernet, Myrinet/Infiniband) - Un OS configurable (noyau, distribution, etc.) - Un ensemble d outils d émulation - Multi-utilisateurs 2) Etudier l impact de l échelle sur les systèmes Grilles/P2P - Etudier des problèmes clés liés aux traitements données : Extensibilité, Tolérance aux fautes, Ordonnancement, etc. - Etudier des problèmes clés liés à la circulation des données: Protocoles de transport haute performance, Partage de données, Stockage P2P, indexation répartie, etc. - Applications Simulation numérique, Bioinformatique, etc. DGD Paristic 2005 33

GD : Projets de recherches Experiences I.1 Plate-forme I.2 Virtual Grid I.3 Virt. Techniques I.4 Simul. Guidée par Emul. I.5 Emul. réseau I.6 Emul hétérogénéité I.7 Communication I.8 Emul. Internet II.1 Engineering tech. II.2 Objets Mobiles II.3 Tolérance aux pannes II.4 DHT II.5 Base de Données II.6 Ordonnancement II.7 Optimisation des comms. II.8 Partage de données II.9 Uni et multicast II.10 Automate cellulaire II.11 Bioinformatique II.12 Stockage P2P II.13 Adversaires II.14 Sécurité II.15 Internet nouvelle génér. II.16 Simulation numérique Infrastructure Emulation Réseau Application DGD Paristic 2005 34

Projets émulation (I) EWAN: émulation réseau très haut débit VGRID: émulation de processeurs H-GRID: émulation hétérogénéïté Emulation trafic

Projet ewan (LIP - RESO) Switch x gigabits (non blocking) Gigabits links Etapes 1. Définition de la configuration 2. Génération des scripts et tables 3. Déploiement automatique 4. Lancement des expériences 5. Analyse des traces Points durs: -> gigabit + longue latence -> calibrage Entrées Expériences Sorties Topologie, Délais QoS, limitation débit IPv6 ou v4 Sources: vrais flux Vraies applications ou squelettes. Trafic concurrent contrôlé. Performance et comportement Influence des paramètres d échelle Taux d utilisation ressources DGD Paristic 2005 36

ewan: infrastructure Edge equipment Firewall, rate limitation Latency emulation -GNET -NistNet / netem Gnet Boxes Non blocking multigigabit switch PC w. IP NICs Overlay routers -Linux routers - Network processor based DGD Paristic 2005 37

DGD Paristic 2005 38

Precision & passage à l echelle Emulation logicielle: netem: large déploiement Emulation matérielle : GNET(FPGA): haute précision ewan utilise module netem linux pour deploiement large échelle + intègre émulateur matériel GNET1/GNET10 gestion des buffers pour l émulation de délai rend le trafic très sporadique ( high burstiness). Couplage avec logiciel de pacing AIST PSP pour contrôler la sporadicité dans l émulateur DGD Paristic 2005 39

Emulation trafic Internet (LAAS) Conception (à l aide du simulateur NS) d une méthode de reproduction des conditions réelles du trafic méthode et résultats publiés à ICC 2004, Paris Application de cette méthode à un émulateur Mise en place de règles de configuration des émulateurs Dummynet Développement d une première version d un logiciel de rejeu de traces de trafic réelles À venir: Mise en œuvre sur Gd intégration de cet outil dans un autre outil plus générique (DHS: développé au LAAS) Recherches sur la génération de trafic réaliste à partir de la mesure et du calcul des premiers moments statistiques d un trafic DGD Paristic 2005 40

Projet VGRID (LRI) Emuler 100 PC virtuels sur 1 PC réel 10 K PCv sur 100 CPUs (LRI), 100K PCv sur 1K CPUs (Gd), Non temps réel Etude de Vserver, en, Virtual PC, UML, VMware, Scheduler de noyaux, Exemple avec Vserver: 1 noyau Processus PCv1 Processus PCv2 /vserver/vs1/ /vserver/vs2/ Root dir pour chaque Vserver driver Parties communes Parties spécifiques Première question scientifique : quelles métriques, quels benchmarks -Surcoût de l émulation -Equité entre les PCv (CPU, Mémoire Virtuelle, Disque, Réseau) -Linéarité du ralentissement avec le nombre de PCv DGD Paristic 2005 41

Projet VGRID (LRI) Overhead MEM / # VM Overhead CPU / # VM DGD Paristic 2005 42

Vue logique Projet H-GRID (LORIA) Objectif : rendre Gd hétérogène pour faire des expériences d'émulation Moyen : dégrader les caractéristiques de la plate-forme : vitesse CPU, mémoire disponible, latence réseau, bande passante réseau. Mise en œuvre : configuration par îlot (union d'intervalle d'adresses IP), Définition des caractéristiques communes à chaque îlot, Définition des caractéristiques entre îlots. îlot de machines avec les même caractéristiques 1 2 3 4 5 6 7 Sous réseau pour l'îlot Sous réseau pour l'îlot 1 2 3 4 8 Réseau inter-îlot ilot1 : [152.81.2.12-152.81.2.25]-[152.81.2.151-152.81.2.176]{ SEED : 1 % -1 pour une graine aléatoire CPU : [800-1400] %chaque membre de l'îlot aura une vitesse CPU choisie uniformément entre 800 MHz et 1,4 GHz BPOUT : [1000;200] % Chaque membre de l îlot aura une bande-passante en sortie choisie suivant une % gaussiène de moyenne 1000 Ko/s et de variance 200 Ko/s }!INTER : [ilot1;ilot2] [200-200] [300-300] [1;0] DGD -1 %caractéristiques Paristic 2005 réseau entre ilot1 et ilot2 43

Projet H-GRID (LORIA) Résultats de micro-benchmarks sur Gd Tests de bande passante en fonction de la taille des données. Bande passante mesurée en fonction de la bande passante demandée. Pour 10 Ko le réseau n est pas capable d atteindre la bande passante crête (comme dans la réalité). Tests de puissance CPU en fonction du pourcentage de dégradation demandé. Evaluation ratio : rapport entre temps mesuré et temps théorique (rapport=1 => émulation parfaite). Résultats : précision de l émulation entre 1 et 0.4 % Set latency 1 5 10 50 100 500 1000 RTT 2.12 10.05 20.12 100.06 200.2 1000.05 1999.75 Round trip time en fonction de la latence désirée (en ms) On voit que RTT=2*latence car celle-ci est payée deux fois dans un aller-retour. DGD Paristic 2005 44

Etudes sur GD GDS Grid Failure detectors Volatilités dans stockage P2P Automates cellulaires

II.3 Gestion des fautes (LIP6) Passage à l échelle des détecteurs de fautes Hiérarchie => gestion d un grand nombre de fautes Adaptation automatique des délais de surveillance => adaptation à la dynamicité du réseau Publications : [DSN 2003] Verrouillage tolérant les fautes sur Grille Adaptation des algorithmes de verrouillage aux grilles Algorithmes à jeton tolérant les fautes Publications : [CCGrid 04], Rapport de recherche, JPDC Réalisations Logiciels : Detecteurs de fautes, simulateur de système à large échelle, injecteur de fautes DGD Paristic 2005 46

II.3 Volatilité dans stockage P2P (LIP6) Objectifs : Etude de l impact du taux de volatilité dans les DHT (Distributed Hash Table) Cadre : le système de fichiers Pastis Experiences : déploiement d un reseau virtuel de 1000 nœuds sur 150 processeurs Utilisation des routeurs logiciels Modelnets Injection de différents modèles de volatilité DGD Paristic 2005 47

II.8 Partage de données (ACI MD GDS) Projet ACI MD GDS, partenaire du projet Gd PARIS, GRAAL, REGAL Service de partage de données Persistance Localisation transparente Cohérence des données Architecture dynamique Tolérance aux fautes Implementation Multi-protocoles (réplication, cohérence) Mise en œuvre sur JTA 2.0 http://www.irisa.fr/gds/ (Sun Microsystems) Client Requête S2! AGENT(s) Réponse (C) A, B, C Op2(C, A, B) Op1(C, A, B) S1 S2 S3 S4 Serveur Serveur Serveur Serveur JuxMem: service de partage de données DGD Paristic 2005 48

II.8 JuxMem sur Gd Buts : tester le passage à l échelle de JuxMem à travers l utilisation d une application DIET (GridTLSE) Evaluation de l algorithme d allocation mémoire de JuxMem Tests d extensibilité des protocoles de cohérence tolérants aux fautes Performances? Taux de volatilité supporté? Utilisation prévue de Gd Nombre de nœuds visés : 1 000 Nombre de pairs visés : 100 000 (100 par machine) Première évaluation poussée du passage à l échelle de JTA Emulation de la plate-forme Grid 5000 sur Gd DGD Paristic 2005 49

II.10 Cellular Automata on Grid A programming model for R&D of fine grained cellular systems: CPU consuming frequent prototype update Device control IO data _ Minimize (T dev + T exec ) Main features: Cellular intensive computing steps: considers distributed memory & optimized communications. Sequential interactive slow steps: requires virtual shared memory. 2nd prototype under development Client machine: comfortable fine grained development env. Collaboration Supélec Loria Potenza University: (S. Vialle, J. Gustedt, A. De Vivo) Gd experiments Nov 2005 - July 2006 Distributed server: coarse grained arch. large cluster cluster of clusters cluster of clusters across a WAN Track efficient architectures DGD Paristic 2005 50

II.15 Internet Nouvelle Génération (LAAS) 3 expérimentations prètes QoS multi-domaine dans l Internet avec DiffServ Gestion des réseaux de l Internet à partir de mesures: approche MBA (Measurement Based Architecture) / MSP (Measurement Signaling Protocol) Expérience sur le contrôle de congestion avec MBCC (Measurement Based Congestion Control) Coordination des activités dans des applications collaboratives distribuées (Middleware au dessus de Corba) Expérimentations menées pour l instant sur une plate-forme de 10 machines en local En attente de Gd DGD Paristic 2005 51

GigE DAG monitoring Emulated router with active and passive monitoring capabilities and reporting protocdols Domain 2 Domain 3 Cluster for replaying traffic traces Domain 1 Domain 4 Domain 5 Large scale multi-domains Internet experiments for validating measurement based Network protocols and architectures

http://research.microsoft.com/barc/sortbenchmark/ Daytona Indy GD Penny (new 2005) 15 GB (163 M records) PostManSort, doc pdf 979 sec on a $951 Wintel 2 SATA Robert Ramey (2002) 40 GB (433 M records) SheenkSort.pdf 1541 seconds on a 614$ Linux/AMD system Lei Yang, Hui Huang Zheng Wan, Tao Song Tsinghua University, Beijing, China & SORTING Minute TeraByte (2004) 32 GB (340 million records) Nsort pdf, word, htm Windows, 32 Itanium2, 2,350 SAN disks Chris Nyberg, Charles Koester Ordinal Technology (2004) 33 minutes Nsort pdf, word, htm Windows, 32 Itanium2, 2,350 SAN disks Chris Nyberg, Charles Koester Ordinal Technology 116GB (125 M records) 58.7 seconds Linux, 80 Itanium2, 2,520 SAN disks Jim Wyllie (new 2005) 435 seconds (7.25 minutes) SCS pdf Linux, 80 Itanium2, 2,520 SAN disks Jim Wyllie, IBM Almaden Research Need a Single Image File System (Kerrighed, GPFS ) ccerin@gdx0001:~/tri$ mpirun -np 192 a.out size=1160000000 verbose=0 ifname=/tmp/titi ofname=/tmp/toto We Generate data first, and we needed 170.063589 secs then to store them on disk! We start sorting NOW! 0.782573 + 10.891525 + 66.524312 + 32.727524 + 35.484297 = 146.583187 secs to sort 116000000000 bytes on 192 procs PID=0 has sorted: 5458892 records of 100 bytes PID=16 has sorted: 5807629 records of 100 bytes PID=2 has sorted: 6832457 records of 100 bytes PID=8 has sorted: 4927854 records of 100 bytes PID=1 has sorted: 5824897 records of 100 bytes Partitionning + Communication time 53

Conclusions Les recherches en Grille/P2P nécessitent des plates-formes à grande échelle Pour étudier les questions liées au mouvement, stockage et calcul sur les données (les protocoles, systèmes, intergiciels, langages et modèles de programmation et les applications) Avec des conditions expérimentales reproductibles Data Grid eplorer Une plate-forme expérimentale pour les chercheurs en Grille/P2P Un émulateur de système à grande échelle Relation étroite avec le projet Grid 5000 (plusieurs chercheurs participent aux deux projets) Beaucoup d expériences en cours Ecriture d articles en cours DGD Paristic 2005 54

Questions?

Calendrier des réunions Réunions plénières Réunion thématiques (réseau, émulation, application, architecture) Réunions téléphoniques entre les 5 coordinateurs Périodicité plus forte au début de projets (pour fixer les grands choix d architectures) DGD Paristic 2005 56