Analyse distribuée. Une plongée dans l analyse du CPU et réseau du cluster du Lapp (analyse site-dépendante) 11/06/09.

Documents pareils
Architectures d implémentation de Click&DECiDE NSI

ManageEngine EventLog Analyzer. Les bonnes critiques et recommandations

Big Data. Cyril Amsellem Consultant avant-vente. 16 juin Talend

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8

Cours 13. RAID et SAN. 2004, Marc-André Léger

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Veeam Backup and Replication

Plan de cette matinée

Infrastructures Parallèles de Calcul

<Insert Picture Here> Solaris pour la base de donnés Oracle

Maarch Framework 3 - Maarch. Tests de charge. Professional Services. 11, bd du Sud Est Nanterre

Installation du service glite SE/DPM

JetClouding Installation

Tutoriel Création d une source Cydia et compilation des packages sous Linux

Mise en oeuvre TSM 6.1

Installation ou mise à jour du logiciel système Fiery

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

GUIDE D UTILISATION PARTICIPANT

Le e s tocka k ge g DAS,NAS,SAN

Retour d expérience RATP. Intégrer le test de performance au cœur du processus de développement agile. Challenges, techniques, résultats.

RoomMate Guide de l'utilisateur

HP 600PD TWR i G 4.0G 39 PC

Le Haut Débit en mobilité. Salon des Technologies de l information et de la communication CWTC - Baie Mahault le 28 nov 2008

Stockage des machines virtuelles d un système ESXi jose.tavares@hesge.ch & gerald.litzistorf@hesge.ch

Limitations of the Playstation 3 for High Performance Cluster Computing

Techniques de stockage. Techniques de stockage, P. Rigaux p.1/43

Exigences système Commercial & Digital Printing

Grid Technology. ActiveMQ pour le grand collisionneur de hadrons (LHC) Lionel Cons Grid Technology Group Information Technology Department

Sébastien Geiger IPHC Strasbourg

M1 Informatique, Réseaux Cours 9 : Réseaux pour le multimédia

VidZone, qu est-ce que c est? INSTALLATION DE VidZone

PloneLabs un gestionnaire de contenu pour les laboratoires

Découvrez les Nouveautés Février 2010 du Catalogue PC Pack PRO

Performance et usage. La différence NETGEAR - R7000. Streaming HD illimitée

1 Lecture de fichiers

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes

Charte d'utilisation des infrastructures de la plate-forme bioinformatique Genotoul

PARTAGE DE DOCUMENTS EN LIGNE AVEC ONEDRIVE

Présentation Infrastructure DATACENTRE

1. Présentation du TP

Détection d'intrusions en environnement haute performance

Protection des données avec les solutions de stockage NETGEAR

Creation de Contenus Numériques pour

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Programmation C. Apprendre à développer des programmes simples dans le langage C

Hubert & Bruno Lundi 12 octobre 2009 SAINT-QUENTIN (02)

Pourquoi superviser?

Gestion répartie de données - 1

Square-IT-Consulting. Présentation

Indiscrétions et «zones constructeurs» «Redécouvrons nos disques durs»

Administration des ressources informatiques

Tablette Pegasus PC Notes. Code : Conrad sur INTERNET Version 02/ Conditions du système.

Les Content Delivery Network (CDN)

Les midis de la biblio - séminaire 10. Zotero + : bibliographie en ligne et bibliographie nomade

Partie 7 : Gestion de la mémoire

Utilisation de la plate-forme collaborative Windchill

Prise en main d un poste de travail sous Windows sur le réseau du département MMI de l'upemlv. d après M. Berthet et G.Charpentier

Sauvegarde des données au LAAS

cbox VOS FICHIERS DEVIENNENT MOBILES! POUR ORDINATEURS DE BUREAU ET PORTABLES WINDOWS ÉDITION PROFESSIONNELLE MANUEL D UTILISATION

Exigences système Edition & Imprimeries de labeur

Microsoft Virtual Server, trucs et astuces avancés

CPLN 20/08/2009 MBO Service ICT et Pédagogie

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Symantec Endpoint Protection Fiche technique

Ladibug TM Document Camera Manuel de l Utilisateur de Logiciel d image

Contrat VTX Serveur dédié

Manuel utilisateur (Manuel_utilisateur_version pdf) Manuel Reprise des données (Manuel_Reprise_donnees_version

2 disques en Raid 0,5 ou 10 SAS

Commandes Linux. Gestion des fichiers et des répertoires. Gestion des droits. Gestion des imprimantes. Formation Use-IT

Ora2Pg Performances. (C) 2013 Gilles Darold

Comment tester la vitesse d un réseau Ethernet

Informatique pour scientifiques hiver Plan général Systèmes d exploitation

Initiation à LabView : Les exemples d applications :

«clustering» et «load balancing» avec Zope et ZEO

Une solution stockage sécurisée et distribuée au Synchrotron Soleil

Architecture Technique

Assurez-vous que votre site est conforme aux caractéristiques suivantes avant la date d'installation.

Portage d applications sur le Cloud IaaS Portage d application

TABLETTE MPMAN MP724 : EMPORTEZ LE MONDE AVEC VOUS

Structure de base d un ordinateur

Questions fréquemment posées:

Our experience in using Apache Giraph for computing the diameter of large graphs. Paul Bertot - Flavian Jacquot

Instructions d installation de MS SQL Server pour Sage 50 Classement et Gestion commerciale. Sage Suisse SA Avenue Mon-Repos Lausanne

Protocoles DHCP et DNS

Responsabilités du client

Placez vous au préalable à l endroit voulu dans l arborescence avant de cliquer sur l icône Nouveau Répertoire

Présentation du système informatique utilisé et éléments d architecture des ordinateurs

Virtualisation des ressources serveur. Exemple : Systèmes partitionnés sous HP-UX et Oracle

VTX HOSTING. Les solutions d hébergement de VTX : du site Web à la colocation en passant par les applications et les serveurs dédiés

Une nouvelle génération de serveur

PORTAIL DE GESTION DES SERVICES INFORMATIQUES

Maîtriser les technologies Big Data pour obtenir des résultats en quasi-temps réel

Clusters de PCs Linux

INFO-F-404 : Techniques avancées de systèmes d exploitation

contexte cahier des charges critères de choix fonctionnalités configuration en pratique Bilan Conclusion Backuppc Logiciel de sauvegarde

Cluster de calcul Freeware en Océanographie Opérationnelle

Transcription:

Analyse distribuée Une plongée dans l analyse du CPU et réseau du cluster du Lapp (analyse site-dépendante) 11/06/09 Gaël Rospabé

Contexte : 2 But : - Comparer CPU / réseau - Pour : - différentes localisations des données - différentes façons de travailler ( série / parallèle ) - jobs sur ou? ROOT : PyRoot (interface Python) - chainage des fichiers à analyser ( fichiers concaténés lors de leur ouverture ) - lecture de l ensemble des fichiers - merger les fichiers pour n en avoir que un seul CPU mesuré = CPU utilisé pour remplir des histogrammes / données

Plan : 3 Accès depuis une de fichiers sur disque locai / protocole root open(rfio:/dpm/ ) analyse fichiers en série / analyse d un fichier mergé Accès depuis un de fichiers sur protocole root open(rfio:/dpm/ ) analyse fichiers en série / analyse d un fichier mergé Accès depuis une de fichiers sur disque local / copie locale via commande rfcp analyse fichiers en série Accès depuis un de fichiers sur copie locale via commande rfcp analyse fichiers en série parallélisation copie /analyse parallélisation copie /analyse Jobs de type Conclusion sur un même

Accès depuis une de fichiers sur disque locai / 4 Chainer les fichiers et les ouvrir en même temps avec PyROOT 60 710 ( 200 fichiers : tot = 500Mo) Fichiers sur Data_Local (gpfs) ou sur le (rfio) du Lapp Accès plus rapide vers Data_Local que CPU max 380MB Réseau max 17MB.s -1 Réseau max 2MB.s -1 Protocoles <Débit> 9MB/s <Débit> 0.9MB/s

Accès depuis une de fichiers sur disque locai / 5 Un seul fichier de 500Mo 70 (5int, 1 double, 115 float) Accès plus rapide vers Data_Local que (rfio) (5 de différence) CPU max 530MB Réseau max 18MB.s -1 Protocoles mais effet atténué car 1 seul fichier <Débit> 13MB/s

Accès depuis un de fichiers sur 6 200 fichiers ou un seul fichier de 500Mo (5int, 1 double, 115 float) 50 710 Accès plus rapide avec un seul fichier que 200 Temps ~ que depuis une Temps < que depuis une CPU max 530MB Réseau max 17MB.s -1 Réseau max 5MB.s -1 <Débit> 15MB/s <Débit> 1MB/s

Tableau résumé d accès à distance 7 CPU Données Protocole <NetWork(MB/s)> Temps (s) 200 fichiers open rfio 0.9 710 Data_Local open 9.1 60 open rfio 1.0 710 1 fichier mergé open rfio 13.0 70 Data_Local open 13.0 65 open rfio 15.0 50 Merger les fichiers diminue temps total car moins d I/O Pas d effet de cache car le taux de renouvellement des fichiers contenus dans le cache est très élevé

Accès depuis une de fichiers sur disque local / 8 Trois étapes itératives : copier n fichiers localement (rfcp parallélisés) analyser les n fichiers pendant copie des suivants effacer fichiers analysés

9 Conclusion Temps rfcp >> rfio lorsque le nombre de fichiers augmente Réseau utilisé plus optimal avec plusieurs fichiers copiés en même temps Max du réseau interne Lapp de 1Gb/s

Accès depuis un de fichiers sur 10 Closer to reality : fichiers de 1G0... Essais avec N fois X fichiers de 1Go X.N=100 t calcul >t transfert et t calcul X =>t tot 100 /1Go si X<40 Limitation vient du calcul...

Résumé 11 Temps total pour transfert en // et calcul est équivalent qq soit le nombre de fichiers < 40 Limitation vient du calcul

Accès depuis un de fichiers sur Jobs sur un même ( blade 4 cores) 12 Blade de 4 sortit spécialement pour ces tests (période calme : Atlas_P) X jobs mêmes (X=1,2,3,4) Travail en rfcp // Réseau même dans 4 cas Les jobs se pénalisent entre eux : la vitesse lecture/écriture des données sur le disque du blade est bloquante. Max du réseau cluster 2*1Gb/s

Conclusions 13 en normal : cpu max 500MB <débit>: 17 et débit max : 50MB/s en // : point min avec 60fichiers (200MB) : débit max = 70MB/s : débit max = 110MB/s Fichiers 1Go : même effet (2Go en //) Sur même Transferts fichiers : même débit (100MB/s) CPU partagées => compétition entre jobs Limite d accès aux données copiées sur disque du blade Pas ce genre de problème avec des open rfio

Conclusions 14 1 Fichier de 1G0 CPU Data Protocole <NetWork> (MB/s) open 13.0 rfio:/dpm/ 13.0 rfio:/dpm/ 15.0 Résultat site dépendant ( LAPP : gpfs + réseau ) Limitation : activité et occupation du réseau / non prévisibles (fonction du type des jobs qui tournent à un moment donné) 100 fichiers de 1G0 en // rfcp local 70.0 rfcp local 110.0 Fichiers mergés plutôt que série de petits fichiers Limitation : vitesse lecture/écriture sur disque open rfio plus performant que rfcp mais dépend de l activité sur cluster Capacités maximum du réseau Lapp interne et cluster atteint (1Gb/s)

Open rfio des fichier de 1Go 15 1/2/3/4 sur le même blade avec 100 open rfio 1 open_rfio et 1 rfcp en // sur même blade 2 open_rfio et 2 rfcp en // sur même blade

1/2/3/4 open rfio sur blade 16 CPU(kB) Temps : import root et dépendances : 11.6 et 0.4 add chain 0 getting entries : 180 lecture données : 8320/8420/8830/9000 Transfert ( B) Working Working Getting entries t(s) Getting entries t(s)

Plusieurs jobs sur même blade de 4 17 Getting entries rfcp Lecture données (rfcp ) Lecture données (rfio ) Total (rfcp) Total (rfio) 1rfio+1rfcp 200 27 130 7920 8724 8120 2rfio+2rfcp 200 41 230 9180 13300 9400 3rfio+1rfcp 204 26 130 9150 9120 9400 1rfio+3rfcp 230 54 290 8700 17000 9000