Mesocentre Clermont Auvergne. Antoine MAHUL, Université Blaise Pascal

Documents pareils
Projet d'infrastructure de stockage mutualisée

Infrastructure de calcul du CRRI

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Une nouvelle génération de serveur

Chapitre 2. Cluster de calcul (Torque / Maui) Grid and Cloud Computing

Les mésocentres HPC àportée de clic des utilisateurs industriels

Architecture des ordinateurs

Technologie Netapp. Novembre 2010

Les environnements de calcul distribué

LE RÉSEAU INTERNATIONAL D IMPLANTATION D ENTREPRISES. Philippe CHAMPEMOND Directeur Adjoint Erai Chine S IMPLANTER EN CHINE STRATEGIES & SOLUTIONS

SysFera. Benjamin Depardon

Infrastructures Parallèles de Calcul

Impact on revenue requirements no Description (000$)

Analyse empirique et modélisation de la dynamique de la topologie de l Internet

Réunion publique/téléconférence

Les Clouds de production : Panorama pour les sciences de la vie. Jérôme PANSANEL <jerome.pansanel@iphc.cnrs.fr> Directeur technique France Grilles

Rapport 2014 et demande pour Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Big Data. Cyril Amsellem Consultant avant-vente. 16 juin Talend

Cloud Computing : quels intérêts et quelles solutions pour les développeurs?

Gestion de clusters de calcul avec Rocks

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

Architectures d implémentation de Click&DECiDE NSI

Intérêt des codes FEC pour le stockage distribué Le projet ANR FEC4Cloud et la solution RozoFS

Bonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX

Retour d exprience sur le cluster du CDS

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

Architecture des calculateurs

Diagrammes de Package, de déploiement et de composants UML

Portage d applications sur le Cloud IaaS Portage d application

Retour d expérience de la plateforme de virtualisation sous Proxmox VE à l IPHC journée SysAdmin du 04/12/2014 à l INRA de Toulouse

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

IT SERVICES BUSINESS STORAGE DATA AUDIT PARTNERSHIP INTEGRATOR SECURITY PLANNING PRIVATE AGILITY DYNAMIC PUBLIC TECHNOLOGY SOLUTIONS MANAGEMENT

Windows Server Chapitre 1: Découvrir Windows Server 2008

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Thomas Loubrieu (Ifremer) Small to Big Data Novembre 2013, Ifremer, Brest

Le Cloud Open-Mind! Emilien Macchi

Retours d expériences et perspectives sur les aspects énergétiques

Introduction au Massive Data

DG-ADAJ: Une plateforme Desktop Grid

Déploiement d une architecture Hadoop pour analyse de flux. françois-xavier.andreu@renater.fr

Une bibliothèque de templates pour CUDA

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24

Vers une fédération de Cloud Académique dans France Grilles J. Pansanel pour le groupe FG-Cloud (M. Airaj, C. Cavet, V. Hamar, M. Jouvin, C.

PLATE- FORME MUTUALISEE DE SERVICES DIFFERENCIES POUR USAGES D ETABLISSEMENTS D ENSEIGNEMENT SUPERIEUR ET DE RECHERCHE ET APPLICATIONS METIER

VIRTUALISATION : MYTHES & RÉALITÉS

Etude d architecture de consolidation et virtualisation

INFRAQUITAINE. Présentation des services. Jean Philippe LAFOND Directeur Technique INFRAQUITAINE

Java et les bases de données

Communications performantes par passage de message entre machines virtuelles co-hébergées

Architectures haute disponibilité avec MySQL. Olivier Olivier DASINI DASINI - -

E-BIOGENOUEST, VERS UN ENVIRONNEMENT VIRTUEL DE RECHERCHE (VRE) ORIENTÉ SCIENCES DE LA VIE? Intervenant(s) : Yvan Le Bras, Olivier Collin

Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Initiation au HPC - Généralités

Quantification d incertitude et Tendances en HPC

Construction et sécurisation d'un système Linux embarqué. Frédéric AIME

Sommaire de la journée

Grid Technology. ActiveMQ pour le grand collisionneur de hadrons (LHC) Lionel Cons Grid Technology Group Information Technology Department

27 janvier Issam El Hachimi Ludovic Schmieder

Anticiper et prédire les sinistres avec une approche Big Data

Hands on Openstack : Introduction

Cloud Computing et Calcul Haute Performance (HPC High Performance C

Virtualisation sous Linux L'age de raison. Daniel Veillard

Détection d'intrusions en environnement haute performance

Catalogue de formations

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle

<Insert Picture Here> Solaris pour la base de donnés Oracle

IaaS à la sauce Portails Focus sur. Pierre Aubert Orange Portails OF/DMGP/Portails/DOP 1 er Juillet 2013

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

Rapport d activité. Mathieu Souchaud Juin 2007

Informatique en nuage Cloud Computing. G. Urvoy-Keller

Charte d adhésion d un laboratoire au Mésocentre CIMENT

CAHIER DES CHARGES D IMPLANTATION

Colloque Calcul IN2P3

C-JDBC. Emmanuel Cecchet INRIA, Projet Sardes.

Tutoriel Cloud IFB - Initiation -

Eco-système calcul et données

«Clustering» et «Load balancing» avec Zope et ZEO

Macroéconomie et Change Vers un durcissement de la politique de la Fed

Rapport d'activité 2014 de la plate-forme technologique CISM

REUNION PRESSE JEUDI 13 FEVRIER Contact presse CAPmedias / Anne COPEY / anne.copey@capmedias.

Éléments de programmation et introduction à Java

NBS System et Zend Technologies Découvrez la scalabilité sans limite pour vos applications PHP grâce au Zend Cloud

Big Data. Les problématiques liées au stockage des données et aux capacités de calcul

Configurations maximales

Hyper-V v2 : une évolution majeure des services de virtualisation

Service Cloud Recherche

VMware : De la Virtualisation. au Cloud Computing

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Les termes du cloud CUMULO NUMBIO 2015 O. COLLIN

BONJOURGRID : VERSION ORIENTÉE DONNÉE & MAPREDUCE SÉCURISÉ

Organiser vos données - Big Data. Patrick Millart Senior Sales Consultant

Génération de code binaire pour application multimedia : une approche au vol

Rapport d activité Volet Technique

Transcription:

Mesocentre Clermont Auvergne Antoine MAHUL, Université Blaise Pascal antoine.mahul@clermont-universite.fr

CRRI Centre Régional de Ressources Informatiques Lieu de mutualisation de ressources informatiques Point de présence RENATER en Auvergne Opérateur du réseau métropolitain CRATERE (17 établissements) Gestion du réseau universitaire Opérateur du datacenter universitaire (200 m²) Appui au SI universitaire Appui au mésocentre

Mésocentre Un mésocentre est : un ensemble de moyens humains de ressources matérielles et logicielles au services de la communautés scientifique fédérateur (EPST, Universités, Industriels) en région doté de sources de financement propres Pour fournir un environnement scientifique et technique propice au calcul haute performance Faisant l objet d évaluations scientifiques régulières Pour s'inscrire dans une démarche nationale

Gouvernance du mésocentre Une gouvernance pour permettre une utilisation raisonnée des ressources du CRRI : Moyens mutualisés de calcul pour la production Services autour du calcul scientifique Stockage de données pour la recherche Deux comités : Orientation Utilisateurs Objectif premier : permettre un accès simple à des moyens plus importants

Ressources du mésocentre Ressources de calcul pour la Grille EGI En production sur la grille depuis 2006 192 coeurs de calcul, 48 To de stockage Cluster de calcul (HPC1) En production depuis 2009 120 coeurs de calcul Cluster de calcul (HPC2) En production depuis 2015 > 700 coeurs de calcul, 10 To de stockage Stockage distribué en mode Objet Production printemps 2016 520 To bruts Architecture SMP (multicoeurs, grande quantité de RAM) Cloud IaaS

Cluster de calcul HPC2 Seconde génération du cluster de calcul local Mise en production au printemps 2015 Nœuds de calcul : Noeuds Qtté CPU RAM HT Cœurs Inter Financement hpcnode[01-04] 4 2 x Sandy Bridge 64 Go Non 16 GbE CNRS / LMGE hpcnode[05-08] 4 2 x Ivy Bridge 96 Go Oui 32 GbE CPER 2011 hpcnode[09-24] 16 2 x Ivy Bridge 128 Go Oui 32 GbE CPER 2014 hpcnode[25-28] 4 2 x Ivy Bridge 256 Go Oui 32 GbE CPER 2014 hpcnode[29-36] 8 2 x Ivy Bridge 128 Go Oui 32 QDR CPER 2014 Installation (OS/Applications) homogène sur tous les nœuds

HPC2 : infra système Job manager : SLURM Allocation de ressources (CPU, RAM, GPU) Gestion de l'architecture des processeurs (socket / core / threads) Confinement et placement des processus Fair Queueing : plus on utilise, moins on est prioritaire Déploiement des noeuds et des applis : Cobbler + Puppet Modules d environnement

Modules d environnements Mécanisme pour gérer dynamiquement les variables d environnement (PATH, LD_LIBRARY_PATH, MANPATH ) Permet de gérer: Plusieurs versions d une application Les versions par défaut Les dépendances entre applications Les chaînes de compilation (compilateur / MPI ) Via la commande module (fonction shell)

Organisation des modules Organisation hiérarchique pour maitriser la chaîne de compilation Modules «core» : compilateurs et outils de base gcc, intel, java, cmake, binutils Modules «apps» : codes sans dépendances à un compilateur (codes précompilés ) blast, bioperl Modules «compiler» : codes liés à une version de compilateur (gcc, intel, java) R, fftw, openblas, python, numpy, openmpi => Il faut charger au préalable le module du compilateur Modules «mpi» : codes liés à une version de compilateur et de la bibliothèque MPI: abinit,parmetis,ray, scalapack => Il faut charger au préalable les modules du compilateur et de mpi

HPC2 : utilisations Utilisateurs 80 utilisateurs enregistrés, 19 laboratoires 40 utilisateurs actifs (au moins 1 job en 2016) Jobs (depuis janvier 2015) 2 millions de jobs soumis 193 millions d'heures CPU allouées Applications préinstallées 52 modules d'environnements GCC, ICC, OpenMPI, Python, Numpy, Scipy, R, Bioconductor, Perl, Bioperl...

HPC2 : Occupation 30 Allocated Utilization 80.20 % Ajout noeuds 25-28 90.00% 80.00% 25 70.00% 20 60.00% millions d'heures CPU 15 10 50.00% 40.00% 30.00% 5 20.00% 10.00% 0 Jun 15 Jul 15 Aug 15 Sep 15 Oct 15 Nov 15 Dec 15 Jan 16 Feb 16 Mar 16 Apr 16 May 16 Jun 16 0.00%

HPC2 : Répartition des jobs Répartition des jobs par coeurs Répartition des jobs par durée > 64 0.02% 11.67% count cpu time > 7j 0.00% 13.34% count cpu time 64 2.85% 0.01% 7j 0.04% 60.78% 32 16 0.16% 7.90% 0.08% 72.92% 24 h 0.95% 22.63% 2 4.63% 93.13% 1h 2.81% 7.76% 1 0.03% 6.61% < 1min 0.45% 91.25% 0.00% 20.00% 40.00% 60.00% 80.00% 100.00% 0.00% 20.00% 40.00% 60.00% 80.00% 100.00%

Nature des jobs Codes parallèles avec MPI Sciences des matérieux (Abinit, CASINO) Quelques codes bioinformatique (Ray, PhyML...) Codes multithreads Chimie numérique (Gaussian, codes python...) Workflows bioinformatique Geant4/Gate (Physique des particules) Matlab (Sciences de la Terre, Neurosciences)

Stockage objet CEPH CPER 2014 : acquisition d outils mutualisés pour le stockage, l analyse de grandes masses de données, la modélisation et le calcul intensif Projet de stockage capacitif Stockage de grands volumes de données (>100 To) Allocation d'espace de stockage à la demande Extensibilité à moindre coût Maîtrise des frais de fonctionnements Première brique d'un cloud IaaS

CEPH Plateforme de stockage distribué Stockage en mode objet Architecture Scale-out adaptée au passage à l'échelle S'appuie sur du matériel ordinaire (commodity hardware) Sans SPOF Logiciel Libre Technologie issue de l'université de Californie (Santa Cruz) Thèse de Sage A. Weil (2007) Développement et support commercial assuré par Inktank Inktank racheté par Redhat le 30 avril 2014

CEPH : principes

CEPH : fonctionalités Cluster de stockage RADOS Réplication des données chaudes (surcout : x2, x3...) Correction d'erreur pour les données froides (x1.5) Equilibrage automatique Algo de placement (CRUSH) assez évolué et modulable Intégration possible avec Openstack Client Ceph : interface vers les utilisateurs RADOSGW : API compatible Swift et S3 RBD : mode bloc (intégré au kernel Linux) CephFS : mode fichier (stable depuis peu)

CEPH : infrastructure Infrastructure (CPER 2014) 13 nœuds de 40 To (6 actuellement en production) 3 nœuds «contrôleurs» Interconnection 10GbE API S3 RadosGW déployé sur les 3 contrôleurs Load balancing (avec haproxy) Haute disponibilité (avec keepalived / VRRP)

CEPH : architecture

Benchmarks S3 (1) Logiciel libre Intel COSBench Déploiements des clients sur le cluster HPC2 (32 clients par nœud, 1GbE) Scénario : Ecriture : chaque client écrit des objets aléatoirement pendant 300s Lecture : chaque client lit des objets aléatoirement pendant 300s Tests avec des objets de 4MB et de 64kB Tests de 32 à 256 clients (sur 1 à 8 nœuds)

Benchmarks S3 (2) 500 450 400 350 300 250 200 150 100 50 0 Read 4MB Read 64kB Débit en lecture (MB/s) 0 50 100 150 200 250 300 7000 6000 5000 4000 3000 2000 1000 0 Read 4MB Read 64kB IOPS en lecture (op/s) 0 50 100 150 200 250 300 400 350 300 250 200 150 100 50 0 Write 4MB Write 64kB Débit en écriture (MB/s) 0 50 100 150 200 250 300 500 450 400 350 300 250 200 150 100 50 0 IOPS en écriture (op/s) Write 4MB Write 64kB 0 50 100 150 200 250 300

Défi Audace Projet CPER (2015-2020) autour du traitement de grands volumes de données Projet transverse aux projets CPER thématiques Equipements structurants Plateforme Galatica au LIMOS Plateforme à mémoire partagée pour le mésocentre ~ 320 coeurs physiques, 8To de RAM Plateforme Openstack de production Equipements datacenter et réseaux Financements de thèses / post-docs

Conclusion Mésocentre Clermont Auvergne Ressources mutualisées par les labos, pour les labos Dimension locale & visibilité nationale Aspects financiers Investissement labos ou projets CPER Fonctionnement par les tutelles A l échelle Auvergne-Rhône-Alpes : 1 centre national, 4 mésocentres... Coordination des infrastructures numériques de recherche? Recherche de synergies et de complémentarités? Fédération de ressources?