Collaboration LPSC-CIMENT : Convergence ou Complémentarité?

Documents pareils
Charte d adhésion d un laboratoire au Mésocentre CIMENT

Colloque Calcul IN2P3

Infrastructure de calcul du CRRI

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Retours d expériences et perspectives sur les aspects énergétiques

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

Rapport 2014 et demande pour Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

parée e avec C. Germain, B. Kegl et M. Jouvin CS de l Université Paris Sud

MaiMoSiNE Maison de la Modélisation et de la Simulation : Nano Sciences et Environnement

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

Présentation de la Grille EGEE

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre Systèmes et Technologies de l Information

Fig. 1 Le détecteur de LHCb. En bas à gauche : schématiquement ; En bas à droite: «Event Display» développé au LAL.

Les classes de service pour les projets scientifiques

Portage d applications sur le Cloud IaaS Portage d application

Saadi KHOCHBIN. Directeur de recherche CNRS. médaille d Argent. Institut des sciences biologiques. Institut Albert Bonniot (IAB)

Gestion de clusters de calcul avec Rocks

Les environnements de calcul distribué

Travailler ensemble : Coopération, Collaboration, Coordination

Les mésocentres HPC àportée de clic des utilisateurs industriels

Recherche et Formation dans un environnement de pointe. Contact:

Mise en place d'un gestionnaire de données léger, pluridisciplinaire et national pour les données scientifiques

Architecture des ordinateurs

Infrastructures Parallèles de Calcul

Chapitre 2. Cluster de calcul (Torque / Maui) Grid and Cloud Computing

La «smart valley» De Minatec à GIANT en passant par Campus et Minalogic 21/01/2010. Micro- nanotechnologies and embedded software Nanoelectronics

Plan du cours. Incarnations/applications du Grid Computing. Super-calcul virtuel

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Détection d'intrusions en environnement haute performance

Calcul Haute Performance & Données

Tendances Techniques et compétences des laboratoires

Cloud Computing. Introduction. ! Explosion du nombre et du volume de données

Utilisation du Cloud StratusLab dans le cadre d application astroparticule à l APC

L informatique à l IN2P3 et le rôle du Chargé de Mission

La maison de la simulation

Contribution à la mise en service d une ferme de serveurs connectée à une grille de calcul pour la Physique des Hautes Energies

DIRAC : cadre et composants pour créer des systèmes de calcul distribués

Architecture de la grille

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

Eco-système calcul et données

Le monitoring de flux réseaux à l'in2p3 avec EXTRA

Jean-François Boulicaut & Mohand-Saïd Hacid

Licence et Master E.E.A.

Middleware et services de la grille

Qu est-ce qu un ordinateur quantique et à quoi pourrait-il servir?

Dossier de présentation Projet PILSI - EDD - BEeSy

PROSPECTIVES IN2P3-IRFU

Astroparticules. (prospectives en informatique) Giovanni Lamanna. Université de Savoie, CNRS/IN2P3, Annecy-le-Vieux, France

StratusLab : Le projet et sa distribution cloud

L'écosystème du calcul intensif et des données : la vision du CNRS. M. Daydé. Directeur du Comité d Orientation pour le Calcul Intensif au CNRS

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

Recherches amont en STIC: enjeux de compétitivité

Retour d exprience sur le cluster du CDS

Un exemple de cloud au LUPM : Stratuslab

Compte-rendu du Bureau national du 12 septembre 2012

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24

Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy

Stephan Hadinger, Sr. Mgr Solutions Architecture, AWS. Salon du Big Data 11 mars 2015

Segmentation d'images à l'aide d'agents sociaux : applications GPU

Visite de presse. Le supercalculateur Tera - 10

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE

Une nouvelle génération de serveur

Big Data et Graphes : Quelques pistes de recherche

Rapport d activité. Mathieu Souchaud Juin 2007

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I

Services de la grille

France Grilles

XtremWeb-HEP Interconnecting jobs over DG. Virtualization over DG. Oleg Lodygensky Laboratoire de l Accélérateur Linéaire

Atelier Transversal AT11. Activité «Fourmis» Pierre Chauvet.

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

BONJOURGRID : VERSION ORIENTÉE DONNÉE & MAPREDUCE SÉCURISÉ

Demande d'ap informatique 2012

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Sujets de mémoires Master Physique Institut de Physique Nucléaire (FYNU/CP3) Année Académique

Grid5000 aujourd'hui : Architecture & utilisation

DG-ADAJ: Une plateforme Desktop Grid

Journée Scientifique Onera

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr

Solutions logicielles de gestion énergétique coopérante smart building in smart grid : Exemple CANOPEA. Xavier Brunotte info@vesta-system.

Emergence du Big Data Exemple : Linked Open Data

EGEE vers EGI - situation actuelle et interrogations

Sybase High Avalaibility

Les Clouds de production : Panorama pour les sciences de la vie. Jérôme PANSANEL <jerome.pansanel@iphc.cnrs.fr> Directeur technique France Grilles

Xtremweb-HEP : A best effort virtualization middleware

Eléments d architecture des machines parallèles et distribuées

Open Source Job Scheduler. Installation(s)

Des solutions de croissance pour les PME du logiciel

Journée Scientifique Onera

Cycle Innovation & Connaissance 12 petit déjeuner Mardi 15 mai Cloud Computing & Green IT : nuages ou éclaircies?

Curriculum Vitae Grenoble

Solutions logicielles de gestion énergétique coopérante smart building in smart grid

Quantification d incertitude et Tendances en HPC

E-Biothon : Une plate-forme pour accélérer les recherches en biologie, santé et environnement.

Sommaire de la journée

Faculté des Sciences Département d Informatique. Déploiement et configuration des intergiciels européens de grilles de calcul

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

Transcription:

Collaboration LPSC-CIMENT : Convergence ou Complémentarité? LPSC de Grenoble, service informatique Rencontres LCG-France, 18-20 septembre 2012 Subatech Nantes

CIMENT à GRENOBLE Calcul Intensif / Modélisation / Expérimentation Numérique et Technologique Mésocentre au sein des universités grenobloises Fédération de communautés scientifiques (6 pôles) autour du calcul intensif Chercheurs utilisateurs et chercheurs informaticiens Phase de développements et de tests en local avant centres (inter)nationaux Calcul parallèle Grille CIGRI pour un accès non intrusif à l'ensemble des plateformes Partenaires de CIMENT Les universités scientifiques et techniques de Grenoble (INPG, UJF) et ~30 laboratoires de recherche (CNRS, INRIA, etc) CIMENT en quelques nombres Créé en 1998 4 FTE pour le support ~15 clusters, ~3500 cœurs et ~35 Tflop/s 220 utilisateurs en 2011 2

Catherine Biscarat LPSC-CIMENT, Rencontres LCG-FR, sept. 2012 Source : EmmanuelCollaboration Chaljub, Journée des utilisateurs CIMENT, 2012 3

Les plateformes de CIMENT P P Sciences de l'univers d Environement, climat, modélisation Biologie, santé, imagerie médicale Physique numérique Chimie Edel, Genepi, Adonis : Grid'5000 4

Grid5000 Grid5000 Grid5000 Source : https://ciment.ujf-grenoble.fr/ 5

Des équipements en pleine croissance Equip@Meso : (Equipement d excellence de calcul intensif de Mésocentres coordonnés tremplin vers le calcul pétaflopique et l Exascale) a été retenu dans le cadre de l appel à projets «Equipements d excellence» 2010 des Investissements d avenir GENCI : Grand Equipement National de Calcul Intensif Grenoble : 1 des centres régionaux de Equip@Meso Source : E. Chaljub, Journée des utilisateurs CIMENT 2012 6

La grille de CIMENT : CiGri Optimisation de l'utilisation des ressources de CIMENT L'intergiciel CiGri Authentification par LDAP Pas de déploiement central d'applications Pas de «management» centralisé de données Gestionnaire de batch OAR (développé au LIG, utilisé sur grid5000) Mode «best effort» (accès aux noeuds tant qu'ils sont libres de users locaux) Re-soumission automatique des jobs (dès qu'un nœud est libéré) CPU used by owners CPU used by opportunistic users Wasted CPU (so far) CiGri préfère De nombreux jobs courts (jobs multiparamétriques) Des jobs faiblement parallèles (Ncore <3) 7

Environnement de CiGri Machines distribuées CiGri + OAR en «best effort» (3500 coeurs) Grille de stockage irods (400 TB) Collection d'applications de base (gcc, cuda, MPI, emacs,...) aussi disponible sur la future machine Equip@meso Gestion des priorités Pas de «fair share» (FIFO) sauf mode «test» de priorité maximale Pas de volume horaire Statistique utilisation CIMENT 2011 8.8 millions d'heures dont 11% en mode «best effort» 8

Exemple concret d'utilisation de CiGri Milliers de jobs paramétrés Utilisé par le LPSC en continu depuis 10 jours Liste des sacs de tâches 9

Exemple concret (suite) Occupation des machines user=lpsc idle 10

Exemple concret (suite) Occupation des machines user=lpsc idle 11

Le LPSC et son nœud de grille EGI 220 membres (50% enseignants et chercheurs) Les activités de recherche rhonalp superb Physique des particules Physique hadronique Astroparticules et cosmologie Physique théorique Physique des réacteurs Interdisciplinaire Le site EGI en dates MURE biomed Atlas Alice 01/2008 02/2012 11/2007 : naissance du site WLCG (ALICE et ATLAS) 01/2008 : Site en production (T3 avec un comportement de T2) 07/2011 : passage du statut de T3 à T2 de LCG Collaboration avec TIDRA (Rhône-Alpes, http://www.tidra.org) 12

La collaboration CIMENT-LPSC Naissance 2010, support de FR-grilles (170 k ) Installation d'une grille de stockage sur CiGri (irods) Croissance du site EGI LPSC en stockage DPM+xrootd installé 12/2010 Capacité de stockage au LPSC Premières initiatives Portage d'applications HEP sur CIMENT Analyse «finale» Habillage des nodes nues : ROOT, LHAPDF 13

Portage d'applications I Expérience internationale Dzero (Fermilab - USA) Recherche indirecte du boson de Higgs (mesure de M W) initiative du LPSC Décroissance des moyens de calcul avec le «shutdown» du collisionneur Simulation paramétrée du détecteur Portage de PMCS (spécifique Dzero) Des milliers de tâches < 1 heure Stockage important (irods) Résultat extrêmement précis Compatibilité de la particule découverte en juillet au CERN avec le boson de Higgs du MS LEP+FNAL 2009 LEP+FNAL 2012 DG du CERN, juin 2012, symposium Tevatron impact 14

15

Portage d'applications II Expérience internationale ATLAS (CERN) Recherche de nouvelles particules (dim. supplémentaires) LPSC leader ATLAS En période de conférences : «bouchon» pour faire tourner les analyses finales Erreurs systématiques de la section efficace de production de paires de photons Portage de DIPHOX (générateur diphoton) Des centaines de tâches (de 3 jobs) : 1, 8 et 12 heures 100 jobs en continu tourne sur une machine depuis 1 semaine Résultat en cours d'élaboration (cross-check papier 7 TeV, analyse papier 8 TeV) Bruit de fond dominant (irréductible) 16

Portage d'applications III Expérience internationale ATLAS (CERN) Recherche de nouvelles particules (dim. supplémentaires) LPSC leader ATLAS En période de conférences : «bouchon» pour faire tourner les analyses finales Calcul de limite de section efficace de production Portage de BAT (Bayesian Analysis Toolkit) Des dizaines de milliers d'heures Découpés en tranches de < 1 heure Démarrage de cette production (sur tout CIMENT) Résultat en cours d'élaboration (cross-check papier 7 TeV, analyse papier 8 TeV) Interprétation finale des résultats (le dernier plot du papier) 17

Synergie entre CIMENT et le LPSC Différentes thématiques de recherche les pics de demande de ressources ne sont pas corrélés en temps analyse pour les conférences permet une utilisation lissée des infrastructures Différentes architectures (grand nombre de CPU indépendants pour le LPSC, et supercalculateurs et GPU pour CIMENT) permet de couvrir des besoins spéciaux de physiciens du LPSC QCD sur réseau au LPSC : un utilisateur de GPU prochain projet de portage : utilisation de parallélisme 18

Des habitudes différentes Disponibilité (août, week-end) Communication (arrêts, «blacklisting» des machines) Homogénéité du parc (quoique très améliorée depuis «CIMENT version 2») Mais après quelques journées difficiles, on m'entend souvent dire : «Quand ça marche, ça marche!» 19

Pour en revenir à la question initiale Complémentarité de ces grilles de production. Nous (CIMENT) avons fait des contributions importantes à des résultats scientifiques sur la grande question de notre époque. C'était difficile mais c'est bien parti. 20

Back-up 21

Les pôles de CIMENT PHYNUM (Physique Numérique) UMR 5266, Groupes TOP, GPM2, PM : SIMAP ; UMR 5493, Ondes en milieux complexes, Théorie des systèmes mésoscopiques : LPMMC ; UMR 5588, DyFCoM : LIPhy ; UPR 11, Groupe théorique : Institut Néel ; UMR 5217, Mescal : LIG ; UMR_E 9002, INAC-SP2M : Laboratoire de Simulation Atomistique MIRAGE (Méso-Informatique Répartie pour des Applications en Géophysique et Environnement) UMR 5224, LJK ; UMR 5519, LEGI ; UPR 5151, LGGE ; UMR 5564, LTHE SCCI-OSUG (Service Commun de Calcul Intensif de l'observatoire) UMS T0832, Service Commun de Calcul Intensif : OSUG ; UMR 5274, IPAG ; UMR 5275, ISTerre CECIC (Centre d'expérimentation du Calcul Intensif en Chimie) UMR 5250, DCM ; UMR 5063, DPM ; FR 2607, ICMG ; UPR 5301, CERMAV BioIMAGe (Biologie et Santé) UMR 5525, GMCAO, MIMB, DYNACELL : TIMC-IMAG ; UMR 5553, LECA ID (Informatique Distribuée) UMR_I 5132, MESCAL, MOAIS : LIG 22