Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE



Documents pareils
Charte d adhésion d un laboratoire au Mésocentre CIMENT

Infrastructure de calcul du CRRI

Tendances Techniques et compétences des laboratoires

Le monitoring de flux réseaux à l'in2p3 avec EXTRA

RESUME DESCRIPTIF DE LA CERTIFICATION (FICHE OPERATIONNELLE METIERS)

L informatique à l IN2P3 et le rôle du Chargé de Mission

TUTOJRES 2014 Retour d'expérience Datacentre du CC IN2P3,

DOSSIER DE PARTENARIAT

UNIVERSITÉ DE SAVOIE DOSSIER DE PRESSE DE RENTRÉE 2013

Lancement de la mise à jour de la feuille de route nationale «Infrastructures de Recherche»

Demande d'ap informatique 2012

Colloque Calcul IN2P3

STAGES TECHNOLOGIQUES

Portage d applications sur le Cloud IaaS Portage d application

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

29 écoles d Ingénieurs publiques post bac

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Middleware et services de la grille

Bonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX

PROGRAMME D ÉTUDES (SPÉCIALITÉ) 1 Ingénieur diplômé de l'école centrale de Marseille UNIF

Les classes de service pour les projets scientifiques

Infrastructures Parallèles de Calcul

Majeures et mineures

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre Systèmes et Technologies de l Information

RESINFO Françoise Berthoud, Anne Facq, Gilles Requilé

Spécialité Sciences Mécaniques et Ingénierie

Mise en place d'un cluster

Centre de Calcul de l Institut National de Physique Nucléaire et de Physique des Particules. Migration Kerberos V Présentation rapide

Recherche et Formation dans un environnement de pointe. Contact:

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Faculté des Sciences d ORSAY

«autres» missions du CC

Service Cloud Recherche

Cursus de Master en Ingénierie de la Production Alimentaire. Une autre façon d accéder au métier d ingénieur

Le GRAND CONSEIL de la République et canton de Genève décrète ce qui suit :

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

La Commission des Titres d ingénieur a adopté le présent avis

ARCHEOVISION. Centre de Ressources Numériques 3D. UMR 5607 du CNRS. R. Vergnieux IR-CNRS

e-biogenouest CNRS UMR 6074 IRISA-INRIA / Plateforme de Bioinformatique GenOuest yvan.le_bras@irisa.fr Programme fédérateur Biogenouest co-financé

Les services de la PLM Mathrice. Et quelques outils de web-conférence

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Retours d expériences et perspectives sur les aspects énergétiques

Grid5000 aujourd'hui : Architecture & utilisation

ASA-Advanced Solutions Accelerator. Solution pour la gestion des données des laboratoires et des plateformes de service

Retour d'expérience CC-IN2P3

Entrez dans l ère du Numérique Très Haut Débit

Présentation de la Grille EGEE

Calcul Haute Performance & Données

Bilan et perspectives

Travailler ensemble : Coopération, Collaboration, Coordination

Mise en place d'un gestionnaire de données léger, pluridisciplinaire et national pour les données scientifiques

Environnement logiciel LHCb

Division Technologies d Information et de Communication, Centre National pour la Recherche Scientifique et Technique (CNRST)

Les clés de l'innovation. Une formation sur mesure pour les adhérents du Pôle Agri Sud-Ouest Innovation

Segmentation d'images à l'aide d'agents sociaux : applications GPU

Contributions à l expérimentation sur les systèmes distribués de grande taille

CAMPUS DES MÉTIERS ET DES QUALIFICATIONS ÉNERGIE ET MAINTENANCE LORRAINE

ENSEIGNEMENT SUPÉRIEUR PRÉPA MPSI PRÉPA PCSI PRÉPA MP PRÉPA PSI PRÉPA ECE STS MUC

La Plateforme GALA. Un projet régional structurant. avec le pôle Cancer-Bio-Santé pour la recherche et l'innovation en galénique CPER

DATE DU CONCOURS: SAMEDI 18 OCTOBRE

Master Management, innovation, technologie

Formation L.M.D. en instrumentation biomédicale. Mise en œuvre dans une université scientifique et médicale : Claude Bernard Lyon I

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr

Innovation Francophonie Imagination

Président de l Université de Savoie. Denis VARASCHIN

Gestion d'un parc informatique public avec LTSP

Stages - le calendrier

IODAA. de l 1nf0rmation à la Décision par l Analyse et l Apprentissage / 21

Un exemple de cloud au LUPM : Stratuslab

Conseil d Administration

Mise en Forme des Matériaux Polymères Polymer Processing. Philippe Cassagnau

Vers une fédération de Cloud Académique dans France Grilles J. Pansanel pour le groupe FG-Cloud (M. Airaj, C. Cavet, V. Hamar, M. Jouvin, C.

Le calcul intensif chez PSA Peugeot Citroën. TERATEC 28 juin 2011

Programme consultant expert (PCE)

La tête dans les nuages

Université Paris Saclay De quoi parle t-on?

Charte d'utilisation des infrastructures de la plate-forme bioinformatique Genotoul

Assemblée générale Aristote

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE

L IDEX DE TOULOUSE EN BREF

Vous apporter plus que la sécurits

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Rapport d évaluation des masters réservés aux établissements habilités à délivrer le titre d'ingénieur diplômé

Limitations of the Playstation 3 for High Performance Cluster Computing

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

Projet d infrastructure régionale pour le traitement des grands volumes de données scientifiques en Auvergne

Bienvenue au lycée Hoche! Journée Portes Ouvertes CPGE Samedi 25 janvier 2014

PRODIGUER un noeud français de distribution de données GIEC/IPCC

Les mésocentres HPC àportée de clic des utilisateurs industriels

Septembre Dossier de presse Bordeaux INP /

LISTE DES ECOLES PERMETTANT UN RECLASSEMENT DANS LE 3 ème GRADE D INGENIEUR DE LA FILIERE TECHNIQUE

Devenez expert en éducation. Une formation d excellence avec le master Métiers de l Enseignement, de l Education et de la Formation

Le cloud-computing : une réponse aux problématique de gestion de la qualité des projets pour des équipes géographiquement dispersées

Concours interne d ingénieur des systèmes d information et de communication. «Session 2010» Meilleure copie "étude de cas architecture et systèmes"

e need L un des premiers intégrateurs opérateurs Cloud Computing indépendants en France

Décembre 2013 CHAIRES DES ÉCOLES DE PARISTECH

Transcription:

Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Partenariat Université de Savoie LAPP/CNRS/IN2P3 Nadine Neyroud Ingénieur CNRS, Responsable Opérationnelle du MUST Roman Kossakowski Vice-Président du Conseil Scientifique UdS Journée méso-centre 13 février 2008

Université de Savoie : Chambéry/Annecy de plein exercice depuis 1979 Pluridisciplinaire hors santé 12000 étudiants, dont 12 % venant de l étranger 3 domaines universitaires 4 Unités de Formation et de Recherche Jacob-Bellecombette 1 École Polytechnique Universitaire : Polytech Savoie 1 Institut de Management : IMUS Le Bourget-du-Lac 2 Instituts Universitaires de Technologies Annecy-le-Vieux

Université de Savoie : Chambéry/Annecy : Activité de recherche dans 19 laboratoires Caractéristiques majeures : 10 UMR CNRS, 1 UMR INRA, 8 EA mathématiques, physique, chimie sciences et ingénierie de l environnement systèmes intelligent et technologies avancées organisations et territoires, représentations et cognition 3 pôles transversaux et interdisciplinaires : montagne eco-techniques mécatronique

Origine du projet MUST Réflexion au sein de l Université de Savoie: besoins croissants en calcul et stockage des laboratoires UdS volonté de mutualiser les ressources informatiques dédiées à la recherche Volonté du laboratoire LAPP (UMR CNRS/IN2P3/UdS) d une implication forte dans la grille LCG (LHC Computing Grille) : besoins croissants en calcul et stockage des laboratoires IN2P3 démarrage du LHC au CERN Besoins et capacités du laboratoire LAPP capacité du laboratoire à héberger un centre mutualisé capacité à participer en tant que nœud de la grille

Arguments pour créer une infrastructure locale Le centre de calcul: flexibilité d accès aux ressources pour les utilisateurs support aux utilisateurs grâce à des compétences techniques de proximité destiné plutôt à la mise au point des applications La grille: accès aux données distribuées de manière transparente accès à des applications déjà portées optimisation de l utilisation des ressources incontournable pour les applications LHC

Déroulement du projet MUST Création en 2005 7 laboratoires (8 en 2007) Mise en place de la structure de gouvernance Recherche de financements Choix stratégiques : fiabilité et robustesse qualité de service stratégie d évolution sur le long terme système homogène intégration à la grille européenne EGEE/LCG installation au LAPP Premiers achats orientés stockage début 2006 Premiers CPU en production depuis mars 2007

Le centre MUST aujourd hui Nb de coeurs Stockage Actuel 272 (600 KSI2K, 2.9 TFlops) 20 To Technologie de cluster Scientific Linux 4 2 Go par coeur Interconnect Gigabit Stockage SAN avec File System haute-performance Déploiement et gestion centralisée

Connexion vers l extérieur grâce au réseau régional Amplivia et RENATER

Financements Investissements (2006+2007): ~ 630 K appel d offres du ministère BQR, PPF de l Université de Savoie crédits CNRS/IN2P3 du LAPP Fonctionnement : ~ 50 K répartition des coûts de fonctionnement entre les laboratoires au prorata de l utilisation

Les applications Physique des particules (LAPP) ~ 75% basé sur la grille LCG (LHC Computing Grid) intégrée dans la grille EGEE engagement fort sur la volumétrie engagement fort sur la qualité de service (95% disponibilité, temps d intervention contraint) Physique théorique, cosmologie (LAPTH) ~ 10% cosmologie (simulation de modèles) Autres domaines (LMOPS, EDYTEM, LGIT, LAHC, LAMA, SYMME, ) ~ 15% modélisation des polymères sciences de la terre, sismologie, hydrologie physique, médecine, matériaux (GEANT4) nanotechnologies, supraconductivité calcul intensif mécatronique

MUST fait partie de la grille mondiale LCG CC-IN2P3 Grenoble Annecy Nantes CC-IN2P3 FZK TRIUMF RAL CC-IN2P3 T1 (11) Marseille T3 (beaucoup) ASCC CNAF Île de France Lyon Brookhaven NIKHEF T0 NDGF PIC Fermilab Clermont T2 (52) Strasbourg

Les applications LCG : En tant que tier 2 Production (simulation des évènements de physique) CPU intensif sur plusieurs heures Stockage final des données au CC IN2P3 Analyse Récupération des données du CC-IN2P3 Stockage local important Accès intensif en I/O

Les applications physique théorique (LAPTH) Calcul parallèle Cosmologie (Simulation de modèles) physico-chimie (LMOPS) Calcul parallèle Modélisation de polymères 4 publications pour 2007 3 en préparation

Les applications Science de la Terre (EDYTEM, LGIT, ) Via la grille EGEE Localisation et mécanisme au foyer des tremblements de terre Hydrologie GEANT4 Via la grille EGEE Simulation des interactions particules matière Médecine, Physique, Matériaux

Les applications Des laboratoires qui montent en puissance : IMEP-LAHC conception électronique, nanotechnologies, supraconductivité LAMA calcul intensif, calcul scientifique SYMME mécatronique, matériaux

Utilisation du MUST

Les conditions nécessaires pour réussir un méso-centre de calcul Moyens humains : 4 personnes ETP (3 CNRS et 1 U Savoie) Support système Support applicatif Formations utilisateurs Moyens matériels : Tutorial EGEE, utilisateurs batch, coût ~ 1M + ~ 50 k /an (électricité) locaux infrastructure réseaux

Évolution du MUST prévue jusqu en 2012 Evolution du CPU en KSI2000 4000 KSI2000 3000 2000 1000 capacité CPU Facteur 5 en puissance de calcul 0 2007 2008 2009 2010 2011 2012 Années Evolution du stockage en To 600 500 400 300 200 To Facteur 20 en capacité de stockage 100 0 2007 2008 2009 2010 2011 2012

Merci de votre attention