Journée des utilisateurs CIMENT 16 Avril 2013

Documents pareils
Charte d adhésion d un laboratoire au Mésocentre CIMENT

MaiMoSiNE Maison de la Modélisation et de la Simulation : Nano Sciences et Environnement

Infrastructure de calcul du CRRI

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Architecture des ordinateurs

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Saadi KHOCHBIN. Directeur de recherche CNRS. médaille d Argent. Institut des sciences biologiques. Institut Albert Bonniot (IAB)

Les mésocentres HPC àportée de clic des utilisateurs industriels

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

Retours d expériences et perspectives sur les aspects énergétiques

RESINFO Françoise Berthoud, Anne Facq, Gilles Requilé

Semestre HPC. Violaine Louvet. Institut Camille Jordan - CNRS louvet@math.univ-lyon1.fr. Labex MILyon, Printemps 2016

parée e avec C. Germain, B. Kegl et M. Jouvin CS de l Université Paris Sud

Fiche produit Serveur FUJITSU PRIMERGY BX900 S2 Système de serveur lame

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

Infrastructures Parallèles de Calcul

Recherche et Formation dans un environnement de pointe. Contact:

3 ème journée des utilisateurs de l archivage

Quantification d incertitude et Tendances en HPC

Mise en Forme des Matériaux Polymères Polymer Processing. Philippe Cassagnau

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Entités de recherche. Centre de Recherche Astrophysique de Lyon CRAL

La «smart valley» De Minatec à GIANT en passant par Campus et Minalogic 21/01/2010. Micro- nanotechnologies and embedded software Nanoelectronics

Les environnements de calcul distribué

Personnels ITRF de catégorie C (A.D.T.R.F. - A.G.T.R.F. - A.S.T.R.F.) Postes offerts à la mutation au 01/09/2007

Mention SDUEE Sciences de l Univers, Environnement, Écologie

Eléments d architecture des machines parallèles et distribuées

Filière MMIS. Modélisation Mathématique, Images et Simulation. Responsables : Stefanie Hahmann, Valérie Perrier, Zoltan Szigeti

Vérifier la qualité de vos applications logicielle de manière continue

INITIATIVE HPC-PME Calcul haute performance pour les PME

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Grid5000 aujourd'hui : Architecture & utilisation

Eco-système calcul et données

Colloque Calcul IN2P3

Des solutions de croissance pour les PME du logiciel

: l IDRIS a vingt ans!

Gestion de clusters de calcul avec Rocks

Décrets, arrêtés, circulaires

L auto-archivage en maths, quoi de neuf?

DIRECTEUR ADJOINT DES VENTES

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

Les services de la PLM Mathrice. Et quelques outils de web-conférence

Projet d'infrastructure de stockage mutualisée

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8

Lancement de la mise à jour de la feuille de route nationale «Infrastructures de Recherche»

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

FORMATIONS STAGES INSERTION PROFESSIONNELLE. UFR Sciences Orsay. Isabelle DEMACHY

PRÉ-REQUIS ET INSTALLATION SERVEUR

Charte d'utilisation des infrastructures de la plate-forme bioinformatique Genotoul

BONJOURGRID : VERSION ORIENTÉE DONNÉE & MAPREDUCE SÉCURISÉ

Rapport d activité Volet Technique

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

Chapitre 2. Cluster de calcul (Torque / Maui) Grid and Cloud Computing

Configurations maximales

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Urbanisation. des Datacentres. Urbanisation de DC TutoJres 18 Septembre 2014 Paris

Calcul intensif pour la biologie

Cursus de Master en Ingénierie de la Production Alimentaire. Une autre façon d accéder au métier d ingénieur

GRANDS PRIX ATTRIBUÉS EN 2012

Décrets, arrêtés, circulaires

Cluster de calcul Freeware en Océanographie Opérationnelle

Programme consultant expert (PCE)

Les Smart Grids, filière stratégique pour les Alpes-Maritimes

e-biogenouest CNRS UMR 6074 IRISA-INRIA / Plateforme de Bioinformatique GenOuest yvan.le_bras@irisa.fr Programme fédérateur Biogenouest co-financé

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux

Calcul Haute Performance & Données

<Insert Picture Here> Exadata Storage Server et DB Machine V2

Détection d'intrusions en environnement haute performance

Thomas Loubrieu (Ifremer) Small to Big Data Novembre 2013, Ifremer, Brest

Architecture des calculateurs

Segmentation d'images à l'aide d'agents sociaux : applications GPU

Le cloud-computing : une réponse aux problématique de gestion de la qualité des projets pour des équipes géographiquement dispersées

Mise en place d'un gestionnaire de données léger, pluridisciplinaire et national pour les données scientifiques

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux

Service Cloud Recherche

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre Systèmes et Technologies de l Information

PROGRAMME D ÉTUDES (SPÉCIALITÉ) 1 Ingénieur diplômé de l'école centrale de Marseille UNIF

Fondation Mérieux 22 avril Un projet Fondateur. J. Breton Thésame

Réseau CAI Bpifrance L EQUIPE DES CHARGES D AFFAIRES INTERNATIONAUX UBIFRANCE

LE ROLE DES ECOLES D INGENIEURS DANS LE DEVELOPPEMENT DES PME PMI. L EXEMPLE DE L UTC

Rappel des grande lignes de l Initiative Créative valley. CREATIV Labs

Vers une fédération de Cloud Académique dans France Grilles J. Pansanel pour le groupe FG-Cloud (M. Airaj, C. Cavet, V. Hamar, M. Jouvin, C.

Rapport de Transparence

Comité Stratégique du Calcul Intensif Rapport n 5 (2012/2013) Rapport final 2013 du Comité Stratégique du Calcul Intensif

Faculté des Sciences d ORSAY

Présentation de l ORAP

Portage d applications sur le Cloud IaaS Portage d application

Cloud computing et sécurité

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Ineum Consulting. Pourquoi le PLM. Soirée Innovation industrielle «Usage des TIC en mode collaboratif & Industrie» Frédéric Morizot.

MARCHES Arrêté Article 138 C.M.P.

Présentation de la Grille EGEE

Rapport d activité Volet Technique

Pourquoi cet événement? Nos objectifs

VIRTUALISATION : MYTHES & RÉALITÉS

ARCHEOVISION. Centre de Ressources Numériques 3D. UMR 5607 du CNRS. R. Vergnieux IR-CNRS

DREAL proposition DNS et hébergement. magazine le 14 septembre 2011 DREAL comparatif hébergement

Exposé de Pérennisation Comission de la Recherche 26 juin 2014

Transcription:

Journée des utilisateurs CIMENT 16 Avril 2013 15h00 : CIMENT, présentation & actualités (Emmanuel Chaljub) 15h35 : Formation et animation scientifique (Laurence Viry) 16h00 : Froggy, la nouvelle plateforme de calcul haute performance : description matérielle (Françoise Roch) 16h20 : Froggy : environnement logiciel et premiers retours d'exploitation (Bruno Bzeznik) 16h50-17h10 : Questions 17h10: PERSEUS: PERsonal Space for ciment USers (Romain Cavagna) 17h25-17h45: Foire aux questions

Présentation de CIMENT https://ciment.ujf-grenoble.fr

Modélisation, Simulation et Calcul Intensif à Grenoble Maison de la Modélisation et de la Simulation : Nano Sciences et Environnement (2010) 2 structures complémentaires Calcul Intensif / Modélisation / Expérimentation Numérique & Technologique (1998) Pour construire et animer un axe transversal Physique, Chimie, Univers, Environnement Labos, PME/PMI Modélisation physique Modélisation math & num Analyse discrétisation de modèles Calcul Intensif Modèles algorithmiques, Implémentation sur plateformes HPC, profiling et optimisation

CIMENT = mésocentre grenoblois de calcul intensif ~1 Pflops/s sur une plateforme Jugene=1PF ; Hermit=1PF ; Curie=2PF ; Fermi=2PF ~100 Tflops/s sur une plateforme Turing= 836, Ada=230 ; Jade=267 ; Titane- CPU+GPU=300 36 Tflops/s répartis sur 12 plateformes de 96 à 576 cœurs Accessibles en mode grille (CiGRI) +46 Tflops/s en 2013 10 14 10 12-13 10 15 Tier-0 Tier-1 Tier-2 Pyramide du calcul intensif Opérations à vf par seconde Des plateformes de calcul intensif avec un accès souple Un réseau d ingénieurs et de chercheurs diffusant expertise et formation Permettant d expérimenter les outils et méthodes de calcul haute performance Favorisant le passage vers les centres nationaux et européens Une organisation en pôles : regroupement d équipes de recherche, de laboratoires, qui ont développé une culture de mutualisation et de partage des ressources. CIMENT/MaiMoSiNE crée du lien entre les pôles, et stimule les échanges d expertise. 3-5 3 30

Adhérer à CIMENT La participation d un laboratoire à CIMENT est soumise à l acceptation d une charte d adhésion Droits - Accès aux ressources de CIMENT (Cigri, IRODS) aux membres du laboratoire - Hébergement des plateformes de calcul au sein de l infrastructure mutualisée UJF - Participation des ingénieurs des labos au groupe de travail technique de CIMENT Devoirs Correspondant CIMENT du laboratoire Acquisition et exploitation concertées des plateformes de calcul Intégration des ressources à la grille CIMENT en mode best-effort Accord de principe de participation aux frais de fonctionnement

Sciences de l Univers (SCCI-OSUG) Resp.technique : Françoise Roch Resp. scientifique : Emmanuel Chaljub Laboratoires : Observatoire des Sciences de l Univers (OSUG*), Institut des Sciences de la Terre (ISTerre), Institut de Planétologie et Astrophysique (IPAG), Image-Signal (Gipsa-lab). Nom Marque # cpus RAM RAM/node Interconnect Tflops/s Année Fostino IBM 464 464Go 8Go Gbit 5.2 2008 r2d2 IBM 512 1088Go 32Go band DDR 5.1 2008 Gofree Dell 336 2016Go 72Go band QDR 3.2 2011 * : signataires charte d adhésion à CIMENT

Physique Numérique (PHYNUM) Resp. technique : Françoise Berthoud Resp. scientifique : Alain Pasturel Laboratoires : Sciences et Ingéniérie des Matériaux et Procédés (SIMAP), Physique et Modélisation des Milieux Condensés (LPMMC), Interdisciplinaire Physique (LIPhy), Institut Néel (IN), Simulation Atomistique (CEA/INAC/LSIM) Nom Marque cpus RAM RAM/node Interconnect Tflops/s Année Healthphy SGI 72+28 144+56Go 8Go Numalink+Gbit 1.1 2007 Airelle Dell 140 676 Go 128 Go Gbit 2.5 2008 Nanostar SGI 256 512Go 16Go band DDR 2.6 2009 Fontaine Dell 144 288Go 24Go band QDR 1.3 2012

Environnement (MIRAGE) Resp. technique : Bruno Bzeznik Resp. scientifique : Eric Blayo Laboratoires : Jean Kuntzmann (LJK), Glaciologie et Géophysique de l Environnement (LGGE), Transfert en Hydrologie et Environnement (LTHE),Ecoulements Géophysiques et Industriels (LEGI) Nom Marque # cpus RAM RAM/node Interconnect Tflops/s Année Foehn SGI 128 480Go 48Go band DDR 1.4 2010

Biologie & Santé (BioIMAGE) Resp. technique Resp. scientifique : Wilfried Thuiller Laboratoires : Ingéniérie Médicale et Complexité (TIMC-IMAG), Ecologie Alpine (LECA) Nom Marque # cpus RAM RAM/node Interconnect Tflops/s Année Healthphy SGI 72+28 144+56Go 8Go Numalink+Gbit 1.1 2007

Informatique Distribuée (ID) Resp. technique : Pierre Neyron Resp. scientifique : Olivier Richard Laboratoires (équipes) : Middleware Efficiently Scalable (MESCAL/LIG), Multiprogrammation et Ordonnancement (MOAIS/LIG) Nom Marque # cpus RAM RAM/node Interconnect Tflops/s Année Genepi Bull 272 272 Go 8 Go band DDR 2.7 2008 Edel Bull 576 1728Go 24Go band DDR 5.2 2009 Adonis Bull 96 (GPU) 288Go 24Go band DDR 3.6 2010

Chimie (CECIC) Resp. technique : Alain Rivet Resp. scientifique : Anne Milet Laboratoires : Institut de Chimie Moléculaire (ICMG), Département de Chimie Moléculaire (DCM), PharmacoChimie Moléculaire (DPM), Macromolécules Végétales (CERMAV) Nom Marque # cpus RAM RAM/node Interconnect Tflops/s Année Ceciccluster Dell 216 432Go 24Go band QDR 2 2011

Pilotage : bureau CIMENT A. Milet E. Blayo W. Thuiller A. Pasturel MaiMoSiNE S. labbé CEA : T. Deutsch INRIA : O. Richard CIRA : L. Desbat Responsables techniques Resp. projet E. Chaljub A. Rivet CNRS B. Bzeznik UJF/CIMENT L. Viry F. Berthoud Responsables scientifiques F. Roch P. Neyron

Structure PPF (UJF-INPG) < 2011 Structure fédérative (UJF-INP) 2011-2014 Equipement : CPER-CIRA, 300 k 2007-2013 EquipMeso, 994k 2013 Fonctionnement :~20 k /an (UJF/INP) + 30k

Statistiques CIMENT 2012 MIRAGE 208 utilisateurs actifs en 2012 12.8 millions d heures (60 %) +9% (>1.16 millions) en best-effort Top cinq utilisateurs (milliers h) : o pasturel 1753 / phynum o nsieffert 884 / cecic o mbermude 675 / scci o agouron 591 / cecic o sarena 396 / ens-lyon (scci) CECIC 15% 6% SCCI-OSUG 36 % PHYNUM 43 % airelle+ceciccluster+ foehn+fontaine+gofree+healthphy+nanostar+r2d2+fostino 9 clusters = 2432 coeurs Usage: principalement pôle-plateforme, avec quelques utilisations croisées Phynum-BioIMAGe (healthphy), OSUG (SCCI-MIRAGE), gofree (ID, SCCI,MIRAGE, PHYNUM)

Actualités de CIMENT

Total Budget Grenoble 9 M équipement 994 k 1,5 M fonctionnement 154 k Coordinateur : GENCI 9 mésocentres partenaires : Rouen, Toulouse, Aix-Marseille, Lyon, Grenoble, Strasbourg, Reims, Paris (2) Animation scientifique : Maison de la simulation (CEA), Cerfacs GDR Calcul du CNRS, MaiMoSiNE, CBP Voir présentation à suivre de Laurence Viry Objectifs Renforcer la base de la pyramide Stimuler la coordination des mésocentres et l articulation avec GENCI (Questionnaire) Relayer localement l initiative HPC-PME Changement d échelle >6 ans d investissement en équipement Capacité d hébergement Partage d une plateforme unique

Nouvelle plateforme de calcul intensif mutualisée Cofinancements Equip@Meso Région Rhône-Alpes (CPER-CIRA) Labex OSUG@2020 Projet ERC Glassdef Labex CEMAM Projet ANR-Hamm «public» «privé»

Froggy: the greedy frog rédit: Fanny Bastien (MaiMoSiNE/IF) 46 Tflops/s puissance crête 2176 cœurs Xeon Sandybridge 4Go ou 8Go / cœur Infiniband non-bloquant FDR Système Lustre /scratch 3 Go/s Système de refroidissement DLC PUE global 1,18 1 nœud SMP (512 Go RAM) 1 nœud de visualisation Voir présentation à suivre de Françoise Roch

Froggy: ouverture en mode «free-ride» Exploitation à distance (Angers) 10 projets sélectionnés 4 projets en mode free-ride (2048 cœurs/1 semaine) Formation des disques autour des étoiles Be (G. Lesur) Dynamique de l écoulement calotte Antarctique (F. Gillet-Chaulet) Génération numérique d'un polymère semi-cristallin (J.-L. Barrat) Modélisation quantique des dispositifs à nanofils (Y.-M. Niquet) 4 projets en mode Benchmark (2048 cœurs/24h) 2 projets en mode développement (128 cœurs + fat node) rédit: Fanny Bastien (MaiMoSiNE/IF) Voir présentation à suivre de Bruno Bzeznik

Froggy: Accès aux ressources Gestion des comptes par projet scientique Porteur de projet = membre permanent d un laboratoire grenoblois Membre d un projet = collaborateur du porteur de projet Ouverture d un compte après validation de la charte utilisateur Ouverture de l accès aux ressources après validation scientifique et technique du projet Projets déposés au fil de l eau, formulaire simplifié Remise à jour tous les ans à date fixe (Décembre-Janvier) Ce mode de fonctionnement sera étendu à toutes les plateformes de CIMENT

Froggy: Accès aux ressources Porteur de projet Membre permanent laboratoire adhérent à CIMENT Membre permanent laboratoire hors CIMENT Membre permanent hors Grenoble (Région)* Industriel* *: ouverture jusqu à 10% à la communauté hors CIMENT Référents Responsables scientifique et technique pôle Comité de Pilotage CIMENT Responsable mésocentre origine + CP CIMENT MaiMoSiNE + correspondant HPC-PME Nouvelle gestion / nouvel outil : PERSEUS: PERsonal Space for ciment Users Voir présentation à suivre de Romain Cavagna

Froggy: Partage des ressources Pôle Tous Ressources allouées en priorité pour les ayants-droit Accès à tous en mode best-effort Projet Projet Pôle 128 cœurs dédiés au mode test : 30 mn de walltime Jobs séquentiels autorisés en mode test, best effort et sur le nœud SMP Par défaut, jobs limités à un walltime <= 4 jours Par défaut, jobs limités à 8192 heures équivalent monocoeur ( =full walltime jusqu à 64 coeurs) Fair-sharing par projet Ajustement dans les premiers mois de production

Froggy: Partage des ressources Nombre de cœurs Walltime (h) <=64 96 128 64 256 32 512 16 1024 8 2048 4 8192 h monocoeur (~1an)

Froggy : quelques dates importantes Installation de la machine à Grenoble : Fin Mai 2013 Ouverture aux utilisateurs : Début Juin 2013 Inauguration : 3 Juillet 2013 Ouverture Perseus : 6 Mai 2013 Formation utilisateurs-formateurs : Juin 2013 Formation utilisateurs : à discuter Réunion utilisateurs mode accès et partage ressources : Septembre 2013

Questions?