La Physique des Particules



Documents pareils
Colloque Calcul IN2P3

PROSPECTIVES IN2P3-IRFU

Le monitoring de flux réseaux à l'in2p3 avec EXTRA

DIRAC : cadre et composants pour créer des systèmes de calcul distribués

Astroparticules. (prospectives en informatique) Giovanni Lamanna. Université de Savoie, CNRS/IN2P3, Annecy-le-Vieux, France

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Tendances Techniques et compétences des laboratoires

DOSSIER DE PARTENARIAT

L informatique à l IN2P3 et le rôle du Chargé de Mission

Environnement logiciel LHCb

Fig. 1 Le détecteur de LHCb. En bas à gauche : schématiquement ; En bas à droite: «Event Display» développé au LAL.

Retour d'expérience CC-IN2P3

Jean-François Boulicaut & Mohand-Saïd Hacid

Qu est ce qu une offre de Cloud?

Demande d'ap informatique 2012

Présentation de la Grille EGEE

Mise en place d'un gestionnaire de données léger, pluridisciplinaire et national pour les données scientifiques

vmware au CC-IN2P3 Déploiement rapide d une infrastructure destinée à de la formation et réflexions sur vsphere.

Qu est ce qu une offre de Cloud?

TUTOJRES 2014 Retour d'expérience Datacentre du CC IN2P3,

Infrastructures Parallèles de Calcul

Grid Technology. ActiveMQ pour le grand collisionneur de hadrons (LHC) Lionel Cons Grid Technology Group Information Technology Department

ELCA Forum 2014 BIG DATA

VIRTUALISATION : MYTHES & RÉALITÉS

Les participants repartiront de cette formation en ayant une vision claire de la stratégie et de l éventuelle mise en œuvre d un Big Data.

<Insert Picture Here> Solaris pour la base de donnés Oracle

WD et le logo WD sont des marques déposées de Western Digital Technologies, Inc, aux États-Unis et dans d'autres pays ; absolutely WD Re, WD Se, WD

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

BIG DATA en Sciences et Industries de l Environnement

INDUSTRIALISATION ET RATIONALISATION

Quantification d incertitude et Tendances en HPC

Architecture distribuée

Journée Scientifique Onera

Teste et mesure vos réseaux et vos applicatifs en toute indépendance

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr

Portage d applications sur le Cloud IaaS Portage d application

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

ANeXiti 33 quai Arloing lyon cedex

Middleware et services de la grille

Architecture des ordinateurs

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Infrastructure de calcul du CRRI

Plan de Continuité d'activité Concepts et démarche pour passer du besoin à la mise en oeuvre du PCA

La préservation des données scientifiques: une mine d or pour la science de demain

Big Data. Cyril Amsellem Consultant avant-vente. 16 juin Talend

Commissions & groupes de travail du réseau documentaire PRISME Note pour l aide au choix d une commission

Initiation au HPC - Généralités

Vers une fédération de Cloud Académique dans France Grilles J. Pansanel pour le groupe FG-Cloud (M. Airaj, C. Cavet, V. Hamar, M. Jouvin, C.

Thomas Loubrieu (Ifremer) Small to Big Data Novembre 2013, Ifremer, Brest

Les classes de service pour les projets scientifiques

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE

Résumé CONCEPTEUR, INTEGRATEUR, OPERATEUR DE SYSTEMES CRITIQUES

Métriques de performance pour les algorithmes et programmes parallèles

La modernisation de la gestion publique au sein des EPSCP. Colloque des Agents Comptables. 05 juin 2015

Eric Bertrand 08/11/06 Maître de conférence 1

Contributions à l expérimentation sur les systèmes distribués de grande taille

IT SERVICES BUSINESS STORAGE DATA AUDIT PARTNERSHIP INTEGRATOR SECURITY PLANNING PRIVATE AGILITY DYNAMIC PUBLIC TECHNOLOGY SOLUTIONS MANAGEMENT

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

Annexe de la fiche technique HP Datacenter Care - Flexible Capacity Service

La renaissance de l industrie

Adopter une approche unifiée en matière d`accès aux applications

Anticiper et prédire les sinistres avec une approche Big Data

Limitations of the Playstation 3 for High Performance Cluster Computing


<Insert Picture Here> Exadata Storage Server et DB Machine V2

Vérifier la qualité de vos applications logicielle de manière continue

Informatique industrielle A Systèmes temps-réel J.F.Peyre. Partie I : Introduction

Audit activité base Oracle / SAP

Les enjeux du Big Data Innovation et opportunités de l'internet industriel. Datasio 2013

Windows Azure Platform Développez, déployez et administrez pour le Cloud Microsoft

Big data et données géospatiales : Enjeux et défis pour la géomatique. Thierry Badard, PhD, ing. jr Centre de Recherche en Géomatique

Services de la grille

Guide de labellisation

CNAM Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010

SQL Server 2012 et SQL Server 2014

Architectures d implémentation de Click&DECiDE NSI

Le programme détaillé. Salle A07 Salle A06 Salle A04. Initiation à DirectX. Création de Mods Minecraft

Hébergement PHP. Comprendre pour bien choisir son hébergement

Préserva(on des données scien(fiques. C. Diaconu Centre de Physique des Par(cules de Marseille CPPM/IN2P3/CNRS

Retour d expérience RATP. Intégrer le test de performance au cœur du processus de développement agile. Challenges, techniques, résultats.

Les datas = le fuel du 21ième sicècle

Fiche technique RDS 2012

EXIN Cloud Computing Foundation

Les environnements de calcul distribué

La reconquête de vos marges de manœuvre

Creation de Contenus Numériques pour

Programme New BI. Décember Thierry Milhé, Directeur des Systèmes d Information Sagem Défense Sécurité (groupe Safran)

Réunion Information Investissements d Avenir

Windows Server 2012 R2 Administration avancée - 2 Tomes

IAFACTORY. sommaire MATERIALIZE YOUR NEXT SUCCESS. étude marketing, expérience utilisateur, ergonomie étude concurrentielle. principes.

Tivoli Endpoint Manager Introduction IBM Corporation

Extrait du site de l'oseo (ex.anvar) Reste à déterminer les points incontournables

Objectif et contexte business : piliers du traitement efficace des données -l exemple de RANK- Khalid MEHL Jean-François WASSONG 10 mars 2015

Transcription:

La Physique des Particules (LPSC Grenoble) Pour le groupe de travail «Calcul» 1

Le groupe de travail Calcul Nicolas Arnaud (LAL) - Edouard Audit (Irfu - SAp) Volker Beckmann (APC) Dominique Boutigny (CC-IN2P3) Vincent Breton (LPC Clermont et IdG) Sacha Brun (Irfu - SAp) Jaume Carbonell - Frédérique Chollet (LAPP) Cristinel Diaconu (CPPM) Pierre Girard (CC-IN2P3) Gilbert Grosdidier (LAL) Sébastien Incerti (CENBG) Xavier Jeannin (CNRS Renater) - Edith Knoops (CPPM) Giovanni Lamanna (LAPP) Eric Lançon (Irfu SPP) Fairouz Malek (LPSC) Jean-Pierre Meyer (Irfu SPP)) Thierry Ollivier (IPNL) Yannick Patois (IPHC) Olivier Pène - Roman Pöschl (LAL) Ghita Rahal (CC-IN2P3) Patrick Roudeau (LAL) Frédéric Schaer (Irfu SPP) Olivier Stezowski (IPNL) Remerciements à : Claude Charlot (LLR), Sébastien Binet (LAL), Tibor Kurca (IPNL) 2

Les consommateurs de ressources Une vue actuelle : Classement des groupes par consommation de CPU en 2011 au CCIN2P3 Les calendriers : D0 ILC D0 Échelle Log ATLAS CMS LHCb ALICE concrétisation démarrage SUPERB 2010 2012 2014 2016 2018 2020 2022 3

Les ressources allouées au LHC en France Contribution de la France à l'effort mondial : 10% Clé de répartition budgétaire : 15% (ALICE, LHCb), 45% (ATLAS), 25% (CMS) Restriction budgétaire Croissance 2008 (hors CC) CPU : x2 2006 Facteur 20 en 7 ans 2012 4

Les ressources à venir LHC Expression des besoins des expériences : 2 ans à l'avance Pas de plan à long terme (modèles changent, luminosité) 2012 requêtes Chaque T1 2013 requêtes 2014 sera annoncée à la fin du mois +50% (accumulation des données) [Ian Bird, Overview Board WLCG, 9th mars 2012] Ressources dans les sites (calcul grossier) : Budget constant + loi de Moore augmentation des ressources de 30% / an On compte 10 % / an lors des arrêts du LHC (2013, 2017) 5

ILC Activités de calcul actuelles : Analyse données faisceaux tests Simulations détaillées Technical Design Report ILC Conceptual Design Report CLIC Modèle de calcul : Requêtes au CCIN2P3 Année, scénario Stockage [TB] CPU [khs06] 2011 50 2 000 2012 60 12 000 2013 20 2 000 2014 Idem 2013 2014, ILC concretisé 3-4 x 2011 2014, ILC retardé Idem 2013 Distribué (grille, VO ILC ; ouvert au cloud si cette technologie prédomine) Le CCIN2P3 sera sollicité pour jouer un rôle majeur (25% cette année) 2014-1016 : années charnières pour organiser le calcul Requêtes : modestes vs LHC (2012 : 3% de la réquète ATLAS au CC) Mais besoin de services stables Développer la structure en France et l'intégrer dans une structure mondiale 6

SuperB Très grandes quantités de données (ab-1) Comparable à une expérience LHC Année au moment de SLHC Modèle de calcul : Idem Babar (Données brutes : 2 copies) sur la grille (architecture LCG) TDR computing prévu en 2013 Avec MAJ du modèle/estimation Estimation à long terme des besoins Souhaité : rôle majeur du CCIN2P3 (gd succès avec Babar) Préconisé au CCIN2P3 Données Brutes [PB] 1 (mise en place) 0 Stock. bande [PB] Stock. disque [PB] CPU [khep06] 0 0 0 2 (montée 1/2) 10 0.5 1 45 3 (montée 2/2) 40 2 3 175 4 (nominale 1/5) 80 4 5 360 5 (nominale 2/5) 120 7 7 550 6 (nominale 3/5) 160 9 8 750 7 (nominale 4/5) 200 12 9 940 8 (nominale 5/5) 240 14 11 1130 1 copie des données Participation de 10% au calcul et stockage Futur : SuperB ouvert aux progrès dans les modèles des expériences LHC SuperB est engagé dans R&D (parallélisme et IO stockage) 7

Le LHC computing : la grille La grille WLCG en bref La solution au défit informatique du LHC Des centres de calculs distribués Un intergiciel commun, des VO Depuis le démarrage du LHC La grille marche vraiment Production MC, traitement des données De nombreux utilisateurs pour l'analyse finale : ~800 (ATLAS, CMS); ~250 (LHCb, ALICE) CMS 8

Leçons apprises LHC La grille est complexe Beaucoup de travail sous-jacent (sites) Beaucoup d'effort pour cacher la complexité aux utilisateurs Modèle hiérarchique des débuts (2002) Jobs envoyés aux données Données résidentes et pré-placées MAIS ne tient pas compte de la popularité Inquiétude vis-à-vis du réseau à l'époque MAIS réseau très stable Services distribués nouvelle tendance à centraliser (simplification) Evolutions passées des modèles Placement dynamique des données Distribution des software sur les sites (CVMFS) 9

Un déluge de données Halving time : date où il y a un doublement des données Doublement du dataset chaque année Stockage, accès et traitement des données Traitement des données Passage à l'échelle avec les technologies actuelles? Problème qui n'est plus propre à notre communauté (sciences, ecommerce, réseaux sociaux,...) Nb d'événements Travail en cours : Fédération de stockage (un point d'entrée unique, xrootd) Développements dans les bases de données (rapidité d'accès) Condition d'un bon réseau (LHCOne) Investigations de produits issus du web (Hadoop) Passage au cloud («self-service», élasticité) cf. Dominique Boutigny 10

La consommation de mémoire - Cahier des charges pour les sites : 2 GB/ core de mémoire - Flot d'informations à traiter Eg : ATLAS MC event avec trigger et «truth» dépasse 3GB demande aux sites d'augmenter les limites des queues - Le pile-up en 2012 devrait excéder les prévisions initiales Eg : CMS pourraient être limité en mémoire pour le reprocessing en 2012 augmentation de la mémoire par core Pas en adéquation avec les machines modernes CMS ALICE 11

2005 : «The free lunch is over» - Les performances des CPUs conventionnelles ne progressent plus - Si les besoins en HEP augmentent, il faut s'adapter aux nouvelles architectures : multi-cores, many-cores, GPU (console de jeux) Multi-cores actuelles Limitation mémoire et IO par coeur Fréquence d'horloge atteint un plateau 12

Solutions Thread = fil d'exécution - La technique HEP ne marche plus 1 processus et un thread sur 1 core ; n cores indépendants - Obligation de paralléliser Les événements (relativement facile) Les algorithmes (difficile et peu de gain en mémoire actuellement) 13

Court terme : multi-cores Le Fork() : partage la mémoire entre parent et enfants - fourni par Unix - facile à adapter Toutes les expériences l'exploitent. Queues de batch de tests en place. CMS, résultat 4 CPU, 8 core/cpu Shared memory / child : ~ 700 MB Private memory / child : ~ 375 MB Tot. mem. used by 32 jobs indiv. : 34 GB Tot. mem. used by 32 child : 13 GB Gain facteur 2.5 14

Moyen-Long terme Multi-cores : parallélisation des algorithmes (multi-threading) Taille des événements Ré-écriture du software effort global des collaborations Échelle de temps : 2014-2015 GPU appliqué à la recherche de seeds GPUs Many-cores Gain : facteur 10 ATLAS (ttbar events) Cf. Dominique Boutigny L2 tracking (ATLAS) Prédire à long terme sur les technologies est difficile. Mais les besoins sont immenses. 15

DPHEP: International Study Group on Data Preservation (ICFA Panel) IHEP FNAL 2011 Buts initiaux (2009) Achèvements et plans Confronter les modèles de données Clarifier les concepts, mettre en place un langage commun 5 w-shops: DESY, SLAC, CERN, KEK, FNAL 2 projets dédiés Investiguer les aspects techniques Comparer et créer des liens avec les autres champs astrophysique, sciences de la vie, librairies Première publication du concept: arxiv:0912.0255 2012: Status Report Document: mai 2012 Session à CHEP2012, w-shop automne Europe SLAC/Babar and DESY/HERA Consolider la collaboration internationale 16

En guise de conclusion La grille est à peine née : elle a montré ses limites - Nous sommes à un tournant - Difficile de faire des projections Sur les 10 prochaines années : - tout une richesse d'expériences à soutenir dont 6 projets phares - la physique a besoin de plus en plus de calcul Pendant que nous développions le grille, d'autres idées sont nées 17

Les risques Nos besoins sont en très forte croissance LHC : soutenir l'augmentation du taux de pile-up, luminosité, ecm Multiplication des projets très gros consommateurs de ressources informatiques Il faut budgétiser l'informatique en amont d'un projet. «End of the free lunch», la loi de Moore ne marche plus L'industrie a des parades mais notre software doit suivre Il faut préparer les futurs achats et investissements Passage vers le cloud Centres de calcul de la communauté cloud Le stockage est le problème délicat. Et tout ce qui n'est pas spécifique à l'informatique : - Budget plat au mieux - Perte d'expertise par mouvements de personnels - Gestion par projets de courte durée (EGI et budgets) 18