What is «HPC»? High Performance Hardware. A short overview of High Performance Computing. M2-ILC Parallélisme, systèmes distribués et grille

Documents pareils
Eléments d architecture des machines parallèles et distribuées

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Editing and managing Systems engineering processes at Snecma

VMware : De la Virtualisation. au Cloud Computing

Initiation au HPC - Généralités

Le projet Gaïa, le Big Data au service du traitement de données satellitaires CRIP - 16/10/2013 Pierre-Marie Brunet

Application Form/ Formulaire de demande

Stratégie DataCenters Société Générale Enjeux, objectifs et rôle d un partenaire comme Data4

Les environnements de calcul distribué

Organiser vos données - Big Data. Patrick Millart Senior Sales Consultant

Lamia Oukid, Ounas Asfari, Fadila Bentayeb, Nadjia Benblidia, Omar Boussaid. 14 Juin 2013

SERVEUR DÉDIÉ DOCUMENTATION

We Generate. You Lead.

Cloud Computing: de la technologie à l usage final. Patrick CRASSON Oracle Thomas RULMONT WDC/CloudSphere Thibault van der Auwermeulen Expopolis

Plateforme Technologique Innovante. Innovation Center for equipment& materials

Retours d expériences et perspectives sur les aspects énergétiques

Instructions Mozilla Thunderbird Page 1

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

BNP Paribas Personal Finance

Génération de code binaire pour application multimedia : une approche au vol

The assessment of professional/vocational skills Le bilan de compétences professionnelles

Présentation par François Keller Fondateur et président de l Institut suisse de brainworking et M. Enga Luye, CEO Belair Biotech

JSIam Introduction talk. Philippe Gradt. Grenoble, March 6th 2015

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.

Quick Start Guide This guide is intended to get you started with Rational ClearCase or Rational ClearCase MultiSite.

Le passé composé. C'est le passé! Tout ça c'est du passé! That's the past! All that's in the past!

Dans une agence de location immobilière...

Les mésocentres HPC àportée de clic des utilisateurs industriels

Accès aux données Sentinelles

Architecture des ordinateurs

POLICY: FREE MILK PROGRAM CODE: CS-4

en SCÈNE RATIONAL Rational Démonstration SDP : automatisation de la chaîne de développement Samira BATAOUCHE sbataouche@fr.ibm.com

Institut français des sciences et technologies des transports, de l aménagement

Architecture des calculateurs

VOTRE POLITIQUE D'ARCHIVAGE EST-ELLE ADAPTÉE? Démarche projet. Alain Le Corre, Responsable de Marché, Gestion de l information

Les Grandes Tendances d Investissement Informatique en 2011/ Rachel Hunt

Software and Hardware Datasheet / Fiche technique du logiciel et du matériel

L'écosystème du calcul intensif et des données : la vision du CNRS. M. Daydé. Directeur du Comité d Orientation pour le Calcul Intensif au CNRS

Infrastructures Parallèles de Calcul

Instructions pour mettre à jour un HFFv2 v1.x.yy v2.0.00

Utiliser une WebCam. Micro-ordinateurs, informations, idées, trucs et astuces

LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24

Township of Russell: Recreation Master Plan Canton de Russell: Plan directeur de loisirs

XtremWeb-HEP Interconnecting jobs over DG. Virtualization over DG. Oleg Lodygensky Laboratoire de l Accélérateur Linéaire

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

Services à la recherche: Data Management et HPC *

Networking Solutions. Worldwide VSAT Maintenance VSAT dans le Monde Entretien. Satellite Communications Les Communications par Satellite

Engineered for Business: Oracle Hardware for Oracle Database

Paxton. ins Net2 desktop reader USB

De l Etudiant à SBA à l Enseignant Chercheur à l ENSMA

affichage en français Nom de l'employeur *: Lions Village of Greater Edmonton Society

Warning: Failure to follow these warnings could result in property damage, or personal injury.

Sagemcom EDI with Suppliers

Le No.1 de l économie d énergie pour patinoires.

Notice Technique / Technical Manual

APPENDIX 6 BONUS RING FORMAT

Bourses d excellence pour les masters orientés vers la recherche

Containers : Outils magiques pour les Devops? OpenNebula et son écosystème pour une infrastructure cloud agile

Kick Off SCC EMC l offre EXTREMIO. fmarti@fr.scc.com Philippe.rolland@emc.com. Vers de nouveaux horizons

SysFera. Benjamin Depardon

Garage Door Monitor Model 829LM

DOCUMENTATION - FRANCAIS... 2

The new consumables catalogue from Medisoft is now updated. Please discover this full overview of all our consumables available to you.

Comprendre l impact de l utilisation des réseaux sociaux en entreprise SYNTHESE DES RESULTATS : EUROPE ET FRANCE

Product Overview Présentation produits

Fabricant. 2 terminals

Architecture client riche Evolution ou révolution? Thomas Coustenoble IBM Lotus Market Manager

setting the scene: 11dec 14 perspectives on global data and computing e-infrastructure challenges mark asch MENESR/DGRI/SSRI - France

Qualité et ERP CLOUD & SECURITY (HACKING) Alireza MOKHTARI. 9/12/2014 Cloud & Security

Cliquez pour modifier les styles du texte du masque

Data Center Rittal: standard ou sur mesure? Rittal Yverdon IT

«39 years of experience» ( )

Gestion des prestations Volontaire

Développement logiciel pour le Cloud (TLC)

Quantification d incertitude et Tendances en HPC

Interest Rate for Customs Purposes Regulations. Règlement sur le taux d intérêt aux fins des douanes CONSOLIDATION CODIFICATION

SAP SNC (Supply Network Collaboration) Web Package. (Français / English) language. Edition 2013 Mars

Cloud Computing. Introduction. ! Explosion du nombre et du volume de données

INVESTMENT REGULATIONS R In force October 1, RÈGLEMENT SUR LES INVESTISSEMENTS R En vigueur le 1 er octobre 2001

From Smart-1 to Galileo G2, Snecma is designing, developing and operating optimized HET propulsion architectures

Une réelle solution HA Continuité en toute situation!

Contents Windows

SEMINAIRE SAS VISUAL ANALYTICS LAUSANNE, MARCH 18 : JÉRÔME BERTHIER VALERIE AMEEL

Nouveautés printemps 2013

Consultants en coûts - Cost Consultants

SparkInData. Place de Marché des applications Spatiales

Anticiper et prédire les sinistres avec une approche Big Data

1 400 HKD / year (Season : 21/09/ /06/2016)

Forthcoming Database

FOURTH SESSION : "MRP & CRP"

BIG Data et R: opportunités et perspectives

sur le réseau de distribution

Mesure chimique. Chemical measurement. Sonde de température Pt 1000 Inox Pt 1000 stainless steel. Ref : Français p 1.

QlikView et Google Big Query : Une réponse simple, rapide et peu coûteuse aux analyses Big Data

Cours 13. RAID et SAN. 2004, Marc-André Léger

Tier 1 / Tier 2 relations: Are the roles changing?

Renewable Energy For a Better World. Transforming Haïti s energy challenges into wealth and job creating opportunities ENERSA

Directions Marketing : réussir vos challenges stratégiques et opérationnels d aujourd hui

Windows Server Chapitre 1: Découvrir Windows Server 2008

Transcription:

What is «HPC»? M2-ILC Parallélisme, systèmes distribués et grille A short overview of High Performance Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle High performance hardware Numerical algorithms Serial optimization tilling Vectorization Multithreading Message passing Parallel programming Intensive computing & large scale applications Big Data High Performance TeraFlops PetaFlops ExaFlops «HPDA» TeraBytes PetaBytes ExaBytes 2 Inside. high performance hardware 3 4 essor essor 5 6 1

essor PC cluster essor PC cluster Super- Computer 7 8 What are the problems? Fat Tree interconnect essor Fat Tree interconnect Fat Tree interconnect essor PC cluster PC cluster Super- Computer + hardware accelerators 9 Programming Failures/MTBF Super- Computer Energy consumption + hardware accelerators 10 Top500 site: HPC roadmap Top500 site: HPC roadmap Decline? 2

Why multi-core essors? Shared or distributed memory? Re-interpreted Moore s law Processor performance increase due to parallelism since 2004: CPU performance increase is due to (different) parallel mechanisms since several years and they require explicit parallel programming 13 W. Kirshenmann EDF & EPI AlGorille, d après une première étude menée par SpiralGen 14 Impossible to dissipate so much electrical power in the silicium and to pay for consuming so much energy Re-interpreted Moore s law To bound frequency and to increase the nb of is energy efficient Re-interpreted Moore s law 2 0.75 3 = 0.8 Auteur : Jack Dongara Auteur : Jack Dongara Re-interpreted Moore s law Initial (electronic) Moore s law: each 18 months x2 number of transistors per µm² Previous computer science interpretation: each 18 months x2 essor speed New computer science interpretation: each 24 months x2 number of Leads to a massive parallelism challenge: to split many codes in 100, 1000,.. 10 6 threads 10 7 threads!! 3 classic parallel architectures Shared-memory machines (Symetric MultiProcessor): Network ory One principle: - several implementations, - different costs, - different speeds. Overview of Recent Supercomputers Aad J. van der Steen Jack J. Dongarra18 3

3 classic parallel architectures Distributed-memory machines (clusters): 3 classic parallel architectures Distributed Shared ory machines (DSM): Hypercubes Fat trees cache coherence Non Uniform ory Architecture (ccnuma) Extends the cache mechanism Cluster basic principles, but cost and speed depend on the interconnection! Gigabit Ethernet Overview of Recent Supercomputers Hardware implementation: fast & expensive architecture 19 Aad J. van der Steen Jack J. Dongarra Software implementation: slow & cheap! 20 Highly scalable Up to 1024 nodes Support global multithreading 3 classic parallel architectures Shared memory «SMP» Distributed memory «Cluster». Distributed shared memory «DSM» Evolution of parallel architectures % of computing power in Top500 % of 500 systems in Top500 Simple and efficient up to 16 essors. Limited solution Unlimited scalability. But efficiency and price depend on the interconnect. 2016 : almost all supercomputers have Comfortable and efficient solution. Efficient hardware implementation up to 1000 essors. 1993 2016 1993 2016 Pure SIMD SMP MPP (cluster with custom interconnect) Single essor ShM vector machine Cluster 2016 : almost all supercomputers have BUT a cluster-like architecture 21 a cluster-like architecture 22 Modern parallel architecture Modern parallel architecture One PC cluster Cluster architecture: One PC / One node One NUMA node Cluster of NUMA nodes Time to access a data in the RAM of the essor < Time to access a data in a RAM attached to another essor (several times exist inside one NUMA node) < Time to send/recv a data to/from another node «Hierarchical architecture»: {data thread} location become critic 4

Current standard HPC systems Fault Tolerance in HPC Can we run a very large and long parallel computation, and succeed? Can a one-million core parallel program run during one week? Cluster of multi-essor NUMA nodes with hardware vector accelerators Hierarchical and hybrid architectures : multi-paradigms programming (or new high level paradigm ) AVX vectorization: #pragma simd + CPU multithreading: #pragma omp parallel for + Message passing: MPI_Send(, Me-1, ); MPI_Recv(..., Me+1, ); + GPU vectorization mykernel<<<grid,bloc>>>( ) + checkpointing 25 26 Fault tolerance Mean Time Between Failures MTBF definition: Fault tolerance Mean Time Between Failures Experiments: The Cray-1 required extensive maintenance. Initially, MTBF was on the order of 50 hours. MTBF is Mean Time Between Failures, and in this case, it was the average time the Cray-1 worked without any failures. Two hours of everyday was typically set aside for preventive maintenance. (Cray-1 : 1976) System Resilience at Extreme Scale White Paper Prepared for Dr. William Harrod, Defense Advanced Research Project Agency (DARPA) Today, 20% or more of the computing capacity in a large high-performance computing system is wasted due to failures and recoveries. Typical MTBF is from 8 hours to 15 days. As systems increase in size to field petascale computing capability and beyond, the MTBF will go lower and more capacity will be lost. 27 Addressing Failures in Exascale report produced by a workshop on Addressing Failures in Exascale 2012-2013 28 Fault tolerance Why do we need fault tolerance? Fault tolerance Fault tolerance strategies Processor frequency is limited and number of increases we use more and more We do not attempt to speedup our applications we ess larger problems in constant time! (Gustafson s law) We use more and more during the same time probability of failure increases! We (really) need for fault tolerance or parallel applications will never end! 29 High Performance : big computations (batch mode) Checkpoint/restart is the usual solution Complexify src code, time consumming, disk consumming! High Throuhgput : flow of small and time constrained tasks Small and independent tasks A task is re-run (entirely) when failure happens Fault tolerance in HPC remains a «hot topic» Big Data: Data storage redundancy Computation on (frequently) incomplete data sets Different approach! 30 5

Energy Consumption 1 PetaFlops: 2.3 MW! 1 ExaFlops : 2.3 GW!! 350 MW!.. 20 MW?? Perhaps we will be able to build the machines, but not to pay for the energy consumption!! 31 Energy consumption From Petaflops to Exaflops 1000 perf 100 /node 10 nodes 50 IO 10 energy (only 10) 1.03 Petaflops : June 2008 RoadRunner (IBM) Opteron + PowerXCell 122440 500 Gb/s (IO) 2.35 Mwatt!!!!!! 1.00 Exaflops : 2018-2020 2020-2022 25 Tb/s (IO) 20 35 MWatt max. 93.01 Petaflops : juin 2016 Sunway TaihuLight (NRCPC - China) Sunway SW26010 260C 1.45GHz 10 649 600 15.4 MWatt How to program these machines? How to train large developer teams? 32 93.0 Pflops 41 000 esseurs Sunway SW26010 260C 1.45GHz 10 649 600 Sunway interconnect: 5-level integrated hierarchy (Infiniband like?) 15.4 MWatt Energy consumption Sunway TaihuLight: N 1 in 2016 is close to 30% of the energy consumption Optimization is mandatory! 33 34 is strategic! Liquid and immersive cooling Des esseurs moins gourmands en énergie : on essaie de limiter la consommation de chaque esseur les esseurs passent en mode économique s ils sont inutilisés on améliore le rendement flops/watt Mais une densité de esseurs en hausse : une tendance à la limitation de la taille totale des machines (en m² au sol) Refroidissement par immersion des cartes dans un liquide électriquement neutre, et refroidi. Refroidissement liquide par immersion testé par SGI & Novec en 2014 Besoin de refroidissement efficace et bon marché (!) Souvent estimé à 30% de la dépense énergétique! Une carte d un IBM Blue Gene 35 Refroidissement liquide par immersion sur le CRAY-2 en 1985 36 6

Cold doors (air+water cooling) Direct liquid cooling On amène de l eau froide directement sur le point chaud, mais l eau reste isolée de l électronique. Expérimental en 2009 Adopté depuis (IBM, BULL, ) On refroidit par eau une «porte/grille» dans laquelle circule un flux d air, qui vient de refroidir la machine Le refroidissement se concentre sur l armoire. Lame de calcul IBM en 2012 Commercialisée Carte expérimentale IBM en 2009 (projet Blue Water, abandonné) 37 38 Optimized air flow Extreme air cooling Optimisation des flux d air : en entrée et en sortie des armoires Architecture Blue Gene : haute densité de esseurs Objectif d encombrement minimal (au sol) et de consommation énergétique minimale Formes triangulaires ajoutées pour optimiser le flux d air Refroidissement avec de l air à température ambiante : - circulant à grande vitesse - circulant à gros volume Les CPUs fonctionnent he de leur température max supportable (ex : 35 C sur une carte mère sans pb) IBM Blue Gene Il n y a pas de refroidissement du flux d air. 39 Economique! Mais arrêt de la machine quand l air ambiant est trop chaud (l été)!40 Une machine de Grid 5000 à Grenoble (la seule en Extreme ) Interesting history of CRAY company Cray-1, 1976 133Mflops 41 Cray-T90, 60 gigaflops Cray-2, 1985 1.9 gigaflops Cray-J90 Cray-YMP, 1988 Cray-C90, 1991 16 gigaflops 42 7

NEC (SX) Accord d importation Apparition du Earth Simulator : gros cluster vectoriel NEC : 640-nœuds de 8 esseurs : 5120 esseurs 40 Tflops crête, a atteint les 35 Tflops en juin 2002 Cray-T90, 60 gigaflops Cray-SV1 1 teraflop Cray est démembré et semble avoir disparu. Puis en 2002 un évènement survient. Cray-SV2 Cray-SX-6 43 Le vectoriel revient à la 1 ère place du Top500 (en 2002)! Vector MPP 44 CRAY était de nouveau là, avec de grandes ambitions: Forte inquiétude des USA! 45 46 Vector MPP Cray-T90, 60 gigaflops Vector MPP Machine annoncée Cray-SV1 1 teraflop Cray-X1 52.4 Tflops Cray-XT3 Cray-XT5 cluster de CPU multicoeurs, Linux Cray-XT4 Cray-X1 52.4 Tflops Cray-SV2 Cray-SX-6 47 Cray-XT6 ou XT6h (?) Opteron 6- Tore 2D Réseau Cray Cray-XT5h (hybrid) cluster de noeuds CPU/Vectoriels/FPGA, Unicos (Cray Unix) 48 8

Cray XT6 : 1 er au top500 en novembre 2009 : 1.7 Pflops avec 6.9 Mwatt Architecture : réseau d interconnexion propriétaire + Opteron 6-cœurs Architectures traditionnelles et très consommatrices d énergie mais très efficace et sous Linux (logiciels disponibles) Machine dénommée «Jaguar» Cray de nouveau à la 1 ère place en nov 2009 avec des Opteron Cray XK7 : entrée des accélérateurs dans la gamme CRAY 1 er au top500 en novembre 2012 : 17.6 Pflops avec 8.2 Mwatt Architecture : réseau d interconnexion propriétaire chaque nœud : Opteron 16-cœurs + GPU NVIDIA Tesla K20 18688 nœuds 299008 CPU + 18688 GPU K20 Cray à la 1 ère place en nov 2012 avec Opteron + GPU Cray XK7 : entrée des accélérateurs dans la gamme CRAY 1 er au top500 en novembre 2012 : 17.6 Pflops avec 8.2 Mwatt Architecture : réseau d interconnexion propriétaire chaque nœud : Opteron 16-cœurs + GPU NVIDIA Tesla K20 18688 nœuds 299008 CPU + 18688 GPU K20 Cray à la 3ème place en juin 2016 avec Opteron + GPU A short overview of High Performance Questions? 52 9