AMS-TA01 Calcul scientifique parallèle



Documents pareils
Quantification d incertitude et Tendances en HPC

Segmentation d'images à l'aide d'agents sociaux : applications GPU

Infrastructures Parallèles de Calcul

Architecture des ordinateurs

Les environnements de calcul distribué

Initiation au HPC - Généralités

Limitations of the Playstation 3 for High Performance Cluster Computing

Parallélisme et Répartition

Une dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU

Contribution à la conception à base de composants logiciels d applications scientifiques parallèles.

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5

Architecture des calculateurs

Aspects théoriques et algorithmiques du calcul réparti L agglomération

La maison de la simulation

MODALITES DE SUIVI DU PROJET ANNUEL DU MASTER 2 SOLUTIONS INFORMATIQUES LIBRES

Rapport 2014 et demande pour Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

La Forge INRIA : bilan et perspectives. Hervé MATHIEU - 11 mai 2010

Les participants repartiront de cette formation en ayant une vision claire de la stratégie et de l éventuelle mise en œuvre d un Big Data.

Infrastructure de calcul du CRRI

UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES. THÈSE présentée par :

Détection d'intrusions en environnement haute performance

: l IDRIS a vingt ans!

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle

Multiprogrammation parallèle générique des méthodes de décomposition de domaine

Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy

THÈSE. pour obtenir le grade de. Spécialité : "Informatique : Systèmes et Communications"

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

Thomas Loubrieu (Ifremer) Small to Big Data Novembre 2013, Ifremer, Brest

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

Change the game with smart innovation

SQL Server 2012 et SQL Server 2014

Leçon 1 : Les principaux composants d un ordinateur

20 ans du Master SIAD de Toulouse - BigData par l exemple - Julien DULOUT - 22 mars ans du SIAD -"Big Data par l'exemple" -Julien DULOUT

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

Arrêt sur image. La simulation numérique au programme de l industrie

Conception des systèmes répartis

PROGRAMME DETAILLE. Parcours en première année en apprentissage. Travail personnel CC + ET réseaux


Anticiper et prédire les sinistres avec une approche Big Data

UFR d Informatique. FORMATION MASTER Domaine SCIENCES, TECHNOLOGIE, SANTE Mention INFORMATIQUE

Masses de données. 1. Introduction 2. Problématiques 3. Socle de formation (non présenté) 4. Liens avec Formation INSA

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

Introduction à la Programmation Parallèle: MPI

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

UE 8 Systèmes d information de gestion Le programme

Spécialité IAD. Master de Sciences et technologie de l UPMC. Mention informatique. Partenaires : ENST, ENSTA. Responsables : T. Artières, C.

Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction

État de l art des simulations multi-agents sur GPU

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar

Chapitre 01 Généralités

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

4.2 Unités d enseignement du M1

Eléments d architecture des machines parallèles et distribuées

Architecture de la grille

Ecole des Hautes Etudes Commerciales HEC Alger. par Amina GACEM. Module Informatique 1ière Année Master Sciences Commerciales

Robin Favre Fabien Touvat. Polytech Grenoble RICM 3 ème Année Vendredi 21 Novembre 2008 Etude d Approfondissement Réseau

IRL : Simulation distribuée pour les systèmes embarqués

Introduction à la programmation des GPUs

Diplôme de Comptabilité et de Gestion. D é c r e t N d u 2 2 d é c e m b r e A r r ê t é d u 8 m a r s

Méthodologie de conception pour la virtualisation et le déploiement d applications parallèles sur plateforme reconfigurable matériellement

Rencontre sur la thématique du Calcul Haute Performance - 13 juin Better Match, Faster Innovation

Concours interne d ingénieur des systèmes d information et de communication. «Session 2010» Meilleure copie "étude de cas architecture et systèmes"

Hiérarchie matériel dans le monde informatique. Architecture d ordinateur : introduction. Hiérarchie matériel dans le monde informatique

Exposé de Pérennisation Comission de la Recherche 26 juin 2014

Parcours en deuxième année

A1-1 - Aspects théoriques et algorithmiques du calcul réparti

Default Performance Monitor - WhatsUp

À qui s adresse cet ouvrage?

Performances. Gestion des serveurs (2/2) Clustering. Grid Computing

Systèmes et traitement parallèles

Séminaire RGE REIMS 17 février 2011

Les mésocentres HPC àportée de clic des utilisateurs industriels

Calcul Haute Performance & Données

Rapport d activité Volet Technique

Université Libre de Tunis

Programmation C. Apprendre à développer des programmes simples dans le langage C

Asynchronisme : Cadres continu et discret

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux

Assemblée générale Aristote

INGENIERIE DES SYSTEMES INFORMATIQUES - PARCOURS : MOBILITE ET CLOUD COMPUTING

Rapport de stage Master 2

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

FICHE UE Licence/Master Sciences, Technologies, Santé Mention Informatique

3 ème journée des utilisateurs de l archivage

Rapport d activité Volet Technique

CERTIFICAT INFORMATIQUE ET INTERNET NIVEAU 1

L offre Stockage et serveurs System x / BladeCenter F.Libier, Business Partner Technical Manager

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24

Windows 7 - Installation du client

Présentation de la Grille EGEE

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation

Thèse. Du support générique d opérateurs de composition dans les modèles de composants logiciels, application au calcul à haute performance.

Master Ingénierie Nucléaire Master of Science Nuclear Energy

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

Happy birthday ZSet High performance computing dans ZSet

Une bibliothèque de templates pour CUDA

Transcription:

AMS-TA01 Calcul scientifique parallèle Edouard AUDIT Ingénieur-Chercheur Maison de la Simulation Patrick CIARLET Enseignant-Chercheur UMA Erell JAMELOT Ingénieur-Chercheur CEA Pierre KESTENER Ingénieur-Chercheur Maison de la Simulation Nicolas KIELBASIEWICZ Ingénieur de Recherche UMA Fabrice ROY Ingénieur de Recherche LUTH Calcul scientifique parallèle 1

Architecture des machines parallèles «Ordinateur/Machine parallèle» [cluster] Ensemble de nœuds reliés par un réseau d interconnexion Nœud = ressources de calcul et de stockage mémoire Ressources de calcul sur un nœud Ensemble de processeurs Processeur = plusieurs cœurs [multicore] et mémoire [cache] Type de processeurs «standard» : Central Processing Unit [CPU], environ 10 cœurs/proc. «accélérateur» : Graphics Processing Unit [GPU], 100-1000 cœurs/proc. Stockage mémoire sur un nœud Mémoire «partagée» entre processeurs Non-Uniform Memory Access [NUMA] : réseau d interconnexion intra-nœud entre processeurs pour accès à la mémoire «partagée». Calcul scientifique parallèle 2

Programmation des machines parallèles Deux niveaux de programmation parallèle : Entre nœuds : via échange de messages [Message Passing Interface, MPI] Sur un même nœud : Entre des cœurs de processeurs «standards» : via OpenMP [Multi-Processing] Entre des cœurs d «accélérateurs» : via OpenCL [Computing Language], CUDA Programmation «hybride» : si on dispose de processeurs «standards» : MPI/OpenMP si on dispose d «accélérateurs» : MPI/OpenCL Mémoire vs. programmation : MPI pour accès à une mémoire distante (mémoire «distribuée») OpenMP ou OpenCL pour accès à une mémoire «partagée» Calcul scientifique parallèle 3

Contenu du cours AMS-TA01 Dans la première partie, on présentera la démarche de la conception de programmes parallèles, puis on détaillera les grandes étapes théoriques du calcul scientifique parallèle. Outils utilisés : algorithmique (parallèle), algèbre linéaire, analyse numérique. Dans la deuxième partie, on appliquera cette démarche à la résolution numérique de problèmes physiques discrétisés par différences finies, volumes finis ou éléments finis, en mettant l accent sur l extraction du parallélisme. Les modèles seront structurés et non-structurés. Outils utilisés : langages de programmation (FORTRAN) & MPI. Calcul scientifique parallèle 4

Déroulement pratique du cours (1/2) 1 ère séance partie I (mercredi 16/09) : aspects théoriques et algorithmiques du calcul réparti Comment découper le travail à réaliser? Le partitionnement ; Comment échanger de l information? Les communications ; Comment optimiser le calcul global? L agglomération ; Comment distribuer les calculs? Le placement. 1 ère séance partie II (vendredi 18/09) : présentation calcul hautes performances [HPC] supercalculateurs ; initiation MPI. Calcul scientifique parallèle 5

Déroulement pratique du cours (2/2) Partie I (mercredi matins x9) : aspects théoriques du calcul scientifique parallèle partitionnement de graphe ; modélisation par différences finis et éléments finis ; algorithmes parallèles pour problèmes structurés et non-structurés : multiplication matrice-vecteur ; résolution de système linéaire : méthodes itératives (Jacobi, Gauss-Seidel, gradient conjugué, ) ; résolution de système linéaire : méthodes directes (Gauss, complément de Schur, ) ; introduction aux méthodes de décomposition de domaine. Partie II (vendredi matins x9) : mise en œuvre du calcul hautes performances initiation MPI ; programmation parallèle (FORTRAN & MPI). Notation : examen écrit (partie I) ; réalisation de deux projets + soutenance orale (partie II). Calcul scientifique parallèle 6

Contexte du cours AMS-TA01 A l ENSTA, le cours AMS-TA01 fait partie de la filière 3A ModSim. A l Université Paris-Saclay, le cours AMS-TA01 fait partie du cursus du Master AMS (Analyse, Modélisation & Simulation). Cours d approfondissement : AMS-TA05 : Méthodes de décomposition de domaine pour la simulation numérique ; AMS-I03 : Programmation «hybride» et multi-cœurs. Applications : AMS-I05 : Simulation numérique en physique des plasmas ; AMS-I06 : Simulation numérique en astrophysique. Compléments : AMS-I04 : Informatique scientifique approfondie ; AMS-I07 : Visualisation scientifique. Calcul scientifique parallèle 7