Calcul parallèle : pourquoi et comment. Fabrice Roy Journée du LUTH, 08 février 2008

Documents pareils
Infrastructures Parallèles de Calcul

Infrastructure de calcul du CRRI

Les environnements de calcul distribué

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Présentation de la Grille EGEE

Cluster de calcul Freeware en Océanographie Opérationnelle

Initiation au HPC - Généralités

Service Cloud Recherche

BONJOURGRID : VERSION ORIENTÉE DONNÉE & MAPREDUCE SÉCURISÉ

Parallélisme et Répartition

Micro ordinateur & Périphériques Mémoire de masse Disque dur (SOLUTION)

Système de stockage IBM XIV Storage System Description technique

Gestion de clusters de calcul avec Rocks

Middleware et services de la grille

DG-ADAJ: Une plateforme Desktop Grid

Introduction à la Visualisation Scientifique

Calcul Haute Performance & Données

Quantification d incertitude et Tendances en HPC

Rapport 2014 et demande pour Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Programmation C. Apprendre à développer des programmes simples dans le langage C

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes

Introduction à l informatique temps réel Pierre-Yves Duval (cppm)

Les classes de service pour les projets scientifiques

Thomas Loubrieu (Ifremer) Small to Big Data Novembre 2013, Ifremer, Brest

II-Solution technique pour le développement du site de l'urma

Les services de la PLM Mathrice. Et quelques outils de web-conférence

Square-IT-Consulting. Présentation

Conseils et astuces pour un déploiement réussi de la solution VMware Mirage

Introduction à la Programmation Parallèle: MPI

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

d. Tendances du marché...22 e. Une vision européenne...22 III. La distribution en France... 23

Informatique pour scientifiques hiver Plan général Systèmes d exploitation

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

Capacité de mémoire Tablettes

VMware vsphere 5.0. Licences, tarifs et offres

Chapitre 2. Cluster de calcul (Torque / Maui) Grid and Cloud Computing

Grid5000 aujourd'hui : Architecture & utilisation

WN/CMGC/08/98. Enjeu et problématique du portage d'arpege-nemo sur calculateurs super-scalaires. Eric Maisonnave

Sage 100 Entreprise Edition Etendue Module CRM Inclus

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I

Solution logicielle pour le pilotage et l ERM. Journées d études IARD 26 mars mars 2010

On distingue deux grandes catégories de mémoires : mémoire centrale (appelée également mémoire interne)

Indicateurs Normes Codes de conduite. Françoise Berthoud Grenoble, 12 juin 2012

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Premiers pas avec VMware Fusion. VMware Fusion pour Mac OS X

Limitations of the Playstation 3 for High Performance Cluster Computing

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24

JOSY VIRTUALISATION 9 ET 10 JUIN 2011 POSTE DE TRAVAIL ET VIRTUALISATION. Sébastien Geiger IPHC

Intérêt du découpage en sous-bandes pour l analyse spectrale

Cours Bases de données

Résolvez vos problèmes d énergie dédiée à l informatique

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre Systèmes et Technologies de l Information

La sécurité dans les grilles

Calculs financiers : Cash-Flow, Tableaux d amortissement

Steganos présente Security Suite 2007, son incontournable suite de sécurité pour PC.

CORBA haute performance

Rapport d activité. Mathieu Souchaud Juin 2007

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

Jean-François Boulicaut & Mohand-Saïd Hacid

MATHÉMATIQUES ET SCIENCES HUMAINES

Architecture de la grille

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Fiche produit Serveur FUJITSU PRIMERGY BX900 S2 Système de serveur lame

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Gestion répartie de données - 1

Perspectives en matière de portails géographiques et de 3D

SED SELF ENCRYPTING DRIVE Disques durs chiffrant : la solution contre les pertes de données

Ajouter un cache SSD à son ordinateur

Sauvegarde des données au LAAS

Les opportunités du modèle de Cloud Computing. Fabrice Dubosc

Détection d'intrusions en environnement haute performance

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

Une nouvelle génération de serveur

Utilisation du Cloud StratusLab dans le cadre d application astroparticule à l APC

WEA Un Gérant d'objets Persistants pour des environnements distribués

Fair Eco. Co-développement d éco-technologies innovantes sources de compétitivité

CREER UNE VM DANS WORKSATION. Créer un Virtual Machine dans VMware Workstation 9

Génération de code binaire pour application multimedia : une approche au vol

Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace

La technologie Java Card TM

1. Présentation du TP

Par CADICI Grégory & FRITZ Rémy

Évaluation d une architecture de stockage RDF distribuée

D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale

Logiciel de capture et de gestion des flux de documents MOINS DE PAPIER, PLUS D EFFICACITÉ. VOUS POUVEZ COMPTER SUR NOUS

Retours d expériences et perspectives sur les aspects énergétiques

L équipement choisit devra être nomade, il servira aux visiteurs en déplacements et sera donc sujets à des limitations de tailles et de poids.

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

Portage du modèle climatique de surface continentale de l'ipsl. sur une grappe de serveurs XD1

Dispositif sur budget fédéral

Architecture des ordinateurs

Le data center moderne virtualisé

Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction

Transcription:

Calcul parallèle : pourquoi et comment Fabrice Roy Journée du LUTH, 08 février 2008

Principes de calcul parallèle Pourquoi calculer en parallèle Exemple de parallélisation : code Particules- Grille Nouvelles infrastructures de calcul

Principes du calcul parallèle

Bases du parallélisme Utiliser plusieurs cœurs de calcul de manière coopérative Distribuer (éventuellement) les données entre différentes unités de calcul Utiliser une bibliothèque de fonctions permettant de répartir le travail entre les cœurs de calcul

Mémoire partagée et mémoire distribuée Plusieurs cœurs accédant à la même mémoire physique = mémoire partagée (OpenMP) Plusieurs cœurs accédant chacun à leur propre mémoire physique = mémoire distribuée (MPI) Situation standard actuelle : un mélange des deux Solution la plus portable : MPI

MPI : Message Passing Interface MPI est un standard décrivant des fonctions permettant la parallélisation en mémoire distribuée (et/ou partagée). Il existe beaucoup de distributions dont plusieurs sont libres. Plusieurs processus identiques ou non s exécutent sur plusieurs cœurs de calcul. Ces processus communiquent entre eux par envois de messages contenant des informations.

Début de l exécution (mpirun) Schéma de principe p0 p1 Qui suis-je? Je suis 0 Je suis 1 Je suis 2 Je suis 3 p2 p3 Quel travail dois-je faire? Travail = f(0) Travail = f(1) Travail = f(2) Travail = f(3) J ai besoin du résultat de mon voisin! Message vers 1 Message vers 2 Message vers 3 Message vers 0 Calcul global : synchronisation Communication collective Fin

Pourquoi paralléliser?

Un calculateur ne suffit pas Diminuer le temps de calcul pour un problème donné. Distribuer les données utilisées par le code entre plusieurs machines de manière à pouvoir augmenter la taille du problème étudié. Pour ces deux raisons.

Accélération et efficacité Accélération (speed up) : S p = T 1 T p Loi d Amdhal : S p 1 f + 1 f p Efficacité : E p = T 1 p T p

Autre raison On ne peut plus espérer d augmentation significative de la puissance de cœurs de calcul à court terme. La puissance des processeurs augmente avec le nombre de cœurs présents. Besoin de plus de puissance = besoin de parallélisme.

Exemple du code particule-grille (PM)

Algorithme du code PM (formation des grandes structures) Division de l espace en une grille cubique fixe. Des particules sont placées dans cet espace. Projection de la densité sur les points de grille. Calcul du potentiel gravitationnel dans l espace de Fourier ce qui permet de calculer le potentiel en J 3 log(j) opérations où J est le nombre de points de grille dans chaque direction (si on prend autant de particules que de points de grille, le calcul direct nécessite opérations). Interpolation du potentiel aux positions des particules pour obtenir leur accélération. J 6 Évolution de la vitesse et de la position des particules.

En parallèle (et en couleurs)

En parallèle (et en couleurs)

En parallèle (et en couleurs)

En parallèle (et en couleurs)

En parallèle (et en couleurs)

En pratique : Découpage du problème : répartition des particules et découpage de la grille, les particules restent associées au même processus mais les grilles tournent ; Calcul de la densité projetée en permutant les grilles des différents processus ; Calcul de la FFT en parallèle (utilisation de la bibliothèque fftw) ; Calcul l interpolation du potentiel en permutant les grilles ; Synchronisation et calcul de grandeurs macroscopiques ; Écriture des résultats par chaque processus dans son propre fichier.

Nouvelles infrastructures de calcul

Équipements à disposition immédiate ou à court/moyen terme Grappe de calcul du SIO Nouvel équipement du CNRS à l IDRIS Grille de calcul EGEE

Grappe de calcul du SIO Revente de MPOPM (16 processeurs, 64 Go de RAM). Achat de 7 serveurs bi-processeurs quadri-cœurs (56 cœurs au total) équipés de 16 Go de RAM chacun en remplacement. Ensemble de 100 cœurs de calcul et 256 Go RAM accessibles de façon transparente depuis une machine unique par soumission de jobs sur un système de files d attente (Torque / Maui).

IDRIS Équipement actuel de l IDRIS : Zahir : 1024 processeurs, 3136 Go RAM, 6.55 Tflops Brodie (vectorielle) : 80 processeurs, 640 Go RAM, 1.28 Tflops Nouvelles machines : Power6 : 3584 coeurs, 18 To RAM, 68 Tflops (8x448 coeurs, 2x3.6 To + 6x1.8 To) BlueGene : 40480 coeurs, 20 To RAM, 139 Tflops (10x4048 coeurs, 10x2 To RAM) Mise en service : mars 2008 pour BlueGene, été 2008 pour Power6

EGEE : Enabling Grids for E-sciences in Europe Mise en commun de moyens de calcul et de stockage, provenant de divers centres de calcul et laboratoires, au sein d une organisation. Utilisation d un middleware commun permettant l accès transparent à l une ou l autres des ressources. Regroupement des moyens par thématiques de recherche ou grands projets (Virtual Organisations).

EGEE : pour faire quoi? Du calcul massivement distribué : un grand nombre de jobs tous indépendants les uns des autres. Impossibilité technique de faire du calcul massivement parallèle. Il est préférable de soumettre des jobs courts dans la mesure du possible.