MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe

Dimension: px
Commencer à balayer dès la page:

Download "MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe"

Transcription

1 3A-SI Programmation parallèle MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe Stéphane Vialle MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe 6 Communications point à point non bloquantes 7 Communications de groupe 8 Produit de matrices denses sur anneau avec recouvrement 9 Bilan de programmation MPI A Comparaisons performances/coûts de 4 clusters B Produit de matrices denses sur tore 1

2 MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe 6 Communications point à point non bloquantes Principes Ibsend-IrecvIrecv Issend-Irecv Irsend-Irecv Identificateurs persistents Communications point à point non bloquantes Principes des comm. Non bloquantes Principes des communications non-bloquantes MPI_Ixxxx(, MPI_Request *request) Ibsend/Irecv - Issend/Irecv - Irsend/Irecv Isend ET Irecv non bloquants Un paramètre de plus que leurs homologues bloquants : Id sur la communication demandée (MPI_Request) Besoin de savoir si les communications sont terminées : MPI_(request, ) ou MPI_Test(request, ) Comparaison aux communications bloquantes : Nécessite une synchronisation explicite Plus complexe Permet de réaliser du recouvrement calcul-communication 2

3 Communications point à point non bloquantes Ibsend Irecv Mode bufferisé et non-bloquant : MPI_Ibsend MPI_Irecv Rappel : Bsend- send recv Non-bloquant : Ibsend-Irecv send recv Bsend Bsend signalé copie transfert Ibsend Ibsend signalé Irecv Irecv Communications point à point non bloquantes Issend Irecv Mode synchrone et non-bloquant : MPI_Issend MPI_Irecv Rappel : Ssend- Non-bloquant : Issend-Irecv send recv send recv Ssend Ssend signalé Issend Issend signalé attente Irecv ack. ack. Ssend transfert Issend Irecv 3

4 Communications point à point non bloquantes Irsend Irecv Mode ready et non-bloquant : MPI_Irsend MPI_Irecv Rappel : Rsend- Non-bloquant : Irsend-Irecv send recv send recv signalé Irecv signalé Irecv Rsend Rsend transfert Irsend Irsend Irecv Communications point à point non bloquantes Identificateurs persistents Autre mode d utilisation des comm. non bloquantes : Loop: MPI_Issend(,&s_request); Issend( MPI_Irecv(,&r_request); Irecv( request); // calculs MPI_(&s_request, ); MPI_(&r_request, ); MPI_Ssend_init(,&s_request); MPI init(,&r_request); Loop: MPI_ Start(&s _ request); MPI_ Start(&r _ request); // calculs MPI_(&s_request, ); MPI_(&r_request, ); MPI_Request_free(&s_request); MPI_Request_free(&r_request); Evite de réinitialiser des communications non-bloquantes 4

5 MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe 7 Communications de groupe Principes des communications de groupe Broadcast Scatter Gather Reduce Communications de groupe Principes des comm. de groupe 5 types principaux : Broadcast Scatter Gather Reduce(op) + les barrières! Utilisent les communicator et les groupes de processus Opérations bloquantes Des variantes existent : all-reduce, all-to-all, scatterv, Routage optimisé selon le réseau sous-jacent arborescent linéaire sur bus parfois plus lent que des Send/!! = op(op( ),op( ), op( ),op( )) 5

6 Communications de groupe Broadcast int MPI_Bcast(buffer,count,datatype,root,comm ) void *buffer; /* Starting address of buffer */ int count; /* Number of entries in buffer (integer) */ MPI_Datatype datatype; /* Data type of buffer */ int root; /* Rank of broadcast root (integer) */ MPI_Comm comm; /* Communicator */ root comm datatype count (différemment!) datatype Chaque processus utilise sa propre datatype Chaque processus exécute MPI_Bcast adresse de buffer Généralisation : MPI_Alltoall et MPI_Alltoallv Communications de groupe Scatter int MPI_Scatter(sendbuf,sendcnt,sendtype, recvbuf,recvcnt,recvtype, root,comm) void *sendbuf; /* Address of send buffer */ int sendcnt; /* Number of elements sent to each process */ MPI_Datatype sendtype; /* Data type of send buffer elements */ void *recvbuf; /* Address of receive buffer */ int recvcnt; /* Number of elements in receive buffer */ MPI_Datatype recvtype; /* Data type of receive buffer elements*/ int root; /* Rank of sending process */ MPI_Comm comm; /* Communicator */ root comm sendtype sendcnt Chaque processus exécute MPI_Scatter (différemment) Chaque processus utilise sa propre adresse de recvbuf Variante : MPI_Scatterv (avec décalage explicite des données) 6

7 Communications de groupe Gather int MPI_Gather(sendbuf,sendcnt,sendtype, recvbuf,recvcount,recvtype, root,comm) void *sendbuf; /* Starting address of send buffer */ int sendcnt; /* Number of elements in send buffer */ MPI_Datatype t sendtype; /* Data type of send buffer elements */ void *recvbuf; /* Address of receive buffer */ int recvcount; /* Number of elements for any single receive */ MPI_Datatype recvtype; /* Data type of recv buffer elements */ int root; /* Rank of receiving process */ MPI_Comm comm; /* Communicator */ root comm sendtype Chaque processus exécute sendtype MPI_Gather (différemment) sendcnt Chaque processus utilise sa sendtype propre adresse de sendbuf Généralisation : MPI_Gatherv, MPI_Allgather, MPI_Allgatherv Communications de groupe Reduce int MPI_Reduce(sendbuf,recvbuf,count,datatype,op,root,comm) void *sendbuf; /* Address of send buffer */ void *recvbuf; /* Address of receive buffer */ int count; /* Number of elements in send buffer */ MPI_Datatype datatype; /* Data type of elements of send buffer */ MPI_Op op; /* Reduce operation */ int root; /* Rank of root process */ MPI_Comm comm; /* Communicator */ root comm Reduce operations : MPI_MAX, MPI_MIN, MPI_SUM, MPI_PROD MPI_ LAND,, MPI_ BAND,, MPI_ LOR,, MPI_ BOR MPI_LXOR, MPI_BXOR, MPI_MINLOC + définition de nouvelles opérations par MPI_Op_create() = op(op( ),op( ), op( ),op( )) Généralisation : MPI_Allreduce, MPI_Reduce_scatter les résultats sont redistribués 7

8 MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe 8 Produit de matrices denses sur anneau avec recouvrement Algorithme distribué Modélisation des performances Exemples de performances Produit de matrices denses sur anneau Rappel d algorithmique distribuée Partitionnement sur un anneau de processeurs : A partitionnée en blocs de lignes B et C partitionnées en blocs de colonnes circulation de A B et C statiques 0 1 P-1 Topologie Partitionnement et circulation de A Partitionnement statique de B Partitionnement statique de C 8

9 Produit de matrices denses sur anneau Rappel d algorithmique distribuée Exemple de déroulement de l algorithme sur PE-2, avec P = 4 : B B B B A A A A Étape 1 C Étape 2 C Étape 3 C Étape 4 C Calcul de toutes les colonnes et routage de toutes les lignes de A en parallèle, en P=4étapes étapes. Résultats après P étapes (seulement) : 0 1 P-1 Topologie Partitionnement statique de C Produit de matrices denses sur anneau avec recouvrement Algorithme distribué Stratégies d implantation sur un anneau de P processeurs : Sans recouvrement : for (i=0; i<p; i++) calcul(); barriere(); circulation(); barriere(); } Avec recouvrement : for (i=0; i<p; i++) par { calcul(); circulation(); } barriere(); buffer_permut(); } 1 er algorithme : avec barrières conceptuelles Les barrières de synchronisations sont parfois implicites Les barrières apparaissent parfois inutiles Voir à l implant. 9

10 Produit de matrices denses sur anneau Implant. en MPI-1 à comm. non-bloquantes Using Issend and Irecv : void ComputationAndCirculation() { MPI_Request RqSend[2], Rq[2]; MPI_Status StSend, St; // Start computation and circulation loop for (int step = 0; step < NbPE; step++) { // - run asynchronous communications MPI_Issend(& A[step%2][0][0],SIZE*LOCAL_SIZE,MPI_DOUBLE, (Me-1+NbPE)%NbPE,0,MPI_COMM_WORLD,&RqSend[step%2]); MPI_Irecv(&A[(step+1)%2][0][0],SIZE*LOCAL_SIZE,MPI_DOUBLE, } } (Me+1)%NbPE,0,MPI_COMM_WORLD,&Rq[(step+1)%2]); MPI // - run local computations SeqLocalProduct(step); // - wait the end of the asynchronous communications MPI_(&RqSend[step%2],&StSend); MPI_(&Rq[(step+1)%2],&St); Produit de matrices denses sur anneau Implant. en MPI-1 à comm. non-bloquantes Avec des communications asynchrones et persistantes: void ComputationAndCirculation() { MPI_Request RqSend[2], Rq[2]; MPI_Status StSend, St; // Init of persistent comm MPI_Ssend_init(& A[0][0][0],SIZE*LOCAL_SIZE,MPI_DOUBLE, (Me-1+NbPE)%NbPE,0,MPI_COMM_WORLD,&RqSend[0]); MPI init(&a[0][0][0],size*local_size,mpi_double, (Me+1)%NbPE,0,MPI_COMM_WORLD,&Rq[0]); MPI_Ssend_init(&A[1][0][0],SIZE*LOCAL_SIZE,MPI_DOUBLE, (Me-1+NbPE)%NbPE,0,MPI_COMM_WORLD,&RqSend[1]); MPI init(&a[1][0][0],size*local_size,mpi_double, (Me+1)%NbPE,0,MPI_COMM_WORLD,&Rq[1]); // Start computation and circulation loop for (int step = 0; step < NbPE; step++) { MPI_Start(&RqSend[step%2]); MPI_Start(&Rq[(step+1)%2]); SeqLocalProduct(step); MPI_(&RqSend[step%2],&StSend); MPI_(&Rq[(step+1)%2],&St); } // Free the persistent communication objects MPI_Request_free(&RqSend[0]); MPI_Request_free(&RqSend[1]); MPI_Request_free(&Rq[0]); MPI_Request_free(&Rq[1]); } 10

11 Produit de matrices denses sur anneau avec recouvrement Exemple de performances Texec c(s) Texec(P) Ibsend Issend 12 x P4-3GHz - 2Go Ram Ethernet Gigabit 3 switchs Nombre de PC La perte de performances persiste : Elle n est pas due au comm. Amdahl? Calculs locaux trop petits? Mflops Ibsend Issend Idéal Mflops(P) Nombre de PC Spee ed Up Produit de matrices denses sur anneau avec recouvrement Exemple de performances Ibsend Issend Idéal Speed Up(P) Nombre de PC 100 Les communications sont négligeables dans cette implantation! Donc le recouvrement apporte peu sur un bon réseau. e(%) x P4-3GHz - 2Go Ram Ethernet Gigabit 3 switchs Efficacité(P) Ibsend Issend Nombre de PC 11

12 Produit de matrices denses sur anneau avec recouvrement Exemple de performances Avec un réseau moins bon le recouvrement a un impact! 12 x P3-700MHz Fast Ethernet 3 switchs Flop s M Ring-Sendrecv-replace Ring-Irsend Ring-Irsend+overlapp Number of nodes Messages non-bloquant plus rapides. Messages non-bloquant & recouvrement encore plus rapide. Recouvrement efficace! MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe 9 Bilan de programmation MPI 12

13 MPI : Programmation et algorithmique distribuée Bilan de programmation MPI Avantages : Création de P processus dès le lancement Porté sur la plus large gamme d architecture possible Une grande variété d envois de messages possibles Aujourd hui : thread-safe, - ex : mixable avec OpenMP sur cluster de PC bi-pro. Inconvénients : Des différences de performances selon -le type d envois de messages - l application (volume et fréquence des comms) - l architecture employée Des synchronisations parfois complexes Demande une modification importante du code séquentiel - conception parallèle à part entière A Comparaisons performances/coûts de 4 clusters Comparaison de speedup de Jacobi Comparaison de speedup de Jacobi Mflops/Euros 13

14 Comparaison de clusters Comparaisons de speedup de Jacobi Comparaison des meilleurs Speed Up des 4 réseaux sur 2 nœuds : Speed Up (2) SU(2)-Myrinet-Sendrecv Sendrecv SU(2)-Gigabit-Sendrecv SU(2)-EthGamma-Sendrecv SU(2)-FastEth-Sendrecv Problem size (KBytes) Comparaison de clusters Coût Mflops/Euro du Jacobi Le Mflops des clusters reste toujours plus cher qu en séquentiel : 0,9 mpirun -np 1 - PIII-1GHz 0,8 PIII mpirun -np1piv-x-2.4ghz PIVX2.4GHz 0,7 Myrinet (2) 0,6 Gigabit (2) Fast-Eth+Gamma (2) 0,5 Fast-Ethernet (2) 0,4 MFlops/Euro 0,3 0,2 0,1 0 PIV-Xeon Clusters! Problem size (KBytes) 14

15 Comparaison de clusters Coût Mflops/Euro du Jacobi Myrinet revient cher, les solutions à «0 copies» sont très rentables : 0,2 0,18 Myrinet-PIII (2) 016 0,16 Gigabit-PIV-Xeon (2) 0,14 Fast-Eth+Gamma-PIII (2) 0,12 Fast-Ethernet-PIII (2) 0,1 «Eth-0 copies» 0,08 0,06 0,04 0,02 Myrinet 0 MFlops/Euro Problem size (KBytes) MPI-1 2ème partie : Programmation «non bloquante»et communications de groupe FIN 15

Introduction à la Programmation Parallèle: MPI

Introduction à la Programmation Parallèle: MPI Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4

Plus en détail

Plan de la formation. Calcul parallèle avec MPI. Pourquoi paralléliser? Parallélisation. Présentation, environnement MPI. Communications point à point

Plan de la formation. Calcul parallèle avec MPI. Pourquoi paralléliser? Parallélisation. Présentation, environnement MPI. Communications point à point Plan de la formation Calcul parallèle avec MPI Guy Moebs Parallélisation Présentation, environnement MPI Communications point à point Laboratoire de Mathématiques Jean Leray, CNRS, Université de Nantes,

Plus en détail

Introduction à la Programmation parallèle INFO 3. Camille Coti 1 camille.coti@lipn.univ-paris13.fr

Introduction à la Programmation parallèle INFO 3. Camille Coti 1 camille.coti@lipn.univ-paris13.fr Introduction à la Programmation parallèle Institut Galilée INFO 3 Camille Coti 1 camille.coti@lipn.univ-paris13.fr 1 Université de Paris XIII, CNRS UMR 7030, France 1 Camille Coti Introduction à la Programmation

Plus en détail

Travaux pratiques MPI

Travaux pratiques MPI Travaux pratiques MPI Présentation de MPI Schéma général d un programme MPI Exécution d un programme C quelques commandes Unix Quelques fonctions MPI Exemples de programmes Communication Calcul de P Gestion

Plus en détail

Les communications collectives. Caractéristiques. Communications dans un groupe de processus. Dans un communicateur donné.

Les communications collectives. Caractéristiques. Communications dans un groupe de processus. Dans un communicateur donné. Les communications collectives Communications dans un groupe de processus. Dans un communicateur donné. Trois sortes : Synchronisation globale MI_Barrier() Transferts de données : diffusion/collecte globale/sélective

Plus en détail

Message Passing Interface (MPI)

Message Passing Interface (MPI) Message Passing Interface (MPI) Isabelle Dupays Marie Flé Jérémie Gaidamour Dimitri Lecas MPI Plan I 1 Introduction... 6 1.1 Introduction... 7 1.2 Concepts de l échange de messages...8 1.3 Mémoire distribuée...

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée ppd/mpi p. 1/68 Programmation parallèle et distribuée Introduction à MPI Message Passing Interface Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université

Plus en détail

MPI Message Passing Interface

MPI Message Passing Interface MPI Message Passing Interface Frédéric Desprez INRIA LIP ENS Lyon Equipe Avalon F. Desprez - UE Parallélisme 2013-2014 - 1 Comment programmer une machine parallèle Sans le savoir (mémoire partagée, mémoire

Plus en détail

Introduction to Parallel Programming with MPI

Introduction to Parallel Programming with MPI Introduction to Parallel Programming with MPI Master Modélisation et Simulation - ENSTA cours A1-2 Pierre Kestener pierre.kestener@cea.fr CEA-Saclay, DSM, France Maison de la Simulation MDLS, September,

Plus en détail

Clustering sous Fedora

Clustering sous Fedora Table des matières Clustering sous Fedora Notion de cluster... 2 Installation du cluster... 2 Configuration de SSH sans mot de passe... 4 Installation de MPICH... 6 Désactivation de selinux et du mur coupe-feu...

Plus en détail

BE de programmation MPI-1 par envois de messages bloquants

BE de programmation MPI-1 par envois de messages bloquants BE-MPI-1envois de messages bloquants Page 1 of 3 01/03/2010 Calcul parallèle et distribué, et Grilles de calculs Cours de 3ème année SI à Supélec BE de programmation MPI-1 par envois de messages bloquants

Plus en détail

Super Calculateur HPC, pour High Performance Computing

Super Calculateur HPC, pour High Performance Computing Super Calculateur HPC, pour High Performance Computing Certaines applications ont besoin de faire un grand nombre de calcul, souvent pour des problèmes de simulation. météorologie, physique (nucléaire

Plus en détail

Limitations of the Playstation 3 for High Performance Cluster Computing

Limitations of the Playstation 3 for High Performance Cluster Computing Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences

Plus en détail

Introduction to Parallel Programming with MPI

Introduction to Parallel Programming with MPI Introduction to Parallel Programming with MPI Master Modélisation et Simulation - ENSTA cours TA01 Edouard Audit - edouard.audit@cea.fr Pierre Kestener - pierre.kestener@cea.fr Nicolas Kielbasiewicz -

Plus en détail

MPI : Un outil pour le multi-coeur?

MPI : Un outil pour le multi-coeur? MPI : Un outil pour le multi-coeur? Romaric David / Loïc Gouarin Université de Strasbourg / Laboratoire de mathématiques d'orsay 16 décembre 2010 Plan 1 Introduction 2 Principe de MPI 3 Les bases de MPI

Plus en détail

Grid Computing. Mihaela JUGANARU-MATHIEU mathieu@emse.fr 2014-2015. École Nationale Supérieure des Mines de St Etienne

Grid Computing. Mihaela JUGANARU-MATHIEU mathieu@emse.fr 2014-2015. École Nationale Supérieure des Mines de St Etienne Mihaela JUGANARU-MATHIEU mathieu@emse.fr École Nationale Supérieure des Mines de St Etienne 2014-2015 Bibliographie (livres et revues) : Frédéric Magoulès, Jie Pan, Kiat-An, Tan Abhinit Kumar Introduction

Plus en détail

Programmation hybride MPI-OpenMP

Programmation hybride MPI-OpenMP Programmation hybride MPI-OpenMP Pierre-Francois.Lavallee@idris.fr Philippe.Wautelet@idris.fr CNRS IDRIS Version 2.1 30 mars 2015 P.-Fr. Lavallée P. Wautelet (IDRIS) Programmation hybride 30 mars 2015

Plus en détail

Etude d Algorithmes Parallèles de Data Mining

Etude d Algorithmes Parallèles de Data Mining REPUBLIQUE TUNISIENNE MINISTERE DE L ENSEIGNEMENT SUPERIEUR, DE LA TECHNOLOGIE ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE DE TUNIS ELMANAR FACULTE DES SCIENCES DE TUNIS DEPARTEMENT DES SCIENCES DE L INFORMATIQUE

Plus en détail

Programmation efficace des multicœurs Application a la visualisation scientifique

Programmation efficace des multicœurs Application a la visualisation scientifique Programmation efficace des multicœurs Application a la visualisation scientifique Marc Tchiboukdjian Doctorant 3e me anne e Jean-Philippe Nomine Encadrant CEA Vincent Danjean Directeur de the se Bruno

Plus en détail

Etudes de performance sur une machine parallèle de type «Grappe de PCs» : La machine MPC

Etudes de performance sur une machine parallèle de type «Grappe de PCs» : La machine MPC RAPPORT DE STAGE DEA ID Etudes de performance sur une machine parallèle de type «Grappe de PCs» : La machine MPC Laurent LECHEVALLIER Mars-Aout 2001 2 Table des matières Table des matières 1 Table des

Plus en détail

Les architectures parallèles ~~~~~ Les machines parallèles de l'observatoire ~~~ MPI

Les architectures parallèles ~~~~~ Les machines parallèles de l'observatoire ~~~ MPI 1/89 Les architectures parallèles ~~~~~ Les machines parallèles de l'observatoire ~~~ MPI Aurelia.Marchand@obspm.fr 2/89 Plan -1- Introduction...5-2- Les architectures parallèles...11-2.1- Les types d'architectures

Plus en détail

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations 3A-IIC - Parallélisme & Grid : Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle 1 1 Exemple d applications et clients Défis du calcul parallèle 3 Calcul parallèle dans le monde

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Chapitre 13. Exécution et débogage de programmes parallèles MPI avec OpenMPI

Chapitre 13. Exécution et débogage de programmes parallèles MPI avec OpenMPI Chapitre 13 Exécution et débogage de programmes parallèles MPI avec OpenMPI 1 13.1 Introduction : Caractéristiques d'un cluster et du cluster utilisé dans le cours Voici deux dénitions de ce qu'est un

Plus en détail

Systèmes parallèles et distribués

Systèmes parallèles et distribués Systèmes parallèles et distribués Grégory Mounié 2013-12 Grégory Mounié Systèmes parallèles et distribués 2013-12 1 / 58 Outline 1 Introduction 2 Performances 3 Problèmes du calcul parallèle 4 Intergiciels

Plus en détail

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées M2-ILC Parallélisme, systèmes distribués et grille Eléments d architecture des Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle 2 Depuis 24 les CPU sont multi-cœurs

Plus en détail

CLIC Cluster LInux pour le Calcul

CLIC Cluster LInux pour le Calcul CLIC Cluster LInux pour le Calcul http://clic.mandrakesoft.com Wilfrid Billot (@imag.fr) ID-IMAG Projet Apache http://www-id.imag.fr Plan ¾ Introduction à CLIC ¾ CLIC et les clusters ¾ Ce qui existe déjà

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées Mineure HPC-SBD Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture de machines parallèles

Plus en détail

Gestion des processus

Gestion des processus 1/27 Gestion des processus didier@lrde.epita.fr http://www.lrde.epita.fr/ didier 2/27 Table des matières 1 2 Ordonnancement des processus 3 sur les processus 4 entre processus 5 4/27 Programme vs. Processus

Plus en détail

Plan. Références. Parallélisme et programmation par échange de messages Utilisation de la bibliothèque MPI

Plan. Références. Parallélisme et programmation par échange de messages Utilisation de la bibliothèque MPI Crédits : Parallélisme et programmation par échange de messages Utilisation de la bibliothèque MPI INRIA Rennes: François Bodin, Jean-Louis Pazat et Thierry Priol (Paris/Caps ) EPCC (Edinburgh Parallel

Plus en détail

Limitations of the PlayStation 3 for High Performance Cluster Computing

Limitations of the PlayStation 3 for High Performance Cluster Computing Master d Informatique Fondamentale École Normale Supérieure Lyon Calcul matriciel haute performance Chantal KELLER Limitations of the PlayStation 3 for High Performance Cluster Computing Alfredo Buttari,

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Architectures Parallèles

Architectures Parallèles Architectures Parallèles Cours pour Ingénieur Préparé par Dr. Olfa Hamdi-Larbi ola_ola79@yahoo.fr Reçoit les signaux du contrôleur, cherche les données et les traite Instructions, Données à traiter et

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

ARCHITECTURES A PASSAGE DE MESSAGES

ARCHITECTURES A PASSAGE DE MESSAGES ARCHITECTURES A PASSAGE DE MESSAGES Daniel Etiemble LRI, Université Paris Sud de@lri.fr D. Etiemble 1 Architecture parallèle à passage de messages RESEAU D INTERCONNEXION réseau réseau réseau réseau CPU

Plus en détail

Systèmes d Exploitation Gestion des processus

Systèmes d Exploitation Gestion des processus Systèmes d Exploitation Gestion des processus Didier Verna didier@lrde.epita.fr http://www.lrde.epita.fr/ didier Version 2@1.6 6 décembre 2004 Table des matières Table des matières Généralités... 3 États

Plus en détail

INF442 : Traitement des données massives

INF442 : Traitement des données massives INF442 : Traitement des données massives A2 : Le regroupement plat et le regroupement hiérarchique Frank Nielsen X2013 15 avril 2015 Administratif dernier dépôt des TDs : le dimanche soir à 23h59m59s suivant

Plus en détail

Systèmes multi-processeurs intégrés sur puce

Systèmes multi-processeurs intégrés sur puce Systèmes multi-processeurs intégrés sur puce version 1.0 PHY 568 Alain Greiner Pla n Architectures multi-processeurs à mémoire partagée Applications parallèles embarquées Bus système / exemple du PIBUS

Plus en détail

Evaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques

Evaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques Evaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques (bourse EPSRC numéro GR/S21717/01) Enhancing the Perf. Predictability of Grid Appli. with Patterns and

Plus en détail

Soutenance de PFE. Evolution de l'outil EZTrace. Charles Aulagnon Inria Bordeaux (SED) Maître de stage : François Rué mars septembre 2011

Soutenance de PFE. Evolution de l'outil EZTrace. Charles Aulagnon Inria Bordeaux (SED) Maître de stage : François Rué mars septembre 2011 Soutenance de PFE Evolution de l'outil EZTrace Charles Aulagnon Inria Bordeaux (SED) Maître de stage : François Rué mars septembre 2011 ENSEIRB-MATMECA Tuteur : Corentin Travers Sommaire 1. EZTrace Contexte

Plus en détail

Architecture des ordinateurs. Mémoires (II) Licence Informatique - Université de Provence. Jean-Marc Talbot

Architecture des ordinateurs. Mémoires (II) Licence Informatique - Université de Provence. Jean-Marc Talbot Architecture des ordinateurs Licence Informatique - Université de Provence Jean-Marc Talbot Mémoires jtalbot@cmi.univ-mrs.fr L3 Informatique - Université de Provence () Architecture des ordinateurs 120

Plus en détail

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données EARTH et Threaded-C: Éléments clés du manuel de références de Threaded-C Bref historique de EARTH et Threaded-C Ancêtres de l architecture EARTH: Slide 1 Machine à flux de données statique de J.B. Dennis

Plus en détail

Amélioration de la scalabilité en mémoire de la dynamique de LMDZ

Amélioration de la scalabilité en mémoire de la dynamique de LMDZ Amélioration de la scalabilité en mémoire de la dynamique de LMDZ Contexte... (Milestone CONVERGENCE MS 2.1a) La dynamique de LMDZ résout les équations de Naviers-Stoke sur la sphère en milieu tournant

Plus en détail

Comparaison entre parallélisation OpenMP et threads sur des applications régulières et irrégulières

Comparaison entre parallélisation OpenMP et threads sur des applications régulières et irrégulières Comparaison entre parallélisation OpenMP et threads sur des applications régulières et irrégulières 1/20 Eugen Dedu dedu@ese-metz.fr Supélec, campus de Metz 27 janvier 2000 Contexte 2/20 Caractéristiques

Plus en détail

Communication de Groupe protocoles pour la diffusion. L.A. Steffenel Master 2 STIC-Informatique 1

Communication de Groupe protocoles pour la diffusion. L.A. Steffenel Master 2 STIC-Informatique 1 Communication de Groupe protocoles pour la diffusion Steffenel Master 2 STIC-Informatique 1 Plan Communication de Groupe définitions, motivation Classes de algorithmes de diffusion diffusion simple diffusion

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec. 3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation

Plus en détail

Parallélisation Automatique

Parallélisation Automatique Parallélisation Automatique Paul Feautrier ENS de Lyon Paul.Feautrier@ens-lyon.fr 8 septembre 2008 1 / 23 Pourquoi la parallélisation automatique? Les gains de performances dus à la technologie s amenuisent

Plus en détail

Algorithmes répartis sur grilles et cluster de clusters 7 décembre 2007

Algorithmes répartis sur grilles et cluster de clusters 7 décembre 2007 Algorithmes répartis sur grilles et cluster de clusters 7 décembre 007 Serge G. Petiton 1 Goals and hypothesis Questions : Is Parallel Matrix Computing adaptable to large scale PP Platforms? Or, is it

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe

Plus en détail

La ferme de PCs de l INRIA Sophia-Antipolis Configuration matérielle et logicielle

La ferme de PCs de l INRIA Sophia-Antipolis Configuration matérielle et logicielle La ferme de PCs de l INRIA Sophia-Antipolis Configuration matérielle et logicielle http://www-sop.inria.fr/parallel/ David Geldreich, 07/2003 Configuration matérielle actuelle Aujourd'hui la ferme est

Plus en détail

Huitième partie. Processus communicants CSP/Ada. Processus communicants Communication synchrone CSP/CCS/π-calcul Rendez-vous étendu Ada

Huitième partie. Processus communicants CSP/Ada. Processus communicants Communication synchrone CSP/CCS/π-calcul Rendez-vous étendu Ada Huitième partie Processus communicants CSP/Ada Systèmes concurrents 2 / 44 Synchronisation Désignation, alternatives Architecture d'une application parallèle Plan 1 Processus communicants Synchronisation

Plus en détail

Aspects théoriques et algorithmiques du calcul réparti L agglomération

Aspects théoriques et algorithmiques du calcul réparti L agglomération Aspects théoriques et algorithmiques du calcul réparti L agglomération Patrick CIARLET Enseignant-Chercheur UMA patrick.ciarlet@ensta-paristech.fr Françoise LAMOUR franc.lamour@gmail.com Aspects théoriques

Plus en détail

Aspects théoriques et algorithmiques du calcul réparti L agglomération

Aspects théoriques et algorithmiques du calcul réparti L agglomération Aspects théoriques et algorithmiques du calcul réparti L agglomération Patrick CIARLET Enseignant-Chercheur UMA patrick.ciarlet@ensta-paristech.fr Françoise LAMOUR franc.lamour@gmail.com Aspects théoriques

Plus en détail

Travaux pratiques : configuration de Syslog et de NTP

Travaux pratiques : configuration de Syslog et de NTP Topologie Table d adressage Périphérique Interface Adresse IP Masque de sous-réseau Passerelle par défaut R1 S0/0/0 (DCE) 10.1.1.1 255.255.255.252 N/A R2 S0/0/0 10.1.1.2 255.255.255.252 N/A G0/0 172.16.2.1

Plus en détail

Systèmes d exploitation II Chapitre 2 : Gestion des processus. www.achrafothman.net

Systèmes d exploitation II Chapitre 2 : Gestion des processus. www.achrafothman.net Systèmes d exploitation II Chapitre 2 : Gestion des processus www.achrafothman.net 1 Processus Concept de Processus Ordonnancement de Processus Opérations sur les Processus Processus Coopératifs Communication

Plus en détail

Message Passing Interface (MPI-1)

Message Passing Interface (MPI-1) IPGP INSTITUT DE PHYSIQUE DU GLOBE DE PARIS Programmation parallèle : Message Passing Interface (MPI-1) Geneviève Moguilny moguilny@ipgp.jussieu.fr Institut de Physique du Globe de Paris Réunion téléphonique

Plus en détail

Portage et optimisation d applications de traitement d images sur architecture Kalray Mppa-Manycore Journées de la Compilation

Portage et optimisation d applications de traitement d images sur architecture Kalray Mppa-Manycore Journées de la Compilation Portage et optimisation d applications traitement d images sur architecture Kalray Mppa-Manycore Journées la Compilation Pierre Guillou Centre recherche en informatique Mines ParisTech 4 décembre 2013

Plus en détail

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines Évolution de la puissance des machines Accélération Système pour architectures multicœurs Évolution Traditionnelle des mono-processeurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques

Plus en détail

Algorithmique des Systèmes Répartis. Problèmes - Concepts - Techniques - Outils

Algorithmique des Systèmes Répartis. Problèmes - Concepts - Techniques - Outils Algorithmique des Systèmes Répartis Systèmes Répartis Problèmes - Concepts - Techniques - Outils Master Informatique Dominique Méry Université de Lorraine 19 février 2013 1 / 40 Plan 1 Problèmes des systèmes

Plus en détail

Programmation parallèle pour le calcul scientifique

Programmation parallèle pour le calcul scientifique Méthodologie M2 Programmation parallèle pour le calcul scientifique Benoît Semelin 2014 Préliminaire 1000 x ε ~ ε - Loguez vous sur rubicon.obspm.fr puis sur momentum.obspm.fr - Ecrire un programme qui:

Plus en détail

Analyse et mesure de performances du calcul distribué

Analyse et mesure de performances du calcul distribué Analyse et mesure de performances du calcul distribué Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma CruCID Workshop, EMI, Rabat, 5 au 7 juillet 1999 Motivation Types d applications

Plus en détail

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs Modèle de Machine 1a: Mém. Partagée Tous les processeurs sont connectés à une large partagée. Appelée Symmetric Multiprocessors (SMPs) SMPs de Sun, HP, Intel, IBM Puces Multicoeur, exceptées celles qui

Plus en détail

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI. Facultés Universitaires Notre-Dame de la Paix, Namur Institut d Informatique Année académique 2003-2004 Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de

Plus en détail

Application Note. WeOS Création de réseaux et de réseaux virtuels VLAN

Application Note. WeOS Création de réseaux et de réseaux virtuels VLAN Application Note WeOS Création de réseaux et de réseaux virtuels VLAN Table des matières 1 Création de VLANs... 3 2 Les réseaux routés... 7 Cette fiche applicative présente la création de réseaux dans

Plus en détail

Architecture SoC-FPGA adaptable dédiée à l'analyse d'images

Architecture SoC-FPGA adaptable dédiée à l'analyse d'images Architecture SoC-FPGA adaptable dédiée à l'analyse d'images Alain AUBERT, Nathalie BOCHARD, Virginie FRESSE Projet EmSoC Villard de Lans, 8-9 juin 2006 Plan de la présentation Description de l'architecture

Plus en détail

Copyright. Communications dans les clusters. Plan. Bibliographie. Les applications réseau (1) Introduction

Copyright. Communications dans les clusters. Plan. Bibliographie. Les applications réseau (1) Introduction Copyright Communications dans les clusters Olivier GLÜCK Université LYON 1/UFR d Informatique ENS LIP projet INRIA RESO Olivier.Gluck@ens-lyon.fr http://www710.univ-lyon1.fr/~ogluck Copyright 2006 Olivier

Plus en détail

et techniques d ordonnancement : approches statiques et dynamiques

et techniques d ordonnancement : approches statiques et dynamiques ÉCOLE NORMALE SUPÉRIEURE DE LYON Laboratoire de l Informatique du Parallélisme THÈSE pour obtenir le grade de Docteur de l École Normale Supérieure de Lyon spécialité : Informatique au titre de l école

Plus en détail

Conception des systèmes répartis

Conception des systèmes répartis Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan

Plus en détail

Comparaison entre une architecture matérielle dédiée et un GP-GPU pour l optimisation

Comparaison entre une architecture matérielle dédiée et un GP-GPU pour l optimisation Comparaison entre une architecture matérielle dédiée et un GP-GPU pour l optimisation Université de Bretagne-Sud Lab-STICC, Lorient, France ROADeF Troyes, France 13-15 Février 2013 1/22 Objectifs Après

Plus en détail

Programmation par sockets-java

Programmation par sockets-java 2A-SI 3 Prog. réseau et systèmes distribués 3.1 - Programmation par sockets-java Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Support de cours élaboré avec l aide de l

Plus en détail

Programmation Système des Multicœurs

Programmation Système des Multicœurs Évolution de la puissance des machines Programmation Système des Multicœurs Gaël Thomas gael.thomas@lip6.fr Accélération Évolution Traditionnelle des mono-processeurs Université Pierre et Marie Curie Master

Plus en détail

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau Résultats des benchmarks de HPC1 après ajout de 1 cœurs. Date : 6/9/212 Auteur : Ph Parnaudeau 1. Evolution de la configuration la plate forme de calcul du LJLL : HPC1 HPC1 1 Février 211 : UV1 est une

Plus en détail

Clermont Ferrand - Janvier 2003

Clermont Ferrand - Janvier 2003 DISDAMIN: Algorithmes de Data Mining Distribués Valerie FIOLET (1,2) - Bernard TOURSEL (1) 1 Equipe PALOMA - LIFL - USTL - LILLE (FRANCE) 2 Service Informatique - UMH - MONS (BELGIUM) Clermont Ferrand

Plus en détail

BD parallèles et réparties

BD parallèles et réparties LOG660 - Bases de données de haute performance BD parallèles et réparties Département de génie logiciel et des TI BD parallèles vs réparties BD réparties Les données se trouvent sur plusieurs sites (noeuds)

Plus en détail

WP2T23 «APPLICATION de de REFERENCE» Prototypage rapide d une application de traitement d images avec SynDEx EADS

WP2T23 «APPLICATION de de REFERENCE» Prototypage rapide d une application de traitement d images avec SynDEx EADS WP2T23 «APPLICATION de de REFERENCE» Prototypage rapide d une application de traitement d images avec SynDEx EADS Avec l appui de l INRIA www-rocq.inria.fr/syndex 1 PLAN I. Présentation du sujet II. Présentation

Plus en détail

Fiche de Réseau de données

Fiche de Réseau de données Fiche de Réseau de données V.R May 25, 2015 Contents I Le modèle OSI 2 1 Concepts de base 2 2 Modèle OSI 4 II Réseau de données 5 1 Erreurs et correction d erreurs 5 2 Contrôle de flux 6 3 Contrôle de

Plus en détail

D.E.A. C.I.T. Année Universitaire 2003-2004. Introduction au parallèlisme. Gérald MONARD

D.E.A. C.I.T. Année Universitaire 2003-2004. Introduction au parallèlisme. Gérald MONARD Introduction au parallèlisme Gérald MONARD Bibliographie Parallel Programming in C with MPI and OpenMP Michael J Quinn Ed McGraw-Hill, New York - 2004 Tutorials from Lawrence Livermore National Laboratory

Plus en détail

Principes des systèmes d'exploitation

Principes des systèmes d'exploitation Principes des systèmes d'exploitation Fonctions : Machine virtuelle : ajoute des fonctionnalités (par exemple système de fichier vs accès pistes - secteurs) Gestion des ressources : processeur, mémoire,

Plus en détail

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,

Plus en détail

Travaux pratiques Tester la connectivité réseau à l aide de requêtes ping et de Traceroute Topologie

Travaux pratiques Tester la connectivité réseau à l aide de requêtes ping et de Traceroute Topologie Travaux pratiques Tester la connectivité réseau à l aide de requêtes ping et de Traceroute Topologie 2014 Cisco et/ou ses filiales. Tous droits réservés. Ceci est un document public de Cisco. Page 1 sur

Plus en détail

INTRODUCTION À L ALGORITHMIQUE RÉPARTIE

INTRODUCTION À L ALGORITHMIQUE RÉPARTIE INTRODUCTION À L ALGORITHMIQUE RÉPARTIE Chargée de cours: Transparents :http://www-npa.lip6.fr/~blin/enseignements.html Email: lelia.blin@lip6.fr ALGORITHMIQUE SÉQUENTIELLE Une tâche / un calcul Série

Plus en détail

C09: Conception parallèle

C09: Conception parallèle méthodologie de conception en quatre étapes virtualisation applications structurées et non structurées aspect analytique: S, E Accélération Amdahl Accélération Gustafson Surcharge de parallélisation Conception

Plus en détail

Bus de terrain. Thèmes abordés 25.03.2015

Bus de terrain. Thèmes abordés 25.03.2015 Bus de terrain Un protocole répandu et facile à implémenter 1 Thèmes abordés Présentation Historique caractéristique de MODBUS MODBUS Implantation dans le marché Exemples d appareils, exemples de logiciels

Plus en détail

Les entrées/sorties Les périphériques

Les entrées/sorties Les périphériques Les entrées/sorties Les périphériques La fonction d un ordinateur est le traitement de l information (fonction réalisée au niveau de la mémoire et l UC). L ordinateur acquiert cette information et restitue

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

Centre de calcul de l ub

Centre de calcul de l ub Centre de calcul de l ub Formation Présentation et utilisation du cluster de Calcul Antoine Migeon ccub@u-bourgogne.fr Tel : 5205 ou 5270 Le Centre de Calcul de l ub (ccub) Dédié à l enseignement et à

Plus en détail

Question 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Repose

Question 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Repose Nom Prénom ID École Instructions: Durée 90 minutes, sans documents Cet examen se compose de question choix multiples (QCM, ~15/20 de la note) et de questions à réponses libres (QRL, ~5/20) Veillez à compléter

Plus en détail

Initiation au HPC - Programmation concurrente

Initiation au HPC - Programmation concurrente Initiation au HPC - Programmation concurrente Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 12 octobre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Programmation

Plus en détail

Exemple de paramétrage d un Cluster de DWC-1000

Exemple de paramétrage d un Cluster de DWC-1000 Exemple de paramétrage d un Cluster de DWC-1000 Ce que nous souhaitons réaliser: Nous souhaitons paramétrer deux DWC-1000 en «clustering» afin d assurer une tolérance de panne et une continuité de service

Plus en détail

Plan Formation : Utilisation Hyperion Janvier-Février 2014 http://www.calmip.cict.fr/ Plan Formation :

Plan Formation : Utilisation Hyperion Janvier-Février 2014 http://www.calmip.cict.fr/ Plan Formation : Plan Formation : Introduction : Mésocentre CALMIP Introduction à l Architecture des systèmes HPC Panorama des Systèmes et Processeurs Multi-core Présentation système de Calcul CALMIP : HYPERION Visite

Plus en détail

Xeon Phi au CRIHAN. Patrick BOUSQUET-MÉLOU (pbm@crihan.fr) 16 Juin 2015

Xeon Phi au CRIHAN. Patrick BOUSQUET-MÉLOU (pbm@crihan.fr) 16 Juin 2015 Xeon Phi au CRIHAN Patrick BOUSQUET-MÉLOU (pbm@crihan.fr) 16 Juin 2015 Objectifs Veille technologique architecture many-core Se former pour préparer les utilisateurs au Xeon Phi «Knights Landing» (2016)

Plus en détail

Systèmes d exploitation Gestion des processus

Systèmes d exploitation Gestion des processus Systèmes d exploitation Gestion des processus Didier Verna didier@lrde.epita.fr 5 décembre 2000 Table des matières Table des matières Généralités... 3 États d un processus... 4 Bloc de contrôle d un processus

Plus en détail

Structure du bus système Gestion du bus système Fonctionnement des périphériques

Structure du bus système Gestion du bus système Fonctionnement des périphériques Périphériques et bus système Structure du bus système Gestion du bus système Fonctionnement des s MÉMOIRE PRINCIPALE BUS SYSTÈME Cache d'instructions MMU TLB Unité de de contrôle Unité de de traitement

Plus en détail

THÈSE. pour obtenir le grade de. Spécialité : "Informatique : Systèmes et Communications"

THÈSE. pour obtenir le grade de. Spécialité : Informatique : Systèmes et Communications UNIVERSITÉ JOSEPH FOURIER DE GRENOBLE N attribué par la bibliothèque THÈSE pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ JOSEPH FOURIER DE GRENOBLE Spécialité : "Informatique : Systèmes et Communications"

Plus en détail

1. Warm up Activity: Single Node

1. Warm up Activity: Single Node TP - Netkit Netkit ( http://wiki.netkit.org/index.php/main_page ), un logiciel Open-Source, permet d'émuler les réseaux, avec une très grand partie de protocoles TCP/IP. Il est basé sur uml (user-mode

Plus en détail

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran)  Processus = suite d'actions = suite d'états obtenus = trace Processus 1) Contexte 2) Modèles de Notion de Points de vue Modèle fourni par le SX Opérations sur les 3) Gestion des Représentation des Opérations 4) Ordonnancement des Niveaux d ordonnancement Ordonnancement

Plus en détail

Les diagrammes de modélisation

Les diagrammes de modélisation L approche Orientée Objet et UML 1 Plan du cours Introduction au Génie Logiciel L approche Orientée Objet et Notation UML Les diagrammes de modélisation Relations entre les différents diagrammes De l analyse

Plus en détail

Introduction. René J. Chevance

Introduction. René J. Chevance et restauration des données : Introduction Février 2002 René J. Chevance Introduction Présentation de différentes politiques de sauvegarde Plusieurs types de granularité en fonction de la fonctionnalité

Plus en détail