Initiation au HPC - Généralités

Dimension: px
Commencer à balayer dès la page:

Download "Initiation au HPC - Généralités"

Transcription

1 Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49

2 Plan du cours 1 Présentation du module 2 Motivation du HPC 3 Architectures parallèles/distribuées 4 Critères de performances 5 Notions et problématiques de base 6 Programmation parallèle/concurrente Éric Ramat et Julien Dehos Initiation au HPC - Généralités 2/49

3 Plan du cours 1 Présentation du module 2 Motivation du HPC 3 Architectures parallèles/distribuées 4 Critères de performances 5 Notions et problématiques de base 6 Programmation parallèle/concurrente Éric Ramat et Julien Dehos Initiation au HPC - Généralités 2/49

4 Présentation du module Objectifs avoir un peu de culture générale sur les architectures parallèles/distribuées faire un peu de programmation parallèle/concurrente savoir aborder un problème de parallélisation/concurrence : identifier le problème, concevoir/implémenter/valider une solution Éric Ramat et Julien Dehos Initiation au HPC - Généralités 3/49

5 Présentation du module Volume horaire 12h sur la programmation parallèle 12h sur la programmation concurrente environ 1/4 CM et 3/4 TP Éric Ramat et Julien Dehos Initiation au HPC - Généralités 4/49

6 Présentation du module Évaluation programmation parallèle : examen sur feuille, 1h, sans document Éric Ramat et Julien Dehos Initiation au HPC - Généralités 5/49

7 Présentation du module Page web du module Éric Ramat et Julien Dehos Initiation au HPC - Généralités 6/49

8 Plan du cours 1 Présentation du module 2 Motivation du HPC 3 Architectures parallèles/distribuées 4 Critères de performances 5 Notions et problématiques de base 6 Programmation parallèle/concurrente Éric Ramat et Julien Dehos Initiation au HPC - Généralités 6/49

9 Motivation du HPC Définition du HPC High Performance Computing (calcul à haute performance) typiquement : gros calculs réalisés sur des supercalculateurs mais également : systèmes distribués ou à accès concurrents, applications nécessitant beaucoup de calculs sur des ordinateurs personnels ou des appareils mobiles... Tianhe-2 (2013) plantronicsgermany Éric Ramat et Julien Dehos Initiation au HPC - Généralités 7/49

10 Motivation du HPC Notion de puissance de calcul quelques unités de mesure : MIPS : Million Instructions Per Second FLOPS : FLoating-point Operations Per Second GFLOPS : 10 9 FLOPS PFLOPS : FLOPS quelques exemples : CPU intel Core i (2013) : 200 GFLOPS GPU AMD Radeon R9 290X (2013) : GFLOPS Sony PS4 (2013) : 102 GFLOPS CPU GFLOPS GPU Apple iphone 6 (2014) : 166 GFLOPS GPU le Pentium 90 de quand j étais jeune (1994) : 0,09 GFLOPS Tianhe-2 (2013) : 33,86 PFLOPS 200K iphone 6 300M P90 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 8/49

11 Motivation du HPC Besoin en puissance de calcul : prévisions Météo-France supercalculateur NEC SX9 (2009) : 40 TFLOPS en crête trois modèles de simulation couplés, différentes échelles réajustement toutes les 6 heures Éric Ramat et Julien Dehos Initiation au HPC - Généralités 9/49

12 Motivation du HPC Besoin en puissance de calcul : jeu d échecs nombre de feuilles estimé de l arbre de jeu : en considérant qu un ordinateur à 100 PFLOPS peut calculer une feuille en 1 opération, il faudrait plus de siècles pour tout calculer Éric Ramat et Julien Dehos Initiation au HPC - Généralités 10/49

13 Motivation du HPC Besoin en puissance de calcul : jeux vidéo calculer des images en 17 ms 124M pixels/s à partir de scènes 3D de plusieurs millions de polygones et en gérant l éclairage, les physics... Crysis 3 (2013) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 11/49

14 Motivation du HPC Évolution de la puissance de calcul la fréquence d horloge plafonne à 3 GHz depuis 2005 le nombre de transistors continue à doubler tous les 2 ans (loi de Moore, 1975) nouvelles contraintes : limites de miniaturisation, dissipation thermique, consommation électrique nécessité du parallélisme Éric Ramat et Julien Dehos Initiation au HPC - Généralités 12/49

15 Motivation du HPC Disponibilité de la puissance de calcul systèmes multi-processeurs processeurs multi-coeurs cartes graphiques interconnexion à base de réseaux rapides mais nécessité d adapter les logiciels Éric Ramat et Julien Dehos Initiation au HPC - Généralités 13/49

16 Plan du cours 1 Présentation du module 2 Motivation du HPC 3 Architectures parallèles/distribuées 4 Critères de performances 5 Notions et problématiques de base 6 Programmation parallèle/concurrente Éric Ramat et Julien Dehos Initiation au HPC - Généralités 13/49

17 Architectures parallèles/distribuées Systèmes distribués noeuds hétérogènes de calcul ou de stockage traitement de tâches hétérogènes exemple : services web (HTTP+BD+traitements) contraintes de fiabilité, capacité, charge, temps de réponse... Data center Facebook Éric Ramat et Julien Dehos Initiation au HPC - Généralités 14/49

18 Architectures parallèles/distribuées Calculateurs massivement parallèles supercalculateurs, grilles de calcul, ordinateurs en réseau, nombre de processeurs important calculs sur des gros volumes de données exemple : prévisions météo, synthèse d images, cryptanalyse... Éric Ramat et Julien Dehos Initiation au HPC - Généralités 15/49

19 Architectures parallèles/distribuées Systèmes multi-processeurs plusieurs processeurs dans une même machine CPU, GPU... intérêts : mémoire partagée, interconnexion haute performance mais nombre de processeurs faible CXT8000 (nvidia Tesla) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 16/49

20 Architectures parallèles/distribuées Processeurs multi-coeurs plusieurs coeurs parallèles dans un même processeur spécifique par coeur : unités de contrôle/calcul + mémoire partagé : unités de contrôle communes + mémoire partagée Éric Ramat et Julien Dehos Initiation au HPC - Généralités 17/49

21 Architectures parallèles/distribuées Processeurs vectoriels calculer une instruction sur plusieurs données en même temps avec des registres 128 bits, on peut traiter 4 données 32 bits à la fois sur les processeurs x86 : SSE, AVX permet d accélérer les calculs mais nécessite une programmation particulière (minimiser les chargements et déchargements) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 18/49

22 Architectures parallèles/distribuées Architecture pipeline réaliser un calcul nécessite plusieurs étapes sans pipeline : on effectue toutes les étapes d un calcul puis on passe au calcul suivant avec pipeline : lorsqu un calcul passe à l étape suivante, on remplit l étape libérée avec un nouveau calcul, sans attendre permet d accélérer les calculs mais nécessite une programmation particulière (garder le pipeline plein) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 19/49

23 Architectures parallèles/distribuées Clock Cycle Waiting Instructions UNPIPELINED Stage 1: Fetch Stage 2: Decode Stage 3: Execute Stage 4: Write-back Completed Instructions Éric Ramat et Julien Dehos Initiation au HPC - Généralités 20/49

24 Architectures parallèles/distribuées Clock Cycle Waiting Instructions PIPELINED Stage 1: Fetch Stage 2: Decode Stage 3: Execute Stage 4: Write-back Completed Instructions Éric Ramat et Julien Dehos Initiation au HPC - Généralités 21/49

25 Architectures parallèles/distribuées Ces architectures sont complémentaires calculateur à N 1 noeuds noeuds à N 2 processeurs processeurs à N 3 coeurs coeurs à N 4 unités de calcul (UC) = N 1 N 2 N 3 N 4 unités de calcul + de la mémoire spécifique à chaque niveau + des techniques de programmation spécifiques à chaque niveau une grande puissance de calcul et une bonne migraine pour programmer tout çà Éric Ramat et Julien Dehos Initiation au HPC - Généralités 22/49

26 Plan du cours 1 Présentation du module 2 Motivation du HPC 3 Architectures parallèles/distribuées 4 Critères de performances 5 Notions et problématiques de base 6 Programmation parallèle/concurrente Éric Ramat et Julien Dehos Initiation au HPC - Généralités 22/49

27 Critères de performances Mesures des performances temps de calculs : durée, MIPS, FLOPS, nombre de polygones rendus par seconde... se méfier des chiffres annoncés : FLOPS en simple ou double précision puissance moyenne ou en crête prise en compte des initialisations, transferts de données... comparaison d implémentations avec le même degré d optimisation... Éric Ramat et Julien Dehos Initiation au HPC - Généralités 23/49

28 Critères de performances Objectif de la parallélisation exécution séquentielle : 0 T(1) exécution parallèle (idéale) : 1 unité de calcul t P unités de calcul 0 T(P) t accélération (speed-up) : S(P) = T(1) T(P) objectif : S(P) = P c est-à-dire T(P) = T(1) P Éric Ramat et Julien Dehos Initiation au HPC - Généralités 24/49

29 Critères de performances Passage à l échelle (scalability) S(P) seuil d optimalité S(P) = P P évolution du speed-up en fonction du nombre d unités de calcul cas idéal : S(P) = P avec peu d UC, la parallélisation est souvent efficace à partir d un certain seuil, utiliser plus d UC n accélère pas le calcul, voire le ralentit (coût de gestion de la parallélisation, limite de parallélisation du calcul...) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 25/49

30 Critères de performances Loi d Amdahl décrit le passage à l échelle théorique selon le calcul à réaliser le calcul peut être décomposé en : une partie parallélisable sur P unités de calcul (de proportion τ) une partie séquentielle résiduelle (de proportion 1 τ) calcul : P τ 1 τ partie P-parallélisable partie séquentielle résiduelle on a : T(P) = τt(1) P + (1 τ)t(1) d où (loi d Amdahl) : S(P) = T(1) T(P) = 1 τ P +1 τ un calcul passe bien à l échelle uniquement si τ est très proche de 1 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 26/49

31 Critères de performances Amdahl s Law Parallel Portion 95% 90% 75% 50% Speedup Number of Processors Éric Ramat et Julien Dehos Initiation au HPC - Généralités 27/49

32 Plan du cours 1 Présentation du module 2 Motivation du HPC 3 Architectures parallèles/distribuées 4 Critères de performances 5 Notions et problématiques de base 6 Programmation parallèle/concurrente Éric Ramat et Julien Dehos Initiation au HPC - Généralités 27/49

33 Notions et problématiques de base Parallélisme de tâches ou de données parallélisme de tâches : le système effectue en parallèle des tâches/calculs différents exemples : services web, ordinateur personnel multi-tâche programmation concurrente parallélisme de données : le système effectue le même calcul, sur des données différentes exemples : supercalculateurs, GPU programmation parallèle Éric Ramat et Julien Dehos Initiation au HPC - Généralités 28/49

34 Notions et problématiques de base Taxinomie de Flynn classification des architectures d ordinateurs (1966) : Single Data Multiple Data Single Instruction SISD SIMD Multiple Instruction MISD MIMD aujourd hui, on utilise plutôt les termes SPMD et MPMD (Program) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 29/49

35 Notions et problématiques de base Taxinomie de Flynn : SISD SISD Instruction Pool Data Pool PU instruction unique sur donnée unique c est-à-dire pas de parallélisme exemple : architecture Von Neumann Éric Ramat et Julien Dehos Initiation au HPC - Généralités 30/49

36 Notions et problématiques de base Taxinomie de Flynn : SIMD SIMD Instruction Pool Data Pool PU PU PU instruction unique sur données multiples c est-à-dire parallélisme de données exemples : GPU, processeurs vectoriels PU Éric Ramat et Julien Dehos Initiation au HPC - Généralités 31/49

37 Notions et problématiques de base Taxinomie de Flynn : MISD MISD Instruction Pool instructions multiples sur donnée unique Data Pool PU PU peu utilisé en pratique exemple : systèmes critiques Éric Ramat et Julien Dehos Initiation au HPC - Généralités 32/49

38 Notions et problématiques de base Taxinomie de Flynn : MIMD MIMD Data Pool Instruction Pool PU PU PU PU PU PU PU PU instructions multiples sur données multiples c est-à-dire parallélisme de tâches et de données exemples : CPU multi-coeurs, architectures distribuées Éric Ramat et Julien Dehos Initiation au HPC - Généralités 33/49

39 Notions et problématiques de base Processus, thread processus : programme en cours d exécution espace mémoire réservé au processus communication entre processus par messages/signaux thread : duplication légère d un processus espace mémoire partagé par tous les threads du processus communication entre threads d un processus par appels systèmes Éric Ramat et Julien Dehos Initiation au HPC - Généralités 34/49

40 Notions et problématiques de base appels systèmes messages instructions thread 1 instructions thread 2 instructions mémoire processus 1 mémoire processus 2 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 35/49

41 Notions et problématiques de base Équilibrage de charge paralléliser revient à décomposer en plusieurs processus/threads exécutés en parallèle, sur des unités de calculs différentes objectif : répartir la charge de calcul de façon équilibrée (pour réduire le temps de calcul global) charge équilibrée : S(P) = P charge non équilibrée : S(P) < P difficultés : temps de calcul différents, accès concurrents, communication entre processus/thread... Éric Ramat et Julien Dehos Initiation au HPC - Généralités 36/49

42 Notions et problématiques de base attente attente attente 0 T(P) t 0 T(P) t charge équilibrée S(P) = P charge non équilibrée S(P) < P Éric Ramat et Julien Dehos Initiation au HPC - Généralités 37/49

43 Notions et problématiques de base Synchrone/asynchrone opérations synchrones : les opérations sont coordonnées dans le temps (cycles d horloge, exécution séquentielle) exemples : instructions vectorielles opérations asynchrones : les opérations s exécutent indépendamment exemples : systèmes multi-tâches programmation parallèle/concurrente principalement asynchrone avec des mécanismes de synchronisation (barrière, mutex) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 38/49

44 Notions et problématiques de base t t attente synchrone asynchrone asynchrone + barrière t Éric Ramat et Julien Dehos Initiation au HPC - Généralités 39/49

45 Notions et problématiques de base Accès concurrent (race condition) plusieurs processus/threads accèdent à une ressource (périphérique, mémoire partagée...) en même temps problèmes possibles : calculs incorrects (utilisation de données obsolètes) interblocages (attente mutuelle)... Éric Ramat et Julien Dehos Initiation au HPC - Généralités 40/49

46 Notions et problématiques de base #omp parallel for num_threads(2) for (int i=0; i<n; i++) { int x = rand(); // appel système bloquant et concurrent T[i] = f(x); } thread 1 attente réponse att. appel att. réponse système rand() rand() rand() thread 2 attente appel att. réponse att. appel Éric Ramat et Julien Dehos Initiation au HPC - Généralités 41/49

47 Notions et problématiques de base Section critique, mutex, sémaphore en temps normal : un processus doit pouvoir être mis en pause puis repris section critique : section de code qui doit s exécuter sans interruption (e.g. mise à jour d une ressource partagée) mutex, sémaphore : primitives de synchronisation (permet de vérouiller temporairement l accès à une donnée) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 42/49

48 Plan du cours 1 Présentation du module 2 Motivation du HPC 3 Architectures parallèles/distribuées 4 Critères de performances 5 Notions et problématiques de base 6 Programmation parallèle/concurrente Éric Ramat et Julien Dehos Initiation au HPC - Généralités 42/49

49 Programmation parallèle/concurrente Architecture Von Neumann composition : UAL/UC + mémoires + entrées/sorties distinction implicite des instructions et des données bus de données central parallélisation : à quelle échelle (UAL, CPU...)? quelles mémoires? montée en charge du bus? Éric Ramat et Julien Dehos Initiation au HPC - Généralités 43/49

50 Programmation parallèle/concurrente Choix de conception des architectures parallèles synchronisation des unités de calculs : calculs synchrones (processeurs vectoriels) synchronisation par le système (appels systèmes, messages locaux ou réseaux) accès mémoire : différents types de mémoire : registres, caches distribués/partagés, RAM distribuée/partagée problème de gestion mémoire (cohérence de cache, accès concurrents) et de temps d accès Éric Ramat et Julien Dehos Initiation au HPC - Généralités 44/49

51 Programmation parallèle/concurrente Architecture à mémoire partagée toutes les unités de calcul accèdent à la même mémoire exemples : multi-cpu, CPU multi-coeurs, GPU également appelé SMP (Symmetric Multi-Processing) efficace et simple à utiliser mais peu évolutif accès mémoire pas forcément uniforme programmation : thread, OpenMP Éric Ramat et Julien Dehos Initiation au HPC - Généralités 45/49

52 Programmation parallèle/concurrente Architecture à mémoire distribuée chaque unité de calcul accède à sa propre mémoire exemples : systèmes distribués, grilles de calcul, supercalculateurs plus évolutif mais moins efficace et plus difficile à utiliser programmation : socket, MPI Éric Ramat et Julien Dehos Initiation au HPC - Généralités 46/49

53 Programmation parallèle/concurrente Méthode générale de programmation parallèle/concurrente caractériser le problème à paralléliser prévoir une solution (architecture, technologies, algorithme) conception et implémentation validation (correction, performances) Éric Ramat et Julien Dehos Initiation au HPC - Généralités 47/49

54 Programmation parallèle/concurrente Avant de paralléliser/distribuer/optimiser du code est-ce nécessaire (performances insuffisantes)? l algorithme déjà implémenté est-il optimal? gestion mémoire correcte (structures de données, allocation...)? options de compilation, assertions, logs...? profilage de code (où est consommé le temps)? efficacité des optimisations réalisées (mesurer)? Éric Ramat et Julien Dehos Initiation au HPC - Généralités 48/49

55 Fin Éric Ramat et Julien Dehos Initiation au HPC - Généralités 49/49

Les Microprocesseurs partie2

Les Microprocesseurs partie2 Université Constantine 2 Abdelhamid Mehri Faculté des NTIC Département MI Electronique des Composants & Systèmes Les Microprocesseurs partie2 Cours de L1 - TRONC COMMUN DOMAINE MATHEMATIQUES INFORMATIQUE

Plus en détail

Parallélisme. Cours 1

Parallélisme. Cours 1 Parallélisme Cours 1 TD : 20% - TP : 30% - Examen : 50% Feuille A4 manuscrite (pas de photocopie) Fabrice.Huet@etu.unice.fr (prendre rdv par mail pr le contacter) A quoi sert le parallélisme? Augmenter

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique

Plus en détail

Parallélisation Automatique

Parallélisation Automatique Parallélisation Automatique Paul Feautrier ENS de Lyon Paul.Feautrier@ens-lyon.fr 8 septembre 2008 1 / 23 Pourquoi la parallélisation automatique? Les gains de performances dus à la technologie s amenuisent

Plus en détail

Systèmes et traitement parallèles

Systèmes et traitement parallèles Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications

Plus en détail

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,...

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,... Rappels, SISD, SIMD Calculateurs hybrides (GPU-OpenCL) Rappels... SISD,... SIMD Formation d Ingénieurs de l Institut Galiléee MACS 3 Philippe d Anfray Philippe.d-Anfray@cea.fr CEA DSM 2013-2014 SISD :

Plus en détail

Architectures Parallèles

Architectures Parallèles Architectures Parallèles Cours pour Ingénieur Préparé par Dr. Olfa Hamdi-Larbi ola_ola79@yahoo.fr Reçoit les signaux du contrôleur, cherche les données et les traite Instructions, Données à traiter et

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS Ecole Doctorale 2012-2013 Sommaire 1 Architecture générale Processeur Mémoire Réseaux Stockage 2 Tendances Evolutions technologiques

Plus en détail

Plan : Master IM2P2 - Calcul Scientifique

Plan : Master IM2P2 - Calcul Scientifique Plan : Les systèmes HPC Typologie des systèmes : Machines Mémoire partagée Machines à Mémoire Distribuées Machine NUMA Exemples Architectures Processeurs HPC Processeurs scalaires, superscalaires, vectoriels

Plus en détail

GEL 1001 Design I (méthodologie)

GEL 1001 Design I (méthodologie) GEL 1001 Design I (méthodologie) Technique 2 Systèmes embarqués et fiabilité Hiver 2013 Département de génie électrique et de génie informatique Plan Système embarqué Ordinateur et architecture Von Neumann

Plus en détail

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 1 Semestre 4 : Fev. 2015 Ateliers Beowolf ou Mosix Atelier Type Cluster Vishwa http://dos.iitm.ac.in/vishwanew

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Multi-processeurs, multi-cœurs, cohérence mémoire et cache

Multi-processeurs, multi-cœurs, cohérence mémoire et cache Multi-processeurs, multi-cœurs, cohérence mémoire et cache Intervenant : Thomas Robert Institut Mines-Télécom Parallélisme inter instructions n Exécution : une séquence d instructions appliquées à un 1

Plus en détail

Formation en Calcul Scientifique - LIEM2I

Formation en Calcul Scientifique - LIEM2I Formation en Calcul Scientifique - LIEM2I Introduction au calcul parallèle Loïc Gouarin, Violaine Louvet, Laurent Series Groupe Calcul CNRS 9-13 avril 2012 Loïc Gouarin, Violaine Louvet, Laurent Series

Plus en détail

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Marc Mendez-Bermond Expert solutions HPC Programme Contexte Technologies Evolutions 2 Confidentiel Research

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées Mineure HPC-SBD Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture de machines parallèles

Plus en détail

CPU ou UCT. Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.

CPU ou UCT. Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç. CPU ou UCT Processor (data processing) Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.par UCT, en ang. CPU (Central Processing Unit) CPU+mémoire

Plus en détail

Problématique des accès mémoires irréguliers causés par les maillages non structurés :

Problématique des accès mémoires irréguliers causés par les maillages non structurés : Problématique des accès mémoires irréguliers causés par les maillages non structurés :! étude comparative entre les machines massivement multicoeurs et les GPU Loïc Maréchal / INRIA! LJLL, Demi-Journée

Plus en détail

Introduction à la programmation parallèle p. 1/85

Introduction à la programmation parallèle p. 1/85 Introduction à la programmation parallèle Maîtrise d informatique Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences et technologies de Lille

Plus en détail

Design, améliorations, et implémentations

Design, améliorations, et implémentations CPU et Mémoire Design, améliorations, et implémentations Techniques et caractéristiques modernes qui permettent de donner aux ordinateurs actuels toute leur puissance 1 Architectures CPU Design de l architecture

Plus en détail

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées M2-ILC Parallélisme, systèmes distribués et grille Eléments d architecture des Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle 2 Depuis 24 les CPU sont multi-cœurs

Plus en détail

Quantification d incertitude et Tendances en HPC

Quantification d incertitude et Tendances en HPC Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification

Plus en détail

Informatique générale - processeurs

Informatique générale - processeurs Université de Nice Sophia Antipolis Licence 1 Sciences Fondamentales Informatique Générale Processeurs Jacques Farré (d'après Fabrice Huet, Wikipedia... et bien d'autres) Jacques.Farre@unice.fr http://deptinfo.unice.fr/~jf/infogene

Plus en détail

Analyse et mesure de performances du calcul distribué

Analyse et mesure de performances du calcul distribué Analyse et mesure de performances du calcul distribué Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma CruCID Workshop, EMI, Rabat, 5 au 7 juillet 1999 Motivation Types d applications

Plus en détail

Programmation des processeurs multicoeurs

Programmation des processeurs multicoeurs Programmation des processeurs multicoeurs Cours théorique et Application en OpenCL avec Matrix Studio Pascal Ballet pascal.ballet@univ-brest.fr Université de Bretagne Occidentale Laboratoire d Informatique

Plus en détail

Architecture des ordinateurs, concepts du parallélisme

Architecture des ordinateurs, concepts du parallélisme Ecole Doctorale MathIf Architecture des ordinateurs, concepts du parallélisme Violaine Louvet 1 Remerciements à Françoise Roch, Guy Moebs, Françoise Berthoud 1 ICJ - CNRS Année 2009-2010 Objectifs de ce

Plus en détail

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI. Facultés Universitaires Notre-Dame de la Paix, Namur Institut d Informatique Année académique 2003-2004 Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de

Plus en détail

Compilation et optimisation statiques pour les processeurs multi-coeurs

Compilation et optimisation statiques pour les processeurs multi-coeurs Université Louis Pasteur LSIIT, Rapport de stage de Master 2 Recherche IFA Stage encadré par Vincent Loechner Compilation et optimisation statiques pour les processeurs multi-coeurs Ogier Maitre Strasbourg,

Plus en détail

Comment un ordinateur fonctionne Processeur

Comment un ordinateur fonctionne Processeur Comment un ordinateur fonctionne Processeur Les processeurs Cerveau de l ordinateur Règle flux d information par intermédiaire du bus Détermine puissance de l ordi (486, Pentium, ) Vitesse définit par

Plus en détail

Comment concevoir un ordinateur? Quelques questions à considérer

Comment concevoir un ordinateur? Quelques questions à considérer Comment concevoir un ordinateur? Quelques questions à considérer Unité d entrée Unité de traitement Unité de sortie Comment coder les données Entiers, réels, caractères Comment restituer les résultats

Plus en détail

Les grandes classes de système

Les grandes classes de système : Introduction Daniel Etiemble de@lri.fr Les grandes classes de système Caractéristique Ordinateur de bureau Serveur Enfoui/embarqué Prix du microprocesseur à 0 200 à 2000 par processeur 0,20 à 200 par

Plus en détail

Chap. I : Architecture de base d un ordinateur

Chap. I : Architecture de base d un ordinateur UMR 7030 - Université Paris 13 - Institut Galilée Cours Architecture et Système Dans cette partie, nous décrivons rapidement l architecture de base d un ordinateur et les principes de son fonctionnement.

Plus en détail

CPU ou UCT. Circuit Intégré. Processor (data processing)

CPU ou UCT. Circuit Intégré. Processor (data processing) CPU ou UCT Processor (data processing) Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.par UCT, en ang. CPU (Central Processing Unit) CPU+mémoire

Plus en détail

GPU, processeurs multi-coeurs et bio-informatique

GPU, processeurs multi-coeurs et bio-informatique GPU, processeurs multi-coeurs et bio-informatique Jean-Stéphane Varré jean-stephane.varre@lifl.fr Equipe BONSAI Université Lille 1 - LIFL -INRIA Qu est-ce que c est? Le processeur (CPU) La carte graphique

Plus en détail

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs Modèle de Machine 1a: Mém. Partagée Tous les processeurs sont connectés à une large partagée. Appelée Symmetric Multiprocessors (SMPs) SMPs de Sun, HP, Intel, IBM Puces Multicoeur, exceptées celles qui

Plus en détail

Chap. I : Architecture de base d un ordinateur

Chap. I : Architecture de base d un ordinateur UMR 7030 - Université Paris 13 - Institut Galilée Cours Architecture et Système Dans cette partie, nous décrivons rapidement l architecture de base d un ordinateur et les principes de son fonctionnement.

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

RAPPORT DE STAGE Calcul parallèle sur GPU

RAPPORT DE STAGE Calcul parallèle sur GPU Université Joseph Fourier Département Licence Sciences & Technologie RAPPORT DE STAGE Calcul parallèle sur GPU D Aguanno Carlotta Laboratoire d accueil : INRIA Directeur du laboratoire : GROS Patrick Responsable

Plus en détail

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau Résultats des benchmarks de HPC1 après ajout de 1 cœurs. Date : 6/9/212 Auteur : Ph Parnaudeau 1. Evolution de la configuration la plate forme de calcul du LJLL : HPC1 HPC1 1 Février 211 : UV1 est une

Plus en détail

Exemple: le processeur MIPS

Exemple: le processeur MIPS Exécution des instructions machine Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr] adresse (donnée, instruction

Plus en détail

Types et performances des processeurs

Types et performances des processeurs Types et performances des processeurs Laboratoire de Systèmes Logiques Structure d un ordinateur contrôle processeur traitement séquenceur registres mémoire entrées/sorties micromémoire opérateurs bus

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Formation en Calcul Scientifique - LEM2I Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Introduction Décoder la relation entre l architecture et les applications

Plus en détail

ELECTRONIQUE INDUSTRIELLE (243.06) OPTION ÉLECTRODYNAMIQUE Principe des micro-ordinateur (243-834-92) Présenté par Steve Dionne.

ELECTRONIQUE INDUSTRIELLE (243.06) OPTION ÉLECTRODYNAMIQUE Principe des micro-ordinateur (243-834-92) Présenté par Steve Dionne. ELECTRONIQUE INDUSTRIELLE (243.06) OPTION ÉLECTRODYNAMIQUE Principe des micro-ordinateur (243-834-92) Présenté par Steve Dionne À Mario Michaud Remis le 10 septembre automne 2002 Table des matière : Description

Plus en détail

UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES. THÈSE présentée par :

UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES. THÈSE présentée par : UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES Laboratoire d Informatique Fondamentale d Orléans THÈSE présentée par : Hélène COULLON

Plus en détail

Introduction aux systèmes informatiques Structure d un ordinateur

Introduction aux systèmes informatiques Structure d un ordinateur Introduction aux systèmes informatiques Structure d un ordinateur Michel Salomon IUT de Belfort-Montbéliard Département d informatique Michel Salomon Intro. aux sys. info. 1 / 36 Qu est-ce qu un système

Plus en détail

MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE. François Rousselle LISIC Image et Apprentissage OASIS

MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE. François Rousselle LISIC Image et Apprentissage OASIS MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE François Rousselle LISIC Image et Apprentissage OASIS Cadre BQR 2010 CGR LISIC LMPA : Réalisation d'une plateforme générique de calcul intensif pour cartes

Plus en détail

Les Systèmes d Exploitation: Concepts et Programmation

Les Systèmes d Exploitation: Concepts et Programmation Les Systèmes d Exploitation: d Concepts et Programmation Samia Bouzefrane MCF en Informatique, CNAM samia.bouzefrane@cnam.fr http://cedric.cnam.fr/~bouzefra Samia Bouzefrane, Cours SYSTEME 1 Introduction

Plus en détail

Hiérarchie matériel dans le monde informatique. Architecture d ordinateur : introduction. Hiérarchie matériel dans le monde informatique

Hiérarchie matériel dans le monde informatique. Architecture d ordinateur : introduction. Hiérarchie matériel dans le monde informatique Architecture d ordinateur : introduction Dimitri Galayko Introduction à l informatique, cours 1 partie 2 Septembre 2014 Association d interrupteurs: fonctions arithmétiques élémentaires Elément «NON» Elément

Plus en détail

UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES. THÈSE présentée par :

UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES. THÈSE présentée par : UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES Laboratoire d Informatique Fondamentale d Orléans THÈSE présentée par : Hélène COULLON

Plus en détail

Architecture matérielle http://nicodewaele.info Nicolas Dewaele

Architecture matérielle http://nicodewaele.info Nicolas Dewaele Architecture des ordinateurs Définition d'un ordinateur Architecture matérielle Architecture de Von Neumann (Années 1940) Von Neumann : Mathématicien, inventeur de l'architecture des ordinateurs modernes

Plus en détail

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit Architecture élémentaire Un cours d architecture pour des informaticiens Samy Meftali Samy.meftali@lifl.fr Bureau 224. Bâtiment M3 extension Sans architecture pas d informatique Comprendre comment çà marche

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe

Plus en détail

Tout savoir sur le matériel informatique

Tout savoir sur le matériel informatique Tout savoir sur le matériel informatique Thème de l exposé : Les Processeurs Date : 05 Novembre 2010 Orateurs : Hugo VIAL-JAIME Jérémy RAMBAUD Sommaire : 1. Introduction... 3 2. Historique... 4 3. Relation

Plus en détail

Initiation au HPC - Programmation concurrente

Initiation au HPC - Programmation concurrente Initiation au HPC - Programmation concurrente Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 12 octobre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Programmation

Plus en détail

Plan du module. Objectif du module. Architecture des Ordinateurs. Objectif: de la mécanique au fonctionnel. Intervenants. Acquérir un...

Plan du module. Objectif du module. Architecture des Ordinateurs. Objectif: de la mécanique au fonctionnel. Intervenants. Acquérir un... Mise à jour: Janvier 2012 Architecture des Ordinateurs [Archi/Lycée] 2 Nicolas Bredèche Maître de Conférences Université Paris-Sud bredeche@lri.fr Ressources bibliographiques utilisées pour ce cours :

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Ecole d Automne «Informatique Scientifique pour le Calcul» Architecture des ordinateurs Françoise Berthoud 1 Violaine Louvet 2 Françoise Roch 3 1 Laboratoire de Physique et de Modélisation des Milieux

Plus en détail

Chap. 2 - Structure d un ordinateur

Chap. 2 - Structure d un ordinateur Architecture des ordinateurs Michèle Courant S2-27 octobre 2004 Chap. 2 - Structure d un ordinateur 2.1 Processeur ou unité centrale (CPU) 2.1.1 Organisation du CPU 2.1.2 Exécution d une instruction 2.1.3

Plus en détail

UNIVERSITÉ D ORLÉANS

UNIVERSITÉ D ORLÉANS UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MATHEMATIQUES, INFORMATIQUE, PHYSIQUE THEORIQUE et INGENIERIE DES SYSTEMES Laboratoire d Informatique Fondamentale d Orléans THÈSE présentée par : Joeffrey LEGAUX soutenue

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

UNIVERSITÉ D ORLÉANS. ÉCOLE DOCTORALE SCIENCES ET TECHNOLOGIES LABORATOIRE : LIFO THÈSE présentée par : Hiep-Thuan DO. soutenue le : 13/12/2011

UNIVERSITÉ D ORLÉANS. ÉCOLE DOCTORALE SCIENCES ET TECHNOLOGIES LABORATOIRE : LIFO THÈSE présentée par : Hiep-Thuan DO. soutenue le : 13/12/2011 UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE SCIENCES ET TECHNOLOGIES LABORATOIRE : LIFO THÈSE présentée par : Hiep-Thuan DO soutenue le : 13/12/2011 pour obtenir le grade de : Docteur de l université d Orléans

Plus en détail

Métriques de performance pour les algorithmes et programmes parallèles

Métriques de performance pour les algorithmes et programmes parallèles Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and

Plus en détail

Introduction à la programmation // sur GPUs en CUDA et Python

Introduction à la programmation // sur GPUs en CUDA et Python Introduction à la programmation // sur GPUs en CUDA et Python Denis Robilliard Équipe CAMOME: C. Fonlupt, V. Marion-Poty, A. Boumaza LISIC ULCO Univ Lille Nord de France BP 719, F-62228 Calais Cedex, France

Plus en détail

Architecture des Ordinateurs. Partie II:

Architecture des Ordinateurs. Partie II: Architecture des Ordinateurs Partie II: Le port Floppy permet le raccordement du lecteur de disquette àla carte mère. Remarque: Le lecteur de disquette a disparu il y a plus de 6 ans, son port suivra.

Plus en détail

CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES

CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES Trois types de formation LES FORMATEURS Les experts techniques AS+ Groupe EOLEN disposent d une réelle expérience pratique

Plus en détail

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée.

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. RenPar 19 / SympA 13 / CFSE 7 Toulouse, France, du 9 au 11 septembre 2009 Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. Khaled Hamidouche, Franck

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Chapitre 1 Architecture des calculateurs 1.1 Introduction Ce paragraphe n a pas la prétention de présenter un cours d informatique. D une manière générale, seuls les caractéristiques architecturales qui

Plus en détail

Matériel : comment gagner en performance? Objectif Teraflop. les limites :

Matériel : comment gagner en performance? Objectif Teraflop. les limites : Matériel : comment gagner en performance? réduction du temps de cycle (aujourd hui de 0,6 à 2 ns) instructions vectorielles et pipelinées plusieurs unités fonctionnelles hiérarchie de mémoire multiprocesseurs

Plus en détail

GPA770 Microélectronique appliquée Exercices série A

GPA770 Microélectronique appliquée Exercices série A GPA770 Microélectronique appliquée Exercices série A 1. Effectuez les calculs suivants sur des nombres binaires en complément à avec une représentation de 8 bits. Est-ce qu il y a débordement en complément

Plus en détail

Exécution des instructions machine

Exécution des instructions machine Exécution des instructions machine Eduardo Sanchez EPFL Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr]

Plus en détail

Architecture des ordinateurs. Optimisation : pipeline. Pipeline (I) Pipeline (II) Exemple simplifié : Instructions de type R

Architecture des ordinateurs. Optimisation : pipeline. Pipeline (I) Pipeline (II) Exemple simplifié : Instructions de type R Architecture des ordinateurs Licence Informatique - Université de Provence Jean-Marc Talbot Optimisation : pipeline jtalbot@cmi.univ-mrs.fr L3 Informatique - Université de Provence () Architecture des

Plus en détail

Architecture matérielle et logicielle

Architecture matérielle et logicielle Architecture matérielle et logicielle Contents I Le Cours 2 1 Généralités 2 2 Micro-processeur 2 3 Mémoire 2 4 Performances 3 II TPs 3 1 Création d un exécutable : 3 2 Les bibliothèques 3 3 Codage de l

Plus en détail

Calculs Haute Performance. Une Introduction aux Calculs Haute Performance

Calculs Haute Performance. Une Introduction aux Calculs Haute Performance Calculs Haute Performance Une Introduction aux Calculs Haute Performance Ivan LABAYE Tizi-Ouzou 2015 1 Plan de l'exposé Calculs Haute Performance? Pour quoi Faire? Modèles de calculateurs (HPC) Outils

Plus en détail

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations 3A-IIC - Parallélisme & Grid : Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle 1 1 Exemple d applications et clients Défis du calcul parallèle 3 Calcul parallèle dans le monde

Plus en détail

INF6500 Structures des ordinateurs. Plan de cours

INF6500 Structures des ordinateurs. Plan de cours École Polytechnique de Montréal Département de génie informatique et de génie logiciel INF6500 Structures des ordinateurs Automne 2015 Plan de cours Professeur coordonnateur du cours: Nom : Sylvain Martel

Plus en détail

Opérateurs Arithmétiques Parallèles pour la Cryptographie Asymétrique

Opérateurs Arithmétiques Parallèles pour la Cryptographie Asymétrique Opérateurs Arithmétiques Parallèles pour la Cryptographie Asymétrique Thomas Izard To cite this version: Thomas Izard. Opérateurs Arithmétiques Parallèles pour la Cryptographie Asymétrique. Cryptographie

Plus en détail

cluster pour l Enseignement Universitaire et la Recherche

cluster pour l Enseignement Universitaire et la Recherche cluster pour l Enseignement Universitaire et la Recherche Université de Nice Sophia-Antipolis 22 janvier 2013 Université de Nice Sophia-Antipolis cluster pour l Enseignement Universitaire et la Recherche

Plus en détail

Infrastructures Parallèles de Calcul

Infrastructures Parallèles de Calcul Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide

Plus en détail

Outils pour le calcul scientifique à haute performance p. 1/104

Outils pour le calcul scientifique à haute performance p. 1/104 Outils pour le calcul scientifique à haute performance École doctorale sciences pour l ingénieur mai 2001 Philippe MARQUET et Pierre BOULET Philippe.Marquet@lifl.fr, Pierre.Boulet@lifl.fr Laboratoire d

Plus en détail

Les architectures parallèles et leur programmation pour le calcul scientifique. Yves Denneulin

Les architectures parallèles et leur programmation pour le calcul scientifique. Yves Denneulin Les architectures parallèles et leur programmation pour le calcul scientifique Yves Denneulin Plan du cours Introduction au parallélisme Le parallélisme de données présentation illustration sur deux langages

Plus en détail

Multi-processeurs, multi-cœurs et cohérence mémoire et cache

Multi-processeurs, multi-cœurs et cohérence mémoire et cache Multi-processeurs, multi-cœurs et cohérence mémoire et cache Intervenant : Thomas Robert Institut Mines-Télécom Rappel système d exploitation & Parallélisme L unité d exécution pour un système d exploitation

Plus en détail

Centre Commun de Calcul Intensif: www.univ-ag.fr/c3i

Centre Commun de Calcul Intensif: www.univ-ag.fr/c3i Centre Commun de Calcul Intensif: www.univ-ag.fr/c3i a HPC center in the Caribbean Mewbalaou Fédération de recherche fournissant des ressources à 6 laboratoires de l UAG: COVACHIM-M, GTSI, LAMIA, LARGE,

Plus en détail

Kick-off ANR Compass

Kick-off ANR Compass Kick-off ANR Compass Contribution MDLS Pierre Kestener CEA-Saclay, DSM, France Maison de la Simulation Meudon, 14 mars 2013 1 / 10 La Maison de la Simulation Laboratoire de recherche pluridisciplinaire

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

Aspects théoriques et algorithmiques du calcul réparti L agglomération

Aspects théoriques et algorithmiques du calcul réparti L agglomération Aspects théoriques et algorithmiques du calcul réparti L agglomération Patrick CIARLET Enseignant-Chercheur UMA patrick.ciarlet@ensta-paristech.fr Françoise LAMOUR franc.lamour@gmail.com Aspects théoriques

Plus en détail

CH.3 SYSTÈMES D'EXPLOITATION

CH.3 SYSTÈMES D'EXPLOITATION CH.3 SYSTÈMES D'EXPLOITATION 3.1 Un historique 3.2 Une vue générale 3.3 Les principaux aspects Info S4 ch3 1 3.1 Un historique Quatre générations. Préhistoire 1944 1950 ENIAC (1944) militaire : 20000 tubes,

Plus en détail

Limitations of the Playstation 3 for High Performance Cluster Computing

Limitations of the Playstation 3 for High Performance Cluster Computing Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire

Plus en détail

CRIHAN Centre de Ressources Informatiques de HAute-Normandie

CRIHAN Centre de Ressources Informatiques de HAute-Normandie ACT-MG-v2 CRIHAN Centre de Ressources Informatiques de HAute-Normandie Journée Entreprises & HPC-PME au CRIHAN - 11 avril 2013 CRIHAN Missions Concept : mutualisation de services et d équipements Réseau

Plus en détail

Comparaison entre une architecture matérielle dédiée et un GP-GPU pour l optimisation

Comparaison entre une architecture matérielle dédiée et un GP-GPU pour l optimisation Comparaison entre une architecture matérielle dédiée et un GP-GPU pour l optimisation Université de Bretagne-Sud Lab-STICC, Lorient, France ROADeF Troyes, France 13-15 Février 2013 1/22 Objectifs Après

Plus en détail

Informatique Générale

Informatique Générale Informatique Générale Guillaume Hutzler Laboratoire IBISC (Informatique Biologie Intégrative et Systèmes Complexes) guillaume.hutzler@ibisc.univ-evry.fr Cours Dokeos 625 http://www.ens.univ-evry.fr/modx/dokeos.html

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Historique. Évolution des systèmes d exploitation (à travers les âges)

Historique. Évolution des systèmes d exploitation (à travers les âges) Historique Évolution des systèmes d exploitation (à travers les âges) Historique L histoire des systèmes d exploitation permet de dégager des concepts de base que l on retrouve dans les systèmes actuels

Plus en détail

Processeur JAP. Le langage JAVA

Processeur JAP. Le langage JAVA Processeur JAP Ce document présente les dernières nouveautés concernant le processeur JAVA de la société AED. Il commence par un rappel sur les caractéristiques du processeur actuel, puis présente les

Plus en détail

Practice HPC. Retour d expérience Xeon PHI. Février 2012. Damien DUBUC Expert HPC software. 28/03/2013 ANEO Tous droits réservés 1

Practice HPC. Retour d expérience Xeon PHI. Février 2012. Damien DUBUC Expert HPC software. 28/03/2013 ANEO Tous droits réservés 1 Retour d expérience Xeon PHI Damien DUBUC Expert HPC software Février 2012 28/03/2013 ANEO Tous droits réservés 1 Quel est notre rôle? Présenter o Gérer un portefeuille clients nécessitant des optimisations

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Architecture des ordinateurs Généralités Processeur Carte mère Mémoire Bus Interfaces d'entrée-sortie Cartes d'extension Périphériques Évolution Presque le montage d'un PC 1 Familles d'ordinateurs Serveur

Plus en détail

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos Architecture & Nouveautés du Core i7 Xpose Core i7 Sommaire Définition Historique Rôle du microprocesseur Architecture d un microprocesseur Core i7 : Améliorations Cache HyperThreading IMC/QPI TurboBoost

Plus en détail

Cours architectures des ordinateurs

Cours architectures des ordinateurs Université KASDI MERBAH Ouargla Faculté des Nouvelles Technologies de l Information et de la Communication Département d Informatique et Technologie de l information Cours architectures des ordinateurs

Plus en détail

Ordonnancement de threads sur architectures multiprocesseurs hiérarchiques. Une approche pragmatique

Ordonnancement de threads sur architectures multiprocesseurs hiérarchiques. Une approche pragmatique Ordonnancement de threads sur architectures multiprocesseurs hiérarchiques Une approche pragmatique Raymond Namyst Équipe LaBRI-INRIA RUNTIME L équipe Runtime Domaine d application = Calcul intensif et

Plus en détail

Historique et architecture générale des ordinateurs

Historique et architecture générale des ordinateurs Historique et architecture générale des ordinateurs Eric Cariou Département Informatique Université de Pau et des Pays de l'adour Eric.Cariou@univ-pau.fr 1 Ordinateur Ordinateur : une définition (Hachette)

Plus en détail

Parallélisme avec les processeurs d usage général

Parallélisme avec les processeurs d usage général Multiprocesseurs, multicœurs et parallélisme Parallélisme avec les processeurs d usage général Fabrice HARROUET Université Européenne de Bretagne École Nationale d Ingénieurs de Brest Laboratoire d Informatique

Plus en détail