Eléments d architecture des machines parallèles et distribuées

Dimension: px
Commencer à balayer dès la page:

Download "Eléments d architecture des machines parallèles et distribuées"

Transcription

1 M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Notions d architecture de machines parallèles et distribuées Architecture des CPU multicoeurs Loi de Moore électronique et ré-interprétation informatique Réseaux d interconnexion des machines parallèles Refroidissement des machines parallèles Du Petaflops à l Exaflops 2 Architecture des CPUs multicoeurs Depuis 2004 les CPU sont multi-cœurs (suite à la réinterprétation de la loi de Moore), ce qui signifie : de plus en plus de cœurs par «socket» (processeur) la puissance d un cœur reste stable (n évolue plus) beaucoup de cœurs partagent la RAM efficacement? une hiérarchie de mémoires cache et les vitesses du cache et de la RAM ne cessent de s écarter et beaucoup d autres composants dans un processeur multi-cœurs. 3 1

2 Architecture des CPUs multicoeurs Stabilisation de la puissance d un cœur et impact du multi-cœurs : L accroissement de performance d un cœur CPU est du au parallélisme depuis plusieurs années. W. Kirshenmann EDF & EPI AlGorille, d après une première étude menée par SpiralGen 4 Architecture des CPUs multicoeurs Intel Core i7 - Nehalem Des cœurs hyper-threadés Des mémoires caches Un sheduler de threads Des pipelines. Des unités de calcul vectorielles : «SSE» Un processeur contient beaucoup de composants différents, pouvant fonctionner en parallèle, interconnectés et ayant tous besoin d être alimentés en données : très difficile d exploiter à l optimum! les «optimisations sérielles» : une démarche essentielle 5 Architecture des CPUs multicoeurs Le «médium» de partage de mémoire entre les cœurs est l élément clé d un CPU multi-cœurs : un bus mémoire rapide une hiérarchie de caches cohérents et rapides des protocoles d accès aux bus et aux bancs mémoires et de grosses différences de performances, avec parfois des points d évolution importants. 6 2

3 Architecture des CPUs multicoeurs Pendant très longtemps les PC multiprocesseurs (monocoeurs) étaient mauvais en partage de mémoire : MFlops Relaxation de Jacobi 1 proc 2 procs-omp Mauvais! Problem Size (KBytes) MFlops proc 2 procs 4 procs Bien! Problem Size (KBytes) 7 PC bi-processeurs (2000) SUN quadri-processeurs (2000) Sorti du cache les accès à la RAM étaient sérialisées Architecture des CPUs multicoeurs La situation change entre 2008 et 2009 avec l architecture Nehalem d Intel (la technologie «bi-bus» d AMD n était pas aussi performante) : MegaFlops Mauvais! 4 th 2th 1 th Pb size (MBytes) Intel 4-cœurs avant le Nehalem Relaxation de Jacobi MegaFlops th 4 th 2th 1 th Assez bien Pb size (MBytes) Intel 4-cœurs Nehalem Le «smart memory bus» d Intel est une grosse amélioration (en fait ce n est plus un bus, voir + loin) 8 Architecture des CPUs multicoeurs La situation change entre 2008 et 2009 avec l architecture Nehalem d Intel (la technologie «bi-bus» d AMD n était pas aussi performante) : MegaFlops Produit de matrices denses th 2th Très bien! Assez bien 1 th Pb size (MBytes) Intel 4-cœurs avant le Nehalem On peut programmer en parallèle en sortant du cache On perd la vitesse du cache mais pas l accélération MegaFlops 8 th 4 th 2th 1 th Pb size (MBytes) Intel 4-cœurs Nehalem 9 3

4 Architecture des CPUs multicoeurs On est passé d une interconnexion en bus + protocole de partage de bus à un réseau d interconnexion avec des brins et des switchs. un «vrai réseau» dans chaque processeur multi-cœurs INTEL 10 Architecture des CPUs multicoeurs Intel 48-core x86 Processor: «Singlechip Cloud Computer» Architecture des CPUs multicoeurs Evolutions des CPU multi-cœurs : des cœurs de technologies différentes dans le même «socket» : o AMD/ATI et INTEL ont produit des processeurs avec des cœurs CPU et un cœur GPU, mais de faible puissance des mécanismes d optimisation de la consommation énergétique : o mise en sommeil des cœurs non utilisés o des cœurs pouvant fonctionner à des fréquences différentes o auto-adaptation de la fréquence des coeurs après le prototype SCC, INTEL sort le Xeon phi/mic (Many Integrated Cores) fin 2012, avec plusieurs dizaines de cœurs x86 des dizaines, des centaines de cœurs par «socket»??? 4

5 Notions d architecture de machines parallèles et distribuées Architecture des CPU multicoeurs Loi de Moore électronique et ré-interprétation informatique Réseaux d interconnexion des machines parallèles Refroidissement des machines parallèles Du Petaflops à l Exaflops 13 3 grands types d architectures parallèles MIMD, et démarche de réalisation 14 Une première classification Classification des architectures parallèle : 1972 classification de FLYN : simple et suffisante en classes d architectures Flot de données : Simple Multiple Flot Simple SISD SIMD d instructions : Multiple MISD MIMD Machines séquentielles Machines parallèles généralistes 2011 : : beaucoup d autres classifications peu convaincantes A ce jour 3 grand types d architectures MIMD : SMP, Distributed memory, DSM. 15 5

6 3 grands types d architectures 1 - Shared-memory MIMD machines (SMP) : Un principe, mais : - plusieurs techniques de réalisation, - plusieurs coûts, - plusieurs efficacités. Overview of Recent Supercomputers Aad J. van der Steen Jack J. Dongarra16 3 grands types d architectures 2 - Distributed-memory MIMD machines : Mem Mem Mem Hypercubes proc proc proc network Fat trees Principe des clusters, mais le coût et la perf. sont dans le réseau d interconnexion! Autres 17 3 grands types d architectures 3 - Hybrid MIMD architectures : S-COMA (th.) ou ccnuma (réalisée) Espace unique (super!) ou segmenté. Réalisation : Hardware (bien) Soft lent! Overview of Recent Supercomputers Aad J. van der Steen Jack J. Dongarra «Distributed Shared Memory» ou «Virtual Shared Memory» 18 6

7 Démarche de réalisation d une machine parallèle Créer un processeur + une machine + un OS + un compilateur prend du temps (et de l argent)! perf Début de conception T trop grand! Perf archis concurrentes génériques!!! Fin de réalisation Perf de l archi spécifique années Risque d être dépassé par la technologie standard avant de naître! 19 Démarche de réalisation d une machine parallèle Architectures parallèles à base de composants «du marché» : démarche apparue clairement depuis 1993 profite des évolutions des technologies séquentielles/standards investissements limités à l assemblage des processeurs, du réseau d interconnexion, et du logiciel (déjà beaucoup) temps de développement réduit des nouvelles machines ex : machines MIMD à base de CPU du marché (Intel ou AMD) machines MIMD avec réseau Gigabit-Ethernet ou Infiniband machines hétérogènes à base de CPU + GPU du marché Rmq : beaucoup de critiques des machines originales IBM Blue Gene vs Super-Ordinateurs en «cluster de PCs», car beaucoup de bibliothèques de calcul ne sont pas disponibles sur BG 20 Histoire (instructive) des ordinateurs CRAY 21 7

8 Histoire des ordinateurs CRAY Cray-1, Mflops Cray-2, gigaflops Cray-YMP, 1988 Cray-T90, 60 gigaflops Cray-J90 Cray-C90, gigaflops 22 Histoire des ordinateurs CRAY NEC (SX) Cray-T90, 60 gigaflops Cray-SV1 1 teraflop Cray est démembré et semble avoir disparu. Puis en 2002 un évènement survient. Cray-SX-6 Cray-SV2 23 Histoire des ordinateurs CRAY Apparition du Earth Simulator : gros cluster vectoriel NEC : 640-nœuds de 8 processeurs : 5120 processeurs 40 Tflops crête, a atteint les 35 Tflops en juin 2002 Le vectoriel revient à la 1 ère place du Top500 (en 2002)! Vector MPP 24 8

9 Histoire des ordinateurs CRAY Forte inquiétude des USA! 25 Histoire des ordinateurs CRAY CRAY était de nouveau là, avec de grandes ambitions: 26 Histoire des ordinateurs CRAY NEC (SX) Cray-T90, 60 gigaflops Cray-SV1 1 teraflop Vector MPP Machine annoncée Cray-SX-6 Cray-X Tflops Cray-SV2 27 9

10 Vector MPP Histoire des ordinateurs CRAY Cray-X Tflops Cray-XT6 ou XT6h (?) Opteron 6-cores Tore 2D Réseau Cray Cray-XT3 Cray-XT5 cluster de CPU multicoeurs, Linux Cray-XT5h (hybrid) cluster de noeuds CPU/Vectoriels/FPGA, Unicos (Cray Unix) Cray-XT4 28 Histoire des ordinateurs CRAY Cray XT6 : 1 er au top500 en novembre 2009 : 1.7 Pflops avec 6.9 Mwatt Architecture : réseau d interconnexion propriétaire + Opteron 6-cœurs Architectures traditionnelles et très consommatrices d énergie mais très efficace et sous Linux (logiciels disponibles) Machine dénommée «Jaguar» Cray de nouveau à la 1 ère place en nov 2009 avec des Opteron Histoire des ordinateurs CRAY Cray XK7 : 1 er au top500 en novembre 2012 : 17.6 Pflops avec 8.2 Mwatt Architecture : réseau d interconnexion propriétaire chaque nœud : Opteron 16-cœurs + GPU NVIDIA Tesla K nœuds CPU cores GPU K «cores» pour exécuter le benchmark 700 terabytes of memory. Cray à la 1 ère place en nov Machine dénommée «Titan» 2012 avec Opteron + GPU 10

11 Notions d architecture de machines parallèles et distribuées Architecture des CPU multicoeurs Loi de Moore électronique et ré-interprétation informatique Réseaux d interconnexion des machines parallèles Refroidissement des machines parallèles Du Petaflops à l Exaflops 31 Loi de Moore électronique et ré-interprétation informatique Loi de Moore (électronique) : 2 fois plus de transistors intégrés sur la même surface de silicium tous les 18 mois. G. Moore pense que sa loi devrait se vérifier jusqu en 2017 Traduction informatique : Par le passé : la fréquence des processeurs double tous les «un peu plus que 18 mois» et donc la vitesse des processeurs suivait une exponentielle un peu plus faible que l électronique. Puis un (nouveau) problème énergétique est apparu en 2003/2004 On ne pouvait plus dissiper autant de puissance ni financer autant d énergie Loi de Moore électronique et ré-interprétation informatique Auteur : Jack Dongara 11

12 Loi de Moore électronique et ré-interprétation informatique Limiter la fréquence et augmenter le nombre de cœurs est énergétiquement rentable = 0.8 Auteur : Jack Dongara Loi de Moore électronique et ré-interprétation informatique Loi de Moore (électronique) : 2 fois plus de transistors intégrés sur la même surface de silicium tous les 18 mois. G. Moore pense que sa loi devrait se vérifier jusqu en 2017 Traduction informatique : Par le passé : la fréquence des processeurs double tous les «un peu plus que 18 mois» et donc la vitesse des processeurs suivait une exponentielle un peu plus faible que l électronique. Actuellement : le nombre de cœurs double tous les 2 ans la vitesse d un cœur reste à peu près stable pour aller plus vite sur son PC il faut exploiter le parallélisme du processeur. Loi de Moore électronique et ré-interprétation informatique Prochainement : Exploiter quelques dizaines de threads sur son PC (dans une même application) Exploiter quelques millions et milliards de threads sur les super-calculateurs (dans une même application) La loi de Moore électronique se traduit maintenant par un défi algorithmique et logiciel «de masse». 12

13 Notions d architecture de machines parallèles et distribuées Architecture des CPU multicoeurs Loi de Moore électronique et ré-interprétation informatique Réseaux d interconnexion des machines parallèles Refroidissement des machines parallèles Du Petaflops à l Exaflops 37 Réseaux d'interconnexion des machines parallèles Caractéristiques importantes Caractéristiques d un réseau d interconnexion de nœuds de calculs : La bande passante La latence La résistance aux engorgements : en général on implante des algorithmes synchrones tous les nœuds calculent puis en même temps se mettent à communiquer Les performances en communications point-à-point Les performances en communications collectives (broadcast, scatter, gather, reduce, all_to_all, ) La capacité d extension, pour permettre d agrandir les machines (une topologie hypercubique n est pas très extensible) La distance et le temps maximal entre deux nœuds de l architecture. Réseaux d'interconnexion des clusters GigabitEthernet et Infiniband Gigabit Ethernet : Bientôt du 10G Utilisé dans beaucoup de machines du Top500 dans la plupart Mais pas dans les plus performantes des clusters Réseau bon marché comparé aux autres Technologie connue en dehors du HPC la compétence est déjà dans l institution/la société. Infiniband : Utilisé dans beaucoup de machines du Top500 Souvent des machines plus performantes que celles en Gigabit Plus cher que le Gigabit La différence avec le Gigabit est d autant plus marquée que le nombre de nœuds est grand Plusieurs versions d Infiniband, avec des vitesses différentes Peu utilisé en dehors du HPC compétence spécifique 13

14 Réseaux d'interconnexion des clusters Myrinet et Quadrics Myrinet : un réseau propriété de Myricom, mais insérable dans tout cluster au départ plus répandu que Infiniband qui est un standard open puis a perdu régulièrement du terrain vis-à-vis de Infiniband produit par plusieurs entreprises. En 2012 Myricom propose des solutions Myri-10G Quadrics : S est positionné comme le plus cher et le plus rapide des réseaux d interconnexion pour cluster. Mais vraiment très cher! Dès le début capable de routage dynamique pour contourner les engorgements. A perdu en partie son avance de performances et a disparu! Réseaux d'interconnexion des clusters Réseaux propriétaires Réseaux propriétaires : Les plus grands constructeurs proposent leurs supercalculateurs avec leurs propres réseaux d interconnexion : CRAY/IBM/Fujitsu/ Des topologies et des protocoles différents selon l usage : réseau de données pt-à-pt, réseau de ctrl, réseau de données collectives, Ils sont l élément clé d un supercalculateur Ex : Le Cray T3D a été une machine décisive car elle fut la 1 ère à posséder un réseau d interconnexion à la hauteur de la puissance de calcul de ses nœuds. Réseaux d'interconnexion des clusters Répartition des réseaux du Top500 (2013) En fonction de la puissance des machines En fonction du nbr de cœurs des machines Les réseaux GigabitEth équipent bien des machines moins puissantes 14

15 Notions d architecture de machines parallèles et distribuées Architecture des CPU multicoeurs Loi de Moore électronique et ré-interprétation informatique Réseaux d interconnexion des machines parallèles Refroidissement des machines parallèles Du Petaflops à l Exaflops 43 Refroidissement des machines parallèles Optimisation du refroidissement Des processeurs moins gourmands en énergie : on essaie de limiter la consommation de chaque processeur les processeurs passent en mode économique s ils sont inutilisés on améliore le rendement flops/watt Mais une densité de processeurs en hausse : une tendance à la limitation de la taille totale des machines (en m² au sol) Besoin de refroidissement efficace et bon marché (!) Souvent estimé à 30% de la dépense énergétique! Une carte d un IBM Blue Gene 44 Refroidissement des machines parallèles Refroidissement «liquide par immersion» Refroidissement par immersion des cartes dans un liquide électriquement neutre, et refroidi. Refroidissement liquide par immersion testé par SGI & Novec en 2014 Refroidissement liquide par immersion sur le CRAY-2 en

16 Refroidissement des machines parallèles Refroidissement eau/air par porte froide On refroidit par eau une «porte/grille» dans laquelle circule un flux d air, qui vient de refroidir la machine Le refroidissement se concentre sur l armoire. 46 Refroidissement des machines parallèles Refroidissement «liquide direct» On amène de l eau froide directement sur le point chaud, mais l eau reste isolée de l électronique. Expérimental en 2009 Adopté depuis (IBM, BULL, ) Carte expérimentale IBM en 2009 (projet Blue Water, abandonné) Lame de calcul IBM en 2012 Commercialisée 47 Refroidissement des machines parallèles Refroidissement par air Optimisation des flux d air : en entrée et en sortie des armoires Architecture Blue Gene : haute densité de processeurs Objectif d encombrement minimal (au sol) et de consommation énergétique minimale Formes triangulaires ajoutées pour optimiser le flux d air IBM Blue Gene 48 16

17 Refroidissement des machines parallèles Refroidissement par air : «Extreme cooling» Refroidissement avec de l air à température ambiante : - circulant à grande vitesse - circulant à gros volume Les CPUs fonctionnent proche de leur température max supportable (ex : 35 C sur une carte mère sans pb) Il n y a pas de refroidissement du flux d air. Une machine de Grid 5000 à Grenoble (la seule en Extreme Cooling) Economique! Mais arrêt de la machine quand l air ambiant est trop chaud (l été)! 49 Notions d architecture de machines parallèles et distribuées Architecture des CPU multicoeurs Loi de Moore électronique et ré-interprétation informatique Réseaux d interconnexion des machines parallèles Refroidissement des machines parallèles Du Petaflops à l Exaflops 50 Le Top500 Evolution de la puissance de calcul mondiale 17

18 Du Petaflops à l Exaflops 1000 perf 100 cores/nœud 10 nœuds 50 IO 10 énergie 1.03 Petaflops : juin 2008 RoadRunner (IBM) Opteron + PowerXCell «cores» 500 Gb/s (IO) 2.35 MWatt 1.00 Exaflops : Tb/s (IO) 20MWatt max Petaflops : juin juin 2014 Tianhe-2 (NUDT - China) Xeon + Xeon-phi «cores» 17.8 MWatt Comment programmer ces machines parallèles hétérogènes? Comment former massivement des développeurs? 52 Eléments d architecture des machines parallèles et distribuées FIN 53 18

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées M2-ILC Parallélisme, systèmes distribués et grille Eléments d architecture des Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle 2 Depuis 24 les CPU sont multi-cœurs

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées Mineure HPC-SBD Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture de machines parallèles

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,...

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,... Rappels, SISD, SIMD Calculateurs hybrides (GPU-OpenCL) Rappels... SISD,... SIMD Formation d Ingénieurs de l Institut Galiléee MACS 3 Philippe d Anfray Philippe.d-Anfray@cea.fr CEA DSM 2013-2014 SISD :

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique

Plus en détail

Formation en Calcul Scientifique - LIEM2I

Formation en Calcul Scientifique - LIEM2I Formation en Calcul Scientifique - LIEM2I Introduction au calcul parallèle Loïc Gouarin, Violaine Louvet, Laurent Series Groupe Calcul CNRS 9-13 avril 2012 Loïc Gouarin, Violaine Louvet, Laurent Series

Plus en détail

Parallélisme. Cours 1

Parallélisme. Cours 1 Parallélisme Cours 1 TD : 20% - TP : 30% - Examen : 50% Feuille A4 manuscrite (pas de photocopie) Fabrice.Huet@etu.unice.fr (prendre rdv par mail pr le contacter) A quoi sert le parallélisme? Augmenter

Plus en détail

Plan : Master IM2P2 - Calcul Scientifique

Plan : Master IM2P2 - Calcul Scientifique Plan : Les systèmes HPC Typologie des systèmes : Machines Mémoire partagée Machines à Mémoire Distribuées Machine NUMA Exemples Architectures Processeurs HPC Processeurs scalaires, superscalaires, vectoriels

Plus en détail

Cours Parallélisme. I. Parallélismes Jean-Louis Pazat. Plan. Introduction Parallélisme d'expression Applications Parallélisme d'exécution

Cours Parallélisme. I. Parallélismes Jean-Louis Pazat. Plan. Introduction Parallélisme d'expression Applications Parallélisme d'exécution Cours Parallélisme I. Parallélismes Jean-Louis Pazat Plan 2 Introduction Parallélisme d'expression Applications Parallélisme d'exécution Architecture de machines Influence sur l'expression du parallélisme

Plus en détail

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 1 Semestre 4 : Fev. 2015 Ateliers Beowolf ou Mosix Atelier Type Cluster Vishwa http://dos.iitm.ac.in/vishwanew

Plus en détail

MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE. François Rousselle LISIC Image et Apprentissage OASIS

MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE. François Rousselle LISIC Image et Apprentissage OASIS MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE François Rousselle LISIC Image et Apprentissage OASIS Cadre BQR 2010 CGR LISIC LMPA : Réalisation d'une plateforme générique de calcul intensif pour cartes

Plus en détail

Architectures Parallèles

Architectures Parallèles Architectures Parallèles Cours pour Ingénieur Préparé par Dr. Olfa Hamdi-Larbi ola_ola79@yahoo.fr Reçoit les signaux du contrôleur, cherche les données et les traite Instructions, Données à traiter et

Plus en détail

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Marc Mendez-Bermond Expert solutions HPC Programme Contexte Technologies Evolutions 2 Confidentiel Research

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS Ecole Doctorale 2012-2013 Sommaire 1 Architecture générale Processeur Mémoire Réseaux Stockage 2 Tendances Evolutions technologiques

Plus en détail

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations 3A-IIC - Parallélisme & Grid : Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle 1 1 Exemple d applications et clients Défis du calcul parallèle 3 Calcul parallèle dans le monde

Plus en détail

Infrastructures Parallèles de Calcul

Infrastructures Parallèles de Calcul Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec. 3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation

Plus en détail

Le calcul à hautes performances : évolution du matériel et du logiciel

Le calcul à hautes performances : évolution du matériel et du logiciel Dossier LE CALCUL À HAUTES PERFORMANCES : Le calcul à hautes performances : évolution du matériel et du logiciel Mots clés Loi de Moore, Grille, Vectoriel, Parallèle Alain Kavenoky Ingénieur général des

Plus en détail

ARCHITECTURES A PASSAGE DE MESSAGES

ARCHITECTURES A PASSAGE DE MESSAGES ARCHITECTURES A PASSAGE DE MESSAGES Daniel Etiemble LRI, Université Paris Sud de@lri.fr D. Etiemble 1 Architecture parallèle à passage de messages RESEAU D INTERCONNEXION réseau réseau réseau réseau CPU

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe

Plus en détail

Architecture des machines parallèles modernes

Architecture des machines parallèles modernes Architecture des machines parallèles modernes Ronan Ö Ò Ø ºÓÖ Keryell ENST Bretagne 14 février 2006 ØØÔ»»ØÓÔ ¼¼ºÓÖ Liste 500 plus gros ordinateurs déclarés dans le monde depuis 1993 Top 10 : crème de la

Plus en détail

Systèmes et traitement parallèles

Systèmes et traitement parallèles Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications

Plus en détail

Problématique des accès mémoires irréguliers causés par les maillages non structurés :

Problématique des accès mémoires irréguliers causés par les maillages non structurés : Problématique des accès mémoires irréguliers causés par les maillages non structurés :! étude comparative entre les machines massivement multicoeurs et les GPU Loïc Maréchal / INRIA! LJLL, Demi-Journée

Plus en détail

LES SUPER-ORDINATEURS

LES SUPER-ORDINATEURS LES SUPER-ORDINATEURS Un ordinateur fait au bas mot 1 million d'opérations à la seconde, mais il a que ça à penser, aussi. - J.M. Gourio "Brèves de comptoir 1988" CRAY 1 1 Mesure des performances La mesure

Plus en détail

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines Évolution de la puissance des machines Accélération Système pour architectures multicœurs Évolution Traditionnelle des mono-processeurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques

Plus en détail

Programmation Système des Multicœurs

Programmation Système des Multicœurs Évolution de la puissance des machines Programmation Système des Multicœurs Gaël Thomas gael.thomas@lip6.fr Accélération Évolution Traditionnelle des mono-processeurs Université Pierre et Marie Curie Master

Plus en détail

Parallélisation Automatique

Parallélisation Automatique Parallélisation Automatique Paul Feautrier ENS de Lyon Paul.Feautrier@ens-lyon.fr 8 septembre 2008 1 / 23 Pourquoi la parallélisation automatique? Les gains de performances dus à la technologie s amenuisent

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

CRIHAN Centre de Ressources Informatiques de HAute-Normandie

CRIHAN Centre de Ressources Informatiques de HAute-Normandie ACT-MG-v2 CRIHAN Centre de Ressources Informatiques de HAute-Normandie Journée Entreprises & HPC-PME au CRIHAN - 11 avril 2013 CRIHAN Missions Concept : mutualisation de services et d équipements Réseau

Plus en détail

Introduction SIO Utilisation Conclusion Cluster au SIO

Introduction SIO Utilisation Conclusion Cluster au SIO Cluster au SIO ALBERT SHIH 1 1 Observatoire de Paris - Meudon 21 février 2008 Type de «machines» de calcul Mémoire partagée Tous les processeurs accèdent à toute la mémoire avec un même espace d adressage.

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Formation en Calcul Scientifique - LEM2I Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Introduction Décoder la relation entre l architecture et les applications

Plus en détail

Les Microprocesseurs partie2

Les Microprocesseurs partie2 Université Constantine 2 Abdelhamid Mehri Faculté des NTIC Département MI Electronique des Composants & Systèmes Les Microprocesseurs partie2 Cours de L1 - TRONC COMMUN DOMAINE MATHEMATIQUES INFORMATIQUE

Plus en détail

Informatique générale - processeurs

Informatique générale - processeurs Université de Nice Sophia Antipolis Licence 1 Sciences Fondamentales Informatique Générale Processeurs Jacques Farré (d'après Fabrice Huet, Wikipedia... et bien d'autres) Jacques.Farre@unice.fr http://deptinfo.unice.fr/~jf/infogene

Plus en détail

Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI

Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI Responsable Service Informatique Ingénieure Systèmes & Réseaux Ingénieur High Performance Computing

Plus en détail

BE de programmation OpenMP

BE de programmation OpenMP BE-OpenMP Page 1 of 2 Calcul parallèle et distribué, et Grilles de calculs Cours de 3ème année IIC à Supélec BE de programmation OpenMP Objectifs du Bureau d'etude : (parallélisation en mémoire partagée)

Plus en détail

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs Modèle de Machine 1a: Mém. Partagée Tous les processeurs sont connectés à une large partagée. Appelée Symmetric Multiprocessors (SMPs) SMPs de Sun, HP, Intel, IBM Puces Multicoeur, exceptées celles qui

Plus en détail

Programmation des processeurs multicoeurs

Programmation des processeurs multicoeurs Programmation des processeurs multicoeurs Cours théorique et Application en OpenCL avec Matrix Studio Pascal Ballet pascal.ballet@univ-brest.fr Université de Bretagne Occidentale Laboratoire d Informatique

Plus en détail

AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE

AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE Le Conseiller pour la Science et la Technologie SST/PR Berlin, le 23 novembre 2010 Etat des lieux comparatif dans le domaine des

Plus en détail

Architecture des ordinateurs, concepts du parallélisme

Architecture des ordinateurs, concepts du parallélisme Ecole Doctorale MathIf Architecture des ordinateurs, concepts du parallélisme Violaine Louvet 1 Remerciements à Françoise Roch, Guy Moebs, Françoise Berthoud 1 ICJ - CNRS Année 2009-2010 Objectifs de ce

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Ecole d Automne «Informatique Scientifique pour le Calcul» Architecture des ordinateurs Françoise Berthoud 1 Violaine Louvet 2 Françoise Roch 3 1 Laboratoire de Physique et de Modélisation des Milieux

Plus en détail

Matériel : comment gagner en performance? Objectif Teraflop. les limites :

Matériel : comment gagner en performance? Objectif Teraflop. les limites : Matériel : comment gagner en performance? réduction du temps de cycle (aujourd hui de 0,6 à 2 ns) instructions vectorielles et pipelinées plusieurs unités fonctionnelles hiérarchie de mémoire multiprocesseurs

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

Benchmarks. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble.

Benchmarks. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble. (Merci à Ludovic Saugé) Françoise BERTHOUD, Francoise.Berthoud@grenoble.cnrs.fr Les benchmarks

Plus en détail

Limitations of the Playstation 3 for High Performance Cluster Computing

Limitations of the Playstation 3 for High Performance Cluster Computing Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire

Plus en détail

CINES Introduction aux architectures parallèles et au supercalculateur Occigen

CINES Introduction aux architectures parallèles et au supercalculateur Occigen CINES Introduction aux architectures parallèles et au supercalculateur Occigen Emilie Boulard Contexte HPC Représentation de la somme de Gflops (Rpeak) par pays Contexte HPC Exemple de constructeurs :

Plus en détail

Analyse et mesure de performances du calcul distribué

Analyse et mesure de performances du calcul distribué Analyse et mesure de performances du calcul distribué Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma CruCID Workshop, EMI, Rabat, 5 au 7 juillet 1999 Motivation Types d applications

Plus en détail

Les grandes classes de système

Les grandes classes de système : Introduction Daniel Etiemble de@lri.fr Les grandes classes de système Caractéristique Ordinateur de bureau Serveur Enfoui/embarqué Prix du microprocesseur à 0 200 à 2000 par processeur 0,20 à 200 par

Plus en détail

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS Journée Utiliateurs 2015 Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS 1 Pôle ID, Grid'5000 Ciment Une proximité des platesformes Autres sites G5K Grenoble + CIMENT Pôle ID = «Digitalis»

Plus en détail

Quantification d incertitude et Tendances en HPC

Quantification d incertitude et Tendances en HPC Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification

Plus en détail

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience 29 mars 2002 Olivier BOEBION - Laboratoire de Mathématiques et de Physique Théorique - Tours 1 Principes

Plus en détail

GEL 1001 Design I (méthodologie)

GEL 1001 Design I (méthodologie) GEL 1001 Design I (méthodologie) Technique 2 Systèmes embarqués et fiabilité Hiver 2013 Département de génie électrique et de génie informatique Plan Système embarqué Ordinateur et architecture Von Neumann

Plus en détail

Juan ESCOBAR, IR1 Expert en Calcul Intensif. Fonction postulée :

Juan ESCOBAR, IR1 Expert en Calcul Intensif. Fonction postulée : Oral Examen Professionnel PFI 7 Octobre 2008 Juan ESCOBAR, IR1 Expert en Calcul Intensif Fonction postulée : Chef de Projet sur le Support du Code Communautaire Méso-NH Service National Labellisé INSU

Plus en détail

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée.

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. RenPar 19 / SympA 13 / CFSE 7 Toulouse, France, du 9 au 11 septembre 2009 Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. Khaled Hamidouche, Franck

Plus en détail

Kick-off ANR Compass

Kick-off ANR Compass Kick-off ANR Compass Contribution MDLS Pierre Kestener CEA-Saclay, DSM, France Maison de la Simulation Meudon, 14 mars 2013 1 / 10 La Maison de la Simulation Laboratoire de recherche pluridisciplinaire

Plus en détail

Le CSCI pour le Calcul Intensif en France. Olivier Pironneau

Le CSCI pour le Calcul Intensif en France. Olivier Pironneau Le CSCI pour le Calcul Intensif en France Olivier Pironneau Université Pierre et Marie Curie Et président du Comité Stratégique pour le Calcul Intensif (CSCI) La Simulation est une révolution pour la Science

Plus en détail

GPU, processeurs multi-coeurs et bio-informatique

GPU, processeurs multi-coeurs et bio-informatique GPU, processeurs multi-coeurs et bio-informatique Jean-Stéphane Varré jean-stephane.varre@lifl.fr Equipe BONSAI Université Lille 1 - LIFL -INRIA Qu est-ce que c est? Le processeur (CPU) La carte graphique

Plus en détail

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa libérez votre innovation avec l extreme computing CEA/Philippe Stroppa Solutions Bull pour l extreme computing Une gamme qui démultiplie votre pouvoir d innovation. De la physique fondamentale à la recherche

Plus en détail

Chap. 2 - Structure d un ordinateur

Chap. 2 - Structure d un ordinateur Architecture des ordinateurs Michèle Courant S2-27 octobre 2004 Chap. 2 - Structure d un ordinateur 2.1 Processeur ou unité centrale (CPU) 2.1.1 Organisation du CPU 2.1.2 Exécution d une instruction 2.1.3

Plus en détail

BE de programmation MPI-1 par envois de messages bloquants

BE de programmation MPI-1 par envois de messages bloquants BE-MPI-1envois de messages bloquants Page 1 of 3 01/03/2010 Calcul parallèle et distribué, et Grilles de calculs Cours de 3ème année SI à Supélec BE de programmation MPI-1 par envois de messages bloquants

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Calcul scientifique et serveurs de calcul

Calcul scientifique et serveurs de calcul Calcul scientifique et serveurs de calcul Serveurs de calcul : contexte, enjeux et administration Violaine Louvet, 13 septembre 2007 Calcul scientifique et serveurs de calcul Journée proposée par : Le

Plus en détail

HAUTE PERFORMANCE DE CALCUL

HAUTE PERFORMANCE DE CALCUL Journées d études 2010 Modélisation actif-passif & HAUTE PERFORMANCE DE CALCUL FRACTALES 0 Journées d études 2010 Sommaire Projet SIGMA 1 ère partie 1.! Le printemps des modèles Applications Haute Performance

Plus en détail

ELECTRONIQUE INDUSTRIELLE (243.06) OPTION ÉLECTRODYNAMIQUE Principe des micro-ordinateur (243-834-92) Présenté par Steve Dionne.

ELECTRONIQUE INDUSTRIELLE (243.06) OPTION ÉLECTRODYNAMIQUE Principe des micro-ordinateur (243-834-92) Présenté par Steve Dionne. ELECTRONIQUE INDUSTRIELLE (243.06) OPTION ÉLECTRODYNAMIQUE Principe des micro-ordinateur (243-834-92) Présenté par Steve Dionne À Mario Michaud Remis le 10 septembre automne 2002 Table des matière : Description

Plus en détail

cluster pour l Enseignement Universitaire et la Recherche

cluster pour l Enseignement Universitaire et la Recherche cluster pour l Enseignement Universitaire et la Recherche Université de Nice Sophia-Antipolis 22 janvier 2013 Université de Nice Sophia-Antipolis cluster pour l Enseignement Universitaire et la Recherche

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

Avec les supercalculateurs bullx, Bull ouvre une nouvelle voie à l Extreme Computing

Avec les supercalculateurs bullx, Bull ouvre une nouvelle voie à l Extreme Computing Communiqué de Presse Avec les supercalculateurs bullx, Bull ouvre une nouvelle voie à l Extreme Computing Bull annonce aujourd hui bullx, une nouvelle famille de supercalculateurs éco-efficaces, ultra

Plus en détail

Les données massives à Calcul Québec

Les données massives à Calcul Québec Les données massives à Calcul Québec Marc Parizeau, professeur et directeur scientifique de Calcul Québec Plan Calcul Québec / Calcul Canada Les outils et les services disponibles Un outil en particulier

Plus en détail

De 2 à 22 millions d'images; Création, Indexation et Recherche par le contenu avec PiRiA

De 2 à 22 millions d'images; Création, Indexation et Recherche par le contenu avec PiRiA De 2 à 22 millions d'images; Création, Indexation et Recherche par le contenu avec PiRiA contact : patrick.hède@cea.fr Commissariat à l'energie Atomique GdR isis : Passage à l'échelle dans la recherche

Plus en détail

Cours n n 1. Introduction au Noyau. Master Informatique - Noyau - 2007-2008

Cours n n 1. Introduction au Noyau. Master Informatique - Noyau - 2007-2008 Cours n n 1 Introduction au Noyau 1 PLAN DU MODULE Objectifs Mécanismes internes du noyau (UNIX) Processus, Ordonnancement Fichiers, Mémoire virtuelle 2 PLAN DU MODULE Organisation Sur 10 semaines Début

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

Compréhension, Optimisation, Prédiction des Performances

Compréhension, Optimisation, Prédiction des Performances Compréhension, Optimisation, Prédiction des Performances J F. Méhaut Université Joseph Fourier (UJF), Polytech'G Equipe Projet INRIA (EPI) Mescal Pôle MSTIC, PILSI Institut Carnot LSI Pôle de compétivité

Plus en détail

Le calcul pour tous : une révolution en marche

Le calcul pour tous : une révolution en marche C A L C U L / S I M U L A T I O N DOSSIER Pendant longtemps le monde du calcul hautes performances a été dominé par des solutions de types «mainframe», construites à partir de matériel informatique propriétaire,

Plus en détail

Présentation CaSciModOT Performances et Architectures

Présentation CaSciModOT Performances et Architectures Présentation CaSciModOT Performances et Architectures Code parallèle : Un peu de théorie Architectures variables : C(n,p)? Quel code? Quelle architecture? Structure d un code : partie parallèle / séquentielle

Plus en détail

Tout savoir sur le matériel informatique

Tout savoir sur le matériel informatique Tout savoir sur le matériel informatique Thème de l exposé : Les Processeurs Date : 05 Novembre 2010 Orateurs : Hugo VIAL-JAIME Jérémy RAMBAUD Sommaire : 1. Introduction... 3 2. Historique... 4 3. Relation

Plus en détail

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos Architecture & Nouveautés du Core i7 Xpose Core i7 Sommaire Définition Historique Rôle du microprocesseur Architecture d un microprocesseur Core i7 : Améliorations Cache HyperThreading IMC/QPI TurboBoost

Plus en détail

EVOLUTION DE L ARCHITECTURE DU SYSTÈME D INFORMATION SCIENTIFIQUE D EDF R&D

EVOLUTION DE L ARCHITECTURE DU SYSTÈME D INFORMATION SCIENTIFIQUE D EDF R&D EVOLUTION DE L ARCHITECTURE DU SYSTÈME D INFORMATION SCIENTIFIQUE D EDF R&D Hugues Prisker Séminaire Aristote - 5 Février 2015 SI SCIENTIFIQUE EDF R&D EN QUELQUES CHIFFRES (2015) 1000 utilisateurs 150

Plus en détail

Limitations of the PlayStation 3 for High Performance Cluster Computing

Limitations of the PlayStation 3 for High Performance Cluster Computing Master d Informatique Fondamentale École Normale Supérieure Lyon Calcul matriciel haute performance Chantal KELLER Limitations of the PlayStation 3 for High Performance Cluster Computing Alfredo Buttari,

Plus en détail

CHRONIQUE ARCHITECTE D ORDINATEURS AUJOURD HUI. Quelques réflexions sur les challenges actuels

CHRONIQUE ARCHITECTE D ORDINATEURS AUJOURD HUI. Quelques réflexions sur les challenges actuels CHRONIQUE ARCHITECTE D ORDINATEURS AUJOURD HUI Quelques réflexions sur les challenges actuels Introduction Du point de vue matériel, un ordinateur est toujours constitué par au moins un processeur, de

Plus en détail

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau Résultats des benchmarks de HPC1 après ajout de 1 cœurs. Date : 6/9/212 Auteur : Ph Parnaudeau 1. Evolution de la configuration la plate forme de calcul du LJLL : HPC1 HPC1 1 Février 211 : UV1 est une

Plus en détail

Architecture des Ordinateurs. Partie II:

Architecture des Ordinateurs. Partie II: Architecture des Ordinateurs Partie II: Le port Floppy permet le raccordement du lecteur de disquette àla carte mère. Remarque: Le lecteur de disquette a disparu il y a plus de 6 ans, son port suivra.

Plus en détail

Multi-processeurs, multi-cœurs, cohérence mémoire et cache

Multi-processeurs, multi-cœurs, cohérence mémoire et cache Multi-processeurs, multi-cœurs, cohérence mémoire et cache Intervenant : Thomas Robert Institut Mines-Télécom Parallélisme inter instructions n Exécution : une séquence d instructions appliquées à un 1

Plus en détail

Exemple: le processeur MIPS

Exemple: le processeur MIPS Exécution des instructions machine Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr] adresse (donnée, instruction

Plus en détail

Types de boîtiers. M.Napieralska DMCS

Types de boîtiers. M.Napieralska DMCS Types de boîtiers Sont majoritairement des types suivants: De bureau (ang. desktop) offre les moindres volumes et encombrements Tour il se décline en: mini-tour ou demi-tour, moyenne-tour ou médium tour

Plus en détail

Centre Commun de Calcul Intensif: www.univ-ag.fr/c3i

Centre Commun de Calcul Intensif: www.univ-ag.fr/c3i Centre Commun de Calcul Intensif: www.univ-ag.fr/c3i a HPC center in the Caribbean Mewbalaou Fédération de recherche fournissant des ressources à 6 laboratoires de l UAG: COVACHIM-M, GTSI, LAMIA, LARGE,

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit Architecture élémentaire Un cours d architecture pour des informaticiens Samy Meftali Samy.meftali@lifl.fr Bureau 224. Bâtiment M3 extension Sans architecture pas d informatique Comprendre comment çà marche

Plus en détail

Architecture matérielle http://nicodewaele.info Nicolas Dewaele

Architecture matérielle http://nicodewaele.info Nicolas Dewaele Architecture des ordinateurs Définition d'un ordinateur Architecture matérielle Architecture de Von Neumann (Années 1940) Von Neumann : Mathématicien, inventeur de l'architecture des ordinateurs modernes

Plus en détail

Exadata Storage Server et DB Machine V2

<Insert Picture Here> Exadata Storage Server et DB Machine V2 Exadata Storage Server et DB Machine V2 Croissance de la Volumétrie des Données Volumes multipliés par 3 tous les 2 ans Evolution des volumes de données 1000 Terabytes (Données) 800

Plus en détail

Comment un ordinateur fonctionne Processeur

Comment un ordinateur fonctionne Processeur Comment un ordinateur fonctionne Processeur Les processeurs Cerveau de l ordinateur Règle flux d information par intermédiaire du bus Détermine puissance de l ordi (486, Pentium, ) Vitesse définit par

Plus en détail

Centre de calcul de l ub

Centre de calcul de l ub Centre de calcul de l ub Formation Présentation et utilisation du cluster de Calcul Antoine Migeon ccub@u-bourgogne.fr Tel : 5205 ou 5270 Le Centre de Calcul de l ub (ccub) Dédié à l enseignement et à

Plus en détail

La ferme de PCs de l INRIA Sophia-Antipolis Configuration matérielle et logicielle

La ferme de PCs de l INRIA Sophia-Antipolis Configuration matérielle et logicielle La ferme de PCs de l INRIA Sophia-Antipolis Configuration matérielle et logicielle http://www-sop.inria.fr/parallel/ David Geldreich, 07/2003 Configuration matérielle actuelle Aujourd'hui la ferme est

Plus en détail

Exécution des instructions machine

Exécution des instructions machine Exécution des instructions machine Eduardo Sanchez EPFL Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr]

Plus en détail

Design, améliorations, et implémentations

Design, améliorations, et implémentations CPU et Mémoire Design, améliorations, et implémentations Techniques et caractéristiques modernes qui permettent de donner aux ordinateurs actuels toute leur puissance 1 Architectures CPU Design de l architecture

Plus en détail

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen P. Stroppa Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen 25 novembre 2010 CONTACTS PRESSE : CEA / Service Information-Media Marie VANDERMERSCH Tél. : 01 64 50 17 16 - marie.vandermersch@cea.fr

Plus en détail

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de

Plus en détail

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist Cluster High Performance Computing Dr. Andreas Koch, Cluster Specialist TABLE DES MATIÈRES 1 RÉSUMÉ... 3 2 INTRODUCTION... 4 3 STRUCTURE D UN CLUSTER HPC... 6 3.1 INTRODUCTION... 6 3.2 MONTAGE SIMPLE...

Plus en détail

UNIVERSITÉ D ORLÉANS

UNIVERSITÉ D ORLÉANS UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MATHEMATIQUES, INFORMATIQUE, PHYSIQUE THEORIQUE et INGENIERIE DES SYSTEMES Laboratoire d Informatique Fondamentale d Orléans THÈSE présentée par : Joeffrey LEGAUX soutenue

Plus en détail