Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées"

Transcription

1 M2-ILC Parallélisme, systèmes distribués et grille Eléments d architecture des Stéphane Vialle 2 Depuis 24 les CPU sont multi-cœurs (suite à la réinterprétation de la loi de Moore) : de plus en plus de cœurs par «socket» (processeur) la puissance d un cœur reste stable (n évolue presque plus), sauf en utilisant des unités vectorielles au sein de chaque cœur Stabilisation de la puissance d un cœur et impact du multi-cœurs : L accroissement de performance d un cœur CPU est du au parallélisme depuis plusieurs années et il faut aller le chercher! de plus en plus de cœurs concourent pour accéder à la RAM une hiérarchie de mémoires caches apparait de plus en plus et les vitesses du cache et de la RAM ne cessent de s écarter difficile d exploiter ces architectures au maximum de leurs capacités 3 W. Kirshenmann EDF & EPI AlGorille, d après une première étude menée par SpiralGen 4 Intel Core i7 - Nehalem Des cœurs hyper-threadés Des mémoires caches Un sheduler de threads Des pipelines. Des unités de calcul vectorielles : «SSE» Un processeur contient beaucoup de composants différents, pouvant fonctionner en parallèle, interconnectés et ayant tous besoin d être alimentés en données : très difficile d exploiter à l optimum! les «optimisations sérielles» sont une démarche essentielle 5 Le «médium» de partage de mémoire entre les cœurs est l élément clé d un CPU multi-cœurs : un bus mémoire rapide une hiérarchie de caches cohérents et rapides des protocoles d accès aux bus et aux bancs mémoires De grosses différences de performances entre différents processeurs, avec des étapes d évolution importantes dans l architecture. Rmq : la plupart des codes sont «memory bound» et non pas «CPU bound» (c est l accès aux données qui limite les perfs). 6 1

2 MFlops Pendant très longtemps les PC multiprocesseurs (monocoeurs) étaient mauvais en partage de mémoire : Relaxation de Jacobi 1 proc 2 procs-omp Mauvais! Problem Size (KBytes) MFlops proc 2 procs 4 procs Bien! Problem Size (KBytes) 7 PC bi-processeurs (2) SUN quadri-processeurs (2) La situation change entre 28 et 29 avec l architecture Nehalem d Intel (la technologie «bi-bus» d AMD n était pas aussi performante) : MegaFlops Mauvais! 4 th 2th 1 th Pb size (MBytes) Intel 4-cœurs avant le Nehalem Relaxation de Jacobi 1 MegaFlops th 4 th 2th 1 th Assez bien Pb size (MBytes) Intel 4-cœurs Nehalem Sorti du cache les accès à la RAM étaient sérialisées Le «smart memory bus» d Intel est une grosse amélioration (en fait ce n est plus un bus, voir + loin) 8 La situation change entre 28 et 29 avec l architecture Nehalem d Intel (la technologie «bi-bus» d AMD n était pas aussi performante) : MegaFlops Produit de matrices denses 12 4 th 2th 1 Très bien! Assez bien 1 th Pb size (MBytes) Intel 4-cœurs avant le Nehalem On peut programmer en parallèle en sortant du cache On perd la vitesse du cache mais pas l accélération MegaFlops 8 th 4 th 2th 1 th Pb size (MBytes) Intel 4-cœurs Nehalem 9 On est passé d une interconnexion en bus + protocole de partage de bus à un réseau d interconnexion avec des brins et des switchs. un «vrai réseau» dans chaque processeur multi-cœurs INTEL 1 Evolutions des CPU multi-cœurs : des cœurs de technologies différentes dans le même «socket» : o AMD/ATI et INTEL ont produit des processeurs avec des cœurs CPU et un cœur GPU, mais de faible puissance des mécanismes d optimisation de la consommation énergétique : o mise en sommeil des cœurs non utilisés o des cœurs pouvant fonctionner à des fréquences différentes o auto-adaptation de la fréquence des cœurs après le prototype SCC, INTEL sort le Xeon phi/mic (Many Integrated Cores) fin 212, avec 61 cœurs x86 en 214 Intel 48-core x86 Processor: «Singlechip Cloud Computer» des centaines de cœurs par «socket»? 2

3 3 grands types d architectures parallèles MIMD, et démarche de réalisation Une première classification Classification des architectures parallèle : 1972 classification de FLYN : simple et suffisante en classes d architectures Flot de données : Simple Multiple Flot Simple SISD SIMD d instructions : Multiple MISD MIMD Machines séquentielles Machines parallèles généralistes 3 grands types d architectures 1 - Shared-memory MIMD machines (SMP) : Un principe, mais : - plusieurs techniques de réalisation, - plusieurs coûts, - plusieurs efficacités. 211 : : beaucoup d autres classifications peu convaincantes Overview of Recent Supercomputers A ce jour 3 grand types d architectures MIMD : Aad J. van der Steen SMP, Distributed memory, DSM. 15 Jack J. Dongarra16 Mem proc Mem proc 3 grands types d architectures 2 - Distributed-memory MIMD machines : network Mem proc Principe des clusters, mais le coût et la perf. sont dans le réseau d interconnexion! Hypercubes Fat trees Autres 17 3 grands types d architectures 3 - Hybrid MIMD architectures : Overview of Recent Supercomputers Aad J. van der Steen Jack J. Dongarra «Distributed Shared Memory» ou «Virtual Shared Memory» S-COMA (th.) ou ccnuma (réalisée) Espace unique (super!) ou segmenté. Réalisation : Hardware (bien) Soft lent! 18 3

4 Démarche de réalisation d une machine parallèle Créer un processeur + une machine + un OS + un compilateur prend du temps (et de l argent)! perf Début de conception T trop grand! Perf archis concurrentes génériques!!! Fin de réalisation Perf de l archi spécifique années Risque d être dépassé par la technologie standard avant de naître! 19 Démarche de réalisation d une machine parallèle Architectures parallèles à base de composants «du marché» : démarche apparue clairement depuis 1993 profite des évolutions des technologies séquentielles/standards investissements limités à l assemblage des processeurs, du réseau d interconnexion, et du logiciel (déjà beaucoup) temps de développement réduit des nouvelles machines ex : machines MIMD à base de CPU du marché (Intel ou AMD) machines MIMD avec réseau Gigabit-Ethernet ou Infiniband machines hétérogènes à base de CPU + GPU du marché Rmq : beaucoup de critiques des machines originales IBM Blue Gene vs Super-Ordinateurs en «cluster de PCs», car beaucoup de bibliothèques de calcul ne sont pas disponibles sur BG 2 Histoire (instructive) des ordinateurs CRAY Cray-1, Mflops Cray-2, gigaflops Cray-YMP, Cray-T9, 6 gigaflops Cray-J9 Cray-C9, gigaflops 22 NEC (SX) Accord d importation Apparition du Earth Simulator : gros cluster vectoriel NEC : 64-nœuds de 8 processeurs : 512 processeurs 4 Tflops crête, a atteint les 35 Tflops en juin 22 Cray-T9, 6 gigaflops Cray-SV1 1 teraflop Cray est démembré et semble avoir disparu. Puis en 22 un évènement survient. Cray-SV2 Cray-SX-6 23 Le vectoriel revient à la 1 ère place du Top5 (en 22)! Vector MPP 24 4

5 CRAY était de nouveau là, avec de grandes ambitions: Forte inquiétude des USA! Vector MPP Cray-T9, 6 gigaflops Vector MPP Machine annoncée Cray-SV1 1 teraflop Cray-X Tflops Cray-XT3 Cray-XT5 cluster de CPU multicoeurs, Linux Cray-XT4 Cray-X Tflops Cray-SV2 Cray-SX-6 27 Cray-XT6 ou XT6h (?) Opteron 6-cores Tore 2D Réseau Cray Cray-XT5h (hybrid) cluster de noeuds CPU/Vectoriels/FPGA, Unicos (Cray Unix) 28 Cray XT6 : 1 er au top5 en novembre 29 : 1.7 Pflops avec 6.9 Mwatt Architecture : réseau d interconnexion propriétaire + Opteron 6-cœurs Architectures traditionnelles et très consommatrices d énergie mais très efficace et sous Linux (logiciels disponibles) Machine dénommée «Jaguar» Cray de nouveau à la 1 ère place en nov 29 avec des Opteron Cray XK7 : 1 er au top5 en novembre 212 : 17.6 Pflops avec 8.2 Mwatt Architecture : réseau d interconnexion propriétaire chaque nœud : Opteron 16-cœurs + GPU NVIDIA Tesla K nœuds 2998 CPU cores GPU K «cores» pour exécuter le benchmark 7 terabytes of memory. Cray à la 1 ère place en nov Machine dénommée «Titan» 212 avec Opteron + GPU 5

6 ré-interprétation Loi de Moore (électronique) : 2 fois plus de transistors intégrés sur la même surface de silicium tous les 18 mois. G. Moore pense que sa loi devrait se vérifier jusqu en 217 Traduction : Par le passé : la fréquence des processeurs double tous les «un peu plus que 18 mois» et donc la vitesse des processeurs suivait une exponentielle un peu plus faible que l électronique. Puis un (nouveau) problème énergétique est apparu en 23/24 31 On ne pouvait plus dissiper autant de puissance ni financer autant d énergie ré-interprétation Limiter la fréquence et augmenter le nombre de cœurs est énergétiquement rentable ré-interprétation =.8 Auteur : Jack Dongara Auteur : Jack Dongara ré-interprétation Loi de Moore (électronique) : 2 fois plus de transistors intégrés sur la même surface de silicium tous les 18 mois. G. Moore pense que sa loi devrait se vérifier jusqu en 217 Traduction : Par le passé : la fréquence des processeurs double tous les «un peu plus que 18 mois» et donc la vitesse des processeurs suivait une exponentielle un peu plus faible que l électronique. Actuellement : le nombre de cœurs double tous les 2 ans la vitesse d un cœur reste à peu près stable pour aller plus vite sur son PC il faut exploiter le parallélisme du processeur. Prochainement : ré-interprétation Exploiter quelques dizaines de threads sur son PC (dans une même application) Exploiter quelques millions et milliards de threads sur les super-calculateurs (dans une même application) La loi de Moore électronique se traduit maintenant par un défi algorithmique et logiciel «de masse». 6

7 37 Réseaux d'interconnexion des machines parallèles Caractéristiques importantes Caractéristiques d un réseau d interconnexion de nœuds de calculs : La bande passante La latence La résistance aux engorgements : en général on implante des algorithmes synchrones tous les nœuds calculent puis en même temps se mettent à communiquer Les performances en communications point-à-point Les performances en communications collectives (broadcast, scatter, gather, reduce, all_to_all, ) La capacité d extension, pour permettre d agrandir les machines (une topologie hypercubique n est pas très extensible) La distance et le temps maximal entre deux nœuds de l architecture. Réseaux d'interconnexion des clusters GigabitEthernet et Infiniband Gigabit Ethernet : Bientôt du 1G Utilisé dans beaucoup de machines du Top5 dans la plupart Mais pas dans les plus performantes des clusters bon Réseau bon marché comparé aux autres marché Technologie connue en dehors du HPC la compétence est déjà dans l institution/la société. Infiniband : Utilisé dans beaucoup de machines du Top5 Souvent des machines plus performantes que celles en Gigabit Plus cher que le Gigabit La différence avec le Gigabit est d autant plus marquée que le nombre de nœuds est grand Plusieurs versions d Infiniband, avec des vitesses différentes Peu utilisé en dehors du HPC compétence spécifique Réseaux d'interconnexion des clusters Myrinet et Quadrics Myrinet : un réseau propriété de Myricom, mais insérable dans tout cluster au départ plus répandu que Infiniband qui est un standard open puis a perdu régulièrement du terrain vis-à-vis de Infiniband produit par plusieurs entreprises. En 212 Myricom propose des solutions Myri-1G Quadrics : S est positionné comme le plus cher et le plus rapide des réseaux d interconnexion pour cluster. Mais vraiment très cher! Dès le début capable de routage dynamique pour contourner les engorgements. A perdu en partie son avance de performances et a disparu! Réseaux d'interconnexion des clusters Réseaux propriétaires Réseaux d'interconnexion des clusters Répartition des réseaux du Top5 (215) Réseaux propriétaires : Les plus grands constructeurs proposent leurs supercalculateurs avec leurs propres réseaux d interconnexion : CRAY/IBM/Fujitsu/ Des topologies et des protocoles différents selon l usage : réseau de données pt-à-pt, réseau de ctrl, réseau de données collectives, Ils sont l élément clé d un supercalculateur Ex : Le Cray T3D a été une machine décisive car elle fut la 1 ère à posséder un réseau d interconnexion à la hauteur de la puissance de calcul de ses nœuds. En fonction de la puissance des machines 1GigaEth Infiniband Cray 1G Custom En fonction du nbr de cœurs des machines 1GigaEth Infiniband Cray Custom 1G misc Les réseaux GigabitEth équipent bien des machines moins puissantes (ces réseaux sortiront bientôt du top5) misc 7

8 Optimisation du refroidissement 43 Des processeurs moins gourmands en énergie : on essaie de limiter la consommation de chaque processeur les processeurs passent en mode économique s ils sont inutilisés on améliore le rendement flops/watt Mais une densité de processeurs en hausse : une tendance à la limitation de la taille totale des machines (en m² au sol) Besoin de refroidissement efficace et bon marché (!) Souvent estimé à 3% de la dépense énergétique! Une carte d un IBM Blue Gene 44 Refroidissement «liquide par immersion» Refroidissement eau/air par porte froide Refroidissement par immersion des cartes dans un liquide électriquement neutre, et refroidi. Refroidissement liquide par immersion testé par SGI & Novec en 214 On refroidit par eau une «porte/grille» dans laquelle circule un flux d air, qui vient de refroidir la machine Le refroidissement se concentre sur l armoire. Refroidissement liquide par immersion sur le CRAY-2 en Refroidissement «liquide direct» On amène de l eau froide directement sur le point chaud, mais l eau reste isolée de l électronique. Expérimental en 29 Adopté depuis (IBM, BULL, ) Carte expérimentale IBM en 29 (projet Blue Water, abandonné) Lame de calcul IBM en 212 Commercialisée Refroidissement par air Optimisation des flux d air : en entrée et en sortie des armoires Architecture Blue Gene : haute densité de processeurs Objectif d encombrement minimal (au sol) et de consommation énergétique minimale Formes triangulaires ajoutées pour optimiser le flux d air IBM Blue Gene

9 Refroidissement par air : «Extreme cooling» Refroidissement avec de l air à température ambiante : - circulant à grande vitesse - circulant à gros volume Notions d architecture de Les CPUs fonctionnent proche de leur température max supportable (ex : 35 C sur une carte mère sans pb) Il n y a pas de refroidissement du flux d air. Economique! Mais arrêt de la machine quand l air ambiant est trop chaud (l été)! Une machine de Grid 5 à Grenoble (la seule en Extreme Cooling) 49 5 Le Top5 Evolution de la puissance de calcul mondiale Tassement? 1 perf 1 cores/nœud 1 nœuds 5 IO 1 énergie (seulement) 1.3 Petaflops : juin 28 RoadRunner (IBM) Opteron + PowerXCell «cores» 5 Gb/s (IO) 2.35 MWatt Du Petaflops à l Exaflops 1. Exaflops : Tb/s (IO) 2MWatt max Petaflops : juin juin 215 Tianhe-2 (NUDT - China) Xeon + Xeon-phi 3 12 «cores» 17.8 MWatt Comment programmer ces machines parallèles hétérogènes? Comment former massivement des développeurs? 52 Eléments d architecture des FIN 53 9

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées Mineure HPC-SBD Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture de machines parallèles

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Parallélisation. Parallélisation. 1 Applications. 2 Historique. 3 Parallélisme au niveau du circuit. 4 Coprocesseur.

Parallélisation. Parallélisation. 1 Applications. 2 Historique. 3 Parallélisme au niveau du circuit. 4 Coprocesseur. Parallélisation 1 Applications 2 Historique 3 Parallélisme au niveau du circuit 4 Coprocesseur 5 Multiprocesseur 6 Multi-ordinateur 7 grille (Université Bordeaux 1) Architecture de l Ordinateur 2007-2008

Plus en détail

Programmation des systèmes réparties

Programmation des systèmes réparties Programmation des systèmes réparties Frédéric Gava (MCF) gava@univ-paris12.fr LACL, bâtiment P2 du CMC, bureau 221 Université de Paris XII Val-de-Marne 61 avenue du Général de Gaulle 94010 Créteil cedex

Plus en détail

Extrapolation et Estimation de performance. dans le cadre des réponses aux appels d offre

Extrapolation et Estimation de performance. dans le cadre des réponses aux appels d offre Extrapolation et Estimation de performance dans le cadre des réponses aux appels d offre 1969 Xavier VIGOUROUX 2 Bull, 2008 AEP-9 Marié 3 Bull, 2008 AEP-9 3 enfants 4 Bull, 2008 AEP-9 1987 1989 5 Bull,

Plus en détail

Introduction à l architecture des calculateurs

Introduction à l architecture des calculateurs Formation en Calcul Scientifique - LEM2I Introduction à l architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Simulation numérique... Physique Chimie... Algorithme

Plus en détail

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations

3A-IIC - Parallélisme & Grid : Intérêts et Motivations. Intérêts et Motivations 3A-IIC - Parallélisme & Grid : Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle 1 1 Exemple d applications et clients Défis du calcul parallèle 3 Calcul parallèle dans le monde

Plus en détail

Parallélisme. Cours 1

Parallélisme. Cours 1 Parallélisme Cours 1 TD : 20% - TP : 30% - Examen : 50% Feuille A4 manuscrite (pas de photocopie) Fabrice.Huet@etu.unice.fr (prendre rdv par mail pr le contacter) A quoi sert le parallélisme? Augmenter

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2008 Chapitre

Plus en détail

Jérôme Clet-Ortega. Modèles hybrides de programmation pour architectures parallèles

Jérôme Clet-Ortega. Modèles hybrides de programmation pour architectures parallèles + Jérôme Clet-Ortega Modèles hybrides de programmation pour architectures parallèles + Présentation 2 Équipe projet RUNTIME Dirigée par Raymond Namyst Supports exécutifs pour le calcul hautes performances

Plus en détail

Architectures parallèles

Architectures parallèles Architectures parallèles GIF-1001 Ordinateurs: Structure et Applications, Hiver 2015 Jean-François Lalonde Image: Michael Thompsett Merci à Étienne Tremblay Architecture parallèle Architecture parallèle:

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Architecture des GPU (GPU=Graphics Processing Unit) gael.guennebaud@inria.fr

Architecture des GPU (GPU=Graphics Processing Unit) gael.guennebaud@inria.fr Architecture des GPU (GPU=Graphics Processing Unit) gael.guennebaud@inria.fr Plan du cours 2 Motivations pour les GPUs single core multi-core many-core Architecture des GPUs CPU versus GPU Programmation

Plus en détail

Architectures Parallèles

Architectures Parallèles Architectures Parallèles Cours pour Ingénieur Préparé par Dr. Olfa Hamdi-Larbi ola_ola79@yahoo.fr Reçoit les signaux du contrôleur, cherche les données et les traite Instructions, Données à traiter et

Plus en détail

Plan : Master IM2P2 - Calcul Scientifique

Plan : Master IM2P2 - Calcul Scientifique Plan : Les systèmes HPC Typologie des systèmes : Machines Mémoire partagée Machines à Mémoire Distribuées Machine NUMA Exemples Architectures Processeurs HPC Processeurs scalaires, superscalaires, vectoriels

Plus en détail

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,...

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,... Rappels, SISD, SIMD Calculateurs hybrides (GPU-OpenCL) Rappels... SISD,... SIMD Formation d Ingénieurs de l Institut Galiléee MACS 3 Philippe d Anfray Philippe.d-Anfray@cea.fr CEA DSM 2013-2014 SISD :

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique

Plus en détail

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 1 Semestre 4 : Fev. 2015 Ateliers Beowolf ou Mosix Atelier Type Cluster Vishwa http://dos.iitm.ac.in/vishwanew

Plus en détail

LES SUPER-ORDINATEURS

LES SUPER-ORDINATEURS LES SUPER-ORDINATEURS Un ordinateur fait au bas mot 1 million d'opérations à la seconde, mais il a que ça à penser, aussi. - J.M. Gourio "Brèves de comptoir 1988" CRAY 1 1 Mesure des performances La mesure

Plus en détail

Cours Parallélisme. I. Parallélismes Jean-Louis Pazat. Plan. Introduction Parallélisme d'expression Applications Parallélisme d'exécution

Cours Parallélisme. I. Parallélismes Jean-Louis Pazat. Plan. Introduction Parallélisme d'expression Applications Parallélisme d'exécution Cours Parallélisme I. Parallélismes Jean-Louis Pazat Plan 2 Introduction Parallélisme d'expression Applications Parallélisme d'exécution Architecture de machines Influence sur l'expression du parallélisme

Plus en détail

Parallélisme S. Vialle Panorama des Architectures parallèles

Parallélisme S. Vialle Panorama des Architectures parallèles Parallélisme S. Vialle Panorama des Architectures parallèles 1 Vue d ensemble 2 Architectures DataFlow et Systolique 3 Architectures Vectorielles 4 Architectures SIMD 5 Architectures MIMD 6 Clusters -

Plus en détail

Infrastructures Parallèles de Calcul

Infrastructures Parallèles de Calcul Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Prémisses (des applications distribuées à la grille)

3A-IIC - Parallélisme & Grid GRID : Prémisses (des applications distribuées à la grille) 3A-IIC - Parallélisme & Grid GRID : Prémisses (des applications distribuées à la grille) Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle GRID : Prémisses Projet CASA Projet

Plus en détail

Formation en Calcul Scientifique - LIEM2I

Formation en Calcul Scientifique - LIEM2I Formation en Calcul Scientifique - LIEM2I Introduction au calcul parallèle Loïc Gouarin, Violaine Louvet, Laurent Series Groupe Calcul CNRS 9-13 avril 2012 Loïc Gouarin, Violaine Louvet, Laurent Series

Plus en détail

Table des matières. Principes fondamentaux de conception des ordinateurs. Avant-propos Préface Remerciements XXI XXVII XXXV

Table des matières. Principes fondamentaux de conception des ordinateurs. Avant-propos Préface Remerciements XXI XXVII XXXV Table des matières Avant-propos Préface Remerciements XXI XXVII XXXV Chapitre 1 Principes fondamentaux de conception des ordinateurs 1.1 Introduction 2 1.2 L évolution de l informatique et la tâche du

Plus en détail

Calculs parallèles et Distribués. Benmoussa Yahia Université M hamed Bougara de Boumerdès yahia.benmoussa@gmail.com

Calculs parallèles et Distribués. Benmoussa Yahia Université M hamed Bougara de Boumerdès yahia.benmoussa@gmail.com Calculs parallèles et Distribués Benmoussa Yahia Université M hamed Bougara de Boumerdès yahia.benmoussa@gmail.com Calculs parallèles et Distribués Introduction Parallélisation sur mémoire distribuée.

Plus en détail

M1 MIAGE Option IFD Data Mining et Parallélisme

M1 MIAGE Option IFD Data Mining et Parallélisme M1 MIAGE Option IFD Data Mining et Parallélisme Alexandre Termier 2011-2012 S2 1 / 24 Besoin ˆ Data Mining doit... traiter de gros volumes de données pouvoir eectuer des analyses complexes (gros calculs)

Plus en détail

Chapitre 1 : Introduction aux architectures parallèles

Chapitre 1 : Introduction aux architectures parallèles Algorithmique et Architectures parallèles Chapitre 1 : Introduction aux architectures parallèles Plan du cours Introduction au parallélisme Introduction aux architectures parallèles Modèles de programmation

Plus en détail

Introduction à la programmation GPU. P. Fortin UPMC / LIP6 ANR TaMaDi 27/10/2010

Introduction à la programmation GPU. P. Fortin UPMC / LIP6 ANR TaMaDi 27/10/2010 Introduction à la programmation GPU P. Fortin UPMC / LIP6 ANR TaMaDi 27/10/2010 Les processeurs graphiques (GPU) GPU : Graphics Processing Unit GPGPU : General Purpose computation on Graphics Processing

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

TP de programmation OpenMP

TP de programmation OpenMP TP-OpenMP Page 1 of 2 Objectifs du TP : Les processeurs d'aujourd'hui sont tous "multi-coeurs", et certaines architectures possèdent plusieurs centaines de processeurs coopérant à travers une mémoire partagée.

Plus en détail

CINES Introduction aux architectures parallèles et au supercalculateur Occigen

CINES Introduction aux architectures parallèles et au supercalculateur Occigen CINES Introduction aux architectures parallèles et au supercalculateur Occigen Emilie Boulard Contexte HPC Représentation de la somme de Gflops (Rpeak) par pays Contexte HPC Exemple de constructeurs :

Plus en détail

Programmation Système des Multicœurs

Programmation Système des Multicœurs Évolution de la puissance des machines Programmation Système des Multicœurs Gaël Thomas gael.thomas@lip6.fr Accélération Évolution Traditionnelle des mono-processeurs Université Pierre et Marie Curie Master

Plus en détail

Comment un ordinateur fonctionne Processeur

Comment un ordinateur fonctionne Processeur Comment un ordinateur fonctionne Processeur Les processeurs Cerveau de l ordinateur Règle flux d information par intermédiaire du bus Détermine puissance de l ordi (486, Pentium, ) Vitesse définit par

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe

Plus en détail

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience 29 mars 2002 Olivier BOEBION - Laboratoire de Mathématiques et de Physique Théorique - Tours 1 Principes

Plus en détail

Architecture des machines parallèles modernes

Architecture des machines parallèles modernes Architecture des machines parallèles modernes Ronan Ö Ò Ø ºÓÖ Keryell ENST Bretagne 14 février 2006 ØØÔ»»ØÓÔ ¼¼ºÓÖ Liste 500 plus gros ordinateurs déclarés dans le monde depuis 1993 Top 10 : crème de la

Plus en détail

ARCHITECTURES A PASSAGE DE MESSAGES

ARCHITECTURES A PASSAGE DE MESSAGES ARCHITECTURES A PASSAGE DE MESSAGES Daniel Etiemble LRI, Université Paris Sud de@lri.fr D. Etiemble 1 Architecture parallèle à passage de messages RESEAU D INTERCONNEXION réseau réseau réseau réseau CPU

Plus en détail

Matériel : comment gagner en performance? Objectif Teraflop. les limites :

Matériel : comment gagner en performance? Objectif Teraflop. les limites : Matériel : comment gagner en performance? réduction du temps de cycle (aujourd hui de 0,6 à 2 ns) instructions vectorielles et pipelinées plusieurs unités fonctionnelles hiérarchie de mémoire multiprocesseurs

Plus en détail

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines Évolution de la puissance des machines Accélération Système pour architectures multicœurs Évolution Traditionnelle des mono-processeurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques

Plus en détail

CRIHAN Centre de Ressources Informatiques de HAute-Normandie

CRIHAN Centre de Ressources Informatiques de HAute-Normandie ACT-MG-v2 CRIHAN Centre de Ressources Informatiques de HAute-Normandie Journée Entreprises & HPC-PME au CRIHAN - 11 avril 2013 CRIHAN Missions Concept : mutualisation de services et d équipements Réseau

Plus en détail

MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE. François Rousselle LISIC Image et Apprentissage OASIS

MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE. François Rousselle LISIC Image et Apprentissage OASIS MATÉRIEL GRAPHIQUE POUR LE CALCUL SCIENTIFIQUE François Rousselle LISIC Image et Apprentissage OASIS Cadre BQR 2010 CGR LISIC LMPA : Réalisation d'une plateforme générique de calcul intensif pour cartes

Plus en détail

Parallélisme ou multitâche?

Parallélisme ou multitâche? Parallélisme ou multitâche? Ce texte est extrait d'un cours de L3 MIASHS. Vous pouvez en retrouver l'intégralité à cette adresse : http://grappa.univ-lille3.fr/~gonzalez/enseignement/2015-2016/l3miashs/calendrier.php?x=cm-5.php.

Plus en détail

Limitations of the Playstation 3 for High Performance Cluster Computing

Limitations of the Playstation 3 for High Performance Cluster Computing Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire

Plus en détail

What is «HPC»? High Performance Hardware. A short overview of High Performance Computing. M2-ILC Parallélisme, systèmes distribués et grille

What is «HPC»? High Performance Hardware. A short overview of High Performance Computing. M2-ILC Parallélisme, systèmes distribués et grille What is «HPC»? M2-ILC Parallélisme, systèmes distribués et grille A short overview of High Performance Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle High performance

Plus en détail

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Marc Mendez-Bermond Expert solutions HPC Programme Contexte Technologies Evolutions 2 Confidentiel Research

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS Ecole Doctorale 2012-2013 Sommaire 1 Architecture générale Processeur Mémoire Réseaux Stockage 2 Tendances Evolutions technologiques

Plus en détail

Systèmes et traitement parallèles

Systèmes et traitement parallèles Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications

Plus en détail

Système d exploitation (Operating System)

Système d exploitation (Operating System) Système d exploitation (Operating System) I. Introduction 1. Définition Système d exploitation : ensemble de programmes pour : Faciliter l utilisation de l ordinateur (ergonomie) Mettre à la disposition

Plus en détail

Licence. Physique. Chimie

Licence. Physique. Chimie Licence Physique Chimie Plan INTRODUCTION (p2) I CALCULATEURS (p2) Définition (p2) Evolution (p3) II - SUPERCALCULATEUR (SUPERORDINATEUR) (p5) Définition (p5) Petit historique (p5) Exemples (p6) Roadrunner

Plus en détail

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs Modèle de Machine 1a: Mém. Partagée Tous les processeurs sont connectés à une large partagée. Appelée Symmetric Multiprocessors (SMPs) SMPs de Sun, HP, Intel, IBM Puces Multicoeur, exceptées celles qui

Plus en détail

Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.par UCT,

Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.par UCT, CPU ou UCT Processor (data processing) Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.par UCT, en ang. CPU (Central Processing Unit) CPU+mémoire

Plus en détail

Parallélisation Automatique

Parallélisation Automatique Parallélisation Automatique Paul Feautrier ENS de Lyon Paul.Feautrier@ens-lyon.fr 8 septembre 2008 1 / 23 Pourquoi la parallélisation automatique? Les gains de performances dus à la technologie s amenuisent

Plus en détail

CHRONIQUE ARCHITECTE D ORDINATEURS AUJOURD HUI. Quelques réflexions sur les challenges actuels

CHRONIQUE ARCHITECTE D ORDINATEURS AUJOURD HUI. Quelques réflexions sur les challenges actuels CHRONIQUE ARCHITECTE D ORDINATEURS AUJOURD HUI Quelques réflexions sur les challenges actuels Introduction Du point de vue matériel, un ordinateur est toujours constitué par au moins un processeur, de

Plus en détail

Module BDR Master d Informatique (SAR) Cours 5- bases de données parallèles Anne Doucet Anne.Doucet@lip6.fr

Module BDR Master d Informatique (SAR) Cours 5- bases de données parallèles Anne Doucet Anne.Doucet@lip6.fr Module BDR Master d Informatique (SAR) Cours 5- bases de données parallèles Anne Doucet Anne.Doucet@lip6.fr 1 Plan Introduction Architectures Placement des données Parallélisme dans les requêtes Optimisation

Plus en détail

Architectures matérielles

Architectures matérielles Architectures matérielles Quelques éléments (Août 2007) Françoise BERTHOUD, LPMMC, CNRS Une architecture équilibrée pour ses besoins Processeur >> Traiter l information plus vite! Réseau >> Conduire l

Plus en détail

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit Architecture élémentaire Un cours d architecture pour des informaticiens Samy Meftali Samy.meftali@lifl.fr Bureau 224. Bâtiment M3 extension Sans architecture pas d informatique Comprendre comment çà marche

Plus en détail

Problématique des accès mémoires irréguliers causés par les maillages non structurés :

Problématique des accès mémoires irréguliers causés par les maillages non structurés : Problématique des accès mémoires irréguliers causés par les maillages non structurés :! étude comparative entre les machines massivement multicoeurs et les GPU Loïc Maréchal / INRIA! LJLL, Demi-Journée

Plus en détail

Introduction SIO Utilisation Conclusion Cluster au SIO

Introduction SIO Utilisation Conclusion Cluster au SIO Cluster au SIO ALBERT SHIH 1 1 Observatoire de Paris - Meudon 21 février 2008 Type de «machines» de calcul Mémoire partagée Tous les processeurs accèdent à toute la mémoire avec un même espace d adressage.

Plus en détail

Rappel des options d architecture

Rappel des options d architecture Rappel des options d architecture Page 1 Architecture des Serveurs Page 2 Deux grandes familles : Couplage serré ou multiprocesseur symétrique (SMP pour Symmetric Multiprocessor)) Couplage lâche Clusters

Plus en détail

MICROPROCESSEUR. Nous prendrons comme exemple les processeurs Intel (qui sont le plus souvent utilisés dans les machines actuelles).

MICROPROCESSEUR. Nous prendrons comme exemple les processeurs Intel (qui sont le plus souvent utilisés dans les machines actuelles). MICROPROCESSEUR Le cerveau d un ordinateur est le microprocesseur, parfois appelé CPU ou tout simplement processeur. Le processeur effectue les calculs nécessaires au fonctionnement de l ordinateur et

Plus en détail

Programmation des processeurs multicoeurs

Programmation des processeurs multicoeurs Programmation des processeurs multicoeurs Cours théorique et Application en OpenCL avec Matrix Studio Pascal Ballet pascal.ballet@univ-brest.fr Université de Bretagne Occidentale Laboratoire d Informatique

Plus en détail

Exemple: le processeur MIPS

Exemple: le processeur MIPS Exécution des instructions machine Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr] adresse (donnée, instruction

Plus en détail

Electronique des composants et systèmes

Electronique des composants et systèmes Université Constantine II Electronique des composants et systèmes Cours de L1 -TRONC COMMUN DOMAINE MATHEMATIQUES INFORMATIQUE Université Constantine 2 Le../01/2013 Les Microprocesseurs-partie2 8. Amélioration

Plus en détail

L'évolution des processeurs

L'évolution des processeurs L'évolution des processeurs Historique 1968 Création d'intel Corporation par Gordon Moore et Robert Noyce. 1971 Intel 4004, premier microprocesseur de l'histoire, 4 bits plutôt pour calculatrices. 60.000

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Calcul Haute Performance et Parallélisme Historique et exemples

Calcul Haute Performance et Parallélisme Historique et exemples Calcul Haute Performance et Parallélisme Historique et exemples Emmanuel Hermellin LIRMM Janvier 2014 Sommaire 1 Le Calcul Haute Performance Naissance des super-calculateurs Évolution des super-calculateurs

Plus en détail

STOCKAGE SCALE-OUT EMC ISILON SANS COMPROMIS

STOCKAGE SCALE-OUT EMC ISILON SANS COMPROMIS STOCKAGE SCALE-OUT EMC ISILON SANS COMPROMIS Clusters de système de fichiers unique ou clusters d espace de nommage global EMC PERSPECTIVE 5 bonnes raisons de choisir EMC Isilon 1. Simplicité : simple

Plus en détail

NVIDIA CUDA. Compute Unified Device Architecture. Sylvain Jubertie. Laboratoire d Informatique Fondamentale d Orléans 2011-2012

NVIDIA CUDA. Compute Unified Device Architecture. Sylvain Jubertie. Laboratoire d Informatique Fondamentale d Orléans 2011-2012 NVIDIA CUDA Compute Unified Device Architecture Sylvain Jubertie Laboratoire d Informatique Fondamentale d Orléans 2011-2012 Sylvain Jubertie (LIFO) NVIDIA CUDA 2011-2012 1 / 58 1 Introduction 2 Architecture

Plus en détail

Présentation CaSciModOT Performances et Architectures

Présentation CaSciModOT Performances et Architectures Présentation CaSciModOT Performances et Architectures Code parallèle : Un peu de théorie Architectures variables : C(n,p)? Quel code? Quelle architecture? Structure d un code : partie parallèle / séquentielle

Plus en détail

Juan ESCOBAR, IR1 Expert en Calcul Intensif. Fonction postulée :

Juan ESCOBAR, IR1 Expert en Calcul Intensif. Fonction postulée : Oral Examen Professionnel PFI 7 Octobre 2008 Juan ESCOBAR, IR1 Expert en Calcul Intensif Fonction postulée : Chef de Projet sur le Support du Code Communautaire Méso-NH Service National Labellisé INSU

Plus en détail

Informatique en CPP. Amphi 1 : Matthieu Moy <Matthieu.Moy@imag.fr> Amphi 2 : Frédéric Devernay <Frederic.Devernay@inria.fr>

Informatique en CPP. Amphi 1 : Matthieu Moy <Matthieu.Moy@imag.fr> Amphi 2 : Frédéric Devernay <Frederic.Devernay@inria.fr> Informatique en CPP Cours : Amphi 1 : Matthieu Moy Amphi 2 : Frédéric Devernay Travaux pratiques : A : Matthieu Moy B : Romain Casati

Plus en détail

Service HPC sur Blue Gene. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA)

Service HPC sur Blue Gene. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA) Service HPC sur Blue Gene. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA) Source : commundit:_ex:catalogue-services:hpc:bgq:sla_dit_bgq.docx Distribution

Plus en détail

Programmation multigpu OpenMP versus MPI

Programmation multigpu OpenMP versus MPI 17 février 2011 Gabriel Noaje Programmation multigpu OpenMP versus OpenMP 1 Programmation multigpu OpenMP versus MPI Gabriel Noaje, Michaël Krajecki, Christophe Jaillet gabriel.noaje@univ-reims.fr Équipe

Plus en détail

De l idée au produit

De l idée au produit Chapitre 1 De l idée au produit 1.1. Introduction La conjonction de l évolution des technologies de fabrication des circuits intégrés et de la nature du marché des systèmes électroniques fait que l on

Plus en détail

Déploiement et contrôle d applications parallèles sur grappes de grandes tailles

Déploiement et contrôle d applications parallèles sur grappes de grandes tailles Déploiement et contrôle d applications parallèles sur grappes de grandes tailles Cyrille Martin Directrice : Brigitte Plateau Co-encadrant : Jacques Briat Laboratoire ID-IMAG http://www-id.imag.fr Projet

Plus en détail

AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE

AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE Le Conseiller pour la Science et la Technologie SST/PR Berlin, le 23 novembre 2010 Etat des lieux comparatif dans le domaine des

Plus en détail

Examen 2. Q1 (3 points) : Quel mot ou concept relié aux ordinateurs correspond à la définition suivante :

Examen 2. Q1 (3 points) : Quel mot ou concept relié aux ordinateurs correspond à la définition suivante : GI-1001, 24 avril 2012 Nom/Matricule : Examen 2 Cet examen vaut 40% de la note totale du cours. Les questions seront corrigées sur un total de 40 points. La valeur de chaque question est indiquée avec

Plus en détail

Cours 1 Microprocesseurs

Cours 1 Microprocesseurs Cours 1 Microprocesseurs Jalil Boukhobza LC 206 boukhobza@univ-brest.fr 02 98 01 69 73 Jalil Boukhobza 1 But de ce cours Comprendre le fonctionnement de base d un microprocesseur séquentiel simple (non

Plus en détail

Cours 4 : Les composants Hardware de l'ordinateur

Cours 4 : Les composants Hardware de l'ordinateur Cours 4 : Les composants Hardware de l'ordinateur Abdelkrim Zehioua 2éme année Licence Gestion Faculté des sciences Économiques et sciences de Gestion Université A. Mehri - Constantine 2 Plan du cours

Plus en détail

Gestion autonome de flots d exécution événementiels

Gestion autonome de flots d exécution événementiels Gestion autonome de flots d exécution événementiels Fabien GAUD, M2R S&L Équipe SARDES (INRIA/LIG) 18 juin 2007 1 / 31 Sommaire 1 Introduction 2 État de l art 3 Contribution 4 Évaluation de performances

Plus en détail

Quantification d incertitude et Tendances en HPC

Quantification d incertitude et Tendances en HPC Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification

Plus en détail

Le CSCI pour le Calcul Intensif en France. Olivier Pironneau

Le CSCI pour le Calcul Intensif en France. Olivier Pironneau Le CSCI pour le Calcul Intensif en France Olivier Pironneau Université Pierre et Marie Curie Et président du Comité Stratégique pour le Calcul Intensif (CSCI) La Simulation est une révolution pour la Science

Plus en détail

Portage, optimisation et développement de logiciels de calcul sur architectures GPU et hybrides PSA PEUGEOT CITROËN

Portage, optimisation et développement de logiciels de calcul sur architectures GPU et hybrides PSA PEUGEOT CITROËN Portage, optimisation et développement de logiciels de calcul sur architectures GPU et hybrides PSA PEUGEOT CITROËN Benoît DESCHAMPS PSA Peugeot Citroën 29/06/11 INDEX Présentations activités Réalité Virtuelle

Plus en détail

Analyse et mesure de performances du calcul distribué

Analyse et mesure de performances du calcul distribué Analyse et mesure de performances du calcul distribué Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma CruCID Workshop, EMI, Rabat, 5 au 7 juillet 1999 Motivation Types d applications

Plus en détail

Le calcul intensif face aux défis de l Exascale et du Big Data. Journées Prospectives 2013 F. Suter

Le calcul intensif face aux défis de l Exascale et du Big Data. Journées Prospectives 2013 F. Suter Le calcul intensif face aux défis de l Exascale et du Big Data Journées Prospectives 2013 F. Suter 23 mai 2013 Calcul intensif : HPC vs. HTC Au cœur des grandes avancées de la recherche scientifique Calcul

Plus en détail

Le calcul à hautes performances : évolution du matériel et du logiciel

Le calcul à hautes performances : évolution du matériel et du logiciel Dossier LE CALCUL À HAUTES PERFORMANCES : Le calcul à hautes performances : évolution du matériel et du logiciel Mots clés Loi de Moore, Grille, Vectoriel, Parallèle Alain Kavenoky Ingénieur général des

Plus en détail

Le matériel : architecture des ordinateurs

Le matériel : architecture des ordinateurs Chapitre 6 Le matériel : architecture des ordinateurs Von Neumann rédige en 1945 un texte d une dizaine de pages dans lequel il décrit les plans d une nouvelle machine, l EDVAC (Electronic Discrete Variable

Plus en détail

THEME 2 : L ARCHITECTURE D UN ORDINATEUR. Dossier 1. Objectifs

THEME 2 : L ARCHITECTURE D UN ORDINATEUR. Dossier 1. Objectifs Architecture Matérielle des Systèmes informatiques. S1S1 BTS Informatique de Gestion 1 ère année THEME 2 : L ARCHITECTURE D UN ORDINATEUR Dossier 1 Les différentes formes de mémoire. Objectifs Connaître

Plus en détail

Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI

Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET Carine CASTILLON Mondher CHEKKI Responsable Service Informatique Ingénieure Systèmes & Réseaux Ingénieur High Performance Computing

Plus en détail

INTRODUCTION Structure de base de l ordinateur. Rôle de l ordinateur Eléments de l ordinateur. Joëlle Delacroix - NFA004 1

INTRODUCTION Structure de base de l ordinateur. Rôle de l ordinateur Eléments de l ordinateur. Joëlle Delacroix - NFA004 1 INTRODUCTION Structure de base de l ordinateur Rôle de l ordinateur Eléments de l ordinateur Joëlle Delacroix - NFA004 1 Les différents niveaux de la machine informatique On distingue généralement trois

Plus en détail

Systèmes d exploitation

Systèmes d exploitation Systèmes d exploitation Module UE2 : administration de systèmes Licence professionnelle Pierre Nerzic IUT de Lannion 1 LP/UE2 v2 2005-07 Mise en service des postes de travail Ce chapitre présente rapidement

Plus en détail

Les données massives à Calcul Québec

Les données massives à Calcul Québec Les données massives à Calcul Québec Marc Parizeau, professeur et directeur scientifique de Calcul Québec Plan Calcul Québec / Calcul Canada Les outils et les services disponibles Un outil en particulier

Plus en détail

<Insert Picture Here> Exadata Storage Server et DB Machine V2

<Insert Picture Here> Exadata Storage Server et DB Machine V2 Exadata Storage Server et DB Machine V2 Croissance de la Volumétrie des Données Volumes multipliés par 3 tous les 2 ans Evolution des volumes de données 1000 Terabytes (Données) 800

Plus en détail

Informatique générale - processeurs

Informatique générale - processeurs Université de Nice Sophia Antipolis Licence 1 Sciences Fondamentales Informatique Générale Processeurs Jacques Farré (d'après Fabrice Huet, Wikipedia... et bien d'autres) Jacques.Farre@unice.fr http://deptinfo.unice.fr/~jf/infogene

Plus en détail

Chap. 2 - Structure d un ordinateur

Chap. 2 - Structure d un ordinateur Architecture des ordinateurs Michèle Courant S2-27 octobre 2004 Chap. 2 - Structure d un ordinateur 2.1 Processeur ou unité centrale (CPU) 2.1.1 Organisation du CPU 2.1.2 Exécution d une instruction 2.1.3

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec. 3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation

Plus en détail

Plateforme de Calcul Intensif HPC de l lnstitut Pytheas

Plateforme de Calcul Intensif HPC de l lnstitut Pytheas Plateforme de Calcul Intensif HPC de l lnstitut Pytheas M. Libes UMS 3470 Pytheas C. Pinazo UMR 7294 MIO Juin 2015 Description du Cluster de calcul Juillet 2015 1 nœud «maitre» de connexion 32 nœuds de

Plus en détail

SERVICES. Distribution de licences logicielles et gestion des droits livrés dans le Cloud et conçus pour le Cloud

SERVICES. Distribution de licences logicielles et gestion des droits livrés dans le Cloud et conçus pour le Cloud SERVICES Distribution de licences logicielles et gestion des droits livrés dans le Cloud et conçus pour le Cloud L industrie du logiciel face aux défis du Cloud Les entreprises ont rapidement réalisé la

Plus en détail