INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

Dimension: px
Commencer à balayer dès la page:

Download "INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1"

Transcription

1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1

2 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2

3 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe Symmetric shared memory multiprocessors (SMP UMA) Mémoire distribuée et partagée (DSM NUMA) Mémoire distribuée non partagée (Multicomputer) RPC (Hybride) E/S Centralisées Distribuées Hybrides Coherence Protocol Directory-based Snooping Snooping Protocol Write invalidate Write update (broadcast) Synchronisation HDW primitives Lock (HDW: semaphore) Barrier (Spin-lock) Etc. Topologie Single bus Crossbar, etc. Hiérarchie Oui Non Processeurs Simple pipeline Superscalar Granularité Process Thread Sylvain Martel - INF6500 3

4 Performance Metrics pour communication entre plusieurs processeurs Communication bandwidth Limitée par le processeur, interconnections, au lieu du mécanisme de communication Communication latency Idéalement le plus bas possible, (sender overhead, delais relié au lien de communication (FIFO), receiver overhead) Communication latency hiding Latence de communication en parallèle avec computation Définitions: Bandwidth (bande passante), Throughput (Débit), Latency (Latence) Sylvain Martel - INF6500 4

5 Taxonomie des architectures parallèles Un seul flot d instruction, un seul flot de données (single instruction, single datum - SISD) : c est le monoprocesseur commun. Un seul flot d instructions, plusieurs flots de données (single instructions, multiple data - SIMD): La même instruction est exécutée par plusieurs processeurs utilisant différents flots de données. Chaque processeur a sa propre mémoire données, mais il y a une seule mémoire d instructions et un seul processeur de contrôle qui lance les instructions. Plusieurs flots d instructions, un seul flot de données (multiple instructions, single datum - MISD): aucune machine commerciale de ce type n a été construite à ce jour. Plusieurs flots d instructions, plusieurs flots de données (multiple instructions, multiple data MIMD): Chaque processeur lit ses propres instructions et opère sur ses propres données. Sylvain Martel - INF6500 5

6 SISD (Exemples) Processeur Instructions Mémoire Mémoire Processeur Instructions Mémoire Processeur Instructions Mémoire Mémoire Dual-Port Sylvain Martel - INF6500 6

7 SIMD (Exemple) Mémoire Processeur Instructions Mémoire Mémoire Processeur Mémoire Processeur Mémoire Processeur Sylvain Martel - INF6500 7

8 SIMD (Exemple - suite) Processeur Processeur Mémoire Processeur Processeur Mémoire Processeur Processeur Mémoire Processeur Processeur Mémoire Instruction 1 Instruction 2 Sylvain Martel - INF6500 8

9 SIMD (Exemple - suite) MUX Processeur Mémoire MUX Processeur Mémoire MUX Processeur Mémoire MUX Processeur Mémoire Instruction 1, 2, 1, 2, Sylvain Martel - INF6500 9

10 MIMD avec mémoire partagée ou mémoire distribuée Les premiers multiprocesseurs étaient SIMD. De nos jours, le modèle MIMD a surgit comme l architecture évidente à choisir pour le multiprocesseurs d usage général: Flexible : peut fonctionner comme une machine simple utilisateur destinée à la haute performance pour une application, comme une machine avec multiprogrammation exécutant beaucoup de tâches simultanément, ou selon une certaine combinaison de ces fonctions. Un MIMD peut être construit en s appuyant sur les avantages coût performance des microprocesseurs standard. Les machine MIMD actuelles sont classables en deux groupes, selon le nombre de processeurs. Architectures à mémoire partagée centralisée Au plus quelques douzaines de processeurs en1990 Se partagent la même mémoire physique La connexion est typiquement réalisée par un bus Temps d accès uniforme pour chaque processeur Sylvain Martel - INF

11 MIMD avec mémoire partagée (centralisée) Multi-thread Oriented Mémoire Principale Processeur 1 Processeur 2 Processeur 3 Processeur N Inter-processors: Shared Memory Model Sylvain Martel - INF

12 MIMD avec mémoires distribuées Multi-process Oriented Processeur 1 Processeur 2 Processeur 3 Processeur N Mémoire 1 Mémoire 2 Mémoire 3 Mémoire N Inter-processors: Message Passing Model Sylvain Martel - INF

13 Processes vs. threads Process: Segment de codes qui peut-être exécuté indépendamment par un processeur. Chaque «process» est indépendant des «processes» sur les autres processeurs Thread: Lorsque plusieurs «processes» partagent le code et la plupart de leurs adresses mémoires, ils sont référés comme des «threads». Sylvain Martel - INF

14 MIMD avec mémoire partagée centralisée Symmetric Shared Memory Multiprocessors (SMP) ou UMA (uniform memory access) Contention sur le bus Mémoire Principale Contention augmente avec augmentation de N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

15 Réduction de la performance à cause du niveau de contentions Performance Nombre de processeurs Sylvain Martel - INF

16 MIMD avec mémoire partagée centralisée Réduction du niveau de contention sur le bus avec mémoires caches Mémoire Principale Contention augmente moins avec augmentation de N (possibilité d ajouter plus de processeurs) Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

17 Réduction de la performance à cause du niveau de contentions Performance Avec cache Sans cache Nombre de processeurs Sylvain Martel - INF

18 MIMD avec mémoire partagée centralisée Problèmes de cohérence entre les mémoires caches (cache coherence) Copies semblables du bloc 0 Mémoire Principale Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

19 MIMD avec mémoire partagée centralisée Problèmes de cohérence entre les mémoires caches (cache coherence) - Suite Processeur 1 écrit dans le bloc 0, donc: différentes copies du bloc 0 Mémoire Principale Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

20 Protocoles de cohérence de caches (cache coherence protocols) Write Invalidate Protocol Snooping Protocols (Shared Memory) Write Update ou Write Broadcast Protocol Directory-based Protocols (Distributed Memory) Sylvain Martel - INF

21 Protocoles de cohérence de caches (cache coherence protocols) Write Invalidate Protocol Snooping Protocols (Centralized (single) Shared Memory) Write Update ou Write Broadcast Protocol Directory-based Protocols (Distributed Shared Memory) Sylvain Martel - INF

22 MIMD avec mémoire partagée centralisée WriteInvalidate T1 Processeur 1 écrit dans le bloc 0, donc: différentes copies du bloc 0 Mémoire Principale Snooping Bus Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

23 MIMD avec mémoire partagée centralisée WriteInvalidate T2 Met «invalide» la copie du bloc 0 dans la mémoire cache 3 Mémoire Principale Note: pour maintenir la demande de la bande passante sous Contrôle, il faut verifier si un bloc est partagé ou non. Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

24 MIMD avec mémoire partagée centralisée WriteInvalidate T3 Processeur 3 lit dans le bloc 0 mais invalide, bloc 0 est remplacé, puis il y a lecture Mémoire Principale Note: Effet d un tampon d écriture sur performance de P1 et P3, etc. 2 Cache 1 Cache 2 Cache 3 Cache N 1 3 Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

25 MIMD avec mémoire partagée centralisée WriteInvalidate T4 Processeur 3 tente d écrire dans le bloc 0 mais P1 a exclusivité, (exclusive accesses) écriture non permise Mémoire Principale Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

26 MIMD avec mémoire partagée centralisée WriteInvalidate T5 Le bloc 0 dans le cache 1 est remplacé par un autre bloc Mémoire Principale Exclusive Accesses Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

27 MIMD avec mémoire partagée centralisée WriteInvalidate T6 Le bloc 0 dans le cache 3 est remplacé par un autre bloc (dans aucun autre cache) 2 Mémoire Principale 1 Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

28 Protocoles de cohérence de caches (cache coherence protocols) Write Invalidate Protocol Snooping Protocols (Centralized (single) Shared Memory) Write Update ou Write Broadcast Protocol Directory-based Protocols (Distributed Shared Memory) Sylvain Martel - INF

29 MIMD avec mémoire partagée centralisée Write Update or Broadcast T1 Processeur 1 écrit dans le bloc 0, donc: différentes copies du bloc 0 Mémoire Principale Snooping Bus Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

30 MIMD avec mémoire partagée centralisée Write Update or Broadcast T2 «Update»la copie du bloc 0 dans la mémoire cache 3 Mémoire Principale Note: Avantages/désavantages de «update» du bloc 0 dans la mémoire principale, effet d un tampon d écriture, etc. Si broadcast (autres copies du bloc 0) Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

31 MIMD avec mémoire partagée centralisée WriteInvalidate T3 Processeur 3 lit dans le bloc 0, OK si «update» du bloc 0 est terminé, sinon attend Mémoire Principale Note: Effet d un tampon d écriture sur performance de P1 et P3, etc. Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

32 MIMD avec mémoire partagée centralisée Write Update or Broadcast T4 Processeur 3 tente d écrire dans le bloc 0 mais P1 a exclusivité, (exclusive accesses) écriture non permise, (échec au cache) Mémoire Principale Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

33 MIMD avec mémoire partagée centralisée Write Update or Broadcast T5 Le bloc 0 dans le cache 1 est remplacé par un autre bloc Mémoire Principale Exclusive Accesses Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

34 MIMD avec mémoire partagée centralisée Write Update or Broadcast T6 Le bloc 0 dans le cache 3 est remplacé par un autre bloc (dans aucun autre cache) 2 Mémoire Principale 1 Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

35 Write Invalidate vs. Write Update ou Broadcast Write Invalidate plus populaire car moins de trafic sur le bus, mais possibilité dune plus grande latence si un autre processeur a besoin de lire un mot dans le même bloc. Sylvain Martel - INF

36 Architectures de mémoires et mécanismes de communication Mémoire distribuée et partagée (Distributed Shared Memory DSM architecture) L espace d adresses est partagée entre les processeurs même si la mémoire n est pas centralisée mais distribuée Connue aussi sous le nom de NUMA (nonuniform memory access) parce que le temps d accès dépend du lieu ou adresse du mot accédé dans la mémoire Symmetric Shared Memory Multiprocessors (SMP) ou UMA (uniform memory access) Multicomputers (Message-passing multiprocessors) Mémoire distribuée mais non partagée Multiples espaces mémoires Clusters: ordinateurs connectés par LAN avec peu d intéractions Sylvain Martel - INF

37 MIMD avec mémoires distribuées non-partagées avec caches (message-passing multiprocessors) Préférence (shared-memory) (message-passing) Bus ou réseau d interconnexions Bus Interface MEM 1 MEM 2 MEM 3 MEM N Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

38 MIMD avec mémoires distribuées non-partagées avec caches Remote Procedure Call (RPC) 1. P3 requiert DATA dans MEM 1, 2. DATA est envoyé par P1 à P3 Message-passing Bus ou réseau d interconnexions MEM 1 MEM 2 MEM 3 MEM N Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Note: Dans le cache ou non, cohérence, etc. Sylvain Martel - INF

39 MIMD avec mémoires distribuées partagées (DSM) avec caches Bus ou réseau d interconnexions Bus Interface MEM 1 MEM 2 MEM 3 MEM N Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

40 MIMD avec mémoires distribuées partagées avec caches Accès normale (comme uni-processeur 1. P3 requiert DATA dans MEM 1, 2. P3 accède MEM 1 comme un accès à MEM 3 amis avec plus de cycles d attente (Wait-states), possibilité de contention sur le bus partagé donc plus long cycle d accès à la mémoire M1 Shared-memory Bus ou réseau d interconnexions MEM 1 MEM 2 MEM 3 MEM N Cache 1 Cache 2 Cache 3 Cache N Processeur 1 Processeur 2 Processeur 3 Processeur N Note: Dans le cache ou non, cohérence, etc. Sylvain Martel - INF

41 Protocoles de cohérence de caches (cache coherence protocols) Write Invalidate Protocol Snooping Protocols (Centralized (single) or Symmetric Shared Memory - SMP) Write Update ou Write Broadcast Protocol Directory-based Protocols (Distributed Shared Memory - DSM) Sylvain Martel - INF

42 MIMD avec mémoires distribuées partagées avec caches Cohérence avec l ajout de «directories» Shared-memory Bus ou réseau d interconnexions MEM 1 MEM 2 MEM 3 MEM N Cache 1 Cache 2 Cache 3 Cache N Directory Directory Directory Directory Processeur 1 Processeur 2 Processeur 3 Processeur N Note: Dans le cache ou non, cohérence, etc. Sylvain Martel - INF

43 Directory Chaque «directory» est responsable pour le «tracking» des caches qui partagent les mêmes adresses de mémoire dans le noeud (node). Le «directory» peut communiquer avec le processeur et la mémoire à travers un bus commun, ou il peut avoir un port séparé à la mémoire, ou il peut être une partie d un contrôleur central du noeud où toutes les communications intranodes et internode passent. Sylvain Martel - INF

44 Synchronisation Primitives matérielles de base (Hardware Primitives) Atomic read and modify (test-and-set) Autres techniques de synchronization LOCK BARRIER (SPIN-LOCK) Sylvain Martel - INF

45 Multi-threading avec un processeur DMUX Thread 1 Processeur Thread 1 Mémoire Pipeline 1 Pipeline 2 Sylvain Martel - INF

46 Multi-threading simultané avec un processeur superscalaire («converting thread-level parallelism into instruction-level parallelism) DMUX INSTR1 INSTR2 Processeur Mémoire Pipeline 1 Pipeline 2 Sylvain Martel - INF

47 Autre exemple pour discussion Mémoire Principale Cache Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

48 Autre exemple pour discussion Mémoire Principale Cache L2 L1 L1 L1 L1 Processeur 1 Processeur 2 Processeur 3 Processeur N Sylvain Martel - INF

49 Autre exemple pour discussion Mémoire Principale (Variables) C C C C Processeur 1 Processeur 2 Processeur 3 Processeur N C C C C Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Sylvain Martel - INF

50 Autre exemple pour discussion E/S Mémoire Principale (Variables) C C C C Processeur 1 Processeur 2 Processeur 3 Processeur N C C C C Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Sylvain Martel - INF

51 Autre exemple pour discussion Mémoire Principale (Variables) C C C C Processeur 1 Processeur 2 Processeur 3 Processeur N C C C C E/S E/S E/S E/S Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Sylvain Martel - INF

52 Autre exemple pour discussion CLUSTER Mémoire Principale (Variables) C C C C Processeur 1 Processeur 2 Processeur 3 Processeur N C C C C Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Mémoire Locale (Instr., cte) Sylvain Martel - INF

53 Autre exemple pour discussion (suite) Message-passing Cluster 1 Cluster 2 Cluster 3 Cluster N Sylvain Martel - INF

54 Autre exemple pour discussion Shared-memory Mémoire Principale (Globale) C C C C Cluster 1 Cluster 2 Cluster 3 Cluster N Sylvain Martel - INF

55 Autre exemple pour discussion Message-passing CROSSBAR Cluster 1 Cluster 2 Cluster 3 Cluster N Sylvain Martel - INF

56 Autre exemple pour discussion Mémoire Principale (Globale) BANK 0 Mémoire Principale (Globale) BANK 1 Mémoire Principale (Globale) BANK 3 CROSSBAR Shared-memory C C C C Cluster 1 Cluster 2 Cluster 3 Cluster N Sylvain Martel - INF

57 Sylvain Martel - INF

Multi-processeurs, multi-cœurs, cohérence mémoire et cache

Multi-processeurs, multi-cœurs, cohérence mémoire et cache Multi-processeurs, multi-cœurs, cohérence mémoire et cache Intervenant : Thomas Robert Institut Mines-Télécom Parallélisme inter instructions n Exécution : une séquence d instructions appliquées à un 1

Plus en détail

INF6500 Structures des ordinateurs. Plan de cours

INF6500 Structures des ordinateurs. Plan de cours École Polytechnique de Montréal Département de génie informatique et de génie logiciel INF6500 Structures des ordinateurs Automne 2015 Plan de cours Professeur coordonnateur du cours: Nom : Sylvain Martel

Plus en détail

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs Modèle de Machine 1a: Mém. Partagée Tous les processeurs sont connectés à une large partagée. Appelée Symmetric Multiprocessors (SMPs) SMPs de Sun, HP, Intel, IBM Puces Multicoeur, exceptées celles qui

Plus en détail

Programmation Système des Multicœurs

Programmation Système des Multicœurs Évolution de la puissance des machines Programmation Système des Multicœurs Gaël Thomas gael.thomas@lip6.fr Accélération Évolution Traditionnelle des mono-processeurs Université Pierre et Marie Curie Master

Plus en détail

Parallélisme. Cours 1

Parallélisme. Cours 1 Parallélisme Cours 1 TD : 20% - TP : 30% - Examen : 50% Feuille A4 manuscrite (pas de photocopie) Fabrice.Huet@etu.unice.fr (prendre rdv par mail pr le contacter) A quoi sert le parallélisme? Augmenter

Plus en détail

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines

Évolution de la puissance des machines. Système pour architectures multicœurs. Évolution de la puissance des machines Évolution de la puissance des machines Accélération Système pour architectures multicœurs Évolution Traditionnelle des mono-processeurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques

Plus en détail

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES Cours Administration des Bases de données M Salhi Architectures des Système de base de données Systèmes centralisés et client-serveur Server System Architectures

Plus en détail

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 1 Semestre 4 : Fev. 2015 Ateliers Beowolf ou Mosix Atelier Type Cluster Vishwa http://dos.iitm.ac.in/vishwanew

Plus en détail

Multi-processeurs, multi-cœurs et cohérence mémoire et cache

Multi-processeurs, multi-cœurs et cohérence mémoire et cache Multi-processeurs, multi-cœurs et cohérence mémoire et cache Intervenant : Thomas Robert Institut Mines-Télécom Rappel système d exploitation & Parallélisme L unité d exécution pour un système d exploitation

Plus en détail

Architectures Parallèles

Architectures Parallèles Architectures Parallèles Cours pour Ingénieur Préparé par Dr. Olfa Hamdi-Larbi ola_ola79@yahoo.fr Reçoit les signaux du contrôleur, cherche les données et les traite Instructions, Données à traiter et

Plus en détail

Questions à choix multiples Page 1 de 11

Questions à choix multiples Page 1 de 11 INF4170 Architecture des ordinateurs Examen final hiver 2015 Question #1 Quelle est la taille du registre IF/ID dans le circuit du processeur avec pipeline sans gestion des aléas, considérant que le signal

Plus en détail

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI. Facultés Universitaires Notre-Dame de la Paix, Namur Institut d Informatique Année académique 2003-2004 Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de

Plus en détail

Les Microprocesseurs partie2

Les Microprocesseurs partie2 Université Constantine 2 Abdelhamid Mehri Faculté des NTIC Département MI Electronique des Composants & Systèmes Les Microprocesseurs partie2 Cours de L1 - TRONC COMMUN DOMAINE MATHEMATIQUES INFORMATIQUE

Plus en détail

Parallélisation Automatique

Parallélisation Automatique Parallélisation Automatique Paul Feautrier ENS de Lyon Paul.Feautrier@ens-lyon.fr 8 septembre 2008 1 / 23 Pourquoi la parallélisation automatique? Les gains de performances dus à la technologie s amenuisent

Plus en détail

Solaris pour la base de donnés Oracle

<Insert Picture Here> Solaris pour la base de donnés Oracle Solaris pour la base de donnés Oracle Alain Chéreau Oracle Solution Center Agenda Compilateurs Mémoire pour la SGA Parallélisme RAC Flash Cache Compilateurs

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Analyse et mesure de performances du calcul distribué

Analyse et mesure de performances du calcul distribué Analyse et mesure de performances du calcul distribué Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma CruCID Workshop, EMI, Rabat, 5 au 7 juillet 1999 Motivation Types d applications

Plus en détail

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008 Windows Server 2008 Chapitre 1: Découvrir Windows Server 2008 Objectives Identifier les caractéristiques de chaque édition de Windows Server 2008 Identifier les caractéristiques généraux de Windows Server

Plus en détail

Les entrées/sorties Les périphériques

Les entrées/sorties Les périphériques Les entrées/sorties Les périphériques La fonction d un ordinateur est le traitement de l information (fonction réalisée au niveau de la mémoire et l UC). L ordinateur acquiert cette information et restitue

Plus en détail

Une méthode de conception de systèmes sur puce

Une méthode de conception de systèmes sur puce École thématique ARCHI 05 Une méthode de conception de systèmes sur puce (de l intégration d applications) Frédéric PÉTROT Laboratoire TIMA Institut National Polytechnique de Grenoble Frédéric Pétrot/TIMA/INPG

Plus en détail

Stockage : capacité, performances

Stockage : capacité, performances Stockage : capacité, performances Intervenant :Thomas Robert C234-4 thomas.robert@telecom-paristech.fr Transparents : Thomas Robert Institut Mines-Télécom Lectures possibles Chapitre 7.2 de : http://ceit.aut.ac.ir/~amirkhani/

Plus en détail

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées M2-ILC Parallélisme, systèmes distribués et grille Eléments d architecture des Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle 2 Depuis 24 les CPU sont multi-cœurs

Plus en détail

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,...

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,... Rappels, SISD, SIMD Calculateurs hybrides (GPU-OpenCL) Rappels... SISD,... SIMD Formation d Ingénieurs de l Institut Galiléee MACS 3 Philippe d Anfray Philippe.d-Anfray@cea.fr CEA DSM 2013-2014 SISD :

Plus en détail

DSM-PM2 : une plate-forme portable pour l implémentation de protocoles de cohérence MVP multithread. Gabriel Antoniu LIP, ENS-Lyon

DSM-PM2 : une plate-forme portable pour l implémentation de protocoles de cohérence MVP multithread. Gabriel Antoniu LIP, ENS-Lyon DSM-PM2 : une plate-forme portable pour l implémentation de protocoles de cohérence MVP multithread Gabriel Antoniu LIP, ENS-Lyon Contexte : PM2 Environnement de programmation multithread distribué Développé

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées Mineure HPC-SBD Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture de machines parallèles

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

Chap. 2 - Structure d un ordinateur

Chap. 2 - Structure d un ordinateur Architecture des ordinateurs Michèle Courant S2-27 octobre 2004 Chap. 2 - Structure d un ordinateur 2.1 Processeur ou unité centrale (CPU) 2.1.1 Organisation du CPU 2.1.2 Exécution d une instruction 2.1.3

Plus en détail

Design, améliorations, et implémentations

Design, améliorations, et implémentations CPU et Mémoire Design, améliorations, et implémentations Techniques et caractéristiques modernes qui permettent de donner aux ordinateurs actuels toute leur puissance 1 Architectures CPU Design de l architecture

Plus en détail

Calcul scientifique et serveurs de calcul

Calcul scientifique et serveurs de calcul Calcul scientifique et serveurs de calcul Serveurs de calcul : contexte, enjeux et administration Violaine Louvet, 13 septembre 2007 Calcul scientifique et serveurs de calcul Journée proposée par : Le

Plus en détail

Introduction à la Programmation Parallèle: MPI

Introduction à la Programmation Parallèle: MPI Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4

Plus en détail

Systèmes et traitement parallèles

Systèmes et traitement parallèles Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Formation en Calcul Scientifique - LEM2I Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Introduction Décoder la relation entre l architecture et les applications

Plus en détail

Stockage et mémoire, Du principe vers la réalité

Stockage et mémoire, Du principe vers la réalité Stockage et mémoire, Du principe vers la réalité Responsable :Thomas Robert C234-4 thomas.robert@telecom-paristech.fr Intervenants :Tamy Boubekeur, Guillaume Duc, Gérard Mouret, Thomas Robert Institut

Plus en détail

Benchmarks. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble.

Benchmarks. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble. (Merci à Ludovic Saugé) Françoise BERTHOUD, Francoise.Berthoud@grenoble.cnrs.fr Les benchmarks

Plus en détail

Les grandes classes de système

Les grandes classes de système : Introduction Daniel Etiemble de@lri.fr Les grandes classes de système Caractéristique Ordinateur de bureau Serveur Enfoui/embarqué Prix du microprocesseur à 0 200 à 2000 par processeur 0,20 à 200 par

Plus en détail

Evolutions des Systèmes d'exploitation

Evolutions des Systèmes d'exploitation Evolutions des Systèmes d'exploitation Qu'est ce qu'un Système d'exploitation?? Histoire des Systèmes Architectures Tâches que les Systèmes d'exploitations réalisent Nouveautés Qu'est ce qu'un Système

Plus en détail

Introduction à la programmation parallèle p. 1/85

Introduction à la programmation parallèle p. 1/85 Introduction à la programmation parallèle Maîtrise d informatique Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences et technologies de Lille

Plus en détail

Systèmes multi-processeurs intégrés sur puce

Systèmes multi-processeurs intégrés sur puce Systèmes multi-processeurs intégrés sur puce version 1.0 PHY 568 Alain Greiner Pla n Architectures multi-processeurs à mémoire partagée Applications parallèles embarquées Bus système / exemple du PIBUS

Plus en détail

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos Architecture & Nouveautés du Core i7 Xpose Core i7 Sommaire Définition Historique Rôle du microprocesseur Architecture d un microprocesseur Core i7 : Améliorations Cache HyperThreading IMC/QPI TurboBoost

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Chapitre 1 Architecture des calculateurs 1.1 Introduction Ce paragraphe n a pas la prétention de présenter un cours d informatique. D une manière générale, seuls les caractéristiques architecturales qui

Plus en détail

Systèmes & Réseaux. Georges Arhodakis Université Paris 8

Systèmes & Réseaux. Georges Arhodakis Université Paris 8 Systèmes & Réseaux Georges Arhodakis Université Paris 8 Sommaire Introduction Historique Service du noyau Appel Système Trappes & Interruptions Horloge & Gestion du Temps Ordonnancement Contrôle & Gestion

Plus en détail

Systèmes d exploitation II Chapitre 2 : Gestion des processus. www.achrafothman.net

Systèmes d exploitation II Chapitre 2 : Gestion des processus. www.achrafothman.net Systèmes d exploitation II Chapitre 2 : Gestion des processus www.achrafothman.net 1 Processus Concept de Processus Ordonnancement de Processus Opérations sur les Processus Processus Coopératifs Communication

Plus en détail

Introduction aux systèmes informatiques Structure d un ordinateur

Introduction aux systèmes informatiques Structure d un ordinateur Introduction aux systèmes informatiques Structure d un ordinateur Michel Salomon IUT de Belfort-Montbéliard Département d informatique Michel Salomon Intro. aux sys. info. 1 / 36 Qu est-ce qu un système

Plus en détail

Matériel : comment gagner en performance? Objectif Teraflop. les limites :

Matériel : comment gagner en performance? Objectif Teraflop. les limites : Matériel : comment gagner en performance? réduction du temps de cycle (aujourd hui de 0,6 à 2 ns) instructions vectorielles et pipelinées plusieurs unités fonctionnelles hiérarchie de mémoire multiprocesseurs

Plus en détail

Architecture des ordinateurs, concepts du parallélisme

Architecture des ordinateurs, concepts du parallélisme Ecole Doctorale MathIf Architecture des ordinateurs, concepts du parallélisme Violaine Louvet 1 Remerciements à Françoise Roch, Guy Moebs, Françoise Berthoud 1 ICJ - CNRS Année 2009-2010 Objectifs de ce

Plus en détail

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données EARTH et Threaded-C: Éléments clés du manuel de références de Threaded-C Bref historique de EARTH et Threaded-C Ancêtres de l architecture EARTH: Slide 1 Machine à flux de données statique de J.B. Dennis

Plus en détail

THÈSE. Pour obtenir le grade de. Spécialité : Informatique. Arrêté ministériel : 7 août 2006. Présentée et soutenue publiquement par.

THÈSE. Pour obtenir le grade de. Spécialité : Informatique. Arrêté ministériel : 7 août 2006. Présentée et soutenue publiquement par. THÈSE Pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ DE GRENOBLE Spécialité : Informatique Arrêté ministériel : 7 août 2006 Présentée et soutenue publiquement par Fabien GAUD le 02 Décembre 2010 ÉTUDE

Plus en détail

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée.

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. RenPar 19 / SympA 13 / CFSE 7 Toulouse, France, du 9 au 11 septembre 2009 Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. Khaled Hamidouche, Franck

Plus en détail

Historique. Évolution des systèmes d exploitation (à travers les âges)

Historique. Évolution des systèmes d exploitation (à travers les âges) Historique Évolution des systèmes d exploitation (à travers les âges) Historique L histoire des systèmes d exploitation permet de dégager des concepts de base que l on retrouve dans les systèmes actuels

Plus en détail

Exemple: le processeur MIPS

Exemple: le processeur MIPS Exécution des instructions machine Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr] adresse (donnée, instruction

Plus en détail

ARCHITECTURES A PASSAGE DE MESSAGES

ARCHITECTURES A PASSAGE DE MESSAGES ARCHITECTURES A PASSAGE DE MESSAGES Daniel Etiemble LRI, Université Paris Sud de@lri.fr D. Etiemble 1 Architecture parallèle à passage de messages RESEAU D INTERCONNEXION réseau réseau réseau réseau CPU

Plus en détail

Cours Systèmes d'exploitation, Dalila Souilem, ISITC, département informatique.

Cours Systèmes d'exploitation, Dalila Souilem, ISITC, département informatique. Plan du cours I Présentation générale des systèmes d'exploitation II Généralités sur UNIX / historique III Les bases du système 1. Système de fichiers (SGF) et commandes associées 2. Processus et commandes

Plus en détail

Optimisations de la bibliothèque de communication MPI pour machines parallèles de type «grappe de PCs» sur une primitive d écriture distante

Optimisations de la bibliothèque de communication MPI pour machines parallèles de type «grappe de PCs» sur une primitive d écriture distante Université Paris VI Pierre & Marie Curie THESE DE DOCTORAT Spécialité : Informatique Présentée par Olivier GLÜCK Pour obtenir le grade de DOCTEUR DE L UNIVERSITE Paris VI Optimisations de la bibliothèque

Plus en détail

Simulation et estimation de performance des MPSoC au niveau PVT

Simulation et estimation de performance des MPSoC au niveau PVT Chapter 1 Simulation et estimation de performance des MPSoC au niveau PVT 1.1 Introduction Dans le chapitre précédent, la problématique du temps de simulation pour évaluer les performances des MPSoC au

Plus en détail

Formation en Calcul Scientifique - LIEM2I

Formation en Calcul Scientifique - LIEM2I Formation en Calcul Scientifique - LIEM2I Introduction au calcul parallèle Loïc Gouarin, Violaine Louvet, Laurent Series Groupe Calcul CNRS 9-13 avril 2012 Loïc Gouarin, Violaine Louvet, Laurent Series

Plus en détail

Plan : Master IM2P2 - Calcul Scientifique

Plan : Master IM2P2 - Calcul Scientifique Plan : Les systèmes HPC Typologie des systèmes : Machines Mémoire partagée Machines à Mémoire Distribuées Machine NUMA Exemples Architectures Processeurs HPC Processeurs scalaires, superscalaires, vectoriels

Plus en détail

Exclusion Mutuelle hiérarchique Composition de protocoles

Exclusion Mutuelle hiérarchique Composition de protocoles Exclusion Mutuelle hiérarchique Composition de protocoles Baptiste Canton Pierre Sens - Luciana Arantes - Julien Sopena 1 Baptiste Canton Contexte L'exclusion mutuelle distribuée. Brique de base de nombreuses

Plus en détail

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE D ORAN ES-SENIA

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE D ORAN ES-SENIA REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE D ORAN ES-SENIA FACULTE DES SCIENCES DEPARTEMENT D INFORMATIQUE THESE Présentée

Plus en détail

Introduction à la Programmation parallèle INFO 3. Camille Coti 1 camille.coti@lipn.univ-paris13.fr

Introduction à la Programmation parallèle INFO 3. Camille Coti 1 camille.coti@lipn.univ-paris13.fr Introduction à la Programmation parallèle Institut Galilée INFO 3 Camille Coti 1 camille.coti@lipn.univ-paris13.fr 1 Université de Paris XIII, CNRS UMR 7030, France 1 Camille Coti Introduction à la Programmation

Plus en détail

1.1 Remote Procedure Call (RPC)

1.1 Remote Procedure Call (RPC) 1.1 Remote Procedure Call (RPC) Le modèle Client-Serveur est un modèle simple à utiliser pour la structuration des systèmes répartis. Mais ce modèle s appuie sur des communications de type entrée/sortie

Plus en détail

Pour obtenir le grade de. Arrêté ministériel : 7 août 2006. Sylvain Genevès

Pour obtenir le grade de. Arrêté ministériel : 7 août 2006. Sylvain Genevès THÈSE Pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ DE GRENOBLE Spécialité : Informatique Arrêté ministériel : 7 août 2006 Présentée par Sylvain Genevès Thèse dirigée par Vivien Quéma et co-encadrée

Plus en détail

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,

Plus en détail

Tolérance aux pannes

Tolérance aux pannes Tolérance aux pannes Arnaud Labourel Université de Provence 15 mars 2012 Arnaud Labourel (Université de Provence) Tolérance aux pannes 15 mars 2012 1 / 55 Présentation Tolérances aux pannes Pannes Définition

Plus en détail

Etude de performances sur processeurs multicoeur : d exécution événementiel efficace et étude comparative de modèles de programmation.

Etude de performances sur processeurs multicoeur : d exécution événementiel efficace et étude comparative de modèles de programmation. Etude de performances sur processeurs multicoeur : environnement d exécution événementiel efficace et étude comparative de modèles de programmation Sylvain Geneves To cite this version: Sylvain Geneves.

Plus en détail

THÈSE. L UNIVERSITÉ BORDEAUX I ÉCOLE DOCTORALE DE MATHÉMATIQUES ET D INFORMATIQUE Par CIROU Bertrand POUR OBTENIR LE GRADE DE

THÈSE. L UNIVERSITÉ BORDEAUX I ÉCOLE DOCTORALE DE MATHÉMATIQUES ET D INFORMATIQUE Par CIROU Bertrand POUR OBTENIR LE GRADE DE N o d ordre : 2994 THÈSE PRÉSENTÉE À L UNIVERSITÉ BORDEAUX I ÉCOLE DOCTORALE DE MATHÉMATIQUES ET D INFORMATIQUE Par CIROU Bertrand POUR OBTENIR LE GRADE DE DOCTEUR SPÉCIALITÉ : INFORMATIQUE Expression

Plus en détail

UNIVERSITÉ D ORLÉANS. ÉCOLE DOCTORALE SCIENCES ET TECHNOLOGIES LABORATOIRE : LIFO THÈSE présentée par : Hiep-Thuan DO. soutenue le : 13/12/2011

UNIVERSITÉ D ORLÉANS. ÉCOLE DOCTORALE SCIENCES ET TECHNOLOGIES LABORATOIRE : LIFO THÈSE présentée par : Hiep-Thuan DO. soutenue le : 13/12/2011 UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE SCIENCES ET TECHNOLOGIES LABORATOIRE : LIFO THÈSE présentée par : Hiep-Thuan DO soutenue le : 13/12/2011 pour obtenir le grade de : Docteur de l université d Orléans

Plus en détail

Compilation et optimisation statiques pour les processeurs multi-coeurs

Compilation et optimisation statiques pour les processeurs multi-coeurs Université Louis Pasteur LSIIT, Rapport de stage de Master 2 Recherche IFA Stage encadré par Vincent Loechner Compilation et optimisation statiques pour les processeurs multi-coeurs Ogier Maitre Strasbourg,

Plus en détail

Exécution des instructions machine

Exécution des instructions machine Exécution des instructions machine Eduardo Sanchez EPFL Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr]

Plus en détail

Chapitre 2 : Architecture d un ordinateur

Chapitre 2 : Architecture d un ordinateur I. Introduction : Chapitre 2 : Architecture d un ordinateur Activité 1 : Q : Comment on peut effectuer un traitement automatique? R : On doit utiliser une machine automatique c est l ordinateur. Q : Quelles

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS Ecole Doctorale 2012-2013 Sommaire 1 Architecture générale Processeur Mémoire Réseaux Stockage 2 Tendances Evolutions technologiques

Plus en détail

Entrées-Sorties: Architectures de bus. GIF-1001 Ordinateurs: Structure et Applications, Hiver 2015 Jean-François Lalonde

Entrées-Sorties: Architectures de bus. GIF-1001 Ordinateurs: Structure et Applications, Hiver 2015 Jean-François Lalonde Entrées-Sorties: Architectures de bus GIF-1001 Ordinateurs: Structure et Applications, Hiver 2015 Jean-François Lalonde Architectures CPU/Mémoire/E-S Un ordinateur a cinq composantes de base: le(s) processeur(s)

Plus en détail

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau Résultats des benchmarks de HPC1 après ajout de 1 cœurs. Date : 6/9/212 Auteur : Ph Parnaudeau 1. Evolution de la configuration la plate forme de calcul du LJLL : HPC1 HPC1 1 Février 211 : UV1 est une

Plus en détail

1 Programmation Client/Serveur basée sur TCP/IP

1 Programmation Client/Serveur basée sur TCP/IP Outils Informatique pour l ingénieur TD 1 Réseau et Web IP, Client/serveur 1 Programmation Client/Serveur basée sur TCP/IP 1.1 Buts de cette réalisation Ce TP sur la programmation client/serveur a pour

Plus en détail

Architecture des ordinateurs. Mémoires (II) Licence Informatique - Université de Provence. Jean-Marc Talbot

Architecture des ordinateurs. Mémoires (II) Licence Informatique - Université de Provence. Jean-Marc Talbot Architecture des ordinateurs Licence Informatique - Université de Provence Jean-Marc Talbot Mémoires jtalbot@cmi.univ-mrs.fr L3 Informatique - Université de Provence () Architecture des ordinateurs 120

Plus en détail

C'est quoi la mémoire?

C'est quoi la mémoire? C'est quoi la mémoire? Ce sont des composants électroniques qui ont la particularité de retenir des informations. En informatique, l'information de base (l'alphabet des ordinateurs) est composée de deux

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 2 : Mémoires Sylvain Martel - INF6500 2 Cache Location Niveau 1 Niveau 2 Dimension Vitesse 0 WS 1 WS > 1 WS Type de cache Correspondance

Plus en détail

Gestion répartie de données - 1

Gestion répartie de données - 1 Gestion répartie de données - 1 Sacha Krakowiak Université Joseph Fourier Projet Sardes (INRIA et IMAG-LSR) http://sardes.inrialpes.fr/~krakowia Gestion répartie de données Plan de la présentation Introduction

Plus en détail

GESTION DE LA MEMOIRE

GESTION DE LA MEMOIRE GESTION DE LA MEMOIRE MEMOIRE CENTRALE (MC) MEMOIRE SECONDAIRE (MS) 1. HIÉRARCHIE ET DIFFÉRENTS TYPES DE MÉMOIRE... 2 2. MÉMOIRE CACHE... 3 3. MODÈLE D'ALLOCATION CONTIGUË (MC OU MS)... 5 3.1. STRATÉGIE

Plus en détail

Deuxième partie. Protocoles d exclusion mutuelle. Plan. Interférences et isolation. Isolation Protocoles d exclusion mutuelle

Deuxième partie. Protocoles d exclusion mutuelle. Plan. Interférences et isolation. Isolation Protocoles d exclusion mutuelle Plan Deuxième partie 1 2 Primitives de gestion des activités 2 / 26 4 / 26 Interférences et isolation Contenu de cette partie di cultés résultant d accès concurrents à un objet partagé mise en œuvre de

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique

Plus en détail

Chapitre 1 - Langages de description d architectures matérielles hybrides

Chapitre 1 - Langages de description d architectures matérielles hybrides Chapitre 1 - Langages de description d architectures matérielles hybrides «Hélas, tout a déjà été dit et on arrive trop tard!» (La Bruyère) Résumé La méthode MEDEVER nécessite la description de l architecture

Plus en détail

Introduction SIO Utilisation Conclusion Cluster au SIO

Introduction SIO Utilisation Conclusion Cluster au SIO Cluster au SIO ALBERT SHIH 1 1 Observatoire de Paris - Meudon 21 février 2008 Type de «machines» de calcul Mémoire partagée Tous les processeurs accèdent à toute la mémoire avec un même espace d adressage.

Plus en détail

CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES

CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES Trois types de formation LES FORMATEURS Les experts techniques AS+ Groupe EOLEN disposent d une réelle expérience pratique

Plus en détail

BD parallèles et réparties

BD parallèles et réparties LOG660 - Bases de données de haute performance BD parallèles et réparties Département de génie logiciel et des TI BD parallèles vs réparties BD réparties Les données se trouvent sur plusieurs sites (noeuds)

Plus en détail

FileMaker Pro 13. Utilisation d une Connexion Bureau à distance avec FileMaker Pro 13

FileMaker Pro 13. Utilisation d une Connexion Bureau à distance avec FileMaker Pro 13 FileMaker Pro 13 Utilisation d une Connexion Bureau à distance avec FileMaker Pro 13 2007-2013 FileMaker, Inc. Tous droits réservés. FileMaker, Inc. 5201 Patrick Henry Drive Santa Clara, Californie 95054

Plus en détail

Une stratégie efficace pour le placement de processus en environnement multicœur

Une stratégie efficace pour le placement de processus en environnement multicœur RenPar 9 / SympA 3 / CFSE 7 Toulouse, France, du 9 au septembre 2009 Une stratégie efficace pour le placement de processus en environnement multicœur Jérôme Clet-Ortega Université Bordeaux, LaBRI A29,

Plus en détail

Cours 13. RAID et SAN. 2004, Marc-André Léger

Cours 13. RAID et SAN. 2004, Marc-André Léger Cours 13 RAID et SAN Plan Mise en contexte Storage Area Networks Architecture Fibre Channel Network Attached Storage Exemple d un serveur NAS EMC2 Celerra Conclusion Démonstration Questions - Réponses

Plus en détail

Adaptation et expérimentation de l algorithme des trains dans le contexte des centres de données géorépliqués

Adaptation et expérimentation de l algorithme des trains dans le contexte des centres de données géorépliqués Adaptation et expérimentation de l algorithme des trains dans le contexte des centres de données géorépliqués dans le Cloud Etudiants : Trong Lam PHAN, Yaxiong OU Encadrant : Mr. Michel SIMATIC Octobre

Plus en détail

Le modèle client-serveur

Le modèle client-serveur Le modèle client-serveur Olivier Aubert 1/24 Sources http://www.info.uqam.ca/~obaid/inf4481/a01/plan.htm 2/24 Historique architecture centralisée terminaux passifs (un seul OS, systèmes propriétaires)

Plus en détail

Initiation au HPC - Programmation concurrente

Initiation au HPC - Programmation concurrente Initiation au HPC - Programmation concurrente Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 12 octobre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Programmation

Plus en détail

De l exécution structurée d applications scientifiques OpenMP sur architectures hiérarchiques

De l exécution structurée d applications scientifiques OpenMP sur architectures hiérarchiques N o d ordre : 4190 THÈSE présentée à L Université Bordeaux 1 École Doctorale de Mathématiques et Informatique par Monsieur François BROQUEDIS pour obtenir le grade de Docteur Spécialité : Informatique

Plus en détail

Les Systèmes d Exploitation: Concepts et Programmation

Les Systèmes d Exploitation: Concepts et Programmation Les Systèmes d Exploitation: d Concepts et Programmation Samia Bouzefrane MCF en Informatique, CNAM samia.bouzefrane@cnam.fr http://cedric.cnam.fr/~bouzefra Samia Bouzefrane, Cours SYSTEME 1 Introduction

Plus en détail

Le Network File System de Sun (NFS)

Le Network File System de Sun (NFS) 1 sur 5 Le Network File System de Sun (NFS) Le Network File System de Sun (NFS) Architecture Protocoles Mounting Automounting vs Static mounting Directory et accès aux fichiers Problèmes Implémentation

Plus en détail

Concept des VLAN Introduction au VLAN virtuel

Concept des VLAN Introduction au VLAN virtuel Les VLAN Sommaire 1.Concept des VLAN 1.1.Introduction au VLAN virtuel 1.2.Domaines de broadcast avec VLAN et routeurs 1.3.Fonctionnement d un VLAN 1.4.Avantages des LAN virtuels (VLAN) 1.5.Types de VLAN

Plus en détail

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration.

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration. Windows 2000: Introduction W2K: Architecture Système d'exploitation multitâche multithread 32 bits à architecture SMP. Multiplateforme: intel x86, Compaq Alpha Jusqu'à 64 Go de mémoire vive Système d'exploitation

Plus en détail

Les Entrées et Sorties: Programmées, interruptions, et DMA. GIF-1001 Ordinateurs: Structure et Applications, Hiver 2015 Jean-François Lalonde

Les Entrées et Sorties: Programmées, interruptions, et DMA. GIF-1001 Ordinateurs: Structure et Applications, Hiver 2015 Jean-François Lalonde Les Entrées et Sorties: Programmées, interruptions, et DMA GIF-1001 Ordinateurs: Structure et Applications, Hiver 2015 Jean-François Lalonde Aujourd hui Entrées-sorties Programmées Par interruptions Le

Plus en détail

Architecture des Ordinateurs. Partie II:

Architecture des Ordinateurs. Partie II: Architecture des Ordinateurs Partie II: Définition: On appelle mémoire tout composant électronique capable de stocker temporairement des données. Catégories: On distingue plusieurs catégories de mémoires

Plus en détail

Exécution des applications réparties

Exécution des applications réparties Exécution des applications réparties Programmation des Applications Réparties Olivier Flauzac URCA Master STIC-Informatique première année Olivier Flauzac (URCA) PAR : Exécution des applications réparties

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail