Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs



Documents pareils
INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

Initiation au HPC - Généralités

Architecture des ordinateurs

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

Architecture des calculateurs

Webinar ORACLE LE LICENSING ORACLE Quel type de licensing choisir?

Windows Server Chapitre 1: Découvrir Windows Server 2008

Les environnements de calcul distribué

Parallélisme et Répartition

THÈSE. Pour obtenir le grade de. Spécialité : Informatique. Arrêté ministériel : 7 août Présentée et soutenue publiquement par.

Pour obtenir le grade de. Arrêté ministériel : 7 août Sylvain Genevès

Chapitre 01 Généralités

Happy birthday ZSet High performance computing dans ZSet

Eléments d architecture des machines parallèles et distribuées

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E GHz

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I

Introduction à la Programmation Parallèle: MPI

HP 600PD TWR i G 4.0G 39 PC

Segmentation d'images à l'aide d'agents sociaux : applications GPU

Gestion de clusters de calcul avec Rocks

Virtualisation, licences, multicoeurs,...

<Insert Picture Here> Solaris pour la base de donnés Oracle

Solutions de gestion de la sécurité Livre blanc

Tout savoir sur le matériel informatique

Matériel & Logiciels (Hardware & Software)

Introduction aux environnements de virtualisation d'oracle Solaris 11.1

Fiche technique CPU 315SN/PN (315-4PN33)

Tests de performance du matériel

Eric Bertrand 08/11/06 Maître de conférence 1

THÈSE. pour obtenir le grade de. Spécialité : "Informatique : Systèmes et Communications"

Quantification d incertitude et Tendances en HPC

Une méthode de conception de systèmes sur puce

À qui s adresse cet ouvrage?

Chapitre 2. Cluster de calcul (Torque / Maui) Grid and Cloud Computing

Passage à l échelle d applications java distribuées auto-adaptatives

Rapport d activité. Mathieu Souchaud Juin 2007

Chapitre 4 : Les mémoires

Exchange 2007 : Améliorations et nouvelles fonctionnalités Atelier 136. Société GRICS

Systèmes et traitement parallèles

Exécution des instructions machine

La continuité de service

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

Contribution à la conception à base de composants logiciels d applications scientifiques parallèles.

CUOMO PC Route d Oron Lausanne 021/

Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace

INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE

Etude d architecture de consolidation et virtualisation

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant R&T 1ère année. Sylvain MERCHEZ

Virtualisation des Serveurs et du Poste de Travail

en version SAN ou NAS

Multiprogrammation parallèle générique des méthodes de décomposition de domaine

Spécialité Professionnelle. Patrick Boulandet

WebSphere MQ & Haute Disponibilité

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Base de l'informatique. Généralité et Architecture Le système d'exploitation Les logiciels Le réseau et l'extérieur (WEB)

PowerShield 3 fournit toutes les informations nécessaires pour un diagnostic de premier niveau.

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données

vbladecenter S! tout-en-un en version SAN ou NAS

PRÉ-REQUIS ET INSTALLATION SERVEUR

Présentation et description détaillée du S8400 Media Server

THÈSE DE DOCTORAT DE L UNIVERSITÉ PIERRE ET MARIE CURIE

sur ce site :

Guide de gestion des ressources de vsphere

PERFORMANCE ET DISPONIBILITÉ DES SI

Le concept de virtualisation regroupe

Virtualisation des ressources serveur. Exemple : Systèmes partitionnés sous HP-UX et Oracle

Systèmes en réseau : Linux 1ère partie : Introduction

Systèmes d exploitation

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

Pré-requis techniques. Yourcegid Secteur Public On Demand Channel

Exploitation efficace des architectures parallèles de type grappes de NUMA à l aide de modèles hybrides de programmation

Windows serveur 2008 installer hyperv

Editeur de solutions innovantes C 3. Solution globale managée de communication et de téléphonie sur IP

Symantec Backup Exec.cloud

Systèmes à haute disponibilité :

PACKZ System Requirements. Version: Version: Copyright 2015, PACKZ Software GmbH. 1

Clusters de PCs Linux

Les hyperviseurs leaders du marché qui ont fait leurs preuves en production

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows W2K pro: configuration.

Windows 7 - Installation du client

Présentation du déploiement des serveurs

UN EXEMPLE DE CYBERENSEIGNEMENT EN CHIMIE

<Insert Picture Here> Exadata Storage Server et DB Machine V2

A. Elmrabti. To cite this version: HAL Id: tel

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

IBM Software Group. Migration vers Tivoli Workload Scheduler. Philippe TESSIER 2009 IBM Corporation

Alcatel-Lucent VitalQIP Appliance Manager

Configuration système requise pour les grandes et moyennes entreprises

CommandCenter Secure Gateway

Lotus Notes et Domino 8.5 Administration de serveurs Domino

Cours 13. RAID et SAN. 2004, Marc-André Léger

Spécifications détaillées

Par CADICI Grégory & FRITZ Rémy

Introduction à l architecture des ordinateurs. Adrien Lebre Décembre 2007

Leçon 1 : Les principaux composants d un ordinateur

Pré-requis techniques

V3 - Une Appliance Conçue pour le VDI

La valeur des SSD partagés dans l'informatique d'entreprise

Transcription:

Modèle de Machine 1a: Mém. Partagée Tous les processeurs sont connectés à une large partagée. Appelée Symmetric Multiprocessors (SMPs) SMPs de Sun, HP, Intel, IBM Puces Multicoeur, exceptées celles qui partagent tous les caches Difficulté de s étendre à de grands nombres de processeurs <= 32 processeurs en général Avantage: uniform memory access (UMA) Coût: accès aux données dans la cache plus rapide à celles de la MC. P1 P2 Pn bus partagé Note: = cache 18

Modèle de Machine 1b: Processeur Multithreadé Multiples contexts de thread full processors Partage de et d autres états Processeur Sun Niagra (pour serveurs) 64 threads s exécutent simultanément (8 threads x 8 coeurs) En plus du partage de la, les threads partagent unités de virgule flottantes Pourquoi? Basculer entre les threads pour les opérations de à temps de latence élevé T0 T1 Tn partagé, unités de virgule flottantes partagées, etc. Mémoire 19

Pourquoi l Hyperthreding? Thread Thread 4 Thread 3 Thread 2 Thread 1 Calcul Accès Un seul Thread Calcul Temps Accès Plusieurs Thread Temps La latence de la présente un frein au temps d exécution Un seul thread : taux d utilisation 15-25% Solution : trouver un calcul à faire durant les accès Hyperthreading (Plusieurs threads) : taux d utilisation > 85% 20

Chip Multithreading CMP: Chip that provide MultiProcessing. Architecture Muticoeurs : plusieurs cœurs par processeur HMT: Hardware MultiThreading. Plusieurs threads par cœur CMT: Chip MultiThreading Combine les 2 technologies Plusieurs cœurs par processeur, et chaque cœur supporte plusieurs threads ref : J. Zhang 21

Modèle de Machine 1c: Mémoire Distribuée Partagée La est logiquement partagée, mais physiquement distribuée Tout processeur peut accéder à n'importe quelle adresse en Lignes de cache sont échangés entre les machines Machines SGI (Silicon Graphics) Jusqu à 512 processeurs (SGI Altix) Limitation : cohérence de cache. Comment garder des copies en cache de la même adresse cohérentes P1 P2 réseau Pn Lignes de caches doivent être suffisament grandes pour amortir le surcoût la localité reste critique à la performance 22

Modèle de programmation 2: Passage de Message Un programme consiste en une collection de processus nommés. En général fixé au moment du démarrage du programme Thread de contrôle et espace d'adresses local - pas de données partagées. Les données logiquement partagées sont partitionnées entre les processus locaux. Les processus communiquent explicitement par des paires send/receive La coordination est implicite dans chaque événement de communication. MPI (Message Passing Interface) est le plus utilisé Mémoire Privée s: 12 s: 14 receive Pn,s s: 11 y =..s... i: 2 i: 3 i: 1 P0 P1 send P1,s Pn Réseau 23

Calculer s = A[1]+A[2] par chaque processeur 1ère solution Processeur 1 xlocal = A[1] send xlocal, proc2 receive xremote, proc2 s = xlocal + xremote Processeur 2 xlocal = A[2] send xlocal, proc1 receive xremote, proc1 s = xlocal + xremote 2ème solution Processor 1 xlocal = A[1] send xlocal, proc2 receive xremote, proc2 s = xlocal + xremote Processor 2 xlocal = A[2] receive xremote, proc1 send xlocal, proc1 s = xlocal + xremote Si on dispose de plus que 2 processeurs? 24

Modèle de Machine 2a: Mémoire Distribuée Clusters de PC IBM SP-3 est une machine à mém. distribuée, mais les noeuds sont des SMPs. Chaque processeur posséde ses propres et cache et ne peut pas accéder directement à la d un autre processeur Chaque noeud dispose d une interface réseau (IR) pour toutes les communications et synchronisations. P0 IR P1 IR Pn IR... interconnection Modèle de Machine 2b Grilles de calcul 25