I. Introduction. Quelques définitions (qu est-ce qu une machine parallèle, un programme parallèle, pourquoi le parallélisme?)

Dimension: px
Commencer à balayer dès la page:

Download "I. Introduction. Quelques définitions (qu est-ce qu une machine parallèle, un programme parallèle, pourquoi le parallélisme?)"

Transcription

1 I. Introduction Quelques définitions (qu est-ce qu une machine parallèle, un programme parallèle, pourquoi le parallélisme?) Différents types d architectures parallèles Programmation parallèle Mesure du parallélisme Limitations du parallélisme Langages et outils Complément: notions de vectorisation Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

2 II.Quelques définitions Machine parallèle Ensemble formé de processeurs interconnectés Programme parallèle But: Programme pouvant s exécuter simultanément sur plusieurs processeurs de manière à effectuer un travail commun. augmenter les performances des programmes augmenter pour un même programme la taille des données et le nombre de calculs écrire des programmes inconcevables sur une machine séquentielle Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

3 III. Types d architectures parallèles Machines à mémoire distribuée (IBMSP2, CRAYT3E) homogènes Machines à mémoire partagée (Cray YMP, Xeon, SGI O2000: 2 processeurs) hétérogènes (réseau de stations de travail) Machines à mémoire distribuée, globalement adressable (Tera MTA, SGI O2000) IV. Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

4 V.Programmation parallèle Contraintes du parallélisme Différents types de parallélisme Modèles de programmation Quelques conseils pour la programmation parallèle Parallélisation des itérations : étude des dépendances Distribution des tableaux Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

5 A.Contraintes du parallélisme Programme parallèle : Programme pouvant s exécuter simultanément sur plusieurs processeurs de manière à effectuer un travail commun. On considère une application séquentielle comme constituée par des actions indépendantes les unes des autres donc pouvant être effectuées simultanément sur des processeurs différents Dépendances 2 tâches sont dépendantes si les données de l une sont modifiées par l autre Synchronisation Ordre dans lequel les processeurs exécutent les tâches pour respecter les dépendances Communication Echanger les données entre les processeurs (machines distribuées) Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

6 B. C.Différents types de parallélisme Parallélisme de contrôle ou de tâche : apparaît lorsque plusieurs actions sont indépendantes et peuvent être exécutées simultanément dégager les parties indépendantes du programme et construire le graphe des dépendances entre ces tâches. Répartir ces tâches sur les processeurs et les synchroniser de manière optimale (problème d allocation de ressources) Parallélisme de données : apparait lorsque la même action est répétée sur des données différentes, de type identique (traitement d un tableau dans une itération) Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

7 0do i=1,n 1 a(i)=b(i)+ c(i) 2enddo En programmation distribuée, les données sont réparties aux processeurs et chaque processeur exécute cette action sur les données qui lui appartiennent. La répartition du travail est alors gérée par la position des données sur les processeurs D.Modèles de programmation Caractérise le langage de programmation SPMD («single program, multiple data») : le même programme s exécute sur tous les processeurs qui travaillent sur des données différentes adapté au parallélisme de données Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

8 MIMD («multiple instructions, multiple data») : des programmes différents s exécutent sur les processeurs adapté au parallélisme de tâches Remarque: On peut faire du parallélisme de tâches en mode SPMD et vice-versa Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

9 E.Quelques conseils pour la programmation parallèle Pas d approche standard En général, on parallélise un programme séquentiel existant Avant de paralléliser : optimiser le programme séquentiel options du compilateur étude des boucles (cache) Différentes possibilités : utiliser un paralléliseur utiliser des bibliothèques parallèles recoder repérer les parties consommatrices de CPU avec un analyseur («profiler»), en général les itérations dégager parallélisme de tâches dégager parallélisme de données analyser les dépendances Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

10 choisir le mode de programmation et le langage le mieux adapté modifier l'algorithme et le concevoir en parallèle F.Parallélisation des itérations : étude des dépendances 1. Parallélisation d une itération Exemple : do i=1, 4 a(i)=b(i) enddo sur 2 processeurs En programmation distribuée: distribution des données sur les processeurs 0P0: 1A(1:2) 2B(1:2) 3P1: 4A(3:4) 5B(3:4) répartition du travail sur les processeurs: Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

11 6P0: 7do i=1,2 8 A(i)=B(i) 9enddo 10P1: 11do i=3,4 12 A(i)=B(i) 13enddo En programmation partagée: répartition du travail sur les processeurs Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

12 2. Notion de dépendance 14Définition: Une boucle est parallélisable s il n y a pas de dépendance entre les itérations; deux itérations sont dépendantes si une donnée de l une est le résultat de l autre. 15 Exemple: Remarques: 3do i=2,n 4 A(i)= A(i-1) 5end do Ne pas paralléliser inutilement une boucle qui ne contient pas assez de calcul -> dégradation des performances Au contraire: une boucle peut ne pas être parallélisable à cause d une fausse dépendance Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

13 3. Examen des indices de boucles 6do i=2,n 7 A(i)= B(i-1) 8end do Parallélisable: (avec communications dans une programmation distribuée) 9do i=1,n 10 A(i)= A(i+M) 11end do Parallélisable si N<M avec communications dans une programmation distribuée sans communication en mémoire partagée Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

14 4. Analyse des constantes a) Fausse dépendance: variables temporaires 12do i=1,n 13 X=A(i)+B(i) 14 C(i)=X+B(i)*X 15end do Parallélisable: il faut déclarer X comme une variable locale b) Utilisation d indexes 16index=0 17do i=1,n 18 index=index+i 19 A(i)= B(i)+C(index) 20end do Non parallélisable ; cependant, dans ce cas, il est possible de lever la dépendance en transformant le programme et en déclarant index comme variable locale (HPF, OpenMP): Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

15 21index=0 22do i=1,n 23 index=(i*(i+1))/2 24 A(i)= B(i)+C(index) 25end do Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

16 5. Réductions 26do i=1,n 27 SUM=A(i)+SU M 28end do Semi-Parallélisable: il y a dépendance mais il est possible de faire calculer des sommes partielles par tous les processeurs et rassembler les résultats à la fin ; Les principaux langages parallèles disposent de ce mécanisme de réduction qu il suffit de déclarer (MPI, HPF, OpenMP) 6. Eclatement des boucles 29do i=n-1,1,-1 30 A(i)=B(i) 31 C(i)=A(i+1) 32end do Parallélisable en HPF, non parallélisable en OpenMP (voir cours correspondants) Remède en OpenMP: éclatement de la boucle Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

17 33do i=n-1,1,-1 34 A(i)=B(i) 35enddo 36do i=n-1,1,-1 37 C(i)=A(i+1) 38end do Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

18 G.Distribution des tableaux 1. Distribution par bloc a) Tableaux 1 dimension: 16P0: 17A(1:2) 18P1: 19A(3:4) b) Tableaux multi-dimensions: (i) Distribution par bloc simple 20P0: 21A(1:4,1:4) 24P2: 25A(5:8,1:4) 22P1: 23A(1:4,5:8) 26P3: 27A(1:4,5:8) (ii) Distribution par bloc-ligne 28P0: 29A(1:4,1:8) 30P1: 31A(5:8,1:8) (iii) Distribution par bloc-colonne 32P0: 33A(1:8,1:4) 34P1: 35A(1:8,5:8 ) Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

19 2. Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

20 3. Distribution cyclique a) Tableaux 1 dimension: P0: P1: A(1), A(3) A(2),A(4) b) Tableaux multi-dimensions: 36P0: 37A(1,1),A(1,3) 38A(3,1),A(3,3) 42P2: 43A(2,1),A(2,3) 44A(4,1),A(4,3) 39P1: 40A(1,2),A(1,4) 41A(3,2),A(3,4) 45P3: 46A(2,2),A(2,4) 47A(4,2),A(4,4) 4. Distribution bloc-cyclique 5. 48P0: 49A(1,1),A(1,3) 50A(2,1),A(2,3) 54P2: 55A(3,1),A(3,3) 56A(4,1),A(4,3) 51P1: 52A(1,2),A(1,4) 53A(2,2),A(2,4) 57P3: 58A(3,2),A(3,4) 59A(4,2),A(4,4) Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

21 6. Choix de la distribution Choisir la distribution qui engendre le minimum de communications: Exemple: 39do i=2,n 40 a(i)=b(i-1) 41enddo distribution cyclique: une communication pour chaque itération distribution par bloc: une communication par bloc Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

22 VI.Mesure du parallélisme Calcul des performances Accélération Efficacité Scalabilité Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

23 A.Calcul des performances 60Le calcul des performances d un programme parallèle diffère de celui d un programme séquentiel 61En effet, il y a 2 manières de calculer les performances: temps CPU (temps de calcul pur) temps réel (temps de restitution du programme) 62Pour un programme séquentiel, il suffit de calculer le temps CPU 63Pour un programme parallèle, il faut prendre en compte le temps occupé par les synchronisations et les communications; il faut donc calculer le temps réel; or ce temps réel prend aussi en compte le temps des autres processus en exécution si l on travaille en temps partagé. 64Le calcul des performances d un programme parallèle n a donc de sens que sur une machine dédiée. 65Le calcul des performances se fait soit: à l aide de la commande 42time 66qui délivre le temps réél et le temps CPU Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

24 par l appel à une fonction de calcul du temps réél qui dépend de la machine sur laquelle on travaille Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

25 B.Accélération Mesure l accroissement de performances d un programme parallèle en fonction du nombre N de processeurs A(N)= T séquentiel /T parallèle (N) Cas idéal (linéaire) quand A(N)=N Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

26 C.Efficacité Quantifie le degré d utilisation des ressources parallèles : E=A(N) /N D.«Scalabilité» Mesure la capacité d un programme à voir ses performances augmenter en fonction du nombre de processeurs Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

27 S = T parallèle (k*n) / T parallèle (N) Le programme est «scalable» si S est proche de k 67 Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

28 VII.Limitations du parallélisme La performance d un programme parallèle par rapport à un programme séquentiel est limitée par : le degré de parallélisme qu il comporte les conséquences de la synchronisation le temps consommé par les communications dans le cas de la programmation distribuée le temps d accès à la mémoire d un autre processeur dans le cas de la programmation mémoire virtuellement partagée la charge des processeurs Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

29 A.Degré de parallélisme Degré de parallélisme: le nombre d actions qui peuvent s exécuter en parallèle Loi d Amdhal : exprime l accélération théorique d un programme parallèle en fonction de son degré de parallélisme A(N) = T séquentiel /T parallèle (N) Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

30 On pose : T p = p* T séquentiel et T s =(1-p)* T séquentiel où p est le pourcentage de partie parallèle On suppose : T parallèle =T s +T p /N On obtient: A(N)=1/( (1-p) +(p/n) ) < 1/(1-p) 68Accélération limitée par l inverse de la fraction séquentielle Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

31 B.Les conséquences de la synchronisation Remède : équilibrer la charge des processeurs Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

32 C.Le temps consommé par les communications latence : temps pris pour initialiser une communication bande passante : temps de transfert Remèdes : calculer la valeur de la donnée distante au lieu de la recevoir du processeur distant qui la possède calculer pendant les transferts regrouper les communications en un seul transfert Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

33 D.Charge des processeurs 69Si l exécution d un programme parallèle a lieu en temps partagé et que la charge des processeurs est déséquilibrée, ses performances peuvent être dégradées au point d être moins bonnes que celles du programme séquentiel équivalent. 70Exemple: VIII.Langages Langages basés sur Fortran et C Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

34 Choix du langage Classification suivant l architecture des machines Classification des langages distribués Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

35 A.Choix du langage Choix suivant l architecture de la machine Compromis entre facilité de programmation portabilité des programmes performances du langage sur une machine donnée modèle de programmation choisi Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

36 B.Classification suivant l architecture des machines Machines à mémoire distribuée Machines à mémoire partagée et Machines à mémoire distribuée, globalement adressable Langages«Message passing» Langages «Data parallel» Fortran ou C parallel: le standard est OpenMP Langages«Message passing» et Langages «Data parallel» possibles Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

37 Langages permettant les échanges de messages («Message passing») Le programme est divisé en plusieurs programmes (ou tâches) identiques ou différents qui se synchronisent et communiquent entre eux par des envois et réception de messages explicites (appel à des bibliothèques: PVM, MPI principalement) Langages «Data parallel» (parallélisme de données) Un seul programme s exécute sur tous les processeurs. Les données sont distribuées aux processeurs. Chaque processeur travaille sur ses données locales. L accès à une donnée non locale à un processeur engendre une communication implicite avec celui qui la possède (HPF principalement : Fortran + directives) La synchronisation est elle aussi implicite. Fortran ou C parallel type OpenMP Le programme est divisé en régions séquentielles et parallèles Le programme s exécute selon le modèle maître/esclave (threads) Le maître distribue le travail aux esclaves lorsqu il rencontre une région parallèle Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

38 Les threads ont accès à toute la mémoire; 2 types de variables : partagées: modifiables par tous les threads privées: modifiables par un seul thread C.Classification des langages distribués PVM MPI HPF Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

39 Modèle MIMD Utilisable en milieu hétérogène Messages explicites Portable Gestion dynamique des processus Modèle SPMD Utilisable en milieu hétérogène Messages explicites Portable Futur standard Plus évolué que PVM Modèle SPMD Non utilisable en milieu hétérogène Messages implicites Portable N existe pas sur toutes les machines Beaucoup moins performant que PVM et MPI Plus facile à programmer Plus difficile à bien programmer IX. Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

40 X.Compilateurs et bibliothèques existants Chaque constructeur possède un compilateur ou une bibliothèque «propriétaire» dont l implémentation est optimisée pour cette machine. Par ailleurs, il existe pour chaque type de parallélisme, des bibliothèques et compilateurs standard: HPF: pghpf (Portland group) MPI: MPICH PVM standard Langages pour mémoire partagée: OpenMP Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

41 XI. Outils Debuggers Paralléliseurs xpvm: debugger pour PVM xpdbx: debugger pour HPF et MPI xldb: debugger pour MPI sur IBM Adaptor (domaine public) Forge90 Bibliothèques scientifiques parallèles NAG PVM SCALAPACK (LAPACK PVM) PBLAS Outils d aide à la programmation PVM Hence : "Visual PVM Programming": aide à la construction de programmes PVM Paragraph : outil de trace d'exécution Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

42 Analyse des performances pgprof: analyse des programmes HPF de PGI (pghpf) prodev: analyse des programmes sur SGI Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

43 XII.Annexe : Description des machines utilisées pour les exercices A.SP2 d IBM 73 Machine parallèle à mémoire distribuée 12 processeurs P2SC Système AIX interconnectés par swich HPS (high performance switch) réseau Ethernet Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

44 B.Origin 2000 de Silicon Graphics Machine parallèle à mémoire partagée 2 racks interconnectés contenant 4 processeurs R10000 Système IRIX Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

45 XIII.Compléments: notions de vectorisation Architecture vectorielle Application Programmation vectorielle Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

46 A.Architecture vectorielle Architecture simplifiée d une machine vectorielle, basée sur le CRAYYMP Fonctionnement: le registre vectoriel est chargé avec un nombre de mots mémoire égal à sa taille chaque unité fonctionnelle est divisée en plusieurs étapes activée à chaque fréquence d horloge (architecture «pipeline») les éléments successifs du registre vectoriel entrent dans une unité fonctionnelle à chaque étape, i.e., une instruction commence avant que la précédante soit terminée Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

47 B.Application Itérations faisant intervenir des tableaux où la même opération est répétée sur leurs éléments Exemple 43do i=1,8 44 a(i)=a(i)+10 45enddo 74 Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

48 C.Programmation vectorielle Définition Une boucle est vectorisable si elle fait intervenir des opérations sur un registre vectoriel Les conditions suivantes sont nécessaires pour qu une boucle soit vectorisable: 75 76Exemple la boucle est la plus intérieure contient au moins une référence à un tableau toutes les variables sont: des invariants (référencés et non redéfinis dans la boucle) des références à un tableau dont l index est redéfini dans la boucle des entiers incrémentés, décrémentés par expressions invariantes (index de boucle) scalaires temporaires (définis puis référencés dans la boucle et non utilisées à l extérieur) les itérations sont sans conflit de dépendance : deux itérations successives i1 et i2 sont en conflit si une instruction e1 contenue dans i2 a pour résultat la donnée d une instruction e2 contenue dans i1 et si e2 succède e1. (Remarque: ceci est moins contraignant que l indépendance qui conditionne le parallélisme, v.p. 12) Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

49 77do i=1,n-1 78A(i)=B(i) 79C(i)=A(i+1) 80end do 81non vectorisable 46 82do i=n-1,1,-1 83A(i)=B(i) 84C(i)=A(i+1) 85end do 86vectorisable Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

50 Optimisation de la vectorisation: Faire en sorte que le registre vectoriel soit chargé avec des éléments consécutifs en mémoire sachant que pour les tableaux multi-dimensionnés, l ordre des éléments des tableaux en mémoire est différent suivant les langages (inverser l ordre des boucles si besoin est) Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

51 XIV.Table des matières I.INTRODUCTION...1 II.QUELQUES DÉFINITIONS...2 III. TYPES D ARCHITECTURES PARALLÈLES...3 V.PROGRAMMATION PARALLÈLE...4 A.Contraintes du parallélisme...5 C.Différents types de parallélisme...6 D.Modèles de programmation...7 E.Quelques conseils pour la programmation parallèle...9 F.Parallélisation des itérations : étude des dépendances Parallélisation d une itération Notion de dépendance Examen des indices de boucles Analyse des constantes...14 a)fausse dépendance: variables temporaires...14 b)utilisation d indexes Réductions Eclatement des boucles...16 G.Distribution des tableaux Distribution par bloc...18 Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

52 a)tableaux 1 dimension:...18 b)tableaux multi-dimensions:...18 (i)distribution par bloc simple...18 (ii)distribution par bloc-ligne...18 (iii)distribution par bloc-colonne Distribution cyclique...20 a)tableaux 1 dimension:...20 b)tableaux multi-dimensions: Distribution bloc-cyclique Choix de la distribution...21 VI.MESURE DU PARALLÉLISME...22 A.Calcul des performances...23 B.Accélération...25 C.Efficacité...26 D.«Scalabilité»...26 VII.LIMITATIONS DU PARALLÉLISME...28 A.Degré de parallélisme...29 B.Les conséquences de la synchronisation...31 C.Le temps consommé par les communications...32 D.Charge des processeurs...33 VIII.LANGAGES...33 A.Choix du langage...35 B.Classification suivant l architecture des machines...36 C.Classification des langages distribués...38 Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

53 X.COMPILATEURS ET BIBLIOTHÈQUES EXISTANTS...40 XI. OUTILS...41 XII.ANNEXE : DESCRIPTION DES MACHINES UTILISÉES POUR LES EXERCICES...43 A.SP2 d IBM...43 B.Origin 2000 de Silicon Graphics...44 XIII.COMPLÉMENTS: NOTIONS DE VECTORISATION...45 A.Architecture vectorielle...46 B.Application...47 C.Programmation vectorielle...48 XIV.TABLE DES MATIÈRES Marie Flé - C.R.I Généralités Parallélisme 18/11/2002

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

Systèmes et traitement parallèles

Systèmes et traitement parallèles Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

CH.3 SYSTÈMES D'EXPLOITATION

CH.3 SYSTÈMES D'EXPLOITATION CH.3 SYSTÈMES D'EXPLOITATION 3.1 Un historique 3.2 Une vue générale 3.3 Les principaux aspects Info S4 ch3 1 3.1 Un historique Quatre générations. Préhistoire 1944 1950 ENIAC (1944) militaire : 20000 tubes,

Plus en détail

Évaluation et implémentation des langages

Évaluation et implémentation des langages Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation

Plus en détail

Métriques de performance pour les algorithmes et programmes parallèles

Métriques de performance pour les algorithmes et programmes parallèles Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

Performances et optimisations

Performances et optimisations Performances et optimisations Outils pour le calcul scientifique à haute performance École doctorale sciences pour l ingénieur juin 2001 Philippe MARQUET phm@lifl.fr Laboratoire d informatique fondamentale

Plus en détail

Optimisation de logiciels de modélisation sur centre de calcul

Optimisation de logiciels de modélisation sur centre de calcul Optimisation de logiciels de modélisation sur centre de calcul Gérald Monard Pôle de Chimie Théorique http://www.monard.info/ Introduction Les ordinateurs sont des appareils électroniques permettant d

Plus en détail

Limitations of the Playstation 3 for High Performance Cluster Computing

Limitations of the Playstation 3 for High Performance Cluster Computing Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire

Plus en détail

Introduction à la Programmation Parallèle: MPI

Introduction à la Programmation Parallèle: MPI Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4

Plus en détail

Communications performantes par passage de message entre machines virtuelles co-hébergées

Communications performantes par passage de message entre machines virtuelles co-hébergées Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction

Plus en détail

//////////////////////////////////////////////////////////////////// Administration bases de données

//////////////////////////////////////////////////////////////////// Administration bases de données ////////////////////// Administration bases de données / INTRODUCTION Système d informations Un système d'information (SI) est un ensemble organisé de ressources (matériels, logiciels, personnel, données

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences

Plus en détail

Cours Informatique Master STEP

Cours Informatique Master STEP Cours Informatique Master STEP Bases de la programmation: Compilateurs/logiciels Algorithmique et structure d'un programme Programmation en langage structuré (Fortran 90) Variables, expressions, instructions

Plus en détail

GPA770 Microélectronique appliquée Exercices série A

GPA770 Microélectronique appliquée Exercices série A GPA770 Microélectronique appliquée Exercices série A 1. Effectuez les calculs suivants sur des nombres binaires en complément à avec une représentation de 8 bits. Est-ce qu il y a débordement en complément

Plus en détail

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ MODULE I1 Plan Chapitre 1 Qu'est ce qu'un S.E? Introduction Historique Présentation d'un S.E Les principaux S.E R&T 1ère année Votre environnement Sylvain MERCHEZ Introduction Introduction Rôles et fonctions

Plus en détail

Protection des données avec les solutions de stockage NETGEAR

Protection des données avec les solutions de stockage NETGEAR Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Asynchronisme : Cadres continu et discret

Asynchronisme : Cadres continu et discret N d ordre : 151 Année 2006 HABILITATION À DIRIGER DES RECHERCHES UNIVERSITÉ DE FRANCHE-COMTÉ Spécialité Informatique présentée par Sylvain CONTASSOT-VIVIER Docteur en Informatique Sujet Asynchronisme :

Plus en détail

Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction

Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction Plan du cours Autres modèles pour les applications réparties Introduction Riveill@unice.fr http://rangiroa.polytech.unice.fr Notre terrain de jeu : les systèmes répartis Un rappel : le modèle dominant

Plus en détail

CONFIGURATION DE L AUTOMATE SIEMENS

CONFIGURATION DE L AUTOMATE SIEMENS CONFIGURATION DE L AUTOMATE SIEMENS Créer un projet Dans le bureau de Windows, double-cliquer sur l icône «SIMATIC Manager» : Cliquer ensuite sur l icône «nouveau» : Choisir un nom de projet et valider

Plus en détail

White Paper - Livre Blanc

White Paper - Livre Blanc White Paper - Livre Blanc Développement d applications de supervision des systèmes d information Avec LoriotPro Vous disposez d un environnement informatique hétérogène et vous souhaitez à partir d une

Plus en détail

Multiprogrammation parallèle générique des méthodes de décomposition de domaine

Multiprogrammation parallèle générique des méthodes de décomposition de domaine Multiprogrammation parallèle générique des méthodes de décomposition de domaine Andréa Schwertner-Charão To cite this version: Andréa Schwertner-Charão. Multiprogrammation parallèle générique des méthodes

Plus en détail

<Insert Picture Here> Solaris pour la base de donnés Oracle

<Insert Picture Here> Solaris pour la base de donnés Oracle Solaris pour la base de donnés Oracle Alain Chéreau Oracle Solution Center Agenda Compilateurs Mémoire pour la SGA Parallélisme RAC Flash Cache Compilateurs

Plus en détail

Plan du cours 2014-2015. Cours théoriques. 29 septembre 2014

Plan du cours 2014-2015. Cours théoriques. 29 septembre 2014 numériques et Institut d Astrophysique et de Géophysique (Bât. B5c) Bureau 0/13 email:.@ulg.ac.be Tél.: 04-3669771 29 septembre 2014 Plan du cours 2014-2015 Cours théoriques 16-09-2014 numériques pour

Plus en détail

Conception de circuits numériques et architecture des ordinateurs

Conception de circuits numériques et architecture des ordinateurs Conception de circuits numériques et architecture des ordinateurs Frédéric Pétrot Année universitaire 2014-2015 Structure du cours C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 Codage des nombres en base 2, logique

Plus en détail

Quantification d incertitude et Tendances en HPC

Quantification d incertitude et Tendances en HPC Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Formation en Calcul Scientifique - LEM2I Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Introduction Décoder la relation entre l architecture et les applications

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Efficace et ciblée : La surveillance des signaux de télévision numérique (2)

Efficace et ciblée : La surveillance des signaux de télévision numérique (2) Efficace et ciblée : La surveillance des signaux de télévision numérique (2) La première partie de cet article publié dans le numéro 192 décrit la méthode utilisée pour déterminer les points de surveillance

Plus en détail

PVM 1 PVM. Parallel Virtual Machine

PVM 1 PVM. Parallel Virtual Machine PVM 1 PVM Parallel Virtual Machine Jalel Chergui Messagerie : Jalel.Chergui@idris.fr Jean-Michel Dupays Messagerie : dupays@idris.fr PVM Plan 2 1 Introduction................. 5 1.1 Concepts de l échange

Plus en détail

Partie 7 : Gestion de la mémoire

Partie 7 : Gestion de la mémoire INF3600+INF2610 Automne 2006 Partie 7 : Gestion de la mémoire Exercice 1 : Considérez un système disposant de 16 MO de mémoire physique réservée aux processus utilisateur. La mémoire est composée de cases

Plus en détail

Tests de performance du matériel

Tests de performance du matériel 3 Tests de performance du matériel Après toute la théorie du dernier chapitre, vous vous demandez certainement quelles sont les performances réelles de votre propre système. En fait, il y a plusieurs raisons

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Introduction à MATLAB R

Introduction à MATLAB R Introduction à MATLAB R Romain Tavenard 10 septembre 2009 MATLAB R est un environnement de calcul numérique propriétaire orienté vers le calcul matriciel. Il se compose d un langage de programmation, d

Plus en détail

Table des matières Avant-propos... V Scripting Windows, pour quoi faire?... 1 Dans quel contexte?

Table des matières Avant-propos... V Scripting Windows, pour quoi faire?... 1 Dans quel contexte? Avant-propos... V CHAPITRE 1 Scripting Windows, pour quoi faire?... 1 Dans quel contexte?.................................................. 1 La mauvaise réputation............................................

Plus en détail

Prise en compte des ressources dans les composants logiciels parallèles

Prise en compte des ressources dans les composants logiciels parallèles Prise en compte des ressources dans les composants logiciels parallèles Aperçus de l action RASC et du projet Concerto F. Guidec Frederic.Guidec@univ-ubs.fr Action RASC Plan de cet exposé Contexte Motivations

Plus en détail

Université du Québec à Chicoutimi. Département d informatique et de mathématique. Plan de cours. Titre : Élément de programmation.

Université du Québec à Chicoutimi. Département d informatique et de mathématique. Plan de cours. Titre : Élément de programmation. Université du Québec à Chicoutimi Département d informatique et de mathématique Plan de cours Titre : Élément de programmation Sigle : 8inf 119 Session : Automne 2001 Professeur : Patrice Guérin Local

Plus en détail

UE Programmation Impérative Licence 2ème Année 2014 2015

UE Programmation Impérative Licence 2ème Année 2014 2015 UE Programmation Impérative Licence 2 ème Année 2014 2015 Informations pratiques Équipe Pédagogique Florence Cloppet Neilze Dorta Nicolas Loménie prenom.nom@mi.parisdescartes.fr 2 Programmation Impérative

Plus en détail

GCOS 7 sur microprocesseur standard Diane Daniel POIRSON 14 octobre 2004 Matériels 64 / DPS 7 / DPS 7000 Architecture & Evolution - Daniel POIRSON 1

GCOS 7 sur microprocesseur standard Diane Daniel POIRSON 14 octobre 2004 Matériels 64 / DPS 7 / DPS 7000 Architecture & Evolution - Daniel POIRSON 1 sur microprocesseur standard Diane Daniel POIRSON 14 octobre 2004 Matériels 64 / DPS 7 / DPS 7000 Architecture & Evolution - Daniel POIRSON 1 Pourquoi aller vers les processeurs standard? Considérations

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

Anne Tasso. Java. Le livre de. premier langage. 10 e édition. Avec 109 exercices corrigés. Groupe Eyrolles, 2000-2015, ISBN : 978-2-212-14154-2

Anne Tasso. Java. Le livre de. premier langage. 10 e édition. Avec 109 exercices corrigés. Groupe Eyrolles, 2000-2015, ISBN : 978-2-212-14154-2 Anne Tasso Java Le livre de premier langage 10 e édition Avec 109 exercices corrigés Groupe Eyrolles, 2000-2015, ISBN : 978-2-212-14154-2 Table des matières Avant-propos Organisation de l ouvrage..............................

Plus en détail

Conception des systèmes répartis

Conception des systèmes répartis Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan

Plus en détail

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation Base de données S. Lèbre slebre@unistra.fr Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :

Plus en détail

Fiche technique CPU 315SN/PN (315-4PN33)

Fiche technique CPU 315SN/PN (315-4PN33) Fiche technique CPU 315SN/PN (315-4PN33) Données techniques N de commande 315-4PN33 Information générale Note - Caractéristiques SPEED-Bus - Données techniques de l'alimentation Alimentation (valeur nominale)

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique

Plus en détail

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Chapitre V : La gestion de la mémoire Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Introduction Plusieurs dizaines de processus doivent se partager

Plus en détail

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI. Facultés Universitaires Notre-Dame de la Paix, Namur Institut d Informatique Année académique 2003-2004 Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de

Plus en détail

Programmer en JAVA. par Tama (tama@via.ecp.fr( tama@via.ecp.fr)

Programmer en JAVA. par Tama (tama@via.ecp.fr( tama@via.ecp.fr) Programmer en JAVA par Tama (tama@via.ecp.fr( tama@via.ecp.fr) Plan 1. Présentation de Java 2. Les bases du langage 3. Concepts avancés 4. Documentation 5. Index des mots-clés 6. Les erreurs fréquentes

Plus en détail

Pourquoi OneSolutions a choisi SyselCloud

Pourquoi OneSolutions a choisi SyselCloud Pourquoi OneSolutions a choisi SyselCloud Créée en 1995, Syselcom est une société suisse à capitaux suisses. Syselcom est spécialisée dans les domaines de la conception, l intégration, l exploitation et

Plus en détail

IBM Tivoli Monitoring, version 6.1

IBM Tivoli Monitoring, version 6.1 Superviser et administrer à partir d une unique console l ensemble de vos ressources, plates-formes et applications. IBM Tivoli Monitoring, version 6.1 Points forts! Surveillez de façon proactive les éléments

Plus en détail

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Evaluation des performances de programmes parallèles haut niveau à base de squelettes Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,

Plus en détail

Instrumentation de code Java

Instrumentation de code Java Instrumentation de code Java Mickaël Delahaye mickael.delahaye@etudiant.univ-rennes1.fr Étude bibliographique Master 2 Recherche Informatique 2007 Résumé Cette étude bibliographique présente un état de

Plus en détail

Programmation C. Apprendre à développer des programmes simples dans le langage C

Programmation C. Apprendre à développer des programmes simples dans le langage C Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités

Plus en détail

Evaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques

Evaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques Evaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques (bourse EPSRC numéro GR/S21717/01) Enhancing the Perf. Predictability of Grid Appli. with Patterns and

Plus en détail

Le génie logiciel. maintenance de logiciels.

Le génie logiciel. maintenance de logiciels. Le génie logiciel Définition de l IEEE (IEEE 1990): L application d une approche systématique, disciplinée et quantifiable pour le développement, l opération et la maintenance de logiciels. Introduction

Plus en détail

INTRODUCTION A JAVA. Fichier en langage machine Exécutable

INTRODUCTION A JAVA. Fichier en langage machine Exécutable INTRODUCTION A JAVA JAVA est un langage orienté-objet pur. Il ressemble beaucoup à C++ au niveau de la syntaxe. En revanche, ces deux langages sont très différents dans leur structure (organisation du

Plus en détail

Table des matières PRESENTATION DU LANGAGE DS2 ET DE SES APPLICATIONS. Introduction

Table des matières PRESENTATION DU LANGAGE DS2 ET DE SES APPLICATIONS. Introduction PRESENTATION DU LANGAGE DS2 ET DE SES APPLICATIONS Depuis SAS 9.2 TS2M3, SAS propose un nouveau langage de programmation permettant de créer et gérer des tables SAS : le DS2 («Data Step 2»). Ces nouveautés

Plus en détail

GUIDE PRATIQUE déplacements professionnels temporaires en France et à l étranger

GUIDE PRATIQUE déplacements professionnels temporaires en France et à l étranger GUIDE PRATIQUE déplacements professionnels temporaires en France et à l étranger SOMMAIRE GUIDE PRATIQUE déplacements professionnels temporaires en France et à l étranger o o o o o o o o o o o o

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

Data Station Plus. La solution complète de gestion de données. > Convertisseur de multiples

Data Station Plus. La solution complète de gestion de données. > Convertisseur de multiples Data Station Plus La solution complète de gestion de données Convertisseur de multiples protocoles permettant une intégration système complet E nregistreur de données de process compatible avec les applications

Plus en détail

Génération de code binaire pour application multimedia : une approche au vol

Génération de code binaire pour application multimedia : une approche au vol Génération de binaire pour application multimedia : une approche au vol http://hpbcg.org/ Henri-Pierre Charles Université de Versailles Saint-Quentin en Yvelines 3 Octobre 2009 Présentation Présentation

Plus en détail

SafeKit. Sommaire. Un livre blanc de Bull Evidian

SafeKit. Sommaire. Un livre blanc de Bull Evidian Un livre blanc de Bull Evidian SafeKit Une solution de haute disponibilité logicielle packageable avec n'importe quelle application Windows ou Unix Par Bruno Rochat Sommaire Novembre 2005 Haute disponibilité

Plus en détail

Introduction à Java. Matthieu Herrb CNRS-LAAS. Mars 2014. http://homepages.laas.fr/matthieu/cours/java/java.pdf

Introduction à Java. Matthieu Herrb CNRS-LAAS. Mars 2014. http://homepages.laas.fr/matthieu/cours/java/java.pdf Introduction à Java Matthieu Herrb CNRS-LAAS http://homepages.laas.fr/matthieu/cours/java/java.pdf Mars 2014 Plan 1 Concepts 2 Éléments du langage 3 Classes et objets 4 Packages 2/28 Histoire et motivations

Plus en détail

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données EARTH et Threaded-C: Éléments clés du manuel de références de Threaded-C Bref historique de EARTH et Threaded-C Ancêtres de l architecture EARTH: Slide 1 Machine à flux de données statique de J.B. Dennis

Plus en détail

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION Classe de terminale de la série Sciences et Technologie du Management et de la Gestion Préambule Présentation Les technologies de l information

Plus en détail

06/11/2014 Hyperviseurs et. Infrastructure. Formation. Pierre Derouet

06/11/2014 Hyperviseurs et. Infrastructure. Formation. Pierre Derouet 06/11/2014 Hyperviseurs et Infrastructure Formation Pierre Derouet Table des matières I. Qu est-ce qu un Hyperviseur?... 2 a. Définition... 2 b. Les avantages des hyperviseurs... 2 c. Les inconvénients

Plus en détail

La technologie Java Card TM

La technologie Java Card TM Présentation interne au CESTI La technologie Java Card TM sauveron@labri.u-bordeaux.fr http://dept-info.labri.u-bordeaux.fr/~sauveron 8 novembre 2002 Plan Qu est ce que Java Card? Historique Les avantages

Plus en détail

Introduction aux systèmes temps réel. Iulian Ober IRIT ober@iut-blagnac.fr

Introduction aux systèmes temps réel. Iulian Ober IRIT ober@iut-blagnac.fr Introduction aux systèmes temps réel Iulian Ober IRIT ober@iut-blagnac.fr Définition Systèmes dont la correction ne dépend pas seulement des valeurs des résultats produits mais également des délais dans

Plus en détail

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin Linux Gazette n 110 Janvier 2005 Majid Hameed Copyright 2005 Majid Hameed Copyright 2005 Gauthier Savart Copyright 2005 Joëlle Cornavin Article paru dans le n 110 de la Gazette Linux de janvier 2005. Traduction

Plus en détail

WEA Un Gérant d'objets Persistants pour des environnements distribués

WEA Un Gérant d'objets Persistants pour des environnements distribués Thèse de Doctorat de l'université P & M Curie WEA Un Gérant d'objets Persistants pour des environnements distribués Didier Donsez Université Pierre et Marie Curie Paris VI Laboratoire de Méthodologie et

Plus en détail

Groupe Eyrolles, 2004 ISBN : 2-212-11504-0

Groupe Eyrolles, 2004 ISBN : 2-212-11504-0 Groupe Eyrolles, 2004 ISBN : 2-212-11504-0 Table des matières Avant-propos................................................ 1 Quel est l objectif de cet ouvrage?............................. 4 La structure

Plus en détail

THÈSE. pour obtenir le grade de. Spécialité : "Informatique : Systèmes et Communications"

THÈSE. pour obtenir le grade de. Spécialité : Informatique : Systèmes et Communications UNIVERSITÉ JOSEPH FOURIER DE GRENOBLE N attribué par la bibliothèque THÈSE pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ JOSEPH FOURIER DE GRENOBLE Spécialité : "Informatique : Systèmes et Communications"

Plus en détail

EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE

EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE QCM Remarque : - A une question correspond au moins 1 réponse juste - Cocher la ou les bonnes réponses Barème : - Une bonne réponse = +1 - Pas de réponse = 0

Plus en détail

WN/CMGC/08/98. Enjeu et problématique du portage d'arpege-nemo sur calculateurs super-scalaires. Eric Maisonnave

WN/CMGC/08/98. Enjeu et problématique du portage d'arpege-nemo sur calculateurs super-scalaires. Eric Maisonnave WN/CMGC/08/98 Enjeu et problématique du portage d'arpege-nemo sur calculateurs super-scalaires Eric Maisonnave 1 2 Algorithme utilisé, adaptation à la plate-forme visée...5 Particularités du portage...7

Plus en détail

Sanity Check. bgcolor mgcolor fgcolor

Sanity Check. bgcolor mgcolor fgcolor Sanity Check bgcolor mgcolor fgcolor 0 1 2 3 4 5 6 7 8 9 10 Compilation pour cibles hétérogènes: automatisation des analyses, transformations et décisions nécessaires, François Irigoin et Ronan Keryell

Plus en détail

CORBA haute performance

CORBA haute performance CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes Alexandre.Denis@irisa.fr Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance

Plus en détail

CAHIER DES CHARGES D IMPLANTATION

CAHIER DES CHARGES D IMPLANTATION CAHIER DES CHARGES D IMPLANTATION Tableau de diffusion du document Document : Cahier des Charges d Implantation EVRP Version 6 Etabli par DCSI Vérifié par Validé par Destinataires Pour information Création

Plus en détail

Master Informatique et Systèmes. Architecture des Systèmes d Information. 03 Architecture Logicielle et Technique

Master Informatique et Systèmes. Architecture des Systèmes d Information. 03 Architecture Logicielle et Technique Master Informatique et Systèmes Architecture des Systèmes d Information 03 Architecture Logicielle et Technique Damien Ploix 2014-2015 Démarche d architecture SI : structuration en vues Quels métiers?

Plus en détail

LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN

LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN Les contenues de ce document sont la propriété exclusive de la société REVER. Ils ne sont transmis qu à titre d information et ne peuvent en aucun cas

Plus en détail

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I

Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I Runtime Gestion de la réactivité des communications réseau François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I 1 Le calcul hautes performances La tendance actuelle

Plus en détail

Atelier C TIA Portal CTIA06 : programmation des automates S7-300 Blocs d organisation

Atelier C TIA Portal CTIA06 : programmation des automates S7-300 Blocs d organisation Atelier C TIA Portal CTIA06 : programmation des automates S7-300 Blocs d organisation CTIA06 Page 1 1. Types de blocs de programme L automate met à disposition différents types de blocs qui contiennent

Plus en détail

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM 4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés

Plus en détail

POM Monitoring V4.0. Release Note fonctionnelle

POM Monitoring V4.0. Release Note fonctionnelle POM Monitoring V4.0 Release Note fonctionnelle ZAC des Metz 3 rue du petit robinson 78350 Jouy en Josas Tél : 01.30.67.60.65 Fax : 01.75.43.40.70 www.pom-monitoring.com Contenu 1 RELEASE NOTE FONCTIONNELLE...

Plus en détail

Systèmes en réseau : Linux 1ère partie : Introduction

Systèmes en réseau : Linux 1ère partie : Introduction Systèmes en réseau : Linux 1ère partie : Introduction Les fondements de Linux : le logiciel libre Historique de Linux Présentation générale de Linux Les applications à succès Les distributions Qu'est-ce

Plus en détail

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP COURS PROGRAMMATION INITIATION AU LANGAGE C SUR MICROCONTROLEUR PIC page 1 / 7 INITIATION AU LANGAGE C SUR PIC DE MICROSHIP I. Historique du langage C 1972 : naissance du C dans les laboratoires BELL par

Plus en détail

Le Multicast. A Guyancourt le 16-08-2012

Le Multicast. A Guyancourt le 16-08-2012 Le Multicast A Guyancourt le 16-08-2012 Le MULTICAST Définition: On entend par Multicast le fait de communiquer simultanément avec un groupe d ordinateurs identifiés par une adresse spécifique (adresse

Plus en détail

Cours Informatique 1. Monsieur SADOUNI Salheddine

Cours Informatique 1. Monsieur SADOUNI Salheddine Cours Informatique 1 Chapitre 2 les Systèmes Informatique Monsieur SADOUNI Salheddine Un Système Informatique lesystème Informatique est composé de deux parties : -le Matériel : constitué de l unité centrale

Plus en détail

Info0101 Intro. à l'algorithmique et à la programmation. Cours 3. Le langage Java

Info0101 Intro. à l'algorithmique et à la programmation. Cours 3. Le langage Java Info0101 Intro. à l'algorithmique et à la programmation Cours 3 Le langage Java Pierre Delisle, Cyril Rabat et Christophe Jaillet Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique

Plus en détail

Chapitre 4 : Les mémoires

Chapitre 4 : Les mémoires 1. Introduction: Chapitre 4 : Les mémoires Nous savons que dans un ordinateur toutes les informations : valeur numérique, instruction, adresse, symbole (chiffre, lettre,... etc.) sont manipulées sous une

Plus en détail

Contrôle d accès UTIL TP N 1 découverte

Contrôle d accès UTIL TP N 1 découverte Contrôle d accès UTIL TP N 1 découverte A partir de : Documents sur CD TIL : \CD usesame\documentations\produits_til\modules\util_tillys fpr_utilv2.pdf FTe_UTiL_V2.pdf UTiL2_express.pdf \CD usesame\documentations\logiciels_til\tilman

Plus en détail

Analyse de performance, monitoring

Analyse de performance, monitoring Analyse de performance, monitoring Plan Principes de profilage Projet TPTP dans Eclipse Utilisation des profiling tools de TPTP Philippe Collet Master 1 Informatique 2009-2010 http://deptinfo.unice.fr/twiki/bin/view/minfo/gl

Plus en détail

Eléments de spécification des systèmes temps réel Pierre-Yves Duval (cppm)

Eléments de spécification des systèmes temps réel Pierre-Yves Duval (cppm) Eléments de spécification des systèmes temps réel Pierre-Yves Duval (cppm) Ecole d informatique temps réel - La Londes les Maures 7-11 Octobre 2002 - Evénements et architectures - Spécifications de performances

Plus en détail

MEAD : temps réel et tolérance aux pannes pour CORBA

MEAD : temps réel et tolérance aux pannes pour CORBA MEAD : un intergiciel temps-réel et tolérant aux pannes pour CORBA Master 2 Informatique Recherche Université de Marne-la-Vallée Vendredi 3 mars 2006 Plan 1 Introduction 2 Solutions existantes 3 Concilier

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510 Introduction A. Au sujet du livre 10 B. Au sujet de l'examen 10 Chapitre 1 Les nouveautés de vsphere A. Présentation 14 B. En quoi vsphere 5 diffère de vsphere 4? 14 1. Un Service Console abandonné 14

Plus en détail

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments Recherche Opérationnelle Optimisation combinatoire : Applications et compléments Pierre Delisle Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique 17 février 2014 Plan de

Plus en détail