Algorithmiques et architectures distribuées et parallèles : une

Dimension: px
Commencer à balayer dès la page:

Download "Algorithmiques et architectures distribuées et parallèles : une"

Transcription

1 Algorithmiques et architectures distribuées et parallèles : une introduction Frederic Guinand Eric Sanlaville Master 1 informatique eric.sanlaville@univ-lehavre.fr 2heures

2 Plan

3 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P

4 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P

5 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P

6 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P

7 Pourquoi le parallélisme? pour calculer plus vite, plus gros et différemment. Calculs numériques. Data mining Vérification/validation de modèles. Simulations. Serveurs d applications, serveurs de données. Synthèse, Traitement d image

8 Pourquoi le parallélisme? pour calculer plus vite, plus gros et différemment. Calculs numériques. Data mining Vérification/validation de modèles. Simulations. Serveurs d applications, serveurs de données. Synthèse, Traitement d image

9 Qui utilise le parallélisme? Milieux de la recherche et du développement physique nucléaire, mécanique céleste, biologie moléculaire, sociologie...

10 Qui utilise le parallélisme? Milieux économiques et industriels Aéronautique : turbulences, écoulements, profils d ailes. Onera : image des interactions entre les tourbillons en bout d aile et les turbulences résultant de la propulsion. Calcul réalisé sur NEC SX5 et NEC-SX6 :

11 Qui utilise le parallélisme? Milieux économiques et industriels Industrie automobile. crash-tests virtuels chez un constructeur automobile : finance : prévision de l évolution des marchés.

12 Qui utilise le parallélisme? Société civile/services publics gestion et production d énergie : EDF : gestion du réseau, fonctionnement de certains éléments des centrales nucléaires... prévisions météorologiques :

13 Qui utilise le parallélisme? Météo France Modèle opérationnel Arpège (1998), nombre de variables à traiter est Nv = 2, quatre variables à trois dimensions x 31 niveaux x 600 x 300 points sur l horizontale et une variable à deux dimensions x 600 x 300 points sur l horizontale, le nombre de calculs à effectuer pour une variable est Nc = le nombre de pas de temps pour réaliser une prévision à 24 heures d échéance est Nt = 96 (pas de temps de 15 minutes).

14 Qui utilise le parallélisme? Météo France Les calculs étant effectués sur l ordinateur Fujitsu VPP700 crédité d une vitesse de calcul R atteignant 20 gigaflops (20 milliards d opérations flottantes par seconde) le temps T nécessaire pour obtenir une prévision à 24 heures d échéance est un peu inférieur à un quart d heure. Météo-France a acheté dernièrement un NEC SX-8 qui devrait délivrer une puissance de 35 Tflops (mise en service : 2008). en théorie, le même calcul : 1 seconde...

15 Qui utilise le parallélisme? Météo France Les calculs étant effectués sur l ordinateur Fujitsu VPP700 crédité d une vitesse de calcul R atteignant 20 gigaflops (20 milliards d opérations flottantes par seconde) le temps T nécessaire pour obtenir une prévision à 24 heures d échéance est un peu inférieur à un quart d heure. Météo-France a acheté dernièrement un NEC SX-8 qui devrait délivrer une puissance de 35 Tflops (mise en service : 2008). en théorie, le même calcul : 1 seconde...

16 Qui utilise le parallélisme? Météo France Les calculs étant effectués sur l ordinateur Fujitsu VPP700 crédité d une vitesse de calcul R atteignant 20 gigaflops (20 milliards d opérations flottantes par seconde) le temps T nécessaire pour obtenir une prévision à 24 heures d échéance est un peu inférieur à un quart d heure. Météo-France a acheté dernièrement un NEC SX-8 qui devrait délivrer une puissance de 35 Tflops (mise en service : 2008). en théorie, le même calcul : 1 seconde...

17 Qui utilise le parallélisme? Divers Production d images de synthèse pour films vidéos, jeux, urbanisme... :

18 Qui utilise le parallélisme? Tout le monde? Les PC Multi coeurs sont partout Ce sont des systèmes parallèles sur une seule puce! Ordinateur serveur interne -> Meta computing -> Cloud Computing Vers une externalisation des puissances de calcul et de stockage?

19 Historique : les pionniers : explosion des architectures : extinction massive 2000 l ère des géants

20 Les pionniers (1950s-70s) Difficulté première, la mise en oeuvre du matériel. Challenge : augmenter le ratio fonctionnement/maintenance. ILLIAC IV : quelques heures de calcul/quelques semaines de maintenance. Les premiers grands noms du parallélisme apparaissent et avec eux, les premiers grands principes : vectorisation, techniques de pipeline, temps partagé, multiprogrammation... Amdahl : IBM 701, 704, 709. Seymour Cray : Control Data Corporation.

21 Les pionniers (1950s-70s) Difficulté première, la mise en oeuvre du matériel. Challenge : augmenter le ratio fonctionnement/maintenance. ILLIAC IV : quelques heures de calcul/quelques semaines de maintenance. Les premiers grands noms du parallélisme apparaissent et avec eux, les premiers grands principes : vectorisation, techniques de pipeline, temps partagé, multiprogrammation... Amdahl : IBM 701, 704, 709. Seymour Cray : Control Data Corporation.

22 Les machines CDC6600 (1964) : unités de calcul en parallèle, 10MHz, 2Mo, 9 MFlops CDC7600 (1969) : équivalent à 10 CDC6600 : 40 MFlops

23 Ces années-là transistor sur base de silicium (Texas Instrument ) premier disque dur (1957) premier compilateur fortran (1957) algol ( ). Algorithmic language - récursivité. Voici un langage très en avance de son temps, il n a pas seulement été une amélioration de ses prédécesseurs mais aussi une amélioration de presque tous ses successeurs. Bull : Gamma 60. Première machine multiprocesseurs française. interface RS-232 (1966) technologie CMOS (Texas Instrument ) ARPANET (ancêtre d Internet ) Unix (1970)

24 Le temps de l exubérance (1970s-80s) Premiers succès commerciaux. Apparition de multiples constructeurs : Thinking Machine Corporation ( ), Sequent ( ), Telmat ( ), Archipel ( ), Parsytec ( ), Kendall Square Research ( ), Meiko ( ), BBN ( ), Digital ( ), IBM, Intel, CRAY ( ), MasPar ( ), Silicon Graphics ( ), Sun, Fujitsu, Nec. Offre importante et exotique : Connection Machine 1 : hypercube de processeurs. Problèmes majeurs : l offre logicielle et le prix. étape suivante : machines abordables et utilisables.

25 Les machines Cray-1 (1975), Cray X-MP (1982) : 2 à 4 processeurs, Cray-2 (1983) : 8 processeurs, Cray Y-MP (1989). Hitachi S-810/820. Fujitsu VP200/VP400. Convex C-1. Nec SX-1/2. Connection Machine processeurs. Topologie : hypercube. Intel ipsc/1 128 processeurs. Topologie : grille.

26 Les machines Illiac IV (Burrough CRAY MHz, 8 Mo, 160 MFlops

27 Les machines

28 Ces années-là Langage pascal (Wirth ) Ray-Tomlinson : premier (1972) composants sur 1 cm 2 (1975). premier réseau local : Datapoint système ARC (1976). fibre optique (1977). Support d Ethernet par les principaux constructeurs (1979). Paterson - Hennessy : concept des processeurs RISC (1980) Tim Berners-Lee : projet World Wide Web au CERN (1989).

29 Environnements (1990s) Difficultés bien identifiées : routage, ordonnancement... parallélisme automatique très limité conception d outils d aide à la parallélisation : Hypertool, Pyrros, ParaRex, Adam, Apache... Autre problème : ratio prix/durée de vie d une machine parallèle extrêmement élevé. solution apportée par PVM : utiliser des réseaux locaux de stations de travail pour faire du calcul parallèle. Constructeurs machines parallèles réseaux de stations de travail intégrés.

30 Les machines Nec SX-3 (1991). Fujitsu VP-2600 (1991). CM-5 (1992). Topologie : fat-tree. Cray T3D (1993). Jusqu à 512 processeurs. Topologie : tore 3D. ASCI Red, et Blue ( ).

31 Ces années-là Premier multicast audio sur le Net. PVM (1991). Netscape à partir de NCSA Mosaic (1994).

32 L ère des Géants : les Grilles Depuis le milieu des années 90. Constat : les matériels sont la plupart du temps peu et sous-utilisés. Idée : utiliser ces matériels dont le nombre est énorme : meta-computing. Projets les plus simples : Principe : des milliards de calculs indépendants effectués sur les PCs de volontaires. Seti@Home : transformés de Fourier rapides, Folding@Home : conformation 3D de protéines. Grilles de calcul : ajouter la disponibilité, la puissance, les interactions

33 L ère des Géants : les Grilles et au delà... Principe des grilles de calculs : offrir un service telle qu il est offert par les producteurs d énergie. Objectif : brancher le cable réseau du PC pour consommer de la puissance de calcul comme on branche une prise de courant pour consommer de la puissance électrique. Moyens : plateforme de services : authentification, sécurisation, répartition de charge, stockage de données, partage de documents... Projets en cours : Globus, Harness, DataGRID, Legion, EuroGRID, GénoGRID, Grid5000, EGEE,... Cloud Computing : Google, Amazon, IBM Blue Cloud, Intel+HP+Yahoo,...

34 L ère des Géants : les Grappes Depuis les milieu des années 90. Idée des grilles de calcul intéressante mais... Constat : les communications pénalisent une bonne utilisation. Constat : les problèmes de sécurité pénalisent l utilisation commerciale Remède : construire des réseaux locaux de grandes dimensions. Grappes de machines (clusters of machines).

35 L ère des Géants : les machines Puissance des machines en 2007 (source top500.org) : 1 BlueGene/L. IBM. US. 280 TFlops processeurs. 2 Red Storm. Cray Inc. US. 101 TFlops processeurs. 3 Blue Gene. IBM. US. 91 TFlops processeurs. 4 ASC Purple. IBM. US. 91 TFlops. 75 TFlops processeurs. 5 BladeCenter. IBM. Espagne. 62 TFlops processeurs. 6 Thunderbird. Dell. US. 53 TFlops processeurs. 7 Tera-10. Bull SA. CEA France. 52 TFlops processeurs.

36 L ère des Géants : les machines Puissance des machines en décembre 2008 : Roadrunner IBM. Los Alamos DOE US TFlops processeurs. Nucléaire, armement, sécurité. Jaguar Cray Inc. DOE US TFlops processeurs. Pléïades SGI. NASA US. 487 TFlops processeurs. BlueGene/L. IBM. US. 478 TFlops processeurs. (9) Red Storm. Cray Inc. US. 204 TFlops processeurs. (14) Jade SGI CINES FRANCE 128 TFlops processeurs. (54) Tera-10. Bull SA. CEA France. 52 TFlops processeurs.

37 Les systèmes Système Pourcentage (fin 2007) Linux Unix BSD Based 3 Mixed 6.40 Mac OS 0.60

38 Convergence Parallélisme informatique distribuée : java RMI (Remote Method Invocation) inspiré des RPC (Remote Procedure Call), Architecture Corba pour les objets distribués. Support des communications : Internet. Nouveaux objectifs (systèmes embarqués) : robustesse, disponibilité, tolérance aux pannes... Calcul intensif calcul intensif + importantes communications. recherche de performances compromis entre équilibrage de la charge et minimisation des communications.

39 Plan Historique 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P

40 Définitions Ordinateur parallèle : ensemble de processeurs capables de travailler en coopération de manière à résoudre un problème donné (I. Foster). Le parallélisme est une technique d accroissement des performances d un système fondé sur l exécution en parallèle de plusieurs processus. Le parallélisme recouvre tous les aspects liés aux systèmes multi-processeurs et multi-ordinateurs et aux applications associées conception, modélisation, mise en œuvre et utilisation des systèmes et des applications.

41 Définitions En informatique, le calcul parallèle consiste en l exécution simultanée d une même tâche, partitionnée et adaptée afin de pouvoir être répartie entre plusieurs processeurs en vue de traiter plus rapidement des problèmes plus grands (Wikipedia). L informatique distribuée recouvre les aspects matériels, réseaux, systèmes et algorithmiques liés à l exécution d une application sur un ensemble de processeurs.

42 Frontières du domaine difficiles à cerner : 1 gestion de ressources, 2 communications inter-processus, 3 partage de données, 4 modèle de programmation, 5 mesures et analyse de performances, 6 aspects temporels (temps unique?)

43 Frontières du domaine difficiles à cerner : 1 gestion de ressources, 2 communications inter-processus, 3 partage de données, 4 modèle de programmation, 5 mesures et analyse de performances, 6 aspects temporels (temps unique?)

44 Programmation parallèle 1 création de activités ou tâches, 2 répartition des activités entre les ressources, 3 les communications entre les activités. 4 Tout commence au niveau du système et du réseau.

45 Programmation parallèle 1 création de activités ou tâches, 2 répartition des activités entre les ressources, 3 les communications entre les activités. 4 Tout commence au niveau du système et du réseau.

46 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.

47 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.

48 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.

49 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.

50 Ordonnancement système multi-tâches : comment gérer la ressource de calcul? rôle de l ordonnanceur. quelle stratégie? tâches insécables : impossible tâches interruptibles (E/S) temps partagé (time slicing) temps partagé + interruption

51 Ordonnancement système multi-tâches : comment gérer la ressource de calcul? rôle de l ordonnanceur. quelle stratégie? tâches insécables : impossible tâches interruptibles (E/S) temps partagé (time slicing) temps partagé + interruption

52 Visualisation des effets du time sharing Exemple un processus créé un processus fils le père et le fils comptent chacun de leur côté jusqu à

53 Visualisation des effets du time sharing

54 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs

55 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs

56 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs

57 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs

58 Communication par mémoire partagée Les processus qui ont besoin d échanger des données le font via la mémoire en partageant une partie de la mémoire, partie qui est attachée à leur espace d adressage. On appelle segment de mémoire partagé cette mémoire commune.

59 Communication par mémoire partagée Les processus qui ont besoin d échanger des données le font via la mémoire en partageant une partie de la mémoire, partie qui est attachée à leur espace d adressage. On appelle segment de mémoire partagé cette mémoire commune.

60 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.

61 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.

62 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.

63 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.

64 Origine du problème Les opérations de lecture/écriture en mémoire ne sont pas atomiques. une lecture comme une écriture peut être interrompue au cours de son action. La solution : les sémaphore d exclusion mutuelle (mutex) : rendent les opérations de lecture/écriture atomiques en restreignant l accès à un segment de mémoire partagé à un seul processus à la fois. Un sémaphore possède deux opérations : une opération d acquisition souvent notée P une opération de libération souvent notée V.

65 Origine du problème Les opérations de lecture/écriture en mémoire ne sont pas atomiques. une lecture comme une écriture peut être interrompue au cours de son action. La solution : les sémaphore d exclusion mutuelle (mutex) : rendent les opérations de lecture/écriture atomiques en restreignant l accès à un segment de mémoire partagé à un seul processus à la fois. Un sémaphore possède deux opérations : une opération d acquisition souvent notée P une opération de libération souvent notée V.

66 Origine du problème Les opérations de lecture/écriture en mémoire ne sont pas atomiques. une lecture comme une écriture peut être interrompue au cours de son action. La solution : les sémaphore d exclusion mutuelle (mutex) : rendent les opérations de lecture/écriture atomiques en restreignant l accès à un segment de mémoire partagé à un seul processus à la fois. Un sémaphore possède deux opérations : une opération d acquisition souvent notée P une opération de libération souvent notée V.

67 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.

68 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.

69 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.

70 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.

71 Avertissement La conception d une application faisant intervenir plusieurs activités qui s exécutent simultanément requiert une étude fine de leurs interactions afin d éviter toute situation d interblocage

72 Communications inter-processus directes Communications par pipe Communications par échanges de messages

73 Communications par échange de messages par socket : point de communication. primitives d échange de message : envoie de messages sendto() reception de messages recvfrom() la reception est par défaut une primitive bloquante

74 Exemple : forum de discussion algorithme du service de forum Users[] /* tableau des utilisateurs (vide au départ) */ ouverture et gestion de la socket Tantque vrai Faire reception_message(source,contenu,...) Si source / Users Alors Users.ajouter(source) finsi Pour chaque u Users Faire envoyer_message(u,contenu) finpour fintantque

75 Exemple : forum de discussion Algorithme de l utilisateur ouverture et gestion de la socket Tantque vrai Faire contenu saisir_message() envoyer(forum,contenu) TantQue reception_message(forum,contenu) Faire afficher(contenu) fintantque fintantque Cet algorithme ne fonctionne pas, parce que les réceptions sont bloquantes.

76 Résolution du problème un processus s occupe de l envoie sur une socket. un processus a la charge des receptions sur une autre socket. contrainte : il faut que le service de forum gère deux sockets par utilisateur : une socket d écoute des messages depuis les utilisateurs. Une socket d envoie des messages vers les utilisateurs. deux processus par utilisateur

77 Résolution du problème un processus s occupe de l envoie sur une socket. un processus a la charge des receptions sur une autre socket. contrainte : il faut que le service de forum gère deux sockets par utilisateur : une socket d écoute des messages depuis les utilisateurs. Une socket d envoie des messages vers les utilisateurs. deux processus par utilisateur

78 Résolution du problème un processus s occupe de l envoie sur une socket. un processus a la charge des receptions sur une autre socket. contrainte : il faut que le service de forum gère deux sockets par utilisateur : une socket d écoute des messages depuis les utilisateurs. Une socket d envoie des messages vers les utilisateurs. deux processus par utilisateur

79 Exemple avec 3 clients C1 Serveur C2 C3 Les 3 clients sont connectés et le serveur est démarré

80 Modèle de programmation Il existe d autres mécanismes, boîtes aux lettres, qui permettent de s affranchir de ces points de synchronisation. Ce modèle de programmation correspond au schéma Client/Serveur, mais il en existe plusieurs autres types...

81 Système + réseau = parallélisme segment mémoire partagée parallélisme à mémoire partagée point de communication : socket parallélisme à mémoire distribuée problèmes rencontrés en système se retrouve en parallélisme.

82 Plan Historique Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P

83 Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Exécutions distribuées asynchrones Chaque processus se déroule indépendamment des autres processus. Le bloquage en attente d une reception de message peut être interprété comme un point de synchronisation entre ce processus et l émetteur. Plusieurs modèles de programmation distribuée et parallèle suivent des schémas d exécution distribuée asynchrones.

84 Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Schémas d exécution distribuée asynchrones Le modèle client/serveur (C/S) Le modèle maître/esclave (M/S) Le modèle pair-à-pair (P2P)

85 Schéma client/serveur Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair un serveur des clients initiative aux clients un serveur plusieurs services

86 Schéma client/serveur Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair demande de service réponses Client Client Client Serveur Client Client

87 Schéma maître/esclaves Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair d un certain point de vue, ce schéma est l inverse du client/serveur : client/serveur : une multitude de clients et un serveur. maître/esclaves : un client et une multitude de serveurs. initiative au maître qui distribue du travail aux esclaves.

88 Schéma maître/esclaves Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Esclave retour du résultat envoi de travail Esclave Esclave Maitre Esclave Esclave

89 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.

90 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.

91 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.

92 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.

93 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.

94 Schéma pair-à-pair Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair schéma entièrement distribué, schémas client/serveur et/ou maître/esclaves généralisés, chaque entité (pair) remplie les deux rôles.

95 Schéma pair-à-pair Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Pair Pair Pair Pair Pair Pair

Parallélisme et bioinformatique

Parallélisme et bioinformatique Master EGOIST - Rouen Plan 1 Introduction Parallélisme? Open MPI 2 Historique 3 Pour qui? Pour quoi? Parallélisme? C est quoi le parallélisme? Principe regrouper (physiquement ou logiquement) un ensemble

Plus en détail

Parallélisme et bioinformatique

Parallélisme et bioinformatique Master EGOIST - Rouen Plan Généralités Plan Généralités 1 Généralités 2 Généralités La science informatique n est pas plus la science des ordinateurs que l astronomie n est celle des télescopes (ou la

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Systèmes et traitement parallèles

Systèmes et traitement parallèles Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ MODULE I1 Plan Chapitre 1 Qu'est ce qu'un S.E? Introduction Historique Présentation d'un S.E Les principaux S.E R&T 1ère année Votre environnement Sylvain MERCHEZ Introduction Introduction Rôles et fonctions

Plus en détail

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec. 3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation

Plus en détail

CH.3 SYSTÈMES D'EXPLOITATION

CH.3 SYSTÈMES D'EXPLOITATION CH.3 SYSTÈMES D'EXPLOITATION 3.1 Un historique 3.2 Une vue générale 3.3 Les principaux aspects Info S4 ch3 1 3.1 Un historique Quatre générations. Préhistoire 1944 1950 ENIAC (1944) militaire : 20000 tubes,

Plus en détail

Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction

Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction Plan du cours Autres modèles pour les applications réparties Introduction Riveill@unice.fr http://rangiroa.polytech.unice.fr Notre terrain de jeu : les systèmes répartis Un rappel : le modèle dominant

Plus en détail

Modules du DUT Informatique proposés pour des DCCE en 2014/2015

Modules du DUT Informatique proposés pour des DCCE en 2014/2015 Modules du DUT Informatique proposés pour des DCCE en 2014/2015 Résumé de l offre : Parmi les 5500 heures d enseignement informatique dispensées au département informatique de l IUT (avec 2880 heures de

Plus en détail

Informatique UE 102. Jean-Yves Antoine. Architecture des ordinateurs et Algorithmique de base. UFR Sciences et Techniques Licence S&T 1ère année

Informatique UE 102. Jean-Yves Antoine. Architecture des ordinateurs et Algorithmique de base. UFR Sciences et Techniques Licence S&T 1ère année UFR Sciences et Techniques Licence S&T 1ère année Informatique UE 102 Architecture des ordinateurs et Algorithmique de base Jean-Yves Antoine http://www.info.univ-tours.fr/~antoine/ UFR Sciences et Techniques

Plus en détail

Conception des systèmes répartis

Conception des systèmes répartis Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan

Plus en détail

REALISATION d'un. ORDONNANCEUR à ECHEANCES

REALISATION d'un. ORDONNANCEUR à ECHEANCES REALISATION d'un ORDONNANCEUR à ECHEANCES I- PRÉSENTATION... 3 II. DESCRIPTION DU NOYAU ORIGINEL... 4 II.1- ARCHITECTURE... 4 II.2 - SERVICES... 4 III. IMPLÉMENTATION DE L'ORDONNANCEUR À ÉCHÉANCES... 6

Plus en détail

Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy

Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy Séminaire Aristote, 17 Déc. 2009 Ecole Polytechnique Palaiseau Plan L'univers du cloud Ressources Grilles, middleware

Plus en détail

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1 Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High

Plus en détail

Entrez dans l ère du Numérique Très Haut Débit

Entrez dans l ère du Numérique Très Haut Débit MIPE Juin 2012 - Nantes http://www.network-th.fr - 0811 560 947 1. Le Très Haut Débit sur Fibre Optique au prix d une SDSL : Mythe ou Réalité? 2. Sauvegarder, Sécuriser, Protéger, Superviser : Délégueznous

Plus en détail

Le modèle client-serveur

Le modèle client-serveur Le modèle client-serveur Olivier Aubert 1/24 Sources http://www.info.uqam.ca/~obaid/inf4481/a01/plan.htm 2/24 Historique architecture centralisée terminaux passifs (un seul OS, systèmes propriétaires)

Plus en détail

ORDONNANCEMENT CONJOINT DE TÂCHES ET DE MESSAGES DANS LES RÉSEAUX TEMPS RÉELS 4. QUELQUES EXEMPLES DU DYNAMISME ACTUEL DU TEMPS RÉEL

ORDONNANCEMENT CONJOINT DE TÂCHES ET DE MESSAGES DANS LES RÉSEAUX TEMPS RÉELS 4. QUELQUES EXEMPLES DU DYNAMISME ACTUEL DU TEMPS RÉEL i LE TEMPS RÉEL 1. PRÉSENTATION DU TEMPS RÉEL 1.1. APPLICATIONS TEMPS RÉEL 1.2. CONTRAINTES DE TEMPS RÉEL 2. STRUCTURES D'ACCUEIL POUR LE TEMPS RÉEL 2.1. EXÉCUTIFS TEMPS RÉEL 2.2. RÉSEAUX LOCAUX TEMPS

Plus en détail

1. Introduction à la distribution des traitements et des données

1. Introduction à la distribution des traitements et des données 2A SI 1 - Introduction aux SI, et à la distribution des traitements et des données Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Support de cours élaboré avec l aide de

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

Exécutif temps réel Pierre-Yves Duval (cppm)

Exécutif temps réel Pierre-Yves Duval (cppm) Exécutif temps réel Pierre-Yves Duval (cppm) Ecole d informatique temps réel - La Londes les Maures 7-11 Octobre 2002 Plan Exécutif Tâches Evénements et synchronisation Partage de ressources Communications

Plus en détail

<Insert Picture Here> Solaris pour la base de donnés Oracle

<Insert Picture Here> Solaris pour la base de donnés Oracle Solaris pour la base de donnés Oracle Alain Chéreau Oracle Solution Center Agenda Compilateurs Mémoire pour la SGA Parallélisme RAC Flash Cache Compilateurs

Plus en détail

Métriques de performance pour les algorithmes et programmes parallèles

Métriques de performance pour les algorithmes et programmes parallèles Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and

Plus en détail

La tête dans les nuages

La tête dans les nuages 19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions

Plus en détail

J2SE Threads, 1ère partie Principe Cycle de vie Création Synchronisation

J2SE Threads, 1ère partie Principe Cycle de vie Création Synchronisation J2SE Threads, 1ère partie Principe Cycle de vie Création Synchronisation Cycle Ingénierie 2e année SIGL Dernière mise à jour : 19/10/2006 Christophe Porteneuve Threads Principes Cycle de vie Création java.lang.thread

Plus en détail

Bases de données documentaires et distribuées Cours NFE04

Bases de données documentaires et distribuées Cours NFE04 Bases de données documentaires et distribuées Cours NFE04 Cloud et scalabilité Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers prénom.nom@cnam.fr Département d informatique Conservatoire

Plus en détail

Tout bénéfice! Marier CAO et Intranet pour le meilleur de la performance à moindre coût. Andreas Blaszczyk, Harsh Karandikar, Giovanni Palli

Tout bénéfice! Marier CAO et Intranet pour le meilleur de la performance à moindre coût. Andreas Blaszczyk, Harsh Karandikar, Giovanni Palli Tout bénéfice! Marier CAO et Intranet pour le meilleur de la performance à moindre coût Andreas Blaszczyk, Harsh Karandikar, Giovanni Palli Capables de construire en un temps record des prototypes virtuels,

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation Base de données S. Lèbre slebre@unistra.fr Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :

Plus en détail

Programmation C. Apprendre à développer des programmes simples dans le langage C

Programmation C. Apprendre à développer des programmes simples dans le langage C Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités

Plus en détail

MEAD : temps réel et tolérance aux pannes pour CORBA

MEAD : temps réel et tolérance aux pannes pour CORBA MEAD : un intergiciel temps-réel et tolérant aux pannes pour CORBA Master 2 Informatique Recherche Université de Marne-la-Vallée Vendredi 3 mars 2006 Plan 1 Introduction 2 Solutions existantes 3 Concilier

Plus en détail

Prise en compte des ressources dans les composants logiciels parallèles

Prise en compte des ressources dans les composants logiciels parallèles Prise en compte des ressources dans les composants logiciels parallèles Aperçus de l action RASC et du projet Concerto F. Guidec Frederic.Guidec@univ-ubs.fr Action RASC Plan de cet exposé Contexte Motivations

Plus en détail

Sauvegarde collaborative en pair-à-pair

Sauvegarde collaborative en pair-à-pair Sauvegarde collaborative en pair-à-pair Fabrice Le Fessant Fabrice.Le_Fessant@inria.fr ASAP Team INRIA Saclay Île de France Octobre 2008 Fabrice Le Fessant () Backup en pair-à-pair Rennes 2008 1 / 21 Plan

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

INTERNET, C'EST QUOI?

INTERNET, C'EST QUOI? INTERNET, C'EST QUOI? Internet, c'est quoi? «Internet est le réseau informatique mondial qui rend accessibles au public des services variés comme le courrier électronique, la messagerie instantanée et

Plus en détail

Présentation Internet

Présentation Internet Présentation Internet 09/01/2003 1 Sommaire sières 1. Qu est-ce que l Internet?... 3 2. Accéder à l Internet... 3 2.1. La station... 3 2.2. La connection... 3 2.3. Identification de la station sur Internet...

Plus en détail

Plan du cours. Incarnations/applications du Grid Computing. Super-calcul virtuel

Plan du cours. Incarnations/applications du Grid Computing. Super-calcul virtuel Plan du cours Les grilles informatiques : concepts et infrastructures La grille nationale Grid5000 Modèles de programmation et intergiciels pour le grilles Etude de cas : Globus, MPICH-G2 et GridRPC Taxinomie

Plus en détail

Chapitre 2 : Abstraction et Virtualisation

Chapitre 2 : Abstraction et Virtualisation Virtualisation et Cloud Computing Chapitre 2 : Abstraction et Virtualisation Objectifs Présenter la notion de niveaux d abstraction séparés par des interfaces bien définies Description des avantages et

Plus en détail

Introduction à la Programmation Parallèle: MPI

Introduction à la Programmation Parallèle: MPI Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4

Plus en détail

Réseaux Locaux. Objectif du module. Plan du Cours #3. Réseaux Informatiques. Acquérir un... Réseaux Informatiques. Savoir.

Réseaux Locaux. Objectif du module. Plan du Cours #3. Réseaux Informatiques. Acquérir un... Réseaux Informatiques. Savoir. Mise à jour: Mars 2012 Objectif du module Réseaux Informatiques [Archi/Lycée] http://fr.wikipedia.org/ Nicolas Bredèche Maître de Conférences Université Paris-Sud bredeche@lri.fr Acquérir un... Ressources

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution

Plus en détail

25/08/2013. Vue Nagios. Vue Nagios. Le réseau du lycée

25/08/2013. Vue Nagios. Vue Nagios. Le réseau du lycée Le réseau du lycée 1. Mise en évidence de la complexité du réseau Le réseau vu par les utilisateurs Le réseau vu par le technicien 2. «Architecture matérielle» du réseau Topologie Le switch, élément central

Plus en détail

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM 4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés

Plus en détail

Algorithmique et systèmes répartis

Algorithmique et systèmes répartis Algorithmique et systèmes répartis Tendances et avenir Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT 30 novembre 2012 Gérard Padiou Algorithmique et systèmes répartis 1 /

Plus en détail

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1

Plus en détail

INTRODUCTION AUX SYSTEMES D EXPLOITATION. TD2 Exclusion mutuelle / Sémaphores

INTRODUCTION AUX SYSTEMES D EXPLOITATION. TD2 Exclusion mutuelle / Sémaphores INTRODUCTION AUX SYSTEMES D EXPLOITATION TD2 Exclusion mutuelle / Sémaphores Exclusion mutuelle / Sémaphores - 0.1 - S O M M A I R E 1. GENERALITES SUR LES SEMAPHORES... 1 1.1. PRESENTATION... 1 1.2. UN

Plus en détail

Proposition d une architecture pour ebay, en mettant l accent sur les notions de scalabilité, de résilience, et de tolérance aux pannes.

Proposition d une architecture pour ebay, en mettant l accent sur les notions de scalabilité, de résilience, et de tolérance aux pannes. PROJET «EBAY» V1 MANUEL ROLLAND, SCIA 2009, REMIS LE 7 MARS 2008 1. Rappels sur le projet : Proposition d une architecture pour ebay, en mettant l accent sur les notions de scalabilité, de résilience,

Plus en détail

NFP111 Systèmes et Applications Réparties

NFP111 Systèmes et Applications Réparties NFP111 Systèmes et Applications Réparties 1 de 34 NFP111 Systèmes et Applications Réparties Cours 7 - CORBA/Partie 1 Claude Duvallet Université du Havre UFR Sciences et Techniques 25 rue Philippe Lebon

Plus en détail

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) ETABLISSEMENT PUBLIC DE SANTE MENTALE «Morbihan» 22, Rue de l Hôpital - B. P. 10 56896 SAINT-AVE Cédex Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) CAHIER DES

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr 1- Structure d un disque 2- Ordonnancement des requêtes 3- Gestion du disque - formatage - bloc d amorçage - récupération

Plus en détail

Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et

Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et l'anglais. L'étudiant a le choix entre deux filières

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2014) Marc Parizeau, Département de génie électrique et de génie informatique Plan Mégadonnées («big data») Architecture Hadoop distribution

Plus en détail

Architecture matérielle des systèmes informatiques

Architecture matérielle des systèmes informatiques Architecture matérielle des systèmes informatiques IDEC, Renens. Version novembre 2003. Avertissement : ce support de cours n est pas destiné à l autoformation et doit impérativement être complété par

Plus en détail

NOTIONS DE RESEAUX INFORMATIQUES

NOTIONS DE RESEAUX INFORMATIQUES NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des

Plus en détail

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran)  Processus = suite d'actions = suite d'états obtenus = trace Processus 1) Contexte 2) Modèles de Notion de Points de vue Modèle fourni par le SX Opérations sur les 3) Gestion des Représentation des Opérations 4) Ordonnancement des Niveaux d ordonnancement Ordonnancement

Plus en détail

Solutions de gestion de la sécurité Livre blanc

Solutions de gestion de la sécurité Livre blanc Solutions de gestion de la sécurité Livre blanc L intégration de la gestion des identités et des accès avec l authentification unique Objectif : Renforcer la politique de sécurité et améliorer la productivité

Plus en détail

Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair

Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair Mathieu Jan Mathieu.Jan@irisa.fr Superviseurs : Gabriel Antoniu, Luc Bougé, Thierry Priol {Gabriel.Antoniu,Luc.Bouge,Thierry.Priol}@irisa.fr

Plus en détail

Multiprogrammation parallèle générique des méthodes de décomposition de domaine

Multiprogrammation parallèle générique des méthodes de décomposition de domaine Multiprogrammation parallèle générique des méthodes de décomposition de domaine Andréa Schwertner-Charão To cite this version: Andréa Schwertner-Charão. Multiprogrammation parallèle générique des méthodes

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Programme de la 1ère année

Programme de la 1ère année Programme de la 1ère année de master informatique Recopié du Syllabus M1 Informatique. 2004-2005 (UPS Toulouse) TC1 - Conception et Programmation Parallèle et Orientée Objet (96h) Objectif : Ce cours a

Plus en détail

Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription

Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Présentée par Leila Abidi Sous la direction de Mohamed Jemni & Christophe Cérin Plan Contexte Problématique Objectifs

Plus en détail

Introduction aux Systèmes et aux Réseaux

Introduction aux Systèmes et aux Réseaux Introduction aux Systèmes et aux Réseaux Cours 5 Processus D après un cours de Julien Forget (univ Lille1) Laure Gonnord http://laure.gonnord.org/pro/teaching/ Laure.Gonnord@univ-lyon1.fr Master CCI -

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Protection des données avec les solutions de stockage NETGEAR

Protection des données avec les solutions de stockage NETGEAR Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences

Plus en détail

Évaluation et implémentation des langages

Évaluation et implémentation des langages Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation

Plus en détail

Introduction aux applications réparties

Introduction aux applications réparties Introduction aux applications réparties Noël De Palma Projet SARDES INRIA Rhône-Alpes http://sardes.inrialpes.fr/~depalma Noel.depalma@inrialpes.fr Applications réparties Def : Application s exécutant

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

Informatique industrielle A7-19571 Systèmes temps-réel J.F.Peyre. Partie I : Introduction

Informatique industrielle A7-19571 Systèmes temps-réel J.F.Peyre. Partie I : Introduction Informatique industrielle A7-19571 Systèmes temps-réel J.F.Peyre Partie I : Introduction Plan de la première partie Quelques définitions Caractéristiques communes des applications temps-réel Exemples d

Plus en détail

La carte à puce. Jean-Philippe Babau

La carte à puce. Jean-Philippe Babau La carte à puce Jean-Philippe Babau Département Informatique INSA Lyon Certains éléments de cette présentation sont issus de documents Gemplus Research Group 1 Introduction Carte à puce de plus en plus

Plus en détail

Outils de développement collaboratif

Outils de développement collaboratif Outils de développement collaboratif Envol 2012 Olivier Thauvin 24 janvier 2013 Olivier Thauvin Outils de développement collaboratif 24 janvier 2013 1 / 80 1 Avant Propos 2 Versionner 3 Communiquer 4 Documenter

Plus en détail

AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE

AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE Le Conseiller pour la Science et la Technologie SST/PR Berlin, le 23 novembre 2010 Etat des lieux comparatif dans le domaine des

Plus en détail

Clusters de PCs Linux

Clusters de PCs Linux Clusters de PCs Linux Benoit DELAUNAY delaunay@in2p3.fr Centre de Calcul de l'in2p3 Plan Historique PC au CCIN2P3. Une première étape. Une réponse à la demande. Une véritable orientation. La place des

Plus en détail

Introduction aux systèmes temps réel

Introduction aux systèmes temps réel Introduction aux systèmes temps réel Frank Singhoff Bureau C-203 Université de Brest, France LISyC/EA 3883 singhoff@univ-brest.fr UE applications de l informatique, Université de Brest Page 1/22 Plan du

Plus en détail

Livre blanc Haute disponibilité sous Linux

Livre blanc Haute disponibilité sous Linux Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

S LICENCE INFORMATIQUE Non Alt S Alt S S1 S2 S3 S4 SS5 S6 Parcours : S IL (Ingénierie Logicielle) SRI (Systèmes et Réseaux Informatiques)

S LICENCE INFORMATIQUE Non Alt S Alt S S1 S2 S3 S4 SS5 S6 Parcours : S IL (Ingénierie Logicielle) SRI (Systèmes et Réseaux Informatiques) NOM DE L'UE : Algorithmique et optimisation S LICENCE INFORMATIQUE Non Alt S Alt S S1 S2 S3 S4 SS5 S6 Parcours : S IL (Ingénierie Logicielle) SRI (Systèmes et Réseaux Informatiques) MASTER INFORMATIQUE

Plus en détail

Services OSI. if G.Beuchot. Services Application Services Présentation - Session Services Transport - Réseaux - Liaison de Données - Physique

Services OSI. if G.Beuchot. Services Application Services Présentation - Session Services Transport - Réseaux - Liaison de Données - Physique Services OSI Services Application Services Présentation - Session Services Transport - Réseaux - Liaison de Données - Physique 59 SERVICES "APPLICATION" Architecture spécifique : ALS (Application Layer

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe

Plus en détail

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Chapitre V : La gestion de la mémoire Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Introduction Plusieurs dizaines de processus doivent se partager

Plus en détail

Qu est-ce que le «cloud computing»?

Qu est-ce que le «cloud computing»? Qu est-ce que le «cloud computing»? Par Morand Studer eleven Octobre 2011 Qu est-ce que le «cloud computing»? - Morand Studer eleven Octobre 2011 www.eleven.fr 1 Aujourd hui, la démocratisation de l informatique

Plus en détail

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé

Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé Les technologies de virtualisation de serveurs séduisent les organisations car elles permettent de réduire le Coût Total de Possession

Plus en détail

Système de stockage IBM XIV Storage System Description technique

Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de

Plus en détail

Systèmes répartis. Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine. Systèmes répartis p.1/49

Systèmes répartis. Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine. Systèmes répartis p.1/49 Systèmes répartis Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine Systèmes répartis p.1/49 Systèmes répartis Définition très large : un système réparti est système informatique

Plus en détail

Pair-à-Pair: Architectures et Services

Pair-à-Pair: Architectures et Services Pair-à-Pair: Architectures et Services Fabrice Le Fessant Fabrice.Le_Fessant@inria.fr Équipe ASAP (Réseaux très large échelle) INRIA Saclay Île de France Octobre 2008 Fabrice Le Fessant () Architectures

Plus en détail

THÈSE. Présentée devant. l Université de Rennes 1. pour obtenir. par. Emmanuel JEANVOINE

THÈSE. Présentée devant. l Université de Rennes 1. pour obtenir. par. Emmanuel JEANVOINE N o d ordre: 3595 THÈSE Présentée devant l Université de Rennes 1 pour obtenir le grade de : DOCTEUR DE L UNIVERSITÉ DE RENNES 1 Mention INFORMATIQUE par Emmanuel JEANVOINE Équipe d accueil : INRIA - Équipe-Projet

Plus en détail

Hébergement MMI SEMESTRE 4

Hébergement MMI SEMESTRE 4 Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources

Plus en détail

Le e s tocka k ge g DAS,NAS,SAN

Le e s tocka k ge g DAS,NAS,SAN Le stockage DAS,NAS,SAN Sommaire Introduction SAN NAS Conclusion Bibliographie Questions Introduction Besoin de partage de données à travers un réseau Explosion des volumes de données Comment assurer les

Plus en détail

Cours Bases de données

Cours Bases de données Informations sur le cours Cours Bases de données 9 (10) séances de 3h Polycopié (Cours + TD/TP) 3 année (MISI) Antoine Cornuéjols www.lri.fr/~antoine antoine.cornuejols@agroparistech.fr Transparents Disponibles

Plus en détail

1 Mesure de la performance d un système temps réel : la gigue

1 Mesure de la performance d un système temps réel : la gigue TP TR ENSPS et MSTER 1 Travaux Pratiques Systèmes temps réel et embarqués ENSPS ISV et Master TP1 - Ordonnancement et communication inter-processus (IPC) Environnement de travail Un ordinateur dual-core

Plus en détail

Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html. R.R. Université Lyon 2

Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html. R.R. Université Lyon 2 Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html 1 Plan de présentation 1. L écosystème Hadoop 2. Principe de programmation MapReduce 3. Programmation des fonctions

Plus en détail

L3 informatique Réseaux : Configuration d une interface réseau

L3 informatique Réseaux : Configuration d une interface réseau L3 informatique Réseaux : Configuration d une interface réseau Sovanna Tan Septembre 2009 Révision septembre 2012 1/23 Sovanna Tan Configuration d une interface réseau Plan 1 Introduction aux réseaux 2

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Introduction aux systèmes temps réel. Iulian Ober IRIT ober@iut-blagnac.fr

Introduction aux systèmes temps réel. Iulian Ober IRIT ober@iut-blagnac.fr Introduction aux systèmes temps réel Iulian Ober IRIT ober@iut-blagnac.fr Définition Systèmes dont la correction ne dépend pas seulement des valeurs des résultats produits mais également des délais dans

Plus en détail