Algorithmiques et architectures distribuées et parallèles : une
|
|
- Micheline Doucet
- il y a 8 ans
- Total affichages :
Transcription
1 Algorithmiques et architectures distribuées et parallèles : une introduction Frederic Guinand Eric Sanlaville Master 1 informatique eric.sanlaville@univ-lehavre.fr 2heures
2 Plan
3 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P
4 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P
5 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P
6 Plan 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P
7 Pourquoi le parallélisme? pour calculer plus vite, plus gros et différemment. Calculs numériques. Data mining Vérification/validation de modèles. Simulations. Serveurs d applications, serveurs de données. Synthèse, Traitement d image
8 Pourquoi le parallélisme? pour calculer plus vite, plus gros et différemment. Calculs numériques. Data mining Vérification/validation de modèles. Simulations. Serveurs d applications, serveurs de données. Synthèse, Traitement d image
9 Qui utilise le parallélisme? Milieux de la recherche et du développement physique nucléaire, mécanique céleste, biologie moléculaire, sociologie...
10 Qui utilise le parallélisme? Milieux économiques et industriels Aéronautique : turbulences, écoulements, profils d ailes. Onera : image des interactions entre les tourbillons en bout d aile et les turbulences résultant de la propulsion. Calcul réalisé sur NEC SX5 et NEC-SX6 :
11 Qui utilise le parallélisme? Milieux économiques et industriels Industrie automobile. crash-tests virtuels chez un constructeur automobile : finance : prévision de l évolution des marchés.
12 Qui utilise le parallélisme? Société civile/services publics gestion et production d énergie : EDF : gestion du réseau, fonctionnement de certains éléments des centrales nucléaires... prévisions météorologiques :
13 Qui utilise le parallélisme? Météo France Modèle opérationnel Arpège (1998), nombre de variables à traiter est Nv = 2, quatre variables à trois dimensions x 31 niveaux x 600 x 300 points sur l horizontale et une variable à deux dimensions x 600 x 300 points sur l horizontale, le nombre de calculs à effectuer pour une variable est Nc = le nombre de pas de temps pour réaliser une prévision à 24 heures d échéance est Nt = 96 (pas de temps de 15 minutes).
14 Qui utilise le parallélisme? Météo France Les calculs étant effectués sur l ordinateur Fujitsu VPP700 crédité d une vitesse de calcul R atteignant 20 gigaflops (20 milliards d opérations flottantes par seconde) le temps T nécessaire pour obtenir une prévision à 24 heures d échéance est un peu inférieur à un quart d heure. Météo-France a acheté dernièrement un NEC SX-8 qui devrait délivrer une puissance de 35 Tflops (mise en service : 2008). en théorie, le même calcul : 1 seconde...
15 Qui utilise le parallélisme? Météo France Les calculs étant effectués sur l ordinateur Fujitsu VPP700 crédité d une vitesse de calcul R atteignant 20 gigaflops (20 milliards d opérations flottantes par seconde) le temps T nécessaire pour obtenir une prévision à 24 heures d échéance est un peu inférieur à un quart d heure. Météo-France a acheté dernièrement un NEC SX-8 qui devrait délivrer une puissance de 35 Tflops (mise en service : 2008). en théorie, le même calcul : 1 seconde...
16 Qui utilise le parallélisme? Météo France Les calculs étant effectués sur l ordinateur Fujitsu VPP700 crédité d une vitesse de calcul R atteignant 20 gigaflops (20 milliards d opérations flottantes par seconde) le temps T nécessaire pour obtenir une prévision à 24 heures d échéance est un peu inférieur à un quart d heure. Météo-France a acheté dernièrement un NEC SX-8 qui devrait délivrer une puissance de 35 Tflops (mise en service : 2008). en théorie, le même calcul : 1 seconde...
17 Qui utilise le parallélisme? Divers Production d images de synthèse pour films vidéos, jeux, urbanisme... :
18 Qui utilise le parallélisme? Tout le monde? Les PC Multi coeurs sont partout Ce sont des systèmes parallèles sur une seule puce! Ordinateur serveur interne -> Meta computing -> Cloud Computing Vers une externalisation des puissances de calcul et de stockage?
19 Historique : les pionniers : explosion des architectures : extinction massive 2000 l ère des géants
20 Les pionniers (1950s-70s) Difficulté première, la mise en oeuvre du matériel. Challenge : augmenter le ratio fonctionnement/maintenance. ILLIAC IV : quelques heures de calcul/quelques semaines de maintenance. Les premiers grands noms du parallélisme apparaissent et avec eux, les premiers grands principes : vectorisation, techniques de pipeline, temps partagé, multiprogrammation... Amdahl : IBM 701, 704, 709. Seymour Cray : Control Data Corporation.
21 Les pionniers (1950s-70s) Difficulté première, la mise en oeuvre du matériel. Challenge : augmenter le ratio fonctionnement/maintenance. ILLIAC IV : quelques heures de calcul/quelques semaines de maintenance. Les premiers grands noms du parallélisme apparaissent et avec eux, les premiers grands principes : vectorisation, techniques de pipeline, temps partagé, multiprogrammation... Amdahl : IBM 701, 704, 709. Seymour Cray : Control Data Corporation.
22 Les machines CDC6600 (1964) : unités de calcul en parallèle, 10MHz, 2Mo, 9 MFlops CDC7600 (1969) : équivalent à 10 CDC6600 : 40 MFlops
23 Ces années-là transistor sur base de silicium (Texas Instrument ) premier disque dur (1957) premier compilateur fortran (1957) algol ( ). Algorithmic language - récursivité. Voici un langage très en avance de son temps, il n a pas seulement été une amélioration de ses prédécesseurs mais aussi une amélioration de presque tous ses successeurs. Bull : Gamma 60. Première machine multiprocesseurs française. interface RS-232 (1966) technologie CMOS (Texas Instrument ) ARPANET (ancêtre d Internet ) Unix (1970)
24 Le temps de l exubérance (1970s-80s) Premiers succès commerciaux. Apparition de multiples constructeurs : Thinking Machine Corporation ( ), Sequent ( ), Telmat ( ), Archipel ( ), Parsytec ( ), Kendall Square Research ( ), Meiko ( ), BBN ( ), Digital ( ), IBM, Intel, CRAY ( ), MasPar ( ), Silicon Graphics ( ), Sun, Fujitsu, Nec. Offre importante et exotique : Connection Machine 1 : hypercube de processeurs. Problèmes majeurs : l offre logicielle et le prix. étape suivante : machines abordables et utilisables.
25 Les machines Cray-1 (1975), Cray X-MP (1982) : 2 à 4 processeurs, Cray-2 (1983) : 8 processeurs, Cray Y-MP (1989). Hitachi S-810/820. Fujitsu VP200/VP400. Convex C-1. Nec SX-1/2. Connection Machine processeurs. Topologie : hypercube. Intel ipsc/1 128 processeurs. Topologie : grille.
26 Les machines Illiac IV (Burrough CRAY MHz, 8 Mo, 160 MFlops
27 Les machines
28 Ces années-là Langage pascal (Wirth ) Ray-Tomlinson : premier (1972) composants sur 1 cm 2 (1975). premier réseau local : Datapoint système ARC (1976). fibre optique (1977). Support d Ethernet par les principaux constructeurs (1979). Paterson - Hennessy : concept des processeurs RISC (1980) Tim Berners-Lee : projet World Wide Web au CERN (1989).
29 Environnements (1990s) Difficultés bien identifiées : routage, ordonnancement... parallélisme automatique très limité conception d outils d aide à la parallélisation : Hypertool, Pyrros, ParaRex, Adam, Apache... Autre problème : ratio prix/durée de vie d une machine parallèle extrêmement élevé. solution apportée par PVM : utiliser des réseaux locaux de stations de travail pour faire du calcul parallèle. Constructeurs machines parallèles réseaux de stations de travail intégrés.
30 Les machines Nec SX-3 (1991). Fujitsu VP-2600 (1991). CM-5 (1992). Topologie : fat-tree. Cray T3D (1993). Jusqu à 512 processeurs. Topologie : tore 3D. ASCI Red, et Blue ( ).
31 Ces années-là Premier multicast audio sur le Net. PVM (1991). Netscape à partir de NCSA Mosaic (1994).
32 L ère des Géants : les Grilles Depuis le milieu des années 90. Constat : les matériels sont la plupart du temps peu et sous-utilisés. Idée : utiliser ces matériels dont le nombre est énorme : meta-computing. Projets les plus simples : Principe : des milliards de calculs indépendants effectués sur les PCs de volontaires. Seti@Home : transformés de Fourier rapides, Folding@Home : conformation 3D de protéines. Grilles de calcul : ajouter la disponibilité, la puissance, les interactions
33 L ère des Géants : les Grilles et au delà... Principe des grilles de calculs : offrir un service telle qu il est offert par les producteurs d énergie. Objectif : brancher le cable réseau du PC pour consommer de la puissance de calcul comme on branche une prise de courant pour consommer de la puissance électrique. Moyens : plateforme de services : authentification, sécurisation, répartition de charge, stockage de données, partage de documents... Projets en cours : Globus, Harness, DataGRID, Legion, EuroGRID, GénoGRID, Grid5000, EGEE,... Cloud Computing : Google, Amazon, IBM Blue Cloud, Intel+HP+Yahoo,...
34 L ère des Géants : les Grappes Depuis les milieu des années 90. Idée des grilles de calcul intéressante mais... Constat : les communications pénalisent une bonne utilisation. Constat : les problèmes de sécurité pénalisent l utilisation commerciale Remède : construire des réseaux locaux de grandes dimensions. Grappes de machines (clusters of machines).
35 L ère des Géants : les machines Puissance des machines en 2007 (source top500.org) : 1 BlueGene/L. IBM. US. 280 TFlops processeurs. 2 Red Storm. Cray Inc. US. 101 TFlops processeurs. 3 Blue Gene. IBM. US. 91 TFlops processeurs. 4 ASC Purple. IBM. US. 91 TFlops. 75 TFlops processeurs. 5 BladeCenter. IBM. Espagne. 62 TFlops processeurs. 6 Thunderbird. Dell. US. 53 TFlops processeurs. 7 Tera-10. Bull SA. CEA France. 52 TFlops processeurs.
36 L ère des Géants : les machines Puissance des machines en décembre 2008 : Roadrunner IBM. Los Alamos DOE US TFlops processeurs. Nucléaire, armement, sécurité. Jaguar Cray Inc. DOE US TFlops processeurs. Pléïades SGI. NASA US. 487 TFlops processeurs. BlueGene/L. IBM. US. 478 TFlops processeurs. (9) Red Storm. Cray Inc. US. 204 TFlops processeurs. (14) Jade SGI CINES FRANCE 128 TFlops processeurs. (54) Tera-10. Bull SA. CEA France. 52 TFlops processeurs.
37 Les systèmes Système Pourcentage (fin 2007) Linux Unix BSD Based 3 Mixed 6.40 Mac OS 0.60
38 Convergence Parallélisme informatique distribuée : java RMI (Remote Method Invocation) inspiré des RPC (Remote Procedure Call), Architecture Corba pour les objets distribués. Support des communications : Internet. Nouveaux objectifs (systèmes embarqués) : robustesse, disponibilité, tolérance aux pannes... Calcul intensif calcul intensif + importantes communications. recherche de performances compromis entre équilibrage de la charge et minimisation des communications.
39 Plan Historique 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P
40 Définitions Ordinateur parallèle : ensemble de processeurs capables de travailler en coopération de manière à résoudre un problème donné (I. Foster). Le parallélisme est une technique d accroissement des performances d un système fondé sur l exécution en parallèle de plusieurs processus. Le parallélisme recouvre tous les aspects liés aux systèmes multi-processeurs et multi-ordinateurs et aux applications associées conception, modélisation, mise en œuvre et utilisation des systèmes et des applications.
41 Définitions En informatique, le calcul parallèle consiste en l exécution simultanée d une même tâche, partitionnée et adaptée afin de pouvoir être répartie entre plusieurs processeurs en vue de traiter plus rapidement des problèmes plus grands (Wikipedia). L informatique distribuée recouvre les aspects matériels, réseaux, systèmes et algorithmiques liés à l exécution d une application sur un ensemble de processeurs.
42 Frontières du domaine difficiles à cerner : 1 gestion de ressources, 2 communications inter-processus, 3 partage de données, 4 modèle de programmation, 5 mesures et analyse de performances, 6 aspects temporels (temps unique?)
43 Frontières du domaine difficiles à cerner : 1 gestion de ressources, 2 communications inter-processus, 3 partage de données, 4 modèle de programmation, 5 mesures et analyse de performances, 6 aspects temporels (temps unique?)
44 Programmation parallèle 1 création de activités ou tâches, 2 répartition des activités entre les ressources, 3 les communications entre les activités. 4 Tout commence au niveau du système et du réseau.
45 Programmation parallèle 1 création de activités ou tâches, 2 répartition des activités entre les ressources, 3 les communications entre les activités. 4 Tout commence au niveau du système et du réseau.
46 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.
47 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.
48 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.
49 Programmes et processus programme binaire : objet inerte nécessite un support pour son exécution processus programme : le code binaire exécutable données : espace d adressage du processus informations diverses qui définissent le contexte d exécution du processus : bloc de contrôle du processus Toutes les actions effectuées par un processeur sont exécutées dans le contexte d un processus terminologie : souvent activité thread. Pour nous activité action exécutée par un processus.
50 Ordonnancement système multi-tâches : comment gérer la ressource de calcul? rôle de l ordonnanceur. quelle stratégie? tâches insécables : impossible tâches interruptibles (E/S) temps partagé (time slicing) temps partagé + interruption
51 Ordonnancement système multi-tâches : comment gérer la ressource de calcul? rôle de l ordonnanceur. quelle stratégie? tâches insécables : impossible tâches interruptibles (E/S) temps partagé (time slicing) temps partagé + interruption
52 Visualisation des effets du time sharing Exemple un processus créé un processus fils le père et le fils comptent chacun de leur côté jusqu à
53 Visualisation des effets du time sharing
54 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs
55 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs
56 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs
57 Mécanismes de communications inter-processus Il existe deux mécanismes principaux pour faire communiquer deux processus : La communication via la mémoire La communication par échange de messages Principales caractéristiques : synchrone asynchrone directe indirecte de type un-vers-un de type un-vers-plusieurs
58 Communication par mémoire partagée Les processus qui ont besoin d échanger des données le font via la mémoire en partageant une partie de la mémoire, partie qui est attachée à leur espace d adressage. On appelle segment de mémoire partagé cette mémoire commune.
59 Communication par mémoire partagée Les processus qui ont besoin d échanger des données le font via la mémoire en partageant une partie de la mémoire, partie qui est attachée à leur espace d adressage. On appelle segment de mémoire partagé cette mémoire commune.
60 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.
61 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.
62 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.
63 Problèmes Que se passe-t-il si deux processus lisent en même temps?...rien de particulier. Que se passe-t-il si un processus lit pendant qu un autre écrit?...un gros problème, la donnée risque de ne pas être dans un état cohérent et peut ne correspondre ni à la la donnée avant l écriture, ni à la donnée après l écriture. Que se passe-t-il si deux processus écrivent simultanément?...de gros problèmes en perspective. problèmes de synchronisation des processus et de protection des accès.
64 Origine du problème Les opérations de lecture/écriture en mémoire ne sont pas atomiques. une lecture comme une écriture peut être interrompue au cours de son action. La solution : les sémaphore d exclusion mutuelle (mutex) : rendent les opérations de lecture/écriture atomiques en restreignant l accès à un segment de mémoire partagé à un seul processus à la fois. Un sémaphore possède deux opérations : une opération d acquisition souvent notée P une opération de libération souvent notée V.
65 Origine du problème Les opérations de lecture/écriture en mémoire ne sont pas atomiques. une lecture comme une écriture peut être interrompue au cours de son action. La solution : les sémaphore d exclusion mutuelle (mutex) : rendent les opérations de lecture/écriture atomiques en restreignant l accès à un segment de mémoire partagé à un seul processus à la fois. Un sémaphore possède deux opérations : une opération d acquisition souvent notée P une opération de libération souvent notée V.
66 Origine du problème Les opérations de lecture/écriture en mémoire ne sont pas atomiques. une lecture comme une écriture peut être interrompue au cours de son action. La solution : les sémaphore d exclusion mutuelle (mutex) : rendent les opérations de lecture/écriture atomiques en restreignant l accès à un segment de mémoire partagé à un seul processus à la fois. Un sémaphore possède deux opérations : une opération d acquisition souvent notée P une opération de libération souvent notée V.
67 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.
68 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.
69 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.
70 Dangers Lorsqu il existe plusieurs segments de mémoire partagée s 1, s 2 et s 3 et plusieurs processus p 1, p 2 et p 3. p 1 bloque l accès à s 1, p 2 bloque l accès à s 2 et p 3 bloque l accès à s 3, et p 1 pour libérer s 1 a besoin d accéder à s 2, mais p 2 pour libérer s 2 a besoin de lire s 3. Si p 3 n a pas besoin de quoi que ce soit d autre, il fait ce qu il a à faire, puis libère s 3, ce qui libère s 2 et par la suite s 1... ouf!! par contre, si p 3 a besoin de lire s 1 pour libérer s 3... situation d interblocage.
71 Avertissement La conception d une application faisant intervenir plusieurs activités qui s exécutent simultanément requiert une étude fine de leurs interactions afin d éviter toute situation d interblocage
72 Communications inter-processus directes Communications par pipe Communications par échanges de messages
73 Communications par échange de messages par socket : point de communication. primitives d échange de message : envoie de messages sendto() reception de messages recvfrom() la reception est par défaut une primitive bloquante
74 Exemple : forum de discussion algorithme du service de forum Users[] /* tableau des utilisateurs (vide au départ) */ ouverture et gestion de la socket Tantque vrai Faire reception_message(source,contenu,...) Si source / Users Alors Users.ajouter(source) finsi Pour chaque u Users Faire envoyer_message(u,contenu) finpour fintantque
75 Exemple : forum de discussion Algorithme de l utilisateur ouverture et gestion de la socket Tantque vrai Faire contenu saisir_message() envoyer(forum,contenu) TantQue reception_message(forum,contenu) Faire afficher(contenu) fintantque fintantque Cet algorithme ne fonctionne pas, parce que les réceptions sont bloquantes.
76 Résolution du problème un processus s occupe de l envoie sur une socket. un processus a la charge des receptions sur une autre socket. contrainte : il faut que le service de forum gère deux sockets par utilisateur : une socket d écoute des messages depuis les utilisateurs. Une socket d envoie des messages vers les utilisateurs. deux processus par utilisateur
77 Résolution du problème un processus s occupe de l envoie sur une socket. un processus a la charge des receptions sur une autre socket. contrainte : il faut que le service de forum gère deux sockets par utilisateur : une socket d écoute des messages depuis les utilisateurs. Une socket d envoie des messages vers les utilisateurs. deux processus par utilisateur
78 Résolution du problème un processus s occupe de l envoie sur une socket. un processus a la charge des receptions sur une autre socket. contrainte : il faut que le service de forum gère deux sockets par utilisateur : une socket d écoute des messages depuis les utilisateurs. Une socket d envoie des messages vers les utilisateurs. deux processus par utilisateur
79 Exemple avec 3 clients C1 Serveur C2 C3 Les 3 clients sont connectés et le serveur est démarré
80 Modèle de programmation Il existe d autres mécanismes, boîtes aux lettres, qui permettent de s affranchir de ces points de synchronisation. Ce modèle de programmation correspond au schéma Client/Serveur, mais il en existe plusieurs autres types...
81 Système + réseau = parallélisme segment mémoire partagée parallélisme à mémoire partagée point de communication : socket parallélisme à mémoire distribuée problèmes rencontrés en système se retrouve en parallélisme.
82 Plan Historique Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair 1 Historique 2 3 Schéma C/S Schéma M/S Schéma P2P
83 Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Exécutions distribuées asynchrones Chaque processus se déroule indépendamment des autres processus. Le bloquage en attente d une reception de message peut être interprété comme un point de synchronisation entre ce processus et l émetteur. Plusieurs modèles de programmation distribuée et parallèle suivent des schémas d exécution distribuée asynchrones.
84 Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Schémas d exécution distribuée asynchrones Le modèle client/serveur (C/S) Le modèle maître/esclave (M/S) Le modèle pair-à-pair (P2P)
85 Schéma client/serveur Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair un serveur des clients initiative aux clients un serveur plusieurs services
86 Schéma client/serveur Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair demande de service réponses Client Client Client Serveur Client Client
87 Schéma maître/esclaves Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair d un certain point de vue, ce schéma est l inverse du client/serveur : client/serveur : une multitude de clients et un serveur. maître/esclaves : un client et une multitude de serveurs. initiative au maître qui distribue du travail aux esclaves.
88 Schéma maître/esclaves Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Esclave retour du résultat envoi de travail Esclave Esclave Maitre Esclave Esclave
89 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.
90 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.
91 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.
92 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.
93 Différence conceptuelle Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Client/serveur : chaque interaction (requête/réponse) correspond à une tâche indépendante. Maître/esclaves : concept centralisé. Le maître construit quelque chose et requiert l aide. Chaque interaction (envoi de travail/retour de résultat) peut ou non être indépendant des autres. Analogie immobilière : un constructeur de maisons et des clients : client/serveur : projets indépendants. un maître d oeuvre et des artisans : modèle maître/esclaves : différentes tâches pour un unique projet.
94 Schéma pair-à-pair Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair schéma entièrement distribué, schémas client/serveur et/ou maître/esclaves généralisés, chaque entité (pair) remplie les deux rôles.
95 Schéma pair-à-pair Schéma client/serveur (C/S) Schéma maître/esclaves (M/S) Schéma pair-à-pair Pair Pair Pair Pair Pair Pair
Parallélisme et bioinformatique
Master EGOIST - Rouen Plan 1 Introduction Parallélisme? Open MPI 2 Historique 3 Pour qui? Pour quoi? Parallélisme? C est quoi le parallélisme? Principe regrouper (physiquement ou logiquement) un ensemble
Plus en détailParallélisme et bioinformatique
Master EGOIST - Rouen Plan Généralités Plan Généralités 1 Généralités 2 Généralités La science informatique n est pas plus la science des ordinateurs que l astronomie n est celle des télescopes (ou la
Plus en détailInitiation au HPC - Généralités
Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours
Plus en détailSystèmes et traitement parallèles
Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications
Plus en détailLes environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
Plus en détailMODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ
MODULE I1 Plan Chapitre 1 Qu'est ce qu'un S.E? Introduction Historique Présentation d'un S.E Les principaux S.E R&T 1ère année Votre environnement Sylvain MERCHEZ Introduction Introduction Rôles et fonctions
Plus en détailPROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN
PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,
Plus en détail3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.
3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation
Plus en détailCH.3 SYSTÈMES D'EXPLOITATION
CH.3 SYSTÈMES D'EXPLOITATION 3.1 Un historique 3.2 Une vue générale 3.3 Les principaux aspects Info S4 ch3 1 3.1 Un historique Quatre générations. Préhistoire 1944 1950 ENIAC (1944) militaire : 20000 tubes,
Plus en détailPlan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction
Plan du cours Autres modèles pour les applications réparties Introduction Riveill@unice.fr http://rangiroa.polytech.unice.fr Notre terrain de jeu : les systèmes répartis Un rappel : le modèle dominant
Plus en détailModules du DUT Informatique proposés pour des DCCE en 2014/2015
Modules du DUT Informatique proposés pour des DCCE en 2014/2015 Résumé de l offre : Parmi les 5500 heures d enseignement informatique dispensées au département informatique de l IUT (avec 2880 heures de
Plus en détailInformatique UE 102. Jean-Yves Antoine. Architecture des ordinateurs et Algorithmique de base. UFR Sciences et Techniques Licence S&T 1ère année
UFR Sciences et Techniques Licence S&T 1ère année Informatique UE 102 Architecture des ordinateurs et Algorithmique de base Jean-Yves Antoine http://www.info.univ-tours.fr/~antoine/ UFR Sciences et Techniques
Plus en détailConception des systèmes répartis
Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan
Plus en détailREALISATION d'un. ORDONNANCEUR à ECHEANCES
REALISATION d'un ORDONNANCEUR à ECHEANCES I- PRÉSENTATION... 3 II. DESCRIPTION DU NOYAU ORIGINEL... 4 II.1- ARCHITECTURE... 4 II.2 - SERVICES... 4 III. IMPLÉMENTATION DE L'ORDONNANCEUR À ÉCHÉANCES... 6
Plus en détailEvolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy
Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy Séminaire Aristote, 17 Déc. 2009 Ecole Polytechnique Palaiseau Plan L'univers du cloud Ressources Grilles, middleware
Plus en détailLes clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1
Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High
Plus en détailEntrez dans l ère du Numérique Très Haut Débit
MIPE Juin 2012 - Nantes http://www.network-th.fr - 0811 560 947 1. Le Très Haut Débit sur Fibre Optique au prix d une SDSL : Mythe ou Réalité? 2. Sauvegarder, Sécuriser, Protéger, Superviser : Délégueznous
Plus en détailLe modèle client-serveur
Le modèle client-serveur Olivier Aubert 1/24 Sources http://www.info.uqam.ca/~obaid/inf4481/a01/plan.htm 2/24 Historique architecture centralisée terminaux passifs (un seul OS, systèmes propriétaires)
Plus en détailORDONNANCEMENT CONJOINT DE TÂCHES ET DE MESSAGES DANS LES RÉSEAUX TEMPS RÉELS 4. QUELQUES EXEMPLES DU DYNAMISME ACTUEL DU TEMPS RÉEL
i LE TEMPS RÉEL 1. PRÉSENTATION DU TEMPS RÉEL 1.1. APPLICATIONS TEMPS RÉEL 1.2. CONTRAINTES DE TEMPS RÉEL 2. STRUCTURES D'ACCUEIL POUR LE TEMPS RÉEL 2.1. EXÉCUTIFS TEMPS RÉEL 2.2. RÉSEAUX LOCAUX TEMPS
Plus en détail1. Introduction à la distribution des traitements et des données
2A SI 1 - Introduction aux SI, et à la distribution des traitements et des données Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Support de cours élaboré avec l aide de
Plus en détailEléments d architecture des machines parallèles et distribuées
M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture
Plus en détailContributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
Plus en détailExécutif temps réel Pierre-Yves Duval (cppm)
Exécutif temps réel Pierre-Yves Duval (cppm) Ecole d informatique temps réel - La Londes les Maures 7-11 Octobre 2002 Plan Exécutif Tâches Evénements et synchronisation Partage de ressources Communications
Plus en détail<Insert Picture Here> Solaris pour la base de donnés Oracle
Solaris pour la base de donnés Oracle Alain Chéreau Oracle Solution Center Agenda Compilateurs Mémoire pour la SGA Parallélisme RAC Flash Cache Compilateurs
Plus en détailMétriques de performance pour les algorithmes et programmes parallèles
Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and
Plus en détailLa tête dans les nuages
19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions
Plus en détailJ2SE Threads, 1ère partie Principe Cycle de vie Création Synchronisation
J2SE Threads, 1ère partie Principe Cycle de vie Création Synchronisation Cycle Ingénierie 2e année SIGL Dernière mise à jour : 19/10/2006 Christophe Porteneuve Threads Principes Cycle de vie Création java.lang.thread
Plus en détailBases de données documentaires et distribuées Cours NFE04
Bases de données documentaires et distribuées Cours NFE04 Cloud et scalabilité Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers prénom.nom@cnam.fr Département d informatique Conservatoire
Plus en détailTout bénéfice! Marier CAO et Intranet pour le meilleur de la performance à moindre coût. Andreas Blaszczyk, Harsh Karandikar, Giovanni Palli
Tout bénéfice! Marier CAO et Intranet pour le meilleur de la performance à moindre coût Andreas Blaszczyk, Harsh Karandikar, Giovanni Palli Capables de construire en un temps record des prototypes virtuels,
Plus en détailParallélisme et Répartition
Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre
Plus en détailRapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121
Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère
Plus en détail4. Utilisation d un SGBD : le langage SQL. 5. Normalisation
Base de données S. Lèbre slebre@unistra.fr Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :
Plus en détailProgrammation C. Apprendre à développer des programmes simples dans le langage C
Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités
Plus en détailMEAD : temps réel et tolérance aux pannes pour CORBA
MEAD : un intergiciel temps-réel et tolérant aux pannes pour CORBA Master 2 Informatique Recherche Université de Marne-la-Vallée Vendredi 3 mars 2006 Plan 1 Introduction 2 Solutions existantes 3 Concilier
Plus en détailPrise en compte des ressources dans les composants logiciels parallèles
Prise en compte des ressources dans les composants logiciels parallèles Aperçus de l action RASC et du projet Concerto F. Guidec Frederic.Guidec@univ-ubs.fr Action RASC Plan de cet exposé Contexte Motivations
Plus en détailSauvegarde collaborative en pair-à-pair
Sauvegarde collaborative en pair-à-pair Fabrice Le Fessant Fabrice.Le_Fessant@inria.fr ASAP Team INRIA Saclay Île de France Octobre 2008 Fabrice Le Fessant () Backup en pair-à-pair Rennes 2008 1 / 21 Plan
Plus en détailJulien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration
Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...
Plus en détailINTERNET, C'EST QUOI?
INTERNET, C'EST QUOI? Internet, c'est quoi? «Internet est le réseau informatique mondial qui rend accessibles au public des services variés comme le courrier électronique, la messagerie instantanée et
Plus en détailPrésentation Internet
Présentation Internet 09/01/2003 1 Sommaire sières 1. Qu est-ce que l Internet?... 3 2. Accéder à l Internet... 3 2.1. La station... 3 2.2. La connection... 3 2.3. Identification de la station sur Internet...
Plus en détailPlan du cours. Incarnations/applications du Grid Computing. Super-calcul virtuel
Plan du cours Les grilles informatiques : concepts et infrastructures La grille nationale Grid5000 Modèles de programmation et intergiciels pour le grilles Etude de cas : Globus, MPICH-G2 et GridRPC Taxinomie
Plus en détailChapitre 2 : Abstraction et Virtualisation
Virtualisation et Cloud Computing Chapitre 2 : Abstraction et Virtualisation Objectifs Présenter la notion de niveaux d abstraction séparés par des interfaces bien définies Description des avantages et
Plus en détailIntroduction à la Programmation Parallèle: MPI
Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4
Plus en détailRéseaux Locaux. Objectif du module. Plan du Cours #3. Réseaux Informatiques. Acquérir un... Réseaux Informatiques. Savoir.
Mise à jour: Mars 2012 Objectif du module Réseaux Informatiques [Archi/Lycée] http://fr.wikipedia.org/ Nicolas Bredèche Maître de Conférences Université Paris-Sud bredeche@lri.fr Acquérir un... Ressources
Plus en détailProgrammation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution
Plus en détail25/08/2013. Vue Nagios. Vue Nagios. Le réseau du lycée
Le réseau du lycée 1. Mise en évidence de la complexité du réseau Le réseau vu par les utilisateurs Le réseau vu par le technicien 2. «Architecture matérielle» du réseau Topologie Le switch, élément central
Plus en détailHPC by OVH.COM. Le bon calcul pour l innovation OVH.COM
4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés
Plus en détailAlgorithmique et systèmes répartis
Algorithmique et systèmes répartis Tendances et avenir Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT 30 novembre 2012 Gérard Padiou Algorithmique et systèmes répartis 1 /
Plus en détailETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE
Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1
Plus en détailINTRODUCTION AUX SYSTEMES D EXPLOITATION. TD2 Exclusion mutuelle / Sémaphores
INTRODUCTION AUX SYSTEMES D EXPLOITATION TD2 Exclusion mutuelle / Sémaphores Exclusion mutuelle / Sémaphores - 0.1 - S O M M A I R E 1. GENERALITES SUR LES SEMAPHORES... 1 1.1. PRESENTATION... 1 1.2. UN
Plus en détailProposition d une architecture pour ebay, en mettant l accent sur les notions de scalabilité, de résilience, et de tolérance aux pannes.
PROJET «EBAY» V1 MANUEL ROLLAND, SCIA 2009, REMIS LE 7 MARS 2008 1. Rappels sur le projet : Proposition d une architecture pour ebay, en mettant l accent sur les notions de scalabilité, de résilience,
Plus en détailNFP111 Systèmes et Applications Réparties
NFP111 Systèmes et Applications Réparties 1 de 34 NFP111 Systèmes et Applications Réparties Cours 7 - CORBA/Partie 1 Claude Duvallet Université du Havre UFR Sciences et Techniques 25 rue Philippe Lebon
Plus en détailMarché à procédure adaptée (en application de l article 28 du code des Marchés Publics)
ETABLISSEMENT PUBLIC DE SANTE MENTALE «Morbihan» 22, Rue de l Hôpital - B. P. 10 56896 SAINT-AVE Cédex Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) CAHIER DES
Plus en détailFAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Plus en détailGestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr
Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr 1- Structure d un disque 2- Ordonnancement des requêtes 3- Gestion du disque - formatage - bloc d amorçage - récupération
Plus en détailOrganisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et
Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et l'anglais. L'étudiant a le choix entre deux filières
Plus en détailRapport d activité. Mathieu Souchaud Juin 2007
Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix
Plus en détailProgrammation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2014) Marc Parizeau, Département de génie électrique et de génie informatique Plan Mégadonnées («big data») Architecture Hadoop distribution
Plus en détailArchitecture matérielle des systèmes informatiques
Architecture matérielle des systèmes informatiques IDEC, Renens. Version novembre 2003. Avertissement : ce support de cours n est pas destiné à l autoformation et doit impérativement être complété par
Plus en détailNOTIONS DE RESEAUX INFORMATIQUES
NOTIONS DE RESEAUX INFORMATIQUES GENERALITES Définition d'un réseau Un réseau informatique est un ensemble d'équipements reliés entre eux afin de partager des données, des ressources et d'échanger des
Plus en détailProcessus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace
Processus 1) Contexte 2) Modèles de Notion de Points de vue Modèle fourni par le SX Opérations sur les 3) Gestion des Représentation des Opérations 4) Ordonnancement des Niveaux d ordonnancement Ordonnancement
Plus en détailSolutions de gestion de la sécurité Livre blanc
Solutions de gestion de la sécurité Livre blanc L intégration de la gestion des identités et des accès avec l authentification unique Objectif : Renforcer la politique de sécurité et améliorer la productivité
Plus en détailArchitecture d un service de partage de données modifiables sur une infrastructure pair-à-pair
Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair Mathieu Jan Mathieu.Jan@irisa.fr Superviseurs : Gabriel Antoniu, Luc Bougé, Thierry Priol {Gabriel.Antoniu,Luc.Bouge,Thierry.Priol}@irisa.fr
Plus en détailMultiprogrammation parallèle générique des méthodes de décomposition de domaine
Multiprogrammation parallèle générique des méthodes de décomposition de domaine Andréa Schwertner-Charão To cite this version: Andréa Schwertner-Charão. Multiprogrammation parallèle générique des méthodes
Plus en détailEnseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper
Plus en détailProgramme de la 1ère année
Programme de la 1ère année de master informatique Recopié du Syllabus M1 Informatique. 2004-2005 (UPS Toulouse) TC1 - Conception et Programmation Parallèle et Orientée Objet (96h) Objectif : Ce cours a
Plus en détailVers l'orchestration de grilles de PC par les mécanismes de publicationsouscription
Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Présentée par Leila Abidi Sous la direction de Mohamed Jemni & Christophe Cérin Plan Contexte Problématique Objectifs
Plus en détailIntroduction aux Systèmes et aux Réseaux
Introduction aux Systèmes et aux Réseaux Cours 5 Processus D après un cours de Julien Forget (univ Lille1) Laure Gonnord http://laure.gonnord.org/pro/teaching/ Laure.Gonnord@univ-lyon1.fr Master CCI -
Plus en détailFAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Plus en détailProtection des données avec les solutions de stockage NETGEAR
Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La
Plus en détailProgrammation parallèle et distribuée
ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences
Plus en détailÉvaluation et implémentation des langages
Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation
Plus en détailIntroduction aux applications réparties
Introduction aux applications réparties Noël De Palma Projet SARDES INRIA Rhône-Alpes http://sardes.inrialpes.fr/~depalma Noel.depalma@inrialpes.fr Applications réparties Def : Application s exécutant
Plus en détailVMWare Infrastructure 3
Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...
Plus en détailInformatique industrielle A7-19571 Systèmes temps-réel J.F.Peyre. Partie I : Introduction
Informatique industrielle A7-19571 Systèmes temps-réel J.F.Peyre Partie I : Introduction Plan de la première partie Quelques définitions Caractéristiques communes des applications temps-réel Exemples d
Plus en détailLa carte à puce. Jean-Philippe Babau
La carte à puce Jean-Philippe Babau Département Informatique INSA Lyon Certains éléments de cette présentation sont issus de documents Gemplus Research Group 1 Introduction Carte à puce de plus en plus
Plus en détailOutils de développement collaboratif
Outils de développement collaboratif Envol 2012 Olivier Thauvin 24 janvier 2013 Olivier Thauvin Outils de développement collaboratif 24 janvier 2013 1 / 80 1 Avant Propos 2 Versionner 3 Communiquer 4 Documenter
Plus en détailAMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE
AMBASSADE DE FRANCE EN ALLEMAGNE SERVICE POUR LA SCIENCE ET LA TECHNOLOGIE Le Conseiller pour la Science et la Technologie SST/PR Berlin, le 23 novembre 2010 Etat des lieux comparatif dans le domaine des
Plus en détailClusters de PCs Linux
Clusters de PCs Linux Benoit DELAUNAY delaunay@in2p3.fr Centre de Calcul de l'in2p3 Plan Historique PC au CCIN2P3. Une première étape. Une réponse à la demande. Une véritable orientation. La place des
Plus en détailIntroduction aux systèmes temps réel
Introduction aux systèmes temps réel Frank Singhoff Bureau C-203 Université de Brest, France LISyC/EA 3883 singhoff@univ-brest.fr UE applications de l informatique, Université de Brest Page 1/22 Plan du
Plus en détailLivre blanc Haute disponibilité sous Linux
Livre blanc Haute disponibilité sous Linux Nicolas Ferre 29 septembre 2000 Résumé Ce livre blanc décrit une solution informatique à haute disponibilité. Les technologies mises
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailS LICENCE INFORMATIQUE Non Alt S Alt S S1 S2 S3 S4 SS5 S6 Parcours : S IL (Ingénierie Logicielle) SRI (Systèmes et Réseaux Informatiques)
NOM DE L'UE : Algorithmique et optimisation S LICENCE INFORMATIQUE Non Alt S Alt S S1 S2 S3 S4 SS5 S6 Parcours : S IL (Ingénierie Logicielle) SRI (Systèmes et Réseaux Informatiques) MASTER INFORMATIQUE
Plus en détailServices OSI. if G.Beuchot. Services Application Services Présentation - Session Services Transport - Réseaux - Liaison de Données - Physique
Services OSI Services Application Services Présentation - Session Services Transport - Réseaux - Liaison de Données - Physique 59 SERVICES "APPLICATION" Architecture spécifique : ALS (Application Layer
Plus en détailINF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1
INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe
Plus en détailChapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping
Chapitre V : La gestion de la mémoire Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Introduction Plusieurs dizaines de processus doivent se partager
Plus en détailQu est-ce que le «cloud computing»?
Qu est-ce que le «cloud computing»? Par Morand Studer eleven Octobre 2011 Qu est-ce que le «cloud computing»? - Morand Studer eleven Octobre 2011 www.eleven.fr 1 Aujourd hui, la démocratisation de l informatique
Plus en détailDix bonnes raisons de choisir ExpressCluster en environnement virtualisé
Dix bonnes raisons de choisir ExpressCluster en environnement virtualisé Les technologies de virtualisation de serveurs séduisent les organisations car elles permettent de réduire le Coût Total de Possession
Plus en détailSystème de stockage IBM XIV Storage System Description technique
Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de
Plus en détailSystèmes répartis. Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine. Systèmes répartis p.1/49
Systèmes répartis Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine Systèmes répartis p.1/49 Systèmes répartis Définition très large : un système réparti est système informatique
Plus en détailPair-à-Pair: Architectures et Services
Pair-à-Pair: Architectures et Services Fabrice Le Fessant Fabrice.Le_Fessant@inria.fr Équipe ASAP (Réseaux très large échelle) INRIA Saclay Île de France Octobre 2008 Fabrice Le Fessant () Architectures
Plus en détailTHÈSE. Présentée devant. l Université de Rennes 1. pour obtenir. par. Emmanuel JEANVOINE
N o d ordre: 3595 THÈSE Présentée devant l Université de Rennes 1 pour obtenir le grade de : DOCTEUR DE L UNIVERSITÉ DE RENNES 1 Mention INFORMATIQUE par Emmanuel JEANVOINE Équipe d accueil : INRIA - Équipe-Projet
Plus en détailHébergement MMI SEMESTRE 4
Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources
Plus en détailLe e s tocka k ge g DAS,NAS,SAN
Le stockage DAS,NAS,SAN Sommaire Introduction SAN NAS Conclusion Bibliographie Questions Introduction Besoin de partage de données à travers un réseau Explosion des volumes de données Comment assurer les
Plus en détailCours Bases de données
Informations sur le cours Cours Bases de données 9 (10) séances de 3h Polycopié (Cours + TD/TP) 3 année (MISI) Antoine Cornuéjols www.lri.fr/~antoine antoine.cornuejols@agroparistech.fr Transparents Disponibles
Plus en détail1 Mesure de la performance d un système temps réel : la gigue
TP TR ENSPS et MSTER 1 Travaux Pratiques Systèmes temps réel et embarqués ENSPS ISV et Master TP1 - Ordonnancement et communication inter-processus (IPC) Environnement de travail Un ordinateur dual-core
Plus en détailRicco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html. R.R. Université Lyon 2
Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html 1 Plan de présentation 1. L écosystème Hadoop 2. Principe de programmation MapReduce 3. Programmation des fonctions
Plus en détailL3 informatique Réseaux : Configuration d une interface réseau
L3 informatique Réseaux : Configuration d une interface réseau Sovanna Tan Septembre 2009 Révision septembre 2012 1/23 Sovanna Tan Configuration d une interface réseau Plan 1 Introduction aux réseaux 2
Plus en détailen version SAN ou NAS
tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi
Plus en détailIntroduction aux systèmes temps réel. Iulian Ober IRIT ober@iut-blagnac.fr
Introduction aux systèmes temps réel Iulian Ober IRIT ober@iut-blagnac.fr Définition Systèmes dont la correction ne dépend pas seulement des valeurs des résultats produits mais également des délais dans
Plus en détail