Initiation au HPC - Programmation concurrente

Documents pareils
Lier Erlang avec d autres langages de programmation

Initiation au HPC - Généralités

Introduction à la Programmation Parallèle: MPI

Problèmes liés à la concurrence

Info0604 Programmation multi-threadée. Cours 5. Programmation multi-threadée en Java

J2SE Threads, 1ère partie Principe Cycle de vie Création Synchronisation

Exclusion Mutuelle. Arnaud Labourel Courriel : arnaud.labourel@lif.univ-mrs.fr. Université de Provence. 9 février 2011

Programmation parallèle et distribuée

Informatique industrielle A Systèmes temps-réel J.F.Peyre. Partie I : Introduction

Projet Active Object

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

<Insert Picture Here> Solaris pour la base de donnés Oracle

Cours de Génie Logiciel

SugarCubes. Jean-Ferdinand Susini Maître de Conférences, CNAM Chaire systèmes enfouis et embarqués. Paris, le 9 janvier, 2009

Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction

Introduction : les processus. Introduction : les threads. Plan

Introduction à la programmation concurrente

Windows Internet Name Service (WINS)

DG-ADAJ: Une plateforme Desktop Grid

Développement d un logiciel de messagerie instantanée avec Dotnet (version simplifiée)

Synchro et Threads Java TM

Métriques de performance pour les algorithmes et programmes parallèles

Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes

1 Mesure de la performance d un système temps réel : la gigue

Conception des systèmes répartis

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace

NIVEAU D'INTERVENTION DE LA PROGRAMMATION CONCURRENTE

Apprendre la Programmation Orientée Objet avec le langage Java (avec exercices pratiques et corrigés)

Un ordonnanceur stupide

La haute disponibilité

Argument-fetching dataflow machine de G.R. Gao et J.B. Dennis (McGill, 1988) = machine dataflow sans flux de données

4. Outils pour la synchronisation F. Boyer, Laboratoire Lig

Couche application. La couche application est la plus élevée du modèle de référence.

Assistance à distance sous Windows

2. MAQUETTAGE DES SOLUTIONS CONSTRUCTIVES. 2.2 Architecture fonctionnelle d un système communicant.

Service Déposant: Procédure d installation. Page 1. Service déposant. Procédure d installation Version 2.3

Exécutif temps réel Pierre-Yves Duval (cppm)

Cours Programmation Système

Les environnements de calcul distribué

M-Budget Mobile Internet. M-Budget Mobile Connection Manager pour Mac OS

Windows Server Chapitre 1: Découvrir Windows Server 2008

Alcatel-Lucent VitalQIP Appliance Manager

Ordonnancement temps réel

Introduction à LDAP et à Active Directory Étude de cas... 37

03/04/2007. Tâche 1 Tâche 2 Tâche 3. Système Unix. Time sharing

Cours CCNA 1. Exercices

Tutoriel: Création d'un Web service en C++ avec WebContentC++Framework

Network musical jammin

Exercices INF5171 : série #3 (Automne 2012)

Le modèle client-serveur

Getting Started. 10 étapes pour bien démarrer. Avant de démarrer. Première connexion PCC

Chapitre VII : Principes des réseaux. Structure des réseaux Types de réseaux La communication Les protocoles de communication

Tutorial Terminal Server sous

NFP 121. Java et les Threads. Présentation : Thierry Escalarasse Mai 2007

Rapport d activité. Mathieu Souchaud Juin 2007

La Continuité d Activité

- Visioconférence - Utiliser NetMeeting au quotidien. Richard BONMARIN DSO/DSI/EMC-EBZ

Sur un ordinateur exécutant Windows 2000 Server Ayant une adresse IP statique

Prototype de canal caché dans le DNS

Guide de l utilisateur. Synchronisation de l Active Directory

Configurer l adressage des serveurs et des clients

Programmation parallèle et distribuée

Manuel de l utilisateur

Programme «Analyste Programmeur» Diplôme d état : «Développeur Informatique» Homologué au niveau III (Bac+2) (JO N 176 du 1 août 2003) (34 semaines)

avast! EP: Installer avast! Small Office Administration

Installation de Cisco Unified Call Manager

ORDONNANCEMENT CONJOINT DE TÂCHES ET DE MESSAGES DANS LES RÉSEAUX TEMPS RÉELS 4. QUELQUES EXEMPLES DU DYNAMISME ACTUEL DU TEMPS RÉEL

Guide d administration de Microsoft Exchange ActiveSync

SSL. Secure Socket Layer. R. Kobylanski janvier version 1.1 FC INPG. Protocole SSL Application avec stunnel

Threads. Threads. USTL routier 1

Service d'authentification LDAP et SSO avec CAS

Introduction à Java. Matthieu Herrb CNRS-LAAS. Mars

PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN

Réglages du portail de P&WC

La continuité de service

Évaluation et implémentation des langages

Serveurs de noms Protocoles HTTP et FTP

LOG4430 : Architecture et conception avancée

Windows Server 2012 R2 Failover de serveurs DHCP

Services Réseaux - Couche Application. TODARO Cédric

Software Engineering and Middleware A Roadmap

Internet Information Services (versions 7 et 7.5) Installation, configuration et maintenance du serveur Web de Microsoft

Eléments techniques tome I Installation Serveur Windows 2012

Manuel d utilisation de ndv 4

Modélisation des interfaces matériel/logiciel

NetCrunch 6. Superviser

Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.

PARAMETRER INTERNET EXPLORER 9

Préparation à l installation d Active Directory

Une présentation de HP et de MicroAge. 21 septembre 2010

Transport Layer Security (TLS) Guide de mise en œuvre. Version: 1.0

Configuration du serveur ESX

Le MSMQ. Version 1.0. Pierre-Franck Chauvet

REALISATION d'un. ORDONNANCEUR à ECHEANCES

Chapitre I Notions de base et outils de travail

École Polytechnique de Montréal. Département de Génie Informatique et Génie Logiciel. Cours INF2610. Contrôle périodique.

TARDITI Richard Mise en place d une Haute Disponibilité

CONFIGURATION DE BASE. 6, Rue de l'industrie BP130 SOULTZ GUEBWILLER Cedex. Fax.: Tel.:

Transcription:

Initiation au HPC - Programmation concurrente Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 12 octobre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 1/35

Plan du cours 1 Introduction 2 Erlang : concurrent 3 Erlang : distribué 4 MPI : concurrent 5 C++ : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 2/35

Plan du cours 1 Introduction 2 Erlang : concurrent 3 Erlang : distribué 4 MPI : concurrent 5 C++ : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 2/35

Introduction Définition programmation concurrente = paradigme de programmation plusieurs contextes (threads, processus, tâches, ) d exécution en interaction avec ou sans partage d informations concurrence parallélisme deux tâches sont concurrentes si l ordre dans laquel elles sont exécutées est non prédéterminée deux processus concurrents ordonnancés par l OS sur un système mono-coeur peuvent être concurrents mais pas parallèle le parallélisme est possible sur des systèmes multi-coeurs, multi-processeurs ou distribués la concurrence est une propriété d un algorithme ou d un programme c est un concept plus général que le parallélisme Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 3/35

Introduction concurrence parallélisme En général, les langages, les outils et les techniques pour le parallélisme ne sont pas adaptés à la programmation concurrente et vice versa concurrence distribué comme pour le parallélisme, la distribution est un moyen de réaliser du calcul en parallèle sur plusieurs machines c est une technique et non un paradigme Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 4/35

Introduction Types disjointe : les entités concurrentes ne communiquent et n interagissent pas compétitive : ensemble d entités concurrentes en compétition pour l accès à certaines ressources partagées (un périphérique, une zone mémoire, par exemple) coopérative : un ensemble d entités concurrentes qui coopèrent pour atteindre un objectif commun en communiquant Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 5/35

Introduction Les modèles de communication par mémoire partagée (sharing memory) : partage d emplacements mémoires nécessité de mécanisme d exclusion mutuelle (mutex, sémaphore, moniteur, ) par envoi de message (message passing) : les composants s envoyent des messages asynchrones (ou synchrones - rendez-vous) modèle d acteurs, par exemple Ce que l on va étudier Ḍans ce cours, on se limite aux modèles par envoi de messages Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 6/35

Introduction Les modèles de conception acteur : envoi de message et pas de mémoire partagé future/promise : proxy d opérations asynchrones (modèle Producteur / Consommateur) coroutine : suspension/reprise d opérations pour la synchronisation channel : communication interprocessus et synchronisation par envoi de message Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 7/35

Introduction Le modèle Acteur la concurrence par envoi de message est introduit par Carl Hewitt en 1973 une solution pour résoudre les problèmes lié au modèle par mémoire partagée des acteurs autonomes qui réalisent des calculs aucune donnée partagée entre acteur envoi de messages les messages sont stockés dans des boîtes de réception les acteurs réagissent aux messages reçus Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 8/35

Introduction Le modèle Acteur - les messages messages asynchrones messages non mutables : les données transportées ne peuvent pas être modifiées pas de mécanisme de blocage pour l attente des réponses de ses messages Le modèle Acteur - la boîte de réception les messages sont bufferisés une boîte de récetion est une file d attente multi-producteur / mono-consommateur aussi connu sous le nom de Channel Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 9/35

Introduction Future / Promise un moyen de spécifier des opérations asynchrones Promise est utilisé par la partie Producteur de l opération elle déclare ce qu elle va produire et met à jour lors de la production Future est utilisé par la partie Consommateur elle spécifie ce qu elle désire consommer et elle consommera dès que ce sera produit Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 10/35

Introduction Un exemple en C++ auto promise = std::promise<std::string>(); auto producer = std::thread([&] { promiseset_value("hello World"); }); auto future = promiseget_future(); auto consumer = std::thread([&] { std::cout << futureget(); }); producerjoin(); consumerjoin(); Explications deux processus : un producteur / un consommateur le producteur produit une chaîne de caractères le consommateur attend la chaîne pour faire une sortie console Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 11/35

Introduction Les langages pour la concurrence les natifs : Erlang : acteur Clojure : mémoire partagée Ada : tâche + message synchrone + moniteur (mutex + condition) les adaptations ou bibliothèques : Scala : acteur Concurrent Haskell : acteur (channel + thread) C++11 : thread, mutex, condition, future/promise et atomic Java : thread + mécanisme synchronized Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 12/35

Plan du cours 1 Introduction 2 Erlang : concurrent 3 Erlang : distribué 4 MPI : concurrent 5 C++ : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 12/35

Erlang : concurrent Définition la progammation concurrente est une organisation du code en processus parallèles communicants en Erlang, il est possible de définir énormément de processus les processus Erlang sont des sortes de threads allégés et sans partage d état les processus communiquent par envoi de messages asynchrones C est facile en Erlang! Seulement trois primitives : spawn pour la création des processus send pour l envoi de message receive pour la réception des messages L absence de mémoire partagée simplifie! Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 13/35

Erlang : concurrent Définition les processus sont créés par la fonction BIF spawn spawn(module, Fonction, Parametres) les paramètres sont représentés par une liste la fonction spawn retourne le pid ( Process Identifier) du processus Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 14/35

Erlang : concurrent Exemples lancement d un serveur défini dans le module my_server via la fonction start avec un seul paramètre entier 8081 : Pid1 = spawn(my_server, start, [8081]) lancement d une fonction anonyme dans un processus : Pid2 = spawn(fun() -> 2 * 2 end) Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 15/35

Erlang : concurrent Définition chaque processus a une file d attente de messages cette file d attente est de type FIFO (First In Firt Out) la syntaxe d envoi est très simple : Pid! Message le message peut être un atome, une liste, un tuple, un entier, par convention, s il y a des données dans le message, on utilise un tuple dont le premier élément est un atome représentant le type du message pour envoyer un message à un processus, il faut connaître son pid Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 16/35

Erlang : concurrent Exemples Pid! start Pid! {check, 3} Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 17/35

Erlang : concurrent Définition la réception des messages par un processus se fait via un bloc receive un bloc receive est une sorte de case : receive pattern1 -> actions1; pattern2 -> actions2; patternn actionsn end à la réception d un message, le message est unifié avec le premier pattern valide et l action est réalisée Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 18/35

Erlang : concurrent Définition en général, le bloc receive est défini dans une fonction récursivement infinie le receive est bloquant Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 19/35

Erlang : concurrent Exemple loop() -> receive start -> % do something loop(); {check, X} -> % do something loop(); finish -> ok end Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 20/35

Erlang : concurrent Asynchrone par défaut, les messages sont asynchrones : le message est envoyé par un processus vers un autre processus il est traité dans le recepteur dès qu il a le temps aucune réponse n est retournée par l opérateur! par défaut, le récepteur ne connait pas l expéditeur Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 21/35

Erlang : concurrent Comment implémenter des messages synchrones? en plaçant dans le message le pid de l expéditeur via la fonction self : Pid! { self(), check, 3 }, receive Response -> Response end Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 22/35

Erlang : concurrent Comment implémenter des messages synchrones? du côté du récepteur : loop() -> receive start -> % do something loop(); {Pid, check, X} -> % do something Pid! ok, loop(); finish -> ok end Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 23/35

Erlang : concurrent Timeout les blocs receive sont bloquants on peut définir un délai maximum d attente à l aide de timeout la durée des timeouts est exprimée en millisecondes Exemple receive after 100 -> io:format("stop") end Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 24/35

Erlang : concurrent Définition au lieu d ajouter le pid dans le message, il est possible d enregistrer un processus et d utiliser le nommage lors d un envoi de message la fonction register est utilisée : register(some_atom, Pid) Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 25/35

Erlang : concurrent Exemple register(my_process, spawn(my_module, my_function, [])) my_process! message Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 26/35

Plan du cours 1 Introduction 2 Erlang : concurrent 3 Erlang : distribué 4 MPI : concurrent 5 C++ : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 26/35

Erlang : distribué Pourquoi? la vitesse : découper une application en plusieurs parties exécutées sur des machines ou processeurs ou coeurs différents (on parlera de noeud) la tolérance aux fautes : augmenter la résistance aux pannes en faisant coopérer plusieurs noeuds qui peuvent potentiellement tomber en panne (possibilité de redondance) accessibilité aux ressources : certains services ne sont disponibles que sur certains matériels spécifiques (une base de données, par exemple) extensibilité : pouvoir ajouter des noeuds supplémentaires pour augmenter la capacité du système certaines applications sont intrinsèquement distribuées (système de chat irc, par exemple) Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 27/35

Erlang : distribué Définition la programmation distribuée en Erlang consiste à déployer une application sur plusieurs machines les processus sont alors distants Erlang offre un mécanisme simple de sécurité basé sur les cookies Les fonctions BIF spawn(node, Module, Function, Args) : création d un processus sur un noeud distant monitor_node(node, Flag) : vérification du bon fonctionnement du noeud node() et nodes() : nom du noeud courant et des noeuds communs node(pid) : nom du noeud du processus identifié par Pid disconnect_node(nodename) : suppression de la connexion du noeud courant vers le noeud Nodename Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 28/35

Erlang : distribué Authentification lors de la communication entre 2 noeuds, un atome (le cookie) est échangé afin de vérifier l authentification de l expéditeur chaque noeud possède son propre atome (secret) par défaut, l atome vaut nocookie ; la fonction erlang :get_cookie() permet de le connaître erlang :set_cookie(node,cookie) définit le cookie du noeud courant (Node = node()) ou tente de définir le cookie d un noeud distant Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 29/35

Erlang : distribué Nommage des machines afin de communiquer entre machines, il est nécessaire de nommer les machines on parlera de noeud (node) ce nommage est fait lors du lancement de la machine virtuelle Erlang deux possibilités : -sname xxxx : la machine appartient à un seul domaine ; on peut désigner une machine par un simple nom (sous Linux, on se base sur les fichiers hostname et hosts) -name xxxx : les machines ont besoin d un adressage complet nécessitant un DNS Exemple eric@ultramars:~> erl -sname node1 Erlang/OTP 17 [erts-62] [source] [64-bit] [smp:4:4] [async-threads:10] [kernel-poll:false] Eshell V62 (abort with ^G) (node1@ultramars)1> Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 30/35

Erlang : distribué Envoi de messages un message est maintenant envoyé à un processus appartenant à un autre noeud l un des processus doit être enregistré afin d amorcer la communication {Named_processus, Named_Node}! Message l envoi de messages peut aussi se faire de manière classique on peut connaître le nom d un noeud via la fonction BIF node Exemple {my_processus, node1@ultramars}! Message Lancement à distance On peut lancer un processus sur un autre noeud : spawn(node, Module, Function, Parameters) Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 31/35

Erlang : distribué Monitoring Le test de fonctionnement se fait en 3 temps : déclaration du monitoring attente de l état réception de la réponse : si on reçoit le tuple nodedown, Node alors le noeud n est pas actif Exemple monitor_node(node, true), receive {nodedown, Node} -> end, Fin du monitoring On peut désactiver le monitoring en faisant appel à monitor_node avec l atome false en deuxième paramètre Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 32/35

Erlang : distribué Connexion / deconnexion un noeud N1 est connecté à un noeud N2, dès qu une fonction invoquée par N1 mentionne N2 au démarrage, la fonction nodes() retourne la liste vide la fonction disconnect_node peut être utilisée pour supprimer le lien de connexion avec un noeud Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 33/35

Plan du cours 1 Introduction 2 Erlang : concurrent 3 Erlang : distribué 4 MPI : concurrent 5 C++ : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 33/35

MPI : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 34/35

Plan du cours 1 Introduction 2 Erlang : concurrent 3 Erlang : distribué 4 MPI : concurrent 5 C++ : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 34/35

C++ : concurrent Éric Ramat et Julien Dehos Initiation au HPC - Programmation concurrente 35/35