Introduction au calcul parallèle: MPI

Dimension: px
Commencer à balayer dès la page:

Download "Introduction au calcul parallèle: MPI"

Transcription

1 Introduction au calcul parallèle: MPI Pascal Viot September 3, 2016 Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

2 Avant-propos La puissance individuelle d un processeur croît encore actuellement, mais à un rythme qui s est ralenti car la fréquence maximum des processeurs est encore limitée à 3GHz. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

3 Avant-propos La puissance individuelle d un processeur croît encore actuellement, mais à un rythme qui s est ralenti car la fréquence maximum des processeurs est encore limitée à 3GHz. L évolution récente des processeurs va dans le sens de plusieurs coeurs (plusieurs unités de calcul à l intérieur d un seul chip) Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

4 Avant-propos La puissance individuelle d un processeur croît encore actuellement, mais à un rythme qui s est ralenti car la fréquence maximum des processeurs est encore limitée à 3GHz. L évolution récente des processeurs va dans le sens de plusieurs coeurs (plusieurs unités de calcul à l intérieur d un seul chip) Les programmes scientifiques sont parfois des calculs qui peuvent être réalisés de manière indépendante pour certaines parties et donc utiliser cette puissance disponible est très judicieux Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

5 Avant-propos La puissance individuelle d un processeur croît encore actuellement, mais à un rythme qui s est ralenti car la fréquence maximum des processeurs est encore limitée à 3GHz. L évolution récente des processeurs va dans le sens de plusieurs coeurs (plusieurs unités de calcul à l intérieur d un seul chip) Les programmes scientifiques sont parfois des calculs qui peuvent être réalisés de manière indépendante pour certaines parties et donc utiliser cette puissance disponible est très judicieux Il existe deux principales méthodes pour permettre de rendre un programme utilisable par de nombreuses unités de calcul: MPI et OPENMP Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

6 Avant-propos (2) Utiliser une bibliothèque qui va gérer l échange d information (et de données) entre les unités de calcul et donc structurer le programme en fonction de la répartition des calculs sur des unités disponibles et des échanges de données entre elles. La bibliothèque de référence est MPI (Message Passing Interface). Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

7 Avant-propos (2) Utiliser une bibliothèque qui va gérer l échange d information (et de données) entre les unités de calcul et donc structurer le programme en fonction de la répartition des calculs sur des unités disponibles et des échanges de données entre elles. La bibliothèque de référence est MPI (Message Passing Interface). Cette bibliothèque ainsi que l environnement associé permet d executer un programme (qui est différent sur chaque unité de calcul) et qui peut transmettre de manière simple des informations aux autres unités de calcul qui sont identifiées dès le lancement du programme. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

8 Avant-propos (2) Utiliser une bibliothèque qui va gérer l échange d information (et de données) entre les unités de calcul et donc structurer le programme en fonction de la répartition des calculs sur des unités disponibles et des échanges de données entre elles. La bibliothèque de référence est MPI (Message Passing Interface). Cette bibliothèque ainsi que l environnement associé permet d executer un programme (qui est différent sur chaque unité de calcul) et qui peut transmettre de manière simple des informations aux autres unités de calcul qui sont identifiées dès le lancement du programme. Cette méthode est la plus générale car elle permet de le faire sur des unités de calcul virtuelles et sur des machines différentes reliées par un réseau (rapide si possible). La deuxième méthode qui s applique exclusivement sur une seule machine possèdant une mémoire commune et plusieurs unités de calcul. La bibliothèque est OPENMP Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

9 Plan MPI: définition et différentes versions Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

10 Plan MPI: définition et différentes versions Définition du monde de calcul, initialisation et fin d execution Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

11 Plan MPI: définition et différentes versions Définition du monde de calcul, initialisation et fin d execution Compilation et exécution d un programme parallèle Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

12 Plan MPI: définition et différentes versions Définition du monde de calcul, initialisation et fin d execution Compilation et exécution d un programme parallèle Limitations physiques des communications Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

13 Plan MPI: définition et différentes versions Définition du monde de calcul, initialisation et fin d execution Compilation et exécution d un programme parallèle Limitations physiques des communications Envoi de messages: communication point à point Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

14 Plan MPI: définition et différentes versions Définition du monde de calcul, initialisation et fin d execution Compilation et exécution d un programme parallèle Limitations physiques des communications Envoi de messages: communication point à point Envoi de messages: broadcast, scatter et gather Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

15 Plan MPI: définition et différentes versions Définition du monde de calcul, initialisation et fin d execution Compilation et exécution d un programme parallèle Limitations physiques des communications Envoi de messages: communication point à point Envoi de messages: broadcast, scatter et gather Réduction répartie Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

16 Plan MPI: définition et différentes versions Définition du monde de calcul, initialisation et fin d execution Compilation et exécution d un programme parallèle Limitations physiques des communications Envoi de messages: communication point à point Envoi de messages: broadcast, scatter et gather Réduction répartie Conclusion et références. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

17 MPI: définition et différentes versions MPI version 1 et 2 : compatibilité ascendante. Version 3.1: 21 Juin Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

18 MPI: définition et différentes versions MPI version 1 et 2 : compatibilité ascendante. Version 3.1: 21 Juin Site: Doc version 3.1, un document téléchargeable de 868 pages. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

19 MPI: définition et différentes versions MPI version 1 et 2 : compatibilité ascendante. Version 3.1: 21 Juin Site: Doc version 3.1, un document téléchargeable de 868 pages. MPiCH version 2 (contient les communications à travers de nombreux supports physiques (Ethernet, Infiniband, Myrinet) existe sur de nombreuses distributions. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

20 MPI: définition et différentes versions MPI version 1 et 2 : compatibilité ascendante. Version 3.1: 21 Juin Site: Doc version 3.1, un document téléchargeable de 868 pages. MPiCH version 2 (contient les communications à travers de nombreux supports physiques (Ethernet, Infiniband, Myrinet) existe sur de nombreuses distributions. MVAPICH est une distribution MPI dédié à l Infiniband et aux cartes ethernet 10Gb. Expérience personnelle: très buggé il y a deux ans. Pas testé depuis Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

21 MPI: définition et différentes versions MPI version 1 et 2 : compatibilité ascendante. Version 3.1: 21 Juin Site: Doc version 3.1, un document téléchargeable de 868 pages. MPiCH version 2 (contient les communications à travers de nombreux supports physiques (Ethernet, Infiniband, Myrinet) existe sur de nombreuses distributions. MVAPICH est une distribution MPI dédié à l Infiniband et aux cartes ethernet 10Gb. Expérience personnelle: très buggé il y a deux ans. Pas testé depuis OPENMPI contient de nombreux supports physiques. Elle est sous forme de package compilé pour le compilateur GNU. Pour le calcul MPI, il faut utiliser les compilateurs GNU sur les machines de la salle du master. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

22 Définition du monde de calcul, initialisation et fin d execution Mémoire Unité Code Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

23 Définition du monde de calcul, initialisation et fin d execution(2) Mémoire Réseau Unité Code Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

24 Définition du monde de calcul, initialisation et fin d execution(3) #include<stdio.h> #include<mpi.h> char processor_name[mpi_max_processor_name]; int numprocs,myid,namelen; int main (int argc, char *argv[]) { MPI_Init(&argc,&argv); MPI_Comm_size(MPI_COMM_WORLD,&numprocs); MPI_Comm_rank(MPI_COMM_WORLD,&myid); MPI_Get_processor_name(processor_name,&namelen); printf("hello, Process %d of %d on %s\n", myid, numprocs, processor_name); MPI_Barrier( MPI_COMM_WORLD); MPI_Finalize(); } Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

25 Définition du monde de calcul, initialisation et fin d execution(3) la fonction MPI Init initialise le monde des unités qui vont communiquer Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

26 Définition du monde de calcul, initialisation et fin d execution(3) la fonction MPI Init initialise le monde des unités qui vont communiquer La fonction MPI Finalize détruit le monde des unités qui ont communiqué Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

27 Définition du monde de calcul, initialisation et fin d execution(3) la fonction MPI Init initialise le monde des unités qui vont communiquer La fonction MPI Finalize détruit le monde des unités qui ont communiqué la fonction MPI Barrier est un signal qui permet que toutes les unités de calcul sont synchronisés Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

28 Définition du monde de calcul, initialisation et fin d execution(3) la fonction MPI Init initialise le monde des unités qui vont communiquer La fonction MPI Finalize détruit le monde des unités qui ont communiqué la fonction MPI Barrier est un signal qui permet que toutes les unités de calcul sont synchronisés la valeur numprocs récupère le le nombre d unités choisi à l exécution Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

29 Définition du monde de calcul, initialisation et fin d execution(3) la fonction MPI Init initialise le monde des unités qui vont communiquer La fonction MPI Finalize détruit le monde des unités qui ont communiqué la fonction MPI Barrier est un signal qui permet que toutes les unités de calcul sont synchronisés la valeur numprocs récupère le le nombre d unités choisi à l exécution processor name est la chaine de caractères correspondant au nom de l unité de calcul. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

30 Définition du monde de calcul, initialisation et fin d execution(3) la fonction MPI Init initialise le monde des unités qui vont communiquer La fonction MPI Finalize détruit le monde des unités qui ont communiqué la fonction MPI Barrier est un signal qui permet que toutes les unités de calcul sont synchronisés la valeur numprocs récupère le le nombre d unités choisi à l exécution processor name est la chaine de caractères correspondant au nom de l unité de calcul. les valeurs entières myid et namelen récupère le numéro de l unité de calcul courante et la taille de chaine de caractères associé comme nom de l unité de calcul Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

31 Compilation et exécution d un programme parallèle Pour compiler le précédent programme appelé hello.c, on exécute dans une fenêtre terminal mpicc hello.c -O3 -o hello Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

32 Compilation et exécution d un programme parallèle Pour compiler le précédent programme appelé hello.c, on exécute dans une fenêtre terminal mpicc hello.c -O3 -o hello Pour exécuter ce programme en parallèle, on tape dans une fenetre terminal mpirun -np 8 hello Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

33 Compilation et exécution d un programme parallèle Pour compiler le précédent programme appelé hello.c, on exécute dans une fenêtre terminal mpicc hello.c -O3 -o hello Pour exécuter ce programme en parallèle, on tape dans une fenetre terminal mpirun -np 8 hello On peut choisir le nombre de processeurs que l on veut, car les unités de calcul sont virtuelles. C est le système qui s adapte. Dans la pratique, il vaut mieux ne pas dépasser un nombre d unités supérieur au nombre de coeurs de la machine. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

34 Limitations physiques d un programme parallèle Pour échanger des informations entre unités de calcul, la bibliothèque dispose d instructions spécifiques permettant d invoyer des messages. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

35 Limitations physiques d un programme parallèle Pour échanger des informations entre unités de calcul, la bibliothèque dispose d instructions spécifiques permettant d invoyer des messages. Ces messages ne sont pas transmis instantanément aux autres unités de calcul. Pour commencer une communication passant par exemple par une carte réseau, le temps de réponse est supérieur à 10µs. La vitesse de transfert est limitée par la capacité du réseau (par ex 1Gb/s) et est très inférieur à ce qui se passe à l intérieur d une unité de calcul. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

36 Limitations physiques d un programme parallèle Pour échanger des informations entre unités de calcul, la bibliothèque dispose d instructions spécifiques permettant d invoyer des messages. Ces messages ne sont pas transmis instantanément aux autres unités de calcul. Pour commencer une communication passant par exemple par une carte réseau, le temps de réponse est supérieur à 10µs. La vitesse de transfert est limitée par la capacité du réseau (par ex 1Gb/s) et est très inférieur à ce qui se passe à l intérieur d une unité de calcul. On peut transmettre des messages soit entre deux unités de calcul (message point à point) soit globalement (par ex la première unité envoie à tous les autres ou tous envoient des infos à tous. Dans ce dernier cas, on peut observer des chutes de performance importantes. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

37 Envoi de messages: communication point à point #include<stdio.h> #include<mpi.h> char processor_name[mpi_max_processor_name]; int numprocs,myid,namelen; MPI_Status status; int main (int argc, char *argv[]) { MPI_Init(&argc,&argv); MPI_Comm_size(MPI_COMM_WORLD,&numprocs); MPI_Comm_rank(MPI_COMM_WORLD,&myid); MPI_Get_processor_name(processor_name,&namelen); int entier=myid; printf("hello, Process %d of %d on %s valeur de entier %d\n", myid, numprocs, processor_name,entier); if(myid==0) { MPI_Send(&entier,1,MPI_INT,3,10,MPI_COMM_WORLD); } if(myid==3) { MPI_Recv(&entier,1,MPI_INT,0,10,MPI_COMM_WORLD,&status); } MPI_Barrier( MPI_COMM_WORLD); printf("hello, Process %d of %d on %s valeur de entier %d\n", myid, numprocs, processor_name,entier); MPI_Finalize(); } Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

38 Envoi de messages: communication point à point (2) Pour envoyer des données entre deux unités: MPI Send(&entier,1,MPI INT,3,10,MPI COMM WORLD); Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

39 Envoi de messages: communication point à point (2) Pour envoyer des données entre deux unités: MPI Send(&entier,1,MPI INT,3,10,MPI COMM WORLD); Premier argument: adresse de la variable Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

40 Envoi de messages: communication point à point (2) Pour envoyer des données entre deux unités: MPI Send(&entier,1,MPI INT,3,10,MPI COMM WORLD); Premier argument: adresse de la variable Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

41 Envoi de messages: communication point à point (2) Pour envoyer des données entre deux unités: MPI Send(&entier,1,MPI INT,3,10,MPI COMM WORLD); Premier argument: adresse de la variable Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

42 Envoi de messages: communication point à point (2) Pour envoyer des données entre deux unités: MPI Send(&entier,1,MPI INT,3,10,MPI COMM WORLD); Premier argument: adresse de la variable Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Quatrième argument: l unité de calcul qui recoit le message. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

43 Envoi de messages: communication point à point (2) Pour envoyer des données entre deux unités: MPI Send(&entier,1,MPI INT,3,10,MPI COMM WORLD); Premier argument: adresse de la variable Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Quatrième argument: l unité de calcul qui recoit le message. Cinquième argument : une marque caractérisant le message: la valeur 10 peut être changée mais il faut garder la même pour la réception. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

44 Envoi de messages: communication point à point (2) Pour envoyer des données entre deux unités: MPI Send(&entier,1,MPI INT,3,10,MPI COMM WORLD); Premier argument: adresse de la variable Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Quatrième argument: l unité de calcul qui recoit le message. Cinquième argument : une marque caractérisant le message: la valeur 10 peut être changée mais il faut garder la même pour la réception. Sixième argument: le communicateur MPI COMM WORLD Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

45 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

46 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Premier argument: adresse de la variable où la donnée sera stockée (ici le nom est identique mais ce n est pas obligatoire Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

47 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Premier argument: adresse de la variable où la donnée sera stockée (ici le nom est identique mais ce n est pas obligatoire Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

48 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Premier argument: adresse de la variable où la donnée sera stockée (ici le nom est identique mais ce n est pas obligatoire Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

49 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Premier argument: adresse de la variable où la donnée sera stockée (ici le nom est identique mais ce n est pas obligatoire Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Quatrième argument: l unité de calcul qui envoie le message. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

50 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Premier argument: adresse de la variable où la donnée sera stockée (ici le nom est identique mais ce n est pas obligatoire Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Quatrième argument: l unité de calcul qui envoie le message. Cinquième argument : une marque caractérisant le message: la valeur 10 peut être changée mais il faut garder la même pour la réception. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

51 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Premier argument: adresse de la variable où la donnée sera stockée (ici le nom est identique mais ce n est pas obligatoire Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Quatrième argument: l unité de calcul qui envoie le message. Cinquième argument : une marque caractérisant le message: la valeur 10 peut être changée mais il faut garder la même pour la réception. Sixième argument: le communicateur MPI COMM WORLD Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

52 Envoi de messages: communication point à point (3) Pour recevoir des données entre deux unités: MPI Recv(&entier,1,MPI INT,0,10,MPI COMM WORLD,&status); Premier argument: adresse de la variable où la donnée sera stockée (ici le nom est identique mais ce n est pas obligatoire Deuxième argument: nombre d éléments: 1 par défaut, sinon le nombre d éléments du tableau, Troisième argument: le type de la variable, ici MPI INT, Quatrième argument: l unité de calcul qui envoie le message. Cinquième argument : une marque caractérisant le message: la valeur 10 peut être changée mais il faut garder la même pour la réception. Sixième argument: le communicateur MPI COMM WORLD Septième argument: une variable entière qui est returnée indiquant si la réception s est bien passée. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

53 Envoi de messages: broadcast Pour envoyer un message d une unité à toutes les autres, l instruction à utiliser est le broadcast. #include<stdio.h> #include<mpi.h> char processor_name[mpi_max_processor_name]; int numprocs,myid,namelen; MPI_Status status; int main (int argc, char *argv[]) { MPI_Init(&argc,&argv); MPI_Comm_size(MPI_COMM_WORLD,&numprocs); MPI_Comm_rank(MPI_COMM_WORLD,&myid); MPI_Get_processor_name(processor_name,&namelen); double reel=(double) myid; printf("hello, Process %d of %d on %s valeur de reel %e\n", myid, numprocs, processor_name,reel); MPI_Bcast(&reel,1, MPI_DOUBLE,3, MPI_COMM_WORLD); MPI_Barrier( MPI_COMM_WORLD); printf("hello, Process %d of %d on %s valeur de reel %e\n", myid, numprocs, processor_name,reel); MPI_Finalize(); } Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

54 Envoi de messages: broadcast (2) Les différents arguments de l instruction: MPI Bcast(&reel,1, MPI DOUBLE,3, MPI COMM WORLD); Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

55 Envoi de messages: broadcast (2) Les différents arguments de l instruction: MPI Bcast(&reel,1, MPI DOUBLE,3, MPI COMM WORLD); Premier argument: adresse de la variable pour la valeur est stockée Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

56 Envoi de messages: broadcast (2) Les différents arguments de l instruction: MPI Bcast(&reel,1, MPI DOUBLE,3, MPI COMM WORLD); Premier argument: adresse de la variable pour la valeur est stockée Deuxième argument: taille du type de la variable Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

57 Envoi de messages: broadcast (2) Les différents arguments de l instruction: MPI Bcast(&reel,1, MPI DOUBLE,3, MPI COMM WORLD); Premier argument: adresse de la variable pour la valeur est stockée Deuxième argument: taille du type de la variable Troisième argument: Type de variable; ici MPI DOUBLE Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

58 Envoi de messages: broadcast (2) Les différents arguments de l instruction: MPI Bcast(&reel,1, MPI DOUBLE,3, MPI COMM WORLD); Premier argument: adresse de la variable pour la valeur est stockée Deuxième argument: taille du type de la variable Troisième argument: Type de variable; ici MPI DOUBLE Quatrième argument: numéro de l unité qui envoie le message global Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

59 Envoi de messages: broadcast (2) Les différents arguments de l instruction: MPI Bcast(&reel,1, MPI DOUBLE,3, MPI COMM WORLD); Premier argument: adresse de la variable pour la valeur est stockée Deuxième argument: taille du type de la variable Troisième argument: Type de variable; ici MPI DOUBLE Quatrième argument: numéro de l unité qui envoie le message global Cinquième argument: communicateur Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

60 Envoi de messages: scatter Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

61 Envoi de messages: gather Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

62 Envoi de messages: allgather Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

63 Envoi de messages: gatherv Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

64 Envoi de messages: alltoall Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

65 Reduction répartie On peut réaliser des opérations au moment de la collecte d information sur les autres unités de calcul Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

66 Reduction répartie On peut réaliser des opérations au moment de la collecte d information sur les autres unités de calcul La liste des opérations prédéfinies sont : la somme, le produit, recherche du maximum ou du minimum et quelques autres opérations Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

67 Reduction répartie On peut réaliser des opérations au moment de la collecte d information sur les autres unités de calcul La liste des opérations prédéfinies sont : la somme, le produit, recherche du maximum ou du minimum et quelques autres opérations Pour faire cette opération, l instruction est MPI Reduce avec une liste d arguments Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

68 Reduction répartie On peut réaliser des opérations au moment de la collecte d information sur les autres unités de calcul La liste des opérations prédéfinies sont : la somme, le produit, recherche du maximum ou du minimum et quelques autres opérations Pour faire cette opération, l instruction est MPI Reduce avec une liste d arguments Pour faire une réduction avec une propagation globale de l ensemble des résulats, on peut utiliser MPI Reduce suivi de MPI Bcast ou plus simplement MPI AllReduce Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

69 Premier programme scientifique #include "mpi.h" #include <stdio.h> #include <stdlib.h> #include <math.h> double f( double );double f( double a ) { return (4.0 / (1.0 + a*a)); } int main( int argc, char *argv[]) { int n, myid, numprocs, i,namelen; double PI25DT = ; double mypi, pi, h, sum=0.0, x; double startwtime = 0.0, endwtime; char processor_name[mpi_max_processor_name]; MPI_Init(&argc,&argv); MPI_Comm_size(MPI_COMM_WORLD,&numprocs); MPI_Comm_rank(MPI_COMM_WORLD,&myid); MPI_Get_processor_name(processor_name,&namelen); fprintf(stderr,"process %d on %s\n",myid, processor_name); n = ;h = 1.0 / (double) n; if (myid == 0) {startwtime = MPI_Wtime();} MPI_Bcast(&n, 1, MPI_INT, 0, MPI_COMM_WORLD); for (i = myid + 1; i <= n; i += numprocs){ x = h * ((double)i - 0.5);sum += f(x);} mypi = h * sum; MPI_Reduce(&mypi, &pi, 1, MPI_DOUBLE, MPI_SUM, 0, MPI_COMM_WORLD); if (myid == 0){ printf("pi is approximately %.16f, Error is %.16f\n", pi, fabs(pi - PI25DT)); endwtime = MPI_Wtime(); printf("wall clock time = %f\n",endwtime-startwtime); } MPI_Finalize(); exit(0);} Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

70 Conclusion et références La bibliothèque MPI a été développée pour plusieurs langages Fortran, C, C++ et de nombreux matériels physiques de réseau. Elle manque d outils de mise au point. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

71 Conclusion et références La bibliothèque MPI a été développée pour plusieurs langages Fortran, C, C++ et de nombreux matériels physiques de réseau. Elle manque d outils de mise au point. Développer un programme parallèle est une tâche bien plus délicate que celle d un programme séquentiel usuel. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

72 Conclusion et références La bibliothèque MPI a été développée pour plusieurs langages Fortran, C, C++ et de nombreux matériels physiques de réseau. Elle manque d outils de mise au point. Développer un programme parallèle est une tâche bien plus délicate que celle d un programme séquentiel usuel. Ces quelques règles peuvent aider pour gérer le flot d information venant de l exécution simulanée de programmes. Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

73 Conclusion et références La bibliothèque MPI a été développée pour plusieurs langages Fortran, C, C++ et de nombreux matériels physiques de réseau. Elle manque d outils de mise au point. Développer un programme parallèle est une tâche bien plus délicate que celle d un programme séquentiel usuel. Ces quelques règles peuvent aider pour gérer le flot d information venant de l exécution simulanée de programmes. Quelques sites à consulter: doc.html, Pascal Viot Introduction au calcul parallèle: MPI September 3, / 24

1/24. I passer d un problème exprimé en français à la réalisation d un. I expressions arithmétiques. I structures de contrôle (tests, boucles)

1/24. I passer d un problème exprimé en français à la réalisation d un. I expressions arithmétiques. I structures de contrôle (tests, boucles) 1/4 Objectif de ce cours /4 Objectifs de ce cours Introduction au langage C - Cours Girardot/Roelens Septembre 013 Du problème au programme I passer d un problème exprimé en français à la réalisation d

Plus en détail

Introduction à la Programmation Parallèle: MPI

Introduction à la Programmation Parallèle: MPI Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4

Plus en détail

Le prototype de la fonction main()

Le prototype de la fonction main() Le prototype de la fonction main() 1. Introduction...1 2. Paramètres et type de retour de la fonction main()...1 3. Exemple 1...2 4. La fonction exit() du C...2 5. Détecter le code de retour d un programme

Plus en détail

INFO-F-404 : Techniques avancées de systèmes d exploitation

INFO-F-404 : Techniques avancées de systèmes d exploitation Nikita Veshchikov e-mail : nikita.veshchikov@ulb.ac.be téléphone : 02/650.58.56 bureau : 2N8.213 URL : http://student.ulb.ac.be/~nveshchi/ INFO-F-404 : Techniques avancées de systèmes d exploitation Table

Plus en détail

Systèmes parallèles et distribués

Systèmes parallèles et distribués Systèmes parallèles et distribués Grégory Mounié 2013-12 Grégory Mounié Systèmes parallèles et distribués 2013-12 1 / 58 Outline 1 Introduction 2 Performances 3 Problèmes du calcul parallèle 4 Intergiciels

Plus en détail

Cours Programmation Système

Cours Programmation Système Cours Programmation Système Filière SMI Semestre S6 El Mostafa DAOUDI Département de Mathématiques et d Informatique, Faculté des Sciences Université Mohammed Premier Oujda m.daoudi@fso.ump.ma Février

Plus en détail

3IS - Système d'exploitation linux - Programmation système

3IS - Système d'exploitation linux - Programmation système 3IS - Système d'exploitation linux - Programmation système 2010 David Picard Contributions de : Arnaud Revel, Mickaël Maillard picard@ensea.fr Environnement Les programmes peuvent être exécutés dans des

Plus en détail

Programmation système en C/C++

Programmation système en C/C++ Programmation système en C/C++ Jean-Baptiste Vioix (jb.vioix@free.fr) LE2I - ENESAD http://jb.vioix.free.fr 1-41 Programmation en C/C++ sous Unix Il existe des très nombreux outils de développement sous

Plus en détail

Le langage C. Séance n 4

Le langage C. Séance n 4 Université Paris-Sud 11 Institut de Formation des Ingénieurs Remise à niveau INFORMATIQUE Année 2007-2008 Travaux pratiques d informatique Le langage C Séance n 4 But : Vous devez maîtriser à la fin de

Plus en détail

IN 102 - Cours 1. 1 Informatique, calculateurs. 2 Un premier programme en C

IN 102 - Cours 1. 1 Informatique, calculateurs. 2 Un premier programme en C IN 102 - Cours 1 Qu on le veuille ou non, les systèmes informatisés sont désormais omniprésents. Même si ne vous destinez pas à l informatique, vous avez de très grandes chances d y être confrontés en

Plus en détail

EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE

EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE QCM Remarque : - A une question correspond au moins 1 réponse juste - Cocher la ou les bonnes réponses Barème : - Une bonne réponse = +1 - Pas de réponse = 0

Plus en détail

Cours d Algorithmique-Programmation 2 e partie (IAP2): programmation 24 octobre 2007impérative 1 / 44 et. structures de données simples

Cours d Algorithmique-Programmation 2 e partie (IAP2): programmation 24 octobre 2007impérative 1 / 44 et. structures de données simples Cours d Algorithmique-Programmation 2 e partie (IAP2): programmation impérative et structures de données simples Introduction au langage C Sandrine Blazy - 1ère année 24 octobre 2007 Cours d Algorithmique-Programmation

Plus en détail

Mon premier rpm. http://alexandre-mesle.com 7 juin 2010. 1 Avant de commencer 2 1.1 RPM... 2 1.2 URPMI... 2 1.3 RPMBUILD... 2

Mon premier rpm. http://alexandre-mesle.com 7 juin 2010. 1 Avant de commencer 2 1.1 RPM... 2 1.2 URPMI... 2 1.3 RPMBUILD... 2 Mon premier rpm http://alexandre-mesle.com 7 juin 2010 Table des matières 1 Avant de commencer 2 1.1 RPM....................................................... 2 1.2 URPMI.....................................................

Plus en détail

Licence ST Université Claude Bernard Lyon I LIF1 : Algorithmique et Programmation C Bases du langage C 1 Conclusion de la dernière fois Introduction de l algorithmique générale pour permettre de traiter

Plus en détail

Programmation système I Les entrées/sorties

Programmation système I Les entrées/sorties Programmation système I Les entrées/sorties DUT 1 re année Université de Marne La vallée Les entrées-sorties : E/O Entrées/Sorties : Opérations d échanges d informations dans un système informatique. Les

Plus en détail

Cours 6 : Tubes anonymes et nommés

Cours 6 : Tubes anonymes et nommés Cours 6 : Tubes anonymes et nommés Mécanisme de communications du système de fichiers I-node associé. Type de fichier: S_IFIFO. Accès au travers des primitives read et write. Les tubes sont unidirectionnels

Plus en détail

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

Éléments d informatique Cours 3 La programmation structurée en langage C L instruction de contrôle if

Éléments d informatique Cours 3 La programmation structurée en langage C L instruction de contrôle if Éléments d informatique Cours 3 La programmation structurée en langage C L instruction de contrôle if Pierre Boudes 28 septembre 2011 This work is licensed under the Creative Commons Attribution-NonCommercial-ShareAlike

Plus en détail

Introduction to Parallel Programming with MPI

Introduction to Parallel Programming with MPI Introduction to Parallel Programming with MPI Master Modélisation et Simulation - ENSTA cours A1-2 Pierre Kestener pierre.kestener@cea.fr CEA-Saclay, DSM, France Maison de la Simulation MDLS, September,

Plus en détail

Arguments d un programme

Arguments d un programme Arguments d un programme L2 SPI, Bruno Jacob 1 Arguments Quand on appelle un programme dans un environnement UNIX ou MS- DOS, on compose une ligne de commandes de la forme : nom-du-programme argument1

Plus en détail

Introduction au langage C

Introduction au langage C Introduction au langage C Cours 1: Opérations de base et premier programme Alexis Lechervy Alexis Lechervy (UNICAEN) Introduction au langage C 1 / 23 Les premiers pas Sommaire 1 Les premiers pas 2 Les

Plus en détail

Introduction à la programmation orientée objet, illustrée par le langage C++ Patrick Cégielski cegielski@u-pec.fr

Introduction à la programmation orientée objet, illustrée par le langage C++ Patrick Cégielski cegielski@u-pec.fr Introduction à la programmation orientée objet, illustrée par le langage C++ Patrick Cégielski cegielski@u-pec.fr Mars 2002 Pour Irène et Marie Legal Notice Copyright c 2002 Patrick Cégielski Université

Plus en détail

Cours intensif Java. 1er cours: de C à Java. Enrica DUCHI LIAFA, Paris 7. Septembre 2009. Enrica.Duchi@liafa.jussieu.fr

Cours intensif Java. 1er cours: de C à Java. Enrica DUCHI LIAFA, Paris 7. Septembre 2009. Enrica.Duchi@liafa.jussieu.fr . Cours intensif Java 1er cours: de C à Java Septembre 2009 Enrica DUCHI LIAFA, Paris 7 Enrica.Duchi@liafa.jussieu.fr LANGAGES DE PROGRAMMATION Pour exécuter un algorithme sur un ordinateur il faut le

Plus en détail

Info0101 Intro. à l'algorithmique et à la programmation. Cours 3. Le langage Java

Info0101 Intro. à l'algorithmique et à la programmation. Cours 3. Le langage Java Info0101 Intro. à l'algorithmique et à la programmation Cours 3 Le langage Java Pierre Delisle, Cyril Rabat et Christophe Jaillet Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique

Plus en détail

Cours de C. Petits secrets du C & programmation avancée. Sébastien Paumier

Cours de C. Petits secrets du C & programmation avancée. Sébastien Paumier Cours de C Petits secrets du C & programmation avancée Sébastien Paumier paumier@univ-mlv.fr Illustrations provenant du site http://tux.crystalxp.net/ 1 Affectations étendues a+=expression a=a+expression

Plus en détail

Grid Computing. Plan du cours. Plan. Composants d une Grille. Nouredine.Melab@lifl.fr. Besoin d intergiciels robustes

Grid Computing. Plan du cours. Plan. Composants d une Grille. Nouredine.Melab@lifl.fr. Besoin d intergiciels robustes Grid Computing Plan du cours Nouredine.Melab@lifl.fr Les grilles informatiques : concepts et infrastructures La grille nationale Grid5000 Modèles de programmation et intergiciels pour le grilles Etude

Plus en détail

I. Introduction aux fonctions : les fonctions standards

I. Introduction aux fonctions : les fonctions standards Chapitre 3 : Les fonctions en C++ I. Introduction aux fonctions : les fonctions standards A. Notion de Fonction Imaginons que dans un programme, vous ayez besoin de calculer une racine carrée. Rappelons

Plus en détail

MISE A NIVEAU INFORMATIQUE LANGAGE C - EXEMPLES DE PROGRAMMES. Université Paris Dauphine IUP Génie Mathématique et Informatique 2 ème année

MISE A NIVEAU INFORMATIQUE LANGAGE C - EXEMPLES DE PROGRAMMES. Université Paris Dauphine IUP Génie Mathématique et Informatique 2 ème année 2003-2004 Université Paris Dauphine IUP Génie Mathématique et Informatique 2 ème année MISE A NIVEAU INFORMATIQUE LANGAGE C - EXEMPLES DE PROGRAMMES Maude Manouvrier La reproduction de ce document par

Plus en détail

ALGORITHMIQUE ET PROGRAMMATION En C

ALGORITHMIQUE ET PROGRAMMATION En C Objectifs ALGORITHMIQUE ET PROGRAMMATION Une façon de raisonner Automatiser la résolution de problèmes Maîtriser les concepts de l algorithmique Pas faire des spécialistes d un langage Pierre TELLIER 2

Plus en détail

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP COURS PROGRAMMATION INITIATION AU LANGAGE C SUR MICROCONTROLEUR PIC page 1 / 7 INITIATION AU LANGAGE C SUR PIC DE MICROSHIP I. Historique du langage C 1972 : naissance du C dans les laboratoires BELL par

Plus en détail

Programmation système de commandes en C

Programmation système de commandes en C Programmation système de commandes en C Cours de Programmation système Tuyêt Trâm DANG NGOC Université de Cergy-Pontoise 2012 2013 Tuyêt Trâm DANG NGOC Programmation système de commandes

Plus en détail

Une introduction à Java

Une introduction à Java Une introduction à Java IFT 287 (Semaine 1) UNIVERSITÉ DE SHERBROOKE 1 Java - Historique Développé par Sun Microsystems en 1994 Inventeur James Gosling (canadien!) Objectif langage sûr (fortement typé)

Plus en détail

Derrière toi Une machine virtuelle!

Derrière toi Une machine virtuelle! Derrière toi Une machine virtuelle! Yann-Gaël Guéhéneuc guehene@emn.fr École des Mines de Nantes, France Object Technology International Inc., Canada D où ça vient? Calculatrice Machine de Turing 1936

Plus en détail

DE L ALGORITHME AU PROGRAMME INTRO AU LANGAGE C 51

DE L ALGORITHME AU PROGRAMME INTRO AU LANGAGE C 51 DE L ALGORITHME AU PROGRAMME INTRO AU LANGAGE C 51 PLAN DU COURS Introduction au langage C Notions de compilation Variables, types, constantes, tableaux, opérateurs Entrées sorties de base Structures de

Plus en détail

Plan de la formation. Calcul parallèle avec MPI. Pourquoi paralléliser? Parallélisation. Présentation, environnement MPI. Communications point à point

Plan de la formation. Calcul parallèle avec MPI. Pourquoi paralléliser? Parallélisation. Présentation, environnement MPI. Communications point à point Plan de la formation Calcul parallèle avec MPI Guy Moebs Parallélisation Présentation, environnement MPI Communications point à point Laboratoire de Mathématiques Jean Leray, CNRS, Université de Nantes,

Plus en détail

Cours 1 : Introduction. Langages objets. but du module. contrôle des connaissances. Pourquoi Java? présentation du module. Présentation de Java

Cours 1 : Introduction. Langages objets. but du module. contrôle des connaissances. Pourquoi Java? présentation du module. Présentation de Java Langages objets Introduction M2 Pro CCI, Informatique Emmanuel Waller, LRI, Orsay présentation du module logistique 12 blocs de 4h + 1 bloc 2h = 50h 1h15 cours, 45mn exercices table, 2h TD machine page

Plus en détail

Introduction à Java. Matthieu Herrb CNRS-LAAS. Mars 2014. http://homepages.laas.fr/matthieu/cours/java/java.pdf

Introduction à Java. Matthieu Herrb CNRS-LAAS. Mars 2014. http://homepages.laas.fr/matthieu/cours/java/java.pdf Introduction à Java Matthieu Herrb CNRS-LAAS http://homepages.laas.fr/matthieu/cours/java/java.pdf Mars 2014 Plan 1 Concepts 2 Éléments du langage 3 Classes et objets 4 Packages 2/28 Histoire et motivations

Plus en détail

as Architecture des Systèmes d Information

as Architecture des Systèmes d Information Plan Plan Programmation - Introduction - Nicolas Malandain March 14, 2005 Introduction à Java 1 Introduction Présentation Caractéristiques Le langage Java 2 Types et Variables Types simples Types complexes

Plus en détail

Les structures. Chapitre 3

Les structures. Chapitre 3 Chapitre 3 Les structures Nous continuons notre étude des structures de données qui sont prédéfinies dans la plupart des langages informatiques. La structure de tableau permet de regrouper un certain nombre

Plus en détail

Introduction à la programmation Travaux pratiques: séance d introduction INFO0201-1

Introduction à la programmation Travaux pratiques: séance d introduction INFO0201-1 Introduction à la programmation Travaux pratiques: séance d introduction INFO0201-1 B. Baert & F. Ludewig Bruno.Baert@ulg.ac.be - F.Ludewig@ulg.ac.be Qu est-ce que la programmation? Programmer Ecrire un

Plus en détail

Cours de Programmation Impérative: Zones de mémoires et pointeurs

Cours de Programmation Impérative: Zones de mémoires et pointeurs Cours de Programmation Impérative: Zones de mémoires et pointeurs Julien David A101 - david@lipn.univ-paris13.fr Julien David (A101 - david@lipn.univ-paris13.fr) 1 / 1 Z`o n`e s `d`e m`é m`o i r`e Julien

Plus en détail

03/04/2007. Tâche 1 Tâche 2 Tâche 3. Système Unix. Time sharing

03/04/2007. Tâche 1 Tâche 2 Tâche 3. Système Unix. Time sharing 3/4/27 Programmation Avancée Multimédia Multithreading Benoît Piranda Équipe SISAR Université de Marne La Vallée Besoin Programmes à traitements simultanés Réseau Réseau Afficher une animation en temps

Plus en détail

Bases de programmation. Cours 5. Structurer les données

Bases de programmation. Cours 5. Structurer les données Bases de programmation. Cours 5. Structurer les données Pierre Boudes 1 er décembre 2014 This work is licensed under the Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License. Types char et

Plus en détail

OS Réseaux et Programmation Système - C5

OS Réseaux et Programmation Système - C5 OS Réseaux et Programmation Système - C5 Rabie Ben Atitallah rabie.benatitallah@univ-valenciennes.fr RPC - XDR Rappel RPC: Remote Procedure Call Besoin d un environnement de haut niveau pour le développement

Plus en détail

I00 Éléments d architecture

I00 Éléments d architecture I00 I Exemples d ordinateur Pour les informaticiens, différentes machines de la vie courante sont des ordinateurs : par exemple les ordinateurs portables, les ordinateurs fixes, mais aussi les supercalculateurs,

Plus en détail

Groupe calcul parallèle

Groupe calcul parallèle Groupe calcul parallèle «Exploiter le potentiel des nouvelles architectures» Vincent Lafage Luz Guevara Ivana Hrivnacova Christophe Diarra Contact :Luz Guevara e-mail : guevara@ipno.in2p3.fr Tel : 54463

Plus en détail

Les chaînes de caractères

Les chaînes de caractères Les chaînes de caractères Dans un programme informatique, les chaînes de caractères servent à stocker les informations non numériques comme par exemple une liste de nom de personne ou des adresses. Il

Plus en détail

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace

Processus! programme. DIMA, Systèmes Centralisés (Ph. Mauran)  Processus = suite d'actions = suite d'états obtenus = trace Processus 1) Contexte 2) Modèles de Notion de Points de vue Modèle fourni par le SX Opérations sur les 3) Gestion des Représentation des Opérations 4) Ordonnancement des Niveaux d ordonnancement Ordonnancement

Plus en détail

D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale

D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale VERSION 1.0 DATE 2010 EDITORIAL MANAGER Sylvain Peyronnet AUTHORS STAFF Ala Rezmerita, Camille

Plus en détail

Simulation d un système de paiement par carte bancaire

Simulation d un système de paiement par carte bancaire Simulation d un système de paiement par carte bancaire Mini projet IN301/IN3ST01-2009-2010 Sujet rédigé par Jean Cousty et Laurent Najman, très librement inspiré d un projet de Jérome Gueydan pour l ENSTA

Plus en détail

Algorithmique et Programmation, IMA

Algorithmique et Programmation, IMA Algorithmique et Programmation, IMA Cours 2 : C Premier Niveau / Algorithmique Université Lille 1 - Polytech Lille Notations, identificateurs Variables et Types de base Expressions Constantes Instructions

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences

Plus en détail

Grid Computing. Mihaela JUGANARU-MATHIEU mathieu@emse.fr 2014-2015. École Nationale Supérieure des Mines de St Etienne

Grid Computing. Mihaela JUGANARU-MATHIEU mathieu@emse.fr 2014-2015. École Nationale Supérieure des Mines de St Etienne Mihaela JUGANARU-MATHIEU mathieu@emse.fr École Nationale Supérieure des Mines de St Etienne 2014-2015 Bibliographie (livres et revues) : Frédéric Magoulès, Jie Pan, Kiat-An, Tan Abhinit Kumar Introduction

Plus en détail

Notions fondamentales du langage C# Version 1.0

Notions fondamentales du langage C# Version 1.0 Notions fondamentales du langage C# Version 1.0 Z 2 [Notions fondamentales du langage Csharp] [Date : 25/03/09] Sommaire 1 Tout ce qu il faut savoir pour bien commencer... 3 1.1 Qu est ce qu un langage

Plus en détail

Structure d un programme et Compilation Notions de classe et d objet Syntaxe

Structure d un programme et Compilation Notions de classe et d objet Syntaxe Cours1 Structure d un programme et Compilation Notions de classe et d objet Syntaxe POO 1 Programmation Orientée Objet Un ensemble d objet qui communiquent Pourquoi POO Conception abstraction sur les types

Plus en détail

Le Langage C Version 1.2 c 2002 Florence HENRY Observatoire de Paris Université de Versailles florence.henry@obspm.fr

Le Langage C Version 1.2 c 2002 Florence HENRY Observatoire de Paris Université de Versailles florence.henry@obspm.fr Le Langage C Version 1.2 c 2002 Florence HENRY Observatoire de Paris Université de Versailles florence.henry@obspm.fr Table des matières 1 Les bases 3 2 Variables et constantes 5 3 Quelques fonctions indispensables

Plus en détail

Initiation. àl algorithmique et à la programmation. en C

Initiation. àl algorithmique et à la programmation. en C Initiation àl algorithmique et à la programmation en C Initiation àl algorithmique et à la programmation en C Cours avec 129 exercices corrigés Illustration de couverture : alwyncooper - istock.com Dunod,

Plus en détail

Lier Erlang avec d autres langages de programmation

Lier Erlang avec d autres langages de programmation 16 Lier Erlang avec d autres langages de programmation Les logiciels actuels, quelle que soit leur taille, sont souvent écrits dans plusieurs langages de programmation. Généralement, les pilotes de périphériques

Plus en détail

1. Structure d un programme C. 2. Commentaire: /*..texte */ On utilise aussi le commentaire du C++ qui est valable pour C: 3.

1. Structure d un programme C. 2. Commentaire: /*..texte */ On utilise aussi le commentaire du C++ qui est valable pour C: 3. 1. Structure d un programme C Un programme est un ensemble de fonctions. La fonction "main" constitue le point d entrée pour l exécution. Un exemple simple : #include int main() { printf ( this

Plus en détail

Table des matières PRESENTATION DU LANGAGE DS2 ET DE SES APPLICATIONS. Introduction

Table des matières PRESENTATION DU LANGAGE DS2 ET DE SES APPLICATIONS. Introduction PRESENTATION DU LANGAGE DS2 ET DE SES APPLICATIONS Depuis SAS 9.2 TS2M3, SAS propose un nouveau langage de programmation permettant de créer et gérer des tables SAS : le DS2 («Data Step 2»). Ces nouveautés

Plus en détail

INTRODUCTION A JAVA. Fichier en langage machine Exécutable

INTRODUCTION A JAVA. Fichier en langage machine Exécutable INTRODUCTION A JAVA JAVA est un langage orienté-objet pur. Il ressemble beaucoup à C++ au niveau de la syntaxe. En revanche, ces deux langages sont très différents dans leur structure (organisation du

Plus en détail

Outils pour la pratique

Outils pour la pratique Cinquième partie Outils pour la pratique 121 CHAPITRE 1 Les bases des séances de TP Avant de lire cettre section, il est suggéré de relire vos notes de cours se rapportant au système d exploitation Unix.

Plus en détail

Compression de Données - Algorithme de Huffman Document de Conception

Compression de Données - Algorithme de Huffman Document de Conception ROLLET Samuel SALLE Jennifer Compression de Données - Algorithme de Huffman Document de Conception Projet d'algorithmique et Structure des Données 1 SOMMAIRE 1. Domaine d application....4 1.1 Objectifs

Plus en détail

Licence Bio Informatique Année 2004-2005. Premiers pas. Exercice 1 Hello World parce qu il faut bien commencer par quelque chose...

Licence Bio Informatique Année 2004-2005. Premiers pas. Exercice 1 Hello World parce qu il faut bien commencer par quelque chose... Université Paris 7 Programmation Objet Licence Bio Informatique Année 2004-2005 TD n 1 - Correction Premiers pas Exercice 1 Hello World parce qu il faut bien commencer par quelque chose... 1. Enregistrez

Plus en détail

Grid5000 aujourd'hui : Architecture & utilisation

Grid5000 aujourd'hui : Architecture & utilisation 1 Grid5000 aujourd'hui : Architecture & utilisation aurelien.dumez@labri.fr 11 octobre 2005 Contexte 2 Grid5000 est : Une plateforme expérimentale pour le grid computing Ouverte à de nombreux thèmes de

Plus en détail

Cours d initiation à la programmation en C++ Johann Cuenin

Cours d initiation à la programmation en C++ Johann Cuenin Cours d initiation à la programmation en C++ Johann Cuenin 11 octobre 2014 2 Table des matières 1 Introduction 5 2 Bases de la programmation en C++ 7 3 Les types composés 9 3.1 Les tableaux.............................

Plus en détail

Premiers Pas en Programmation Objet : les Classes et les Objets

Premiers Pas en Programmation Objet : les Classes et les Objets Chapitre 2 Premiers Pas en Programmation Objet : les Classes et les Objets Dans la première partie de ce cours, nous avons appris à manipuler des objets de type simple : entiers, doubles, caractères, booléens.

Plus en détail

Programmation C. Apprendre à développer des programmes simples dans le langage C

Programmation C. Apprendre à développer des programmes simples dans le langage C Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités

Plus en détail

TD3: tableaux avancées, première classe et chaînes

TD3: tableaux avancées, première classe et chaînes TD3: tableaux avancées, première classe et chaînes de caractères 1 Lestableaux 1.1 Élémentsthéoriques Déclaration des tableaux Pour la déclaration des tableaux, deux notations sont possibles. La première

Plus en détail

Initiation à l algorithmique

Initiation à l algorithmique Informatique S1 Initiation à l algorithmique procédures et fonctions 2. Appel d une fonction Jacques TISSEAU Ecole Nationale d Ingénieurs de Brest Technopôle Brest-Iroise CS 73862-29238 Brest cedex 3 -

Plus en détail

Cours 1: Java et les objets

Cours 1: Java et les objets Ressources Les interface homme-machine et le langage Java DUT première année Henri Garreta, Faculté des Sciences (Luminy) Cyril Pain-Barre & Sébastien Nedjar, IUT d Aix-Marseille (Aix) Cours 1: infodoc.iut.univ-aix.fr/~ihm/

Plus en détail

Plan du cours. Historique du langage http://www.oracle.com/technetwork/java/index.html. Nouveautés de Java 7

Plan du cours. Historique du langage http://www.oracle.com/technetwork/java/index.html. Nouveautés de Java 7 Université Lumière Lyon 2 Faculté de Sciences Economiques et Gestion KHARKIV National University of Economic Introduction au Langage Java Master Informatique 1 ère année Julien Velcin http://mediamining.univ-lyon2.fr/velcin

Plus en détail

TP1 : Initiation à Java et Eclipse

TP1 : Initiation à Java et Eclipse TP1 : Initiation à Java et Eclipse 1 TP1 : Initiation à Java et Eclipse Systèmes d Exploitation Avancés I. Objectifs du TP Ce TP est une introduction au langage Java. Il vous permettra de comprendre les

Plus en détail

Utilisation d objets : String et ArrayList

Utilisation d objets : String et ArrayList Chapitre 6 Utilisation d objets : String et ArrayList Dans ce chapitre, nous allons aborder l utilisation d objets de deux classes prédéfinies de Java d usage très courant. La première, nous l utilisons

Plus en détail

Chap III : Les tableaux

Chap III : Les tableaux Chap III : Les tableaux Dans cette partie, on va étudier quelques structures de données de base tels que : Les tableaux (vecteur et matrice) Les chaînes de caractères LA STRUCTURE DE TABLEAU Introduction

Plus en détail

Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace

Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace 1 Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace Réseau longue distance et application distribuée dans les grilles de

Plus en détail

MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe

MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe 3A-SI Programmation parallèle MPI-1 2ème partie : Programmation «non bloquante» et communications de groupe Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle MPI-1 2ème partie

Plus en détail

Langage C. Patrick Corde. Patrick.Corde@idris.fr. 22 juin 2015. Patrick Corde ( Patrick.Corde@idris.fr ) Langage C 22 juin 2015 1 / 289

Langage C. Patrick Corde. Patrick.Corde@idris.fr. 22 juin 2015. Patrick Corde ( Patrick.Corde@idris.fr ) Langage C 22 juin 2015 1 / 289 Langage C Patrick Corde Patrick.Corde@idris.fr 22 juin 2015 Patrick Corde ( Patrick.Corde@idris.fr ) Langage C 22 juin 2015 1 / 289 Table des matières I 1 Présentation du langage C Historique Intérêts

Plus en détail

COMPARAISONDESLANGAGESC, C++, JAVA ET

COMPARAISONDESLANGAGESC, C++, JAVA ET REPUBLIQUE DU BENIN *******@******* MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE(MESRS) *******@******* UNIVERSITE D ABOMEY CALAVI(UAC) *******@******* ECOLE POLYTECHNIQUE D ABPOMEY

Plus en détail

Plan du cours 2014-2015. Cours théoriques. 29 septembre 2014

Plan du cours 2014-2015. Cours théoriques. 29 septembre 2014 numériques et Institut d Astrophysique et de Géophysique (Bât. B5c) Bureau 0/13 email:.@ulg.ac.be Tél.: 04-3669771 29 septembre 2014 Plan du cours 2014-2015 Cours théoriques 16-09-2014 numériques pour

Plus en détail

Les processus. Système L3, 2014-2015 1/39

Les processus. Système L3, 2014-2015 1/39 Les processus Système L3, 2014-2015 1/39 Les processus Processus = Instance d un programme en cours d exécution plusieurs exécutions de programmes plusieurs exécutions d un même programme plusieurs exécutions

Plus en détail

Optimisation de logiciels de modélisation sur centre de calcul

Optimisation de logiciels de modélisation sur centre de calcul Optimisation de logiciels de modélisation sur centre de calcul Gérald Monard Pôle de Chimie Théorique http://www.monard.info/ Introduction Les ordinateurs sont des appareils électroniques permettant d

Plus en détail

Corrigé des TD 1 à 5

Corrigé des TD 1 à 5 Corrigé des TD 1 à 5 1 Premier Contact 1.1 Somme des n premiers entiers 1 (* Somme des n premiers entiers *) 2 program somme_entiers; n, i, somme: integer; 8 (* saisie du nombre n *) write( Saisissez un

Plus en détail

Rappels Entrées -Sorties

Rappels Entrées -Sorties Fonctions printf et scanf Syntaxe: écriture, organisation Comportement Données hétérogènes? Gestion des erreurs des utilisateurs 17/11/2013 Cours du Langage C ibr_guelzim@yahoo.fr ibrahimguelzim.atspace.co.uk

Plus en détail

Archivage Messagerie Evolution pour usage HTML en utilisant Hypermail

Archivage Messagerie Evolution pour usage HTML en utilisant Hypermail Finalités Archivage Messagerie Evolution pour usage HTML en utilisant Hypermail Réalisé par sa modestie Arnaud de VILLEDON de NAIDE, le 9 mars 2013 Document sous licence GPL. Vous avez le droit d'en faire

Plus en détail

Langage et Concepts de ProgrammationOrientée-Objet 1 / 40

Langage et Concepts de ProgrammationOrientée-Objet 1 / 40 Déroulement du cours Introduction Concepts Java Remarques Langage et Concepts de Programmation Orientée-Objet Gauthier Picard École Nationale Supérieure des Mines de Saint-Étienne gauthier.picard@emse.fr

Plus en détail

Cours de C++ François Laroussinie. 2 novembre 2005. Dept. d Informatique, ENS de Cachan

Cours de C++ François Laroussinie. 2 novembre 2005. Dept. d Informatique, ENS de Cachan Cours de C++ François Laroussinie Dept. d Informatique, ENS de Cachan 2 novembre 2005 Première partie I Introduction Introduction Introduction Algorithme et programmation Algorithme: méthode pour résoudre

Plus en détail

UE Programmation Impérative Licence 2ème Année 2014 2015

UE Programmation Impérative Licence 2ème Année 2014 2015 UE Programmation Impérative Licence 2 ème Année 2014 2015 Informations pratiques Équipe Pédagogique Florence Cloppet Neilze Dorta Nicolas Loménie prenom.nom@mi.parisdescartes.fr 2 Programmation Impérative

Plus en détail

Généralités sur le Langage Java et éléments syntaxiques.

Généralités sur le Langage Java et éléments syntaxiques. Généralités sur le Langage Java et éléments syntaxiques. Généralités sur le Langage Java et éléments syntaxiques....1 Introduction...1 Genéralité sur le langage Java....1 Syntaxe de base du Langage...

Plus en détail

Gestion de la mémoire

Gestion de la mémoire 433 43 3 Gestion de la mémoire + 1. Qu'est-ce que la mémoire? - Définitions, exemples 2. Allocation contiguë en mémoire - Partitions de taille fixe, de taille variable 3. Pagination et mémoire virtuelle

Plus en détail

Examen d informatique première session 2004

Examen d informatique première session 2004 Examen d informatique première session 2004 Le chiffre à côté du titre de la question indique le nombre de points sur 40. I) Lentille électrostatique à fente (14) Le problème étudié est à deux dimensions.

Plus en détail

Introduction au calcul parallèle avec OpenCL

Introduction au calcul parallèle avec OpenCL Introduction au calcul parallèle avec OpenCL Julien Dehos Séminaire du 05/01/2012 Sommaire Introduction Le calculateur du CGR/LISIC/LMPA Généralités sur OpenCL Modèles Programmation Optimisation Conclusion

Plus en détail

TP : Gestion d une image au format PGM

TP : Gestion d une image au format PGM TP : Gestion d une image au format PGM Objectif : L objectif du sujet est de créer une classe de manipulation d images au format PGM (Portable GreyMap), et de programmer des opérations relativement simples

Plus en détail

PROGRAMMATION PAR OBJETS

PROGRAMMATION PAR OBJETS PROGRAMMATION PAR OBJETS Java Environnement et constructions spécifiques Walter Rudametkin Maître de Conférences Bureau F011 Walter.Rudametkin@polytech-lille.fr B. Carré Polytech Lille 2 Java (Sun 1995)

Plus en détail

Systèmes distribués et virtualisation de ressources

Systèmes distribués et virtualisation de ressources p. 1/18 Systèmes distribués et virtualisation de ressources Tanguy RISSET (Transparents : Antoine Fraboulet) tanguy.risset@insa-lyon.fr p. 2/18 Plan 1 Distribution de ressources 1. Distribution de ressources

Plus en détail

Les processus légers : threads. Système L3, 2014-2015 1/31

Les processus légers : threads. Système L3, 2014-2015 1/31 Les processus légers : threads Système L3, 2014-2015 1/31 Les threads Les threads sont des processus légers exécutés à l intérieur d un processus L exécution des threads est concurrente Il existe toujours

Plus en détail

Cours Informatique Master STEP

Cours Informatique Master STEP Cours Informatique Master STEP Bases de la programmation: Compilateurs/logiciels Algorithmique et structure d'un programme Programmation en langage structuré (Fortran 90) Variables, expressions, instructions

Plus en détail

ENVOI SIMPLE (SMS)...

ENVOI SIMPLE (SMS)... SMS - EMAIL Ce logiciel nécessite une licence pour fonctionner en mode SMS. Ce logiciel ne nécessite pas de licence pour fonctionner en mode EMAIL. Le logiciel permet d envoyer des SMS avec un téléphone

Plus en détail

Langages et Concepts de Programmation Introduction à la programmation en langage C

Langages et Concepts de Programmation Introduction à la programmation en langage C Langages et Concepts de Programmation Introduction à la programmation en langage C Cours 1A 2013-2014 Jean-Jacques Girardot, Marc Roelens girardot@emse.fr, roelens@emse.fr Septembre 2013 École Nationale

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail