Quantification d incertitude et Tendances en HPC

Dimension: px
Commencer à balayer dès la page:

Download "Quantification d incertitude et Tendances en HPC"

Transcription

1 Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai / 47

2 Contents 1 Mode lisation, simulation et quantification d incertitudes 2 Quelques strate gies 3 Tendance en HPC E volution Hardware Implication software Grille de calcul Cloud Paralle lisme avec R Quelques outils Laurence Viry Tendances en HPC 7 Mai / 47

3 Sommaire 1 Modélisation, simulation et quantification d incertitudes 2 Quelques stratégies 3 Tendance en HPC Évolution Hardware Implication software Grille de calcul Cloud Parallélisme avec R Quelques outils Laurence Viry Tendances en HPC 7 Mai / 47

4 Applications/Modélisation/Simulation Numérique 1 Une application est fréquemment décrite par un modèle mathématique, souvent un système d équations aux dérivées partielles linéaires ou non linéaires, couplées. 2 Rôle prédictif des applications de simulations numériques. 3 Écart entre l application (observations) et la simulation numérique issue de la modélisation. 4 La modélisation et la simulation numérique qui en découle introduisent des sources d erreurs: Erreur sur le modèle, erreur sur les entrées/sorties et/ou variabilité naturelle de ces entrées, erreurs sur les conditions initiales, forçages, erreur d approximation numérique du modèle, erreur informatique,... 5 Chaque source d erreur devra être intégrée dans le processus de prédiction. Laurence Viry Tendances en HPC 7 Mai / 47

5 Propagation d incertitude à travers du modèle Dans les méthodes non-déterministes, un nombre de calculs du modèle doit être effectué pour recouvrir l espace des entrées vers l espace des sorties du modèle. Le nombre de calculs nécessaire dépend: de la non-linéarité des équations aux dérivées partielles, de la structure de dépendance entre les quantités incertaines, de la nature des incertitudes (aléatoire, épistémique) des méthodes numériques utilisées.... Laurence Viry Tendances en HPC 7 Mai / 47

6 Applications/Modélisation/Simulation Numérique La connaissance globale des incertitudes des réponses d un modèle peut nécessiter le développement et la mise en oeuvre: d une analyse de sensibilité globale permettant d identifier les variables d entrées les plus pertinentes, de techniques de propagation d incertitudes. de technique de vérification et validation de code. L évolution des ressources de calcul, de stockage et des logiciels disponibles : induit une plus grande complexité des modèles et de leur implémentation numérique, permet d envisager la mise en oeuvre de méthodes considérées jusqu à récemment comme trop coûteuses, L évolution des architectures hardware des machines de calcul impose une adaptation des algorithmes utilisés répondant à des critères d efficacité en terme de temps de calcul, de gestion de la mémoire et des I/O et de paradigme de programmation. Laurence Viry Tendances en HPC 7 Mai / 47

7

8 Sommaire 1 Modélisation, simulation et quantification d incertitudes 2 Quelques stratégies 3 Tendance en HPC Évolution Hardware Implication software Grille de calcul Cloud Parallélisme avec R Quelques outils Laurence Viry Tendances en HPC 7 Mai / 47

9 Modèle Nous considérons un modèle (code numérique) représenté de manière générique par une fonction f définie sur un domaine de R p et à valeurs dans R m : Y = f (X, θ) avec X R p les entrées, θ les paramètres et Y R m les sorties du modèle. Quantités d intérêt estimées en général par leur analogues empiriques. ϱ(x, θ) = E(f (X, θ)) moyenne de Y Var(f (X, θ)) variance de Y F Y (y) = P(Y < y) fonction de répartition de Y q s (Y ) quantile de Y E(Y /X s ) moyenne conditionnelle de Y Var(Y /x s ) variance conditionnelle de Y S i i 1,..., p indice de sensibilité de premier ordre S i1,i 2,...,i k indice de sensibilité d ordre supérieur... Laurence Viry Tendances en HPC 7 Mai / 47

10 Méthodologies Caractéristiques de calcul: Temps d une évaluation du modèle. Volume du stockage (échantillon, I/O du modèle, quantités d intérêts). Communications: évaluation du modèle, distribution des données et des résultats. Environnement software, gestion de la complexité des processus.... Les processus utilisés: (P 1 ) Paramétrisation, assigner des lois de probabilité aux variables du modèle étape de criblage éventuel. (P 2 ) Échantillonage ou planification à partir des lois des entrées. (P 3 ) Répartition des données en entrée du modèle et/ou du métamodèle. Évaluation du modèle (P 7 ) et/ou du métamodèle (P 8 ) : calcul séquentiel ou parallèle. (P 4 ) Récupération des résultats. (P 5 ) Estimation des quantités d intérêt. (P 6 ) Construction d un métamodèle (dans certains cas). Laurence... Viry Tendances en HPC 7 Mai / 47

11 Analyse de sensibilité: Estimations à l aide du modèle Échantillon de taille n (X(w 1 ),..., X(w n )) Estimations des quantités d intérêts ˆϱ n (f (X, θ)) ϱ(f (X, θ)) Evaluation Modèle (T7,S7,C7) Paramétrisation (T1,S1,C1) Échantillonnage Planification (T2,S2,C2) Distribution (T3,S3,C3)... Récupération (T4,S4,C4) Pi=(Ti,Si,Ci) Ti: temps de calcul de la tâche i Si: volume de stockage de la tâche i Ci: volume des communications de la tâche i Evaluation Modèle (T7,S7,C7) Estimations (T5,S5,C5) Laurence Viry Tendances en HPC 7 Mai / 47

12 Analyse : Estimations à l aide du modèle Temps de calcul global (T): T = T 1 + T 2 + T 3 + n T 7 + T 4 + T 5 n évaluations du code Dépend de T 7, de la taille de l échantillon (n), du volume des I/O. Stockage (S): S 1, S 2, S 5 : espace de stockage peu volumineux. S 7 : dépend du volume des I/O du code. S 4 : dépend du volume des quantités d intérêts. Volume d échange des données (C), concerne les tâches P 3, P 4, P 7. C 3 : distribution I/O et échantillon des paramètres: C 3 = taille(x) n C 4 : distribution des sorties du code et des quantités d intérêt pour l estimation des indices: C 4 = taille(y ) n C 7 : dépend du code (parallèle). Solutions HPC suivant la complexité de l application et des paramètres à estimer: Parallélisation du code. Distributions des calculs sur un gros cluster ou sur une grille de calcul. Utilisation d une grille de stockage. Parallélisation des estimations(moyenne, variance, indices de sensibilité,...) Laurence Viry Tendances en HPC 7 Mai / 47

13 Échantillon de taille m pour estimer le métamodèle Échantillon de taille (n) pour estimer les quantité d intérêts: (n >> m) Estimation à l'aide d'un métamodèle Evaluation Modèle (T7,S7,C7) Paramétrisation (T1,S1,C1) Planification (T2,S2,C2) Distribution (T3,S3,C3)... Récupération (T4,S4,C4) Evaluation Métamodèle (T8,S8,C8) Evaluation Modèle (T7,S7,C7) Récupération (T4',S4',C4')... Distribution (T3',S3',C3') Planification (T2',S2',C2') Construction Métamodèle (T6,S6,C6) Evaluation Métamodèle (T8,S8,C8) Estimations (T5,S5,C5) échantillon de taille m pour construire le métamodèle échantillon de taille n pour estimer les quantités d'intérêts m << n Laurence Viry Tendances en HPC 7 Mai / 47

14 Analyse : Estimations à l aide du modèle Temps de calcul global (T): T = T 1 + T 2 + T 3 + n T 7 + T 4 + T 6 + T 2 + T 3 + m T 8 + T 4 + T 5 Dépend de T 7 et de la taille de l échantillon (n). Stockage (S): S 1, S 2, S 2, S 5 : espace de stockage peu volumineux. S 7 : dépend du volume des I/O du code. S4, S4 : volume des quantités d intérêts. Volume d échange des données (C), concerne les tâches P 3, P 4, P 7. C 3 : distribution de l échantillon des paramètres: C 3 = taille(x) n C 4 : distribution des résultats du code pour l estimation des paramètres: C 4 = taille(y ) n C 7 : dépend du code. Laurence Viry Tendances en HPC 7 Mai / 47

15 Sommaire 1 Modélisation, simulation et quantification d incertitudes 2 Quelques stratégies 3 Tendance en HPC Évolution Hardware Implication software Grille de calcul Cloud Parallélisme avec R Quelques outils Laurence Viry Tendances en HPC 7 Mai / 47

16 Pourquoi le calcul parallèle? Qu est ce que le calcul parallèle? Plusieurs calculs exécutés simultanémant sur une ou plusieurs unités de calcul. Quand? Pour exploiter le parallélisme intrinsèque aux processeurs/ calculateurs et aux applications. Quand les limites des ressources nécessaires, des performances et/ou de la taille des problèmes traités sont atteintes sur un seul processeur. Comment? Par décomposition: des données pour traiter un plus gros volume de données ou traiter par une même tâche des données différentes: data parallelism de tâches indépendantes: task parallelism Laurence Viry Tendances en HPC 7 Mai / 47

17 Contexte HPC: Super calculateurs, Clusters, Grille, Cloud Ressources de calcul Station de travail Clusters Homogène: noeuds de plusieurs CPU multi-coeurs avec ou sans GPU ou accélérateurs. Super calculateur: IBM Blue Gene (4 096 nœuds de 16 cœurs à 1,6 GHz) TFlop/s de puissance crêteà l IDRIS),... Grille de calcul et de stockage: GRID500, grille locale,... Cloud Hiérarchie de réseaux WAN: Internet, Private WAN,... LAN: Ethernet SAN: InfiniBand,... Laurence Viry Tendances en HPC 7 Mai / 47

18 Motivations en simulation numérique La vitesse des processeurs a cessé d augmenter (x2 tous les 18mois). Parallélisme naturel dans la plupart des applications. Possibilité de traiter des gros volumes de données. Nécessité d exécuter un grand nombre de runs. Meilleure gestion des accès mémoire. La vitesse des réseaux augmentant, c est la possibilité d utiliser des ressources réparties sur un site ou sur plusieurs sites... En majorité: Codes parallèles Plusieurs codes indépendants Un seul code parallèle intensif Laurence Viry Tendances en HPC 7 Mai / 47

19 Unité de calcul: CPU versus GPU Composition d un noeud de calcul (Avec des proportions différentes) Une unité de contrôle Des unités d arithmétique et logique (ALU) Mémoire(DRAM, Caches,... ) Un grand nombre de coeurs capables de traiter rapidement des calculs simples sur des grandes quantités de données (GPU) Les processeurs classiques (CPU) sont moins rapides mais savent résoudre des problèmes plus compliqués Une combinaison de ces deux types de processeurs (accélérateurs) Laurence Viry Tendances en HPC 7 Mai / 47

20 Loi de Moore - Top500 Le nombre de transistors continue à augmenter par unité de surface. La puissance consommée et dissipée est le facteur limitant Puissance frequence 3 fréquence limitée Plus de performance avec moins de puissance Adaptation software? Laurence Viry Tendances en HPC 7 Mai / 47

21 Implication software Le coût en énergie de la fréquence Nb Cores Fréquence(Hz) Flops/s W Flops/s/W Superscalar 1 1.5X 1.5X 3.3X 0.45X Multicore X 1.5X 0.8X 1.88X Conséquences sur les applications Exécuter une application à un temps t 0 sur un calculateur Pas de modifications fondamentales du code entre t 1 et t 0 Exécuter l application au temps t 1 sur un nouveau calculateur quelles sont les performances? Laurence Viry Tendances en HPC 7 Mai / 47

22 Évolution des performances en HPC Période de fréquence croissante (< 2003) Peu de parallélisme dans les architectures La fréquence augmente Nb Flops/s augmente Les codes sont plus rapides L implémentation des codes n a pas besoin d être modifiée pour exploiter les nouvelles architectures Période Multi-core (> 2003) Plus de parallélisme dans l architecture (core,mémoire, stride des disque,... ) La fréquence décroit Les codes sont plus lents Les codes doivent être modifiées pour exploiter le parallélisme de ces nouvelles architectures Laurence Viry Tendances en HPC 7 Mai / 47

23 Laurence Viry Tendances en HPC 7 Mai / 47

24 Implications Multi-core Quelques définitions CPU (Central Processing Unit): puce ou processeur qui effectue les opérations de base du système. socket: le socket fournit au CPU les connections au bus système et tous les devices attachés à ce bus (mémoire, adaptateur réseau, I/O,... ). Core: unité de calcul contenu dans un CPU, ses propres registres et cache L1. Ressources partagées caches: les cores d un CPU peuvent se partager les caches L2 ou L3 socket: Les cores d un même CPU se partagent le même socket du CPU Ressources partagées Potentiel de conflits d accès aux ressources plus important Laurence Viry Tendances en HPC 7 Mai / 47

25 Classification des architectures parallèles Classification de Flynn basée sur le type d organisation du flux de données et du flux d instructions. Parallélisme d instructions Parallélisme de données { } { } S S I D M M SI Single Instruction MI Multiple Instruction SD Single Data MD Multiple Data SISD Single Instruction, Single Data SIMD Single Instruction, Multiple Data MISD Multiple instructions, Single Data MIMD Multiple Instructions, Multiple Data MIMD: architecture parallèle la plus utilisée Laurence Viry Tendances en HPC 7 Mai / 47

26 Mémoire partagée/mémoire distribuée Système à mémoire distribuée Un espace mémoire est associé à chaque processeur (CPU/noeud) L accès à la mémoire du processeur voisin se fait par échange de messages à travers le réseau entre les processeurs. Les algorithmes utilisés devront minimiser les communications. Système à mémoire partagée Un espace global visible par tous les processeurs (CPU/noeud) Les processeurs auront leur propre mémoire locale (cache,...) dans laquelle sera copié une partie de la mémoire globale. La cohérence entre ces mémoires locales devra être gérée par le hardware, le software et parfois l utilisateur. Laurence Viry Tendances en HPC 7 Mai / 47

27 Chaque processeur (noeud SMP) a sa propre mémoire. Les processus s exécutent indépendamment Ils communiquent entre eux par échange de message MPI. Overhead dû aux communications Réseau performant La mémoire globale est commune à tous les processeurs. Plus facile à utiliser (directives OpenMP) cohérence de cache. Performance de la bande passante mémoire. Défaut de scalabilité des accès mémoire. Problème de False Sharing ou de Race Dectection Facile à programmer - Difficile à déboguer Laurence Viry Tendances en HPC 7 Mai / 47

28 Plus rapide que la loi de Moore ( double tous les 14 mois) Le Top1 sort du Top500 en 8 ans La consommation électrique, l encombrement et le refroidissement sont devenu des freins à l extension des systèmes. Les architectures Hybrides (CPU/GPU) apparaissent. Laurence Viry Tendances en HPC 7 Mai / 47

29 Architectures Hybrides GPGPU sur les calculateurs Les architectures traditionnelles ont atteint leurs limites Plus de cores/noeud, plus de mémoire mais accès pas plus rapide. Actuellement, 3 sur 5 gros calculateurs sont des machines hybrides Plus de parallélisme dans le Hardware Adaptation des codes pour obtenir de la performance Les codes doivent être conçus différemment Les codes MPI ne passent pas au massivement parallèle. les performances augmentent en améliorant le parallélisme dans le code. Les performances augmentent en ajoutant des niveaux de parallélisme (OpenMP, MPI, GPU,... ) Laurence Viry Tendances en HPC 7 Mai / 47

30 Et plus de performances si affinités L apport de toujours plus de parallélisme dans les calculateurs pose le problème de la gestion des affinités. Les performances en dépendent Principe de localité et mémoire cache optimisation de l accès aux données. Caches et affinité entre tâches et données: le déplacement d une tâche sur un autre coeur. Partage de données entre tâches: accès à la mémoire par différent coeurs. Machine NUMA et affinités pour la mémoire: accès plus rapide aux données proche du processeur qui effectue l accès. Nos programmes peuvent s exécuter sans tenir compte de toutes ces contraintes, mais ils iront moins vite... Laurence Viry Tendances en HPC 7 Mai / 47

31 Et bien d autres affinités Périphériques qui peuvent être plus proches de certains cœurs que d autres (GPU,carte réseau). Calculateurs hétérogènes ou hybrides contenant différents types de cœurs de calcul: Combiner ces différents types de processeurs permet d atteindre des puissances de calcul gigantesques si on arrive à déterminer les affinités entre les # coeurs et les # tâches. Laurence Viry Tendances en HPC 7 Mai / 47

32 Architecture hautement parallèle: Accélérateurs Intel Xeon/Phi 60+ cores 512 Bit SIMD Clock Speed: 1000MHz Nombre de transistors: 3 B (22nm) Consommation énergétique: 250W Performance Max (DP): 1TF/s Bande passante Mémoire: 250GB/s (GDDR5) NB Threads: Language: Fortran, C/C++ + OpenMP+vectorisation NVIDIA Kepler (GK110) 15 unités SMX avec chacune 192 SP cores 2880 SP cores au total Vitesse de l horloge: 700MHz Nombre de transistors: 7.1 B (28nm) Consommation énergétique: 250W Performance Max (DP): 1TF/s Bande passante Mémoire: 250GB/s (GDDR5) NB Threads: Language: CUDA, OpenCL, OpenACC Laurence Viry Tendances en HPC 7 Mai / 47

33 Évolution rapide du HPC Hardware Toujours plus de parallélisme (multi-core, mémoire, stockage,... ). Architectures hétérogènes. Les accès mémoire sont le principal frein aux performances. Software Parallélisme multi niveaux. Optimisation: gestion des affinités,... Gestion de la précision, de la stabilité. Maintenance et robustesse? Point de vue utilisateur Nouveaux types d architectures (GPU, MIC, BG.Q,...) Nouveaux paradigmes de programmation (MPI, OPENMP, Hybrid, OpenCL,PGAS,... ). Un code unique pour CPU et Accélérateurs? Les gros codes de calcul doivent suivre. Quelle pérennité? Laurence Viry Tendances en HPC 7 Mai / 47

34 Efforts d optimisation Compromis entre efforts d optimisation et gain de performance Optimisation rapide: performances modérées... Le Hardware, le compilateur ne réussit pas à exploiter le parallélisme de l architecture. Une meilleure connaissance de l application est nécessaire. Optimisation approfondie: algorithme, implémentation, déploiement, gestion des affinités. La maintenance des efforts n est pa assuré. Génération automatique ou semi-automatique? (quelques propositions: HMPP, OpenACC,... ) De nouveaux paradigmes de programmation exploitant la parallélisme du Hardware sont attendus. Maintenance, portabilité? Laurence Viry Tendances en HPC 7 Mai / 47

35 Architecture, environnements utilisateurs, bibliothèques et réseau Même run, mêmes sources: différents environnements utilisateurs Étude au cas par cas Les analyses sont système-dépendantes, pas de règles systématiques. Utiliser des bibliothèques optimisées sur le Hardware. Les performances du réseau et du soft qui l utilise est aussi un critère important. Bien connaître son application et les bibliothèques utilisées Laurence Viry Tendances en HPC 7 Mai / 47

36 Grille de calcul Grille de calcul Ressources informatiques hétérogènes (clusters, supercalculateur, stockage,...) Projet Grid5000 (www.grid5000.fr) Mise en réseau de ces ressources Stockage.... Middleware (NetSolve, DIET,... ): couche réseau + services logiciels Gestion de l hétérogénéité des ressources, allocation des données et des tâches sur les ressources, Fault detection, mécanisme de checkpoint/restart,... récupération et réorganisation des résultats éviter le transfert multiple de données... Grâce aux grilles Les calculs au temps d exécution très longs deviennent possibles en temps raisonnable. Possibilité de lancer un nombre très grand de runs (plusieurs millions) Laurence Viry Tendances en HPC 7 Mai / 47

37 Cloud Cloud Basé sur la virtualisation Habituellement basé sur des processeurs de faible performance: presque sans contrainte sur le réseau HPC Cloud Fault-tolerance? Noeuds de calcul puissants avec beaucoup de mémoire, Performances du réseau garanties (F E.g., 10 Gbps, low latency) Opérationnel mais pas simple... (panne des infrastructures, noeuds non accessibles,... Coût Quelques tentatives pour mettre un calculateur (Blue Gene) dans le Cloud. Laurence Viry Tendances en HPC 7 Mai / 47

38 Considérations pour le développement des codes Efficacité des architectures: pour le passage aux architectures successives, il faut tenir compte des compétences et de l investissement humain qu il implique. Survivre aux générations successives des machines ( 5ans) est de plus en plus compliqué. La programmation homogène tire à sa fin: plusieurs niveaux de parallélisme déviennent nécessaires pour exploiter les nouvelles architectures. Bibliothèques: leur choix doit être dicté par leur stabilité, leurs performances et leurs disponibilité sur les systèmes. Organisation des données doit répondre à de nombreuses contraintes répondant aux différents types d affinités. L organisation des compétences scientifiques, numériques et informatiques est un challenge qui doit être compatible avec chaque écosystème. Compromis algorithmiques: le coût des flops est en décroissance alors que celui de l accès et du déplacement de données est en forte croissance.... Laurence Viry Tendances en HPC 7 Mai / 47

39 Calcul hautes performances avec R Paralléliser un code R est possible mais demande un effort significatif S assurer d une implémentation séquentielle optimale Algorithme adapté Bonnes pratiques de développement sous R Utilisation des packages adaptés aux gros volumes de données Utiliser des outils de profiling (mémoire, temps de calcul) proftools: profiling Output Processing Tools for R profr: An alternative display for profiling informations Quelques méthodes pour résoudre les problèmes d efficacité Vectorisation: fonctions appliquées à des vecteurs apply() fonctions: fonctions qui peuvent être utilisées sur un ensemble de données simultanément. Utiliser les interfaces avec des langages compilés (C,C++,...) = Les solutions suivantes utilisent le parallélisme Laurence Viry Tendances en HPC 7 Mai / 47

40 Calcul parallèle avec R R est mono-thread Plusieurs packages existent pour les clusters de calcul Basés sur plusieurs couches de communications: MPI, PVM, Socket, NWS Rmpi, nws, snow, sprint, foreach Plus ou moins matures, performants ou faciles à utiliser Sur un système multi-core: multicore, pnmath, fork, romp Intégration du package parallel (multicore, snow) à la version de base de R à partir de la version R peut aussi être compilé avec une version multi-thread des bibliothèques d algèbre linéaire (BLAS,LAPACK) ce qui permet d exploiter l architecture multicore et peut accélérer les calculs. State of the Art in Parallel Computing with R : HPC Task View on CRAN: Laurence Viry Tendances en HPC 7 Mai / 47

41 Le package parallel (version > 2.14) Basée sur les packages multicore et snow Particulièrement adaptée au programme de type SPMD (single program, multiple data) Peut utiliser simultanément : plusieurs coeurs d un même noeud SMP ( multicore) en mémoire partagée ou plusieurs CPUs en mémoire distribuée en utilisant la bibliothèque d échange de messages MPI ( snow) Le support MPI dépend du package Rmpi et d une bibliothèque MPI Inclut un générateur de nombre aléatoire parallèle ( RNG) Laurence Viry Tendances en HPC 7 Mai / 47

42 mclapply: version parallèle de lapply sur un seul CPU Exemple simple: calcul (1:100)ˆ2 ## La fonction aucarre fait le calcul aucarre <- function(n) {return(nˆ2)} ## Tableau sur lequel s applique le calcul tab <- 1:100 Version séquentielle (lapply) ## Calcul séquentiel res <- lapply(tab,aucarre) Version parallèle (mclapply) ## Nombre de tâches nbtask <- 8 ## Calcul parallèle res <- mclapply(tab,aucarre,mc.cores = nbtask) Utilise plusieurs coeurs sur un seul CPU Utilise des fork, ne fonctionne pas sous Windows mcmapply, mcmap: version parallèle de mapply et Map Laurence Viry Tendances en HPC 7 Mai / 47

43 parlapply: version parallèle de lapply sur un ou plusieurs noeuds Plusieurs types de communications, PSOCK et MPI PSOCK: peut être utilisé en intéractif Pas adapté pour plusieurs noeuds Portable Utilisé pour les tests MPI Ne peut pas être utilisé en intéractif Nécessite le package Rmpi (MPI) Fonctionne sur plusieurs noeuds Portable là où est installé Rmpi (MPI) Utilisé pour la production. Laurence Viry Tendances en HPC 7 Mai / 47

44 Exemple: parlapply avec PSOCK library(parallel) ## Nombre de tâches nbtask <- 8 ## Définit le cluster cl <- makecluster(nbtask,type= STOCK ) ## Calcul parallèle (parlapply) res <- parlapply(cl,tab,nbtask) ## Arrêter le cluster stopcluster(cl) print(unlist(res)) Laurence Viry Tendances en HPC 7 Mai / 47

45 Exemple: parlapply avec MPI Programme: simple mpi.r library(parallel) ## Définit le cluster nbtask <- 8 cl <- makecluster(nbtask,type= MPI ) ## Calcul parallèle (parlapply) res <- parlapply(cl,tab,nbtask) ## Arrêter le cluster stopcluster(cl) mpi.exit() # or mpi.quit(), qui sort de R également Exécuter mpirun -n 1 R --slave -f simple_mpi.r Laurence Viry Tendances en HPC 7 Mai / 47

46 Démarche pour les calculs Programmer les calculs dans une fonction qui peut être appelée par lapply Faire des tests intéractivement avec lapply en séquentiel, mclapply sur un CPU multi-core et/ou parlapply (SOCK) en parallel sur un noeud. Utiliser mclapply sur un seul noeud ou parlapply (MPI) sur un ou plusieurs noeuds. Avec parlapply, les gros volumes de données peuvent être distribuées à chaque tâche avec clusterexport. Avec parlapply, chaque process devra chargé les packages clusterevalq ou clustercall. Laurence Viry Tendances en HPC 7 Mai / 47

47 Environnement logiciel Cougar (IFPEN & partners) - reservoir simulation Commercial Fonctionnalités Analyse de sensibilité (basé sur la variance) Surface de réponse paramétrique (polynomiale) Surface de réponse non-paramétrique (Krigeage) Planification... Calcul sur grille OpenTURNS: exposé R Barate Calcul Haute Performance avec OpenTURNS Uranie: exposé F. Gaudier Plate-forme Incertitude Uranie: Fonctionnalités et Applications Laurence Viry Tendances en HPC 7 Mai / 47

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs

Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Evolution des technologies de calcul intensif vers les systèmes multi-cœurs et accélérateurs Marc Mendez-Bermond Expert solutions HPC Programme Contexte Technologies Evolutions 2 Confidentiel Research

Plus en détail

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,...

Rappels, SISD, SIMD. Calculateurs hybrides (GPU-OpenCL) Rappels, MIMD mémoire partagée. Rappels, MIMD mémoire partagée. Rappels... SISD,... Rappels, SISD, SIMD Calculateurs hybrides (GPU-OpenCL) Rappels... SISD,... SIMD Formation d Ingénieurs de l Institut Galiléee MACS 3 Philippe d Anfray Philippe.d-Anfray@cea.fr CEA DSM 2013-2014 SISD :

Plus en détail

Parallélisation Automatique

Parallélisation Automatique Parallélisation Automatique Paul Feautrier ENS de Lyon Paul.Feautrier@ens-lyon.fr 8 septembre 2008 1 / 23 Pourquoi la parallélisation automatique? Les gains de performances dus à la technologie s amenuisent

Plus en détail

Les Microprocesseurs partie2

Les Microprocesseurs partie2 Université Constantine 2 Abdelhamid Mehri Faculté des NTIC Département MI Electronique des Composants & Systèmes Les Microprocesseurs partie2 Cours de L1 - TRONC COMMUN DOMAINE MATHEMATIQUES INFORMATIQUE

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique

Plus en détail

CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES

CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES CATALOGUE DE FORMATIONS OPTIMISATION DE PERFORMANCE ET ARCHITECTURES PARALLÈLES Trois types de formation LES FORMATEURS Les experts techniques AS+ Groupe EOLEN disposent d une réelle expérience pratique

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

Infrastructures Parallèles de Calcul

Infrastructures Parallèles de Calcul Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide

Plus en détail

Kick-off ANR Compass

Kick-off ANR Compass Kick-off ANR Compass Contribution MDLS Pierre Kestener CEA-Saclay, DSM, France Maison de la Simulation Meudon, 14 mars 2013 1 / 10 La Maison de la Simulation Laboratoire de recherche pluridisciplinaire

Plus en détail

GEL 1001 Design I (méthodologie)

GEL 1001 Design I (méthodologie) GEL 1001 Design I (méthodologie) Technique 2 Systèmes embarqués et fiabilité Hiver 2013 Département de génie électrique et de génie informatique Plan Système embarqué Ordinateur et architecture Von Neumann

Plus en détail

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16

Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 16 1 Semestre 4 : Fev. 2015 Ateliers Beowolf ou Mosix Atelier Type Cluster Vishwa http://dos.iitm.ac.in/vishwanew

Plus en détail

Plan : Master IM2P2 - Calcul Scientifique

Plan : Master IM2P2 - Calcul Scientifique Plan : Les systèmes HPC Typologie des systèmes : Machines Mémoire partagée Machines à Mémoire Distribuées Machine NUMA Exemples Architectures Processeurs HPC Processeurs scalaires, superscalaires, vectoriels

Plus en détail

Architectures Parallèles

Architectures Parallèles Architectures Parallèles Cours pour Ingénieur Préparé par Dr. Olfa Hamdi-Larbi ola_ola79@yahoo.fr Reçoit les signaux du contrôleur, cherche les données et les traite Instructions, Données à traiter et

Plus en détail

Analyse et mesure de performances du calcul distribué

Analyse et mesure de performances du calcul distribué Analyse et mesure de performances du calcul distribué Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma CruCID Workshop, EMI, Rabat, 5 au 7 juillet 1999 Motivation Types d applications

Plus en détail

Parallélisme. Cours 1

Parallélisme. Cours 1 Parallélisme Cours 1 TD : 20% - TP : 30% - Examen : 50% Feuille A4 manuscrite (pas de photocopie) Fabrice.Huet@etu.unice.fr (prendre rdv par mail pr le contacter) A quoi sert le parallélisme? Augmenter

Plus en détail

Calcul Haute Performance avec OpenTURNS

Calcul Haute Performance avec OpenTURNS Calcul Haute Performance avec OpenTURNS Renaud Barate EDF R&D Workshop du GdR MASCOT-NUM «Quantification d incertitude et calcul intensif» 28 Mars 2013 Sommaire Présentation du logiciel OpenTURNS Problématiques

Plus en détail

HAUTE PERFORMANCE DE CALCUL

HAUTE PERFORMANCE DE CALCUL Journées d études 2010 Modélisation actif-passif & HAUTE PERFORMANCE DE CALCUL FRACTALES 0 Journées d études 2010 Sommaire Projet SIGMA 1 ère partie 1.! Le printemps des modèles Applications Haute Performance

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS Ecole Doctorale 2012-2013 Sommaire 1 Architecture générale Processeur Mémoire Réseaux Stockage 2 Tendances Evolutions technologiques

Plus en détail

Problématique des accès mémoires irréguliers causés par les maillages non structurés :

Problématique des accès mémoires irréguliers causés par les maillages non structurés : Problématique des accès mémoires irréguliers causés par les maillages non structurés :! étude comparative entre les machines massivement multicoeurs et les GPU Loïc Maréchal / INRIA! LJLL, Demi-Journée

Plus en détail

Thales Research & Technology

Thales Research & Technology Thales Research & Technology Kick-off OpenGPU SP2 SPEAR Design Environment 25/03/10 Research & Technology SPEAR Design Environment 25/03/10 Approche semi-automatique complémentaire des compilateurs paralléliseurs

Plus en détail

Historique. Évolution des systèmes d exploitation (à travers les âges)

Historique. Évolution des systèmes d exploitation (à travers les âges) Historique Évolution des systèmes d exploitation (à travers les âges) Historique L histoire des systèmes d exploitation permet de dégager des concepts de base que l on retrouve dans les systèmes actuels

Plus en détail

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau

Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau Résultats des benchmarks de HPC1 après ajout de 1 cœurs. Date : 6/9/212 Auteur : Ph Parnaudeau 1. Evolution de la configuration la plate forme de calcul du LJLL : HPC1 HPC1 1 Février 211 : UV1 est une

Plus en détail

Formation en Calcul Scientifique - LIEM2I

Formation en Calcul Scientifique - LIEM2I Formation en Calcul Scientifique - LIEM2I Introduction au calcul parallèle Loïc Gouarin, Violaine Louvet, Laurent Series Groupe Calcul CNRS 9-13 avril 2012 Loïc Gouarin, Violaine Louvet, Laurent Series

Plus en détail

De 2 à 22 millions d'images; Création, Indexation et Recherche par le contenu avec PiRiA

De 2 à 22 millions d'images; Création, Indexation et Recherche par le contenu avec PiRiA De 2 à 22 millions d'images; Création, Indexation et Recherche par le contenu avec PiRiA contact : patrick.hède@cea.fr Commissariat à l'energie Atomique GdR isis : Passage à l'échelle dans la recherche

Plus en détail

cluster pour l Enseignement Universitaire et la Recherche

cluster pour l Enseignement Universitaire et la Recherche cluster pour l Enseignement Universitaire et la Recherche Université de Nice Sophia-Antipolis 22 janvier 2013 Université de Nice Sophia-Antipolis cluster pour l Enseignement Universitaire et la Recherche

Plus en détail

Les données massives à Calcul Québec

Les données massives à Calcul Québec Les données massives à Calcul Québec Marc Parizeau, professeur et directeur scientifique de Calcul Québec Plan Calcul Québec / Calcul Canada Les outils et les services disponibles Un outil en particulier

Plus en détail

Cours n n 1. Introduction au Noyau. Master Informatique - Noyau - 2007-2008

Cours n n 1. Introduction au Noyau. Master Informatique - Noyau - 2007-2008 Cours n n 1 Introduction au Noyau 1 PLAN DU MODULE Objectifs Mécanismes internes du noyau (UNIX) Processus, Ordonnancement Fichiers, Mémoire virtuelle 2 PLAN DU MODULE Organisation Sur 10 semaines Début

Plus en détail

CRIHAN Centre de Ressources Informatiques de HAute-Normandie

CRIHAN Centre de Ressources Informatiques de HAute-Normandie ACT-MG-v2 CRIHAN Centre de Ressources Informatiques de HAute-Normandie Journée Entreprises & HPC-PME au CRIHAN - 11 avril 2013 CRIHAN Missions Concept : mutualisation de services et d équipements Réseau

Plus en détail

Solveurs linéaires sur GPU pour la simulation d'écoulement en milieux poreux

Solveurs linéaires sur GPU pour la simulation d'écoulement en milieux poreux CO 2 maîtrisé Carburants diversifiés Véhicules économes Raffinage propre Réserves prolongées Solveurs linéaires sur GPU pour la simulation d'écoulement en milieux poreux J-M. Gratien,, M. Hacene, T. Guignon

Plus en détail

Présentation CaSciModOT Performances et Architectures

Présentation CaSciModOT Performances et Architectures Présentation CaSciModOT Performances et Architectures Code parallèle : Un peu de théorie Architectures variables : C(n,p)? Quel code? Quelle architecture? Structure d un code : partie parallèle / séquentielle

Plus en détail

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle 1 CEA R & D for Nuclear Energy 5 000 people Nuclear systems

Plus en détail

Comment un ordinateur fonctionne Processeur

Comment un ordinateur fonctionne Processeur Comment un ordinateur fonctionne Processeur Les processeurs Cerveau de l ordinateur Règle flux d information par intermédiaire du bus Détermine puissance de l ordi (486, Pentium, ) Vitesse définit par

Plus en détail

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience

Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience Cluster de calcul, machine Beowulf, ferme de PC Principes, problématique et échanges d expérience 29 mars 2002 Olivier BOEBION - Laboratoire de Mathématiques et de Physique Théorique - Tours 1 Principes

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

Composants logiciel: Feel++, formats de fichier et visualisation

Composants logiciel: Feel++, formats de fichier et visualisation Composants logiciel: Feel++, formats de fichier et visualisation Alexandre Ancel Cemosis / Université de Strasbourg 13 Janvier 2015 1 / 20 Plan 1 Environnement logiciel & matériel 2 Formats de fichier

Plus en détail

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs

Tous les processeurs sont connectés à une large mémoire partagée. Difficulté de s étendre à de grands nombres de processeurs Modèle de Machine 1a: Mém. Partagée Tous les processeurs sont connectés à une large partagée. Appelée Symmetric Multiprocessors (SMPs) SMPs de Sun, HP, Intel, IBM Puces Multicoeur, exceptées celles qui

Plus en détail

Didacticiel - Études de cas

Didacticiel - Études de cas 1 Objectif Programmation parallèle sous R. Utilisation des librairies «parallel» et «doparallel». Les ordinateurs personnels sont de plus en plus performants. Ils sont maintenant pour la plupart dotés

Plus en détail

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos

Architecture & Nouveautés du Core i7. Xpose Core i7 Guillaume Bedos Architecture & Nouveautés du Core i7 Xpose Core i7 Sommaire Définition Historique Rôle du microprocesseur Architecture d un microprocesseur Core i7 : Améliorations Cache HyperThreading IMC/QPI TurboBoost

Plus en détail

CIMENT-MaiMoSiNE. Animation scientifique et formation. CIMENT - MaiMoSiNE. 16 Avril 2013. Laurence Viry

CIMENT-MaiMoSiNE. Animation scientifique et formation. CIMENT - MaiMoSiNE. 16 Avril 2013. Laurence Viry CIMENT-MaiMoSiNE Animation scientifique et formation Laurence Viry CIMENT - MaiMoSiNE 16 Avril 2013 Laurence Viry Animation scientifique et formation 16 Avril 2013 1/9 Pôle animation scientifique MaiMoSiNE

Plus en détail

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées

Eléments d architecture des. machines parallèles et distribuées. Notions d architecture de. machines parallèles et distribuées M2-ILC Parallélisme, systèmes distribués et grille Eléments d architecture des Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle 2 Depuis 24 les CPU sont multi-cœurs

Plus en détail

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1

INF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1 INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

Synthèse Workshop ORAP «Evolution des processeurs: que faut-il anticiper pour les codes?»

Synthèse Workshop ORAP «Evolution des processeurs: que faut-il anticiper pour les codes?» Synthèse Workshop ORAP «Evolution des processeurs: que faut-il anticiper pour les codes?» Résumé Il est encore trop tôt pour définir précisément l architecture logiciel du code du futur qui n aura pas

Plus en détail

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments Recherche Opérationnelle Optimisation combinatoire : Applications et compléments Pierre Delisle Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique 17 février 2014 Plan de

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées Mineure HPC-SBD Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@centralesupelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture de machines parallèles

Plus en détail

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Evaluation des performances de programmes parallèles haut niveau à base de squelettes Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,

Plus en détail

CPU ou UCT. Circuit Intégré. Processor (data processing)

CPU ou UCT. Circuit Intégré. Processor (data processing) CPU ou UCT Processor (data processing) Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.par UCT, en ang. CPU (Central Processing Unit) CPU+mémoire

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

CPU ou UCT. Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.

CPU ou UCT. Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç. CPU ou UCT Processor (data processing) Le processeur est une unité d exécution, plus précisément appelée unité centrale de traitement (désignée en franç.par UCT, en ang. CPU (Central Processing Unit) CPU+mémoire

Plus en détail

GPU, processeurs multi-coeurs et bio-informatique

GPU, processeurs multi-coeurs et bio-informatique GPU, processeurs multi-coeurs et bio-informatique Jean-Stéphane Varré jean-stephane.varre@lifl.fr Equipe BONSAI Université Lille 1 - LIFL -INRIA Qu est-ce que c est? Le processeur (CPU) La carte graphique

Plus en détail

Systèmes et traitement parallèles

Systèmes et traitement parallèles Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications

Plus en détail

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi

ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES. Cours Administration des Bases de données M Salhi ARCHITECTURES DES SYSTÈME DE BASE DE DONNÉES Cours Administration des Bases de données M Salhi Architectures des Système de base de données Systèmes centralisés et client-serveur Server System Architectures

Plus en détail

ROMEO From multi-core to many-core

ROMEO From multi-core to many-core ROMEO From multi-core to many-core Directeur ROMEO Michaël KRAJECKI michael.krajecki@univ-reims.fr Chef de projet ROMEO Arnaud RENARD arnaud.renard@univ-reims.fr Enseignant-Chercheur CReSTIC Christophe

Plus en détail

Architecture des Ordinateurs. Partie II:

Architecture des Ordinateurs. Partie II: Architecture des Ordinateurs Partie II: Le port Floppy permet le raccordement du lecteur de disquette àla carte mère. Remarque: Le lecteur de disquette a disparu il y a plus de 6 ans, son port suivra.

Plus en détail

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

Portabilité, performances, hétérogénéité Le triple défi de la démocratisation du HPC

Portabilité, performances, hétérogénéité Le triple défi de la démocratisation du HPC Portabilité, performances, hétérogénéité Le triple défi de la démocratisation du HPC JSO HPC-Desk - 20 mai 2014 Vincent Ducrot, Sébastien Monot AS+ - Groupe Eolen Donnons de la suite à vos idées PRÉSENTATION

Plus en détail

Analyse des textures en temps réel exploitant une architecture parallèle multi-coeurs et GPU

Analyse des textures en temps réel exploitant une architecture parallèle multi-coeurs et GPU Analyse des textures en temps réel exploitant une architecture parallèle multi-coeurs et GPU Moulay Akhloufi, MScA, MBA (moulay.akhloufi@crvi.ca ) Gilles Champagne (gilles.champagne@crvi.ca) Mario Jr Laframboise

Plus en détail

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée.

Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. RenPar 19 / SympA 13 / CFSE 7 Toulouse, France, du 9 au 11 septembre 2009 Comparaison de MPI, OpenMP et MPI+OpenMP sur un nœud multiprocesseur multicœurs AMD à mémoire partagée. Khaled Hamidouche, Franck

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire

Plus en détail

Portage et optimisation d applications de traitement d images sur architecture Kalray Mppa-Manycore Journées de la Compilation

Portage et optimisation d applications de traitement d images sur architecture Kalray Mppa-Manycore Journées de la Compilation Portage et optimisation d applications traitement d images sur architecture Kalray Mppa-Manycore Journées la Compilation Pierre Guillou Centre recherche en informatique Mines ParisTech 4 décembre 2013

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Chapitre 1 Architecture des calculateurs 1.1 Introduction Ce paragraphe n a pas la prétention de présenter un cours d informatique. D une manière générale, seuls les caractéristiques architecturales qui

Plus en détail

Acheter un serveur de calcul. Françoise Berthoud ANGD Autrans 5-9 oct 2009

Acheter un serveur de calcul. Françoise Berthoud ANGD Autrans 5-9 oct 2009 Acheter un serveur de calcul Françoise Berthoud ANGD Autrans 5-9 oct 2009 Dans la logique des choses.. L achat est justifié par le besoin Le besoin par un projet scientifique Le projet scientifique par

Plus en détail

Demande d attribution de ressources informatiques. Sur le Centre de Calculs Interactifs de l Université de Nice Sophia-Antipolis

Demande d attribution de ressources informatiques. Sur le Centre de Calculs Interactifs de l Université de Nice Sophia-Antipolis Demande d attribution de ressources informatiques Sur le Centre de Calculs Interactifs de l Université de Nice Sophia-Antipolis Titre du projet : Nom du laboratoire : Nom de l établissement hébergeur :

Plus en détail

DG-ADAJ: Une plateforme Desktop Grid

DG-ADAJ: Une plateforme Desktop Grid DG-ADAJ: Une plateforme pour Desktop Grid Olejnik Richard, Bernard Toursel Université des Sciences et Technologies de Lille Laboratoire d Informatique Fondamentale de Lille (LIFL UMR CNRS 8022) Bât M3

Plus en détail

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit

! Vous aurez pris connaissance de l'évolution. ! Vous comprendrez pourquoi on utilise le binaire en. ! Vous serez capable de construire un circuit Architecture élémentaire Un cours d architecture pour des informaticiens Samy Meftali Samy.meftali@lifl.fr Bureau 224. Bâtiment M3 extension Sans architecture pas d informatique Comprendre comment çà marche

Plus en détail

Délégation GPU des perceptions agents : application aux boids de Reynolds

Délégation GPU des perceptions agents : application aux boids de Reynolds Délégation GPU des perceptions agents : application aux boids de Reynolds JFSMA 2015 LIRMM - Université de Montpellier - CNRS Emmanuel Hermellin, Fabien Michel {hermellin, fmichel}@lirmm.fr Mercredi 1

Plus en détail

Journée Utilisateurs CIMENT

Journée Utilisateurs CIMENT Journée Utilisateurs CIMENT L. Viry - C. Picard Animation Scientifique 3 Avril 2012 (Grenoble) 3 Avril 2012 1 / 12 Animation Scientifique Les applications de modélisation sont de plus en plus fréquemment

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

QUELQUES CONCEPTS INTRODUCTIFS

QUELQUES CONCEPTS INTRODUCTIFS ESIEE Unité d'informatique IN101 Albin Morelle (et Denis Bureau) QUELQUES CONCEPTS INTRODUCTIFS 1- ARCHITECTURE ET FONCTIONNEMENT D UN ORDINATEUR Processeur Mémoire centrale Clavier Unité d échange BUS

Plus en détail

Clusters for Application Service Providers. T. Monteil, J.M. Garcia P. Pascal, S. Richard

Clusters for Application Service Providers. T. Monteil, J.M. Garcia P. Pascal, S. Richard Clusters for Application Service Providers (www.laas.fr/casp) T. Monteil, J.M. Garcia P. Pascal, S. Richard 1 Généralités Le monde du calcul dans un environnement ASP Les ASP : Application Service Provider

Plus en détail

Technologies SOC (System On Chip) (Système sur une seule puce)

Technologies SOC (System On Chip) (Système sur une seule puce) Technologies SOC (System On Chip) (Système sur une seule puce) Pierre LERAY et Jacques WEISS Équipe de recherche ETSN Supélec Campus de Rennes février, 02 Technologies SoC ; P. Leray, J. Weiss 1 Évolution

Plus en détail

Informatique générale - processeurs

Informatique générale - processeurs Université de Nice Sophia Antipolis Licence 1 Sciences Fondamentales Informatique Générale Processeurs Jacques Farré (d'après Fabrice Huet, Wikipedia... et bien d'autres) Jacques.Farre@unice.fr http://deptinfo.unice.fr/~jf/infogene

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

Xeon Phi au CRIHAN. Patrick BOUSQUET-MÉLOU (pbm@crihan.fr) 16 Juin 2015

Xeon Phi au CRIHAN. Patrick BOUSQUET-MÉLOU (pbm@crihan.fr) 16 Juin 2015 Xeon Phi au CRIHAN Patrick BOUSQUET-MÉLOU (pbm@crihan.fr) 16 Juin 2015 Objectifs Veille technologique architecture many-core Se former pour préparer les utilisateurs au Xeon Phi «Knights Landing» (2016)

Plus en détail

Programme des épreuves des concours externes de recrutement des personnels techniques et administratifs de recherche et de formation

Programme des épreuves des concours externes de recrutement des personnels techniques et administratifs de recherche et de formation Programme des épreuves des concours externes de recrutement des personnels E1 RECRUTEMENT DES ASSISTANTS INGENIEURS DE RECHERCHE ET DE FORMATION...2 E1.1 Gestionnaire de base de données...2 E1.2 Développeur

Plus en détail

Simulation Monte-Carlo sur GPU application en physique médicale

Simulation Monte-Carlo sur GPU application en physique médicale Simulation Monte-Carlo sur GPU application en physique médicale école d été GPU, 1 er Juillet 2011 Gipsa Lab Julien Bert Laboratoire du Traitement de l Information Médicale LaTIM - INSERM U650 CHU Brest,

Plus en détail

Retour d expérience noeud de stockage BeeGFS

Retour d expérience noeud de stockage BeeGFS Retour d expérience noeud de stockage BeeGFS Philippe Dos Santos / Georges Raseev Fédération de Recherche Lumière Matière 06 novembre 2014 LOGO CNRS LOGO IO Philippe Dos Santos / Georges Raseev (FédérationRetour

Plus en détail

Les 10 choses à connaître pour bien utiliser Froggy

Les 10 choses à connaître pour bien utiliser Froggy Les 10 choses à connaître pour bien utiliser Froggy Journée des utilisateurs CIMENT B. Bzeznik, F. Roch 14 mai 2014 Journées des utilisateurs CIMENT Les 10 chose à connaître 1 Préliminaire : Chandler La

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Formation en Calcul Scientifique - LEM2I Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Introduction Décoder la relation entre l architecture et les applications

Plus en détail

VIRTUALISATION ET CLOUD COMPUTING. Année Universitaire : 2015-2016

VIRTUALISATION ET CLOUD COMPUTING. Année Universitaire : 2015-2016 VIRTUALISATION ET CLOUD COMPUTING Enseignant : Mohamed MANAA Année Universitaire : 2015-2016 Plan La virtualisation Qu'est-ce que la virtualisation? Pourquoi virtualiser? Terminologies Techniques de virtualisation

Plus en détail

Juan ESCOBAR, IR1 Expert en Calcul Intensif. Fonction postulée :

Juan ESCOBAR, IR1 Expert en Calcul Intensif. Fonction postulée : Oral Examen Professionnel PFI 7 Octobre 2008 Juan ESCOBAR, IR1 Expert en Calcul Intensif Fonction postulée : Chef de Projet sur le Support du Code Communautaire Méso-NH Service National Labellisé INSU

Plus en détail

Analyse de performance et optimisation. David Geldreich (DREAM)

Analyse de performance et optimisation. David Geldreich (DREAM) Analyse de performance et optimisation David Geldreich (DREAM) Plan de l exposé Analyse de performance Outils Optimisation Démonstrations Analyse de performance Pas d optimisation sans analyse de performance

Plus en détail

Outils d analyse de performance pour le HPC

Outils d analyse de performance pour le HPC Outils d analyse de performance pour le HPC François Trahay Master MOPS Décembre 2013 Plan 1 Introduction.................................................................... 3 2 Outils de profiling..............................................................10

Plus en détail

Architecture des ordinateurs, concepts du parallélisme

Architecture des ordinateurs, concepts du parallélisme Ecole Doctorale MathIf Architecture des ordinateurs, concepts du parallélisme Violaine Louvet 1 Remerciements à Françoise Roch, Guy Moebs, Françoise Berthoud 1 ICJ - CNRS Année 2009-2010 Objectifs de ce

Plus en détail

Simulation multi GPU d un logiciel de métagénomique. Dany Tello, Mathieu Almeida

Simulation multi GPU d un logiciel de métagénomique. Dany Tello, Mathieu Almeida Simulation multi GPU d un logiciel de métagénomique appliqué à la flore intestinale humaine Dany Tello, Mathieu Almeida Le microbiote intestinal humain : un organe négligé 100 trillions de micro organismes;

Plus en détail

Choix, installation et exploitation d un calculateur

Choix, installation et exploitation d un calculateur Choix, installation et exploitation d un calculateur John Morelle Pierre Lemoine : Manager France : HPC Specialist 1 Agenda À propos de ClusterVision Le design d un cluster L installation d un cluster

Plus en détail

Design, améliorations, et implémentations

Design, améliorations, et implémentations CPU et Mémoire Design, améliorations, et implémentations Techniques et caractéristiques modernes qui permettent de donner aux ordinateurs actuels toute leur puissance 1 Architectures CPU Design de l architecture

Plus en détail

Segmentation d'images à l'aide d'agents sociaux : applications GPU

Segmentation d'images à l'aide d'agents sociaux : applications GPU Segmentation d'images à l'aide d'agents sociaux : applications GPU Richard MOUSSA Laboratoire Bordelais de Recherche en Informatique (LaBRI) - UMR 5800 Université de Bordeaux - France Laboratoire de recherche

Plus en détail

Architecture Logicielle

Architecture Logicielle Architecture Logicielle Chapitre 3: UML pour la description et la documentation d une architecture logicielle Année universitaire 2013/2014 Semestre 1 Rappel L architecture d un programme ou d un système

Plus en détail

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie 1 Présenté par: Yacine KESSACI Encadrement : N. MELAB E-G. TALBI 31/05/2011 Plan 2 Motivation

Plus en détail

Simulation des réseaux de capteurs sans fil de grande taille

Simulation des réseaux de capteurs sans fil de grande taille Simulation des réseaux de capteurs sans fil de grande taille Cheick-Tidjane KONE Directeurs: Francis LEPAGE Co-encadrant : Michael DAVID Journée thématique RGE Jeudi 3 juin 2010 Qu est-ce qu un réseau

Plus en détail

INF6500 Structures des ordinateurs. Plan de cours

INF6500 Structures des ordinateurs. Plan de cours École Polytechnique de Montréal Département de génie informatique et de génie logiciel INF6500 Structures des ordinateurs Automne 2015 Plan de cours Professeur coordonnateur du cours: Nom : Sylvain Martel

Plus en détail

Processeur JAP. Le langage JAVA

Processeur JAP. Le langage JAVA Processeur JAP Ce document présente les dernières nouveautés concernant le processeur JAVA de la société AED. Il commence par un rappel sur les caractéristiques du processeur actuel, puis présente les

Plus en détail

Introduction à la programmation // sur GPUs en CUDA et Python

Introduction à la programmation // sur GPUs en CUDA et Python Introduction à la programmation // sur GPUs en CUDA et Python Denis Robilliard Équipe CAMOME: C. Fonlupt, V. Marion-Poty, A. Boumaza LISIC ULCO Univ Lille Nord de France BP 719, F-62228 Calais Cedex, France

Plus en détail

Benchmarks. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble.

Benchmarks. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble. Ensemble de codes permettant de tester la fonctionnalité et les performances d'une solution HPC dans son ensemble. (Merci à Ludovic Saugé) Françoise BERTHOUD, Francoise.Berthoud@grenoble.cnrs.fr Les benchmarks

Plus en détail

Equilibre de charge. Equilibre de charge statique Equilibre de charge dynamique

Equilibre de charge. Equilibre de charge statique Equilibre de charge dynamique Equilibre de charge Equilibre de charge statique Equilibre de charge dynamique Approches centralisées Approches distribuées Approches semi-distribuées Jaillet Info53 - L3 Informatique - 2006 1 Equilibre

Plus en détail