Équipe SATANAS Supports et algorithmes pour les applications numériques haute performance. Alexandre DENIS
|
|
- Thierry Lesage
- il y a 7 ans
- Total affichages :
Transcription
1 Équipe SATANAS Supports et algorithmes pour les applications numériques haute performance Alexandre DENIS
2 L équipe Satanas Deux équipes-projets INRIA RUNTIME Supports exécutifs performants pour architectures parallèles ScAlApplix Schémas et algorithmes hautes performances pour les applications scientifiques complexes
3 À propos des préoccupations quotidiennes de l équipe Satanas «Conception de supports d exécution pour machines parallèles» Outils pour faciliter le développement et accélérer l exécution des programmes sur des machines compliquées Domaine d application = Calcul intensif et simulation Sismologie, Nucléaire, Dynamique moléculaire, Météo, Combustion, Partenaires : CEA, EDF, IFP, Total,
4 Dassault Falcon 7X Entièrement conçu et dessiné par ordinateur
5 Simulation d un séisme dans les environs de Nice
6 Autres domaines applicatifs ayant donné lieu à des simulations de grande taille Simulation des instabilités d un plasma dans un tokamak (dans ITER avec le CEA Cadarache) Utilisation du solveur direct PaStiX Simultation de flux neutroniques dans un cœur de réacteur nucléaire (avec EDF) Méthodes de décomposition de domaines
7 Les ordinateurs «parallèles» Motivation La durée des calculs requis par une simulation serait énorme sur une station de travail La quantité de mémoire est également est insuffisante Machines parallèles «plusieurs processeurs utilisés conjointement» Idée : plus on est nombreux, plus le travail avance vite! Cela peut prendre plusieurs formes : Un PC contenant quelques processeurs Une machine spécialisée contenant beaucoup de processeurs Une grappe de PC Une grille de calcul
8 Machines parallèles contemporaines Quelle est la tendance?
9 Machines spécialisées Désormais appelée machines «massivement parallèles» Plusieurs centaines de milliers de processeurs Coût exorbitant, architecture spécifique peu évolutive
10 Grappes de PC (Clusters) Ensemble de PC reliés par un réseau rapide Les PC sont «normaux», juste un peu survitaminés Rapport performance/prix imbattable!
11 Grappes de PC (Clusters) Ensemble de PC reliés par un réseau rapide Les PC sont «normaux», juste un peu survitaminés Rapport performance/prix imbattable!
12 Grappes de PC (Clusters) Ensemble de PC reliés par un réseau rapide Les PC sont «normaux», juste un peu survitaminés Rapport performance/prix imbattable!
13 Les grilles de calcul Interconnexion de machines à l échelle d un pays d un continent de la planète Exemple Plate-forme expérimentale Grid sites Plusieurs grappes par site Plus de 5000 processeurs
14 Évolution des architectures parallèles Grappes de machines multiprocesseur Réseaux rapides Processeurs «banalisés» Programmation distribuées «à plat» Parallélisme à gros grain Modèle à mémoire distribuée
15 Pourquoi une telle percée des grappes? Bla-bla habituel Architecture évolutive Facile à programmer Extension de la mémoire des PC, ajout de nouveaux PC, etc. Matériel familier Vraie raison : rapport performance/prix excellent Les grappes bénéficient de l évolution des processeurs «banalisés» Intel, AMD, IBM, Sun On retrouve ces processeurs dans les stations de travail et les consoles de jeux! C est dans ce domaine que les évolutions sont les plus spectaculaires
16 Gordon Moore a toujours raison
17 Les vertus de la finesse de gravure La fréquence augmente En tout cas, c était vrai jusqu à il y a peu La dissipation thermique et la consommation deviennent problématiques Mais surtout, il y a de la place pour de nouveaux circuits Caches Exécution dans le désordre Prédicteurs en tous genres Analyse de dépendances (renommage des registres) Exécution spéculative (branchements, préchargements) Unités de calcul supplémentaires?
18 Les limites de l «ILP» ILP = Instruction Level Parallelism Mais un flot séquentiel reste une suite d instructions souvent désespérément séquentielles! Pas assez de parallélisme détectable «localement» Les pipelines demeurent sous-utilisés Il serait vain d ajouter encore des pipelines parallèles à moins que?
19 Les processeurs multicœurs = plusieurs processeurs gravés sur une même puce Puce bi-cœurs avec 4 voies Caches externes parfois partagés Tendance nette chez les constructeurs Intel core 2 Duo, Itanium 2 Montecito, Intel Terascale à 80 cœurs! AMD dual-core Opteron IBM Power5 SUN Niagara
20
21 Impact de l évolution des processeurs Puces multicœurs Architecture hiérarchique Topologie complexe Accès non uniformes Retour à l ère des machines CC-NUMA? Grappes de machines multicœurs Pas juste un niveau hiérarchique de plus
22 Et les machines multiprocesseurs? Elles sont majoritairement «à mémoire commune» Il suffit donc de relier plusieurs processeurs à (au moins) un banc mémoire proc proc proc proc mémoire Architecture à accès mémoire uniforme
23 Avec des processeurs multicœurs Les échanges entre processus deviennent non uniformes Données, synchronisations mémoire
24 On peut hiérarchiser davantage Mémoire directement attachée aux puces AMD HyperTransport, Intel QuickPath Interconnect mémoire mémoire mémoire mémoire Architecture à accès mémoire non uniforme (NUMA)
25 Vers des architectures hiérarchiques complexes Vers des machines de plusieurs centaines de processeurs Tout le monde n est pas directement connecté à tout le monde mémoire mémoire Ex: machine Tera10 du CEA/DAM réseau
26 Programmation parallèle contemporaine Les machines sont difficile à exploiter Pendant longtemps, l évolution des microprocesseurs a permis d accélérer les calculs sans effort de la part des programmeurs Aujourd hui, le matériel demande des efforts énormes aux programmeurs Qui n y sont pas habitués :-)
27 Comment exploiter efficacement de telles architectures de manière portable?
28 Algorithmes, méthodes et environnements pour le calcul intensif ScAlApplix High Performance Computing Applications Algorithms, Specific Libraries 1 2 Runtime System Operating System Hardware 1 : transmettre au support d exécution toutes les informations issues de la connaissance fine des algorithmes 2 : garantir la portabilité des performances en augmentant l expressivité des interfaces RUNTIME
29 Modélisation de l architecture
30 Modélisation de l architecture
31 Notion de bulle pour exprimer des affinités Réification de la structure des applications Partage de données Opérations collectives... 47
32 Notion de bulle pour exprimer des affinités Réification de la structure des applications Partage de données Opérations collectives... Certaines bulles peuvent être moins élastiques que d autres 48
33 Exemple d exécution réelle Génération de trace légère pendant l exécution Bibliothèque FxT (Fast User/Kernel Traces) co-développée avec UNH Conversion de la trace en animation flash
34 Le standard OpenMP Extension de langages permettant de paralléliser des programmes séquentiels Objectif = parallélisation incrémentale + portabilité Directives de compilation (C, C++, Fortran) + routines spécifiques V1.0 en , V2.5 en mai 2005 Plusieurs propositions d extensions NUMA sont candidates pour la version 3.0 Modèle de programmation Type «Fork-Join», parallélisation des blocs et des boucles
35 Parallélisation des boucles int main() { int i; double m[n]; #pragma omp parallel for for(i=0; i<n; i++) m[i] = f(i); do_something(m); } Le nombre de threads générés par le compilateur est contrôlable En pratique, les utilisateurs le fixent systématiquement
36 À propos du modèle fork/join Thread maître Exécute le code séquentiel Fork : création de threads esclaves Thread maître Fork Threads esclaves Exécutent la portion parallèle Join : destruction des esclaves et retour du contrôle au maître Threads esclaves Join Le nombre d esclaves peut varier d une région parallèle à l autre Technique bien adaptée à la parallélisation incrémentale d un code Fork Join
37 Idée : modifier un compilateur OpenMP pour utiliser BubbleSched Supporter davantage de threads que de processeurs Meilleur contrôle du grain, effets de, équilibrage de charge
38 Mise en œuvre dans GOMP Portage de GNU OpenMP sur les threads Marcel/BubbleSched Compatibilité binaire avec les applications OpenMP existantes Code OpenMP Binaire GNU OpenMP Interface GOMP libgomp Threads GOMP pthreads BubbleSched
39 Évaluation à l aide d une application irrégulière Reconstruction de surface implicite Objectif : trouver une fonction mathématique approximant la surface d un objet défini par un nuage de points
40 Principe de l algorithme séquentiel Approximer la surface par des fonctions quadriques «locales»
41 Principe de l algorithme séquentiel Subdiviser l espace lorsque la précision est insuffisante (ici en 2D)
42 Parallélisation en OpenMP void Node::compute(){ computeapprox(); if(_error > _max_error){ splitcell(); #pragma omp parallel for for(int i=0; i<8; i++) _children[i]->compute(); } }
43 Accélération sur 16 cœurs NPTL nested Marcel nested Affinity
44 Vers des architectures hétérogènes Utilisation d accélérateurs de type GPU Processeurs SIMD très puissants Nombreuses success stories Intégration on-chip IBM Cell/BE 1 PPU + 8 SPUs Intel Larrabee 48 cœurs avec unités SIMD
45 Vers des architectures vraiment hétérogènes Modèle de programmation Jeu d instruction spécialisé Modèle d exécution SIMD Mémoire Taille limitée Pas de cohérence par le matériel Transferts de données explicites Doit-on se réjouir? Mixed Large and Small Core
46 Exploitation des architectures hétérogènes L environnement StarPU CPU+GPU+SPU=*PU Scheduling vs offloading Ordonnancement dynamique de tâches Sur l ensemble des unités de calcul Minimisation des transferts de données A = A+B Mémoire virtuellement partagée hiérarchique Modèles de coûts CPU CPU GPU M. GPU M. B CPU CPU M. BM. CPU CPU CPU CPU SPU SPU SPU SPU SPU SPU A M. AM.
47 Exploitation des architectures hétérogènes Plateforme d ordonnancement ouverte Excellente efficacité Écart raisonnable avec des codes optimisés manuellement Pas de limitation sur la taille des données Diffusion Plateforme de base du projet européen PEPPHER Speed (GFlops) Greed y task model pref etc h data model
48 Conclusion et perspectives Du pain sur la planche
49 Conclusion Les constructeurs de microprocesseurs nous donnent du fil à retordre! Gestion du parallélisme (bientôt massif!) reportée au niveau logiciel Puissance soutenue de plus en plus éloignée de la puissance théorique! Les supports exécutifs doivent suivre Gérer efficacement un grand nombre de flots d exécution simultanés Permettre le contrôle de l ordonnancement Inciter le programmeur à exhiber le plus de parallélisme possible Mais le chemin est encore long! Majorité de programmes écrits en Fortran+MPI Imposer un nouveau modèle de programmation, c est long! 62
50 Et demain? Améliorer l articulation entre compilateurs, supports d exécution et matériel Extraction d informations Collecte d informations Quantification des affinités, schémas de synchronisation Compteurs de performance, accès mémoire/ Maîtriser les évolutions matérielles Architectures multicœurs hétérogènes Architectures dépourvues de cohérence de Accélérateurs spécialisés
51 Supports d exécution pour les nouvelles générations de machines Évolution inquiétante des architectures Machines «embarrassingly parallel», architectures hétérogènes Importance du savoir-faire «de fond» Principaux défis CPU CPU GPU M. GPU M. CPU CPU M. M. Ordonnancement hiérarchique Directives, affinités, compteurs matériels Communications sur topologies complexes Granularité adaptative CPU CPU Modèles hybrides Compilation et Auto-tuning CPU CPU M. M. X
52 Merci! Davantage d information ici :
Initiation au HPC - Généralités
Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours
Plus en détailGénération de code binaire pour application multimedia : une approche au vol
Génération de binaire pour application multimedia : une approche au vol http://hpbcg.org/ Henri-Pierre Charles Université de Versailles Saint-Quentin en Yvelines 3 Octobre 2009 Présentation Présentation
Plus en détailRapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121
Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère
Plus en détailRapport d activité. Mathieu Souchaud Juin 2007
Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix
Plus en détailSystèmes et traitement parallèles
Systèmes et traitement parallèles Mohsine Eleuldj Département Génie Informatique, EMI eleuldj@emi.ac.ma 1 Système et traitement parallèle Objectif Etude des architectures parallèles Programmation des applications
Plus en détailInfrastructures Parallèles de Calcul
Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide
Plus en détailTHÈSE. Pour obtenir le grade de. Spécialité : Informatique. Arrêté ministériel : 7 août 2006. Présentée et soutenue publiquement par.
THÈSE Pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ DE GRENOBLE Spécialité : Informatique Arrêté ministériel : 7 août 2006 Présentée et soutenue publiquement par Fabien GAUD le 02 Décembre 2010 ÉTUDE
Plus en détailInfo0804. Cours 6. Optimisation combinatoire : Applications et compléments
Recherche Opérationnelle Optimisation combinatoire : Applications et compléments Pierre Delisle Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique 17 février 2014 Plan de
Plus en détailLes environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
Plus en détailParallélisme et Répartition
Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre
Plus en détailArchitecture des ordinateurs
Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique
Plus en détailArchitecture des calculateurs
Formation en Calcul Scientifique - LEM2I Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Introduction Décoder la relation entre l architecture et les applications
Plus en détailQuantification d incertitude et Tendances en HPC
Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification
Plus en détailUne bibliothèque de templates pour CUDA
Une bibliothèque de templates pour CUDA Sylvain Collange, Marc Daumas et David Defour Montpellier, 16 octobre 2008 Types de parallèlisme de données Données indépendantes n threads pour n jeux de données
Plus en détailMODULE I1. Plan. Introduction. Introduction. Historique. Historique avant 1969. R&T 1ère année. Sylvain MERCHEZ
MODULE I1 Plan Chapitre 1 Qu'est ce qu'un S.E? Introduction Historique Présentation d'un S.E Les principaux S.E R&T 1ère année Votre environnement Sylvain MERCHEZ Introduction Introduction Rôles et fonctions
Plus en détailEléments d architecture des machines parallèles et distribuées
M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture
Plus en détailContexte et motivations Les techniques envisagées Evolution des processus Conclusion
Vérification de logiciels par analyse statique Contexte et motivations Les techniques envisagées Evolution des processus Conclusion Contexte et motivations Specification Design architecture Revues and
Plus en détailRetour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI
, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI PROMES (UPR 8521 CNRS) Université de Perpignan France 29 juin 2011 1 Contexte 2 3 4 Sommaire Contexte 1 Contexte 2 3 4 Laboratoire
Plus en détailExécution des instructions machine
Exécution des instructions machine Eduardo Sanchez EPFL Exemple: le processeur MIPS add a, b, c a = b + c type d'opération (mnémonique) destination du résultat lw a, addr opérandes sources a = mem[addr]
Plus en détailContrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle
Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle 1 CEA R & D for Nuclear Energy 5 000 people Nuclear systems
Plus en détailLimitations of the Playstation 3 for High Performance Cluster Computing
Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire
Plus en détailSanity Check. bgcolor mgcolor fgcolor
Sanity Check bgcolor mgcolor fgcolor 0 1 2 3 4 5 6 7 8 9 10 Compilation pour cibles hétérogènes: automatisation des analyses, transformations et décisions nécessaires, François Irigoin et Ronan Keryell
Plus en détailÉvaluation et implémentation des langages
Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation
Plus en détailLa Forge INRIA : bilan et perspectives. Hervé MATHIEU - 11 mai 2010
1 La Forge INRIA : bilan et perspectives Hervé MATHIEU - 11 mai 2010 Le plan 2 La Forge (Quoi, Quand, Comment) Les chiffres de la Forge INRIA Un exemple de projet Bilan/Perspectives Conclusion Qu'est ce
Plus en détailTout savoir sur le matériel informatique
Tout savoir sur le matériel informatique Thème de l exposé : Les Processeurs Date : 05 Novembre 2010 Orateurs : Hugo VIAL-JAIME Jérémy RAMBAUD Sommaire : 1. Introduction... 3 2. Historique... 4 3. Relation
Plus en détailINF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1
INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe
Plus en détailChapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing
Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de
Plus en détailProgrammation C. Apprendre à développer des programmes simples dans le langage C
Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités
Plus en détailConcept de machine virtuelle
Concept de machine virtuelle Chap. 5: Machine virtuelle Alain Sandoz Semestre été 2007 1 Introduction: Java Virtual Machine Machine Virtuelle Java: qu est-ce que c est? c est la spécification d une machine
Plus en détailEvaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques
Evaluation des performances de programmes parallèles haut niveau à base de squelettes algorithmiques (bourse EPSRC numéro GR/S21717/01) Enhancing the Perf. Predictability of Grid Appli. with Patterns and
Plus en détailProgrammation parallèle et ordonnancement de tâches par vol de travail. Thierry Gautier thierry.gautier@inrialpes.fr MOAIS, INRIA, Grenoble
Programmation parallèle et ordonnancement de tâches par vol de travail Thierry Gautier thierry.gautier@inrialpes.fr MOAIS, INRIA, Grenoble LyonCalcul 24/02/2014 Plan 1. Contexte technologique des architectures
Plus en détailÉquilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de l Environnement AMPI.
Facultés Universitaires Notre-Dame de la Paix, Namur Institut d Informatique Année académique 2003-2004 Équilibrage Dynamique de Charge pour des Calculs Parallèles sur Cluster Linux - Une Évaluation de
Plus en détailGrandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test
Grandes lignes Analyseur Statique de logiciels Temps RÉel Embarqués École Polytechnique École Normale Supérieure Mercredi 18 juillet 2005 1 Présentation d 2 Cadre théorique de l interprétation abstraite
Plus en détailRencontre sur la thématique du Calcul Haute Performance - 13 juin 2012. Better Match, Faster Innovation
Better Match, Faster Innovation Rencontre sur la thématique du Calcul Haute Performance - 13 juin 2012 Meeting on the theme of High Performance Computing TABLE DES MATIÈRES Qu est ce qu un imatch? STI
Plus en détailChapitre 4 : Les mémoires
1. Introduction: Chapitre 4 : Les mémoires Nous savons que dans un ordinateur toutes les informations : valeur numérique, instruction, adresse, symbole (chiffre, lettre,... etc.) sont manipulées sous une
Plus en détailLa technologie Java Card TM
Présentation interne au CESTI La technologie Java Card TM sauveron@labri.u-bordeaux.fr http://dept-info.labri.u-bordeaux.fr/~sauveron 8 novembre 2002 Plan Qu est ce que Java Card? Historique Les avantages
Plus en détailChapitre I Notions de base et outils de travail
Chapitre I Notions de base et outils de travail Objectifs Connaître les principes fondateurs et l historique du langage Java S informer des principales caractéristiques du langage Java Connaître l environnement
Plus en détail1 Architecture du cœur ARM Cortex M3. Le cœur ARM Cortex M3 sera présenté en classe à partir des éléments suivants :
GIF-3002 SMI et Architecture du microprocesseur Ce cours discute de l impact du design du microprocesseur sur le système entier. Il présente d abord l architecture du cœur ARM Cortex M3. Ensuite, le cours
Plus en détailContribution à la conception à base de composants logiciels d applications scientifiques parallèles.
- École Normale Supérieure de LYON - Laboratoire de l Informatique du Parallélisme THÈSE en vue d obtenir le grade de Docteur de l École Normale Supérieure de Lyon - Université de Lyon Discipline : Informatique
Plus en détailUne méthode de conception de systèmes sur puce
École thématique ARCHI 05 Une méthode de conception de systèmes sur puce (de l intégration d applications) Frédéric PÉTROT Laboratoire TIMA Institut National Polytechnique de Grenoble Frédéric Pétrot/TIMA/INPG
Plus en détailArchitecture des Ordinateurs. Partie II:
Architecture des Ordinateurs Partie II: Le port Floppy permet le raccordement du lecteur de disquette àla carte mère. Remarque: Le lecteur de disquette a disparu il y a plus de 6 ans, son port suivra.
Plus en détailIntroduction à la Programmation Parallèle: MPI
Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4
Plus en détailGrid Technology. ActiveMQ pour le grand collisionneur de hadrons (LHC) Lionel Cons Grid Technology Group Information Technology Department
DB GT CF Grid ActiveMQ pour le grand collisionneur de hadrons (LHC) Lionel Cons Grid Group Information Department Journée de la communauté FUSE, Paris, 2010 CERN IT Department CH-1211 Geneva 23 Switzerland
Plus en détailMultiprogrammation parallèle générique des méthodes de décomposition de domaine
Multiprogrammation parallèle générique des méthodes de décomposition de domaine Andréa Schwertner-Charão To cite this version: Andréa Schwertner-Charão. Multiprogrammation parallèle générique des méthodes
Plus en détailWEA Un Gérant d'objets Persistants pour des environnements distribués
Thèse de Doctorat de l'université P & M Curie WEA Un Gérant d'objets Persistants pour des environnements distribués Didier Donsez Université Pierre et Marie Curie Paris VI Laboratoire de Méthodologie et
Plus en détailM2-Images. Rendu Temps Réel - OpenGL 4 et compute shaders. J.C. Iehl. December 18, 2013
Rendu Temps Réel - OpenGL 4 et compute shaders December 18, 2013 résumé des épisodes précédents... création des objets opengl, organisation des données, configuration du pipeline, draw,... opengl 4.3 :
Plus en détailFonctionnement et performance des processeurs
Fonctionnement et performance des processeurs Eric Cariou Université de Pau et des Pays de l'adour Département Informatique Eric.Cariou@univ-pau.fr 1 Plan Fonctionnement des processeurs Unités de calcul
Plus en détailMachines virtuelles Cours 1 : Introduction
Machines virtuelles Cours 1 : Introduction Pierre Letouzey 1 pierre.letouzey@inria.fr PPS - Université Denis Diderot Paris 7 janvier 2012 1. Merci à Y. Régis-Gianas pour les transparents Qu est-ce qu une
Plus en détailInfo0101 Intro. à l'algorithmique et à la programmation. Cours 3. Le langage Java
Info0101 Intro. à l'algorithmique et à la programmation Cours 3 Le langage Java Pierre Delisle, Cyril Rabat et Christophe Jaillet Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique
Plus en détailMatériel & Logiciels (Hardware & Software)
CHAPITRE 2 HARDWARE & SOFTWARE P. 1 Chapitre 2 Matériel & Logiciels (Hardware & Software) 2.1 Matériel (Hardware) 2.1.1 Présentation de l'ordinateur Un ordinateur est un ensemble de circuits électronique
Plus en détailProcessus! programme. DIMA, Systèmes Centralisés (Ph. Mauran) " Processus = suite d'actions = suite d'états obtenus = trace
Processus 1) Contexte 2) Modèles de Notion de Points de vue Modèle fourni par le SX Opérations sur les 3) Gestion des Représentation des Opérations 4) Ordonnancement des Niveaux d ordonnancement Ordonnancement
Plus en détailVisite de presse. Le supercalculateur Tera - 10
Direction de la communication Service Information-médias Visite de presse Le supercalculateur Tera - 10 CEA 31-33, rue de la Fédération 75752 Paris cedex 15 - Tél. 01 40 56 10 00 Sommaire - Introduction
Plus en détailCours 1 : Introduction. Langages objets. but du module. contrôle des connaissances. Pourquoi Java? présentation du module. Présentation de Java
Langages objets Introduction M2 Pro CCI, Informatique Emmanuel Waller, LRI, Orsay présentation du module logistique 12 blocs de 4h + 1 bloc 2h = 50h 1h15 cours, 45mn exercices table, 2h TD machine page
Plus en détailChapitre 2 : Abstraction et Virtualisation
Virtualisation et Cloud Computing Chapitre 2 : Abstraction et Virtualisation Objectifs Présenter la notion de niveaux d abstraction séparés par des interfaces bien définies Description des avantages et
Plus en détailSéminaire Partenaires Esri France 6 et 7 juin 2012 Paris. ArcGIS et le Cloud. Gaëtan LAVENU
Séminaire Partenaires Esri France 6 et 7 juin 2012 Paris ArcGIS et le Cloud Gaëtan LAVENU Agenda Qu'attendent nos clients du Cloud Computing? Les solutions de Cloud ArcGIS dans le Cloud Quelles attendent
Plus en détailELP 304 : Électronique Numérique. Cours 1 Introduction
ELP 304 : Électronique Numérique Cours 1 Introduction Catherine Douillard Dépt Électronique Les systèmes numériques : généralités (I) En électronique numérique, le codage des informations utilise deux
Plus en détailArchitectures informatiques dans les nuages
Architectures informatiques dans les nuages Cloud Computing : ressources informatiques «as a service» François Goldgewicht Consultant, directeur technique CCT CNES 18 mars 2010 Avant-propos Le Cloud Computing,
Plus en détailT. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5
Modélisation de la performance et optimisation d un algorithme hydrodynamique de type Lagrange-Projection sur processeurs multi-cœurs T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet
Plus en détailTests de performance du matériel
3 Tests de performance du matériel Après toute la théorie du dernier chapitre, vous vous demandez certainement quelles sont les performances réelles de votre propre système. En fait, il y a plusieurs raisons
Plus en détailPour obtenir le grade de. Arrêté ministériel : 7 août 2006. Sylvain Genevès
THÈSE Pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ DE GRENOBLE Spécialité : Informatique Arrêté ministériel : 7 août 2006 Présentée par Sylvain Genevès Thèse dirigée par Vivien Quéma et co-encadrée
Plus en détailMesure de performances. [Architecture des ordinateurs, Hennessy & Patterson, 1996]
Mesure de performances [Architecture des ordinateurs, Hennessy & Patterson, 1996] Croissance des performances des microprocesseurs Avant le milieu des années 80, le gain dépendait de la technologie. Après,
Plus en détailCours 1 : La compilation
/38 Interprétation des programmes Cours 1 : La compilation Yann Régis-Gianas yrg@pps.univ-paris-diderot.fr PPS - Université Denis Diderot Paris 7 2/38 Qu est-ce que la compilation? Vous avez tous déjà
Plus en détailBig Data. Cyril Amsellem Consultant avant-vente. 16 juin 2011. Talend 2010 1
Big Data Cyril Amsellem Consultant avant-vente 16 juin 2011 Talend 2010 1 Big Data Architecture globale Hadoop Les projets Hadoop (partie 1) Hadoop-Core : projet principal. HDFS : système de fichiers distribués
Plus en détailTHEME 1 : L ORDINATEUR ET SON ENVIRONNEMENT. Objectifs
Architecture Matérielle des Systèmes Informatiques. S1 BTS Informatique de Gestion 1 ère année THEME 1 : L ORDINATEUR ET SON ENVIRONNEMENT Dossier 1 L environnement informatique. Objectifs Enumérer et
Plus en détailIntel Corporation Nicolas Biguet Business Development Manager Intel France
Les serveurs pour l Entreprise Intel Corporation Nicolas Biguet Business Development Manager Intel France 1 Les orientations stratégiques Clients Réseaux Serveurs Fournir les les éléments de de base des
Plus en détailPlan du cours. Historique du langage http://www.oracle.com/technetwork/java/index.html. Nouveautés de Java 7
Université Lumière Lyon 2 Faculté de Sciences Economiques et Gestion KHARKIV National University of Economic Introduction au Langage Java Master Informatique 1 ère année Julien Velcin http://mediamining.univ-lyon2.fr/velcin
Plus en détailProtection de l Investissement Virtualisation, Efficacité énergétique
Protection de l Investissement Virtualisation, Efficacité énergétique Conférence IDC France Secteur Public Les technologies au service de l efficacité publique 8 Avril 2008 AMD, Fabricant de Processeurs
Plus en détailRuntime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I
Runtime Gestion de la réactivité des communications réseau François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I 1 Le calcul hautes performances La tendance actuelle
Plus en détailPROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN
PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,
Plus en détailUn ordinateur, c est quoi?
B-A.BA Un ordinateur, c est quoi? Un ordinateur, c est quoi? Un ordinateur est une machine dotée d'une unité de traitement lui permettant d'exécuter des programmes enregistrés. C'est un ensemble de circuits
Plus en détailProgrammation parallèle et distribuée
ppd/mpassing p. 1/43 Programmation parallèle et distribuée Communications par messages Philippe MARQUET Philippe.Marquet@lifl.fr Laboratoire d informatique fondamentale de Lille Université des sciences
Plus en détailSystème de stockage IBM XIV Storage System Description technique
Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de
Plus en détailMétriques de performance pour les algorithmes et programmes parallèles
Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and
Plus en détailArchitecture des ordinateurs
Architecture des ordinateurs Cours 4 5 novembre 2012 Archi 1/22 Micro-architecture Archi 2/22 Intro Comment assembler les différents circuits vus dans les cours précédents pour fabriquer un processeur?
Plus en détailEPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE
EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE QCM Remarque : - A une question correspond au moins 1 réponse juste - Cocher la ou les bonnes réponses Barème : - Une bonne réponse = +1 - Pas de réponse = 0
Plus en détailProjet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information
Projet IGGI Infrastructure pour Grappe, Grille et Intranet CASCIMODOT - Novembre 2005 Fabrice Dupros CONTEXTE > Etablissement Public à caractère Industriel et Commercial (EPIC) Sous la tutelle des Ministères
Plus en détail1 Description générale de VISFIELD
Guide d utilisation du logiciel VISFIELD Yann FRAIGNEAU LIMSI-CNRS, Bâtiment 508, BP 133 F-91403 Orsay cedex, France 11 décembre 2012 1 Description générale de VISFIELD VISFIELD est un programme écrit
Plus en détailLe langage C++ est un langage de programmation puissant, polyvalent, on serait presque tenté de dire universel, massivement utilisé dans l'industrie
Chapitre I : Les bases du C++ Le langage C++ est un langage de programmation puissant, polyvalent, on serait presque tenté de dire universel, massivement utilisé dans l'industrie du logiciel, et ce depuis
Plus en détailPLATE-FORME DE CLOUD COMPUTING SLAPOS. Intégration d applications
PLATE-FORME DE CLOUD COMPUTING SLAPOS Intégration d applications Alain Takoudjou Kamdem Alain.takoudjou@lipn.univ-paris13.fr LIPN Université Paris 13 Vichy 2014 Présentation du cloud computing Le Cloud
Plus en détailINITIATION AU LANGAGE C SUR PIC DE MICROSHIP
COURS PROGRAMMATION INITIATION AU LANGAGE C SUR MICROCONTROLEUR PIC page 1 / 7 INITIATION AU LANGAGE C SUR PIC DE MICROSHIP I. Historique du langage C 1972 : naissance du C dans les laboratoires BELL par
Plus en détailIntroduction à CUDA. gael.guennebaud@inria.fr
36 Introduction à CUDA gael.guennebaud@inria.fr 38 Comment programmer les GPU? Notion de kernel exemple (n produits scalaires): T ci =ai b ( ai, b : vecteurs 3D, ci for(int i=0;i
Plus en détailInstitut Supérieure Aux Etudes Technologiques De Nabeul. Département Informatique
Institut Supérieure Aux Etudes Technologiques De Nabeul Département Informatique Support de Programmation Java Préparé par Mlle Imene Sghaier 2006-2007 Chapitre 1 Introduction au langage de programmation
Plus en détailDG-ADAJ: Une plateforme Desktop Grid
DG-ADAJ: Une plateforme pour Desktop Grid Olejnik Richard, Bernard Toursel Université des Sciences et Technologies de Lille Laboratoire d Informatique Fondamentale de Lille (LIFL UMR CNRS 8022) Bât M3
Plus en détailUNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES. THÈSE présentée par :
UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES Laboratoire d Informatique Fondamentale d Orléans THÈSE présentée par : Hélène COULLON
Plus en détailDOSSIER SOLUTION CA ERwin Modeling. Comment gérer la complexité des données et améliorer l agilité métier?
DOSSIER SOLUTION CA ERwin Modeling Comment gérer la complexité des données et améliorer l agilité métier? CA ERwin Modeling fournit une vue centralisée des définitions de données clés afin de mieux comprendre
Plus en détailChapitre 1 - Langages de description d architectures matérielles hybrides
Chapitre 1 - Langages de description d architectures matérielles hybrides «Hélas, tout a déjà été dit et on arrive trop tard!» (La Bruyère) Résumé La méthode MEDEVER nécessite la description de l architecture
Plus en détailHétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds
Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds Mardi Laurent Lefèvre LIP Inria/ENS Lyon Jean-Marc Pierson, Georges Da Costa, Patricia Stolf IRIT Toulouse Hétérogénéité
Plus en détailÉléments de programmation et introduction à Java
Éléments de programmation et introduction à Java Jean-Baptiste Vioix (jean-baptiste.vioix@iut-dijon.u-bourgogne.fr) IUT de Dijon-Auxerre - LE2I http://jb.vioix.free.fr 1-20 Les différents langages informatiques
Plus en détailCours d Algorithmique et de Langage C 2005 - v 3.0
Cours d Algorithmique et de Langage C 2005 - v 3.0 Bob CORDEAU cordeau@onera.fr Mesures Physiques IUT d Orsay 15 mai 2006 Avant-propos Avant-propos Ce cours en libre accès repose sur trois partis pris
Plus en détailIV- Comment fonctionne un ordinateur?
1 IV- Comment fonctionne un ordinateur? L ordinateur est une alliance du hardware (le matériel) et du software (les logiciels). Jusqu à présent, nous avons surtout vu l aspect «matériel», avec les interactions
Plus en détailCORBA haute performance
CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes Alexandre.Denis@irisa.fr Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance
Plus en détailLogiciel Libre Cours 3 Fondements: Génie Logiciel
Logiciel Libre Cours 3 Fondements: Génie Logiciel Stefano Zacchiroli zack@pps.univ-paris-diderot.fr Laboratoire PPS, Université Paris Diderot 2013 2014 URL http://upsilon.cc/zack/teaching/1314/freesoftware/
Plus en détailVMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510
Introduction A. Au sujet du livre 10 B. Au sujet de l'examen 10 Chapitre 1 Les nouveautés de vsphere A. Présentation 14 B. En quoi vsphere 5 diffère de vsphere 4? 14 1. Un Service Console abandonné 14
Plus en détailTivoli Endpoint Manager Introduction. 2011 IBM Corporation
Tivoli Endpoint Manager Introduction Enjeux pour les départements IT Comment gérer : l inventaire la mise à jour la sécurité la conformité Sur des environnements hétérogènes OS : Windows, Mac, UNIX, Linux,
Plus en détailConception des systèmes répartis
Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan
Plus en détailEnseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper
Plus en détailEcole des Hautes Etudes Commerciales HEC Alger. par Amina GACEM. Module Informatique 1ière Année Master Sciences Commerciales
Ecole des Hautes Etudes Commerciales HEC Alger Évolution des SGBDs par Amina GACEM Module Informatique 1ière Année Master Sciences Commerciales Evolution des SGBDs Pour toute remarque, question, commentaire
Plus en détailTRANSFORM IT + BUSINESS + YOURSELF
TRANSFORM IT + BUSINESS + YOURSELF Copyright 2012 EMC Corporation. All rights reserved. 2 Vos environnements SAP sont complexes et couteux : pensez «replatforming» TRANSFORM IT+ BUSINESS + YOURSELF Alexandre
Plus en détailPerformances de la programmation multi-thread
UFR Sciences et techniques de Franche-Comté Projet semestriel 2ème année de Master Informatique Performances de la programmation multi-thread Auteur(s) : Beuque Eric Moutenet Cyril Tuteur(s) : Philippe
Plus en détailGestion de clusters de calcul avec Rocks
Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte
Plus en détail