Mise en œuvre de LAMMPS sur le mésocentre de calcul de la région Centre CCSC (action du projet CaSciModOT)
|
|
- Pierre St-Amand
- il y a 8 ans
- Total affichages :
Transcription
1 Mise en œuvre de LAMMPS sur le mésocentre de calcul de la région Centre CCSC (action du projet CaSciModOT) Un exemple d utilisation pratique : la simulation numérique de vortex supraconducteurs Nicolas di Scala Février 2013 Nicolas di Scala 1
2 Table des matières 1) Présentation et fonctionnement d un mésocentre ) Le calcul parallèle ) Architecture d un mésocentre : le cas particulier du CCSC ) Architecture à mémoire partagée ) Architecture à mémoire distribuée ) Architecture à mémoire mixte et/ou hybride ) Logiciels scientifiques ) Bibliothèques scientifiques générales ) Logiciels scientifiques pour la recherche ) Logiciel LAMMPS : un exemple d utilisation pour la simulation numérique de vortex supraconducteurs ) Logiciel scientifique LAMMPS : comment le lancer sur le cluster? ) Exemples pratiques d utilisation de LAMMPS ) Benchmarking ) Grandeurs physiques ) Perspectives ) Annexes ) Proportions d utilisation du cluster CCSC ) Chiffrage de divers temps liés aux simulations Nicolas di Scala 2
3 Le calcul haute performance (abrégé HPC) pour la modélisation et la simulation numérique devient un enjeu important dans divers secteurs : scientifique, sociétal ou encore économique et financier. En effet, le calcul intensif est aujourd hui indispensable dans de très nombreux domaines académiques et industriels : les prévisions météorologiques, l évaluation des risques naturels, la conception de matériaux innovants, la prospection pétrolière, l évaluation de produits financiers complexes etc Afin de mettre en œuvre les moyens nécessaires à ces réalisations, les besoins en puissance de calcul sont de plus en plus élevés, et de nouvelles problématiques apparaissent (la gestion des contraintes énergétiques sur les architectures, l adaptation des applications de calcul scientifique aux nouvelles architectures massivement parallèles, l exploitation des énormes volumes de données générées etc ) 1) Présentation et fonctionnement d un mésocentre Un mésocentre est un centre de calcul HPC qui regroupe un ensemble de ressources matérielles et logicielles et de moyens humains. Elle est destinée à fournir un environnement scientifique et technique propice au calcul haute performance. D un point de vue plus administratif, c est une structure pilotée par un comité scientifique. Les centres nationaux de calcul, tels que l IDRIS [1] (Institut du Développement et des Ressources en Informatique Scientifique), le TGCC [2] (Très Grand Centre de Calcul du CEA) ou encore le CINES [3] (Centre Informatique National de l Enseignement Supérieur) possèdent une puissance de calcul de plus en plus importante. Cependant l accès à ces centres nationaux manque encore de souplesse. Il est alors utile de hiérarchiser les moyens de calcul mis à disposition des chercheurs : une structure pyramidale (cf. Figure 1) est établie en fonction de la puissance des moyens disponibles et de leur couverture (locale, régionale, nationale ou européenne). Figure 1 : Pyramide des différents niveaux de puissance de calcul du projet européen PRACE (Partnership for Advanced Computing in Europe). Nicolas di Scala 3
4 Le mésocentre est le plus souvent localisé au niveau régional, comme le montre la Figure 2. L intérêt d un mésocentre réside donc dans ses fonctions principales que sont l augmentation de la puissance de calcul disponible au niveau régional, la simplification de l accès aux ressources numériques ou encore la mutualisation des coûts (par exemple logiciels avec le prix des licences, matériels avec les machines et les fluides réfrigérants, ou humains pour la gestion du centre de calcul). Il permet également de fédérer les communautés utilisant le calcul HPC au niveau local et représentant un premier pas vers l accès aux ressources disponibles au niveau des centres nationaux. La proximité générée par un mésocentre offre de grands avantages. En effet, l interaction entre les utilisateurs et les personnels techniques chargés de l exploitation des machines de calcul permet de répondre au mieux aux besoins des chercheurs. Figure 2 : Carte de France des mésocentres d après le rapport annuel sur les structures de type mésocentre en France [4], provenant du Comité de Coordination des Mésocentres (2012) 1.1) Le calcul parallèle Par le passé le domaine des sciences a joui de l interaction mutuelle entre d une part la théorie, où l on modélise le système par des équations mathématiques, et d autre part l expérimentation permettant d effectuer des mesures et de confirmer/infirmer la validité du modèle théorique. Cependant avec l arrivée des ordinateurs depuis la seconde moitié du 20 ème siècle, un nouveau moyen d étudier les systèmes complexes est apparu : la simulation numérique. Les simulations sont à mi-chemin entre le modèle théorique, qu elles peuvent valider ou invalider suivant les résultats simulés, et l expérience dont elles peuvent se rapprocher en introduisant des valeurs numériques réalistes au sein du modèle testé. Les simulations numériques forment donc un pont étroit entre l expérimentation et la théorie. Nicolas di Scala 4
5 L objectif du calcul parallèle est de permettre une exécution plus rapide d un programme en distribuant le travail sur plusieurs processeurs et/ou cœurs (via l exécution simultanée de séquences d instructions indépendantes sur des processeurs différents, cf. Figure 3). Ainsi, en utilisant plus de ressources matérielles, notamment la mémoire, le calcul parallèle permet l exécution de problème «plus gros» qu en séquentiel. Figure 3 : Représentation schématique d un calcul parallèle. Les avancées effectuées ces dernières années dans les modèles numériques poussent la simulation vers de nouvelles frontières. Simuler des problèmes de taille réduite ne suffit plus pour valider des modèles. Beaucoup de problématiques sont multi-échelles (des petites échelles de la matière jusqu à des systèmes de très grandes dimensions), et les capacités de calcul nécessaires pour les résoudre deviennent considérables. Les algorithmes et les méthodes de résolution développées pour le calcul séquentiel (sur un seul processeur) ne suffisent plus. Le recours au calcul parallèle et intensif est alors incontournable pour y répondre. 1.2) Architecture d un mésocentre : le cas particulier du CCSC Rappelons tout d abord que la «machine» permettant d effectuer les calculs au sein d un mésocentre est communément appelée grappe de serveurs ou bien ferme de calcul, on parle aussi de cluster de calcul. C est un regroupement d ordinateurs indépendants (appelés alors nœuds), permettant ainsi de dépasser les limitations d un ordinateur en terme de puissance de calcul. A travers un cluster, l utilisateur dispose de plusieurs serveurs formant une seule entité (cf. Figure 4). Figure 4 : Schéma d un cluster de calcul avec le nœud frontal et les nœuds de calcul reliés par un réseau d interconnexion. Nicolas di Scala 5
6 Un cluster est constitué de plusieurs nœuds : des nœuds frontaux, de nœuds de calcul et de nœuds de stockage. Le cluster est isolé de l extérieur à travers un firewall. Les utilisateurs se connectent au cluster par l'intermédiaire de ce noeud frontal (c est la machine d entrée sur le réseau, appelée aussi serveur maître). Tous les outils pour créer des programmes y sont généralement installés (compilateurs, débuggers, bibliothèques, etc... ). La machine frontale se verra alors attribuer la charge de diviser les tâches à travers tous les noeuds de calcul adaptés, au moment ou ils seront disponibles, en prenant garde bien sur à ne pas surcharger la machine réceptrice. Il n existe pas d architecture matérielle unique pour ces clusters. Effectivement, chaque constructeur (Bull, IBM, etc ) possède une architecture qui lui est propre de par le choix de ses constituants matériels. Les différentes architectures de calculateurs parallèles se distinguent selon l organisation de la mémoire : architecture à mémoire partagée, distribuée, mixte, ou encore hybride (avec l utilisation de GPU). Sans rentrer trop dans le sujet, qui dépasse le cadre de cette présentation, nous allons rappeler brièvement les caractéristiques de ces différentes architectures ) Architecture à mémoire partagée Il faut noter que l architecture à mémoire partagée possède un espace mémoire global visible par tous les processeurs (cf. Figure 5). Les performances décroissent relativement vite avec le nombre de processeurs utilisés pour une application à cause du trafic sur le chemin d accès des données en mémoire (il apparaît un goulot d étranglement), de plus ce type d architecture est préféré lorsque le nombre de processeurs est faible (la machine devient coûteuse quand le nombre de cœurs devient grand). Figure 5 : Schéma d'une architecture parallèle à mémoire partagée (tiré de [5]) 1.2.2) Architecture à mémoire distribuée A l inverse, dans l architecture à mémoire distribuée un espace mémoire est associé à chaque processeur (cf. Figure 6). Les processeurs sont connectés entre eux à travers un réseau d interconnexion. L accès à la mémoire du processeur voisin doit se faire explicitement par échange de messages à travers le réseau. Afin d optimiser les transferts de données au sein des clusters, une interface a été développée afin qu il existe une implantation commune pour les différents constructeurs : il s agit de l interface MPI. Nicolas di Scala 6
7 Cette norme MPI, pour Message Passing Interface, dédiée au calcul parallèle et permettant d optimiser le temps processeur utilisé lors des transferts de données sur le réseau, est devenue un standard de communication pour des noeuds exécutant des programmes parallèles sur des systèmes à mémoire distribuée. Le réseau d interconnexion est très important sur ces architectures puisqu il détermine la vitesse d accès aux données d un processeur voisin (via sa latence, sa bande passante et sa topologie). Les performances sont ainsi dépendantes de la qualité du réseau. Figure 6 : Schéma d'une architecture parallèle à mémoire distribuée (tiré de [5]) L échange de données entre les processeurs doit être gérée par le programmeur, un effort de développement est alors nécessaire pour utiliser ce type d architecture. En revanche, elle possède l avantage de permettre d obtenir facilement des machines avec un grand nombre de processeurs, et pour un coût réduit par rapport à l architecture à mémoire partagée. De plus, l évolution de ces clusters est facilitée puisque cette architecture permet l ajout de nouveaux matériels de puissance et de génération différentes ) Architecture à mémoire mixte et/ou hybride La plupart des calculateurs actuels, dont le CCSC [6], combinent mémoire partagée et de mémoire distribuée. Les nœuds de calcul sont constitués de machines à mémoire partagée, reliées entre elles par un réseau d interconnexion. Il est intéressant de noter que de plus en plus souvent les clusters présentent un croisement hybride entre des nœuds avec les habituels CPU et des nœuds avec des cartes accélératrices graphiques GPU (cf. Figure 7). Figure 7 : Photographie d une carte accélératrice graphique GPU Nvidia Tesla. Nicolas di Scala 7
8 A titre de remarque, nous soulignons le fait que nous ne parlons pas ici des différents modèles de programmation parallèle, ce qui dépasserait largement le cadre de cette présentation. Pour plus d informations sur la programmation multithreading (dont l interface de programmation est l API OpenMP), l échange de messages (avec l API MPI) ou encore la programmation hybride (avec CUDA qui est propriétaire de la société Nvidia, ou avec l OpenCL qui est un standard ouvert de plus en plus présent sur le marché), nous conseillons au lecteur de se référer à la littérature sur le sujet. De nombreux cours sont disponibles, que ces derniers soient numériques ou papier (citons par exemple [7, 8, 9]). 2) Logiciels scientifiques Dans cette section nous allons présenter diverses applications scientifiques pour le calcul parallèle, utilisées couramment dans le milieu de la recherche. Afin de pouvoir s exécuter correctement, bon nombre d entre elles utilisent des opérations numériques «classiques», telles que par exemple la résolution de systèmes linéaires, le calcul de valeurs propres ou encore la transformée de Fourier rapide (FFT). Pour appliquer ces opérations en leur sein, les applications nécessitent la présence de libraires scientifiques spécifiques installées sur le cluster. 2.1) Bibliothèques scientifiques générales Les bibliothèques scientifiques sont des ensembles de sous-programmes testés, validés, optimisés. Utiliser des librairies scientifiques permet ainsi de se consacrer uniquement aux nouveaux développements, et de ne pas avoir à réécrire à chaque fois ces fonctions standardisées (cela permet de gagner un temps précieux). Ces libraires possèdent en outre plusieurs qualités très intéressantes. En effet, elles sont généralement portables puisqu elles sont indépendantes de l architecture des machines, elles peuvent supporter différents types de données (réel ou complexe, précision simple ou double) etc Avec l avènement des architectures de calcul parallèle, la communauté a fait évoluer les bibliothèques «classiques» en bibliothèques parallèles. Attention cependant aux librairies parallèles développées par les constructeurs, ces dernières ne sont pas portables étant donné qu elles dépendent de l architecture : c est typiquement le cas avec les transformées de Fourier rapides. Nous présentons ci-dessous, une liste non exhaustive de bibliothèques scientifiques connues et reconnues, version séquentielles et version parallèles. Pour ce qui est de l algèbre linéaire (regroupant différentes opérations vectorielles ou matricielles), nous pouvons citer : BLAS (Basic Linear Algebra Subprograms) pour la version séquentielle, PBLAS (Parallel Basic Linear Algebra Subprograms) la même libraire en version parallèle, LAPACK (Linear Algebra PACKage) pour la version séquentielle, ScaLAPACK (Scalable LAPACK) la même libraire en version parallèle. Nicolas di Scala 8
9 Quant à la transformée de Fourier rapide (décomposition d une fonction en fonctions oscillatoires) citons entre autres: FFTW (Fastest Fourier Transform in the West) version parallèle, MKL (Math Kernel Library) version parallèle. Il existe d autres libraires présentant des fonctionnalités plus généralistes et fournissant plusieurs outils de calcul numérique en mathématiques appliquées. C est le cas par exemple de GNU Scientific Library (GSL), ESSL (Engineering and Scientific Subroutine Library), PESSL (Parallel Engineering and Scientific Subroutine Library), ou bien SciPy (libraire pour le langage Python). On note que la majorité des bibliothèques citées précédemment sont écrites en Fortran ou en C. Il est souvent plus aisé d appeler une libraire Fortran à partir du C, plutôt que l inverse (à moins que la libraire ait été écrite de telle sorte qu elle puisse être appelée à partir du Fortran). 2.2) Logiciels scientifiques pour la recherche Nous allons maintenant présenter quelques logiciels développés pour la recherche scientifique dans divers domaines. Certains d entre eux sont commerciaux (et donc payants), alors que d autres sont gratuits et/ou open source (i.e. le code source est accessible). L utilisation de ces applications est très utile puisqu elle permet aux chercheurs d avoir une base à partir de laquelle ils vont pouvoir effectuer leur travail de recherche. En choisissant le bon logiciel adapté à leur problématique, ils peuvent gagner un temps considérable en utilisant des packages déjà développés et les modifier à leur guise (dans le cas d un logiciel open source). Notre but n est pas de lister tous les logiciels présents sur le marché, mais de montrer qu il existe un large choix accessible aux chercheurs, et ce quelque soit leur domaine d expertise (nous mettons en référence une liste des différentes applications possibles dans chaque secteur). Dans le domaine des prévisions météorologiques, il existe le modèle Weather Research and Forecasting Data Assimilation System (WRFDA) permettant de modéliser le temps sur des échelles allant de quelques kilomètres à des milliers de kilomètres comme le montre la Figure 8. Figure 8 : Exemple de prévision météorologique obtenue par le modèle WRF [10]. Nicolas di Scala 9
10 Dans le domaine de la bioinformatique [11], citons EMBOSS (European Molecular Biology Open Software Suite) qui contient une grande quantité de microprogrammes pour le séquençage, l identification des protéines (cf. Figure 9) etc, ou BLAST (Basic Local Alignment Search Tool) qui permet de trouver des régions similaires entre plusieurs séquences de nucléotides ou d acides aminés. Figure 9 : Exemple de repliement de protéines obtenu par la bioinformatique [12]. Dans le domaine de la mécanique des fluides, ANSYS Fluent permet de simuler une grande quantité de situations à travers différents modèles implémentés en son sein (turbulence, écoulement en milieux poreux, combustion etc ), comme le montre la Figure 10. Figure 10 : Champ de vecteurs vitesse obtenue via le logiciel Fluent dans le cadre de la simulation d une tornade [13]. Dans le domaine des mathématiques il existe un très large panel de logiciels [14] (pour le calcul formel, l analyse numérique, l analyse de données ou encore l analyse statistique). Citons quelque uns parmi les plus connus : Maple, Mathematica, Matlab, Scilab, R, etc Dans le domaine de la mécanique moléculaire [15] (dynamique moléculaire, Monte Carlo, mécanique quantique, etc ) on utilise la mécanique Newtonienne pour modéliser les systèmes moléculaires, et là aussi le choix ne manque pas. Il existe par exemple le logiciel AMBER (Assisted Model Building with Energy Refinement), CHARMM (Chemistry at HARvard Macromolecular Mechanics), GROMACS (GROningen MAchine for Chemical Simulations) ou bien LAMMPS (Large-scale Atomic/Molecular Massively Parallel Simulator) comme le montre la Figure 11. Figure 11 : Image issue d une simulation de dynamique dissipative de particules [16]. Nicolas di Scala 10
11 3) Logiciel LAMMPS : un exemple d utilisation pour la simulation numérique de vortex supraconducteurs Dans ce chapitre nous discuterons dans un premier temps de l accès à LAMMPS sur le cluster CCSC, puis nous aborderons des exemples pratiques d utilisation de LAMMPS appliqué à la simulation numérique de vortex supraconducteurs. 3.1) Logiciel scientifique LAMMPS : comment le lancer sur le cluster? LAMMPS, acronyme pour Large-scale Atomic/Molecular Massively Parallel Simulator [17, 18], est un logiciel open source sous les termes GNU Public License (GPL), distribué par Sandia National Laboratories, un laboratoire national de recherche dépendant du Département de l Energie des Etats-Unis. Ce logiciel utilise un code de dynamique moléculaire classique (i.e. mécanique non quantique) qui permet à l utilisateur de modéliser des systèmes en phase gazeuse, liquide ou solide. Il a été développé pour être optimal sur des architectures parallèles avec un très grand nombre de processeurs. Différents potentiels physiques y sont déjà implémentés, allant par exemple de la matière molle (polymères, biomolécules) à la matière condensée (métaux, semi-conducteurs). LAMMPS peut être utilisé pour modéliser des atomes, ou de façon plus générique pour simuler des systèmes de particules à différentes échelles (échelle atomique, échelle mésoscopique ou échelle du continu), comme le montre la Figure 12. Figure 12 : Images issues de simulations obtenues grâce à LAMMPS [19]. A gauche environ 1 million de particules ont été simulées, et à droite 3.6 millions. Ce code a été écrit initialement en Fortran F77 puis F90, il est maintenant développé en C++. Il peut être facilement modifié par l utilisateur (pour y ajouter de nouveaux potentiels par exemple, ou bien de nouvelles fonctionnalités ou microprogrammes). Il est portable et peut être lancé sur des machines utilisant un système d exploitation du type Linux, Unix, Mac OS ou Windows. Afin de pouvoir l utiliser sur le cluster CCSC, il est nécessaire de posséder de bonnes connaissances des systèmes HPC sous Linux. Nicolas di Scala 11
12 Afin de se connecter au cluster, il faut ouvrir une connexion sécurisée SSH (Secure Shell) depuis un terminal du type Unix. Pour les utilisateurs de Windows, il existe un logiciel, nommé PuTTY, permettant d émuler un terminal, la Figure 13 représente le terminal avec son invité de commande en vert. Pour plus d informations sur l utilisation de PuTTY, nous conseillons au lecteur la lecture de la très bonne documentation [20] (très exhaustive sur le sujet). Figure 13 : Image présentant un terminal PuTTY avant connexion au serveur frontal du cluster CCSC. Le lancement d'une simulation se fait à travers un script d'entrée qui permet de définir les différents paramètres qui vont être utilisés au sein la simulation (système d'unités, dimension et taille de la cellule de simulation, pas de temps, conditions initiales en ce qui concerne la position et la vitesse, potentiels et forces à appliquer etc...), mais qui permet aussi de définir les quantités qui devront être sorties à différents moments de la simulation (positions et vitesses des particules, énergies etc...), comme le montre la Figure 14. Figure 14 : Exemple de script simple pour lancer une simulation de vortex à 2D. Nicolas di Scala 12
13 Ce script doit être envoyé au serveur frontal afin de pouvoir y être exécuté par la suite. Il faut y adjoindre un fichier de soumission qui permettra de lancer le job sur la machine de calcul à travers le logiciel Sun Grid Engine (produit par la société Sun Microsystems) en utilisant la commande qsub. Ce logiciel est un système de gestion des tâches de calcul pour une machine multiprocesseur, et en particulier s occupe de la gestion des jobs sur le cluster CCSC. La structure du fichier de soumission est la suivante (toutes les lignes commençant par #$ contiennent des options passées automatiquement à la commande qsub) : #!/bin/bash <-> en-tête du script Bash #$ -cwd <-> travailler dans répertoire courant #$ -pe ompi N <-> environnement OpenMPI de N processus #$ -N toto_title <-> attribuer un nom au job mpirun./toto <-> exécuter le programme toto par MPI 3.2) Exemples pratiques d utilisation de LAMMPS Nous ne tentons pas de lister ici toutes les réalisations possibles grâce à LAMMPS, le manuel disponible sur le site du logiciel étant très bien fourni à ce sujet [21]. Nous allons au contraire présenter brièvement quelques utilisations possibles de LAMMPS en l appliquant à la simulation de vortex supraconducteurs. Pour plus d informations concernant la physique de cette problématique, les résultats obtenus dans le détails et leur description, veuillez vous référer aux publications dans des revues internationales/nationales à comité de lecture [22, 23, 24, 25] ou bien la thèse de Doctorat [26] ) Benchmarking La commande «thermo», disponible dans LAMMPS, permet de contrôler à différents pas de temps de la simulation plusieurs quantités thermodynamiques telles que par exemple la pression, la température ou encore l énergie (cinétique, potentielle, de paire etc ). Nous pouvons ainsi déterminer l évolution de l énergie du système et voir s il existe une conservation de cette énergie (entre l énergie cinétique et l énergie potentielle), comme le montre la Figure 15. Figure 15 : Evolution de l énergie cinétique (rouge) et de l énergie potentielle (bleue) du système de vortex en fonction du temps. Nicolas di Scala 13
14 Bien d autres quantités peuvent être tirées de cette commande thermo (que l on peut adapter à nos simulations). A titre d exemple, nous pouvons mesurer le temps CPU d exécution (en secondes) d une simulation en fonction du nombre de processeurs utilisés, comme le montre la Figure 16. Figure 16 : Temps CPU d exécution (en secondes) d une simulation en fonction du nombre de processeurs alloués. Différentes tailles de systèmes sont représentées. Une autre quantité utile pour faire du benchmarking est la quantité de mémoire requise par processeur pour chaque simulation, et ce en fonction du nombre de processeurs attribué à la simulation. Figure 17 : Quantité de mémoire requise (en MBytes/cœur) en fonction du nombre de processeurs alloués. Différentes tailles de systèmes sont représentées. A partir de ces grandeurs, nous sommes capables d effectuer une première mesure et de caractériser l efficacité du parallélisme en ce qui concerne notre simulation. Pour ce faire il suffit de définir l accélération A(P)= T1/TP et l efficacité E(P)=A(P)/P, avec P le nombre de cœurs sur lesquels le programme est exécuté et TP le temps d exécution pour P processeurs. C est ce que représentent respectivement les Figures 18 et 19 (la ligne pointillée représente le cas théorique idéal) Figure 18 : Accélération A(P) pour différentes tailles de systèmes. Figure 19 : Efficacité E(P) pour différentes tailles de systèmes. Nicolas di Scala 14
15 Il est aussi possible de déterminer la proportion de temps utilisé par le CPU pour le calcul des forces, le calcul entre voisins, la communication MPI ou d autres quantités, grâce à la commande thermo. Cela permet également d optimiser le nombre de processeurs à choisir pour rendre la parallélisation de la simulation la plus efficace possible. Les Figures 20 et 21 représentent ces proportions pour deux tailles de systèmes contenant chacun 270 et 8000 vortex. Figure 20 : Pourcentage du temps d exécution pour un système de 270 vortex. Figure 21 : Pourcentage du temps d exécution pour un système de 8000 vortex ) Grandeurs physiques La commande «dump» permet de mesurer des quantités intrinsèques liées aux particules simulées, à chaque pas de temps de la simulation. Cela peut concerner par exemple leur position dans l espace (x, y, z), leur vitesse instantanée (Vx, Vy, Vz) etc A partir de la position des vortex à chaque pas de temps, nous pouvons obtenir la trajectoire de ces derniers et visualiser la dynamique du système, comme le montre la Figure 22. Figure 22 : Trajectoire des vortex (rouge) et position instantanée (bleue) dans le plan XY. Nicolas di Scala 15
16 A partir de la position des vortex à chaque pas de temps, nous pouvons déterminer le facteur de structure S(k) du système (S(k) n est pas disponible directement dans LAMMPS et nécessite un code de calcul en posttraitement), comme le montre la Figure 23. Figure 23 : Facteur de structure S(k) dans le plan XY, obtenu à partir de la position des vortex. A partir de la vitesse instantanée des vortex à chaque pas de temps, nous pouvons déterminer le champ de vitesse instantanée, comme le montre la Figure 24 (cette image a été obtenue à partir d un logiciel gratuit de visualisation, nommé ParaView). Figure 24 : Champ de vitesse instantanée pour un système de 1920 vortex (les flèches représentent les vecteurs vitesse instantanée et la couleur indique la norme de ces vecteurs). Une autre commande, utile dans le domaine de la matière condensée, est donnée par «rdf». Cette dernière permet de calculer la fonction de distribution radiale g(r) (donnant l évolution de la densité en fonction de la distance r par rapport à une particule de référence), comme le montre la Figure 25. Figure 25 : Fonction de distribution radiale g(r) pour un système de vortex supraconducteur à 2D. Il existe bien d autres commandes permettant de mesurer ou caractériser des grandeurs physiques. Chaque commande étant spécifique à une, ou plusieurs, propriété(s) physiques, nous conseillons au lecteur intéressé par l utilisation de LAMMPS de se référer au manuel fourni par les développeurs [21]. Nicolas di Scala 16
17 4) Perspectives Un objectif, ambitieux, mais néanmoins nécessaire pour améliorer les résultats obtenus dans les simulations réalisées ci-dessus, serait d utiliser la puissance des processeurs graphiques GPU pour faire tourner les codes de calcul parallèle. Actuellement, les simulations numériques employées précédemment pour les réseaux de vortex ont été développées en utilisant l outil de calcul haute performance HPC LAMMPS version C++ que j ai pu exécuter sur des processeurs CPU du mésocentre de calcul de la région Centre CCSC. Bien qu ayant permis de gagner presque 2 ordres de grandeurs (x100) en ce qui concerne la quantité de vortex intégrés au sein de la cellule de simulation, cette technique commence à atteindre ses limites lorsque le système de vortex devient trop «grand» (chose nécessaire lorsque le piégeage est faible, à cause de la longueur de corrélation des domaines de vortex qui croît à l approche de la transition de dépiégeage), ou la force appliquée est trop faible (F<<Fc). Figure 26 : Photographie d un processeur multicoeurs CPU (à gauche) et d un processeur graphique GPU (à droite). L utilisation de processeurs graphiques GPU au lieu de processeurs «traditionnels» CPU permet d'avoir des résultats plus rapides en exploitant les capacités de calcul des GPU. Le calcul des forces est alors porté sur les GPU, qui sont beaucoup plus performants que les CPU multicœurs de par leur très grande quantité de coeurs, et le processeur peut ainsi s'occuper du reste du code sans être surchargé par ce calcul des forces. En effet comme le montre la Figure 27, le CPU est optimisé pour exécuter rapidement une série de tâches de tout type, alors que le GPU est optimisé quant à lui pour exécuter des opérations simples sur de très gros volumes de données. On voit bien que beaucoup plus de transistors sont dédiés au calcul sur le GPU (ce sont les UAL, Unité Arithmétique et Logique, qui effectuent les opérations de base) qu aux unités de contrôle (chargées du séquençage des opérations). Nicolas di Scala 17
18 Figure 27 : Comparaison de l architecture CPU et GPU (représentation schématique). Les logiciels pouvant tourner sur des GPU utilisent généralement soit la technologie CUDA, format propriétaire et fonctionnant sur des cartes GPU de chez Nvidia, soit l OpenCL, un format ouvert de plus en plus utilisé (pouvant fonctionner sur des GPU Nvidia ou ATI par exemple). Une liste de logiciels scientifiques pouvant tourner sur les GPU Nvidia est donnée en [27]. Pour ce qui est de LAMMPS, il peut être accéléré par des configurations multi-gpu. La version CUDA de LAMMPS permet d obtenir des résultats beaucoup plus rapides, comme le montre la Figure 28. Figure 28 : Résultats comparés d une simulation obtenue avec 24 CPUs vs 2 GPUs (image issue de [28]). Nicolas di Scala 18
19 Il est bon de noter que les GPU sont moins gourmands électriquement que les CPU, ils sont moins cher et prennent également moins de place que ces derniers. Cependant, de nouvelles avancées tentent de contrebalancer l utilisation de plus en plus massive des GPU dans le calcul haute performance : les processeurs manycores (Knights Corner d Intel possédant plus de 50 cœurs) ou bien les processeurs hybrides CPU + GPU (Fusion chez AMD ou SandyBridge chez Intel). Remarque : J ai essayé de créer une station de travail à mon domicile (i.e. un mini supercalculateur personnel) à partir de cartes graphiques Nvidia : ne serait-ce qu en utilisant une solution d accélération GPU Nvidia Tesla par exemple, nous pouvons obtenir de notre ordinateur de bureau des performances de calcul à la hauteur d un cluster dédié. Pour ce faire, je me suis initié à l architecture de calcul parallèle Nvidia CUDA (sous Linux et Windows). Outre la difficulté intrinsèque aux bibliothèques (les installer, les référencer correctement etc ), il n est pas aisé de porter le code de calcul sur le(s) GPU(s) : il existe des problèmes de portabilité. De plus, il peut arriver que le fait de porter le programme sur des GPU entraîne une augmentation du temps de simulation. Il faut s assurer que le nombre de particules simulé soit suffisamment grand pour que le logiciel ne passe pas plus de temps à envoyer les informations entre les cœurs plutôt qu à calculer les quantités physiques demandées. Ce nombre est difficilement prévisible à l avance, il dépend du système physique, des interactions (forces) calculées, de l architecture matérielle etc... Il est donc très intéressant d essayer d utiliser les GPU à la place des CPU, cependant cela demande du temps et de l investissement. Nicolas di Scala 19
20 5) Annexes 5.1) Proportions d utilisation du cluster CCSC J ai effectué mes activités de recherche sur les simulations numériques de réseaux de vortex supraconducteurs au sein du laboratoire LEMA UMR CNRS-CEA 6157, qui est devenu par la suite le laboratoire GREMAN UMR 7347 CNRS-CEA-ENIVL au cours de mon doctorat. Le rapport d activités du Centre de Calcul Scientifique en Région Centre (CCSC) fourni des informations quant à la proportion d utilisation du cluster de calcul par laboratoire et/ou projets dans la région Centre (typiquement entre les universités d Orléans et de Tours). Figure A-1 : Utilisation cumulée du cluster CCSC par laboratoire, d octobre 2010 à novembre La zone hachurée correspond à l utilisation du laboratoire LEMA dans lequel j ai effectué mes simulations numériques (j étais le seul à utiliser le cluster dans ce laboratoire). Comme on peut le voir sur la Figure A-1, et sachant que j étais le seul à utiliser le cluster au sein du laboratoire LEMA (tout du moins sur la période représentée), on se rend compte que mes simulations numériques ont pleinement profité des capacités de calcul de la machine du CCSC. Nicolas di Scala 20
21 5.2) Chiffrage de divers temps liés aux simulations Dans cette annexe je vais donner un chiffrage du nombre d heures passées à préparer les scripts, compiler, exécuter les simulations et enfin récupérer/traiter les données. Ces informations donnent une estimation sommaire du volume horaire utilisé à effectuer les simulations numériques présentées dans le document. o Préparation des scripts, compilation : ~ 350 h o Exécution des simulations sur le cluster : ~ 3000 h o Récupération, traitement des données : ~ 2000 h 37% 7% 56% Préparations Exécutions Traitements Remarque : Pour ce qui est du traitement des simulations par le GPU (travail personnel en dehors de mes activités professionnelles), j ai estimé le temps passé à environ 70 heures (installation du cluster, des librairies, de CUDA, tests de portabilité et de benchmarking etc ). Nicolas di Scala 21
22 Bibliographie [1] Site web de l IDRIS : [2] Site web du TGCC : [3] Site web du CINES : [4] Rapport accessible ici : [5] Site web de Wikipédia : [6] Site web décrivant l architecture du cluster CCSC : [7] Formations du «Groupe Calcul» : [8] «Calcul scientifique parallèle - Cours, exemples avec OpenMP et MPI, exercices corrigés» de Frédéric Magoulès et François-Xavier Roux [9] «CUDA par l'exemple - Une introduction à la programmation parallèle de GPU» de Jason Sanders, Edward Kanbrot [10] Site web de l image : [11] Liste de logiciels utilisés en Bioinformatique : [12] Site web de l image : [13] Adresse de l image : [14] Liste de logiciels utilisés en analyse numérique, calcul formel : [15] Liste de logiciels utilisés en mécanique moléculaire: [16] Site web de l image : [17] Site web de LAMMPS : [18] «Fast Parallel Algorithms for Short-Range Molecular Dynamics» de S. Plimpton, J. Comput. Phys., 117:1 (1995) [19] [20] Documentation de PuTTY: [21] Liste des commandes déjà disponibles dans LAMMPS : [22] «Critical behavior of plastic depinning of vortex lattices in two dimensions: Molecular dynamics simulations» de Y. Fily, E. Olive, N. Di Scala and J. C. Soret, Phys. Rev. B, (2010), 7 pages [23] «Transition de dépiégeage élastique de vortex supraconducteurs» de E. Olive, N. Di Scala, Y. Lansac, Y. Fily and J. C. Soret, ESAIM: Proceedings, Vol. 35, p , 7 pages. Proceedings of Congrès SMAI 2011, 5ème Biennale Française des Mathématiques Appliquées, Guidel (France), Mai 2011 Nicolas di Scala 22
23 [24] «Elastic depinning transition for superconductor vortices» de N. Di Scala, E. Olive, Y. Lansac, Y. Fily and J. C. Soret, J. Phys.: Conf. Series, (2012), 4 pages. Proceedings of the 26th International Conference on Low Temperature Physics LT26, Beijing (China), Août 2011 [25] «Elastic depinning transition of vortex lattices in two dimensions» de N. Di Scala, E. Olive, Y. Lansac, Y. Fily and J. C. Soret, New J. Phys., (2012), 16 pages. [26] Thèse de Doctorat: «Transition de dépiégeage dans les réseaux de vortex supraconducteurs : étude par simulation numérique» de N. Di Scala (2012), 220 pages. Accessible sur le site Thèse en Ligne TEL : [27] Site web de logiciels de calcul par GPU : [28] GPU LAMMPS Nvidia : Nicolas di Scala 23
Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales
Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire
Plus en détailInfrastructure de calcul du CRRI
Infrastructure de calcul du CRRI Types d'infrastructures de calcul Calcul Intensif (High Performance Computing) Tâches fortement couplées (codes vectoriels / parallèles) Supercalculateurs, SMP, clusters,
Plus en détailInitiation au HPC - Généralités
Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours
Plus en détailHPC by OVH.COM. Le bon calcul pour l innovation OVH.COM
4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés
Plus en détailÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab
ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab notre compétence d'éditeur à votre service créée en juin 2010, Scilab enterprises propose services et support autour
Plus en détailArchitecture des ordinateurs
Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique
Plus en détailLes mésocentres HPC àportée de clic des utilisateurs industriels
Les mésocentres HPC àportée de clic des utilisateurs industriels Université de Reims Champagne-Ardenne (URCA) Centre de Calcul ROMEO Multidisciplinary university more than 22 000 students a wide initial
Plus en détailRapport d activité. Mathieu Souchaud Juin 2007
Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix
Plus en détailGestion de clusters de calcul avec Rocks
Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte
Plus en détailContrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle
Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle 1 CEA R & D for Nuclear Energy 5 000 people Nuclear systems
Plus en détailRapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121
Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère
Plus en détailRetour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI
, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI PROMES (UPR 8521 CNRS) Université de Perpignan France 29 juin 2011 1 Contexte 2 3 4 Sommaire Contexte 1 Contexte 2 3 4 Laboratoire
Plus en détailRencontre sur la thématique du Calcul Haute Performance - 13 juin 2012. Better Match, Faster Innovation
Better Match, Faster Innovation Rencontre sur la thématique du Calcul Haute Performance - 13 juin 2012 Meeting on the theme of High Performance Computing TABLE DES MATIÈRES Qu est ce qu un imatch? STI
Plus en détailT. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5
Modélisation de la performance et optimisation d un algorithme hydrodynamique de type Lagrange-Projection sur processeurs multi-cœurs T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet
Plus en détailMétriques de performance pour les algorithmes et programmes parallèles
Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and
Plus en détailRapport de stage Master 2
Rapport de stage Master 2 Informatique Haute Performance et Simulation, 2 ème année Ecole Centrale Paris Accélération des méthodes statistiques sur GPU Auteur : CHAI Anchen. Responsables: Joel Falcou et
Plus en détailContributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
Plus en détailLes environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
Plus en détailLes clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1
Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High
Plus en détailÉléments de programmation et introduction à Java
Éléments de programmation et introduction à Java Jean-Baptiste Vioix (jean-baptiste.vioix@iut-dijon.u-bourgogne.fr) IUT de Dijon-Auxerre - LE2I http://jb.vioix.free.fr 1-20 Les différents langages informatiques
Plus en détailInfo0804. Cours 6. Optimisation combinatoire : Applications et compléments
Recherche Opérationnelle Optimisation combinatoire : Applications et compléments Pierre Delisle Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique 17 février 2014 Plan de
Plus en détailParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin
Linux Gazette n 110 Janvier 2005 Majid Hameed Copyright 2005 Majid Hameed Copyright 2005 Gauthier Savart Copyright 2005 Joëlle Cornavin Article paru dans le n 110 de la Gazette Linux de janvier 2005. Traduction
Plus en détailEvaluation des performances de programmes parallèles haut niveau à base de squelettes
Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,
Plus en détailProjet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information
Projet IGGI Infrastructure pour Grappe, Grille et Intranet CASCIMODOT - Novembre 2005 Fabrice Dupros CONTEXTE > Etablissement Public à caractère Industriel et Commercial (EPIC) Sous la tutelle des Ministères
Plus en détailQuantification d incertitude et Tendances en HPC
Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification
Plus en détailÉvaluation et implémentation des langages
Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation
Plus en détail1 Description générale de VISFIELD
Guide d utilisation du logiciel VISFIELD Yann FRAIGNEAU LIMSI-CNRS, Bâtiment 508, BP 133 F-91403 Orsay cedex, France 11 décembre 2012 1 Description générale de VISFIELD VISFIELD est un programme écrit
Plus en détailLes lières. MSc in Electronics and Information Technology Engineering. Ingénieur civil. en informatique. MSc in Architectural Engineering
Ingénieur civil Ingénieur civil Les lières MSc in Electronics and Information Technology Engineering MSc in Architectural Engineering MSc in Civil Engineering MSc in Electromechanical Engineering MSc
Plus en détailLimitations of the Playstation 3 for High Performance Cluster Computing
Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire
Plus en détailVirtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.
2013 Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. Table des matières 1 Introduction (Historique / définition)... 3 2 But de la virtualisation... 4 3 Théorie : bases et typologie des solutions techniques...
Plus en détailJournée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS
Journée Utiliateurs 2015 Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS 1 Pôle ID, Grid'5000 Ciment Une proximité des platesformes Autres sites G5K Grenoble + CIMENT Pôle ID = «Digitalis»
Plus en détailOutil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche
Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd
Plus en détailOptimisation de logiciels de modélisation sur centre de calcul
Optimisation de logiciels de modélisation sur centre de calcul Gérald Monard Pôle de Chimie Théorique http://www.monard.info/ Introduction Les ordinateurs sont des appareils électroniques permettant d
Plus en détailCORBA haute performance
CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes Alexandre.Denis@irisa.fr Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance
Plus en détailEnseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper
Plus en détailLIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux
Livret d information des utilisateurs des ressources GENCI dans les centres nationaux Janvier 2014 1 Sommaire 1 Présentation du livret... 3 1.1 Services aux utilisateurs... 3 1.2 Services internes... 3
Plus en détailMesurer les performances (CPU) sous Linux
Titre : Mesurer les performances (CPU) sous Linux Date : 22/07/2015 Page : 1/7 Mesurer les performances (CPU) sous Linux Résumé : Il existe des outils permettant de tracer les temps CPU utilisés (profiling).
Plus en détailLa gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST.
La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST. Gaël Le Mahec - p. 1/12 L algorithme BLAST. Basic Local Alignment Search Tool est un algorithme de recherche
Plus en détailProgrammation C. Apprendre à développer des programmes simples dans le langage C
Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités
Plus en détailDétection d'intrusions en environnement haute performance
Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire
Plus en détailEléments d architecture des machines parallèles et distribuées
M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture
Plus en détailInstitut Supérieure Aux Etudes Technologiques De Nabeul. Département Informatique
Institut Supérieure Aux Etudes Technologiques De Nabeul Département Informatique Support de Programmation Java Préparé par Mlle Imene Sghaier 2006-2007 Chapitre 1 Introduction au langage de programmation
Plus en détailVérifier la qualité de vos applications logicielle de manière continue
IBM Software Group Vérifier la qualité de vos applications logicielle de manière continue Arnaud Bouzy Kamel Moulaoui 2004 IBM Corporation Agenda Analyse de code Test Fonctionnel Test de Performance Questions
Plus en détailInfrastructures Parallèles de Calcul
Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide
Plus en détailINDUSTRIALISATION ET RATIONALISATION
INDUSTRIALISATION ET RATIONALISATION A. LA PROBLEMATIQUE La mission de toute production informatique est de délivrer le service attendu par les utilisateurs. Ce service se compose de résultats de traitements
Plus en détailLinux embarqué: une alternative à Windows CE?
embarqué: une alternative à Windows CE? : une alternative à Windows CE Présentation Mangrove Systems Distribution embarqué Perspective WinCe / Questions Mangrove systems Créé en 2001 Soutien Soutien Ministère
Plus en détailCours 3 : L'ordinateur
Cours 3 : L'ordinateur Abdelkrim Zehioua 2éme année Licence Gestion Faculté des sciences Économiques et sciences de Gestion Université A, Mehri - Constantine 2 Plan du cours 1.Définitions de l'ordinateur
Plus en détailChapitre 4: Introduction au Cloud computing
Virtualisation et Cloud Computing Chapitre 4: Introduction au Cloud computing L'évolution d'internet Virt. & Cloud 12/13 2 Définition Le cloud computing est une technologie permettant de délocaliser les
Plus en détailPrise en compte des ressources dans les composants logiciels parallèles
Prise en compte des ressources dans les composants logiciels parallèles Aperçus de l action RASC et du projet Concerto F. Guidec Frederic.Guidec@univ-ubs.fr Action RASC Plan de cet exposé Contexte Motivations
Plus en détailVMWare Infrastructure 3
Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...
Plus en détailUE Programmation Impérative Licence 2ème Année 2014 2015
UE Programmation Impérative Licence 2 ème Année 2014 2015 Informations pratiques Équipe Pédagogique Florence Cloppet Neilze Dorta Nicolas Loménie prenom.nom@mi.parisdescartes.fr 2 Programmation Impérative
Plus en détailTests de SlipStream sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la. Vers la fédération du Cloud computing
Tests de sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la fédération du Cloud computing Cécile Cavet1 & Charles Loomis2 (1) Centre François Arago, Laboratoire, Université Paris Diderot,
Plus en détailETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE
Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1
Plus en détailSIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014
SIGAMM/ COMMISSION UTILISATEUR du 05/12/2014 ORDRE DU JOUR : - Rôle de la commission, - Présentation de la nouvelle plateforme, - Accès Mésocentre, - Point sur les problèmes rencontrés, - Propositions
Plus en détailPortage d applications sur le Cloud IaaS Portage d application
s sur le Cloud IaaS Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire AstroParticule et Cosmologie (APC), LabEx UnivEarthS APC, Univ. Paris Diderot, CNRS/IN2P3,
Plus en détailPRESENTATION RESSOURCES. Christian Dupaty BTS Systèmes Numériques Lycée Fourcade Gardanne Académie d Aix Marseille
PRESENTATION RESSOURCES Christian Dupaty BTS Systèmes Numériques Lycée Fourcade Gardanne Académie d Aix Marseille 1) Introduction, Objectifs et Intentions Le BTS SN (Systèmes Numériques) intègre la formation
Plus en détailParallélisme et Répartition
Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre
Plus en détailHigh Performance by Exploiting Information Locality through Reverse Computing. Mouad Bahi
Thèse High Performance by Exploiting Information Locality through Reverse Computing Présentée et soutenue publiquement le 21 décembre 2011 par Mouad Bahi pour l obtention du Doctorat de l université Paris-Sud
Plus en détailUne dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU
Une dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU Gabriel Antoine Louis Paillard Ce travail a eu le soutien de la CAPES, agence brésilienne pour
Plus en détailLivre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés
Livre blanc La sécurité de nouvelle génération pour les datacenters virtualisés Introduction Ces dernières années, la virtualisation est devenue progressivement un élément stratégique clé pour le secteur
Plus en détaillibérez votre innovation avec l extreme computing CEA/Philippe Stroppa
libérez votre innovation avec l extreme computing CEA/Philippe Stroppa Solutions Bull pour l extreme computing Une gamme qui démultiplie votre pouvoir d innovation. De la physique fondamentale à la recherche
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailAXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES
1 AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES 2 Axes de recherche L activité du DIM LSC concerne la méthodologie de la conception et le développement de systèmes à forte
Plus en détailL I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l
Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i
Plus en détailArrêt sur image. La simulation numérique au programme de l industrie
Arrêt sur image La simulation numérique au programme de l industrie Bartosz Dobrzelecki, Oliver Fritz, Peter Lofgren, JÖrg Ostrowski, Ola Widlund L une des grandes vertus de la simulation sur ordinateur
Plus en détailPrésentation du déploiement des serveurs
Présentation du déploiement des serveurs OpenText Exceed ondemand Solutions de gestion de l accès aux applications pour l entreprise OpenText Connectivity Solutions Group Février 2011 Sommaire Aucun environnement
Plus en détailChapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing
Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de
Plus en détailVous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,
Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis
Plus en détail«clustering» et «load balancing» avec Zope et ZEO
IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4
Plus en détailPrésentation de la Grille EGEE
Présentation de la Grille EGEE Introduction aux grilles La grille EGEE Exemples d applications en physique des particules et en sciences de la vie Le cercle vertueux Conclusion Guy Wormser Directeur de
Plus en détailCluster High Availability. Holger Hennig, HA-Cluster Specialist
Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE
Plus en détailLe Cercle Vertueux du Cloud Public
Le Cercle Vertueux du Cloud Public Le Cercle Vertueux du Cloud Public Le Cloud public rencontre un intérêt croissant auprès de tous les directeurs IT voulant planifier les stratégies informatiques de leur
Plus en détail1 Architecture du cœur ARM Cortex M3. Le cœur ARM Cortex M3 sera présenté en classe à partir des éléments suivants :
GIF-3002 SMI et Architecture du microprocesseur Ce cours discute de l impact du design du microprocesseur sur le système entier. Il présente d abord l architecture du cœur ARM Cortex M3. Ensuite, le cours
Plus en détailTutoriel : Utilisation du serveur de calcul à distance de PSE
Tutoriel : Utilisation du serveur de calcul à distance de PSE David Smadja Camille Terrier Septembre 2013 Table des matières 1 Préambule 1 2 Avertissements 1 3 Pré-requis 1 4 Installation de X2goClient
Plus en détailCommunications performantes par passage de message entre machines virtuelles co-hébergées
Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction
Plus en détailLes technologies du Big Data
Les technologies du Big Data PRÉSENTÉ AU 40 E CONGRÈS DE L ASSOCIATION DES ÉCONOMISTES QUÉBÉCOIS PAR TOM LANDRY, CONSEILLER SENIOR LE 20 MAI 2015 WWW.CRIM.CA TECHNOLOGIES: DES DONNÉES JUSQU'À L UTILISATEUR
Plus en détailRetours d expériences et perspectives sur les aspects énergétiques
Retour d expériences Retours d expériences et perspectives sur les aspects énergétiques d un mesocentre (Grenoble) GreenDays@Luxembourg CIMENT, LIG 28-29 Janvier 2013 Bruno Bzeznik Retour d expériences
Plus en détailDéfi Cloud Computing
EQUIPE RICM 2010 Défi Cloud Computing Dossier de remarques Ricom c est l @base 04/12/2009 Sommaire Introduction... 3 Les applications et la plateforme Cloud Computing... 4 Cloud Computing - RICM-2010 Page
Plus en détailEtude d architecture de consolidation et virtualisation
BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.
Plus en détailLIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux
Livret d information des utilisateurs des ressources GENCI dans les centres nationaux Avril 2015 1 Sommaire 1 Présentation du livret... 3 1.1 Services aux utilisateurs... 3 1.2 Services internes... 3 2
Plus en détailSafeKit. Sommaire. Un livre blanc de Bull Evidian
Un livre blanc de Bull Evidian SafeKit Une solution de haute disponibilité logicielle packageable avec n'importe quelle application Windows ou Unix Par Bruno Rochat Sommaire Novembre 2005 Haute disponibilité
Plus en détailGrid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau
: Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau Nicolas Niclausse - INRIA Sophia Antipolis Méditerranée - projet Aladdin Grid 5000 2 juillet
Plus en détailComment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet
Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,
Plus en détailDynamique des protéines, simulation moléculaire et physique statistique
Dynamique des protéines, simulation moléculaire et physique statistique Gerald R. Kneller kneller@llb.saclay.cea.fr, kneller@cnrs-orleans.fr Université d Orléans Laboratoire Léon Brillouin, CEA Saclay
Plus en détailIBM Business Process Manager
IBM Software WebSphere Livre blanc sur le leadership en matière d innovation IBM Business Process Manager Une plateforme de BPM complète, unifiée et facilement adaptable aux projets et aux programmes d
Plus en détail10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service
10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore
Plus en détailProcédure pas à pas de découverte de l offre. Service Cloud Cloudwatt
Procédure pas à pas de découverte de l offre Service Cloud Cloudwatt Manuel Utilisateur 03/07/2014 Cloudwatt - Reproduction et communication sont interdites sans autorisation 1/45 Contenu 1. Introduction...
Plus en détailLe supercalculateur Tera 100 Premier supercalculateur pétaflopique européen
P. Stroppa Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen 25 novembre 2010 CONTACTS PRESSE : CEA / Service Information-Media Marie VANDERMERSCH Tél. : 01 64 50 17 16 - marie.vandermersch@cea.fr
Plus en détailSysFera. Benjamin Depardon
SysFera Passage d applications en SaaS Benjamin Depardon CTO@SysFera SysFera Technologie 2001 Création 2010 Spin Off INRIA Direction par un consortium d investisseurs 12 personnes 75% en R&D Implantation
Plus en détailIntroduction au maillage pour le calcul scientifique
Introduction au maillage pour le calcul scientifique CEA DAM Île-de-France, Bruyères-le-Châtel franck.ledoux@cea.fr Présentation adaptée du tutorial de Steve Owen, Sandia National Laboratories, Albuquerque,
Plus en détailLogiciel Libre Cours 3 Fondements: Génie Logiciel
Logiciel Libre Cours 3 Fondements: Génie Logiciel Stefano Zacchiroli zack@pps.univ-paris-diderot.fr Laboratoire PPS, Université Paris Diderot 2013 2014 URL http://upsilon.cc/zack/teaching/1314/freesoftware/
Plus en détailFORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc)
87 FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc) Dans le cadre de la réforme pédagogique et de l intérêt que porte le Ministère de l Éducation
Plus en détailWEA Un Gérant d'objets Persistants pour des environnements distribués
Thèse de Doctorat de l'université P & M Curie WEA Un Gérant d'objets Persistants pour des environnements distribués Didier Donsez Université Pierre et Marie Curie Paris VI Laboratoire de Méthodologie et
Plus en détailSystèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. Slimane.bah@emi.ac.ma
Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24.2 1 Semestre 4 : Fev. 2015 Grid : exemple SETI@home 2 Semestre 4 : Fev. 2015 Grid : exemple SETI@home
Plus en détailpythonocc: une plateforme de développement agile d applications CAO.
pythonocc: une plateforme de développement agile d applications CAO. PyConFR 2009 Cité des Sciences et de l Industrie, Paris Thomas Paviot*, Jelle Feringa* *pythonocc project: tpaviot@gmail.com; jelleferinga@gmail.com
Plus en détailÉléments d'architecture des ordinateurs
Chapitre 1 Éléments d'architecture des ordinateurs Machines take me by surprise with great frequency. Alan Turing 1.1 Le Hardware Avant d'attaquer la programmation, il est bon d'avoir quelques connaissances
Plus en détailLa continuité de service
La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici
Plus en détailLa pratique de la gestion des services. Lier les composants techniques avec les services d opérations dans la CMDB
La pratique de la gestion des services Lier les composants techniques avec les services d opérations dans la CMDB Création : octobre 2013 Mise à jour : octobre 2013 A propos A propos du document Ce document
Plus en détailModerniser. le système d information et le portefeuille applicatif. www.bull.com
Moderniser le système d information et le portefeuille applicatif L évolution technologique des plates-formes, l ouverture du système d information et la modernisation du portefeuille applicatif sont des
Plus en détailServeur de sauvegarde à moindre coût
1/28 Serveur de sauvegarde à moindre coût Yann MORÈRE LASC http://www.lasc.univ-metz.fr/ I. Cahier des charges II. Solution III. Présentation des outils utilisés IV. Mise en œuvre 2/28 Cahier des charges
Plus en détail