Mise en œuvre de LAMMPS sur le mésocentre de calcul de la région Centre CCSC (action du projet CaSciModOT)

Dimension: px
Commencer à balayer dès la page:

Download "Mise en œuvre de LAMMPS sur le mésocentre de calcul de la région Centre CCSC (action du projet CaSciModOT)"

Transcription

1 Mise en œuvre de LAMMPS sur le mésocentre de calcul de la région Centre CCSC (action du projet CaSciModOT) Un exemple d utilisation pratique : la simulation numérique de vortex supraconducteurs Nicolas di Scala Février 2013 Nicolas di Scala 1

2 Table des matières 1) Présentation et fonctionnement d un mésocentre ) Le calcul parallèle ) Architecture d un mésocentre : le cas particulier du CCSC ) Architecture à mémoire partagée ) Architecture à mémoire distribuée ) Architecture à mémoire mixte et/ou hybride ) Logiciels scientifiques ) Bibliothèques scientifiques générales ) Logiciels scientifiques pour la recherche ) Logiciel LAMMPS : un exemple d utilisation pour la simulation numérique de vortex supraconducteurs ) Logiciel scientifique LAMMPS : comment le lancer sur le cluster? ) Exemples pratiques d utilisation de LAMMPS ) Benchmarking ) Grandeurs physiques ) Perspectives ) Annexes ) Proportions d utilisation du cluster CCSC ) Chiffrage de divers temps liés aux simulations Nicolas di Scala 2

3 Le calcul haute performance (abrégé HPC) pour la modélisation et la simulation numérique devient un enjeu important dans divers secteurs : scientifique, sociétal ou encore économique et financier. En effet, le calcul intensif est aujourd hui indispensable dans de très nombreux domaines académiques et industriels : les prévisions météorologiques, l évaluation des risques naturels, la conception de matériaux innovants, la prospection pétrolière, l évaluation de produits financiers complexes etc Afin de mettre en œuvre les moyens nécessaires à ces réalisations, les besoins en puissance de calcul sont de plus en plus élevés, et de nouvelles problématiques apparaissent (la gestion des contraintes énergétiques sur les architectures, l adaptation des applications de calcul scientifique aux nouvelles architectures massivement parallèles, l exploitation des énormes volumes de données générées etc ) 1) Présentation et fonctionnement d un mésocentre Un mésocentre est un centre de calcul HPC qui regroupe un ensemble de ressources matérielles et logicielles et de moyens humains. Elle est destinée à fournir un environnement scientifique et technique propice au calcul haute performance. D un point de vue plus administratif, c est une structure pilotée par un comité scientifique. Les centres nationaux de calcul, tels que l IDRIS [1] (Institut du Développement et des Ressources en Informatique Scientifique), le TGCC [2] (Très Grand Centre de Calcul du CEA) ou encore le CINES [3] (Centre Informatique National de l Enseignement Supérieur) possèdent une puissance de calcul de plus en plus importante. Cependant l accès à ces centres nationaux manque encore de souplesse. Il est alors utile de hiérarchiser les moyens de calcul mis à disposition des chercheurs : une structure pyramidale (cf. Figure 1) est établie en fonction de la puissance des moyens disponibles et de leur couverture (locale, régionale, nationale ou européenne). Figure 1 : Pyramide des différents niveaux de puissance de calcul du projet européen PRACE (Partnership for Advanced Computing in Europe). Nicolas di Scala 3

4 Le mésocentre est le plus souvent localisé au niveau régional, comme le montre la Figure 2. L intérêt d un mésocentre réside donc dans ses fonctions principales que sont l augmentation de la puissance de calcul disponible au niveau régional, la simplification de l accès aux ressources numériques ou encore la mutualisation des coûts (par exemple logiciels avec le prix des licences, matériels avec les machines et les fluides réfrigérants, ou humains pour la gestion du centre de calcul). Il permet également de fédérer les communautés utilisant le calcul HPC au niveau local et représentant un premier pas vers l accès aux ressources disponibles au niveau des centres nationaux. La proximité générée par un mésocentre offre de grands avantages. En effet, l interaction entre les utilisateurs et les personnels techniques chargés de l exploitation des machines de calcul permet de répondre au mieux aux besoins des chercheurs. Figure 2 : Carte de France des mésocentres d après le rapport annuel sur les structures de type mésocentre en France [4], provenant du Comité de Coordination des Mésocentres (2012) 1.1) Le calcul parallèle Par le passé le domaine des sciences a joui de l interaction mutuelle entre d une part la théorie, où l on modélise le système par des équations mathématiques, et d autre part l expérimentation permettant d effectuer des mesures et de confirmer/infirmer la validité du modèle théorique. Cependant avec l arrivée des ordinateurs depuis la seconde moitié du 20 ème siècle, un nouveau moyen d étudier les systèmes complexes est apparu : la simulation numérique. Les simulations sont à mi-chemin entre le modèle théorique, qu elles peuvent valider ou invalider suivant les résultats simulés, et l expérience dont elles peuvent se rapprocher en introduisant des valeurs numériques réalistes au sein du modèle testé. Les simulations numériques forment donc un pont étroit entre l expérimentation et la théorie. Nicolas di Scala 4

5 L objectif du calcul parallèle est de permettre une exécution plus rapide d un programme en distribuant le travail sur plusieurs processeurs et/ou cœurs (via l exécution simultanée de séquences d instructions indépendantes sur des processeurs différents, cf. Figure 3). Ainsi, en utilisant plus de ressources matérielles, notamment la mémoire, le calcul parallèle permet l exécution de problème «plus gros» qu en séquentiel. Figure 3 : Représentation schématique d un calcul parallèle. Les avancées effectuées ces dernières années dans les modèles numériques poussent la simulation vers de nouvelles frontières. Simuler des problèmes de taille réduite ne suffit plus pour valider des modèles. Beaucoup de problématiques sont multi-échelles (des petites échelles de la matière jusqu à des systèmes de très grandes dimensions), et les capacités de calcul nécessaires pour les résoudre deviennent considérables. Les algorithmes et les méthodes de résolution développées pour le calcul séquentiel (sur un seul processeur) ne suffisent plus. Le recours au calcul parallèle et intensif est alors incontournable pour y répondre. 1.2) Architecture d un mésocentre : le cas particulier du CCSC Rappelons tout d abord que la «machine» permettant d effectuer les calculs au sein d un mésocentre est communément appelée grappe de serveurs ou bien ferme de calcul, on parle aussi de cluster de calcul. C est un regroupement d ordinateurs indépendants (appelés alors nœuds), permettant ainsi de dépasser les limitations d un ordinateur en terme de puissance de calcul. A travers un cluster, l utilisateur dispose de plusieurs serveurs formant une seule entité (cf. Figure 4). Figure 4 : Schéma d un cluster de calcul avec le nœud frontal et les nœuds de calcul reliés par un réseau d interconnexion. Nicolas di Scala 5

6 Un cluster est constitué de plusieurs nœuds : des nœuds frontaux, de nœuds de calcul et de nœuds de stockage. Le cluster est isolé de l extérieur à travers un firewall. Les utilisateurs se connectent au cluster par l'intermédiaire de ce noeud frontal (c est la machine d entrée sur le réseau, appelée aussi serveur maître). Tous les outils pour créer des programmes y sont généralement installés (compilateurs, débuggers, bibliothèques, etc... ). La machine frontale se verra alors attribuer la charge de diviser les tâches à travers tous les noeuds de calcul adaptés, au moment ou ils seront disponibles, en prenant garde bien sur à ne pas surcharger la machine réceptrice. Il n existe pas d architecture matérielle unique pour ces clusters. Effectivement, chaque constructeur (Bull, IBM, etc ) possède une architecture qui lui est propre de par le choix de ses constituants matériels. Les différentes architectures de calculateurs parallèles se distinguent selon l organisation de la mémoire : architecture à mémoire partagée, distribuée, mixte, ou encore hybride (avec l utilisation de GPU). Sans rentrer trop dans le sujet, qui dépasse le cadre de cette présentation, nous allons rappeler brièvement les caractéristiques de ces différentes architectures ) Architecture à mémoire partagée Il faut noter que l architecture à mémoire partagée possède un espace mémoire global visible par tous les processeurs (cf. Figure 5). Les performances décroissent relativement vite avec le nombre de processeurs utilisés pour une application à cause du trafic sur le chemin d accès des données en mémoire (il apparaît un goulot d étranglement), de plus ce type d architecture est préféré lorsque le nombre de processeurs est faible (la machine devient coûteuse quand le nombre de cœurs devient grand). Figure 5 : Schéma d'une architecture parallèle à mémoire partagée (tiré de [5]) 1.2.2) Architecture à mémoire distribuée A l inverse, dans l architecture à mémoire distribuée un espace mémoire est associé à chaque processeur (cf. Figure 6). Les processeurs sont connectés entre eux à travers un réseau d interconnexion. L accès à la mémoire du processeur voisin doit se faire explicitement par échange de messages à travers le réseau. Afin d optimiser les transferts de données au sein des clusters, une interface a été développée afin qu il existe une implantation commune pour les différents constructeurs : il s agit de l interface MPI. Nicolas di Scala 6

7 Cette norme MPI, pour Message Passing Interface, dédiée au calcul parallèle et permettant d optimiser le temps processeur utilisé lors des transferts de données sur le réseau, est devenue un standard de communication pour des noeuds exécutant des programmes parallèles sur des systèmes à mémoire distribuée. Le réseau d interconnexion est très important sur ces architectures puisqu il détermine la vitesse d accès aux données d un processeur voisin (via sa latence, sa bande passante et sa topologie). Les performances sont ainsi dépendantes de la qualité du réseau. Figure 6 : Schéma d'une architecture parallèle à mémoire distribuée (tiré de [5]) L échange de données entre les processeurs doit être gérée par le programmeur, un effort de développement est alors nécessaire pour utiliser ce type d architecture. En revanche, elle possède l avantage de permettre d obtenir facilement des machines avec un grand nombre de processeurs, et pour un coût réduit par rapport à l architecture à mémoire partagée. De plus, l évolution de ces clusters est facilitée puisque cette architecture permet l ajout de nouveaux matériels de puissance et de génération différentes ) Architecture à mémoire mixte et/ou hybride La plupart des calculateurs actuels, dont le CCSC [6], combinent mémoire partagée et de mémoire distribuée. Les nœuds de calcul sont constitués de machines à mémoire partagée, reliées entre elles par un réseau d interconnexion. Il est intéressant de noter que de plus en plus souvent les clusters présentent un croisement hybride entre des nœuds avec les habituels CPU et des nœuds avec des cartes accélératrices graphiques GPU (cf. Figure 7). Figure 7 : Photographie d une carte accélératrice graphique GPU Nvidia Tesla. Nicolas di Scala 7

8 A titre de remarque, nous soulignons le fait que nous ne parlons pas ici des différents modèles de programmation parallèle, ce qui dépasserait largement le cadre de cette présentation. Pour plus d informations sur la programmation multithreading (dont l interface de programmation est l API OpenMP), l échange de messages (avec l API MPI) ou encore la programmation hybride (avec CUDA qui est propriétaire de la société Nvidia, ou avec l OpenCL qui est un standard ouvert de plus en plus présent sur le marché), nous conseillons au lecteur de se référer à la littérature sur le sujet. De nombreux cours sont disponibles, que ces derniers soient numériques ou papier (citons par exemple [7, 8, 9]). 2) Logiciels scientifiques Dans cette section nous allons présenter diverses applications scientifiques pour le calcul parallèle, utilisées couramment dans le milieu de la recherche. Afin de pouvoir s exécuter correctement, bon nombre d entre elles utilisent des opérations numériques «classiques», telles que par exemple la résolution de systèmes linéaires, le calcul de valeurs propres ou encore la transformée de Fourier rapide (FFT). Pour appliquer ces opérations en leur sein, les applications nécessitent la présence de libraires scientifiques spécifiques installées sur le cluster. 2.1) Bibliothèques scientifiques générales Les bibliothèques scientifiques sont des ensembles de sous-programmes testés, validés, optimisés. Utiliser des librairies scientifiques permet ainsi de se consacrer uniquement aux nouveaux développements, et de ne pas avoir à réécrire à chaque fois ces fonctions standardisées (cela permet de gagner un temps précieux). Ces libraires possèdent en outre plusieurs qualités très intéressantes. En effet, elles sont généralement portables puisqu elles sont indépendantes de l architecture des machines, elles peuvent supporter différents types de données (réel ou complexe, précision simple ou double) etc Avec l avènement des architectures de calcul parallèle, la communauté a fait évoluer les bibliothèques «classiques» en bibliothèques parallèles. Attention cependant aux librairies parallèles développées par les constructeurs, ces dernières ne sont pas portables étant donné qu elles dépendent de l architecture : c est typiquement le cas avec les transformées de Fourier rapides. Nous présentons ci-dessous, une liste non exhaustive de bibliothèques scientifiques connues et reconnues, version séquentielles et version parallèles. Pour ce qui est de l algèbre linéaire (regroupant différentes opérations vectorielles ou matricielles), nous pouvons citer : BLAS (Basic Linear Algebra Subprograms) pour la version séquentielle, PBLAS (Parallel Basic Linear Algebra Subprograms) la même libraire en version parallèle, LAPACK (Linear Algebra PACKage) pour la version séquentielle, ScaLAPACK (Scalable LAPACK) la même libraire en version parallèle. Nicolas di Scala 8

9 Quant à la transformée de Fourier rapide (décomposition d une fonction en fonctions oscillatoires) citons entre autres: FFTW (Fastest Fourier Transform in the West) version parallèle, MKL (Math Kernel Library) version parallèle. Il existe d autres libraires présentant des fonctionnalités plus généralistes et fournissant plusieurs outils de calcul numérique en mathématiques appliquées. C est le cas par exemple de GNU Scientific Library (GSL), ESSL (Engineering and Scientific Subroutine Library), PESSL (Parallel Engineering and Scientific Subroutine Library), ou bien SciPy (libraire pour le langage Python). On note que la majorité des bibliothèques citées précédemment sont écrites en Fortran ou en C. Il est souvent plus aisé d appeler une libraire Fortran à partir du C, plutôt que l inverse (à moins que la libraire ait été écrite de telle sorte qu elle puisse être appelée à partir du Fortran). 2.2) Logiciels scientifiques pour la recherche Nous allons maintenant présenter quelques logiciels développés pour la recherche scientifique dans divers domaines. Certains d entre eux sont commerciaux (et donc payants), alors que d autres sont gratuits et/ou open source (i.e. le code source est accessible). L utilisation de ces applications est très utile puisqu elle permet aux chercheurs d avoir une base à partir de laquelle ils vont pouvoir effectuer leur travail de recherche. En choisissant le bon logiciel adapté à leur problématique, ils peuvent gagner un temps considérable en utilisant des packages déjà développés et les modifier à leur guise (dans le cas d un logiciel open source). Notre but n est pas de lister tous les logiciels présents sur le marché, mais de montrer qu il existe un large choix accessible aux chercheurs, et ce quelque soit leur domaine d expertise (nous mettons en référence une liste des différentes applications possibles dans chaque secteur). Dans le domaine des prévisions météorologiques, il existe le modèle Weather Research and Forecasting Data Assimilation System (WRFDA) permettant de modéliser le temps sur des échelles allant de quelques kilomètres à des milliers de kilomètres comme le montre la Figure 8. Figure 8 : Exemple de prévision météorologique obtenue par le modèle WRF [10]. Nicolas di Scala 9

10 Dans le domaine de la bioinformatique [11], citons EMBOSS (European Molecular Biology Open Software Suite) qui contient une grande quantité de microprogrammes pour le séquençage, l identification des protéines (cf. Figure 9) etc, ou BLAST (Basic Local Alignment Search Tool) qui permet de trouver des régions similaires entre plusieurs séquences de nucléotides ou d acides aminés. Figure 9 : Exemple de repliement de protéines obtenu par la bioinformatique [12]. Dans le domaine de la mécanique des fluides, ANSYS Fluent permet de simuler une grande quantité de situations à travers différents modèles implémentés en son sein (turbulence, écoulement en milieux poreux, combustion etc ), comme le montre la Figure 10. Figure 10 : Champ de vecteurs vitesse obtenue via le logiciel Fluent dans le cadre de la simulation d une tornade [13]. Dans le domaine des mathématiques il existe un très large panel de logiciels [14] (pour le calcul formel, l analyse numérique, l analyse de données ou encore l analyse statistique). Citons quelque uns parmi les plus connus : Maple, Mathematica, Matlab, Scilab, R, etc Dans le domaine de la mécanique moléculaire [15] (dynamique moléculaire, Monte Carlo, mécanique quantique, etc ) on utilise la mécanique Newtonienne pour modéliser les systèmes moléculaires, et là aussi le choix ne manque pas. Il existe par exemple le logiciel AMBER (Assisted Model Building with Energy Refinement), CHARMM (Chemistry at HARvard Macromolecular Mechanics), GROMACS (GROningen MAchine for Chemical Simulations) ou bien LAMMPS (Large-scale Atomic/Molecular Massively Parallel Simulator) comme le montre la Figure 11. Figure 11 : Image issue d une simulation de dynamique dissipative de particules [16]. Nicolas di Scala 10

11 3) Logiciel LAMMPS : un exemple d utilisation pour la simulation numérique de vortex supraconducteurs Dans ce chapitre nous discuterons dans un premier temps de l accès à LAMMPS sur le cluster CCSC, puis nous aborderons des exemples pratiques d utilisation de LAMMPS appliqué à la simulation numérique de vortex supraconducteurs. 3.1) Logiciel scientifique LAMMPS : comment le lancer sur le cluster? LAMMPS, acronyme pour Large-scale Atomic/Molecular Massively Parallel Simulator [17, 18], est un logiciel open source sous les termes GNU Public License (GPL), distribué par Sandia National Laboratories, un laboratoire national de recherche dépendant du Département de l Energie des Etats-Unis. Ce logiciel utilise un code de dynamique moléculaire classique (i.e. mécanique non quantique) qui permet à l utilisateur de modéliser des systèmes en phase gazeuse, liquide ou solide. Il a été développé pour être optimal sur des architectures parallèles avec un très grand nombre de processeurs. Différents potentiels physiques y sont déjà implémentés, allant par exemple de la matière molle (polymères, biomolécules) à la matière condensée (métaux, semi-conducteurs). LAMMPS peut être utilisé pour modéliser des atomes, ou de façon plus générique pour simuler des systèmes de particules à différentes échelles (échelle atomique, échelle mésoscopique ou échelle du continu), comme le montre la Figure 12. Figure 12 : Images issues de simulations obtenues grâce à LAMMPS [19]. A gauche environ 1 million de particules ont été simulées, et à droite 3.6 millions. Ce code a été écrit initialement en Fortran F77 puis F90, il est maintenant développé en C++. Il peut être facilement modifié par l utilisateur (pour y ajouter de nouveaux potentiels par exemple, ou bien de nouvelles fonctionnalités ou microprogrammes). Il est portable et peut être lancé sur des machines utilisant un système d exploitation du type Linux, Unix, Mac OS ou Windows. Afin de pouvoir l utiliser sur le cluster CCSC, il est nécessaire de posséder de bonnes connaissances des systèmes HPC sous Linux. Nicolas di Scala 11

12 Afin de se connecter au cluster, il faut ouvrir une connexion sécurisée SSH (Secure Shell) depuis un terminal du type Unix. Pour les utilisateurs de Windows, il existe un logiciel, nommé PuTTY, permettant d émuler un terminal, la Figure 13 représente le terminal avec son invité de commande en vert. Pour plus d informations sur l utilisation de PuTTY, nous conseillons au lecteur la lecture de la très bonne documentation [20] (très exhaustive sur le sujet). Figure 13 : Image présentant un terminal PuTTY avant connexion au serveur frontal du cluster CCSC. Le lancement d'une simulation se fait à travers un script d'entrée qui permet de définir les différents paramètres qui vont être utilisés au sein la simulation (système d'unités, dimension et taille de la cellule de simulation, pas de temps, conditions initiales en ce qui concerne la position et la vitesse, potentiels et forces à appliquer etc...), mais qui permet aussi de définir les quantités qui devront être sorties à différents moments de la simulation (positions et vitesses des particules, énergies etc...), comme le montre la Figure 14. Figure 14 : Exemple de script simple pour lancer une simulation de vortex à 2D. Nicolas di Scala 12

13 Ce script doit être envoyé au serveur frontal afin de pouvoir y être exécuté par la suite. Il faut y adjoindre un fichier de soumission qui permettra de lancer le job sur la machine de calcul à travers le logiciel Sun Grid Engine (produit par la société Sun Microsystems) en utilisant la commande qsub. Ce logiciel est un système de gestion des tâches de calcul pour une machine multiprocesseur, et en particulier s occupe de la gestion des jobs sur le cluster CCSC. La structure du fichier de soumission est la suivante (toutes les lignes commençant par #$ contiennent des options passées automatiquement à la commande qsub) : #!/bin/bash <-> en-tête du script Bash #$ -cwd <-> travailler dans répertoire courant #$ -pe ompi N <-> environnement OpenMPI de N processus #$ -N toto_title <-> attribuer un nom au job mpirun./toto <-> exécuter le programme toto par MPI 3.2) Exemples pratiques d utilisation de LAMMPS Nous ne tentons pas de lister ici toutes les réalisations possibles grâce à LAMMPS, le manuel disponible sur le site du logiciel étant très bien fourni à ce sujet [21]. Nous allons au contraire présenter brièvement quelques utilisations possibles de LAMMPS en l appliquant à la simulation de vortex supraconducteurs. Pour plus d informations concernant la physique de cette problématique, les résultats obtenus dans le détails et leur description, veuillez vous référer aux publications dans des revues internationales/nationales à comité de lecture [22, 23, 24, 25] ou bien la thèse de Doctorat [26] ) Benchmarking La commande «thermo», disponible dans LAMMPS, permet de contrôler à différents pas de temps de la simulation plusieurs quantités thermodynamiques telles que par exemple la pression, la température ou encore l énergie (cinétique, potentielle, de paire etc ). Nous pouvons ainsi déterminer l évolution de l énergie du système et voir s il existe une conservation de cette énergie (entre l énergie cinétique et l énergie potentielle), comme le montre la Figure 15. Figure 15 : Evolution de l énergie cinétique (rouge) et de l énergie potentielle (bleue) du système de vortex en fonction du temps. Nicolas di Scala 13

14 Bien d autres quantités peuvent être tirées de cette commande thermo (que l on peut adapter à nos simulations). A titre d exemple, nous pouvons mesurer le temps CPU d exécution (en secondes) d une simulation en fonction du nombre de processeurs utilisés, comme le montre la Figure 16. Figure 16 : Temps CPU d exécution (en secondes) d une simulation en fonction du nombre de processeurs alloués. Différentes tailles de systèmes sont représentées. Une autre quantité utile pour faire du benchmarking est la quantité de mémoire requise par processeur pour chaque simulation, et ce en fonction du nombre de processeurs attribué à la simulation. Figure 17 : Quantité de mémoire requise (en MBytes/cœur) en fonction du nombre de processeurs alloués. Différentes tailles de systèmes sont représentées. A partir de ces grandeurs, nous sommes capables d effectuer une première mesure et de caractériser l efficacité du parallélisme en ce qui concerne notre simulation. Pour ce faire il suffit de définir l accélération A(P)= T1/TP et l efficacité E(P)=A(P)/P, avec P le nombre de cœurs sur lesquels le programme est exécuté et TP le temps d exécution pour P processeurs. C est ce que représentent respectivement les Figures 18 et 19 (la ligne pointillée représente le cas théorique idéal) Figure 18 : Accélération A(P) pour différentes tailles de systèmes. Figure 19 : Efficacité E(P) pour différentes tailles de systèmes. Nicolas di Scala 14

15 Il est aussi possible de déterminer la proportion de temps utilisé par le CPU pour le calcul des forces, le calcul entre voisins, la communication MPI ou d autres quantités, grâce à la commande thermo. Cela permet également d optimiser le nombre de processeurs à choisir pour rendre la parallélisation de la simulation la plus efficace possible. Les Figures 20 et 21 représentent ces proportions pour deux tailles de systèmes contenant chacun 270 et 8000 vortex. Figure 20 : Pourcentage du temps d exécution pour un système de 270 vortex. Figure 21 : Pourcentage du temps d exécution pour un système de 8000 vortex ) Grandeurs physiques La commande «dump» permet de mesurer des quantités intrinsèques liées aux particules simulées, à chaque pas de temps de la simulation. Cela peut concerner par exemple leur position dans l espace (x, y, z), leur vitesse instantanée (Vx, Vy, Vz) etc A partir de la position des vortex à chaque pas de temps, nous pouvons obtenir la trajectoire de ces derniers et visualiser la dynamique du système, comme le montre la Figure 22. Figure 22 : Trajectoire des vortex (rouge) et position instantanée (bleue) dans le plan XY. Nicolas di Scala 15

16 A partir de la position des vortex à chaque pas de temps, nous pouvons déterminer le facteur de structure S(k) du système (S(k) n est pas disponible directement dans LAMMPS et nécessite un code de calcul en posttraitement), comme le montre la Figure 23. Figure 23 : Facteur de structure S(k) dans le plan XY, obtenu à partir de la position des vortex. A partir de la vitesse instantanée des vortex à chaque pas de temps, nous pouvons déterminer le champ de vitesse instantanée, comme le montre la Figure 24 (cette image a été obtenue à partir d un logiciel gratuit de visualisation, nommé ParaView). Figure 24 : Champ de vitesse instantanée pour un système de 1920 vortex (les flèches représentent les vecteurs vitesse instantanée et la couleur indique la norme de ces vecteurs). Une autre commande, utile dans le domaine de la matière condensée, est donnée par «rdf». Cette dernière permet de calculer la fonction de distribution radiale g(r) (donnant l évolution de la densité en fonction de la distance r par rapport à une particule de référence), comme le montre la Figure 25. Figure 25 : Fonction de distribution radiale g(r) pour un système de vortex supraconducteur à 2D. Il existe bien d autres commandes permettant de mesurer ou caractériser des grandeurs physiques. Chaque commande étant spécifique à une, ou plusieurs, propriété(s) physiques, nous conseillons au lecteur intéressé par l utilisation de LAMMPS de se référer au manuel fourni par les développeurs [21]. Nicolas di Scala 16

17 4) Perspectives Un objectif, ambitieux, mais néanmoins nécessaire pour améliorer les résultats obtenus dans les simulations réalisées ci-dessus, serait d utiliser la puissance des processeurs graphiques GPU pour faire tourner les codes de calcul parallèle. Actuellement, les simulations numériques employées précédemment pour les réseaux de vortex ont été développées en utilisant l outil de calcul haute performance HPC LAMMPS version C++ que j ai pu exécuter sur des processeurs CPU du mésocentre de calcul de la région Centre CCSC. Bien qu ayant permis de gagner presque 2 ordres de grandeurs (x100) en ce qui concerne la quantité de vortex intégrés au sein de la cellule de simulation, cette technique commence à atteindre ses limites lorsque le système de vortex devient trop «grand» (chose nécessaire lorsque le piégeage est faible, à cause de la longueur de corrélation des domaines de vortex qui croît à l approche de la transition de dépiégeage), ou la force appliquée est trop faible (F<<Fc). Figure 26 : Photographie d un processeur multicoeurs CPU (à gauche) et d un processeur graphique GPU (à droite). L utilisation de processeurs graphiques GPU au lieu de processeurs «traditionnels» CPU permet d'avoir des résultats plus rapides en exploitant les capacités de calcul des GPU. Le calcul des forces est alors porté sur les GPU, qui sont beaucoup plus performants que les CPU multicœurs de par leur très grande quantité de coeurs, et le processeur peut ainsi s'occuper du reste du code sans être surchargé par ce calcul des forces. En effet comme le montre la Figure 27, le CPU est optimisé pour exécuter rapidement une série de tâches de tout type, alors que le GPU est optimisé quant à lui pour exécuter des opérations simples sur de très gros volumes de données. On voit bien que beaucoup plus de transistors sont dédiés au calcul sur le GPU (ce sont les UAL, Unité Arithmétique et Logique, qui effectuent les opérations de base) qu aux unités de contrôle (chargées du séquençage des opérations). Nicolas di Scala 17

18 Figure 27 : Comparaison de l architecture CPU et GPU (représentation schématique). Les logiciels pouvant tourner sur des GPU utilisent généralement soit la technologie CUDA, format propriétaire et fonctionnant sur des cartes GPU de chez Nvidia, soit l OpenCL, un format ouvert de plus en plus utilisé (pouvant fonctionner sur des GPU Nvidia ou ATI par exemple). Une liste de logiciels scientifiques pouvant tourner sur les GPU Nvidia est donnée en [27]. Pour ce qui est de LAMMPS, il peut être accéléré par des configurations multi-gpu. La version CUDA de LAMMPS permet d obtenir des résultats beaucoup plus rapides, comme le montre la Figure 28. Figure 28 : Résultats comparés d une simulation obtenue avec 24 CPUs vs 2 GPUs (image issue de [28]). Nicolas di Scala 18

19 Il est bon de noter que les GPU sont moins gourmands électriquement que les CPU, ils sont moins cher et prennent également moins de place que ces derniers. Cependant, de nouvelles avancées tentent de contrebalancer l utilisation de plus en plus massive des GPU dans le calcul haute performance : les processeurs manycores (Knights Corner d Intel possédant plus de 50 cœurs) ou bien les processeurs hybrides CPU + GPU (Fusion chez AMD ou SandyBridge chez Intel). Remarque : J ai essayé de créer une station de travail à mon domicile (i.e. un mini supercalculateur personnel) à partir de cartes graphiques Nvidia : ne serait-ce qu en utilisant une solution d accélération GPU Nvidia Tesla par exemple, nous pouvons obtenir de notre ordinateur de bureau des performances de calcul à la hauteur d un cluster dédié. Pour ce faire, je me suis initié à l architecture de calcul parallèle Nvidia CUDA (sous Linux et Windows). Outre la difficulté intrinsèque aux bibliothèques (les installer, les référencer correctement etc ), il n est pas aisé de porter le code de calcul sur le(s) GPU(s) : il existe des problèmes de portabilité. De plus, il peut arriver que le fait de porter le programme sur des GPU entraîne une augmentation du temps de simulation. Il faut s assurer que le nombre de particules simulé soit suffisamment grand pour que le logiciel ne passe pas plus de temps à envoyer les informations entre les cœurs plutôt qu à calculer les quantités physiques demandées. Ce nombre est difficilement prévisible à l avance, il dépend du système physique, des interactions (forces) calculées, de l architecture matérielle etc... Il est donc très intéressant d essayer d utiliser les GPU à la place des CPU, cependant cela demande du temps et de l investissement. Nicolas di Scala 19

20 5) Annexes 5.1) Proportions d utilisation du cluster CCSC J ai effectué mes activités de recherche sur les simulations numériques de réseaux de vortex supraconducteurs au sein du laboratoire LEMA UMR CNRS-CEA 6157, qui est devenu par la suite le laboratoire GREMAN UMR 7347 CNRS-CEA-ENIVL au cours de mon doctorat. Le rapport d activités du Centre de Calcul Scientifique en Région Centre (CCSC) fourni des informations quant à la proportion d utilisation du cluster de calcul par laboratoire et/ou projets dans la région Centre (typiquement entre les universités d Orléans et de Tours). Figure A-1 : Utilisation cumulée du cluster CCSC par laboratoire, d octobre 2010 à novembre La zone hachurée correspond à l utilisation du laboratoire LEMA dans lequel j ai effectué mes simulations numériques (j étais le seul à utiliser le cluster dans ce laboratoire). Comme on peut le voir sur la Figure A-1, et sachant que j étais le seul à utiliser le cluster au sein du laboratoire LEMA (tout du moins sur la période représentée), on se rend compte que mes simulations numériques ont pleinement profité des capacités de calcul de la machine du CCSC. Nicolas di Scala 20

21 5.2) Chiffrage de divers temps liés aux simulations Dans cette annexe je vais donner un chiffrage du nombre d heures passées à préparer les scripts, compiler, exécuter les simulations et enfin récupérer/traiter les données. Ces informations donnent une estimation sommaire du volume horaire utilisé à effectuer les simulations numériques présentées dans le document. o Préparation des scripts, compilation : ~ 350 h o Exécution des simulations sur le cluster : ~ 3000 h o Récupération, traitement des données : ~ 2000 h 37% 7% 56% Préparations Exécutions Traitements Remarque : Pour ce qui est du traitement des simulations par le GPU (travail personnel en dehors de mes activités professionnelles), j ai estimé le temps passé à environ 70 heures (installation du cluster, des librairies, de CUDA, tests de portabilité et de benchmarking etc ). Nicolas di Scala 21

22 Bibliographie [1] Site web de l IDRIS : [2] Site web du TGCC : [3] Site web du CINES : [4] Rapport accessible ici : [5] Site web de Wikipédia : [6] Site web décrivant l architecture du cluster CCSC : [7] Formations du «Groupe Calcul» : [8] «Calcul scientifique parallèle - Cours, exemples avec OpenMP et MPI, exercices corrigés» de Frédéric Magoulès et François-Xavier Roux [9] «CUDA par l'exemple - Une introduction à la programmation parallèle de GPU» de Jason Sanders, Edward Kanbrot [10] Site web de l image : [11] Liste de logiciels utilisés en Bioinformatique : [12] Site web de l image : [13] Adresse de l image : [14] Liste de logiciels utilisés en analyse numérique, calcul formel : [15] Liste de logiciels utilisés en mécanique moléculaire: [16] Site web de l image : [17] Site web de LAMMPS : [18] «Fast Parallel Algorithms for Short-Range Molecular Dynamics» de S. Plimpton, J. Comput. Phys., 117:1 (1995) [19] [20] Documentation de PuTTY: [21] Liste des commandes déjà disponibles dans LAMMPS : [22] «Critical behavior of plastic depinning of vortex lattices in two dimensions: Molecular dynamics simulations» de Y. Fily, E. Olive, N. Di Scala and J. C. Soret, Phys. Rev. B, (2010), 7 pages [23] «Transition de dépiégeage élastique de vortex supraconducteurs» de E. Olive, N. Di Scala, Y. Lansac, Y. Fily and J. C. Soret, ESAIM: Proceedings, Vol. 35, p , 7 pages. Proceedings of Congrès SMAI 2011, 5ème Biennale Française des Mathématiques Appliquées, Guidel (France), Mai 2011 Nicolas di Scala 22

23 [24] «Elastic depinning transition for superconductor vortices» de N. Di Scala, E. Olive, Y. Lansac, Y. Fily and J. C. Soret, J. Phys.: Conf. Series, (2012), 4 pages. Proceedings of the 26th International Conference on Low Temperature Physics LT26, Beijing (China), Août 2011 [25] «Elastic depinning transition of vortex lattices in two dimensions» de N. Di Scala, E. Olive, Y. Lansac, Y. Fily and J. C. Soret, New J. Phys., (2012), 16 pages. [26] Thèse de Doctorat: «Transition de dépiégeage dans les réseaux de vortex supraconducteurs : étude par simulation numérique» de N. Di Scala (2012), 220 pages. Accessible sur le site Thèse en Ligne TEL : [27] Site web de logiciels de calcul par GPU : [28] GPU LAMMPS Nvidia : Nicolas di Scala 23

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire

Plus en détail

Infrastructure de calcul du CRRI

Infrastructure de calcul du CRRI Infrastructure de calcul du CRRI Types d'infrastructures de calcul Calcul Intensif (High Performance Computing) Tâches fortement couplées (codes vectoriels / parallèles) Supercalculateurs, SMP, clusters,

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM 4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés

Plus en détail

ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab

ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab notre compétence d'éditeur à votre service créée en juin 2010, Scilab enterprises propose services et support autour

Plus en détail

Architecture des ordinateurs

Architecture des ordinateurs Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique

Plus en détail

Les mésocentres HPC àportée de clic des utilisateurs industriels

Les mésocentres HPC àportée de clic des utilisateurs industriels Les mésocentres HPC àportée de clic des utilisateurs industriels Université de Reims Champagne-Ardenne (URCA) Centre de Calcul ROMEO Multidisciplinary university more than 22 000 students a wide initial

Plus en détail

Rapport d activité. Mathieu Souchaud Juin 2007

Rapport d activité. Mathieu Souchaud Juin 2007 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix

Plus en détail

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle 1 CEA R & D for Nuclear Energy 5 000 people Nuclear systems

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI , portage de code Promes dans le cadre de l appel à projets CAPS-GENCI PROMES (UPR 8521 CNRS) Université de Perpignan France 29 juin 2011 1 Contexte 2 3 4 Sommaire Contexte 1 Contexte 2 3 4 Laboratoire

Plus en détail

Rencontre sur la thématique du Calcul Haute Performance - 13 juin 2012. Better Match, Faster Innovation

Rencontre sur la thématique du Calcul Haute Performance - 13 juin 2012. Better Match, Faster Innovation Better Match, Faster Innovation Rencontre sur la thématique du Calcul Haute Performance - 13 juin 2012 Meeting on the theme of High Performance Computing TABLE DES MATIÈRES Qu est ce qu un imatch? STI

Plus en détail

T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5

T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5 Modélisation de la performance et optimisation d un algorithme hydrodynamique de type Lagrange-Projection sur processeurs multi-cœurs T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet

Plus en détail

Métriques de performance pour les algorithmes et programmes parallèles

Métriques de performance pour les algorithmes et programmes parallèles Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and

Plus en détail

Rapport de stage Master 2

Rapport de stage Master 2 Rapport de stage Master 2 Informatique Haute Performance et Simulation, 2 ème année Ecole Centrale Paris Accélération des méthodes statistiques sur GPU Auteur : CHAI Anchen. Responsables: Joel Falcou et

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

Les environnements de calcul distribué

Les environnements de calcul distribué 2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation

Plus en détail

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1 Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High

Plus en détail

Éléments de programmation et introduction à Java

Éléments de programmation et introduction à Java Éléments de programmation et introduction à Java Jean-Baptiste Vioix (jean-baptiste.vioix@iut-dijon.u-bourgogne.fr) IUT de Dijon-Auxerre - LE2I http://jb.vioix.free.fr 1-20 Les différents langages informatiques

Plus en détail

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments Recherche Opérationnelle Optimisation combinatoire : Applications et compléments Pierre Delisle Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique 17 février 2014 Plan de

Plus en détail

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin Linux Gazette n 110 Janvier 2005 Majid Hameed Copyright 2005 Majid Hameed Copyright 2005 Gauthier Savart Copyright 2005 Joëlle Cornavin Article paru dans le n 110 de la Gazette Linux de janvier 2005. Traduction

Plus en détail

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Evaluation des performances de programmes parallèles haut niveau à base de squelettes Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,

Plus en détail

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre 2005. Systèmes et Technologies de l Information Projet IGGI Infrastructure pour Grappe, Grille et Intranet CASCIMODOT - Novembre 2005 Fabrice Dupros CONTEXTE > Etablissement Public à caractère Industriel et Commercial (EPIC) Sous la tutelle des Ministères

Plus en détail

Quantification d incertitude et Tendances en HPC

Quantification d incertitude et Tendances en HPC Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification

Plus en détail

Évaluation et implémentation des langages

Évaluation et implémentation des langages Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation

Plus en détail

1 Description générale de VISFIELD

1 Description générale de VISFIELD Guide d utilisation du logiciel VISFIELD Yann FRAIGNEAU LIMSI-CNRS, Bâtiment 508, BP 133 F-91403 Orsay cedex, France 11 décembre 2012 1 Description générale de VISFIELD VISFIELD est un programme écrit

Plus en détail

Les lières. MSc in Electronics and Information Technology Engineering. Ingénieur civil. en informatique. MSc in Architectural Engineering

Les lières. MSc in Electronics and Information Technology Engineering. Ingénieur civil. en informatique. MSc in Architectural Engineering Ingénieur civil Ingénieur civil Les lières MSc in Electronics and Information Technology Engineering MSc in Architectural Engineering MSc in Civil Engineering MSc in Electromechanical Engineering MSc

Plus en détail

Limitations of the Playstation 3 for High Performance Cluster Computing

Limitations of the Playstation 3 for High Performance Cluster Computing Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire

Plus en détail

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. 2013 Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. Table des matières 1 Introduction (Historique / définition)... 3 2 But de la virtualisation... 4 3 Théorie : bases et typologie des solutions techniques...

Plus en détail

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS Journée Utiliateurs 2015 Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS 1 Pôle ID, Grid'5000 Ciment Une proximité des platesformes Autres sites G5K Grenoble + CIMENT Pôle ID = «Digitalis»

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

Optimisation de logiciels de modélisation sur centre de calcul

Optimisation de logiciels de modélisation sur centre de calcul Optimisation de logiciels de modélisation sur centre de calcul Gérald Monard Pôle de Chimie Théorique http://www.monard.info/ Introduction Les ordinateurs sont des appareils électroniques permettant d

Plus en détail

CORBA haute performance

CORBA haute performance CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes Alexandre.Denis@irisa.fr Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux Livret d information des utilisateurs des ressources GENCI dans les centres nationaux Janvier 2014 1 Sommaire 1 Présentation du livret... 3 1.1 Services aux utilisateurs... 3 1.2 Services internes... 3

Plus en détail

Mesurer les performances (CPU) sous Linux

Mesurer les performances (CPU) sous Linux Titre : Mesurer les performances (CPU) sous Linux Date : 22/07/2015 Page : 1/7 Mesurer les performances (CPU) sous Linux Résumé : Il existe des outils permettant de tracer les temps CPU utilisés (profiling).

Plus en détail

La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST.

La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST. La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST. Gaël Le Mahec - p. 1/12 L algorithme BLAST. Basic Local Alignment Search Tool est un algorithme de recherche

Plus en détail

Programmation C. Apprendre à développer des programmes simples dans le langage C

Programmation C. Apprendre à développer des programmes simples dans le langage C Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

Eléments d architecture des machines parallèles et distribuées

Eléments d architecture des machines parallèles et distribuées M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture

Plus en détail

Institut Supérieure Aux Etudes Technologiques De Nabeul. Département Informatique

Institut Supérieure Aux Etudes Technologiques De Nabeul. Département Informatique Institut Supérieure Aux Etudes Technologiques De Nabeul Département Informatique Support de Programmation Java Préparé par Mlle Imene Sghaier 2006-2007 Chapitre 1 Introduction au langage de programmation

Plus en détail

Vérifier la qualité de vos applications logicielle de manière continue

Vérifier la qualité de vos applications logicielle de manière continue IBM Software Group Vérifier la qualité de vos applications logicielle de manière continue Arnaud Bouzy Kamel Moulaoui 2004 IBM Corporation Agenda Analyse de code Test Fonctionnel Test de Performance Questions

Plus en détail

Infrastructures Parallèles de Calcul

Infrastructures Parallèles de Calcul Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide

Plus en détail

INDUSTRIALISATION ET RATIONALISATION

INDUSTRIALISATION ET RATIONALISATION INDUSTRIALISATION ET RATIONALISATION A. LA PROBLEMATIQUE La mission de toute production informatique est de délivrer le service attendu par les utilisateurs. Ce service se compose de résultats de traitements

Plus en détail

Linux embarqué: une alternative à Windows CE?

Linux embarqué: une alternative à Windows CE? embarqué: une alternative à Windows CE? : une alternative à Windows CE Présentation Mangrove Systems Distribution embarqué Perspective WinCe / Questions Mangrove systems Créé en 2001 Soutien Soutien Ministère

Plus en détail

Cours 3 : L'ordinateur

Cours 3 : L'ordinateur Cours 3 : L'ordinateur Abdelkrim Zehioua 2éme année Licence Gestion Faculté des sciences Économiques et sciences de Gestion Université A, Mehri - Constantine 2 Plan du cours 1.Définitions de l'ordinateur

Plus en détail

Chapitre 4: Introduction au Cloud computing

Chapitre 4: Introduction au Cloud computing Virtualisation et Cloud Computing Chapitre 4: Introduction au Cloud computing L'évolution d'internet Virt. & Cloud 12/13 2 Définition Le cloud computing est une technologie permettant de délocaliser les

Plus en détail

Prise en compte des ressources dans les composants logiciels parallèles

Prise en compte des ressources dans les composants logiciels parallèles Prise en compte des ressources dans les composants logiciels parallèles Aperçus de l action RASC et du projet Concerto F. Guidec Frederic.Guidec@univ-ubs.fr Action RASC Plan de cet exposé Contexte Motivations

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

UE Programmation Impérative Licence 2ème Année 2014 2015

UE Programmation Impérative Licence 2ème Année 2014 2015 UE Programmation Impérative Licence 2 ème Année 2014 2015 Informations pratiques Équipe Pédagogique Florence Cloppet Neilze Dorta Nicolas Loménie prenom.nom@mi.parisdescartes.fr 2 Programmation Impérative

Plus en détail

Tests de SlipStream sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la. Vers la fédération du Cloud computing

Tests de SlipStream sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la. Vers la fédération du Cloud computing Tests de sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la fédération du Cloud computing Cécile Cavet1 & Charles Loomis2 (1) Centre François Arago, Laboratoire, Université Paris Diderot,

Plus en détail

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE

ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1

Plus en détail

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014 SIGAMM/ COMMISSION UTILISATEUR du 05/12/2014 ORDRE DU JOUR : - Rôle de la commission, - Présentation de la nouvelle plateforme, - Accès Mésocentre, - Point sur les problèmes rencontrés, - Propositions

Plus en détail

Portage d applications sur le Cloud IaaS Portage d application

Portage d applications sur le Cloud IaaS Portage d application s sur le Cloud IaaS Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire AstroParticule et Cosmologie (APC), LabEx UnivEarthS APC, Univ. Paris Diderot, CNRS/IN2P3,

Plus en détail

PRESENTATION RESSOURCES. Christian Dupaty BTS Systèmes Numériques Lycée Fourcade Gardanne Académie d Aix Marseille

PRESENTATION RESSOURCES. Christian Dupaty BTS Systèmes Numériques Lycée Fourcade Gardanne Académie d Aix Marseille PRESENTATION RESSOURCES Christian Dupaty BTS Systèmes Numériques Lycée Fourcade Gardanne Académie d Aix Marseille 1) Introduction, Objectifs et Intentions Le BTS SN (Systèmes Numériques) intègre la formation

Plus en détail

Parallélisme et Répartition

Parallélisme et Répartition Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre

Plus en détail

High Performance by Exploiting Information Locality through Reverse Computing. Mouad Bahi

High Performance by Exploiting Information Locality through Reverse Computing. Mouad Bahi Thèse High Performance by Exploiting Information Locality through Reverse Computing Présentée et soutenue publiquement le 21 décembre 2011 par Mouad Bahi pour l obtention du Doctorat de l université Paris-Sud

Plus en détail

Une dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU

Une dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU Une dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU Gabriel Antoine Louis Paillard Ce travail a eu le soutien de la CAPES, agence brésilienne pour

Plus en détail

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés Livre blanc La sécurité de nouvelle génération pour les datacenters virtualisés Introduction Ces dernières années, la virtualisation est devenue progressivement un élément stratégique clé pour le secteur

Plus en détail

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa libérez votre innovation avec l extreme computing CEA/Philippe Stroppa Solutions Bull pour l extreme computing Une gamme qui démultiplie votre pouvoir d innovation. De la physique fondamentale à la recherche

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES

AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES 1 AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES 2 Axes de recherche L activité du DIM LSC concerne la méthodologie de la conception et le développement de systèmes à forte

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

Arrêt sur image. La simulation numérique au programme de l industrie

Arrêt sur image. La simulation numérique au programme de l industrie Arrêt sur image La simulation numérique au programme de l industrie Bartosz Dobrzelecki, Oliver Fritz, Peter Lofgren, JÖrg Ostrowski, Ola Widlund L une des grandes vertus de la simulation sur ordinateur

Plus en détail

Présentation du déploiement des serveurs

Présentation du déploiement des serveurs Présentation du déploiement des serveurs OpenText Exceed ondemand Solutions de gestion de l accès aux applications pour l entreprise OpenText Connectivity Solutions Group Février 2011 Sommaire Aucun environnement

Plus en détail

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de

Plus en détail

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis

Plus en détail

«clustering» et «load balancing» avec Zope et ZEO

«clustering» et «load balancing» avec Zope et ZEO IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4

Plus en détail

Présentation de la Grille EGEE

Présentation de la Grille EGEE Présentation de la Grille EGEE Introduction aux grilles La grille EGEE Exemples d applications en physique des particules et en sciences de la vie Le cercle vertueux Conclusion Guy Wormser Directeur de

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

Le Cercle Vertueux du Cloud Public

Le Cercle Vertueux du Cloud Public Le Cercle Vertueux du Cloud Public Le Cercle Vertueux du Cloud Public Le Cloud public rencontre un intérêt croissant auprès de tous les directeurs IT voulant planifier les stratégies informatiques de leur

Plus en détail

1 Architecture du cœur ARM Cortex M3. Le cœur ARM Cortex M3 sera présenté en classe à partir des éléments suivants :

1 Architecture du cœur ARM Cortex M3. Le cœur ARM Cortex M3 sera présenté en classe à partir des éléments suivants : GIF-3002 SMI et Architecture du microprocesseur Ce cours discute de l impact du design du microprocesseur sur le système entier. Il présente d abord l architecture du cœur ARM Cortex M3. Ensuite, le cours

Plus en détail

Tutoriel : Utilisation du serveur de calcul à distance de PSE

Tutoriel : Utilisation du serveur de calcul à distance de PSE Tutoriel : Utilisation du serveur de calcul à distance de PSE David Smadja Camille Terrier Septembre 2013 Table des matières 1 Préambule 1 2 Avertissements 1 3 Pré-requis 1 4 Installation de X2goClient

Plus en détail

Communications performantes par passage de message entre machines virtuelles co-hébergées

Communications performantes par passage de message entre machines virtuelles co-hébergées Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction

Plus en détail

Les technologies du Big Data

Les technologies du Big Data Les technologies du Big Data PRÉSENTÉ AU 40 E CONGRÈS DE L ASSOCIATION DES ÉCONOMISTES QUÉBÉCOIS PAR TOM LANDRY, CONSEILLER SENIOR LE 20 MAI 2015 WWW.CRIM.CA TECHNOLOGIES: DES DONNÉES JUSQU'À L UTILISATEUR

Plus en détail

Retours d expériences et perspectives sur les aspects énergétiques

Retours d expériences et perspectives sur les aspects énergétiques Retour d expériences Retours d expériences et perspectives sur les aspects énergétiques d un mesocentre (Grenoble) GreenDays@Luxembourg CIMENT, LIG 28-29 Janvier 2013 Bruno Bzeznik Retour d expériences

Plus en détail

Défi Cloud Computing

Défi Cloud Computing EQUIPE RICM 2010 Défi Cloud Computing Dossier de remarques Ricom c est l @base 04/12/2009 Sommaire Introduction... 3 Les applications et la plateforme Cloud Computing... 4 Cloud Computing - RICM-2010 Page

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux Livret d information des utilisateurs des ressources GENCI dans les centres nationaux Avril 2015 1 Sommaire 1 Présentation du livret... 3 1.1 Services aux utilisateurs... 3 1.2 Services internes... 3 2

Plus en détail

SafeKit. Sommaire. Un livre blanc de Bull Evidian

SafeKit. Sommaire. Un livre blanc de Bull Evidian Un livre blanc de Bull Evidian SafeKit Une solution de haute disponibilité logicielle packageable avec n'importe quelle application Windows ou Unix Par Bruno Rochat Sommaire Novembre 2005 Haute disponibilité

Plus en détail

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau Nicolas Niclausse - INRIA Sophia Antipolis Méditerranée - projet Aladdin Grid 5000 2 juillet

Plus en détail

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,

Plus en détail

Dynamique des protéines, simulation moléculaire et physique statistique

Dynamique des protéines, simulation moléculaire et physique statistique Dynamique des protéines, simulation moléculaire et physique statistique Gerald R. Kneller kneller@llb.saclay.cea.fr, kneller@cnrs-orleans.fr Université d Orléans Laboratoire Léon Brillouin, CEA Saclay

Plus en détail

IBM Business Process Manager

IBM Business Process Manager IBM Software WebSphere Livre blanc sur le leadership en matière d innovation IBM Business Process Manager Une plateforme de BPM complète, unifiée et facilement adaptable aux projets et aux programmes d

Plus en détail

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service 10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore

Plus en détail

Procédure pas à pas de découverte de l offre. Service Cloud Cloudwatt

Procédure pas à pas de découverte de l offre. Service Cloud Cloudwatt Procédure pas à pas de découverte de l offre Service Cloud Cloudwatt Manuel Utilisateur 03/07/2014 Cloudwatt - Reproduction et communication sont interdites sans autorisation 1/45 Contenu 1. Introduction...

Plus en détail

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen P. Stroppa Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen 25 novembre 2010 CONTACTS PRESSE : CEA / Service Information-Media Marie VANDERMERSCH Tél. : 01 64 50 17 16 - marie.vandermersch@cea.fr

Plus en détail

SysFera. Benjamin Depardon

SysFera. Benjamin Depardon SysFera Passage d applications en SaaS Benjamin Depardon CTO@SysFera SysFera Technologie 2001 Création 2010 Spin Off INRIA Direction par un consortium d investisseurs 12 personnes 75% en R&D Implantation

Plus en détail

Introduction au maillage pour le calcul scientifique

Introduction au maillage pour le calcul scientifique Introduction au maillage pour le calcul scientifique CEA DAM Île-de-France, Bruyères-le-Châtel franck.ledoux@cea.fr Présentation adaptée du tutorial de Steve Owen, Sandia National Laboratories, Albuquerque,

Plus en détail

Logiciel Libre Cours 3 Fondements: Génie Logiciel

Logiciel Libre Cours 3 Fondements: Génie Logiciel Logiciel Libre Cours 3 Fondements: Génie Logiciel Stefano Zacchiroli zack@pps.univ-paris-diderot.fr Laboratoire PPS, Université Paris Diderot 2013 2014 URL http://upsilon.cc/zack/teaching/1314/freesoftware/

Plus en détail

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc)

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc) 87 FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc) Dans le cadre de la réforme pédagogique et de l intérêt que porte le Ministère de l Éducation

Plus en détail

WEA Un Gérant d'objets Persistants pour des environnements distribués

WEA Un Gérant d'objets Persistants pour des environnements distribués Thèse de Doctorat de l'université P & M Curie WEA Un Gérant d'objets Persistants pour des environnements distribués Didier Donsez Université Pierre et Marie Curie Paris VI Laboratoire de Méthodologie et

Plus en détail

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. Slimane.bah@emi.ac.ma

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. Slimane.bah@emi.ac.ma Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24.2 1 Semestre 4 : Fev. 2015 Grid : exemple SETI@home 2 Semestre 4 : Fev. 2015 Grid : exemple SETI@home

Plus en détail

pythonocc: une plateforme de développement agile d applications CAO.

pythonocc: une plateforme de développement agile d applications CAO. pythonocc: une plateforme de développement agile d applications CAO. PyConFR 2009 Cité des Sciences et de l Industrie, Paris Thomas Paviot*, Jelle Feringa* *pythonocc project: tpaviot@gmail.com; jelleferinga@gmail.com

Plus en détail

Éléments d'architecture des ordinateurs

Éléments d'architecture des ordinateurs Chapitre 1 Éléments d'architecture des ordinateurs Machines take me by surprise with great frequency. Alan Turing 1.1 Le Hardware Avant d'attaquer la programmation, il est bon d'avoir quelques connaissances

Plus en détail

La continuité de service

La continuité de service La continuité de service I INTRODUCTION Si la performance est un élément important de satisfaction de l'utilisateur de réseau, la permanence de la disponibilité des ressources l'est encore davantage. Ici

Plus en détail

La pratique de la gestion des services. Lier les composants techniques avec les services d opérations dans la CMDB

La pratique de la gestion des services. Lier les composants techniques avec les services d opérations dans la CMDB La pratique de la gestion des services Lier les composants techniques avec les services d opérations dans la CMDB Création : octobre 2013 Mise à jour : octobre 2013 A propos A propos du document Ce document

Plus en détail

Moderniser. le système d information et le portefeuille applicatif. www.bull.com

Moderniser. le système d information et le portefeuille applicatif. www.bull.com Moderniser le système d information et le portefeuille applicatif L évolution technologique des plates-formes, l ouverture du système d information et la modernisation du portefeuille applicatif sont des

Plus en détail

Serveur de sauvegarde à moindre coût

Serveur de sauvegarde à moindre coût 1/28 Serveur de sauvegarde à moindre coût Yann MORÈRE LASC http://www.lasc.univ-metz.fr/ I. Cahier des charges II. Solution III. Présentation des outils utilisés IV. Mise en œuvre 2/28 Cahier des charges

Plus en détail