Résultats des benchmarks de HPC1 après ajout de 100 cœurs. Date : 06/09/2012. Auteur : Ph Parnaudeau
|
|
- Jérôme Lafleur
- il y a 8 ans
- Total affichages :
Transcription
1 Résultats des benchmarks de HPC1 après ajout de 1 cœurs. Date : 6/9/212 Auteur : Ph Parnaudeau 1. Evolution de la configuration la plate forme de calcul du LJLL : HPC1 HPC1 1 Février 211 : UV1 est une machine SMP (Single Multi Processing), avec réseau d interconnexion NUMA (Non Uniform Memory Acces) ; 8 processeurs EX755 à 2GHz (chacun 8 cœurs), soit 64 cœurs ; 256 Go de mémoire vive ; 1 espace de stockage de 2 To pour le $HOME et 1 To pour $scratch. HPC1 1 Février 212 : 2 processeurs EX755 à 2GHz (chacun 8 cœurs), soit 16 cœurs ; 64 Go de mémoire vive ; 1 espace de stockage de 2 To pour le $HOME et 1 To pour $scratch ; Une frontale qui permet de déporter «pré» et «post» traitement, ainsi que de soumettre les jobs. Cette machine est équipée de processeurs EX755 à 2GHz avec 4 cœurs. La frontale a permis de rendre «HPC1» 1% utilisable pour le calcul ; 2 cartes GPU Telsa Liste des Benchmarks. Benchmarks public : HPCC ( HPCC est un ensemble de codes qui permet de tester plusieurs aspects d une machine de calcul. Liste des codes : HPL : résout un système Ax=B, par une méthode de factorisation LU. Il fonctionne sur l ensemble des CPUS réservés, avec quelques communications globales, nommées «all to all» (Il est, de plus, «embarrassing parallel»).il permet de donner la puissance brute (à ne pas confondre avec la puissance crête théorique) qu on peut tirer de la machine de calcul (il est utilisé pour faire le classement international des 5 plus gros calculateurs). Ce code a donc un passage à l échelle excellent, la localisation spatiale et temporelle de l information ne l affecte pas. Il stresse les cpus et met en avant la performance entre les registres et les caches des cpus. Il ne stresse pas la mémoire vivre, ou le réseau d interconnexion. DGEMM : Double-precision General Matrix-Matrix Multiply. Tout comme le précédent, ce benchmark permet de tester à peu près la même chose que HPL, mais il délivre l information sur un cœur ou un cpu (si c est le plus petit élément de calcul de la machine). 1
2 STREAM : Permet de mesurer le débit de bande passante de la mémoire, en effectuant des opérations simples sur des petits vecteurs (Copie, passage à l échelle, addition, mélange addition & passage à l échelle d un vecteur). Mesure sur un cœur ou un cpu (si plus petit élément de calcul de la machine) PTRANS : Parallel Transpose. Algorithme à mémoire distribuée. Permet de tester la même chose que STREAM, mais sur des opérations plus complexes & des tailles de problème plus importantes. Mesure sur l ensemble (ou un sous ensemble) des cœurs de la machine. RandomAccess : Calcule une série d entiers, mise à jour de manière aléatoire dans la mémoire. Cela permet de tester les communications inter-processeurs de petites tailles. FFT : Transformées de Fourier Rapide. Permet de tester la même chose que RandomAccess mais avec de plus gros messages. Tests-b_eff : Mesure effective de la bande passante et de la latence du réseau d interconnexion. Iozone ( Teste les entrées/sorties (notées I/O par la suite) sur le système de fichiers commun à HPC1, qui est un montage NFS (Version 4), d un système de fichiers XFS ( Des problèmes, rencontrés lors de l exploitation de la machine au cours de l an passé, ont été reproduits lors de ces tests et à présent tout semble réglé. Benchmarck Openmp du centre de calcul d Edinbourg. Il permet de faire tourner les opérations standards d OpenMp (Atomic, Barrier, critical, Parallel, Parallel_do, do, reduction). Teste l implémentation OpenMp, ainsi que l architecture réseau interne (NUMA dans notre cas) Benchmarks maison : Solveur Différences Finies ordre 2 de l équation de Poisson (cas 2D). Dans le cas des tests réalisés pour ce document, nous n avons utilisé que le solveur Jacobi, mais avec 3 paradigmes de programmation parallèle différents. A terme ce code sera écrit en HMPP et permettra de tester rapidement des architectures très différentes. 3 méthodes de résolution de système linéaire ont été implémentées : Jacobi, SSOR, Gradient Conjugué. 3. Résultats. HPCC a été lancé sur : - 56 cœurs cœurs Les options de compilations sont les suivantes : Compilateur utilisé : Intel icc version et Fortran (12..1) Bibliothèques utilisées : Sgi mpi (2.5), MKL (1.3.1) Options de compilation : -fomit-frame-pointer -O3 -funroll-loops -W Wall 2
3 HPL (TFlops/s) DGEMM(GFlop/s) PTRANS (GB/s) NaturalRing Latency (usec) RandomRing Latency (usec) 56 coeurs coeurs Le pic théorique sur 56 cœurs est de.448 Tflops/s et sur 128 est de 1.24 Tflops/s. Avec HPL nous obtenons une efficacité de l ordre de 8%, ce qui est conforme à ce qu on peut espérer, mais qu il est très peu probable d obtenir avec des codes de calcul. DGEMM (qui mesure le nombre d opérations possibles pour un cœur) nous fournit une valeur de l ordre de 7.65 Gflop/s, alors qu en théorie un cœur peut fournir jusqu à 8 Gflop/s. Là encore, une telle efficacité est à relativiser, dans le cadre d un usage ordinaire, les codes de calcul tirent au mieux 25% d efficacité d un cœur et bien plus souvent inférieur à 5%. PTRANS nous montre un passage à l échelle corrélé à l upgrade. NaturalRing mesure la latence quand on fait un «anneau» qui suit l ordonnancement naturel (à savoir la configuration en Tore2D de la SGI) des processeurs. RandomRing mesure la latence dans un cas moins favorable, d où la différence entre les 2 mesures. On note une légère amélioration après l upgrade due en partie à une meilleure topologie du Tore2D (le nombre d IRU augmentant des optimisations sont possibles) et une mise à jour des «firmware» (Micro codes informatiques qui gèrent différents aspects : NUMA, mémoire vive,...). Test Stream : 56 coeurs 128 coeurs Copy (GB/s) Add (GB/s) Scale(GB/s) Triad(GB/s) On observe une très légère dégradation liée à l upgrade. Ceci est intimement corrélé avec l augmentation de la quantité de mémoire vive et de CPU. Test FFT : Les FFT utilisées sont celle de FFTW, compilé dans MKL. 56 coeurs 128 cœurs S-FFT (GFlop/s) MPI-FFT (GFlop/s) S-FFT mesure l efficacité d une transformée de Fourrier rapide sur un seul cœur. On ne note pas de modification significative, ce qui est normal. La fluctuation observée est liée à des considérations environnementales (Charges de la machine au moment des tests en particulier) MPI-FFT mesure l efficacité d un calcul de FFT sur l ensemble des processeurs. On note alors une accélération supérieure à l upgrade. Ce résultat peut s expliquer par différentes causes. Tout d abord les considérations environnementales, mais également le réseau qui est optimisé (comme vu précédemment). Etant donné que les FFT utilisées dans ces tests sont celles de la FFTW, ce résultat est tout à fait 3
4 reproductible dans le cas de l utilisation dans un code de calcul. Cependant, ce test n est pas représentatif de l ensemble des performances de la bibliothèque FFTW sur HPC1, mais plutôt d un appel particulier à cette bibliothèque. Résultat tests I/O avec Iozone : Cas 1 : depuis HPC1, sur le NAS, à travers le montage NFS, les tests suivant ont été réalisés dans le but de déterminer la taille de bloc optimum pour le serveur NAS, à travers le montage NFS, sur des fichiers de 1 Mo et 128 Mo et en se mettant dans un mode où Iozone ne tient pas compte des caches du contrôleur RAID du NAS. BS= 64 6 BS= BS= Débit via NFS, pour un fichier de 1 Mo, avec 3 tailles de bloc différentes et de 1 à 64 processus en simultanés. BS=64 BS=512 BS=124 Moyenne (W/R) 41/35 Mo/s 28/21 Mo/s 4/28 Mo/s Max (W/R) 51/39 Mo/s 34/29 Mo/s 29/32 Mo/s Min (W/R) 18/2 Mo/s 22/13 Mo/s 1.75/2 Mo/s On note que, d une part, nous sommes très loin de saturer le réseau (8 Mo/s en charge) et que, d autre part, la dégradation des performances est liée à l augmentation de la taille des blocs, alors que nous avons des fichiers petits. Cependant il faut relativiser ces valeurs. Elles sont le minimum que l on peut obtenir. En effet des tests réalisés en ne désactivant pas le cache du contrôleur RAID (qui est de 512 Mo) donnent des valeurs de 2 à 1 fois plus importantes. Donc ces valeurs sont à lire comme des minimums, obtenues dans des cas extrêmes d utilisation de notre système. Cependant, on note aussi que la détérioration des performances est corrélée avec le nombre de threads. Et ce malgré une configuration du serveur NFS optimum sur ce point. 4
5 BS= BS= BS= Débit via NFS, pour un fichier de 128 Mo, avec 3 tailles de bloc différentes et de 1 à 64 processus en simultanés. BS=64 BS=512 BS=124 Moyenne (W/R) 61/44 Mo/s 76/5 Mo/s 72/53 Mo/s Max (W/R) 69/49 Mo/s 82/ Mo/s 78/55 Mo/s Min (W/R) 19/23 Mo/s 36/ Mo/s 47/49 Mo/s On note que, d une part, que nous avons pratiquement saturé le réseau en pointe (8 Mo/s en charge) et que, d autre part, la dégradation des performances est minimale. Ceci est à relier avec la taille des fichiers & à notre choix de design. Conclusion : Afin de perdre le moins de temps possible dans les «I/O», il est recommandé aux utilisateurs d utiliser des fichiers de taille conséquente (supérieure à 1 Mo), si possible & d éviter d écrire en parallèle un trop grand nombre de fichiers en simultané. Résultat du BenchMarck OpenMP. Options de compilation utilisées : -fast openmp. 5
6 Résultats : Les graphiques présentent des temps (en seconde) en fonction du nombre de processus légers. Atomic Barrier,35,3,25,2,15,1, critical Parallel 4,5 4 3,5 3 2,5 2 1,5 1, Parallel do do (seul) reduction Résultats des tests du solveur différences finies ordre 2 de l EDP Poisson. Le problème est de résoudre dans un domaine donné, l équation de Poisson avec différents paradigmes de programmation : 1 MPI : les communications entre processus sont assurées par MPI 2 FG : OpenMP Fine grain, dans ce cas il s agit d utiliser Openmp dans sa version la plus simple en parallélisant les boucles. 3 CG : OpenMP Coarse grain, dans ce cas il s agit de diviser le domaine comme en MPI et d assurer les communications nécessaires entre les processus. Cette méthode offre l avantage «normalement» d avoir le meilleur passage à l échelle (mais cela dépend de l implémentation OpenMp, ainsi que de la machine sur laquelle le test est réalisé). 6
7 Résultats : Le problème «consomme» 1 Go de mémoire vive (FG, MPI, CG) et les temps mesurés sont les temps de restitution sur la partie calculatoire (en seconde). Afin d évaluer si il y avait une fluctuation sur les temps de calculs, chaque calcul a été réalisé trente fois et voici les résultats obtenus : Cœurs Mono min_mpi 69, 343, 236, 117, 58, 29, 13, moy_mpi ,8 345,4 236,4 117, 58,7 29, 13, max_mpi 612, 349, 237, 117, 59, 29, 13, min_cg 379, 233, 194, 97, 51, 51, 23, moy_cg ,45 234,55 195,45 13,85 74,75 69,4 41,85 max_cg 396, 236, 21, 14, 97, 9, 78, min_fg 383, 235, 194, 131, 292, 442, 456, moy_fg ,65 236,6 194,85 131,2 39,8 514, 475,1 max_cg 386, 24, 195, 134, 37, 614, 565, Ideal ,5 543,7 271,8 135,9 33,9 16,9 8,4 Speedup calculé à partir des valeurs moyennes : MPI 3,5 6,2 9,2 18,5 18,5 37,5 83,6 CG 5,7 9,2 11,1 2,9 14,5 15,6 25,9 FG 5,6 9,1 11,1 16,5 3,51 2,1 2,2 IDEAL
8 MPI CG FG IDEAL Première remarque, on note que le speed-up mesuré est supérieur à celui idéal (scalabilité super-linéaire) jusqu à 8 cœurs pour le FG et jusqu à 16 cœurs pour les versions MPI et CG. Cela est très certainement lié à une meilleure réutilisation des caches. On note que les versions OpenMP (FG et CG) sont plus efficaces que la version MPI quand on utilise peu de cœurs (<= à 8 cœurs). Ceci correspond au nombre de cœurs par processeurs. Ce résultat montre qu il est donc tout à fait pertinent de programmer avec le paradigme OpenMP, si on souhaite utiliser au mieux les cœurs d un processeur. De plus étant donné la difficulté à programmer, puis corriger, la version CG, il est fortement recommandé d utiliser la programmation Fine Grain quand on veut faire du parallélisme à l échelle des cœurs d un processeur. Au-delà de 8 cœurs, seule la version CG garde un avantage sur MPI. La dégradation des performances de la version FG est à mettre en rapport avec les difficultés d implémentation de la version CG. Avant de conclure sur ces premières remarques il convient de regarder l architecture de notre machine. Une machine UV1 (SMP) est construite autour de n nœuds (dans notre cas 1, 2 nœuds par IRU d où 5 IRU) reliés entre eux par un réseau NUMA qui permet de collectiviser la mémoire. Il ressort des premières remarques, que si on reste sur un nœud de calcul (comprenant 2 processeurs et donc 16 cœurs) les versions OpenMP (FG ou CG) sont les plus efficaces. La plus efficace étant la version CG. Cependant si on met en rapport avec la difficulté à programmer cette méthode, le choix de la méthode FG peut s avérer judicieux. 8
9 Au-delà d un nœud de calcul, la tendance est évidente pour la version FG : Elle n a plus aucun intérêt! Pour la version MPI, il en va de même. Ce standard de programmation permet d avoir le meilleur passage à l échelle. Pour la version CG, les conclusions sont plus compliquées. Tout d abord on note une très forte disparité dans les temps de restitution des résultats. Est-ce lié à notre machine? Est-ce lié à notre programmation? Est-ce lié au processeur? Pour l instant, nous ne savons pas conclure, et des tests sur d autres architectures permettront surement de régler ce problème qui apparait comme crucial, car des écarts du simple au triple ne sont pas acceptables. Cependant si on observe les tendances moyennes, on note que cette méthode conserve un intérêt. Il faudrait répondre aux questions précédentes pour réellement conclure sur l intérêt de l usage de cette méthode au-delà de 64 cœurs et quelques soient l architecture de la machine & le type de cpu (X86, Power PC, Alpha ) 4. Conclusions HPC1 est une machine qui offre l avantage de pouvoir exécuter tout type de job (séquentiel, OpenMP, MPI, hybride) avec une quantité de mémoire vive très importante (64 Go de RAM). L implémentation propriétaire SGI MPI offre une solution remarquable, est doit être utilisée dès qu on souhaite faire tourner un code de calcul MPI. Les raisons sont assez simples (au moins sur le principe) le MPI SGI tire parti des jeux d instructions MPI intégrés au HUB NUMA sur la machine. Le gain par rapport à l implémentation de Intel est de l ordre de 2%, par exemple Pour des jobs utilisant peu de cœurs (<=8), la version OpenMP FG est recommandée, car elle offre l avantage d être facile à implémenter et est assez efficace. Cependant, si on souhaite tirer le maximum profit d un nœud de calcul en OpenMP (<=32 cœurs) il apparait que une version OpenMP CG doit être implémentée. Au-delà de 4 cœurs, MPI se comporte très bien sur une machine SMP. Nous avons remarqué au cours des différents tests de grandes fluctuations de temps quand nous utilisions la version 11 des compilateurs Intel. La recommandation est donc d utiliser la version 12 des compilateurs Intel et d utiliser ces compilateurs de préférence. Les fluctuations observées sur les benchs Open FG et CG n ont pas trouvé de réponse pour l instant. Afin de pouvoir comprendre ces phénomènes, il convient de faire d autres tests sur d autres architectures. Cependant les utilisateurs de l UV1 doivent garder à l esprit que les temps de restitution de leur calcul peuvent fortement fluctués quand ils utilisent OpenMp sur un nombre de cœurs important. Enfin quelques recommandations -déjà données dans ce document : Utiliser le MPI de SGI ; Utiliser les compilateurs Intel et de préférence dans la version 12 ; 9
10 Utiliser, quand on le peut, des fichiers de grosses tailles ; Privilégier des jobs Openmp jusqu à 32 cœurs, au-delà il semble vain d espérer un gain, cependant chaque code peut avoir un comportement différent ; Eviter les écritures/lectures en parallèle avec un trop grand nombre de threads (>32). 1
Initiation au HPC - Généralités
Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours
Plus en détailArchitecture des ordinateurs
Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique
Plus en détailQuantification d incertitude et Tendances en HPC
Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification
Plus en détailArchitecture des calculateurs
Formation en Calcul Scientifique - LEM2I Architecture des calculateurs Violaine Louvet 1 1 Institut Camille jordan - CNRS 12-13/09/2011 Introduction Décoder la relation entre l architecture et les applications
Plus en détailInfrastructures Parallèles de Calcul
Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide
Plus en détailLimitations of the Playstation 3 for High Performance Cluster Computing
Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire
Plus en détailPortage d applications sur le Cloud IaaS Portage d application
s sur le Cloud IaaS Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire AstroParticule et Cosmologie (APC), LabEx UnivEarthS APC, Univ. Paris Diderot, CNRS/IN2P3,
Plus en détailRapport d activité. Mathieu Souchaud Juin 2007
Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix
Plus en détailLes environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
Plus en détailINF6500 : Structures des ordinateurs. Sylvain Martel - INF6500 1
INF6500 : Structures des ordinateurs Sylvain Martel - INF6500 1 Cours 4 : Multiprocesseurs Sylvain Martel - INF6500 2 Multiprocesseurs Type SISD SIMD MIMD Communication Shared memory Message-passing Groupe
Plus en détailSIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014
SIGAMM/ COMMISSION UTILISATEUR du 05/12/2014 ORDRE DU JOUR : - Rôle de la commission, - Présentation de la nouvelle plateforme, - Accès Mésocentre, - Point sur les problèmes rencontrés, - Propositions
Plus en détailRetour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales
Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire
Plus en détailLe e s tocka k ge g DAS,NAS,SAN
Le stockage DAS,NAS,SAN Sommaire Introduction SAN NAS Conclusion Bibliographie Questions Introduction Besoin de partage de données à travers un réseau Explosion des volumes de données Comment assurer les
Plus en détail<Insert Picture Here> Solaris pour la base de donnés Oracle
Solaris pour la base de donnés Oracle Alain Chéreau Oracle Solution Center Agenda Compilateurs Mémoire pour la SGA Parallélisme RAC Flash Cache Compilateurs
Plus en détailCORBA haute performance
CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes Alexandre.Denis@irisa.fr Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance
Plus en détailDétection d'intrusions en environnement haute performance
Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire
Plus en détailOutil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche
Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd
Plus en détailMétriques de performance pour les algorithmes et programmes parallèles
Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and
Plus en détailArchitectures d implémentation de Click&DECiDE NSI
Architectures d implémentation de Click&DECiDE NSI de 1 à 300 millions de ligne de log par jour Dans ce document, nous allons étudier les différentes architectures à mettre en place pour Click&DECiDE NSI.
Plus en détailCreation de Contenus Numériques pour
Creation de Contenus Numériques pour le Divertissement et la Communication 300 projets par an : longs métrages, publicités, programmes TV, communication, jeux vidéo and clips. Montage, effets spéciaux,
Plus en détailGestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr
Gestion de mémoire secondaire F. Boyer, Laboratoire Sardes Fabienne.Boyer@imag.fr 1- Structure d un disque 2- Ordonnancement des requêtes 3- Gestion du disque - formatage - bloc d amorçage - récupération
Plus en détailHappy birthday ZSet High performance computing dans ZSet
Happy birthday ZSet High performance computing dans ZSet F. Feyel & P. Gosselet Architectures SMP NUMA memory memory memory Distribué memory memory 2 memory memory Hybride memory memory memory memory memory
Plus en détailGestion de clusters de calcul avec Rocks
Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte
Plus en détailTests de performance du matériel
3 Tests de performance du matériel Après toute la théorie du dernier chapitre, vous vous demandez certainement quelles sont les performances réelles de votre propre système. En fait, il y a plusieurs raisons
Plus en détailT. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5
Modélisation de la performance et optimisation d un algorithme hydrodynamique de type Lagrange-Projection sur processeurs multi-cœurs T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet
Plus en détailSéminaire RGE REIMS 17 février 2011
Séminaire RGE REIMS 17 février 2011 ADACSYS Présentation des FPGA Agenda Spécificité et différences par rapport aux autres accélérateurs Nos atouts Applications Approche innovante Document confidentiel
Plus en détailVersion de novembre 2012, valable jusqu en avril 2013
Pré requis techniques pour l installation du logiciel complet de gestion commerciale WIN GSM en version hyper File en configuration Windows Terminal Serveur Version de novembre 2012, valable jusqu en avril
Plus en détailRapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121
Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère
Plus en détailCommunications performantes par passage de message entre machines virtuelles co-hébergées
Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction
Plus en détailRuntime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I
Runtime Gestion de la réactivité des communications réseau François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I 1 Le calcul hautes performances La tendance actuelle
Plus en détailDispositif e-learning déployé sur les postes de travail
Résumé : Ce document fait l inventaire du matériel et des moyens nécessaires à la production de sessions de formation à distance à partir des postes de travail des salariés bénéficiant d une connexion
Plus en détail1 Architecture du cœur ARM Cortex M3. Le cœur ARM Cortex M3 sera présenté en classe à partir des éléments suivants :
GIF-3002 SMI et Architecture du microprocesseur Ce cours discute de l impact du design du microprocesseur sur le système entier. Il présente d abord l architecture du cœur ARM Cortex M3. Ensuite, le cours
Plus en détailContrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle
Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle 1 CEA R & D for Nuclear Energy 5 000 people Nuclear systems
Plus en détailCluster de calcul Freeware en Océanographie Opérationnelle
Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET, Responsable du Service Informatique (*, **) Carine CASTILLON, Ingénieure Systèmes et Réseaux (*) Mondher CHEKKI, Ingénieur High
Plus en détailen version SAN ou NAS
tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi
Plus en détailParallélisme et Répartition
Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique baude@unice.fr web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre
Plus en détailSegmentation d'images à l'aide d'agents sociaux : applications GPU
Segmentation d'images à l'aide d'agents sociaux : applications GPU Richard MOUSSA Laboratoire Bordelais de Recherche en Informatique (LaBRI) - UMR 5800 Université de Bordeaux - France Laboratoire de recherche
Plus en détailEléments d architecture des machines parallèles et distribuées
M2-RISE - Systèmes distribués et grille Eléments d architecture des machines parallèles et distribuées Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Notions d architecture
Plus en détailERP Service Negoce. Pré-requis CEGID Business version 2008. sur Plate-forme Windows. Mise à jour Novembre 2009
ERP Service Negoce Pré-requis CEGID Business version 2008 sur Plate-forme Windows Mise à jour Novembre 2009 Service d'assistance Téléphonique 0 825 070 025 Pré-requis Sommaire 1. PREAMBULE... 3 Précision
Plus en détailServeurs et solutions PowerEdge pour les applications métiers
s et solutions PowerEdge pour les applications métiers s et solutions PowerEdge pour les applications métiers Chez Dell, nous sommes tous les jours à votre écoute. Vous nous avez dit que vos infrastructures
Plus en détailComment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet
Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,
Plus en détailInfo0804. Cours 6. Optimisation combinatoire : Applications et compléments
Recherche Opérationnelle Optimisation combinatoire : Applications et compléments Pierre Delisle Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique 17 février 2014 Plan de
Plus en détailLe stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures
Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet
Plus en détail«clustering» et «load balancing» avec Zope et ZEO
IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4
Plus en détailSur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11)
1/ Généralités : Un ordinateur est un ensemble non exhaustif d éléments qui sert à traiter des informations (documents de bureautique, méls, sons, vidéos, programmes ) sous forme numérique. Il est en général
Plus en détailEtude d architecture de consolidation et virtualisation
BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.
Plus en détailVMWare Infrastructure 3
Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...
Plus en détailHiérarchie matériel dans le monde informatique. Architecture d ordinateur : introduction. Hiérarchie matériel dans le monde informatique
Architecture d ordinateur : introduction Dimitri Galayko Introduction à l informatique, cours 1 partie 2 Septembre 2014 Association d interrupteurs: fonctions arithmétiques élémentaires Elément «NON» Elément
Plus en détailChoix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz
Choix d'un serveur Vous êtes responsable informatique d'une entreprise. Vous devez faire un choix pour l'achat d'un nouveau serveur. Votre prestataire informatique vous propose les choix ci-dessous Vous
Plus en détail2 disques en Raid 0,5 ou 10 SAS
Serveur GED: INFO EN + Afin d obtenir des performances optimales il est préférable que le serveur soit dédié. Matériel : Processeur Jusqu à 10 utilisateurs 2.0 Ghz environ Jusqu à 30 utilisateurs 2.6 Ghz
Plus en détailRetour d expérience RATP. Intégrer le test de performance au cœur du processus de développement agile. Challenges, techniques, résultats.
Retour d expérience RATP Intégrer le test de performance au cœur du processus de développement agile. Challenges, techniques, résultats. Les intervenants Alexis Bourgeois Chef de projet MOE (front web)
Plus en détailGénération de code binaire pour application multimedia : une approche au vol
Génération de binaire pour application multimedia : une approche au vol http://hpbcg.org/ Henri-Pierre Charles Université de Versailles Saint-Quentin en Yvelines 3 Octobre 2009 Présentation Présentation
Plus en détailConfiguration Matérielle et Logicielle AGORA V2
Configuration Matérielle et Logicielle AGORA V2 Sommaire A- PREAMBULE 2 B - LE SERVEUR : 3 PLATES-FORMES SERVEURS DE DONNEES SUPPORTEES... 3 MOTEUR DE BASE DE DONNEES... 3 PROTOCOLES RESEAUX... 3 VERSION
Plus en détailvbladecenter S! tout-en-un en version SAN ou NAS
vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de
Plus en détailLeçon 1 : Les principaux composants d un ordinateur
Chapitre 2 Architecture d un ordinateur Leçon 1 : Les principaux composants d un ordinateur Les objectifs : o Identifier les principaux composants d un micro-ordinateur. o Connaître les caractéristiques
Plus en détailSpécifications Techniques Générales. Techno Pole Internet. Lycée Djignabo / Ziguinchor
Techno Pole Internet Lycée Djignabo / Ziguinchor Sommaire 1 ARCHITECTURE LOGICIELLE 2 1.1 APACHE, UN SERVEUR POLYVALENT, PERFORMANT ET MONDIALEMENT RECONNU 2 1.2 ARCHITECTURE LOGICIELLE DU SERVEUR 2 1.3
Plus en détailMultiprogrammation parallèle générique des méthodes de décomposition de domaine
Multiprogrammation parallèle générique des méthodes de décomposition de domaine Andréa Schwertner-Charão To cite this version: Andréa Schwertner-Charão. Multiprogrammation parallèle générique des méthodes
Plus en détailL I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l
Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i
Plus en détailE-Mail : cc.region.beaujeu@wanadoo.fr Site Internet www.cc-regionbeaujeu.fr. Actuellement nous trouvons ce schéma réseau :
Bâtiment Sainte Angèle - 69430 BEAUJEU Tel. : 04.74.04.89.94 - Fax : 04.74.04.89.96 E-Mail : cc.region.beaujeu@wanadoo.fr Site Internet www.cc-regionbeaujeu.fr Le réseau existant Le réseau informatique
Plus en détailVous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,
Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis
Plus en détail4. Utilisation d un SGBD : le langage SQL. 5. Normalisation
Base de données S. Lèbre slebre@unistra.fr Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :
Plus en détailHPC by OVH.COM. Le bon calcul pour l innovation OVH.COM
4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés
Plus en détailProgrammation C. Apprendre à développer des programmes simples dans le langage C
Programmation C Apprendre à développer des programmes simples dans le langage C Notes de cours sont disponibles sur http://astro.u-strasbg.fr/scyon/stusm (attention les majuscules sont importantes) Modalités
Plus en détailOn distingue deux grandes catégories de mémoires : mémoire centrale (appelée également mémoire interne)
Mémoire - espace destiné a recevoir, conserver et restituer des informations à traiter - tout composant électronique capable de stocker temporairement des données On distingue deux grandes catégories de
Plus en détailCours 13. RAID et SAN. 2004, Marc-André Léger
Cours 13 RAID et SAN Plan Mise en contexte Storage Area Networks Architecture Fibre Channel Network Attached Storage Exemple d un serveur NAS EMC2 Celerra Conclusion Démonstration Questions - Réponses
Plus en détailCAHIER DES CHARGES D IMPLANTATION
CAHIER DES CHARGES D IMPLANTATION Tableau de diffusion du document Document : Cahier des Charges d Implantation EVRP Version 6 Etabli par DCSI Vérifié par Validé par Destinataires Pour information Création
Plus en détailGestion répartie de données - 1
Gestion répartie de données - 1 Sacha Krakowiak Université Joseph Fourier Projet Sardes (INRIA et IMAG-LSR) http://sardes.inrialpes.fr/~krakowia Gestion répartie de données Plan de la présentation Introduction
Plus en détailLes clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1
Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High
Plus en détailEbauche Rapport finale
Ebauche Rapport finale Sommaire : 1 - Introduction au C.D.N. 2 - Définition de la problématique 3 - Etat de l'art : Présentatio de 3 Topologies streaming p2p 1) INTRODUCTION au C.D.N. La croissance rapide
Plus en détailOptimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie
Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie 1 Présenté par: Yacine KESSACI Encadrement : N. MELAB E-G. TALBI 31/05/2011 Plan 2 Motivation
Plus en détailWindows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows 2000. W2K pro: configuration.
Windows 2000: Introduction W2K: Architecture Système d'exploitation multitâche multithread 32 bits à architecture SMP. Multiplateforme: intel x86, Compaq Alpha Jusqu'à 64 Go de mémoire vive Système d'exploitation
Plus en détailSystème de stockage IBM XIV Storage System Description technique
Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de
Plus en détailRapport de stage Master 2
Rapport de stage Master 2 Informatique Haute Performance et Simulation, 2 ème année Ecole Centrale Paris Accélération des méthodes statistiques sur GPU Auteur : CHAI Anchen. Responsables: Joel Falcou et
Plus en détailLe data center moderne virtualisé
WHITEPAPER Le data center moderne virtualisé Les ressources du data center ont toujours été sous-utilisées alors qu elles absorbent des quantités énormes d énergie et occupent une surface au sol précieuse.
Plus en détailTAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES
TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES 1 DECOUVERTE DE LA VIRTUALISATION... 2 1.1 1.2 CONCEPTS, PRINCIPES...2 UTILISATION...2 1.2.1 Formation...2
Plus en détailAudit activité base Oracle / SAP
Audit activité base Oracle / SAP Version : 1.0 Date : 04/02/2009 Auteur : xxxxxxxxxxx SOMMAIRE 1 OBJECTIFS DE CE DOCUMENT...3 2 Résultats de l étude...4 2.1. Bref exposé des constatations...4 2.1.1 Le
Plus en détailWindows 7, Configuration
Windows 7, Configuration Effectuer une installation propre Avant de commencer, les bonnes questions à se poser : - L ordinateur sur lequel je veux installer Windows, est-il compatible Windows 7? Tester
Plus en détail<Insert Picture Here> Exadata Storage Server et DB Machine V2
Exadata Storage Server et DB Machine V2 Croissance de la Volumétrie des Données Volumes multipliés par 3 tous les 2 ans Evolution des volumes de données 1000 Terabytes (Données) 800
Plus en détailUne bibliothèque de templates pour CUDA
Une bibliothèque de templates pour CUDA Sylvain Collange, Marc Daumas et David Defour Montpellier, 16 octobre 2008 Types de parallèlisme de données Données indépendantes n threads pour n jeux de données
Plus en détailUne dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU
Une dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU Gabriel Antoine Louis Paillard Ce travail a eu le soutien de la CAPES, agence brésilienne pour
Plus en détailMise en place d'un cluster
Mise en place d'un cluster par David Dessailly & Régis Sion UMR8187- LOG Laboratoire d'océanologie et de Géosciences MREN Université du Littoral Côte d'opale. MIn2RIEN Mise en place d'un cluster 13 février
Plus en détailChapitre 4 : Les mémoires
1. Introduction: Chapitre 4 : Les mémoires Nous savons que dans un ordinateur toutes les informations : valeur numérique, instruction, adresse, symbole (chiffre, lettre,... etc.) sont manipulées sous une
Plus en détailChapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing
Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de
Plus en détailSquare-IT-Consulting. Présentation
Square-IT-Consulting Présentation Janvier 2013 Square-IT-Consulting Groupe Square-IT-Services Square IT Services est une société de services en ingénierie informatique à forte valeur ajoutée, créée en
Plus en détailConfigurations maximales
vsphere 6.0 Ce document prend en charge la version de chacun des produits répertoriés, ainsi que toutes les versions publiées par la suite jusqu'au remplacement dudit document par une nouvelle édition.
Plus en détailMigration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM
Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous K L'équipe du CITIC74 : info[at]citic74[dot]fr Sommaire Contexte Architecture existante Conclusion 2 Contexte
Plus en détailCaractéristiques et débits de votre ligne ADSL
Une documentation Côtière Informatique Mise à jour du 20/01/2014 Caractéristiques et débits de votre ligne ADSL Sommaire : 1) La face cachée de la technologie ADSL2+ page 1 2) Les caractéristiques de sa
Plus en détailInformatique industrielle A7-19571 Systèmes temps-réel J.F.Peyre. Partie I : Introduction
Informatique industrielle A7-19571 Systèmes temps-réel J.F.Peyre Partie I : Introduction Plan de la première partie Quelques définitions Caractéristiques communes des applications temps-réel Exemples d
Plus en détailContributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
Plus en détailTransmission d informations sur le réseau électrique
Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en
Plus en détailRetour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI
, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI PROMES (UPR 8521 CNRS) Université de Perpignan France 29 juin 2011 1 Contexte 2 3 4 Sommaire Contexte 1 Contexte 2 3 4 Laboratoire
Plus en détailJulien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration
Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...
Plus en détailComparatif entre Matrox RT.X2 et Adobe Premiere Pro CS3 (logiciel seul)
Comparatif entre et Adobe Premiere Pro CS3 (logiciel seul) offre la puissance de montage en temps réel et les outils de productivité supplémentaires dont vous avez besoin pour tirer pleinement parti d'adobe
Plus en détailPortefeuille de solutions HP pour la virtualisation
Portefeuille de solutions HP pour la virtualisation Table des Matières Introduction P3 1. Les avantages de la Virtualisation P4 2. La valeur Ajoutée HP P6 3. La valeur Ajoutée Intel P8 4. Le portefeuille
Plus en détailIntroduction à la Programmation Parallèle: MPI
Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4
Plus en détailWHITE PAPER. Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis
Quels avantages la déduplication offre-t-elle aux entreprises? Livre blanc Acronis Copyright Acronis, Inc. 2000 2009 Table des matières Résumé... 3 Qu est-ce que la déduplication?... 4 Déduplication au
Plus en détailArchitecture des Ordinateurs. Partie II:
Architecture des Ordinateurs Partie II: Le port Floppy permet le raccordement du lecteur de disquette àla carte mère. Remarque: Le lecteur de disquette a disparu il y a plus de 6 ans, son port suivra.
Plus en détailI00 Éléments d architecture
I00 I Exemples d ordinateur Pour les informaticiens, différentes machines de la vie courante sont des ordinateurs : par exemple les ordinateurs portables, les ordinateurs fixes, mais aussi les supercalculateurs,
Plus en détailMaîtriser les technologies Big Data pour obtenir des résultats en quasi-temps réel
LIVRE BLANC Processeurs Intel Xeon Unités de stockage SSD Intel Cartes réseau convergé Ethernet Intel Distribution Intel pour logiciel * Maîtriser les technologies Big Data pour obtenir des résultats en
Plus en détaile-novatic PRATIQUES, PLANIFICATION SUITE
Communauté officielle MICROSOFT Contact : Cédric GEORGEOT Téléphone : 06 58 47 43 38 Télécopie : 09 72 11 52 44 e-novatic 40a rue de l ancienne église F-67760 GAMBSHEIM www.e-novatic.fr DOSSIER DE PRESSEE
Plus en détail