Rapport d'activité 2014 de la plate-forme technologique CISM

Dimension: px
Commencer à balayer dès la page:

Download "Rapport d'activité 2014 de la plate-forme technologique CISM"

Transcription

1 Rapport d'activité 2014 de la plate-forme technologique CISM Rédigé par Damien François, Luc Sindic, Bernard Van Renterghem et Thomas Keutgen (responsable). version électronique disponible à l'adresse

2 Table des matières Introduction 6 1 L année 2014 en bref 7 2 CISM plate-forme technologique 8 3 Les salles informatiques 9 4 Matériel et infrastructure Les infrastructures de calcul La grappe MANNEBACK La grappe HMEM La grappe LEMAITRE Les systèmes de stockage de masse Serveurs spécifiques Serveurs SAS SMCS1&2 (SMCS) Serveur Matlab LM9 (INMA) Gestion et développement de l infrastructure Gestion des incidents Déclassement des serveurs plus anciens Consortium des Equipements de Calcul Intensif Les infrastructures disponibles Enquête de satisfaction Développement d un nouveau système de fichiers partagé Tier1 en FWB et accès à PRACE Développement d un outil d aide à la soumission de jobs Support aux utilisateurs et formations Support aux utilisateurs Formations et au delà A Inventaire des infrastructures de stockage 34 B Inventaire des infrastructures de calcul 35 C D Répartition des utilisateurs de l UCL dans l utilisation des infrastructures de stockage 38 Répartition des utilisateurs de l UCL dans l utilisation des infrastructures de calcul 39 E Activités de formation, veille technologique, et réseautage 40 E.1 Slurm User Group

3 E.2 Réunion Xeon Phi chez HP E.3 Storage Expo F Publications 41 Rapport d activité 2014 du CISM 3 47

4 Le CISM en quelques mots... Le CISM est une plate-forme technologique rattachée au Secteur des Sciences et Technologies (SST). Son rôle est de fournir aux chercheurs de l Université des solutions de calcul intensif sur de puissants systèmes informatiques et des solutions de stockage sûr et sécurisé de grandes masses de données. Un outil indispensable à la recherche En informatique scientifique, bien que la puissance des ordinateurs individuels s accroit de génération en génération, les besoins en calcul et stockage augmentent de manière bien plus grande encore, particulièrement dans les domaines de la simulation numérique, de la modélisation, de la bioinformatique, etc. Cette année 2014 a vu plus de 170 utilisateurs UCL (et 480 en tout), utiliser, souvent jusqu au maximum de leur capacité, les infrastructures du CISM et du CÉCI. Ce qui représente, rien que pour l UCL, plus de 16 millions d heures de calcul (dont 10M uniquement sur les infrastructures du CISM), et 222 TB de stockage, permettant la production de 84 publications scientifiques. Une expertise reconnue L équipe de gestion de la plate-forme CISM regroupe quatre informaticiens spécialisés entretenant un savoir-faire de pointe en calcul scientifique et en gestion de parc informatique. Cette expertise est reconnue au sein de l Université où le CISM contribue à la réalisation des projets de plusieurs entités : hébergement de machines de calcul statistique pour SMCS, étude d une nouvelle salle machine avec SIPR, coopération avec CP3, unité gérant également des grappes de calcul, etc. Cette expertise est également reconnue au sein de la Fédération Wallonie-Bruxelles : les formations organisées par l équipe du CISM ont attiré en 2014 plus de 70 chercheurs issus de chacune des universités wallonnes et bruxelloise. 2014, l année du 10ième anniversaire. Cette année anniversaire a été pour le CISM l occasion d une refonte importante de ses organes de gestion. Et même si les infrastructures n ont pas beaucoup évolué en terme de puissance installée, la puissance de calcul disponible globalement a plus que doublée avec l ouverture au CÉCI du Supercalculateur Tier-1 wallon. De nouvelles formations pour les utilisateurs, et la poursuite des grands chantiers que sont la nouvelle salle machine et le projet de stockage partagé CÉCI viennent compléter le tableau.

5

6 INTRODUCTION Le présent rapport a pour but de fournir un résumé des activités de la plate-forme technologique sectorielle Calcul Intensif et Stockage de Masse (SST/CISM) et de l équipe qui en gère les équipements, pour l année Le lecteur disposant de la version imprimée est invité à consulter la version électronique 1 où les hyperliens donnent accès aux références de ce rapport. Les faits saillants de l année 2014 y sont extraits d une masse brute de procès-verbaux et de statistiques. Le rôle de la plate-forme, pour son aspect «calcul intensif» est d assurer aux chercheurs de l université l accès à des outils informatiques de calcul scientifique de grande puissance, appelés «grappes de calcul», ou «clusters» ; il s agit d ensembles d ordinateurs présentant de très grosses configurations interconnectés de manière à combiner leurs puissances individuelles en un super-ordinateur. Le rôle «stockage de masse» consiste à offrir aux chercheurs l accès à des infrastructures de stockage de données de grande capacité disponibles à toute la communauté universitaire. Les activités prises en charge par la plate-forme vont donc de l acquisition du matériel, et de sa maintenance, au support et à la formation des chercheurs à l utilisation de ce matériel, sur base d une expertise de haut niveau entretenue activement au sein de l équipe, et d une veille technologique permanente, en collaboration avec les autres services de l UCL mais également avec les autres universités belges. La suite de ce rapport présente les faits importants de 2014 (Section 1), l évolution des organes de la plate-forme (Section 2), l état des lieux des infrastructures du CISM (Sections 3 et 4), les nouveaux projets mis en place dans le cadre du CÉCI (Section 5), le bilan des activités de support aux utilisateurs (Section 6.1) et les perspectives pour 2015 (Section 7). Les annexes reprennent les détails des infrastructures (Annexes A et B), la répartition par pôle des utilisateurs de l UCL (Annexes C et D), ainsi que la liste des publications obtenues cette année grâce aux outils du CISM (Annexe F). 1 http :// Rapport d activité 2014 du CISM

7 1 L ANNÉE 2014 EN BREF En 2014, le CISM a fêté ses 10 ans d existence. C était l occasion pour nous d organiser un évènement regroupant les personnes à l origine de notre plate-forme et nous remémorer les souvenirs de 2004, année où le calcul intensif et le stockage de masse ont pris leur place au sein de l Université par la création de l Institut CISM. Plate-forme technologique depuis 2009, notre organisation n a cessé d évoluer. Encore cette année, un nouveau règlement d ordre intérieur (ROI) a été approuvé par les autorités de l Université et la gestion du CISM a été confiée à deux nouveaux comités : le comité de gestion et le comité des utilisateurs. Ce point sera détaillé à la Section 2. Globalement, nos infrastructures n ont pas connu de grosse modification cette année. On notera les serveurs ajoutés au cluster Manneback mais cela reste relativement limité en terme d occupation d espace et de puissance. Pour rappel, nous sommes en attente de la mise à disposition d une nouvelle salle machine nous permettant le déploiement de nouvelles infrastructures. Cette nouvelle salle sera construite en 2015 comme nous le verrons à la Section {salles}. En ce qui concerne le calcul intensif, la mise en service du supercalculateur Tier-1 au Cenaero et son ouverture à tous les utilisateurs du CÉCI[ˆConsortium des Équipements de Calcul Intensif en Fédération Wallonie Bruxelles] est certainement un des évènements les plus importants de l année écoulée. On reviendra plus largement sur cet évènement à la Section 5.4. Dans les activités du CÉCI, un nouveau projet Grands Équipements a été accepté pour financement par le FNRS. Il concerne la mise en place d un système de fichiers partagé favorisant la mobilité des chercheurs entre les différentes plates-formes de calcul mises à disposition par le consortium. Ce point sera discuté à la Section 5.3. On peut également rappeler la séance de debuggage qui a eu lieu en début d année permettant à quelques utilisateurs avertis de tester l efficacité de leur code en utilisant, sur une courte période, les 1344 processeurs disponibles sur le cluster Lemaitre2. Cette session a été un réel succès et certains utilisateurs ont obtenu ainsi les informations nécessaires pour envisager l accès à des infrastructures plus importantes. Pour le stockage de masse, malgré le démantèlement de Storage02, l espace de stockage disponible est resté suffisant pour ne pas devoir envisager son remplacement immédiat. Un renforcement sera cependant nécessaire en Nos formations se sont à nouveau étoffées avec deux nouvelles sessions (programmation Fortran et C++) et trois nouveaux formateurs (voir la section {formations}). Enfin, il reste à citer les 84 publications qui ont bénéficié de l apport essentiel des infrastructures CISM en 2014 ; elles sont listées en annexe F. Rapport d activité 2014 du CISM 7 47

8 2 CISM PLATE-FORME TECHNOLOGIQUE Cette année, le CISM a fêté ses 10 ans d existance! C était l occasion de rassembler les différents acteurs qui ont contribué activement à la réussite de notre plate-forme et se souvenir des premières années de calcul intensif et de stockage de masse à l UCL. Une séance académique a donc été organisée à cette fin le 2 octobre Dès 2013, le CISM avait entamé la modification de son fonctionnement avec la scission de son conseil de gestion en deux nouvelles assemblées : le comité de gestion et le comité des utilisateurs. Au même moment, le Conseil du Service à la Société (CSES) a remis une note au Conseil Académique proposant une nouvelle ligne de conduite pour le fonctionnement des plate-formes technologiques. Notre objectif rencontrant l essentiel des points mentionnés dans cette note, notre nouveau règlement d ordre intérieur (ROI) a rapidement pris forme et a été déposé pour approbation au bureau du Secteur des Sciences et Technologies (SST). Il a officiellement été approuvé par le Conseil Académique du 3 juin Les points importants de notre nouvel ROI sont les suivants : Le CISM devient une plate-forme technologique sectorielle du secteur SST. Il est représenté auprès des autorités de l UCL par son institut de référence, IMCN, et en particulier par son président. Le Comité de Gestion du CISM se réunit environ deux fois par an pour définir les stratégies à moyen et long terme et évaluer le fonctionnement de la plate-forme. Il est composé d un représentant par institut grand utilisateur de nos infrastructures et présidé par un académique nommé pour 4 ans. Le comité des utilisateurs se réunit au moins six fois par an pour proposer la politique de gestion et d utilisation des équipements scientifiques et techniques. Il est composé d au moins un membre des pôles de recherche regroupant les utilisateurs les plus significatifs et présidé par le président du comité de gestion Rapport d activité 2014 du CISM

9 3 LES SALLES INFORMATIQUES Comme discuté dans nos rapports précédents, les deux salles actuelles (l Aquarium et la salle Tier-2) ne permettent plus aujourd hui d héberger simultanément les serveurs des services centraux (SIPR), de IRMP/CP3 et du SST/CISM. Par manque de place d abord : les armoires sont remplies au maximum de leur capacité. Par manque de puissance ensuite : les projets orientés calcul intensif (CISM et CP3) nécessitent des armoires permettant d atteindre les 20 kw alors que la capacité actuelle est de 12 kw par armoire. Enfin, les besoins deviennent de moins en moins compatibles entre les services centraux qui doivent assurer un service ininterrompu et donc, recherchent à assurer la redondance de chaque élément de la salle, et les utilisateurs du calcul haute performance (CP3 et CISM) qui ont besoin d un maximum de puissance par armoire afin d optimiser la densité des serveurs de calcul. Un projet de nouvelle salle (DCIII, DataCenter III) a donc vu le jour grâce au travail efficace de ADPI/GTPL. Un nouveau bâtiment sera construit dans le courant de l année Dans un premier temps (phase I), 12 armoires de 20 kw seront disponibles pour la fin de l année Une seconde phase est prévue en 2017 où la salle sera mise à niveau et atteindra les 20 armoires. La figure 1 présente le site choisi pour l implantation de cette nouvelle salle (cette figure nous a été transmise par ADPI/GTPL). FIGURE 1 : SITE D IMPLANTATION DE LA NOUVELLE SALLE DCIII L optimisation énergétique est un point essentiel dans la conception d une salle machine tant le niveau de consommation électrique est important. Par exemple, en 2014, la consommation cumulée des deux salles existantes s est élevée à 2466 MWh dont un peu moins de la moitié provenant des installations du CISM. Chaque kw économisé par l efficacité de l installation représente donc une économie substantielle pour le gestionnaire de la salle. Un des paramètres les plus utilisés pour mesurer l efficacité d une salle machine est le PUE (Power Usage Effectiveness) qui représente le rapport entre la consommation électrique globale de la salle sur celle des serveurs qu elle héberge. Dans un monde idéal, Rapport d activité 2014 du CISM 9 47

10 si le refroidissement des machines ne produit aucun surcoût énergétique, le PUE est de 1. Ce qui n est bien sûr pas le cas mais plus la conception de la salle est optimisée, plus le PUE se rapprochera de l unité. Pour les salles actuelles, nous avons pu estimer le PUE en comparant les valeurs obtenues sur le compteur général des salles (consommation totale) et les mesures prises sur l UPS, fournissant la puissance électrique des serveurs. Cette valeur doit être considérée comme minimale. La figure 2 présente l évolution annuelle du PUE pour l Aquarium et la salle Tier-2. FIGURE 2 : EVOLUTION ANNUELLE DU PUE POUR LES SALLES AQUARIUM ET TIER-2 On peut remarquer que cette valeur n est pas constante et qu elle dépend des saisons et donc, des conditions de température extérieure. Cette dépendance est particulièrement marquée pour la salle Tier-2 qui, contrairement à l Aquarium, est équipée d un aéroréfrigérant qui permet de refroidir le circuit hydraulique de la salle par simple ventilation, lorsque la température extérieure est suffisamment basse. La salle Aquarium, installée en 2005, présente un PUE moyen de 1.55 alors que la salle Tier-2, datant de 2007, plus efficace, tourne autour de L objectif de la nouvelle salle machine, le DCIII, sera de descendre en dessous de 1.3. Fin 2015, lorsque la première phase du DCIII sera terminée, il est prévu de commencer le transfert de toutes les activités de SST/CISM et IRMP/CP3 dans la nouvelle salle. L objectif final étant de libérer la totalité des armoires utilisées dans les anciennes salles pour permettre aux services centraux d augmenter leur capacité. Le CISM gardera cependant une armoire à l Aquarium pour assurer une solution de backup délocalisé de ses services. IRMP/CP3 gardera également une armoire en salle Tier-2 pour certains services ne pouvant pas déménager du bâtiment Marc de Hemptinne. Le rapprochement des serveurs IRMP/CP3 et SST/CISM dans le même local est une chance unique de mutualiser nos différents services. Une collaboration étroite avec les administrateurs de IRMP/CP3 a donc débuté cette année pour étudier les possibilités de ce rapprochement Rapport d activité 2014 du CISM

11 4 MATÉRIEL ET INFRASTRUCTURE FIGURE 3 : EVOLUTION DE LA PUISSANCE THÉORIQUE DE CALCUL AU CISM DEPUIS 2006 En 2014, afin de prolonger un peu l utilité de ses processeurs plus anciens, la majorité des nœuds de calcul de GREEN ont été transférés sur Manneback. Combinée aux huit nouvelles machines que nous avons ajoutées à ce cluster, la puissance théorique cumulée a atteint en 2014 les 42 TFlops comme le montre la figure 3. Un tableau récapitulatif est présenté en Annexe B ainsi que la répartition par Secteurs/Instituts/Pôles des utilisateurs de l UCL (Annexe D). Le détail du taux d utilisation de ces différents clusters sera développé dans les paragraphes ci-dessous. FIGURE 4 : EVOLUTION DE L ESPACE DE STOCKAGE DISPONIBLE AU CISM DEPUIS 2006 Rapport d activité 2014 du CISM 11 47

12 En ce qui concerne le service de stockage de masse, avec le déclassement programmé de Storage02, le CISM met à la disposition de l ensemble de la communauté universitaire environ 260 terabytes[ˆ1 terabyte représente 1000 gigabytes soit l équivalent d un disque dur externe, ou environ 250 DVD] (TB). La répartition de cet espace sur nos serveurs est détaillée à la figure 4. Un tableau récapitulatif est également présenté en annexe {inventaire_st}. La répartition des utilisateurs par secteur/institut/pôle se retrouve en annexe C. Le reste de cette section présente en détail les différentes infrastructures de calcul, grappes et machines interactives ainsi que le récapitulatif des interventions opérées sur ces machines en Les infrastructures de calcul Les infrastructures de calcul du CISM sont de deux types : des grappes de calcul, où les utilisateurs soumettent leurs calculs au logiciel chargé de la gestion des ressources (Manneback, Hmem, Lemaitre2) ; des machines interactives où les utilisateurs se connectent et lancent leurs calculs directement (SMCS1&2, LM9) La grappe MANNEBACK Manneback, baptisée en hommage à Charles Manneback, est une grappe réservée aux membres de l UCL ; elle héberge les machines issues de projets de recherche industriels, les machines spécialement achetées pour tester de nouvelles technologies, et les machines ne trouvant pas leur place ailleurs. Ce qui en fait un cluster hétérogène, regroupant des processeurs AMD et des processeurs Intel, des nœuds avec une interconnexion rapide et à faible latence, et d autres équipés d accélérateurs matériels. Cette année, la puissance maximale de cette grappe a doublé, passant de 10TFlops à un peu plus de 20TFlops. Ainsi, Manneback compte Charles Manneback ( ) à présent 1616 cœurs et dépasse en puissance maximale théorique la grappe Lemaitre2 (1380 cœurs, 14TFlops). Cet accroissement important est dû essentiellement à trois apports : la reconversion de 79 machines de l ancien cluster Green, intégrées à Manneback (+ 6,32Tflops) ; l ajout en mars, d un serveur de 32 cœurs Xeon [email protected]/128 GB RAM, intégré à la partition OBAN (+ 563Gflops) ; et pour finir, l ajout en juin, de 8 nœuds de 16 cœurs Xeon [email protected]/64GB RAM (+ 2.66Tflops). Le front-end (ou serveur d accès) avait été renforcé l an passé. Il s agit d une machine puissante équipée de deux processeurs Intel(R) Xeon(R) CPU 2.00GHz (soit Rapport d activité 2014 du CISM

13 100.. CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 5 : TAUX D UTILISATION CUMULÉ DE MANNEBACK cœurs de calcul en tout), 64GB de RAM, et 30TB de disque configurés en RAID6. Ce serveur d accès supporte sans difficulté le doublement de la charge (de 856 à 1616 cœurs). La partition INDUS a été mise en place suite à un contrat de recherche en collaboration avec des partenaires industriels. Cette partition est réservée aux activités liées à ce contrat durant la durée des travaux, et n est disponible pour les utilisateurs n y étant pas impliqués directement qu en cas de surcapacité. En pratique, chacun peut y soumettre un job, mais ce job pourra être arrêté et annulé pour laisser la place aux jobs prioritaires si besoin est. NAPS 70%. 10% COSY 8% 5% Autres 7% ELEN MIRO FIGURE 6 : RÉPARTITION PAR PÔLE POUR MANNEBACK La partition OBAN est également réservée en priorité aux utilisateurs qui ont financé les machines qui la composent ; cependant, si leurs jobs ont une priorité nettement supérieure à celle des autres jobs, ils n ont pas la possibilité d arrêter un job en cours pour prendre sa place. Le taux d utilisation cumulé de Manneback (Figures 5) présente la somme de la consommation de CPU et de mémoire des branches par défaut (c est-à-dire tous les nœuds sauf ceux des partitions INDUS et d OBAN). Sur cette figure, on remarque en juillet une interruption due à la semaine de maintenance et de mise à jour de l ensemble des serveurs de calcul. Et hormis les deux périodes plus creuses de mars et de mai, la tendance est à une augmentation de la charge de Manneback. Rapport d activité 2014 du CISM 13 47

14 4.1.2 La grappe HMEM La grappe de calcul Hmem est une infrastructure orientée calcul intensif réclamant une quantité de mémoire vive importante ; d où le choix du nom Hmem pour «High-Memory». Cette infrastructure, installée en février 2011, est à la disposition des utilisateurs de l UCL pour moitié et des membres du Consortium CÉCI pour l autre moitié. Cette grappe est composée de 16 machines DELL (fournies par ClusterVision) 4x12 cœurs AMD Opteron 6174 dont deux sont équipées de 512 GB de RAM, 7 de 256 GB et 7 de 128 GB. Un financement La grappe Hmem d ELIC a permis d ajouter un huitième nœud équipé de 128 GB de RAM (Hmem17). L ensemble est interconnecté par un réseau rapide à faible latence Infiniband QDR (40 Gbits/s). Le CISM a ajouté un serveur d accès et de sessions interactives équipé de 2x6 cœurs AMD Opteron 4180, 64GB de RAM, et de 11TB d espace disque pour les répertoires utilisateurs. Il permet l identification des utilisateurs et la gestion des jobs en attente de soumission. Enfin, 3 serveurs Transtec Calleo 530 acquis en novembre 2008 (4 dual-cœur AMD Opteron et 128GB RAM) faisant anciennement partie de Lemaitre ont été ajoutés à la grappe Hmem (Hmem18, 19 et 20, dans une queue «fast» de 24 heures maximum) CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 7 : TAUX D UTILISATION CUMULÉ DE HMEM Le matériel qui compose Hmem est particulier car très peu de serveurs de calcul disposent d un demi TB de RAM, et les valeurs de 128 et 256 GB sont également plus élevées que ce qui est classiquement disponible sur des serveurs de calcul. Cela permet d y faire tourner des simulations qui ne pourraient s exécuter ailleurs (manipulant des tableaux très grands, par exemple). Néanmoins, le taux d utilisation de Hmem, bien que relativement élevé, a fléchi cette année. C est ce que présente la figure 7. Cela peut s expliquer par différents facteurs : Le CÉCI dispose, avec Dragon1, d une grappe de 26 serveurs équipés chacun de 128 GB de RAM et, avec Vega, de 43 nœuds de 256GB de RAM. Hormis les deux premiers nœuds Hmem1 et Hmem2 (512 GB de RAM), Hmem n est plus le seul à pouvoir accueillir des modélisations gourmandes en mémoire. De plus, les processeurs AMD Opteron 6174 sont moins rapides que les processeurs de générations suivantes, qui équipent les grappes plus récentes. La figure 8 montre une utilisation de Hmem bien répartie au sein des universités du CÉCI (seulement 4% UMons et 6% ULB qui hébergent respectivement Dragon1 et Vega). Sur la partition High (les nœuds Hmem1-Hmem2 équipés de 512 GB de RAM), SLURM, le gestionnaire de jobs, a été configuré de telle manière que seules les Rapport d activité 2014 du CISM

15 UCL 43% 27%. 4% UMons UNamur 20% ULB 6% ULg FIGURE 8 : RÉPARTITION DE L UTILISATION DE HMEM PAR UNIVERSITÉ simulations demandant plus de 256GB puissent y démarrer, pour utiliser judicieusement ces serveurs particuliers. Ils sont ainsi plus disponibles mais cela fait diminuer leur taux moyen d utilisation. SLURM doit veiller au partage équilibré entre les utilisateurs des 5 universités de la Fédération Wallonie Bruxelles. La configuration choisie tient compte du fait que la machine est dédiée à 50% aux membres de l UCL et 50% aux membres du CÉCI (dont l UCL). A part cela, tous les utilisateurs sont mis sur le même pied. La figure 8 présente la répartition de l utilisation de la grappe Hmem entre les 5 universités de la FWB pour l année La grappe LEMAITRE2 L accord du Consortium des équipements de Calcul Intensif CÉCI de 2010 a permis en 2011 le financement par le FNRS d une machine massivement parallèle, disposant d un grand nombre de CPUs performants interconnectés par un réseau rapide. La grappe Lemaitre2 est composée de 1344 cœurs de calcul Intel [email protected] interconnectés par un réseau Infiniband QDR (3 :1) blocking. Un système de fichiers parallélisé de type Lustre assure Georges Lemaitre l accès en écriture le plus rapide possible à un espace d hébergement ( ) temporaire de données de 120 TB. Les serveurs de gestion, d accès aux répertoires utilisateurs (contenant les données essentielles, les sources et les programmes des utilisateurs) et de gestion du système de fichiers Lustre (plus performant, contenant les données de production des utilisateurs) sont tous dédoublés et sécurisés via Linux High Availibility (LHA). La grappe Lemaitre2, avec sa puissance maximale théorique de 13.6 Tflops, représente 35% de la puissance offerte par le CISM à la communauté. La figure 9 présente le taux d utilisation mensuelle de la grappe Lemaitre2 pour l année Rapport d activité 2014 du CISM 15 47

16 100.. CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 9 : TAUX D UTILISATION CUMULÉ DE LEMAITRE2 UCL UNamur 12% 37%. 33% 10% 8% UMons ULB ULg FIGURE 10 : RÉPARTITION DE L UTILISATION DE LEMAITRE2 PAR UNIVERSITÉ Rapport d activité 2014 du CISM

17 4.2 Les systèmes de stockage de masse Le serveur Storage02, acquis en 2009, est arrivé en fin de garantie début 2014 et a été déclassé. L espace disponible a ainsi été réduit de 36 TB. Actuellement, les trois serveurs Storage03, Storage04 et Storage05 fournissent à la communauté universitaire 261 TB d espace disque en ligne, répartis comme suit (voir également la figure 4) : Storage03 : 42 TB Storage04 : 64 TB Storage05 : 155 TB Cet espace disque est sécurisé : la configuration RAID des machines tolère la panne de disques, remplaçables à chaud, c est-à-dire sans devoir éteindre la machine. De plus, la récupération en cas de désastre est assurée par la délocalisation des serveurs (Storage04 et Storage05 au Pythagore ; Storage03 au Marc de Hemptinne) et la mise en place d un système de réplication des données, activé uniquement si l utilisateur le souhaite. FIGURE 11 : RÉPARTITION DES UTILISA- TEURS PAR SECTEUR FIGURE 12 : RÉPARTITION DES UTILISA- TEURS PAR INSTITUT FIGURE 13 : RÉPARTITION DES UTILISA- TEURS PAR PÔLE FIGURE 14 : RÉPARTITION DU STOCKAGE UTILISÉ DEPUIS 2008 Les Figures 11 à 13 présentent la répartition des utilisateurs par secteur, par institut et par pôle de recherche. ELI reste l institut le plus important avec les pôles ELIC et ELIE. La Figure 14 montre l évolution de l espace de stockage utilisé et son accélération ces dernières années. En 2015, les prévisions basées sur les estimations des utilisateurs du calcul intensif nous annoncent une augmentation importante de l espace utilisé. Un renforcement de notre infrastructure de stockage deviendra nécessaire. Rapport d activité 2014 du CISM 17 47

18 Suite à la réduction de l espace disponible sur les serveurs Storage04 et Storage05, lors de la consolidation du niveau de sécurisation des données en 2013, l espace de stockage alloué à ELIE et ELIC a été réduit proportionnellement. FIGURE 15 : LA RESTRUCTURATION DES SERVEURS DE STOCKAGE Les données ont été redistribuées entre les serveurs de façon à regrouper celles de chaque pôle de recherche sur un même serveur. L accès aux machines de stockage a également été restructuré. La figure 15 représente la consolidation des différents serveurs Storage02 à Storage05, entreprise en début d année, afin de permettre à tout les utilisateurs d accéder à leurs données de façon identique (sur storage.cism.ucl.ac.be, dans son /home/pôle/login). Dans la salle Aquarium se trouvent Storage02, Storage04 et Storage05, alors que Storage03 est installé dans la Salle Tier2. Une procédure de montage automatique (NFS auto mount) permet d établir la correspondance /home/pôle/login, même si les données accédées se trouvent sur un autre serveur. Par exemple, sur Storage05, /home/naps est un lien vers /net/storage03/storage/naps car les données du pôle NAPS se trouvent sur Storage03. Le serveur déclassé Storage02 a été reconditionné : quatre liens directs relient les quatre grappes de calcul. Ainsi, les espaces de travail /workdircism et /workdirceci sont visibles depuis tout les nœuds de calcul de chaque cluster. Enfin, signalons que Pascal Frisque (SIMM) a été nommé représentant des petits utilisateurs du stockage de masse, en remplacement d Emile Berckmans, que le CISM tient à remercier tout partiuclièrement Rapport d activité 2014 du CISM

19 4.3 Serveurs spécifiques Outre les grappes de calcul, le CISM héberge des serveurs de calculs interactifs, mis en place pour répondre aux besoins spécifiques de certaines entités Serveurs SAS SMCS1&2 (SMCS) Pour permettre aux chercheurs dont les travaux nécessitent de travailler sur des grosses bases de données, de mener à bien leur recherche, la plate-forme technologique Service de Méthodologie et de Calcul Statistique (IMAQ/SMCS) a financé, en 2011, deux serveurs de calcul que nous hébergeons dans nos infrastructures... CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 16 : TAUX D UTILISATION DE SMCS1.. CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 17 : TAUX D UTILISATION DE SMCS2 Ces deux machines, conçues principalement pour le logiciel statistique SAS, permettent également l utilisation des logiciels R et Stata. En 2014, la gestion de ces deux machines s est poursuivie sans incident, avec comme fait notable la mise à jour du logiciel SAS en version 9.4, et la reconfiguration de la connexion de ces machines à leur espace de stockage de manière à augmenter significativement les vitesses d accès aux données. Dans les figures 16 et 17, on peut voir l évolution de l utilisation des processeurs (surface bleue) et de la mémoire (trait rouge) des deux machines. Une utilisation au-delà de 100% indique une utilisation sous-optimale de la machine ; plus de processus (instances de programmes utilisateurs) que de processeurs (et donc changements de contextes fréquents car plusieurs processus se partagent un même processeur) ou plus de mémoire Rapport d activité 2014 du CISM 19 47

20 de travail utilisée que de mémoire disponible (et donc utilisation d espace disque de type swap pour la mémoire) Serveur Matlab LM9 (INMA) Début 2011 toujours, le pôle d Ingénierie Mathématique (ICTM/INMA), avait financé un serveur spécifique pour l utilisation interactive du logiciel Matlab. En 2013, la gestion de cette machine par le CISM s est poursuivie également, avec, à noter, deux interventions sur panne de disque dur. Cette machine est régulièrement utilisée, comme le montre la figure 18. Elle est en fait beaucoup utilisée pour convertir des programmes Matlab en programmes C de manière à pouvoir les faire tourner sur un cluster comme MANNEBACK ou HMEM CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 18 : TAUX D UTILISATION DE LM9 4.4 Gestion et développement de l infrastructure Gestion des incidents Au cours de l année 2014, nous avons dû faire face à une trentaine de pannes ou problèmes matériels. Certains ont nécessité un remplacement, d autre une reconfiguration. La figure 19 montre la fréquence des incidents selon leur type. On voit sans surprise que ce sont les disques durs et les mémoires qui sont les éléments devant être le plus souvent remplacés. Il est à noter que grâce à la configuration en redondance des disques durs des homes et des stockages de masse, aucune perte de données n est à déplorer lors des crash de disques. A contrario, les disques des systèmes de scratch sont configurés sans redondance ; ainsi le crash d un disque du système /scratch de Hmem a conduit à la perte de certains fichiers pour certains utilisateurs. Heureusement, il s agissait de fichiers reconstructibles, ou dont une copie existait ailleurs. Et alors que les autres types d interventions se font obligatoirement lors d un arrêt de la machine, les remplacements de disques se font à chaud, alors que la machine tourne et répond aux commandes des utilisateurs, de manière totalement invisible pour ces derniers. Il est évident que le nombre d interventions sur un système dépend à la fois de la taille de ce système et de son ancienneté. Comme on le voit sur la figure 20, la majorité des Rapport d activité 2014 du CISM

21 Remplacement de mémoire Reformatage de disque Remplacement d adapter board Remplacement de carte mère Remplacement de disque dur Reconfiguration software Remplacement de CPU Remplacement de ventilateur FIGURE 19 : RÉPARTITION DES INCIDENTS PAR TYPE EN 2014 interventions ont eu lieu sur les deux plus gros clusters gérés par le CISM, Lemaitre2 et Manneback, ce dernier incluant par ailleurs beaucoup de vieux serveurs de calcul récupérés des anciens clusters GREEN et Lemaitre. Par trois fois en 2014, le système de refroidissement de la salle Tier2 dans laquelle sont installées les machines de Green ont défailli, entrainant l arrêt complet de ces machines le temps de la remise en route, souvent très rapide, des équipements par l équipe technique de ADPI/GTPL. Manneback Lemaitre2 Green Hmem 2 Storage 1 Network FIGURE 20 : RÉPARTITION DES INCIDENTS PAR MATÉRIEL EN 2014 En ce qui concerne la salle Aquarium, nous avons dû faire face à une défaillance importante de l UPS, le système qui protège nos équipements des problèmes électriques, qui a nécessité l arrêt de l ensemble des nœuds de calcul des clusters Manneback, Hmem et Lemaitre2 durant deux journées. Les serveurs de tête et les serveurs de fichiers ont pu être maintenus par la mise en place d une ligne électrique temporaire. L année 2014 a par ailleurs vu la divulgation de failles de sécurité importantes dans les systèmes logiciels que nous utilisons, à savoir Bash ( Shellshock ), SSL ( Haertbleed ), et Linux ( Semtex ). Pour les deux premières citées, nous avons pu rapidement établir que nos systèmes n étaient pas vulnérables. Pour la troisième, nous avons en urgence appliqué les mises à jour de sécurité nécessaires. Mais aucun de nos systèmes n a été compromis. Enfin, comme les années précédentes, nous avons procédé à une maintenance planifiée durant la dernière semaine de juillet pour mettre à jour des systèmes, nettoyer des espaces /scratch, et installer la dernière version du gestionnaire de jobs (SLURM v14.03). Rapport d activité 2014 du CISM 21 47

22 4.4.2 Déclassement des serveurs plus anciens Green a été installé en 2008 suite à un financement FNRS obtenu par le pôle Nanoscopic Physics (IMCN/NAPS). Il avait été conçu de manière à minimiser la consommation électrique tout en garantissant un bon niveau de performances. Il disposait de 102 nœuds, soient 816 cœurs, fournissant 8.16 TFlops de puissance théorique maximale, pour une consommation électrique ne dépassant pas 24 kw. Le cluster Green, arrivé en fin de contrat de maintenance en 2013, n a pas été démonté mais il continue à rendre des services par un recyclage de ses composants : Un nœud (node096) est toujours réservé à l usage unique de NAPS, comme serveur de compilation buildbot dans un environnement de référence, pour le logiciel ABI- NIT ; Six nœuds ont été réaffectés au cluster de test Leleve2 de l équipe de gestion (pour l évaluation d outils de déployement, de systèmes de fichiers partagés, de configuation SLURM, ) ; 79 nœuds ont été rattachés à Manneback (soit 6,32 Tflops). Les 16 premiers nœuds restent attachés à Green, réduit à 128 cœurs, pour les utilisateurs en fin de thèse, qui ont souhaité pouvoir y effectuer d ultimes simulations, et pour le cours LMAPR2451 Le rattachement de ces 632 cœurs de Green à Manneback n a pas demandé de déplacement des serveurs : un lien Gigabit ethernet point à point relie la grappe Manneback dans l AQUARIUM (bâtiment Pythagore) et les nœuds de Green dans la salle TIER2 (Marc de Hemptinne). Green était délaissé des utilisateurs (ancien système de queues, anciens compilateurs et librairies). Intégrés à Manneback de façon transparente, ces nœuds de calcul sont à nouveau bien chargés Rapport d activité 2014 du CISM

23 5 CONSORTIUM DES EQUIPEMENTS DE CALCUL INTENSIF Depuis la création du CÉCI - Consortium de Equipements de Calcul Intensif (F.R.S.- FNRS), nous y avons pris une part très active, notamment en développant une partie importante de l infrastructure de comptes partagés. Cette infrastructure permet à chaque chercheur d une université membre (les cinq universités francophones) d utiliser n importe quel cluster dans n importe quelle université en utilisant un seul identifiant unique. C est par ailleurs à l UCL qu ont été installés les deux premiers clusters Hmem et Lemaitre2. Il n est pas étonnant dès lors que les utilisateurs UCL furent parmi les premiers, et les plus nombreux, à utiliser les infrastructures CÉCI, comme le montrent les figures 21 et UCL.. UMons.. UNamur.. ULg.. ULB FIGURE 21 : EVOLUTION DU NOMBRE D UTILISATEURS CÉCI PAR UNIVERSITÉ Le CÉCI a par ailleurs organisé, comme chaque année, une journée scientifique permettant aux utilisateurs de présenter leur recherche et leur manière d utiliser les clusters. L orateur UCL pour cette année fut Thomas Demaet. Enfin, pour s assurer de rester à l écoute de ses utilisateurs, le CÉCI a de nouveau organisé, en 2014, une enquête de satisfaction. Pour le CÉCI, 2014 a été aussi l année de l ébauche de deux projets importants : d une part l accès à une machine Tier-1 de plus de cœurs, et d autre part la création d un système de stockage commun à tous les clusters. 5.1 Les infrastructures disponibles Avec l installation de NIC4 en février 2014 à Liège, c est un premier cycle de développement du CÉCI qui s achève. Après Hmem, projet pilote financé par un projet FNRS/UCL mais partagé à 50% avec le CÉCI, Lemaitre2, toujours à l UCL, puis Dragon1 à l Université de Mons, Hercules à l Université de Namur, et Vega à l Université libre de Bruxelles, NIC4 est le sixième cluster installé grâce au premier tour de financement du CÉCI. Rapport d activité 2014 du CISM 23 47

24 UCL.. UMons.. UNamur.. ULg.. ULB FIGURE 22 : ÉVOLUTION DU NOMBRE DE MINUTES CPU CONSOMMÉES PAR LES UTILISA- TEURS DU CÉCI Comme le montre la table 1, ces clusters ont été conçus de manière à s adapter aux besoins fort variés des utilisateurs ; à la fois au niveau matériel, mais également au niveau des politiques d ordonnancement des jobs sur ces clusters. Ainsi, certains ont beaucoup de mémoire par nœud (e.g. Hmem), d autres beaucoup de nœuds connectés grâce à un réseau hyper rapide (e.g. NIC4), d autres encore offrent la possibilité de faire de très longs calculs (e.g. Hercules) A l heure actuelle, c est plus de 8300 cœurs de calcul qui sont disponibles pour les chercheurs des cinq universités. Mais outre ces ressources calculatoires, le CÉCI offre également une infrastructure simple de gestion des comptes utilisateurs et de nombreux tutoriels et autres FAQ pour permettre aux chercheurs d utiliser au mieux ces clusters. Nombre de cœurs Mémoire totale Point fort Hmem 17 x 48 = 816 4TB RAM, 15TB HD Jusqu à 512GB de RAM Lemaitre2 115 x 12 = TB RAM, 120TB HD Réseau hyper rapide Dragon1 26 x 16 = TB RAM, 28TB HD Gros scratchs locaux Hercules 32x x12 = 896 4TB RAM, 20TB HD Permet de longs jobs Vega 43 x 64 = TB RAM, 70TB HD Calcul entier NIC4 128 x 16 = TB RAM, 144 TB HD Système de fichiers TABLE 1 : LISTE DES CLUSTERS DISPONIBLES AU SEIN DU CÉCI Il n y a pas à l heure actuelle de perspectives de renforcement du nombre de cœurs de calcul ou de remplacement de l équipement devenant peu à peu obsolète, mais plutôt des initiatives d amélioration de la qualité de service d une part, avec pour 2015 une Rapport d activité 2014 du CISM

25 Hmem.. Lemaitre2.. Dragon1 nombre de cœurs Hercules.. Vega.. NIC4.. Zenobe FIGURE 23 : ÉVOLUTION DU NOMBRE DE CŒURS DE CALCUL DISPONIBLES AU TRAVERS DU CÉCI DEPUIS SA CRÉATION meilleure connectivité entre les clusters et un système de fichiers commun, et d autre part une volonté de profiter du nouveau cluster Tier-1 dont plus de 8000 cœurs sont réservés aux universités. 5.2 Enquête de satisfaction Cette année encore, nous avons participé à l élaboration et à l organisation d une grande enquête de satisfaction auprès de nos utilisateurs et des utilisateurs du CÉCI. Organisée en juin, elle a touché 315 utilisateurs, parmi lesquels 74 ont répondu. L enquête était anonyme et posait les questions suivantes : Comment connaissez-vous le CÉCI? Quelles difficultés avez-vous rencontrées lors de la création de votre compte? Quels sont vos besoins en matériel, en logiciel? Quelles sont les caractéristiques d un job typique? Le questionnaire permettait également de laisser un commentaires libre. Les points essentiels à retenir de cette enquête sont : une grande satisfaction dans l ensemble : seuls cinq répondants ont laissé un commentaire négatif ; un besoin en logiciels plus varié que l année précédente, montrant un public touché plus large ; une demande d espace de travail/stockage commun à tous les clusters ; et évidemment un besoin pour toujours plus de ressources. Rapport d activité 2014 du CISM 25 47

26 La demande pour un espace de travail/stockage commun à tous les clusters avait déjà été exprimée dans le sondage précédent et le CÉCI y a répondu en déposant auprès du F.N.R.S. une demande de financement pour une solution matérielle et logicielle adaptée. La demande a été acceptée en 2014 et devrait aboutir à une solution effective en Les répondants avaient en outre la possibilité de laisser leurs coordonnées pour être contacté par un gestionnaire directement pour discuter des problèmes rencontrés. Quatre répondants ont profité de cette opportunité et leurs problèmes ont été solutionnés. Par ailleurs, une réponse détaillée à chaque point soulevé anonymement a été rédigée et postée sur le site web. Un résumé des résultats de l enquête et la réponse rédigée sont disponibles à l adresse : Développement d un nouveau système de fichiers partagé Depuis sa création, le CÉCI a œuvré à la mise en place d un cluster de calcul dans chaque université partenaire, en tenant compte des besoins spécifiques locaux pour le choix des matériels et technologies, mais en mettant en place un système de création de compte qui soit global et commun. Ainsi, chaque utilisateur peut se connecter, avec son compte CÉCI unique, au cluster de son choix, quelle que soit l université d accueil du cluster. Le projet a depuis lors largement démontré son utilité, et la mobilité des chercheurs sur les clusters est avérée. Dès lors, l ambition a grandi et, il est devenu évident que, outre le système de gestion des comptes, la gestion des jobs devait également se faire de manière globale et commune. Le prérequis principal à cette ambition est la mise en place d un espace de stockage fiable et performant qui soit commun à tous les clusters, de manière à ce que, quel que soit le cluster sur lequel un job démarre, ce job ait accès à toutes les données nécessaires à tout moment. Par ailleurs, un tel système permet à l utilisateur de retrouver un environnement (fichiers personnels, configurations, logiciels installés) identique sur tous les clusters. C est par ailleurs une demande qui est apparue à plusieurs reprises lors des enquêtes de satisfaction menées auprès des utilisateurs. Le CÉCI a donc introduit, en 2014, une demande Grand Équipement auprès du F.N.R.S. de manière à acquérir la plate-forme logicielle et matérielle, dont notamment un réseau performant et dédié entre les sites des universités et l a obtenu, grâce à l implication de tous les responsables des entités de recherche utilisateurs et des administrateurs systèmes, dont le CISM. Un financement lié a en outre été attribué pour engager un logisticien de recherche dédié à la mise en place et à la maintenance de ce système. L année 2015 verra donc naitre un système de stockage global et commun à tous les clusters, renforçant encore la collaboration interuniversitaire au sein du consortium. 5.4 Tier1 en FWB et accès à PRACE Le bon formidable observé à la figure 23 en termes de nombre de cœurs disponibles en 2015 est dû à l ouverture aux universités du supercalculateur Tier-1 PRACE installé à Cenaero à Gosselies Rapport d activité 2014 du CISM

27 Ce supercalculateur s inscrit dans PRACE, l initiative Partnership for Advanced Computing in Europe qui regroupe la majorité des pays d Europe dans une plate-forme organisant le partage de ressources calculatoires gigantesques. La Belgique fait partie de PRACE depuis octobre Les machines installées au sein des universités sont qualifiées de Tier-2 dans la nomenclature PRACE ; elles comportent de l ordre de Zenobe la centaine, voire du millier de cœurs, et sont utilisées au sein d une université ou d un centre de recherche. La machine Zenobe, elle, comporte plus de cœurs et fait partie de la catégorie qu on appelle Tier-1, qui regroupe les clusters offrant de l ordre de la dizaine de milliers de cœurs. Le bassin d utilisation d une machine Tier-1 est généralement de la taille d une région. La catégorie reine, des clusters Tier-0, regroupe les infrastructures offrant de l ordre de la centaine de milliers de cœurs. Il y en a une dizaine en Europe ; ils sont listés à la table 2. Localisation Installation Architecture Nb cœurs CURIE GENCI@CEA, France Q Bullx cluster Hermit GCS@HLRS, Germany Q Cray XE FERMI CINECA, Italy Q BlueGene/Q SuperMUC GCS@LRZ, Germany Q idataplex JUQUEEN GCS@FZJ, Germany Q BlueGene/Q MareNostrum BSC, Spain Q idataplex TABLE 2 : LISTE DES CLUSTERS TIER-0 PRACE La Belgique n héberge pas de cluster Tier-0, mais bien deux clusters Tier-1. Le premier, financé par la région flamande, est géré par le Vlaamse Supercomputing Centrum (VSC) et hébergé actuellement à l Université de Ghent. Le second, financé par la Fédération Wallonie-Bruxelles, est installé à Gosselies et est géré par Cenaero, le centre de recherche en aéronautique. Il est nommé Zenobe. Zenobe offre un total de 3288 cœurs Westmere, et 8208 cœurs IvyBridge, et entre 24 et 64 GB de mémoire vive par nœud. Il est équipé d un réseau rapide à faible latence (Infiniband) et d un espace de stockage GPFS de 350TB. Des quelques cœurs que propose la machine Zenobe, 60% sont réservés à la recherche et sont disponibles pour les universités du CÉCI. Ainsi, avec le même identifiant qu ils utilisent sur les clusters du CÉCI, les chercheurs peuvent se connecter sur Zenobe et y soumettre des jobs, pour autant cependant qu ils en aient fait la demande spécifiquement. Zenobe L objectif visé par cette ouverture de la machine Tier-1 est double : d une part accélérer la recherche en offrant encore plus de puissance de calcul aux chercheurs, et d autre part servir de marche-pied, de tremplin, vers des infrastructures Tier-0, en permettant aux chercheurs concernés de développer et tester leur code sur une grosse architecture avant Rapport d activité 2014 du CISM 27 47

28 de soumettre un projet pour obtenir un accès aux clusters Tier-0. Le CISM a fait partie intégrante de l équipe qui a étudié et mis en place cette intégration de la base de données utilisateurs du CÉCI sur la machine Zenobe et de la procédure de demande d accès. 5.5 Développement d un outil d aide à la soumission de jobs Pour soumettre un job sur un cluster du CÉCI, les utilisateurs doivent construire un script de soumission. Cette tâche n est pas foncièrement compliquée, mais recèle parfois quelques subtilités qui mènent parfois à des bloquages et questionnements de la part des utilisateurs. Pour éviter ces bloquages, nous avons construit un outil en ligne d aide à la construction de script de soumission. Concrètement, l outil permet aux utilisateurs de décrire les spécificités de leurs jobs en terme de nombre de cœurs, de mémoire, etc. En se basant sur ces paramètres, l outil fournit alors la liste des clusters sur lesquels il est possible, en fonction des contraintes matérielles et des politiques de gestion, de faire tourner le job décrit. Une fois que l utilisateur a choisi un cluster, le script correspondant au job décrit et au cluster demandé s affiche et peut être copié/collé par l utilisateur avec la garantie que son script fonctionnera. L outil met à jour le script en temps réel, ce qui permet à l utilisateur de voir directement la traduction de ses besoins dans les codes utilisés par Slurm, le gestionnaire de jobs. FIGURE 24 : APERÇU DE L OUTIL D AIDE À LA CRÉATION DE SCRIPTS DE SOUMISSION Rapport d activité 2014 du CISM

29 6 SUPPORT AUX UTILISATEURS ET FORMATIONS Outre la maintenance des infrastructures, le rôle du CISM est également d aider et de former les chercheurs, utilisateurs de ces infrastructures. 6.1 Support aux utilisateurs Les utilisateurs de la plate-forme ont un point de contact unique pour l ensemble des membres de l équipe ; il s agit de l adresse [email protected]. Chaque reçu à cette adresse est pris en charge individuellement ou en équipe, selon les nécessités. Lors de l année 2014, cette adresse a reçu 883 s, dont 510 concernant la création ou le renouvellement d un compte CISM ou d un compte CÉCI. Autres Lemaitre2 Hmem Manneback Green Installations 14 Slurm 11 Quotas 8 lm9 4 SMCS1&2 3 Compilateurs FIGURE 25 : REPARTITION DES DEMANDES D AIDE EN FONCTION DU THÈME ABORDÉ Les comptes CISM donnent accès au cluster Manneback, aux machines interactives, et aux machines de stockage de masse. Les comptes CÉCI donnent pour leur part accès aux clusters Hmem, Lemaitre2 et à tous les autres clusters du CÉCI. On voit sur la figure 26 que les demandes concernant les comptes CISM sont encore très fréquentes. Sur la figure 25, on peut voir que la majorité des demandes concerne notre plus grosse infrastructure, Lemaitre2, puis les autres clusters. On note également quelques demandes d installation de logiciels, mais très peu au regard du volume d activité. On peut attribuer cela au fait que déjà de nombreux logiciels sont disponibles, et que la documentation explique comment installer un logiciel dans son répertoire propre. Compte CISM Compte CÉCI Autres demandes FIGURE 26 : REPARTITION DES DEMANDES RELATIVE À LA CRÉATION OU RENOUVELLE- MENT DE COMPTE Rapport d activité 2014 du CISM 29 47

30 Les demandes habituellement reçues concernent des échecs de jobs, des problèmes observés de performance, de l aide à la compilation ou à la connexion aux clusters. 6.2 Formations Les utilisateurs du CISM peuvent bénéficier de formations au calcul haute performance sur cluster, quel que soit leur niveau de départ. Les thèmes vont de l apprentissage des fonctionnalités de base de Linux et de la ligne de commande à la programmation parallèle sur les accélérateurs matériels. Cette offre diversifiée est représentée à la figure 27. Cette année, cette offre a encore été étendue, avec l ajout de deux nouvelles sessions dédiées aux langages compilés. Ces deux langages, C++, présenté par Étienne Huens (ICTM/INMA), et Fortran, par Pierre-Yves Barriat (ELI/ELIC) étaient considérés comme prérequis connus des participants aux formations des années précédentes. Autre nouveauté, la leçon sur Linux a été donnée, cette année, par Alain Ninane (SGSI). FIGURE 27 : THÈMES PROPOSÉS AUX PARTICIPANTS Les séances se sont déroulées du 16 octobre au 31 novembre, comme l année précédente, dans les salles informatiques du bâtiment Vinci, chacune étant équipée de 25 postes de travail. La séance concernant le language statistique R a quant à elle été organisée en février 2015 par l Institut de Statistiques de l Université. Cette année, plus de 70 certificats de participation ont été émis par le CISM, pour les participants venant de chaque université francophone (voir la figure 29). Ces derniers valorisent leur certificat dans le cadre de leur cursus en école doctorale Rapport d activité 2014 du CISM

31 Introduction à Linux Introduction à la programmation avec Fortran Introduction la programmation Objet en C++ Accès à distance avec SSH aspects avancés Compilateurs et librairies optimisées Debuggers et profilers Calcul parallèle avec MPI I Calcul Parallèle avec MPI II Calcul parallèle avec OpenMP Gestion de jobs avec Slurm Checkpointing de programmes Les accélérateurs matériels 8 Utilisation de Matlab sur le cluster 7 Utilisation de Python sur le cluster FIGURE 28 : NOMBRE DE PARTICIPANTS À CHAQUE SÉANCE DE FORMATION UCL UNamur ULB 12% 12% 40%. 32% 4% Autres FIGURE 29 : RÉPARTITION DES PARTICIPANTS AUX FORMATIONS EN FONCTION DE LEUR UNIVERSITÉ D ACCUEIL ULg Rapport d activité 2014 du CISM 31 47

32 ET AU DELÀ... Pour le CISM, l année 2015 sera l année de la mise en service d une nouvelle salle machine : le DCIII. Cette salle, dont la finalisation est prévue en automne, devra héberger l essentiel des infrastructures du CISM et de IRMP/CP3. Il est donc grand temps d organiser le transfert de nos serveurs en minimisant autant que possible la durée de l interruption de nos services. Des échanges avec les administrateurs des infrastructures de IRMP/CP3 ont déjà commencé en prévision de la mise en commun de nos services respectifs. Une réflexion a également été entamée concernant le choix d un outil efficace de gestion de l ensemble des paramètres de la salle tels que le statut des serveurs, la température des armoires, la consommation électrique, le statut de l UPS, Pour le CÉCI, l installation des différents clusters sur les cinq sites du consortium ayant été finalisée en 2014, il restait à mettre en place un environnement de travail efficace éliminant les barrières limitant la migration des utilisateurs d un site à l autre, et donc, le partage des infrastructures de calcul. Un nouveau projet a donc été déposé en 2014 et accepté pour financement par le FNRS. Ce projet propose l installation d un nouveau système de fichiers partagé permettant à un utilisateur de retrouver ses données sur tous les clusters du CÉCI. Ce projet suppose également le renforcement des interconnexions intersites par un réseau 10Gb de niveau 2. Des contacts ont déjà été pris avec Belnet et un cahier des charges est en préparation pour les parties logicielle et matérielle. L objectif est de disposer du nouveau système pour le mois de septembre. De plus, il est grand temps de penser au renouvellement de nos infrastructures. En effet, Hmem et Lemaitre2, premiers clusters partagés au sein du CÉCI, entrent respectivement dans leur cinquième et quatrième année d utilisation. Leur remplacement est donc à prévoir. Il reste à signaler l arrivée de Zenobe, le nouveau supercalculateur Tier-1 du Cenaero, dans l environnement du calcul intensif en FWB. Ce nouveau supercalculateur, en production depuis fin 2014, est consacré à 60% aux universités et donc, aux utilisateurs du CÉCI. Ce taux d utilisation n est pas encore atteint aujourd hui mais nous devrions y arriver dans les prochains mois Rapport d activité 2014 du CISM

33 ANNEXES Les annexes reprennent, dans les pages qui suivent, les différents éléments suivants : l inventaire du matériel de calcul géré par le CISM ; l inventaire du matériel de stockage géré par le CISM ; la répartition des utilisateurs de calcul par institut et pôle ; la répartition des utilisateurs de stockage par institut et pôle ; et enfin, la liste complète des publications ayant été produites par les utilisateurs grâce aux outils mis à leur disposition par le CISM. Rapport d activité 2014 du CISM 33 47

34 34 47 Rapport d activité 2014 du CISM A INVENTAIRE DES INFRASTRUCTURES DE STOCKAGE En 2014, le CISM offrait 297 teraoctets d espace de stockage sur des baies de disques sécurisées résistant à la perte simultanée de deux disques sans perte de données. Ces baies de disques sont listées dans la table ci-dessous. TABLE 3 : INVENTAIRE DES MACHINES DE STOCKAGE Nom Type de serveur Type de stockage Espace Mise en service Storage02 SUN Galaxy X SATA 1TB 36TB (/storage) 12/08 2 x Quad core AMD Opteron 2.3GHz 32GB RAM Storage03 Transtec Calleo SATA 2TB, 2 SSD 64GB 42TB (/storage) 05/10 2 x Quad-core Xeon [email protected] 24GB RAM (cache zfs) Storage04 Supermicro CSE-847E16-R1400UB 34 SATA 3TB 64TB (/storint) 05/11 2 x Six-core Xeon [email protected] GHz 36GB RAM Storage05 Supermicro CSE-847E16-R1400UB 2 x Six-core Xeon [email protected] GHz 36GB RAM 34 SATA 3TB 64TB (/storint) 91TB (/storext) 05/11 07/12

35 B INVENTAIRE DES INFRASTRUCTURES DE CALCUL Le parc de machines de calcul du CISM se compose principalement de 3 machines interactives, listées à la table suivante, un cluster appelé Manneback qui reprend toutes les machines de calcul acquises par le CISM pour des entités de l Université, et deux clusters acquis dans le cadre du CÉCI : Hmem et Lemaitre2. TABLE 4 : INVENTAIRE DES MACHINES DE CALCUL AU CISM Rapport d activité 2014 du CISM Architecture Spécificités Mise en service lm9 (INMA) Xeon [email protected] Jan 2011 smcs[1-2] (SMCS) Xeon [email protected] Tesla C2075 Oct 2011 # nœuds # cœurs # cœurs / nœud GFlops (peak) RAM/ nœud (GB)

36 36 47 Rapport d activité 2014 du CISM # nœuds TABLE 5 : INVENTAIRE DES MACHINES DE CALCUL AU CISM : MANNEBACK Architecture Spécificités Mise en service MANNEBACK (Home : XFS 19.3TB, Scratch : FHGFS 15.0TB) mback007 (CISM) Xeon [email protected] Tesla M1060 Feb 2010 mback[ ] (ELIC) Xeon [email protected] Infiniband Nov 2009 mback[ ] (CISM) Xeon [email protected] Jan 2010 mback040 (CISM) Xeon [email protected] Tesla M2090, Xeon Phi 5110P Jan 2013 mback[ ] (CISM) Xeon [email protected] Sep 2008 mback[ ] (CISM) Xeon [email protected] Sep 2008 mback[ ] (NAPS) Xeon [email protected] Nov 2009 mback[ ] (CISM) Xeon [email protected] Sep 2008 mback[ ] (NAPS) Opteron [email protected] Sep 2013 mback[ ] (NAPS) Xeon [email protected] Sep 2013 mback160 (NAPS) Xeon [email protected] Mar 2014 mback[ ] (CISM) Xeon [email protected] Jun 2014 mback[ ] (CISM) Xeon [email protected] Sep 2008 Total # cœurs / nœud # cœurs GFlops (peak) RAM/ nœud (GB)

37 TABLE 6 : INVENTAIRE DES MACHINES DE CALCUL AU CISM : LEMAITRE2, HMEM Rapport d activité 2014 du CISM Architecture Spécificités Mise en service LEMAITRE2 (Home : NFS 38.0TB, Scratch : Lustre 120.TB) lmpp[ ] (CISM) Xeon [email protected] Infiniband, Quadro 4000 Feb 2012 lmwn[ ] (CÉCI) Xeon [email protected] Infiniband Feb 2012 Total HMEM (Home : XFS 11.0TB, Scratch : FHGFS 30.0TB) hmem[01-02] (CÉCI) Opteron [email protected] Infiniband Dec 2010 hmem[03-09] (CÉCI) Opteron [email protected] Infiniband Dec 2010 hmem[10-16] (CÉCI) Opteron [email protected] Infiniband Dec 2010 hmem17 (ELIC) Opteron [email protected] Infiniband Feb 2011 hmem[18-20] (NAPS) Opteron 8222 [email protected] Oct 2008 Total # nœuds # cœurs / nœud # cœurs GFlops (peak) RAM/ nœud (GB)

38 C RÉPARTITION DES UTILISATEURS DE L UCL DANS L UTI- LISATION DES INFRASTRUCTURES DE STOCKAGE SST (92.53%) ELI (73.39%) ELIC (52.87%) ELIE (19.72%) CSR (0.71%) ELIM (0.09%) IMCN (12.68%) NAPS (12.68%) IMMC (5.38%) TFL (4.93%) IMAP (0.45%) ICTM (0.90%) ELEN (0.60%) INMA (0.30%) ISV (0.18%) ISV (0.18%) SSH (3.14%) IMAQ (1.85%) SMCS (1.80%) IRES (0.05%) ESPO (0.67%) COMU (0.67%) TALN (0.62%) TALN (0.62%) SSS (0.16%) IREC (0.16%) MIRO (0.16%) AC (1.79%) ARCV (1.79%) ARCV (1.79%) LS (0.81%) SGSI (0.81%) SIMM (0.67%) SISG (0.14%) EXT (1.57%) VUB (1.57%) VUB (1.57%) TABLE 7 : RÉPARTITION DES UTILISATEURS DES INFRASTRUCTURES DE STOCKAGE EN SEC- TEUR/INSTITUT/PÔLE Rapport d activité 2014 du CISM

39 D RÉPARTITION DES UTILISATEURS DE L UCL DANS L UTI- LISATION DES INFRASTRUCTURES DE CALCUL SST (89.03%) IMCN (42.17%) NAPS (39.91%) BSMA (1.60%) MOST (0.67%) IMMC (36.73%) TFL (21.89%) MEMA (13.16%) IMAP (1.01%) GCE (0.66%) MCTR (0.02%) ELI (6.50%) ELIC (4.90%) ELIE (1.59%) ELIB (0.01%) ICTM (3.62%) ELEN (3.12%) INGI (0.38%) INMA (0.13%) SSS (9.99%) IREC (5.35%) MIRO (5.35%) IONS (4.64%) COSY (4.64%) SSH (0.57%) IMAQ (0.33%) CORE (0.32%) IRES (0.01%) LSM (0.15%) LSM (0.15%) IACS (0.08%) IACS (0.08%) EXT (0.38%) VUB (0.38%) VUB (0.38%) TABLE 8 : RÉPARTITION DES UTILISATEURS DES INFRASTRUCTURES DE CALCUL EN SEC- TEUR/INSTITUT/PÔLE Rapport d activité 2014 du CISM 39 47

40 E ACTIVITÉS DE FORMATION, VEILLE TECHNOLOGIQUE, ET RÉSEAUTAGE Cette année, l équipe du CISM a participé à trois évènements liés au calcul intensif et stockage de masse. E.1 Slurm User Group Slurm est le nom de l outil de gestion de resources installés sur nos clusters. Le Slurm User Group Meeting 2014 s est tenu à Lugano, en Suisse, les 34 et 24 septembre. Ce fut l occasion de discuter directement avec les développeurs de Slurm, et d échanger notre expérience avec les gestionnaires d autres centres de calcul intensif utilisateurs de Slurm. E.2 Réunion Xeon Phi chez HP Le Xeon Phi est un accélérateur hardware d Intel, une technologique avancée que nous étudions pour pouvoir la proposer aux utilisateurs lorsqu elle sera complètement mature. Nous avons d ailleurs dans ce cadre acquis un exemplaire de Xeon Phi, et organisé une formation à destination des utilisateurs. Comme c est un domaine qui évolue très vite, il est toujours intéressant d obtenir les dernières informations directement de la part du constructeur. C est ce que HP nous a proposé, en organisant en leurs locaux une demi-journée dédiée au Xeon Phi, le 26 février, où nous avons pu rencontrer les responsables Intel du produit. Nous avons alors bénéficié d informations en avant première sur les futures évolutions du produit. E.3 Storage Expo Chaque année, est organisée, au Heysel, Storage Expo, un forum ou tous les fournisseurs présents sur le marché belge pour le stockage, le réseau et la sécurité, sont présents. L évènement s est déroulé cette année les 26 et 27 mars. C est pour nous l occasion de découvrir les nouveautés de chacun, et de garder les contacts utiles lors des appels d offres Rapport d activité 2014 du CISM

41 F PUBLICATIONS [1] P. A. Araya-Melo, Michel Crucifix, and N. Bounceur. Global sensitivity analysis of indian monsoon during the pleistocene. Climate of the Past Discussions, 10(2) : , [2] Stanislav Borisov, Sylvie Benck, and Mathias Cyamukungu. Angular distribution of protons measured by the energetic particle telescope on proba-v. IEEE Transactions on Nuclear Science, 61(6) : , [3] Nabila Bounceur, Michel Crucifix, and R.D. Wilkinson. Global sensitivity analysis of the climate vegetation system to astronomical forcing : an emulator-based approach. Earth System Dynamics Discussions, 5(5) : , [4] Fabien Bruneval, Jean-Paul Crocombette, Xavier Gonze, Boris Dorado, Marc Torrent, and François Jollet. Consistent treatment of charged systems within periodic boundary conditions : The projector augmented-wave and pseudopotential methods revisited. Physical review. B, Condensed matter and materials physics, 89(4) : , [5] Mathias Cyamukungu, Sylvie Benck, Stanislav Borisov, Viviane Pierrard, and Juan Cabrera Jamoulle. The energetic particle telescope (ept) on board proba-v : Description of a new science-class instrument for particle detection in space. IEEE Transactions on Nuclear Science, 61(6) : , [6] Bartlomiej Czerwinski and Arnaud Delcorte. Chemistry and sputtering induced by fullerene and argon clusters in carbon-based materials. Surface and Interface Analysis, 46(S1) :11 14, [7] Marie Dauvrin and Vincent Lorant. Adaptation of health care for migrants : whose responsibility? BMC Health Services Research, 14(1) :294, [8] Marie Dauvrin and Vincent Lorant. Cometh - competences in ethnicity and health - rapport de recherche. Technical report, [9] Frazer J. Davies, Hans Renssen, and Hugues Goosse. The arctic freshwater cycle during a naturally and an anthropogenically induced warm climate. Climate Dynamics, 42(7-8) : , [10] E.M. De Clercq, S. Leta, A. Estrad-Peña, M. Madder, and S.O. Vanwambeke. Species distribution modelling for rhipicephalus microplus (acari : Ixodidae) in benin, west africa : Comparing datasets and modelling algorithms. Preventative Veterinary Medicine, 118 (1) :8 21, [11] Thomas De Maet, Emmanuel Hanert, and Marnik Vanclooster. A fully-explicit discontinuous galerkin hydrodynamic model for variably-saturated porous media. Journal of Hydrodynamics, 26(4) : , Rapport d activité 2014 du CISM 41 47

42 [12] David De Vleeschouwer, Michel Crucifix, Nabila Bounceur, and Philippe Claeys. The impact of astronomical forcing on the late devonian greenhouse climate. Global and Planetary Change, 120 :65 80, [13] Laurent Delannay, Peng Yan, J.F.B. Payne, and N. Tzelepi. Predictions of inter-granular cracking and dimensional changes of irradiated polycrystalline graphite under plane strain. Computational Materials Science, 87 : , [14] Lieven Desmet, D Venet, E Doffagne, Catherine Timmermans, T Burzykowski, Catherine Legrand, and M Buyse. Linear mixed-effects models for central statistical monitoring of multicenter clinical trials. Statistics in Medicine, 33(30) : , [15] Matthieu Duponcheel, Laurent Bricteux, M Manconi, Grégoire Winckelmans, and Yann Bartosiewicz. Assessment of rans and improved near-wall modeling for forced convection at low prandtl numbers based on les ur to rer=2000. International Journal of Heat and Mass Transfer, 75c : , [16] Marc Elskens, Olivier Gourgue, Willy Baeyens, Lei Chou, Eric Deleersnijder, Martine Leermakers, and Anouk Debrauwere. Modelling metal speciation in the scheldt estuary : combining a flexible-resolution transport model with empirical functions. Science of the Total Environment, : , [17] Luis E.F. FOA TORRES, Stephan Roche, and Jean-Christophe Charlier. Introduction to Graphene-based Nanomaterials : From Electronic Structure to Quantum Transport. Cambridge University Press, [18] Benoît Frénay, Gauthier Doquire, and Michel Verleysen. Estimating mutual information for feature selection in the presence of label noise. Computational Statistics & Data Analysis, 71 : , [19] Benoît Frénay and Michel Verleysen. Pointwise probability reinforcements for robust statistical inference. Neural Networks, 50 : , [20] Gabriel Geadah-Antonius, Samuel Poncé, Paul Boulanger, Michel Côté, and Xavier Gonze. Many-body effects on the zero-point renormalization of the band structure. Physical Review Letters, 112(21) :215501, [21] Yannick Gillet, Matteo Giantomassi, and Xavier Gonze. First-principles study of excitonic effects in raman intensities [22] Yannick Gillet, Matteo Giantomassi, and Xavier Gonze. First-principles study of resonant raman intensities in semiconductors : the role of excitonic effects [23] Yannick Gillet, Matteo Giantomassi, and Xavier Gonze. Novel trilinear interpolation technique to improve the convergence rate of bethe-salpeter calculations [24] D. Golebiowski, X. de Ghellinck d Elseghem Vaernewijck, M. Herman, J. Vander Auwera, and André Fayt. High sensitivity (femto-ft-ceas) spectra of carbonyl sulphide Rapport d activité 2014 du CISM

43 between 6200 and 8200cm 1, and new energy pattern in the global rovibrational analysis of 16o12c32s. Journal of Quantitative Spectroscopy & Radiative Transfer, 149(149) : , [25] Hugues Goosse and Violette Zunz. Decadal trends in the antarctic sea ice extent ultimately controlled by ice ocean feedback. The Cryosphere, 8(2) : , [26] Matthieu Génévriez, Xavier Urbain, Mohand Brouri, Aodh O Connor, Kevin M. Dunseath, and Mariko Terao-Dunseath. Experimental and theoretical study of threephoton ionization of he(1s 2p 3po). Physical review. A, Atomic, molecular, and optical physics, 89(053430) :053430, [27] Aliou Hamido. Interaction laser-atome : nouvelles approches théoriques dépendantes du temps. PhD thesis, UCL - SST/IMCN/NAPS - Nanoscopic Physics, [28] Geoffroy Hautier, Anna Miglio, Joel Varley, Gerbrand Ceder, Gian-Marco Rignanese, and Xavier Gonze. Identification and design of low hole effective mass p-type transparent conducting oxides through high-throughput computing [29] Geoffroy Hautier, Anna Miglio, Joel Varley, Gerbrand Ceder, Gian-Marco Rignanese, and Xavier Gonze. What chemistries will bring low hole effective mass transparent conducting oxides? a high-throughput computational analysis [30] Geoffroy Hautier, Anna Miglio, David Waroquiers, Gian-Marco Rignanese, and Xavier Gonze. How does chemistry influence electron effective mass in oxides? a highthroughput computational analysis. Chemistry of Materials, 26(19) : , [31] Lianhua He, Fang Liu, Geoffroy Hautier, Micael J. T. Oliveira, Miguel A. L. Marques, Fernando D. Vila, J. J. Rehr, Gian-Marco Rignanese, and Aihui Zhou. Accuracy of generalized gradient approximation functionals for density-functional perturbation theory calculations. Physical Review B, 89(6) :064305, [32] Paul Hezel, Thierry Fichefet, and François Massonnet. Modeled arctic sea ice evolution through 2300 in cmip5 extended rcps. The Cryosphere, 8(8) : , [33] R. L. Hogenraad. The fetish of archives. Quality & Quantity, 48 (1) : , [34] R. L. Hogenraad and R. R. Garagozov. Textual fingerprints of risk of war. Literary and Linguistic Computing, 29 (1) :41 55, [35] François Klein, Hugues Goosse, A. Mairesse, and A. de Vernal. Model data comparison and data assimilation of mid-holocene arctic sea ice concentration. Climate of the Past, 10(3) : , [36] Liza Lecarme, Eric Maire, Amit Kumar K.C., Christophe De Vleeschouwer, Laurent Jacques, Aude Simar, and Thomas Pardoen. Heterogenous void growth revealed by in situ 3-d x-ray mocrotomography using automatic cavity tracking. Acta Materialia, 63( ) : , Rapport d activité 2014 du CISM 43 47

44 [37] Olivier Lecomte, Thierry Fichefet, Martin Vancoppenolle, Florent Domine, Pierre Mathiot, Samuel Morin, Pierre-Yves Barriat, and François Massonnet. On the formulation of snow thermal conductivity in large-scale sea-ice models [38] Olivier Lecomte, Thierry Fichefet, Martin Vancoppenolle, and François Massonnet. Interactions between snow and melt ponds in sea-ice models [39] Nicolas Leconte, F. Ortmann, A. Cresti, Jean-Christophe Charlier, and S. Roche. Quantum transport in chemically functionalized graphene at high magnetic field : defectinduced critical states and breakdown of electron-hole symmetry. 2D Materials, [40] Aurélien Lherbier, Humberto Terrones, and Jean-Christophe Charlier. Threedimensional massless dirac fermions in carbon schwarzites. Physical review. B, Condensed matter and materials physics, 90(12) :125434, [41] Marie-France Loutre, Emilie Capron, Emma Stone, Aline Govin, Valérie Masson- Delmotte, Stefan Mulitza, Betty Otto-Bliesner, and Eric W. Wolff. High latitude temperature evolution across the last interglacial : a model-data comparison. Geophysical Research Abstracts, 16 :EGU , [42] Marie-France Loutre, Thierry Fichefet, H. Goelzer, and P. Huybrechts. Coupled ice sheet-climate interactions during the last interglacial [43] Marie-France Loutre, Thierry Fichefet, Heiko Goelzer, and Philippe Huybrechts. Coupled ice sheet-climate interactions during the last interglacial simulated with loveclim. Geophysical Research Abstracts, 16 :EGU , [44] Marie-France Loutre, Thierry Fichefet, Hugues Goosse, H. Goelzer, and E. Capron. Factors controlling the last interglacial climate as simulated by loveclim1.3, in proceedings of pmip3 second general meeting, namur, belgium, may 25 to may [45] Marie-France Loutre, Thierry Fichefet, Hugues Goosse, P. Huybrechts, H. Goelzer, and E. Capron. Factors controlling the last interglacial climate as simulated by loveclim1.3. Climate of the Past, 10(4) : , [46] Yves Marichal. An immersed interface vortex particle-mesh method. PhD thesis, UCL - SST/IMMC/TFL - Thermodynamics and fluid mechanics, [47] Andrea Marini, Samuel Poncé, Elena Cannuccia, and Xavier Gonze. A manybody approach to the electronphonon problem based on a rigorous merging with densityfunctional and densityfunctional perturbation theory [48] M. N. A. Maris, B. de Boer, S. R. M. Ligtenberg, Michel Crucifix, W. J. van de Berg, and J. Oerlemans. Modelling the evolution of the antarctic ice sheet since the last interglacial. The Cryosphere, 8(4) : , Rapport d activité 2014 du CISM

45 [49] M. N. A. Maris, S. R. M. Ligtenberg, Michel Crucifix, B. de Boer, and J. Oerlemans. Modelling the evolution of the antarctic ice sheet since the last interglacial. The Cryosphere Discussions, 8(1) :85 120, [50] François Massonnet, Thierry Fichefet, Hugues Goosse, Pierre-Yves Barriat, Cecilia Bitz, Marika Holland, and Gwenaelle Philippon-Berthier. Constraining projections of summer arctic sea ice [51] François Massonnet, Hugues Goosse, Thierry Fichefet, and F. Counillon. Calibration of sea ice dynamic parameters in an ocean-sea ice model using an ensemble kalman filter. Journal of Geophysical Research : Oceans, 119(7) : , [52] François Massonnet, Pierre Mathiot, Thierry Fichefet, Hugues Goosse, Martin Vancoppenolle, Christof König Beatty, and Thomas Lavergne. A model reconstruction of antarctic sea-ice thickness and volume changes over the past decades using data assimilation [53] Anna Miglio, R. Saniz, David Waroquiers, Martin Stankovski, Matteo Giantomassi, Geoffroy Hautier, Gian-Marco Rignanese, and Xavier Gonze. Computed electronic and optical properties of sno2 under compressive stress. Optical Materials, 38(1) : , [54] M. Monthioux and Jean-Christophe Charlier. Given credit where credit is due : The stone-(thrower)-wales designation revisited. Carbon, 75 :1 4, [55] Sebastien Moreau, Martin Vancoppenolle, Jiayun Zhou, Jean-Louis Tison, Bruno Delille, and Hugues Goosse. Modelling argon dynamics in first-year sea ice. Ocean Modelling, 73 :1 18, [56] Philippe Parmentier, Grégoire Winckelmans, and Philippe Chatelain. Development and validation of a 2-d compressible vortex particle-mesh method. Bulletin of the American Physical Society, 59(20), [57] Jérôme Paul and Pierre Dupont. Kernel methods for mixed feature selection [58] Jérôme Paul and Pierre Dupont. Statistically interpretable importance indices for random forests [59] Alice Pestiaux, S.A. Melchior, Jean-François Remacle, T. Kärnä, Thierry Fichefet, and Jonathan Lambrechts. Discontinuous galerkin finite element discretization of a strongly anisotropic diffusion operator. International Journal for Numerical Methods in Fluids, 75(5) : , [60] Samuel Poncé. Electronic structure of eu-doped ba-si oxynitrides for w-led application [61] Samuel Poncé, G. Antonius, P. Boulanger, E. Cannuccia, A. Marini, M. Côté, and Xavier Gonze. Verification of first-principles codes : Comparison of total energies, phonon frequencies, electron phonon coupling and zero-point motion correction to the gap between abinit and qe/yambo. Computational Materials Science, 83 : , Rapport d activité 2014 du CISM 45 47

46 [62] Samuel Poncé, Gabriel Geadah-Antonius, Paul Boulanger, and Elena Cannuccia. Zeropoint motion effect on the bandgap of diamond : validation of codes [63] Samuel Poncé, Gabriel Geadah-Antonius, Paul Boulanger, Elena Cannuccia, Andrea Marini, Michel Côté, and Xavier Gonze. Zero-point motion effect on the bandgap of diamond : validation of codes [64] Samuel Poncé, Gabriel Geadah-Antonius, Yannick Gillet, Paul Boulanger, Jonathan Laflamme Janssen, Andrea Marini, Michel Côté, and Xavier Gonze. Temperature dependence of electronic eigenenergies in the adiabatic harmonic approximation. Physical review. B, Condensed matter and materials physics, 90(21) :214304, [65] Samuel Poncé, Gabriel Geadah-Antonius, Yannick Gillet, Paul Boulanger, Andrea Marini, Masayoshi Mikami, and Xavier Gonze. Temperature dependence in abinit [66] Samuel Poncé, Matteo Giantomassi, Masayoshi Mikami, and Xavier Gonze. Electronic structure of eu-doped ba-si oxynitrides for w-led application [67] Samuel Poncé, Matteo Giantomassi, Masayoshi Mikami, and Xavier Gonze. Electronic structure of eu-doped ba-si oxynitrides for w-led application [68] Z.J. Qi, J.A. Rodriguez-Manzo, Andrés Rafael Botello Mendez, S.J. Hong, E.A. Stach, Y.W. Park, Jean-Christophe Charlier, and A.T.C. Johnson. Correlating atomic structure and transport in suspended graphene nanoribbons. Nano Letters : a journal dedicated to nanoscience and nanotechnology, 14(8) : , [69] L.S. Rothman, I.E. Gordon, Y. Babikov, A. Barbe, D. Chris Benner, A. Fayt, and et al. The hitran2012 molecular spectroscopic database. Journal of Quantitative Spectroscopy & Radiative Transfer, 130 :4 50, [70] J.C. Rougier and Michel Crucifix. Uncertainly in climate science and climate policy. L. Lloyd, E. Winsberg, [71] Bruno Seny, Jonathan Lambrechts, Thomas Toulorge, Vincent Legat, and Jean- François Remacle. An efficient parallel implementation of explicit multirate runge kutta schemes for discontinuous galerkin computations. Journal of Computational Physics, 256(1) : , [72] Riad Shaltaf, H. K. Juwhari, B. Hamad, J. Khalifeh, Gian-Marco Rignanese, and Xavier Gonze. Structural, electronic, vibrational, and dielectric properties of labgeo5 from first principles. Journal of Applied Physics, 115(7) :074103, [73] Ryan L. Sriver, Axel Timmermann, Michael E. Mann, Klaus Keller, and Hugues Goosse. Improved representation of tropical pacific ocean atmosphere dynamics in an intermediate complexity climate model. Journal of Climate, 27(1) : , [74] Nicolas Staelens. Étude de la formation et des propriétés dynamiques, conformationelles et énergétiques d assemblages supramoléculaires à base de nanotubes organiques et d agrégats d argent dans des brins d ADN. PhD thesis, FUNDP - SCHI_GCPTS (groupe de chimie physique, théorique et structurale), Rapport d activité 2014 du CISM

47 [75] Edmond Sterpin, Jefferson Sorriaux, Kevin Souris, Stefaan Vynckier, and Hugo Bouchard. A fano cavity test for monte carlo proton transport algorithms. Medical Physics, 41(1) :011706, [76] Olivier Thiry and Grégoire Winckelmans. A mixed multiscale model accounting for thecross term of the sub-grid scale stress [77] Olivier Thiry, Grégoire Winckelmans, and Matthieu Duponcheel. High re wallmodeled les of aircraft wake vortices in ground effect. Bulletin of the American physical society, 59(20) :456, [78] Christopher Thomas, Jonathan Lambrechts, Eric Wolanski, Vincent A. Traag, Vincent Blondel, Eric Deleersnijder, and Emmanuel Hanert. Numerical modelling and graph theory tools to study ecological connectivity in the great barrier reef. Ecological Modelling, 272 : , [79] John Turner, Nicholas E. Barrand, Thomas J. Bracegirdle, Peter Convey, Dominic A. Hodgson, Martin Jarvis, Adrian Jenkins, Gareth Marshall, Michael P. Meredith, Howard Roscoe, Jon Shanklin, John French, Hugues Goosse, Mauro Guglielmin, Julian Gutt, Stan Jacobs, Marlon C. Kennicutt, Valerie Masson-Delmotte, Paul Mayewski, Francisco Navarro, Sharon Robinson, Ted Scambos, Mike Sparrow, Colin Summerhayes, Kevin Speer, and Alexander Klepikov. Antarctic climate change and the environment : an update. Polar Record, 50(03) : , [80] Benoît Van Troeye, Yannick Gillet, Samuel Poncé, and Xavier Gonze. First-principles characterization of the electronic and optical properties of hexagonal liio3. Optical Materials, 36 : , [81] Kwinten Van Weverberg, Edouard Goudenhoofdt, Ulrich Blahak, Erwan Brisson, Matthias Demuzere, Philippe Marbaix, and Jean-Pascal van Ypersele de Strihou. Comparison of one-moment and two-moment bulk microphysics for high-resolution climate simulations of intense precipitation. Atmospheric Research, ( ) : , [82] Martin Vancoppenolle, Thierry Fichefet, Steve Ackley, Hayley Shen, François Massonnet, Pierre Mathiot, and Olivier Lecomte. A first evaluation of wave-ice interactions on the global mass balance [83] Thomas Vergote, F. Nahra, A. Merschaert, Olivier Riant, Daniel Peeters, and Tom Leyssens. Mechanistic insight into the (nhc)copper(i)-catalyzed hydrosilylation of ketones. Organometallics, 33(8) : , [84] Violette Zunz. Antarctic sea ice variability and predictability at decadal timescales. PhD thesis, UCL - SST/ELI/ELIC - Earth & Climate, Rapport d activité 2014 du CISM 47 47

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse [email protected] 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014 SIGAMM/ COMMISSION UTILISATEUR du 05/12/2014 ORDRE DU JOUR : - Rôle de la commission, - Présentation de la nouvelle plateforme, - Accès Mésocentre, - Point sur les problèmes rencontrés, - Propositions

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de

Plus en détail

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire

Plus en détail

Infrastructures Parallèles de Calcul

Infrastructures Parallèles de Calcul Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide

Plus en détail

«clustering» et «load balancing» avec Zope et ZEO

«clustering» et «load balancing» avec Zope et ZEO IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE Version de juin 2010, valable jusqu en décembre 2010 Préalable Ce document présente l architecture

Plus en détail

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8 Guide de Tarification Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé Page 2 Page 3 Page 4 Page 5 Page 8 Introduction Dexero FD est une application Web de gestion d

Plus en détail

Mise en place d'un cluster

Mise en place d'un cluster Mise en place d'un cluster par David Dessailly & Régis Sion UMR8187- LOG Laboratoire d'océanologie et de Géosciences MREN Université du Littoral Côte d'opale. MIn2RIEN Mise en place d'un cluster 13 février

Plus en détail

SQL Server 2008 et YourSqlDba

SQL Server 2008 et YourSqlDba SQL Server 2008 et YourSqlDba Le futur de la maintenance des bases de données et la haute-disponibilité Par : Maurice Pelchat Société GRICS Survol du sujet Haute disponibilité (HD) Assurer la disponibilité

Plus en détail

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) ETABLISSEMENT PUBLIC DE SANTE MENTALE «Morbihan» 22, Rue de l Hôpital - B. P. 10 56896 SAINT-AVE Cédex Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) CAHIER DES

Plus en détail

Système de stockage IBM XIV Storage System Description technique

Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de

Plus en détail

Créer et partager des fichiers

Créer et partager des fichiers Créer et partager des fichiers Le rôle Services de fichiers... 246 Les autorisations de fichiers NTFS... 255 Recherche de comptes d utilisateurs et d ordinateurs dans Active Directory... 262 Délégation

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM 4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés

Plus en détail

Résolvez vos problèmes d énergie dédiée à l informatique

Résolvez vos problèmes d énergie dédiée à l informatique Résolvez vos problèmes d énergie dédiée à l informatique GRÂCE À UNE SOLUTION ENERGY SMART DE DELL Surmonter les défis énergétiques des datacenters Les responsables informatiques ont un problème urgent

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Marché Public. Serveurs et Sauvegarde 2015

Marché Public. Serveurs et Sauvegarde 2015 Marché Public Serveurs et Sauvegarde 2015 Remise des Offres avant le lundi 22 juin 2015 à 16h 1 P a g e Table des matières 1. OBJET DE LA CONSULTATION... 4 1.1. Description de la consultation... 4 1.2.

Plus en détail

ORACLE EXADATA DATABASE MACHINE X2-8

ORACLE EXADATA DATABASE MACHINE X2-8 ORACLE EXADATA DATABASE MACHINE X2-8 CARACTERISTIQUES ET AVANTAGES CARACTERISTIQUES 128 cœurs de CPU et 2 TO de mémoire pour le traitement des bases de données 168 cœurs de CPU pour le traitement du stockage

Plus en détail

ORACLE EXADATA DATABASE MACHINE X2-2

ORACLE EXADATA DATABASE MACHINE X2-2 ORACLE EXADATA DATABASE MACHINE X2-2 CARACTERISTIQUES ET AVANTAGES CARACTERISTIQUES Jusqu à 96 cœurs de CPU et 768 GO de mémoire pour le traitement des bases de données Jusqu à 168 cœurs de CPU pour le

Plus en détail

Protection des données avec les solutions de stockage NETGEAR

Protection des données avec les solutions de stockage NETGEAR Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La

Plus en détail

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Des performances haut de gamme à un prix avantageux ETERNUS DX : le stockage centré

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

Concepts et systèmes de stockage

Concepts et systèmes de stockage Concepts et systèmes de stockage Francesco Termine, professeur HES, [email protected] 1 Plan Gestion de volumes de stockage Systèmes RAID DAS SAS Concepts Technologies actuelles NAS Concepts

Plus en détail

Présentation Infrastructure DATACENTRE

Présentation Infrastructure DATACENTRE Présentation Infrastructure DATACENTRE Innovatec de Gemsol : l activité ISP & le Datacentre 1500 hébergements h et services associés s de clients situés s en France & en Espagne Datacentre d un haut niveau

Plus en détail

Version de novembre 2012, valable jusqu en avril 2013

Version de novembre 2012, valable jusqu en avril 2013 Pré requis techniques pour l installation du logiciel complet de gestion commerciale WIN GSM en version hyper File en configuration Windows Terminal Serveur Version de novembre 2012, valable jusqu en avril

Plus en détail

Infrastructure de calcul du CRRI

Infrastructure de calcul du CRRI Infrastructure de calcul du CRRI Types d'infrastructures de calcul Calcul Intensif (High Performance Computing) Tâches fortement couplées (codes vectoriels / parallèles) Supercalculateurs, SMP, clusters,

Plus en détail

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service 10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore

Plus en détail

Sur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11)

Sur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11) 1/ Généralités : Un ordinateur est un ensemble non exhaustif d éléments qui sert à traiter des informations (documents de bureautique, méls, sons, vidéos, programmes ) sous forme numérique. Il est en général

Plus en détail

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa libérez votre innovation avec l extreme computing CEA/Philippe Stroppa Solutions Bull pour l extreme computing Une gamme qui démultiplie votre pouvoir d innovation. De la physique fondamentale à la recherche

Plus en détail

SQL2005, la migration Atelier 316

SQL2005, la migration Atelier 316 SQL2005, la migration Atelier 316 Par : Maurice Pelchat Spécialiste SQL Server Société GRICS SQL2005, la migration Introduction Pourquoi? Comment? Outils disponibles Processus de migration Quand? Perspectives

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES Marie GALEZ, [email protected] Le propos de cet article est de présenter les architectures NAS et SAN, qui offrent de nouvelles perspectives pour le partage

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis

Plus en détail

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen P. Stroppa Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen 25 novembre 2010 CONTACTS PRESSE : CEA / Service Information-Media Marie VANDERMERSCH Tél. : 01 64 50 17 16 - [email protected]

Plus en détail

Demande d'ap informatique 2012

Demande d'ap informatique 2012 Demande d'ap informatique 2012 Architecture Laboratoire: Les postes de travail Les environnements Linux/Windows Le réseau du Laboratoire Grille de Calcul à l IPN Unité mixte de recherche CNRS-IN2P3 Université

Plus en détail

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,

Plus en détail

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008 Windows Server 2008 Chapitre 1: Découvrir Windows Server 2008 Objectives Identifier les caractéristiques de chaque édition de Windows Server 2008 Identifier les caractéristiques généraux de Windows Server

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012

Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012 Livre blanc Solution Hadoop d entreprise d EMC Stockage NAS scale-out Isilon et Greenplum HD Par Julie Lockner et Terri McClure, Analystes seniors Février 2012 Ce livre blanc d ESG, qui a été commandé

Plus en détail

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz Choix d'un serveur Vous êtes responsable informatique d'une entreprise. Vous devez faire un choix pour l'achat d'un nouveau serveur. Votre prestataire informatique vous propose les choix ci-dessous Vous

Plus en détail

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE ORACLE 10g Découvrez les nouveautés Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE Le Grid Computing d Entreprise Pourquoi aujourd hui? Principes et définitions appliqués au système d information Guy Ernoul,

Plus en détail

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance.

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance. CLOUD CP3S La virtualisation au service de l entreprise Virtualisation / Cloud Évolutivité Sécurité Redondance Puissance SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE SOLUTION D INFRASTRUCTURE

Plus en détail

Cahier des charges pour la mise en place de l infrastructure informatique

Cahier des charges pour la mise en place de l infrastructure informatique 1 COMMUNE DE PLOBSHEIM Cahier des charges pour la mise en place de l infrastructure informatique Rédaction Version 2 : 27 /05/2014 Contact : Mairie de PLOBSHEIM M. Guy HECTOR 67115 PLOBSHEIM [email protected]

Plus en détail

<Insert Picture Here> Exadata Storage Server et DB Machine V2

<Insert Picture Here> Exadata Storage Server et DB Machine V2 Exadata Storage Server et DB Machine V2 Croissance de la Volumétrie des Données Volumes multipliés par 3 tous les 2 ans Evolution des volumes de données 1000 Terabytes (Données) 800

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Communications performantes par passage de message entre machines virtuelles co-hébergées

Communications performantes par passage de message entre machines virtuelles co-hébergées Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction

Plus en détail

Consolidation de stockage

Consolidation de stockage (Information sur la technologie Sto-2003-2) Wolfgang K. Bauer Spécialiste stockage Centre de compétence transtec AG Waldhörnlestraße 18 D-72072 Tübingen Allemagne TABLE DES MATIÈRES 1 RÉSUMÉ...3 2 INTRODUCTION...4

Plus en détail

Conseil d administration Genève, novembre 2002 LILS

Conseil d administration Genève, novembre 2002 LILS BUREAU INTERNATIONAL DU TRAVAIL GB.285/LILS/1 285 e session Conseil d administration Genève, novembre 2002 Commission des questions juridiques et des normes internationales du travail LILS PREMIÈRE QUESTION

Plus en détail

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. 2013 Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. Table des matières 1 Introduction (Historique / définition)... 3 2 But de la virtualisation... 4 3 Théorie : bases et typologie des solutions techniques...

Plus en détail

UC4 effectue tout l ordonnancement batch pour Allianz en Allemagne

UC4 effectue tout l ordonnancement batch pour Allianz en Allemagne UC4 effectue tout l ordonnancement batch pour Allianz en Allemagne La société Le groupe Allianz est un des principaux fournisseurs de services globaux dans les domaines de l assurance, de la banque et

Plus en détail

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin Linux Gazette n 110 Janvier 2005 Majid Hameed Copyright 2005 Majid Hameed Copyright 2005 Gauthier Savart Copyright 2005 Joëlle Cornavin Article paru dans le n 110 de la Gazette Linux de janvier 2005. Traduction

Plus en détail

Conception d une infrastructure «Cloud» pertinente

Conception d une infrastructure «Cloud» pertinente Conception d une infrastructure «Cloud» pertinente Livre blanc d ENTERPRISE MANAGEMENT ASSOCIATES (EMA ) préparé pour Avocent Juillet 2010 RECHERCHE EN GESTION INFORMATIQUE, Sommaire Résumé........................................................

Plus en détail

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS Journée Utiliateurs 2015 Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS 1 Pôle ID, Grid'5000 Ciment Une proximité des platesformes Autres sites G5K Grenoble + CIMENT Pôle ID = «Digitalis»

Plus en détail

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. [email protected]. white-paper-cluster_fr.sxw, Version 74 Page 1

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1 Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. [email protected] white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High

Plus en détail

Spécifications détaillées

Spécifications détaillées Hewlett-Packard HP ProLiant DL380 G5 Storage Server 1.8TB SAS Model - NAS - 1.8 To - montage en rack - Serial ATA-150 / SAS - DD 36 Go x 2 + 300 Go x 6 - DVD±RW x 1 - RAID 0, 1, 5, 6 - Gigabit Ethernet

Plus en détail

Architectures d implémentation de Click&DECiDE NSI

Architectures d implémentation de Click&DECiDE NSI Architectures d implémentation de Click&DECiDE NSI de 1 à 300 millions de ligne de log par jour Dans ce document, nous allons étudier les différentes architectures à mettre en place pour Click&DECiDE NSI.

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013 Gé[email protected] Ibrahim.Safieddine@eolas.

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013 Gérald.Dulac@eolas.fr Ibrahim.Safieddine@eolas. Le monde naissant des datacenters de nouvelle génération ICAR-2013 Datacenter vert agile Grenoble Lyon Paris Gé[email protected] [email protected] Datacenter de nouvelle génération vert agile?

Plus en détail

ERP Service Negoce. Pré-requis CEGID Business version 2008. sur Plate-forme Windows. Mise à jour Novembre 2009

ERP Service Negoce. Pré-requis CEGID Business version 2008. sur Plate-forme Windows. Mise à jour Novembre 2009 ERP Service Negoce Pré-requis CEGID Business version 2008 sur Plate-forme Windows Mise à jour Novembre 2009 Service d'assistance Téléphonique 0 825 070 025 Pré-requis Sommaire 1. PREAMBULE... 3 Précision

Plus en détail

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM Global Headquarters: 5 Speen Street Framingham, MA 01701 USA P.508.872.8200 F.508.935.4015 www.idc.com LIVRE BLANC IBM PureFlex System Optimisé pour le Cloud Pour : IBM Randy Perry Juillet 2013 Mary Johnston

Plus en détail

Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD

Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD Baie de stockage passive à connexion directe au serveur Baie de stockage JBOD ETERNUS JX

Plus en détail

CONCOURS «MA THÈSE EN 180 SECONDES»

CONCOURS «MA THÈSE EN 180 SECONDES» CONCOURS «MA THÈSE EN 180 SECONDES» (édition 2015) ouvert aux doctorants et docteurs diplômés de l année 2014-2015 Informations : http://www.ulb.ac.be/rech/doctorants/doctorat-mt180.html (page ULB) et

Plus en détail

Pré-requis techniques

Pré-requis techniques Sommaire 1. PRÉAMBULE... 3 2. PRÉ-REQUIS TÉLÉCOM... 4 Généralités... 4 Accès Télécom supporté... 4 Accès Internet... 5 Accès VPN... 5 Dimensionnement de vos accès... 6 3. PRÉ-REQUIS POUR LES POSTES DE

Plus en détail

Plan de cette matinée

Plan de cette matinée Plan de cette matinée Windows 2008 Les différentes versions Migration Rôles et fonctionnalités Présentation des nouveautés Windows 2008 R2 Les apports de cette nouvelle version Windows 7 Les différentes

Plus en détail

Fiche Technique Windows Azure

Fiche Technique Windows Azure Le 25/03/2013 OBJECTIF VIRTUALISATION [email protected] EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Fiche Technique Objectif 25/03/2013 27/03/2013 Windows

Plus en détail

Hébergement de base de données MySQL. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA)

Hébergement de base de données MySQL. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA) Hébergement de base de données MySQL. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA) Source : commundit:_ex:catalogue_services:db:sla_dit_mysql.docx Distribution

Plus en détail

Tests de SlipStream sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la. Vers la fédération du Cloud computing

Tests de SlipStream sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la. Vers la fédération du Cloud computing Tests de sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la fédération du Cloud computing Cécile Cavet1 & Charles Loomis2 (1) Centre François Arago, Laboratoire, Université Paris Diderot,

Plus en détail

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 186 Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 L'utilisation des fonctionnalités de haute disponibilité intégrées aux applications, L'ajout de solutions tierces. 1.1 Windows Server

Plus en détail

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de

Plus en détail

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage La Virtualisation Windows chez CASINO Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage Sommaire Contexte Datacenters La virtualisation chez Casino Notre démarche Feuille de route Bilan

Plus en détail

Étude d une architecture évolutive et haute disponibilité pour les postes de travail virtuels

Étude d une architecture évolutive et haute disponibilité pour les postes de travail virtuels Étude d une architecture évolutive et haute disponibilité pour les postes de travail virtuels Ziya Aral Jonathan Ely DataCore Software Récapitulatif Ce rapport fournit une analyse d une configuration de

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. [email protected] http://www.metz.supelec.

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec. 3A-IIC - Parallélisme & Grid Stéphane Vialle [email protected] http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation

Plus en détail

100% Swiss Cloud Computing

100% Swiss Cloud Computing 100% Swiss Cloud Computing Simplifiez votre IT, augmentez sa puissance, sa flexibilité, sa sécurité et maîtrisez les coûts Avec le Cloud, vous disposez d un espace d hébergement dédié, dissocié de votre

Plus en détail

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données La meilleure protection pour les données vitales de votre entreprise Autrefois, protéger ses données de manière optimale coûtait

Plus en détail

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist Cluster High Performance Computing Dr. Andreas Koch, Cluster Specialist TABLE DES MATIÈRES 1 RÉSUMÉ... 3 2 INTRODUCTION... 4 3 STRUCTURE D UN CLUSTER HPC... 6 3.1 INTRODUCTION... 6 3.2 MONTAGE SIMPLE...

Plus en détail

VIRTUALISATION : MYTHES & RÉALITÉS

VIRTUALISATION : MYTHES & RÉALITÉS VIRTUALISATION : MYTHES & RÉALITÉS Virtualisation Définition Marché & Approche Microsoft Virtualisation en PME Quel(s) besoin(s) Quelle(s) approche(s) Témoignage Client Mr Rocher, DSI CESML Questions /

Plus en détail

1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File :

1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File : 1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File : Version de novembre 2014, valable jusqu en mai 2015 Préalable Ce document présente

Plus en détail

SAN AoE (ATA over Ethernet)

SAN AoE (ATA over Ethernet) Paris - 1 décembre 2010 LEGI - Laboratoire des Ecoulements Geophysiques et Industriels CNRS / UJF / G-INP - Grenoble, France http://www.legi.grenoble-inp.fr/ 1 décembre 2010 1 Généralités sur l AoE 2 3

Plus en détail

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet

Plus en détail

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP Vue d ensemble du basculement DHCP Dans Windows Server 2008 R2, il existe deux options à haute disponibilité dans le cadre du déploiement du serveur DHCP. Chacune de ces options est liée à certains défis.

Plus en détail

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés Livre blanc La sécurité de nouvelle génération pour les datacenters virtualisés Introduction Ces dernières années, la virtualisation est devenue progressivement un élément stratégique clé pour le secteur

Plus en détail

Réduction des coûts de consommation dans un datacenter

Réduction des coûts de consommation dans un datacenter Réduction des coûts de consommation dans un datacenter Didier Magotteaux Thierry Engels L hôpital dans son environnement, journées d études 3 & 4 juin 2010 09/06/2010 1 Saviez-vous que NRB...? Est l une

Plus en détail

LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES

LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES CAHIER DES CHARGES LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES Suivi de versions Addendum : 11 avril 2012 MARS 2012 Agence pour la Recherche et l Innovation

Plus en détail

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware Transformation vers le Cloud Premier partenaire Cloud Builder certifié IBM, HP et VMware 1 Sommaire Introduction Concepts Les enjeux Modèles de déploiements Modèles de services Nos offres Nos Références

Plus en détail

Le cluster à basculement

Le cluster à basculement Le cluster à basculement La technologie de cluster à basculement a une approche très différente de NLB. L objectif est de maintenir des ressources en ligne en permanence. Chaque ressource est instanciée

Plus en détail

JetClouding Installation

JetClouding Installation JetClouding Installation Lancez le programme Setup JetClouding.exe et suivez les étapes d installation : Cliquez sur «J accepte le contrat de licence» puis sur continuer. Un message apparait and vous demande

Plus en détail

Clusters de PCs Linux

Clusters de PCs Linux Clusters de PCs Linux Benoit DELAUNAY [email protected] Centre de Calcul de l'in2p3 Plan Historique PC au CCIN2P3. Une première étape. Une réponse à la demande. Une véritable orientation. La place des

Plus en détail

Ordinateur Logiciel Mémoire. Entrées/sorties Périphériques. Suite d'instructions permettant de réaliser une ou plusieurs tâche(s), de résoudre un

Ordinateur Logiciel Mémoire. Entrées/sorties Périphériques. Suite d'instructions permettant de réaliser une ou plusieurs tâche(s), de résoudre un ESZ Introduction à l informatique et à l environnement de travail Éric Gaul (avec la collaboration de Dominic Boire) Partie 1: Concepts de base Ordinateur Logiciel Mémoire Données Entrées/sorties Périphériques

Plus en détail

SysFera. Benjamin Depardon

SysFera. Benjamin Depardon SysFera Passage d applications en SaaS Benjamin Depardon CTO@SysFera SysFera Technologie 2001 Création 2010 Spin Off INRIA Direction par un consortium d investisseurs 12 personnes 75% en R&D Implantation

Plus en détail