Rapport d'activité 2014 de la plate-forme technologique CISM



Documents pareils
Gestion de clusters de calcul avec Rocks

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Infrastructures Parallèles de Calcul

«clustering» et «load balancing» avec Zope et ZEO

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8

Mise en place d'un cluster

SQL Server 2008 et YourSqlDba

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Système de stockage IBM XIV Storage System Description technique

Créer et partager des fichiers

vbladecenter S! tout-en-un en version SAN ou NAS

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

Résolvez vos problèmes d énergie dédiée à l informatique

en version SAN ou NAS

Marché Public. Serveurs et Sauvegarde 2015

ORACLE EXADATA DATABASE MACHINE X2-8

ORACLE EXADATA DATABASE MACHINE X2-2

Protection des données avec les solutions de stockage NETGEAR

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Concepts et systèmes de stockage

Présentation Infrastructure DATACENTRE

Version de novembre 2012, valable jusqu en avril 2013

Infrastructure de calcul du CRRI

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

Sur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11)

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

SQL2005, la migration Atelier 316

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

Rapport 2014 et demande pour Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Demande d'ap informatique 2012

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet

Windows Server Chapitre 1: Découvrir Windows Server 2008

VMWare Infrastructure 3

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Initiation au HPC - Généralités

Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E GHz

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance.

Cahier des charges pour la mise en place de l infrastructure informatique

<Insert Picture Here> Exadata Storage Server et DB Machine V2

Etude d architecture de consolidation et virtualisation

Communications performantes par passage de message entre machines virtuelles co-hébergées

Consolidation de stockage

Conseil d administration Genève, novembre 2002 LILS

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

UC4 effectue tout l ordonnancement batch pour Allianz en Allemagne

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin

Conception d une infrastructure «Cloud» pertinente

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

Spécifications détaillées

Architectures d implémentation de Click&DECiDE NSI

Contributions à l expérimentation sur les systèmes distribués de grande taille

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013

ERP Service Negoce. Pré-requis CEGID Business version sur Plate-forme Windows. Mise à jour Novembre 2009

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM

Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD

CONCOURS «MA THÈSE EN 180 SECONDES»

Pré-requis techniques

Plan de cette matinée

Fiche Technique Windows Azure

Hébergement de base de données MySQL. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA)

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage

Étude d une architecture évolutive et haute disponibilité pour les postes de travail virtuels

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr

100% Swiss Cloud Computing

Unitt Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist

VIRTUALISATION : MYTHES & RÉALITÉS

1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File :

SAN AoE (ATA over Ethernet)

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

Réduction des coûts de consommation dans un datacenter

LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware

Le cluster à basculement

JetClouding Installation

Clusters de PCs Linux

Ordinateur Logiciel Mémoire. Entrées/sorties Périphériques. Suite d'instructions permettant de réaliser une ou plusieurs tâche(s), de résoudre un

SysFera. Benjamin Depardon

Transcription:

Rapport d'activité 2014 de la plate-forme technologique CISM Rédigé par Damien François, Luc Sindic, Bernard Van Renterghem et Thomas Keutgen (responsable). version électronique disponible à l'adresse http://www.cism.ucl.ac.be/administration/rapports/rapport2014

Table des matières Introduction 6 1 L année 2014 en bref 7 2 CISM plate-forme technologique 8 3 Les salles informatiques 9 4 Matériel et infrastructure 11 4.1 Les infrastructures de calcul........................... 12 4.1.1 La grappe MANNEBACK......................... 12 4.1.2 La grappe HMEM............................. 14 4.1.3 La grappe LEMAITRE2.......................... 15 4.2 Les systèmes de stockage de masse....................... 17 4.3 Serveurs spécifiques............................... 19 4.3.1 Serveurs SAS SMCS1&2 (SMCS)..................... 19 4.3.2 Serveur Matlab LM9 (INMA)....................... 20 4.4 Gestion et développement de l infrastructure................. 20 4.4.1 Gestion des incidents.......................... 20 4.4.2 Déclassement des serveurs plus anciens................ 22 5 Consortium des Equipements de Calcul Intensif 23 5.1 Les infrastructures disponibles......................... 23 5.2 Enquête de satisfaction............................. 25 5.3 Développement d un nouveau système de fichiers partagé......... 26 5.4 Tier1 en FWB et accès à PRACE......................... 26 5.5 Développement d un outil d aide à la soumission de jobs.......... 28 6 Support aux utilisateurs et formations 29 6.1 Support aux utilisateurs............................. 29 6.2 Formations.................................... 30 7 2015 et au delà... 32 A Inventaire des infrastructures de stockage 34 B Inventaire des infrastructures de calcul 35 C D Répartition des utilisateurs de l UCL dans l utilisation des infrastructures de stockage 38 Répartition des utilisateurs de l UCL dans l utilisation des infrastructures de calcul 39 E Activités de formation, veille technologique, et réseautage 40 E.1 Slurm User Group................................ 40 2

E.2 Réunion Xeon Phi chez HP............................ 40 E.3 Storage Expo................................... 40 F Publications 41 Rapport d activité 2014 du CISM 3 47

Le CISM en quelques mots... Le CISM est une plate-forme technologique rattachée au Secteur des Sciences et Technologies (SST). Son rôle est de fournir aux chercheurs de l Université des solutions de calcul intensif sur de puissants systèmes informatiques et des solutions de stockage sûr et sécurisé de grandes masses de données. Un outil indispensable à la recherche En informatique scientifique, bien que la puissance des ordinateurs individuels s accroit de génération en génération, les besoins en calcul et stockage augmentent de manière bien plus grande encore, particulièrement dans les domaines de la simulation numérique, de la modélisation, de la bioinformatique, etc. Cette année 2014 a vu plus de 170 utilisateurs UCL (et 480 en tout), utiliser, souvent jusqu au maximum de leur capacité, les infrastructures du CISM et du CÉCI. Ce qui représente, rien que pour l UCL, plus de 16 millions d heures de calcul (dont 10M uniquement sur les infrastructures du CISM), et 222 TB de stockage, permettant la production de 84 publications scientifiques. Une expertise reconnue L équipe de gestion de la plate-forme CISM regroupe quatre informaticiens spécialisés entretenant un savoir-faire de pointe en calcul scientifique et en gestion de parc informatique. Cette expertise est reconnue au sein de l Université où le CISM contribue à la réalisation des projets de plusieurs entités : hébergement de machines de calcul statistique pour SMCS, étude d une nouvelle salle machine avec SIPR, coopération avec CP3, unité gérant également des grappes de calcul, etc. Cette expertise est également reconnue au sein de la Fédération Wallonie-Bruxelles : les formations organisées par l équipe du CISM ont attiré en 2014 plus de 70 chercheurs issus de chacune des universités wallonnes et bruxelloise. 2014, l année du 10ième anniversaire. Cette année anniversaire a été pour le CISM l occasion d une refonte importante de ses organes de gestion. Et même si les infrastructures n ont pas beaucoup évolué en terme de puissance installée, la puissance de calcul disponible globalement a plus que doublée avec l ouverture au CÉCI du Supercalculateur Tier-1 wallon. De nouvelles formations pour les utilisateurs, et la poursuite des grands chantiers que sont la nouvelle salle machine et le projet de stockage partagé CÉCI viennent compléter le tableau.

INTRODUCTION Le présent rapport a pour but de fournir un résumé des activités de la plate-forme technologique sectorielle Calcul Intensif et Stockage de Masse (SST/CISM) et de l équipe qui en gère les équipements, pour l année 2014. Le lecteur disposant de la version imprimée est invité à consulter la version électronique 1 où les hyperliens donnent accès aux références de ce rapport. Les faits saillants de l année 2014 y sont extraits d une masse brute de procès-verbaux et de statistiques. Le rôle de la plate-forme, pour son aspect «calcul intensif» est d assurer aux chercheurs de l université l accès à des outils informatiques de calcul scientifique de grande puissance, appelés «grappes de calcul», ou «clusters» ; il s agit d ensembles d ordinateurs présentant de très grosses configurations interconnectés de manière à combiner leurs puissances individuelles en un super-ordinateur. Le rôle «stockage de masse» consiste à offrir aux chercheurs l accès à des infrastructures de stockage de données de grande capacité disponibles à toute la communauté universitaire. Les activités prises en charge par la plate-forme vont donc de l acquisition du matériel, et de sa maintenance, au support et à la formation des chercheurs à l utilisation de ce matériel, sur base d une expertise de haut niveau entretenue activement au sein de l équipe, et d une veille technologique permanente, en collaboration avec les autres services de l UCL mais également avec les autres universités belges. La suite de ce rapport présente les faits importants de 2014 (Section 1), l évolution des organes de la plate-forme (Section 2), l état des lieux des infrastructures du CISM (Sections 3 et 4), les nouveaux projets mis en place dans le cadre du CÉCI (Section 5), le bilan des activités de support aux utilisateurs (Section 6.1) et les perspectives pour 2015 (Section 7). Les annexes reprennent les détails des infrastructures (Annexes A et B), la répartition par pôle des utilisateurs de l UCL (Annexes C et D), ainsi que la liste des publications obtenues cette année grâce aux outils du CISM (Annexe F). 1 http ://www.cism.ucl.ac.be/administration/rapports 6 47 Rapport d activité 2014 du CISM

1 L ANNÉE 2014 EN BREF En 2014, le CISM a fêté ses 10 ans d existence. C était l occasion pour nous d organiser un évènement regroupant les personnes à l origine de notre plate-forme et nous remémorer les souvenirs de 2004, année où le calcul intensif et le stockage de masse ont pris leur place au sein de l Université par la création de l Institut CISM. Plate-forme technologique depuis 2009, notre organisation n a cessé d évoluer. Encore cette année, un nouveau règlement d ordre intérieur (ROI) a été approuvé par les autorités de l Université et la gestion du CISM a été confiée à deux nouveaux comités : le comité de gestion et le comité des utilisateurs. Ce point sera détaillé à la Section 2. Globalement, nos infrastructures n ont pas connu de grosse modification cette année. On notera les serveurs ajoutés au cluster Manneback mais cela reste relativement limité en terme d occupation d espace et de puissance. Pour rappel, nous sommes en attente de la mise à disposition d une nouvelle salle machine nous permettant le déploiement de nouvelles infrastructures. Cette nouvelle salle sera construite en 2015 comme nous le verrons à la Section {salles}. En ce qui concerne le calcul intensif, la mise en service du supercalculateur Tier-1 au Cenaero et son ouverture à tous les utilisateurs du CÉCI[ˆConsortium des Équipements de Calcul Intensif en Fédération Wallonie Bruxelles] est certainement un des évènements les plus importants de l année écoulée. On reviendra plus largement sur cet évènement à la Section 5.4. Dans les activités du CÉCI, un nouveau projet Grands Équipements a été accepté pour financement par le FNRS. Il concerne la mise en place d un système de fichiers partagé favorisant la mobilité des chercheurs entre les différentes plates-formes de calcul mises à disposition par le consortium. Ce point sera discuté à la Section 5.3. On peut également rappeler la séance de debuggage qui a eu lieu en début d année permettant à quelques utilisateurs avertis de tester l efficacité de leur code en utilisant, sur une courte période, les 1344 processeurs disponibles sur le cluster Lemaitre2. Cette session a été un réel succès et certains utilisateurs ont obtenu ainsi les informations nécessaires pour envisager l accès à des infrastructures plus importantes. Pour le stockage de masse, malgré le démantèlement de Storage02, l espace de stockage disponible est resté suffisant pour ne pas devoir envisager son remplacement immédiat. Un renforcement sera cependant nécessaire en 2015. Nos formations se sont à nouveau étoffées avec deux nouvelles sessions (programmation Fortran et C++) et trois nouveaux formateurs (voir la section {formations}). Enfin, il reste à citer les 84 publications qui ont bénéficié de l apport essentiel des infrastructures CISM en 2014 ; elles sont listées en annexe F. Rapport d activité 2014 du CISM 7 47

2 CISM PLATE-FORME TECHNOLOGIQUE Cette année, le CISM a fêté ses 10 ans d existance! C était l occasion de rassembler les différents acteurs qui ont contribué activement à la réussite de notre plate-forme et se souvenir des premières années de calcul intensif et de stockage de masse à l UCL. Une séance académique a donc été organisée à cette fin le 2 octobre 2014. Dès 2013, le CISM avait entamé la modification de son fonctionnement avec la scission de son conseil de gestion en deux nouvelles assemblées : le comité de gestion et le comité des utilisateurs. Au même moment, le Conseil du Service à la Société (CSES) a remis une note au Conseil Académique proposant une nouvelle ligne de conduite pour le fonctionnement des plate-formes technologiques. Notre objectif rencontrant l essentiel des points mentionnés dans cette note, notre nouveau règlement d ordre intérieur (ROI) a rapidement pris forme et a été déposé pour approbation au bureau du Secteur des Sciences et Technologies (SST). Il a officiellement été approuvé par le Conseil Académique du 3 juin 2014. Les points importants de notre nouvel ROI sont les suivants : Le CISM devient une plate-forme technologique sectorielle du secteur SST. Il est représenté auprès des autorités de l UCL par son institut de référence, IMCN, et en particulier par son président. Le Comité de Gestion du CISM se réunit environ deux fois par an pour définir les stratégies à moyen et long terme et évaluer le fonctionnement de la plate-forme. Il est composé d un représentant par institut grand utilisateur de nos infrastructures et présidé par un académique nommé pour 4 ans. Le comité des utilisateurs se réunit au moins six fois par an pour proposer la politique de gestion et d utilisation des équipements scientifiques et techniques. Il est composé d au moins un membre des pôles de recherche regroupant les utilisateurs les plus significatifs et présidé par le président du comité de gestion. 8 47 Rapport d activité 2014 du CISM

3 LES SALLES INFORMATIQUES Comme discuté dans nos rapports précédents, les deux salles actuelles (l Aquarium et la salle Tier-2) ne permettent plus aujourd hui d héberger simultanément les serveurs des services centraux (SIPR), de IRMP/CP3 et du SST/CISM. Par manque de place d abord : les armoires sont remplies au maximum de leur capacité. Par manque de puissance ensuite : les projets orientés calcul intensif (CISM et CP3) nécessitent des armoires permettant d atteindre les 20 kw alors que la capacité actuelle est de 12 kw par armoire. Enfin, les besoins deviennent de moins en moins compatibles entre les services centraux qui doivent assurer un service ininterrompu et donc, recherchent à assurer la redondance de chaque élément de la salle, et les utilisateurs du calcul haute performance (CP3 et CISM) qui ont besoin d un maximum de puissance par armoire afin d optimiser la densité des serveurs de calcul. Un projet de nouvelle salle (DCIII, DataCenter III) a donc vu le jour grâce au travail efficace de ADPI/GTPL. Un nouveau bâtiment sera construit dans le courant de l année 2015. Dans un premier temps (phase I), 12 armoires de 20 kw seront disponibles pour la fin de l année 2015. Une seconde phase est prévue en 2017 où la salle sera mise à niveau et atteindra les 20 armoires. La figure 1 présente le site choisi pour l implantation de cette nouvelle salle (cette figure nous a été transmise par ADPI/GTPL). FIGURE 1 : SITE D IMPLANTATION DE LA NOUVELLE SALLE DCIII L optimisation énergétique est un point essentiel dans la conception d une salle machine tant le niveau de consommation électrique est important. Par exemple, en 2014, la consommation cumulée des deux salles existantes s est élevée à 2466 MWh dont un peu moins de la moitié provenant des installations du CISM. Chaque kw économisé par l efficacité de l installation représente donc une économie substantielle pour le gestionnaire de la salle. Un des paramètres les plus utilisés pour mesurer l efficacité d une salle machine est le PUE (Power Usage Effectiveness) qui représente le rapport entre la consommation électrique globale de la salle sur celle des serveurs qu elle héberge. Dans un monde idéal, Rapport d activité 2014 du CISM 9 47

si le refroidissement des machines ne produit aucun surcoût énergétique, le PUE est de 1. Ce qui n est bien sûr pas le cas mais plus la conception de la salle est optimisée, plus le PUE se rapprochera de l unité. Pour les salles actuelles, nous avons pu estimer le PUE en comparant les valeurs obtenues sur le compteur général des salles (consommation totale) et les mesures prises sur l UPS, fournissant la puissance électrique des serveurs. Cette valeur doit être considérée comme minimale. La figure 2 présente l évolution annuelle du PUE pour l Aquarium et la salle Tier-2. FIGURE 2 : EVOLUTION ANNUELLE DU PUE POUR LES SALLES AQUARIUM ET TIER-2 On peut remarquer que cette valeur n est pas constante et qu elle dépend des saisons et donc, des conditions de température extérieure. Cette dépendance est particulièrement marquée pour la salle Tier-2 qui, contrairement à l Aquarium, est équipée d un aéroréfrigérant qui permet de refroidir le circuit hydraulique de la salle par simple ventilation, lorsque la température extérieure est suffisamment basse. La salle Aquarium, installée en 2005, présente un PUE moyen de 1.55 alors que la salle Tier-2, datant de 2007, plus efficace, tourne autour de 1.46. L objectif de la nouvelle salle machine, le DCIII, sera de descendre en dessous de 1.3. Fin 2015, lorsque la première phase du DCIII sera terminée, il est prévu de commencer le transfert de toutes les activités de SST/CISM et IRMP/CP3 dans la nouvelle salle. L objectif final étant de libérer la totalité des armoires utilisées dans les anciennes salles pour permettre aux services centraux d augmenter leur capacité. Le CISM gardera cependant une armoire à l Aquarium pour assurer une solution de backup délocalisé de ses services. IRMP/CP3 gardera également une armoire en salle Tier-2 pour certains services ne pouvant pas déménager du bâtiment Marc de Hemptinne. Le rapprochement des serveurs IRMP/CP3 et SST/CISM dans le même local est une chance unique de mutualiser nos différents services. Une collaboration étroite avec les administrateurs de IRMP/CP3 a donc débuté cette année pour étudier les possibilités de ce rapprochement. 10 47 Rapport d activité 2014 du CISM

4 MATÉRIEL ET INFRASTRUCTURE FIGURE 3 : EVOLUTION DE LA PUISSANCE THÉORIQUE DE CALCUL AU CISM DEPUIS 2006 En 2014, afin de prolonger un peu l utilité de ses processeurs plus anciens, la majorité des nœuds de calcul de GREEN ont été transférés sur Manneback. Combinée aux huit nouvelles machines que nous avons ajoutées à ce cluster, la puissance théorique cumulée a atteint en 2014 les 42 TFlops comme le montre la figure 3. Un tableau récapitulatif est présenté en Annexe B ainsi que la répartition par Secteurs/Instituts/Pôles des utilisateurs de l UCL (Annexe D). Le détail du taux d utilisation de ces différents clusters sera développé dans les paragraphes ci-dessous. FIGURE 4 : EVOLUTION DE L ESPACE DE STOCKAGE DISPONIBLE AU CISM DEPUIS 2006 Rapport d activité 2014 du CISM 11 47

En ce qui concerne le service de stockage de masse, avec le déclassement programmé de Storage02, le CISM met à la disposition de l ensemble de la communauté universitaire environ 260 terabytes[ˆ1 terabyte représente 1000 gigabytes soit l équivalent d un disque dur externe, ou environ 250 DVD] (TB). La répartition de cet espace sur nos serveurs est détaillée à la figure 4. Un tableau récapitulatif est également présenté en annexe {inventaire_st}. La répartition des utilisateurs par secteur/institut/pôle se retrouve en annexe C. Le reste de cette section présente en détail les différentes infrastructures de calcul, grappes et machines interactives ainsi que le récapitulatif des interventions opérées sur ces machines en 2014. 4.1 Les infrastructures de calcul Les infrastructures de calcul du CISM sont de deux types : des grappes de calcul, où les utilisateurs soumettent leurs calculs au logiciel chargé de la gestion des ressources (Manneback, Hmem, Lemaitre2) ; des machines interactives où les utilisateurs se connectent et lancent leurs calculs directement (SMCS1&2, LM9). 4.1.1 La grappe MANNEBACK Manneback, baptisée en hommage à Charles Manneback, est une grappe réservée aux membres de l UCL ; elle héberge les machines issues de projets de recherche industriels, les machines spécialement achetées pour tester de nouvelles technologies, et les machines ne trouvant pas leur place ailleurs. Ce qui en fait un cluster hétérogène, regroupant des processeurs AMD et des processeurs Intel, des nœuds avec une interconnexion rapide et à faible latence, et d autres équipés d accélérateurs matériels. Cette année, la puissance maximale de cette grappe a doublé, passant de 10TFlops à un peu plus de 20TFlops. Ainsi, Manneback compte Charles Manneback (1894-1975) à présent 1616 cœurs et dépasse en puissance maximale théorique la grappe Lemaitre2 (1380 cœurs, 14TFlops). Cet accroissement important est dû essentiellement à trois apports : la reconversion de 79 machines de l ancien cluster Green, intégrées à Manneback (+ 6,32Tflops) ; l ajout en mars, d un serveur de 32 cœurs Xeon E5-4620@2.2GHz/128 GB RAM, intégré à la partition OBAN (+ 563Gflops) ; et pour finir, l ajout en juin, de 8 nœuds de 16 cœurs Xeon E5-2650v2@2.6GHz/64GB RAM (+ 2.66Tflops). Le front-end (ou serveur d accès) avait été renforcé l an passé. Il s agit d une machine puissante équipée de deux processeurs Intel(R) Xeon(R) CPU E5-2650 @ 2.00GHz (soit 16 12 47 Rapport d activité 2014 du CISM

100.. CPU.. Mem 50 0. Jan Feb Apr May Jul Sep Oct Dec FIGURE 5 : TAUX D UTILISATION CUMULÉ DE MANNEBACK cœurs de calcul en tout), 64GB de RAM, et 30TB de disque configurés en RAID6. Ce serveur d accès supporte sans difficulté le doublement de la charge (de 856 à 1616 cœurs). La partition INDUS a été mise en place suite à un contrat de recherche en collaboration avec des partenaires industriels. Cette partition est réservée aux activités liées à ce contrat durant la durée des travaux, et n est disponible pour les utilisateurs n y étant pas impliqués directement qu en cas de surcapacité. En pratique, chacun peut y soumettre un job, mais ce job pourra être arrêté et annulé pour laisser la place aux jobs prioritaires si besoin est. NAPS 70%. 10% COSY 8% 5% Autres 7% ELEN MIRO FIGURE 6 : RÉPARTITION PAR PÔLE POUR MANNEBACK La partition OBAN est également réservée en priorité aux utilisateurs qui ont financé les machines qui la composent ; cependant, si leurs jobs ont une priorité nettement supérieure à celle des autres jobs, ils n ont pas la possibilité d arrêter un job en cours pour prendre sa place. Le taux d utilisation cumulé de Manneback (Figures 5) présente la somme de la consommation de CPU et de mémoire des branches par défaut (c est-à-dire tous les nœuds sauf ceux des partitions INDUS et d OBAN). Sur cette figure, on remarque en juillet une interruption due à la semaine de maintenance et de mise à jour de l ensemble des serveurs de calcul. Et hormis les deux périodes plus creuses de mars et de mai, la tendance est à une augmentation de la charge de Manneback. Rapport d activité 2014 du CISM 13 47

4.1.2 La grappe HMEM La grappe de calcul Hmem est une infrastructure orientée calcul intensif réclamant une quantité de mémoire vive importante ; d où le choix du nom Hmem pour «High-Memory». Cette infrastructure, installée en février 2011, est à la disposition des utilisateurs de l UCL pour moitié et des membres du Consortium CÉCI pour l autre moitié. Cette grappe est composée de 16 machines DELL (fournies par ClusterVision) 4x12 cœurs AMD Opteron 6174 dont deux sont équipées de 512 GB de RAM, 7 de 256 GB et 7 de 128 GB. Un financement La grappe Hmem d ELIC a permis d ajouter un huitième nœud équipé de 128 GB de RAM (Hmem17). L ensemble est interconnecté par un réseau rapide à faible latence Infiniband QDR (40 Gbits/s). Le CISM a ajouté un serveur d accès et de sessions interactives équipé de 2x6 cœurs AMD Opteron 4180, 64GB de RAM, et de 11TB d espace disque pour les répertoires utilisateurs. Il permet l identification des utilisateurs et la gestion des jobs en attente de soumission. Enfin, 3 serveurs Transtec Calleo 530 acquis en novembre 2008 (4 dual-cœur AMD Opteron et 128GB RAM) faisant anciennement partie de Lemaitre ont été ajoutés à la grappe Hmem (Hmem18, 19 et 20, dans une queue «fast» de 24 heures maximum). 80.. CPU.. Mem 60 40 20 0. Jan Feb Apr May Jul Sep Oct Dec FIGURE 7 : TAUX D UTILISATION CUMULÉ DE HMEM Le matériel qui compose Hmem est particulier car très peu de serveurs de calcul disposent d un demi TB de RAM, et les valeurs de 128 et 256 GB sont également plus élevées que ce qui est classiquement disponible sur des serveurs de calcul. Cela permet d y faire tourner des simulations qui ne pourraient s exécuter ailleurs (manipulant des tableaux très grands, par exemple). Néanmoins, le taux d utilisation de Hmem, bien que relativement élevé, a fléchi cette année. C est ce que présente la figure 7. Cela peut s expliquer par différents facteurs : Le CÉCI dispose, avec Dragon1, d une grappe de 26 serveurs équipés chacun de 128 GB de RAM et, avec Vega, de 43 nœuds de 256GB de RAM. Hormis les deux premiers nœuds Hmem1 et Hmem2 (512 GB de RAM), Hmem n est plus le seul à pouvoir accueillir des modélisations gourmandes en mémoire. De plus, les processeurs AMD Opteron 6174 sont moins rapides que les processeurs de générations suivantes, qui équipent les grappes plus récentes. La figure 8 montre une utilisation de Hmem bien répartie au sein des universités du CÉCI (seulement 4% UMons et 6% ULB qui hébergent respectivement Dragon1 et Vega). Sur la partition High (les nœuds Hmem1-Hmem2 équipés de 512 GB de RAM), SLURM, le gestionnaire de jobs, a été configuré de telle manière que seules les 14 47 Rapport d activité 2014 du CISM

UCL 43% 27%. 4% UMons UNamur 20% ULB 6% ULg FIGURE 8 : RÉPARTITION DE L UTILISATION DE HMEM PAR UNIVERSITÉ simulations demandant plus de 256GB puissent y démarrer, pour utiliser judicieusement ces serveurs particuliers. Ils sont ainsi plus disponibles mais cela fait diminuer leur taux moyen d utilisation. SLURM doit veiller au partage équilibré entre les utilisateurs des 5 universités de la Fédération Wallonie Bruxelles. La configuration choisie tient compte du fait que la machine est dédiée à 50% aux membres de l UCL et 50% aux membres du CÉCI (dont l UCL). A part cela, tous les utilisateurs sont mis sur le même pied. La figure 8 présente la répartition de l utilisation de la grappe Hmem entre les 5 universités de la FWB pour l année 2014. 4.1.3 La grappe LEMAITRE2 L accord du Consortium des équipements de Calcul Intensif CÉCI de 2010 a permis en 2011 le financement par le FNRS d une machine massivement parallèle, disposant d un grand nombre de CPUs performants interconnectés par un réseau rapide. La grappe Lemaitre2 est composée de 1344 cœurs de calcul Intel X5649@2.53GHz interconnectés par un réseau Infiniband QDR (3 :1) blocking. Un système de fichiers parallélisé de type Lustre assure Georges Lemaitre l accès en écriture le plus rapide possible à un espace d hébergement (1894-1966) temporaire de données de 120 TB. Les serveurs de gestion, d accès aux répertoires utilisateurs (contenant les données essentielles, les sources et les programmes des utilisateurs) et de gestion du système de fichiers Lustre (plus performant, contenant les données de production des utilisateurs) sont tous dédoublés et sécurisés via Linux High Availibility (LHA). La grappe Lemaitre2, avec sa puissance maximale théorique de 13.6 Tflops, représente 35% de la puissance offerte par le CISM à la communauté. La figure 9 présente le taux d utilisation mensuelle de la grappe Lemaitre2 pour l année 2014. Rapport d activité 2014 du CISM 15 47

100.. CPU.. Mem 80 60 40 20 0. Jan Feb Apr May Jul Sep Oct Dec FIGURE 9 : TAUX D UTILISATION CUMULÉ DE LEMAITRE2 UCL UNamur 12% 37%. 33% 10% 8% UMons ULB ULg FIGURE 10 : RÉPARTITION DE L UTILISATION DE LEMAITRE2 PAR UNIVERSITÉ 16 47 Rapport d activité 2014 du CISM

4.2 Les systèmes de stockage de masse Le serveur Storage02, acquis en 2009, est arrivé en fin de garantie début 2014 et a été déclassé. L espace disponible a ainsi été réduit de 36 TB. Actuellement, les trois serveurs Storage03, Storage04 et Storage05 fournissent à la communauté universitaire 261 TB d espace disque en ligne, répartis comme suit (voir également la figure 4) : Storage03 : 42 TB Storage04 : 64 TB Storage05 : 155 TB Cet espace disque est sécurisé : la configuration RAID des machines tolère la panne de disques, remplaçables à chaud, c est-à-dire sans devoir éteindre la machine. De plus, la récupération en cas de désastre est assurée par la délocalisation des serveurs (Storage04 et Storage05 au Pythagore ; Storage03 au Marc de Hemptinne) et la mise en place d un système de réplication des données, activé uniquement si l utilisateur le souhaite. FIGURE 11 : RÉPARTITION DES UTILISA- TEURS PAR SECTEUR FIGURE 12 : RÉPARTITION DES UTILISA- TEURS PAR INSTITUT FIGURE 13 : RÉPARTITION DES UTILISA- TEURS PAR PÔLE FIGURE 14 : RÉPARTITION DU STOCKAGE UTILISÉ DEPUIS 2008 Les Figures 11 à 13 présentent la répartition des utilisateurs par secteur, par institut et par pôle de recherche. ELI reste l institut le plus important avec les pôles ELIC et ELIE. La Figure 14 montre l évolution de l espace de stockage utilisé et son accélération ces dernières années. En 2015, les prévisions basées sur les estimations des utilisateurs du calcul intensif nous annoncent une augmentation importante de l espace utilisé. Un renforcement de notre infrastructure de stockage deviendra nécessaire. Rapport d activité 2014 du CISM 17 47

Suite à la réduction de l espace disponible sur les serveurs Storage04 et Storage05, lors de la consolidation du niveau de sécurisation des données en 2013, l espace de stockage alloué à ELIE et ELIC a été réduit proportionnellement. FIGURE 15 : LA RESTRUCTURATION DES SERVEURS DE STOCKAGE Les données ont été redistribuées entre les serveurs de façon à regrouper celles de chaque pôle de recherche sur un même serveur. L accès aux machines de stockage a également été restructuré. La figure 15 représente la consolidation des différents serveurs Storage02 à Storage05, entreprise en début d année, afin de permettre à tout les utilisateurs d accéder à leurs données de façon identique (sur storage.cism.ucl.ac.be, dans son /home/pôle/login). Dans la salle Aquarium se trouvent Storage02, Storage04 et Storage05, alors que Storage03 est installé dans la Salle Tier2. Une procédure de montage automatique (NFS auto mount) permet d établir la correspondance /home/pôle/login, même si les données accédées se trouvent sur un autre serveur. Par exemple, sur Storage05, /home/naps est un lien vers /net/storage03/storage/naps car les données du pôle NAPS se trouvent sur Storage03. Le serveur déclassé Storage02 a été reconditionné : quatre liens directs relient les quatre grappes de calcul. Ainsi, les espaces de travail /workdircism et /workdirceci sont visibles depuis tout les nœuds de calcul de chaque cluster. Enfin, signalons que Pascal Frisque (SIMM) a été nommé représentant des petits utilisateurs du stockage de masse, en remplacement d Emile Berckmans, que le CISM tient à remercier tout partiuclièrement. 18 47 Rapport d activité 2014 du CISM

4.3 Serveurs spécifiques Outre les grappes de calcul, le CISM héberge des serveurs de calculs interactifs, mis en place pour répondre aux besoins spécifiques de certaines entités. 4.3.1 Serveurs SAS SMCS1&2 (SMCS) Pour permettre aux chercheurs dont les travaux nécessitent de travailler sur des grosses bases de données, de mener à bien leur recherche, la plate-forme technologique Service de Méthodologie et de Calcul Statistique (IMAQ/SMCS) a financé, en 2011, deux serveurs de calcul que nous hébergeons dans nos infrastructures... CPU.. Mem 100 50 0. Jan Feb Apr May Jul Sep Oct Dec FIGURE 16 : TAUX D UTILISATION DE SMCS1.. CPU.. Mem 100 50 0. Jan Feb Apr May Jul Sep Oct Dec FIGURE 17 : TAUX D UTILISATION DE SMCS2 Ces deux machines, conçues principalement pour le logiciel statistique SAS, permettent également l utilisation des logiciels R et Stata. En 2014, la gestion de ces deux machines s est poursuivie sans incident, avec comme fait notable la mise à jour du logiciel SAS en version 9.4, et la reconfiguration de la connexion de ces machines à leur espace de stockage de manière à augmenter significativement les vitesses d accès aux données. Dans les figures 16 et 17, on peut voir l évolution de l utilisation des processeurs (surface bleue) et de la mémoire (trait rouge) des deux machines. Une utilisation au-delà de 100% indique une utilisation sous-optimale de la machine ; plus de processus (instances de programmes utilisateurs) que de processeurs (et donc changements de contextes fréquents car plusieurs processus se partagent un même processeur) ou plus de mémoire Rapport d activité 2014 du CISM 19 47

de travail utilisée que de mémoire disponible (et donc utilisation d espace disque de type swap pour la mémoire). 4.3.2 Serveur Matlab LM9 (INMA) Début 2011 toujours, le pôle d Ingénierie Mathématique (ICTM/INMA), avait financé un serveur spécifique pour l utilisation interactive du logiciel Matlab. En 2013, la gestion de cette machine par le CISM s est poursuivie également, avec, à noter, deux interventions sur panne de disque dur. Cette machine est régulièrement utilisée, comme le montre la figure 18. Elle est en fait beaucoup utilisée pour convertir des programmes Matlab en programmes C de manière à pouvoir les faire tourner sur un cluster comme MANNEBACK ou HMEM. 100.. CPU.. Mem 50 0. Jan Feb Apr May Jul Sep Oct Dec FIGURE 18 : TAUX D UTILISATION DE LM9 4.4 Gestion et développement de l infrastructure 4.4.1 Gestion des incidents Au cours de l année 2014, nous avons dû faire face à une trentaine de pannes ou problèmes matériels. Certains ont nécessité un remplacement, d autre une reconfiguration. La figure 19 montre la fréquence des incidents selon leur type. On voit sans surprise que ce sont les disques durs et les mémoires qui sont les éléments devant être le plus souvent remplacés. Il est à noter que grâce à la configuration en redondance des disques durs des homes et des stockages de masse, aucune perte de données n est à déplorer lors des crash de disques. A contrario, les disques des systèmes de scratch sont configurés sans redondance ; ainsi le crash d un disque du système /scratch de Hmem a conduit à la perte de certains fichiers pour certains utilisateurs. Heureusement, il s agissait de fichiers reconstructibles, ou dont une copie existait ailleurs. Et alors que les autres types d interventions se font obligatoirement lors d un arrêt de la machine, les remplacements de disques se font à chaud, alors que la machine tourne et répond aux commandes des utilisateurs, de manière totalement invisible pour ces derniers. Il est évident que le nombre d interventions sur un système dépend à la fois de la taille de ce système et de son ancienneté. Comme on le voit sur la figure 20, la majorité des 20 47 Rapport d activité 2014 du CISM

Remplacement de mémoire Reformatage de disque Remplacement d adapter board Remplacement de carte mère Remplacement de disque dur Reconfiguration software Remplacement de CPU Remplacement de ventilateur. 1. 1 2 2 2 3 3 4 4 5 5 6 7 7 7 FIGURE 19 : RÉPARTITION DES INCIDENTS PAR TYPE EN 2014 interventions ont eu lieu sur les deux plus gros clusters gérés par le CISM, Lemaitre2 et Manneback, ce dernier incluant par ailleurs beaucoup de vieux serveurs de calcul récupérés des anciens clusters GREEN et Lemaitre. Par trois fois en 2014, le système de refroidissement de la salle Tier2 dans laquelle sont installées les machines de Green ont défailli, entrainant l arrêt complet de ces machines le temps de la remise en route, souvent très rapide, des équipements par l équipe technique de ADPI/GTPL. Manneback Lemaitre2 Green Hmem 2 Storage 1 Network. 1. 0 2 3 4 6 8 10 11 12 13 14 FIGURE 20 : RÉPARTITION DES INCIDENTS PAR MATÉRIEL EN 2014 En ce qui concerne la salle Aquarium, nous avons dû faire face à une défaillance importante de l UPS, le système qui protège nos équipements des problèmes électriques, qui a nécessité l arrêt de l ensemble des nœuds de calcul des clusters Manneback, Hmem et Lemaitre2 durant deux journées. Les serveurs de tête et les serveurs de fichiers ont pu être maintenus par la mise en place d une ligne électrique temporaire. L année 2014 a par ailleurs vu la divulgation de failles de sécurité importantes dans les systèmes logiciels que nous utilisons, à savoir Bash ( Shellshock ), SSL ( Haertbleed ), et Linux ( Semtex ). Pour les deux premières citées, nous avons pu rapidement établir que nos systèmes n étaient pas vulnérables. Pour la troisième, nous avons en urgence appliqué les mises à jour de sécurité nécessaires. Mais aucun de nos systèmes n a été compromis. Enfin, comme les années précédentes, nous avons procédé à une maintenance planifiée durant la dernière semaine de juillet pour mettre à jour des systèmes, nettoyer des espaces /scratch, et installer la dernière version du gestionnaire de jobs (SLURM v14.03). Rapport d activité 2014 du CISM 21 47

4.4.2 Déclassement des serveurs plus anciens Green a été installé en 2008 suite à un financement FNRS obtenu par le pôle Nanoscopic Physics (IMCN/NAPS). Il avait été conçu de manière à minimiser la consommation électrique tout en garantissant un bon niveau de performances. Il disposait de 102 nœuds, soient 816 cœurs, fournissant 8.16 TFlops de puissance théorique maximale, pour une consommation électrique ne dépassant pas 24 kw. Le cluster Green, arrivé en fin de contrat de maintenance en 2013, n a pas été démonté mais il continue à rendre des services par un recyclage de ses composants : Un nœud (node096) est toujours réservé à l usage unique de NAPS, comme serveur de compilation buildbot dans un environnement de référence, pour le logiciel ABI- NIT ; Six nœuds ont été réaffectés au cluster de test Leleve2 de l équipe de gestion (pour l évaluation d outils de déployement, de systèmes de fichiers partagés, de configuation SLURM, ) ; 79 nœuds ont été rattachés à Manneback (soit 6,32 Tflops). Les 16 premiers nœuds restent attachés à Green, réduit à 128 cœurs, pour les utilisateurs en fin de thèse, qui ont souhaité pouvoir y effectuer d ultimes simulations, et pour le cours LMAPR2451 Le rattachement de ces 632 cœurs de Green à Manneback n a pas demandé de déplacement des serveurs : un lien Gigabit ethernet point à point relie la grappe Manneback dans l AQUARIUM (bâtiment Pythagore) et les nœuds de Green dans la salle TIER2 (Marc de Hemptinne). Green était délaissé des utilisateurs (ancien système de queues, anciens compilateurs et librairies). Intégrés à Manneback de façon transparente, ces nœuds de calcul sont à nouveau bien chargés. 22 47 Rapport d activité 2014 du CISM

5 CONSORTIUM DES EQUIPEMENTS DE CALCUL INTENSIF Depuis la création du CÉCI - Consortium de Equipements de Calcul Intensif (F.R.S.- FNRS), nous y avons pris une part très active, notamment en développant une partie importante de l infrastructure de comptes partagés. Cette infrastructure permet à chaque chercheur d une université membre (les cinq universités francophones) d utiliser n importe quel cluster dans n importe quelle université en utilisant un seul identifiant unique. C est par ailleurs à l UCL qu ont été installés les deux premiers clusters Hmem et Lemaitre2. Il n est pas étonnant dès lors que les utilisateurs UCL furent parmi les premiers, et les plus nombreux, à utiliser les infrastructures CÉCI, comme le montrent les figures 21 et 22. 400.. UCL.. UMons.. UNamur.. ULg.. ULB 300 200 100 0. 2011. 2012 2013 2014 FIGURE 21 : EVOLUTION DU NOMBRE D UTILISATEURS CÉCI PAR UNIVERSITÉ Le CÉCI a par ailleurs organisé, comme chaque année, une journée scientifique permettant aux utilisateurs de présenter leur recherche et leur manière d utiliser les clusters. L orateur UCL pour cette année fut Thomas Demaet. Enfin, pour s assurer de rester à l écoute de ses utilisateurs, le CÉCI a de nouveau organisé, en 2014, une enquête de satisfaction. Pour le CÉCI, 2014 a été aussi l année de l ébauche de deux projets importants : d une part l accès à une machine Tier-1 de plus de 10.000 cœurs, et d autre part la création d un système de stockage commun à tous les clusters. 5.1 Les infrastructures disponibles Avec l installation de NIC4 en février 2014 à Liège, c est un premier cycle de développement du CÉCI qui s achève. Après Hmem, projet pilote financé par un projet FNRS/UCL mais partagé à 50% avec le CÉCI, Lemaitre2, toujours à l UCL, puis Dragon1 à l Université de Mons, Hercules à l Université de Namur, et Vega à l Université libre de Bruxelles, NIC4 est le sixième cluster installé grâce au premier tour de financement du CÉCI. Rapport d activité 2014 du CISM 23 47

10 9 2.5.. UCL.. UMons.. UNamur.. ULg.. ULB 2 1.5 1 0.5 0.. 2011 2012 2013 2014 FIGURE 22 : ÉVOLUTION DU NOMBRE DE MINUTES CPU CONSOMMÉES PAR LES UTILISA- TEURS DU CÉCI Comme le montre la table 1, ces clusters ont été conçus de manière à s adapter aux besoins fort variés des utilisateurs ; à la fois au niveau matériel, mais également au niveau des politiques d ordonnancement des jobs sur ces clusters. Ainsi, certains ont beaucoup de mémoire par nœud (e.g. Hmem), d autres beaucoup de nœuds connectés grâce à un réseau hyper rapide (e.g. NIC4), d autres encore offrent la possibilité de faire de très longs calculs (e.g. Hercules) A l heure actuelle, c est plus de 8300 cœurs de calcul qui sont disponibles pour les chercheurs des cinq universités. Mais outre ces ressources calculatoires, le CÉCI offre également une infrastructure simple de gestion des comptes utilisateurs et de nombreux tutoriels et autres FAQ pour permettre aux chercheurs d utiliser au mieux ces clusters. Nombre de cœurs Mémoire totale Point fort Hmem 17 x 48 = 816 4TB RAM, 15TB HD Jusqu à 512GB de RAM Lemaitre2 115 x 12 = 1380 5.5TB RAM, 120TB HD Réseau hyper rapide Dragon1 26 x 16 = 416 3.3TB RAM, 28TB HD Gros scratchs locaux Hercules 32x16 + 32x12 = 896 4TB RAM, 20TB HD Permet de longs jobs Vega 43 x 64 = 2752 11TB RAM, 70TB HD Calcul entier NIC4 128 x 16 = 2048 8TB RAM, 144 TB HD Système de fichiers TABLE 1 : LISTE DES CLUSTERS DISPONIBLES AU SEIN DU CÉCI Il n y a pas à l heure actuelle de perspectives de renforcement du nombre de cœurs de calcul ou de remplacement de l équipement devenant peu à peu obsolète, mais plutôt des initiatives d amélioration de la qualité de service d une part, avec pour 2015 une 24 47 Rapport d activité 2014 du CISM

10 4 2.. Hmem.. Lemaitre2.. Dragon1 nombre de cœurs 1.5 1 0.5.. Hercules.. Vega.. NIC4.. Zenobe 0.. 2010 2011 2012 2013 2014 2015 FIGURE 23 : ÉVOLUTION DU NOMBRE DE CŒURS DE CALCUL DISPONIBLES AU TRAVERS DU CÉCI DEPUIS SA CRÉATION meilleure connectivité entre les clusters et un système de fichiers commun, et d autre part une volonté de profiter du nouveau cluster Tier-1 dont plus de 8000 cœurs sont réservés aux universités. 5.2 Enquête de satisfaction Cette année encore, nous avons participé à l élaboration et à l organisation d une grande enquête de satisfaction auprès de nos utilisateurs et des utilisateurs du CÉCI. Organisée en juin, elle a touché 315 utilisateurs, parmi lesquels 74 ont répondu. L enquête était anonyme et posait les questions suivantes : Comment connaissez-vous le CÉCI? Quelles difficultés avez-vous rencontrées lors de la création de votre compte? Quels sont vos besoins en matériel, en logiciel? Quelles sont les caractéristiques d un job typique? Le questionnaire permettait également de laisser un commentaires libre. Les points essentiels à retenir de cette enquête sont : une grande satisfaction dans l ensemble : seuls cinq répondants ont laissé un commentaire négatif ; un besoin en logiciels plus varié que l année précédente, montrant un public touché plus large ; une demande d espace de travail/stockage commun à tous les clusters ; et évidemment un besoin pour toujours plus de ressources. Rapport d activité 2014 du CISM 25 47

La demande pour un espace de travail/stockage commun à tous les clusters avait déjà été exprimée dans le sondage précédent et le CÉCI y a répondu en déposant auprès du F.N.R.S. une demande de financement pour une solution matérielle et logicielle adaptée. La demande a été acceptée en 2014 et devrait aboutir à une solution effective en 2015. Les répondants avaient en outre la possibilité de laisser leurs coordonnées pour être contacté par un gestionnaire directement pour discuter des problèmes rencontrés. Quatre répondants ont profité de cette opportunité et leurs problèmes ont été solutionnés. Par ailleurs, une réponse détaillée à chaque point soulevé anonymement a été rédigée et postée sur le site web. Un résumé des résultats de l enquête et la réponse rédigée sont disponibles à l adresse : http://www.ceci-hpc.be/survey2014.html. 5.3 Développement d un nouveau système de fichiers partagé Depuis sa création, le CÉCI a œuvré à la mise en place d un cluster de calcul dans chaque université partenaire, en tenant compte des besoins spécifiques locaux pour le choix des matériels et technologies, mais en mettant en place un système de création de compte qui soit global et commun. Ainsi, chaque utilisateur peut se connecter, avec son compte CÉCI unique, au cluster de son choix, quelle que soit l université d accueil du cluster. Le projet a depuis lors largement démontré son utilité, et la mobilité des chercheurs sur les clusters est avérée. Dès lors, l ambition a grandi et, il est devenu évident que, outre le système de gestion des comptes, la gestion des jobs devait également se faire de manière globale et commune. Le prérequis principal à cette ambition est la mise en place d un espace de stockage fiable et performant qui soit commun à tous les clusters, de manière à ce que, quel que soit le cluster sur lequel un job démarre, ce job ait accès à toutes les données nécessaires à tout moment. Par ailleurs, un tel système permet à l utilisateur de retrouver un environnement (fichiers personnels, configurations, logiciels installés) identique sur tous les clusters. C est par ailleurs une demande qui est apparue à plusieurs reprises lors des enquêtes de satisfaction menées auprès des utilisateurs. Le CÉCI a donc introduit, en 2014, une demande Grand Équipement auprès du F.N.R.S. de manière à acquérir la plate-forme logicielle et matérielle, dont notamment un réseau performant et dédié entre les sites des universités et l a obtenu, grâce à l implication de tous les responsables des entités de recherche utilisateurs et des administrateurs systèmes, dont le CISM. Un financement lié a en outre été attribué pour engager un logisticien de recherche dédié à la mise en place et à la maintenance de ce système. L année 2015 verra donc naitre un système de stockage global et commun à tous les clusters, renforçant encore la collaboration interuniversitaire au sein du consortium. 5.4 Tier1 en FWB et accès à PRACE Le bon formidable observé à la figure 23 en termes de nombre de cœurs disponibles en 2015 est dû à l ouverture aux universités du supercalculateur Tier-1 PRACE installé à Cenaero à Gosselies. 26 47 Rapport d activité 2014 du CISM

Ce supercalculateur s inscrit dans PRACE, l initiative Partnership for Advanced Computing in Europe qui regroupe la majorité des pays d Europe dans une plate-forme organisant le partage de ressources calculatoires gigantesques. La Belgique fait partie de PRACE depuis octobre 2012. Les machines installées au sein des universités sont qualifiées de Tier-2 dans la nomenclature PRACE ; elles comportent de l ordre de Zenobe la centaine, voire du millier de cœurs, et sont utilisées au sein d une université ou d un centre de recherche. La machine Zenobe, elle, comporte plus de 10.000 cœurs et fait partie de la catégorie qu on appelle Tier-1, qui regroupe les clusters offrant de l ordre de la dizaine de milliers de cœurs. Le bassin d utilisation d une machine Tier-1 est généralement de la taille d une région. La catégorie reine, des clusters Tier-0, regroupe les infrastructures offrant de l ordre de la centaine de milliers de cœurs. Il y en a une dizaine en Europe ; ils sont listés à la table 2. Localisation Installation Architecture Nb cœurs CURIE GENCI@CEA, France Q2 2011 Bullx cluster 100000 Hermit GCS@HLRS, Germany Q3 2011 Cray XE6 113000 FERMI CINECA, Italy Q2 2012 BlueGene/Q 163000 SuperMUC GCS@LRZ, Germany Q2 2012 idataplex 163000 JUQUEEN GCS@FZJ, Germany Q4 2012 BlueGene/Q 458000 MareNostrum BSC, Spain Q4 2012 idataplex 48000 TABLE 2 : LISTE DES CLUSTERS TIER-0 PRACE La Belgique n héberge pas de cluster Tier-0, mais bien deux clusters Tier-1. Le premier, financé par la région flamande, est géré par le Vlaamse Supercomputing Centrum (VSC) et hébergé actuellement à l Université de Ghent. Le second, financé par la Fédération Wallonie-Bruxelles, est installé à Gosselies et est géré par Cenaero, le centre de recherche en aéronautique. Il est nommé Zenobe. Zenobe offre un total de 3288 cœurs Westmere, et 8208 cœurs IvyBridge, et entre 24 et 64 GB de mémoire vive par nœud. Il est équipé d un réseau rapide à faible latence (Infiniband) et d un espace de stockage GPFS de 350TB. Des quelques 11000 cœurs que propose la machine Zenobe, 60% sont réservés à la recherche et sont disponibles pour les universités du CÉCI. Ainsi, avec le même identifiant qu ils utilisent sur les clusters du CÉCI, les chercheurs peuvent se connecter sur Zenobe et y soumettre des jobs, pour autant cependant qu ils en aient fait la demande spécifiquement. Zenobe L objectif visé par cette ouverture de la machine Tier-1 est double : d une part accélérer la recherche en offrant encore plus de puissance de calcul aux chercheurs, et d autre part servir de marche-pied, de tremplin, vers des infrastructures Tier-0, en permettant aux chercheurs concernés de développer et tester leur code sur une grosse architecture avant Rapport d activité 2014 du CISM 27 47

de soumettre un projet pour obtenir un accès aux clusters Tier-0. Le CISM a fait partie intégrante de l équipe qui a étudié et mis en place cette intégration de la base de données utilisateurs du CÉCI sur la machine Zenobe et de la procédure de demande d accès. 5.5 Développement d un outil d aide à la soumission de jobs Pour soumettre un job sur un cluster du CÉCI, les utilisateurs doivent construire un script de soumission. Cette tâche n est pas foncièrement compliquée, mais recèle parfois quelques subtilités qui mènent parfois à des bloquages et questionnements de la part des utilisateurs. Pour éviter ces bloquages, nous avons construit un outil en ligne d aide à la construction de script de soumission. Concrètement, l outil permet aux utilisateurs de décrire les spécificités de leurs jobs en terme de nombre de cœurs, de mémoire, etc. En se basant sur ces paramètres, l outil fournit alors la liste des clusters sur lesquels il est possible, en fonction des contraintes matérielles et des politiques de gestion, de faire tourner le job décrit. Une fois que l utilisateur a choisi un cluster, le script correspondant au job décrit et au cluster demandé s affiche et peut être copié/collé par l utilisateur avec la garantie que son script fonctionnera. L outil met à jour le script en temps réel, ce qui permet à l utilisateur de voir directement la traduction de ses besoins dans les codes utilisés par Slurm, le gestionnaire de jobs. FIGURE 24 : APERÇU DE L OUTIL D AIDE À LA CRÉATION DE SCRIPTS DE SOUMISSION 28 47 Rapport d activité 2014 du CISM

6 SUPPORT AUX UTILISATEURS ET FORMATIONS Outre la maintenance des infrastructures, le rôle du CISM est également d aider et de former les chercheurs, utilisateurs de ces infrastructures. 6.1 Support aux utilisateurs Les utilisateurs de la plate-forme ont un point de contact unique pour l ensemble des membres de l équipe ; il s agit de l adresse egs-cism@listes.uclouvain.be. Chaque email reçu à cette adresse est pris en charge individuellement ou en équipe, selon les nécessités. Lors de l année 2014, cette adresse email a reçu 883 emails, dont 510 concernant la création ou le renouvellement d un compte CISM ou d un compte CÉCI. Autres Lemaitre2 Hmem Manneback Green Installations 14 Slurm 11 Quotas 8 lm9 4 SMCS1&2 3 Compilateurs. 3. 0 52 43 34 50 71 100 150 155 FIGURE 25 : REPARTITION DES DEMANDES D AIDE EN FONCTION DU THÈME ABORDÉ Les comptes CISM donnent accès au cluster Manneback, aux machines interactives, et aux machines de stockage de masse. Les comptes CÉCI donnent pour leur part accès aux clusters Hmem, Lemaitre2 et à tous les autres clusters du CÉCI. On voit sur la figure 26 que les demandes concernant les comptes CISM sont encore très fréquentes. Sur la figure 25, on peut voir que la majorité des demandes concerne notre plus grosse infrastructure, Lemaitre2, puis les autres clusters. On note également quelques demandes d installation de logiciels, mais très peu au regard du volume d activité. On peut attribuer cela au fait que déjà de nombreux logiciels sont disponibles, et que la documentation explique comment installer un logiciel dans son répertoire propre. Compte CISM Compte CÉCI Autres demandes. 28. 50 100 150 175 200 250 300 307 FIGURE 26 : REPARTITION DES DEMANDES RELATIVE À LA CRÉATION OU RENOUVELLE- MENT DE COMPTE Rapport d activité 2014 du CISM 29 47

Les demandes habituellement reçues concernent des échecs de jobs, des problèmes observés de performance, de l aide à la compilation ou à la connexion aux clusters. 6.2 Formations Les utilisateurs du CISM peuvent bénéficier de formations au calcul haute performance sur cluster, quel que soit leur niveau de départ. Les thèmes vont de l apprentissage des fonctionnalités de base de Linux et de la ligne de commande à la programmation parallèle sur les accélérateurs matériels. Cette offre diversifiée est représentée à la figure 27. Cette année, cette offre a encore été étendue, avec l ajout de deux nouvelles sessions dédiées aux langages compilés. Ces deux langages, C++, présenté par Étienne Huens (ICTM/INMA), et Fortran, par Pierre-Yves Barriat (ELI/ELIC) étaient considérés comme prérequis connus des participants aux formations des années précédentes. Autre nouveauté, la leçon sur Linux a été donnée, cette année, par Alain Ninane (SGSI). FIGURE 27 : THÈMES PROPOSÉS AUX PARTICIPANTS Les séances se sont déroulées du 16 octobre au 31 novembre, comme l année précédente, dans les salles informatiques du bâtiment Vinci, chacune étant équipée de 25 postes de travail. La séance concernant le language statistique R a quant à elle été organisée en février 2015 par l Institut de Statistiques de l Université. Cette année, plus de 70 certificats de participation ont été émis par le CISM, pour les participants venant de chaque université francophone (voir la figure 29). Ces derniers valorisent leur certificat dans le cadre de leur cursus en école doctorale. 30 47 Rapport d activité 2014 du CISM

Introduction à Linux Introduction à la programmation avec Fortran Introduction la programmation Objet en C++ Accès à distance avec SSH aspects avancés Compilateurs et librairies optimisées Debuggers et profilers Calcul parallèle avec MPI I Calcul Parallèle avec MPI II Calcul parallèle avec OpenMP Gestion de jobs avec Slurm Checkpointing de programmes Les accélérateurs matériels 8 Utilisation de Matlab sur le cluster 7 Utilisation de Python sur le cluster. 9. 10 20 20 20 27 25 27 30 33 33 39 39 36 37 40 FIGURE 28 : NOMBRE DE PARTICIPANTS À CHAQUE SÉANCE DE FORMATION UCL UNamur ULB 12% 12% 40%. 32% 4% Autres FIGURE 29 : RÉPARTITION DES PARTICIPANTS AUX FORMATIONS EN FONCTION DE LEUR UNIVERSITÉ D ACCUEIL ULg Rapport d activité 2014 du CISM 31 47

7 2015 ET AU DELÀ... Pour le CISM, l année 2015 sera l année de la mise en service d une nouvelle salle machine : le DCIII. Cette salle, dont la finalisation est prévue en automne, devra héberger l essentiel des infrastructures du CISM et de IRMP/CP3. Il est donc grand temps d organiser le transfert de nos serveurs en minimisant autant que possible la durée de l interruption de nos services. Des échanges avec les administrateurs des infrastructures de IRMP/CP3 ont déjà commencé en prévision de la mise en commun de nos services respectifs. Une réflexion a également été entamée concernant le choix d un outil efficace de gestion de l ensemble des paramètres de la salle tels que le statut des serveurs, la température des armoires, la consommation électrique, le statut de l UPS, Pour le CÉCI, l installation des différents clusters sur les cinq sites du consortium ayant été finalisée en 2014, il restait à mettre en place un environnement de travail efficace éliminant les barrières limitant la migration des utilisateurs d un site à l autre, et donc, le partage des infrastructures de calcul. Un nouveau projet a donc été déposé en 2014 et accepté pour financement par le FNRS. Ce projet propose l installation d un nouveau système de fichiers partagé permettant à un utilisateur de retrouver ses données sur tous les clusters du CÉCI. Ce projet suppose également le renforcement des interconnexions intersites par un réseau 10Gb de niveau 2. Des contacts ont déjà été pris avec Belnet et un cahier des charges est en préparation pour les parties logicielle et matérielle. L objectif est de disposer du nouveau système pour le mois de septembre. De plus, il est grand temps de penser au renouvellement de nos infrastructures. En effet, Hmem et Lemaitre2, premiers clusters partagés au sein du CÉCI, entrent respectivement dans leur cinquième et quatrième année d utilisation. Leur remplacement est donc à prévoir. Il reste à signaler l arrivée de Zenobe, le nouveau supercalculateur Tier-1 du Cenaero, dans l environnement du calcul intensif en FWB. Ce nouveau supercalculateur, en production depuis fin 2014, est consacré à 60% aux universités et donc, aux utilisateurs du CÉCI. Ce taux d utilisation n est pas encore atteint aujourd hui mais nous devrions y arriver dans les prochains mois. 32 47 Rapport d activité 2014 du CISM

ANNEXES Les annexes reprennent, dans les pages qui suivent, les différents éléments suivants : l inventaire du matériel de calcul géré par le CISM ; l inventaire du matériel de stockage géré par le CISM ; la répartition des utilisateurs de calcul par institut et pôle ; la répartition des utilisateurs de stockage par institut et pôle ; et enfin, la liste complète des publications ayant été produites par les utilisateurs grâce aux outils mis à leur disposition par le CISM. Rapport d activité 2014 du CISM 33 47

34 47 Rapport d activité 2014 du CISM A INVENTAIRE DES INFRASTRUCTURES DE STOCKAGE En 2014, le CISM offrait 297 teraoctets d espace de stockage sur des baies de disques sécurisées résistant à la perte simultanée de deux disques sans perte de données. Ces baies de disques sont listées dans la table ci-dessous. TABLE 3 : INVENTAIRE DES MACHINES DE STOCKAGE Nom Type de serveur Type de stockage Espace Mise en service Storage02 SUN Galaxy X4540 48 SATA 1TB 36TB (/storage) 12/08 2 x Quad core AMD Opteron 2.3GHz 32GB RAM Storage03 Transtec Calleo 344 30 SATA 2TB, 2 SSD 64GB 42TB (/storage) 05/10 2 x Quad-core Xeon E5506@2.13GHz 24GB RAM (cache zfs) Storage04 Supermicro CSE-847E16-R1400UB 34 SATA 3TB 64TB (/storint) 05/11 2 x Six-core Xeon E5645@2.4 GHz 36GB RAM Storage05 Supermicro CSE-847E16-R1400UB 2 x Six-core Xeon E5645@2.4 GHz 36GB RAM 34 SATA 3TB 64TB (/storint) 91TB (/storext) 05/11 07/12

B INVENTAIRE DES INFRASTRUCTURES DE CALCUL Le parc de machines de calcul du CISM se compose principalement de 3 machines interactives, listées à la table suivante, un cluster appelé Manneback qui reprend toutes les machines de calcul acquises par le CISM pour des entités de l Université, et deux clusters acquis dans le cadre du CÉCI : Hmem et Lemaitre2. TABLE 4 : INVENTAIRE DES MACHINES DE CALCUL AU CISM Rapport d activité 2014 du CISM 35 47 Architecture Spécificités Mise en service lm9 (INMA) 1 12 12 144.0 144 Xeon X5670@3.0GHz Jan 2011 smcs[1-2] (SMCS) 2 12 24 297.6 96 Xeon X5675@3.1GHz Tesla C2075 Oct 2011 # nœuds # cœurs # cœurs / nœud GFlops (peak) RAM/ nœud (GB)

36 47 Rapport d activité 2014 du CISM # nœuds TABLE 5 : INVENTAIRE DES MACHINES DE CALCUL AU CISM : MANNEBACK Architecture Spécificités Mise en service MANNEBACK (Home : XFS 19.3TB, Scratch : FHGFS 15.0TB) mback007 (CISM) 1 8 8 86.4 24 Xeon X5550@2.7GHz Tesla M1060 Feb 2010 mback[008-019] (ELIC) 12 96 8 883.2 24 Xeon L5520@2.3GHz Infiniband Nov 2009 mback[020-035] (CISM) 14 112 8 1120.0 16 Xeon L5420@2.5GHz Jan 2010 mback040 (CISM) 1 16 16 281.6 64 Xeon E5-2660@2.2GHz Tesla M2090, Xeon Phi 5110P Jan 2013 mback[050-058] (CISM) 9 72 8 720.0 32 Xeon L5420@2.5GHz Sep 2008 mback[059-095] (CISM) 37 296 8 2960.0 16 Xeon L5420@2.5GHz Sep 2008 mback[101-121] (NAPS) 21 336 16 5376.0 64 Xeon E5-2650@2.0GHz Nov 2009 mback[130-149] (CISM) 20 160 8 1600.0 32 Xeon L5420@2.5GHz Sep 2008 mback[151-156] (NAPS) 6 192 32 1766.4 128 Opteron 6276@2.3GHz Sep 2013 mback[158-159] (NAPS) 2 64 32 1228.8 256 Xeon E5-4640@2.4GHz Sep 2013 mback160 (NAPS) 1 32 32 563.2 128 Xeon E5-4620@2.2GHz Mar 2014 mback[161-168] (CISM) 8 128 16 2662.4 64 Xeon E5-2650v2@2.6GHz Jun 2014 mback[197-219] (CISM) 13 104 8 1040.0 32 Xeon L5420@2.5GHz Sep 2008 Total 145 1616 20288.0 5800 # cœurs / nœud # cœurs GFlops (peak) RAM/ nœud (GB)

TABLE 6 : INVENTAIRE DES MACHINES DE CALCUL AU CISM : LEMAITRE2, HMEM Rapport d activité 2014 du CISM 37 47 Architecture Spécificités Mise en service LEMAITRE2 (Home : NFS 38.0TB, Scratch : Lustre 120.TB) lmpp[001-003] (CISM) 3 36 12 374.4 48 Xeon E5649@2.6GHz Infiniband, Quadro 4000 Feb 2012 lmwn[001-112] (CÉCI) 112 1344 12 13977.6 48 Xeon E5649@2.6GHz Infiniband Feb 2012 Total 115 1380 14352.0 5520 HMEM (Home : XFS 11.0TB, Scratch : FHGFS 30.0TB) hmem[01-02] (CÉCI) 2 96 48 844.8 512 Opteron 6174@2.2GHz Infiniband Dec 2010 hmem[03-09] (CÉCI) 7 336 48 2956.8 256 Opteron 6174@2.2GHz Infiniband Dec 2010 hmem[10-16] (CÉCI) 7 336 48 2956.8 128 Opteron 6174@2.2GHz Infiniband Dec 2010 hmem17 (ELIC) 1 48 48 422.4 128 Opteron 6174@2.2GHz Infiniband Feb 2011 hmem[18-20] (NAPS) 3 24 8 288.0 128 Opteron 8222 SE@3.0GHz Oct 2008 Total 20 840 7468.8 4224 # nœuds # cœurs / nœud # cœurs GFlops (peak) RAM/ nœud (GB)

C RÉPARTITION DES UTILISATEURS DE L UCL DANS L UTI- LISATION DES INFRASTRUCTURES DE STOCKAGE SST (92.53%) ELI (73.39%) ELIC (52.87%) ELIE (19.72%) CSR (0.71%) ELIM (0.09%) IMCN (12.68%) NAPS (12.68%) IMMC (5.38%) TFL (4.93%) IMAP (0.45%) ICTM (0.90%) ELEN (0.60%) INMA (0.30%) ISV (0.18%) ISV (0.18%) SSH (3.14%) IMAQ (1.85%) SMCS (1.80%) IRES (0.05%) ESPO (0.67%) COMU (0.67%) TALN (0.62%) TALN (0.62%) SSS (0.16%) IREC (0.16%) MIRO (0.16%) AC (1.79%) ARCV (1.79%) ARCV (1.79%) LS (0.81%) SGSI (0.81%) SIMM (0.67%) SISG (0.14%) EXT (1.57%) VUB (1.57%) VUB (1.57%) TABLE 7 : RÉPARTITION DES UTILISATEURS DES INFRASTRUCTURES DE STOCKAGE EN SEC- TEUR/INSTITUT/PÔLE 38 47 Rapport d activité 2014 du CISM

D RÉPARTITION DES UTILISATEURS DE L UCL DANS L UTI- LISATION DES INFRASTRUCTURES DE CALCUL SST (89.03%) IMCN (42.17%) NAPS (39.91%) BSMA (1.60%) MOST (0.67%) IMMC (36.73%) TFL (21.89%) MEMA (13.16%) IMAP (1.01%) GCE (0.66%) MCTR (0.02%) ELI (6.50%) ELIC (4.90%) ELIE (1.59%) ELIB (0.01%) ICTM (3.62%) ELEN (3.12%) INGI (0.38%) INMA (0.13%) SSS (9.99%) IREC (5.35%) MIRO (5.35%) IONS (4.64%) COSY (4.64%) SSH (0.57%) IMAQ (0.33%) CORE (0.32%) IRES (0.01%) LSM (0.15%) LSM (0.15%) IACS (0.08%) IACS (0.08%) EXT (0.38%) VUB (0.38%) VUB (0.38%) TABLE 8 : RÉPARTITION DES UTILISATEURS DES INFRASTRUCTURES DE CALCUL EN SEC- TEUR/INSTITUT/PÔLE Rapport d activité 2014 du CISM 39 47

E ACTIVITÉS DE FORMATION, VEILLE TECHNOLOGIQUE, ET RÉSEAUTAGE Cette année, l équipe du CISM a participé à trois évènements liés au calcul intensif et stockage de masse. E.1 Slurm User Group Slurm est le nom de l outil de gestion de resources installés sur nos clusters. Le Slurm User Group Meeting 2014 s est tenu à Lugano, en Suisse, les 34 et 24 septembre. Ce fut l occasion de discuter directement avec les développeurs de Slurm, et d échanger notre expérience avec les gestionnaires d autres centres de calcul intensif utilisateurs de Slurm. E.2 Réunion Xeon Phi chez HP Le Xeon Phi est un accélérateur hardware d Intel, une technologique avancée que nous étudions pour pouvoir la proposer aux utilisateurs lorsqu elle sera complètement mature. Nous avons d ailleurs dans ce cadre acquis un exemplaire de Xeon Phi, et organisé une formation à destination des utilisateurs. Comme c est un domaine qui évolue très vite, il est toujours intéressant d obtenir les dernières informations directement de la part du constructeur. C est ce que HP nous a proposé, en organisant en leurs locaux une demi-journée dédiée au Xeon Phi, le 26 février, où nous avons pu rencontrer les responsables Intel du produit. Nous avons alors bénéficié d informations en avant première sur les futures évolutions du produit. E.3 Storage Expo Chaque année, est organisée, au Heysel, Storage Expo, un forum ou tous les fournisseurs présents sur le marché belge pour le stockage, le réseau et la sécurité, sont présents. L évènement s est déroulé cette année les 26 et 27 mars. C est pour nous l occasion de découvrir les nouveautés de chacun, et de garder les contacts utiles lors des appels d offres. 40 47 Rapport d activité 2014 du CISM

F PUBLICATIONS [1] P. A. Araya-Melo, Michel Crucifix, and N. Bounceur. Global sensitivity analysis of indian monsoon during the pleistocene. Climate of the Past Discussions, 10(2) :1609 1651, 2014. [2] Stanislav Borisov, Sylvie Benck, and Mathias Cyamukungu. Angular distribution of protons measured by the energetic particle telescope on proba-v. IEEE Transactions on Nuclear Science, 61(6) :3371 3379, 2014. [3] Nabila Bounceur, Michel Crucifix, and R.D. Wilkinson. Global sensitivity analysis of the climate vegetation system to astronomical forcing : an emulator-based approach. Earth System Dynamics Discussions, 5(5) :901 943, 2014. [4] Fabien Bruneval, Jean-Paul Crocombette, Xavier Gonze, Boris Dorado, Marc Torrent, and François Jollet. Consistent treatment of charged systems within periodic boundary conditions : The projector augmented-wave and pseudopotential methods revisited. Physical review. B, Condensed matter and materials physics, 89(4) :045116 1 13, 2014. [5] Mathias Cyamukungu, Sylvie Benck, Stanislav Borisov, Viviane Pierrard, and Juan Cabrera Jamoulle. The energetic particle telescope (ept) on board proba-v : Description of a new science-class instrument for particle detection in space. IEEE Transactions on Nuclear Science, 61(6) :3667 3681, 2014. [6] Bartlomiej Czerwinski and Arnaud Delcorte. Chemistry and sputtering induced by fullerene and argon clusters in carbon-based materials. Surface and Interface Analysis, 46(S1) :11 14, 2014. [7] Marie Dauvrin and Vincent Lorant. Adaptation of health care for migrants : whose responsibility? BMC Health Services Research, 14(1) :294, 2014. [8] Marie Dauvrin and Vincent Lorant. Cometh - competences in ethnicity and health - rapport de recherche. Technical report, 2014. [9] Frazer J. Davies, Hans Renssen, and Hugues Goosse. The arctic freshwater cycle during a naturally and an anthropogenically induced warm climate. Climate Dynamics, 42(7-8) :2099 2112, 2014. [10] E.M. De Clercq, S. Leta, A. Estrad-Peña, M. Madder, and S.O. Vanwambeke. Species distribution modelling for rhipicephalus microplus (acari : Ixodidae) in benin, west africa : Comparing datasets and modelling algorithms. Preventative Veterinary Medicine, 118 (1) :8 21, 2015. [11] Thomas De Maet, Emmanuel Hanert, and Marnik Vanclooster. A fully-explicit discontinuous galerkin hydrodynamic model for variably-saturated porous media. Journal of Hydrodynamics, 26(4) :594 607, 2014. Rapport d activité 2014 du CISM 41 47

[12] David De Vleeschouwer, Michel Crucifix, Nabila Bounceur, and Philippe Claeys. The impact of astronomical forcing on the late devonian greenhouse climate. Global and Planetary Change, 120 :65 80, 2014. [13] Laurent Delannay, Peng Yan, J.F.B. Payne, and N. Tzelepi. Predictions of inter-granular cracking and dimensional changes of irradiated polycrystalline graphite under plane strain. Computational Materials Science, 87 :129 137, 2014. [14] Lieven Desmet, D Venet, E Doffagne, Catherine Timmermans, T Burzykowski, Catherine Legrand, and M Buyse. Linear mixed-effects models for central statistical monitoring of multicenter clinical trials. Statistics in Medicine, 33(30) :5265 5279, 2014. [15] Matthieu Duponcheel, Laurent Bricteux, M Manconi, Grégoire Winckelmans, and Yann Bartosiewicz. Assessment of rans and improved near-wall modeling for forced convection at low prandtl numbers based on les ur to rer=2000. International Journal of Heat and Mass Transfer, 75c :470 482, 2014. [16] Marc Elskens, Olivier Gourgue, Willy Baeyens, Lei Chou, Eric Deleersnijder, Martine Leermakers, and Anouk Debrauwere. Modelling metal speciation in the scheldt estuary : combining a flexible-resolution transport model with empirical functions. Science of the Total Environment, 476-477 :346 358, 2014. [17] Luis E.F. FOA TORRES, Stephan Roche, and Jean-Christophe Charlier. Introduction to Graphene-based Nanomaterials : From Electronic Structure to Quantum Transport. Cambridge University Press, 2014. [18] Benoît Frénay, Gauthier Doquire, and Michel Verleysen. Estimating mutual information for feature selection in the presence of label noise. Computational Statistics & Data Analysis, 71 :832 848, 2014. [19] Benoît Frénay and Michel Verleysen. Pointwise probability reinforcements for robust statistical inference. Neural Networks, 50 :124 141, 2014. [20] Gabriel Geadah-Antonius, Samuel Poncé, Paul Boulanger, Michel Côté, and Xavier Gonze. Many-body effects on the zero-point renormalization of the band structure. Physical Review Letters, 112(21) :215501, 2014. [21] Yannick Gillet, Matteo Giantomassi, and Xavier Gonze. First-principles study of excitonic effects in raman intensities. 2014. [22] Yannick Gillet, Matteo Giantomassi, and Xavier Gonze. First-principles study of resonant raman intensities in semiconductors : the role of excitonic effects. 2014. [23] Yannick Gillet, Matteo Giantomassi, and Xavier Gonze. Novel trilinear interpolation technique to improve the convergence rate of bethe-salpeter calculations. 2014. [24] D. Golebiowski, X. de Ghellinck d Elseghem Vaernewijck, M. Herman, J. Vander Auwera, and André Fayt. High sensitivity (femto-ft-ceas) spectra of carbonyl sulphide 42 47 Rapport d activité 2014 du CISM

between 6200 and 8200cm 1, and new energy pattern in the global rovibrational analysis of 16o12c32s. Journal of Quantitative Spectroscopy & Radiative Transfer, 149(149) :184 203, 2014. [25] Hugues Goosse and Violette Zunz. Decadal trends in the antarctic sea ice extent ultimately controlled by ice ocean feedback. The Cryosphere, 8(2) :453 470, 2014. [26] Matthieu Génévriez, Xavier Urbain, Mohand Brouri, Aodh O Connor, Kevin M. Dunseath, and Mariko Terao-Dunseath. Experimental and theoretical study of threephoton ionization of he(1s 2p 3po). Physical review. A, Atomic, molecular, and optical physics, 89(053430) :053430, 2014. [27] Aliou Hamido. Interaction laser-atome : nouvelles approches théoriques dépendantes du temps. PhD thesis, UCL - SST/IMCN/NAPS - Nanoscopic Physics, 2014. [28] Geoffroy Hautier, Anna Miglio, Joel Varley, Gerbrand Ceder, Gian-Marco Rignanese, and Xavier Gonze. Identification and design of low hole effective mass p-type transparent conducting oxides through high-throughput computing. 2014. [29] Geoffroy Hautier, Anna Miglio, Joel Varley, Gerbrand Ceder, Gian-Marco Rignanese, and Xavier Gonze. What chemistries will bring low hole effective mass transparent conducting oxides? a high-throughput computational analysis. 2014. [30] Geoffroy Hautier, Anna Miglio, David Waroquiers, Gian-Marco Rignanese, and Xavier Gonze. How does chemistry influence electron effective mass in oxides? a highthroughput computational analysis. Chemistry of Materials, 26(19) :5447 5458, 2014. [31] Lianhua He, Fang Liu, Geoffroy Hautier, Micael J. T. Oliveira, Miguel A. L. Marques, Fernando D. Vila, J. J. Rehr, Gian-Marco Rignanese, and Aihui Zhou. Accuracy of generalized gradient approximation functionals for density-functional perturbation theory calculations. Physical Review B, 89(6) :064305, 2014. [32] Paul Hezel, Thierry Fichefet, and François Massonnet. Modeled arctic sea ice evolution through 2300 in cmip5 extended rcps. The Cryosphere, 8(8) :1195 1204, 2014. [33] R. L. Hogenraad. The fetish of archives. Quality & Quantity, 48 (1) :425 437, 2014. [34] R. L. Hogenraad and R. R. Garagozov. Textual fingerprints of risk of war. Literary and Linguistic Computing, 29 (1) :41 55, 2014. [35] François Klein, Hugues Goosse, A. Mairesse, and A. de Vernal. Model data comparison and data assimilation of mid-holocene arctic sea ice concentration. Climate of the Past, 10(3) :1145 1163, 2014. [36] Liza Lecarme, Eric Maire, Amit Kumar K.C., Christophe De Vleeschouwer, Laurent Jacques, Aude Simar, and Thomas Pardoen. Heterogenous void growth revealed by in situ 3-d x-ray mocrotomography using automatic cavity tracking. Acta Materialia, 63( ) :130 139, 2014. Rapport d activité 2014 du CISM 43 47

[37] Olivier Lecomte, Thierry Fichefet, Martin Vancoppenolle, Florent Domine, Pierre Mathiot, Samuel Morin, Pierre-Yves Barriat, and François Massonnet. On the formulation of snow thermal conductivity in large-scale sea-ice models. 2014. [38] Olivier Lecomte, Thierry Fichefet, Martin Vancoppenolle, and François Massonnet. Interactions between snow and melt ponds in sea-ice models. 2014. [39] Nicolas Leconte, F. Ortmann, A. Cresti, Jean-Christophe Charlier, and S. Roche. Quantum transport in chemically functionalized graphene at high magnetic field : defectinduced critical states and breakdown of electron-hole symmetry. 2D Materials, 2014. [40] Aurélien Lherbier, Humberto Terrones, and Jean-Christophe Charlier. Threedimensional massless dirac fermions in carbon schwarzites. Physical review. B, Condensed matter and materials physics, 90(12) :125434, 2014. [41] Marie-France Loutre, Emilie Capron, Emma Stone, Aline Govin, Valérie Masson- Delmotte, Stefan Mulitza, Betty Otto-Bliesner, and Eric W. Wolff. High latitude temperature evolution across the last interglacial : a model-data comparison. Geophysical Research Abstracts, 16 :EGU2014 6196, 2014. [42] Marie-France Loutre, Thierry Fichefet, H. Goelzer, and P. Huybrechts. Coupled ice sheet-climate interactions during the last interglacial. 2014. [43] Marie-France Loutre, Thierry Fichefet, Heiko Goelzer, and Philippe Huybrechts. Coupled ice sheet-climate interactions during the last interglacial simulated with loveclim. Geophysical Research Abstracts, 16 :EGU2014 6706, 2014. [44] Marie-France Loutre, Thierry Fichefet, Hugues Goosse, H. Goelzer, and E. Capron. Factors controlling the last interglacial climate as simulated by loveclim1.3, in proceedings of pmip3 second general meeting, namur, belgium, may 25 to may 30. 2014. [45] Marie-France Loutre, Thierry Fichefet, Hugues Goosse, P. Huybrechts, H. Goelzer, and E. Capron. Factors controlling the last interglacial climate as simulated by loveclim1.3. Climate of the Past, 10(4) :1541 1565, 2014. [46] Yves Marichal. An immersed interface vortex particle-mesh method. PhD thesis, UCL - SST/IMMC/TFL - Thermodynamics and fluid mechanics, 2014. [47] Andrea Marini, Samuel Poncé, Elena Cannuccia, and Xavier Gonze. A manybody approach to the electronphonon problem based on a rigorous merging with densityfunctional and densityfunctional perturbation theory. 2014. [48] M. N. A. Maris, B. de Boer, S. R. M. Ligtenberg, Michel Crucifix, W. J. van de Berg, and J. Oerlemans. Modelling the evolution of the antarctic ice sheet since the last interglacial. The Cryosphere, 8(4) :1347 1360, 2014. 44 47 Rapport d activité 2014 du CISM

[49] M. N. A. Maris, S. R. M. Ligtenberg, Michel Crucifix, B. de Boer, and J. Oerlemans. Modelling the evolution of the antarctic ice sheet since the last interglacial. The Cryosphere Discussions, 8(1) :85 120, 2014. [50] François Massonnet, Thierry Fichefet, Hugues Goosse, Pierre-Yves Barriat, Cecilia Bitz, Marika Holland, and Gwenaelle Philippon-Berthier. Constraining projections of summer arctic sea ice. 2014. [51] François Massonnet, Hugues Goosse, Thierry Fichefet, and F. Counillon. Calibration of sea ice dynamic parameters in an ocean-sea ice model using an ensemble kalman filter. Journal of Geophysical Research : Oceans, 119(7) :4168 4184, 2014. [52] François Massonnet, Pierre Mathiot, Thierry Fichefet, Hugues Goosse, Martin Vancoppenolle, Christof König Beatty, and Thomas Lavergne. A model reconstruction of antarctic sea-ice thickness and volume changes over the past decades using data assimilation. 2014. [53] Anna Miglio, R. Saniz, David Waroquiers, Martin Stankovski, Matteo Giantomassi, Geoffroy Hautier, Gian-Marco Rignanese, and Xavier Gonze. Computed electronic and optical properties of sno2 under compressive stress. Optical Materials, 38(1) :161 166, 2014. [54] M. Monthioux and Jean-Christophe Charlier. Given credit where credit is due : The stone-(thrower)-wales designation revisited. Carbon, 75 :1 4, 2014. [55] Sebastien Moreau, Martin Vancoppenolle, Jiayun Zhou, Jean-Louis Tison, Bruno Delille, and Hugues Goosse. Modelling argon dynamics in first-year sea ice. Ocean Modelling, 73 :1 18, 2014. [56] Philippe Parmentier, Grégoire Winckelmans, and Philippe Chatelain. Development and validation of a 2-d compressible vortex particle-mesh method. Bulletin of the American Physical Society, 59(20), 2014. [57] Jérôme Paul and Pierre Dupont. Kernel methods for mixed feature selection. 2014. [58] Jérôme Paul and Pierre Dupont. Statistically interpretable importance indices for random forests. 2014. [59] Alice Pestiaux, S.A. Melchior, Jean-François Remacle, T. Kärnä, Thierry Fichefet, and Jonathan Lambrechts. Discontinuous galerkin finite element discretization of a strongly anisotropic diffusion operator. International Journal for Numerical Methods in Fluids, 75(5) :365 384, 2014. [60] Samuel Poncé. Electronic structure of eu-doped ba-si oxynitrides for w-led application. 2014. [61] Samuel Poncé, G. Antonius, P. Boulanger, E. Cannuccia, A. Marini, M. Côté, and Xavier Gonze. Verification of first-principles codes : Comparison of total energies, phonon frequencies, electron phonon coupling and zero-point motion correction to the gap between abinit and qe/yambo. Computational Materials Science, 83 :341 348, 2014. Rapport d activité 2014 du CISM 45 47

[62] Samuel Poncé, Gabriel Geadah-Antonius, Paul Boulanger, and Elena Cannuccia. Zeropoint motion effect on the bandgap of diamond : validation of codes. 2014. [63] Samuel Poncé, Gabriel Geadah-Antonius, Paul Boulanger, Elena Cannuccia, Andrea Marini, Michel Côté, and Xavier Gonze. Zero-point motion effect on the bandgap of diamond : validation of codes. 2014. [64] Samuel Poncé, Gabriel Geadah-Antonius, Yannick Gillet, Paul Boulanger, Jonathan Laflamme Janssen, Andrea Marini, Michel Côté, and Xavier Gonze. Temperature dependence of electronic eigenenergies in the adiabatic harmonic approximation. Physical review. B, Condensed matter and materials physics, 90(21) :214304, 2014. [65] Samuel Poncé, Gabriel Geadah-Antonius, Yannick Gillet, Paul Boulanger, Andrea Marini, Masayoshi Mikami, and Xavier Gonze. Temperature dependence in abinit. 2014. [66] Samuel Poncé, Matteo Giantomassi, Masayoshi Mikami, and Xavier Gonze. Electronic structure of eu-doped ba-si oxynitrides for w-led application. 2014. [67] Samuel Poncé, Matteo Giantomassi, Masayoshi Mikami, and Xavier Gonze. Electronic structure of eu-doped ba-si oxynitrides for w-led application. 2014. [68] Z.J. Qi, J.A. Rodriguez-Manzo, Andrés Rafael Botello Mendez, S.J. Hong, E.A. Stach, Y.W. Park, Jean-Christophe Charlier, and A.T.C. Johnson. Correlating atomic structure and transport in suspended graphene nanoribbons. Nano Letters : a journal dedicated to nanoscience and nanotechnology, 14(8) :4238 4244, 2014. [69] L.S. Rothman, I.E. Gordon, Y. Babikov, A. Barbe, D. Chris Benner, A. Fayt, and et al. The hitran2012 molecular spectroscopic database. Journal of Quantitative Spectroscopy & Radiative Transfer, 130 :4 50, 2013. [70] J.C. Rougier and Michel Crucifix. Uncertainly in climate science and climate policy. L. Lloyd, E. Winsberg, 2014. [71] Bruno Seny, Jonathan Lambrechts, Thomas Toulorge, Vincent Legat, and Jean- François Remacle. An efficient parallel implementation of explicit multirate runge kutta schemes for discontinuous galerkin computations. Journal of Computational Physics, 256(1) :135 160, 2014. [72] Riad Shaltaf, H. K. Juwhari, B. Hamad, J. Khalifeh, Gian-Marco Rignanese, and Xavier Gonze. Structural, electronic, vibrational, and dielectric properties of labgeo5 from first principles. Journal of Applied Physics, 115(7) :074103, 2014. [73] Ryan L. Sriver, Axel Timmermann, Michael E. Mann, Klaus Keller, and Hugues Goosse. Improved representation of tropical pacific ocean atmosphere dynamics in an intermediate complexity climate model. Journal of Climate, 27(1) :168 185, 2014. [74] Nicolas Staelens. Étude de la formation et des propriétés dynamiques, conformationelles et énergétiques d assemblages supramoléculaires à base de nanotubes organiques et d agrégats d argent dans des brins d ADN. PhD thesis, FUNDP - SCHI_GCPTS (groupe de chimie physique, théorique et structurale), 2014. 46 47 Rapport d activité 2014 du CISM

[75] Edmond Sterpin, Jefferson Sorriaux, Kevin Souris, Stefaan Vynckier, and Hugo Bouchard. A fano cavity test for monte carlo proton transport algorithms. Medical Physics, 41(1) :011706, 2014. [76] Olivier Thiry and Grégoire Winckelmans. A mixed multiscale model accounting for thecross term of the sub-grid scale stress. 2014. [77] Olivier Thiry, Grégoire Winckelmans, and Matthieu Duponcheel. High re wallmodeled les of aircraft wake vortices in ground effect. Bulletin of the American physical society, 59(20) :456, 2014. [78] Christopher Thomas, Jonathan Lambrechts, Eric Wolanski, Vincent A. Traag, Vincent Blondel, Eric Deleersnijder, and Emmanuel Hanert. Numerical modelling and graph theory tools to study ecological connectivity in the great barrier reef. Ecological Modelling, 272 :160 174, 2014. [79] John Turner, Nicholas E. Barrand, Thomas J. Bracegirdle, Peter Convey, Dominic A. Hodgson, Martin Jarvis, Adrian Jenkins, Gareth Marshall, Michael P. Meredith, Howard Roscoe, Jon Shanklin, John French, Hugues Goosse, Mauro Guglielmin, Julian Gutt, Stan Jacobs, Marlon C. Kennicutt, Valerie Masson-Delmotte, Paul Mayewski, Francisco Navarro, Sharon Robinson, Ted Scambos, Mike Sparrow, Colin Summerhayes, Kevin Speer, and Alexander Klepikov. Antarctic climate change and the environment : an update. Polar Record, 50(03) :237 259, 2014. [80] Benoît Van Troeye, Yannick Gillet, Samuel Poncé, and Xavier Gonze. First-principles characterization of the electronic and optical properties of hexagonal liio3. Optical Materials, 36 :1494 1501, 2014. [81] Kwinten Van Weverberg, Edouard Goudenhoofdt, Ulrich Blahak, Erwan Brisson, Matthias Demuzere, Philippe Marbaix, and Jean-Pascal van Ypersele de Strihou. Comparison of one-moment and two-moment bulk microphysics for high-resolution climate simulations of intense precipitation. Atmospheric Research, 147-148(147-148) :145 161, 2014. [82] Martin Vancoppenolle, Thierry Fichefet, Steve Ackley, Hayley Shen, François Massonnet, Pierre Mathiot, and Olivier Lecomte. A first evaluation of wave-ice interactions on the global mass balance. 2014. [83] Thomas Vergote, F. Nahra, A. Merschaert, Olivier Riant, Daniel Peeters, and Tom Leyssens. Mechanistic insight into the (nhc)copper(i)-catalyzed hydrosilylation of ketones. Organometallics, 33(8) :1953 1963, 2014. [84] Violette Zunz. Antarctic sea ice variability and predictability at decadal timescales. PhD thesis, UCL - SST/ELI/ELIC - Earth & Climate, 2014. Rapport d activité 2014 du CISM 47 47