Cluster de calcul Freeware en Océanographie Opérationnelle



Documents pareils
Gestion de clusters de calcul avec Rocks

en version SAN ou NAS

Installation du SLIS 4.1

vbladecenter S! tout-en-un en version SAN ou NAS

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows W2K pro: configuration.

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

Le Ro le Hyper V Premie re Partie Configuration et Prise en main du gestionnaire Hyper-V

Mise en place d'un cluster

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé

Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles

Grid5000 aujourd'hui : Architecture & utilisation

Proposition Commerciale Espace Numérique

Installation de ndv 5

Installation et prise en main

Limitations of the Playstation 3 for High Performance Cluster Computing

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Communications performantes par passage de message entre machines virtuelles co-hébergées

<Insert Picture Here> Exadata Storage Server et DB Machine V2

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Bénéficiez d'un large choix d'applications novatrices et éprouvées basées sur les systèmes d'exploitation i5/os, Linux, AIX 5L et Microsoft Windows.

«clustering» et «load balancing» avec Zope et ZEO

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

CA ARCserve Backup r12

VMWare Infrastructure 3

agility made possible

Rapport 2014 et demande pour Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Conditions Particulières de Maintenance. Table des matières. Ref : CPM-1.2 du 08/06/2011

Marché Public en procédure adaptée : Infrastructure Informatique régionale hébergée CAHIER DES CHARGES ET DES CLAUSES TECHNIQUES

Présentation Infrastructure DATACENTRE

Base de l'informatique. Généralité et Architecture Le système d'exploitation Les logiciels Le réseau et l'extérieur (WEB)

Symantec Backup Exec.cloud

Fonctionnalités d Acronis :

Extrait de Plan de Continuation d'activité Octopuce

Serveur Acronis Backup & Recovery 10 pour Linux. Update 5. Guide d'installation

SafeKit. Sommaire. Un livre blanc de Bull Evidian

Sécurisation des données par CHIFFREMENT des PC. Utilisation de TrueCrypt

La virtualisation de serveurs avec VMWare Infrastructure - Retour d expérience. Rodérick Petetin CRI INSA Rennes

Le groupe CSS. La société CEGI intervient depuis la Martinique au cœur des systèmes de gestion de nos clients. La société existe depuis 1973!

Portage d applications sur le Cloud IaaS Portage d application

Protection des données avec les solutions de stockage NETGEAR

Service Cloud Recherche

SQUID P r o x y L i b r e p o u r U n i x e t L i n u x

Rapport d activité. Mathieu Souchaud Juin 2007

Manuel d installation serveurs

Installation d'un FreeNAS (v0.684b du 30/03/2007) pour sauvegarder les données d'un ZEServer

Retrospect 7.7 Addendum au Guide d'utilisation

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

Migration d un Cluster Fiber Channel+SAN+Lames sous Xen vers Ethernet +iscsi+serveurs sous KVM

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Chapitre 2. Cluster de calcul (Torque / Maui) Grid and Cloud Computing

Windows serveur 2008 installer hyperv

Linux embarqué: une alternative à Windows CE?

Charte d'utilisation des infrastructures de la plate-forme bioinformatique Genotoul

Windows 8 Installation et configuration

Cours 13. RAID et SAN. 2004, Marc-André Léger

Qu est ce qu une offre de Cloud?

Chapitre 1 : Introduction aux bases de données

VTX HOSTING. Les solutions d hébergement de VTX : du site Web à la colocation en passant par les applications et les serveurs dédiés

[Serveur de déploiement FOG]

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

réduisez la facture électrique

CA ARCserve Backup. Avantages. Vue d'ensemble. Pourquoi choisir CA

Infrastructures Parallèles de Calcul

Archivage. des dossiers

Serveur de sauvegarde à moindre coût

Artica. La déduplication. Révision Du 08 Février 2011 version

<Insert Picture Here> Solaris pour la base de donnés Oracle

D. Déploiement par le réseau

Pourquoi OneSolutions a choisi SyselCloud

Sauvegarde et restauration d'un système d'exploitation Clonezilla

Clients et agents Symantec NetBackup 7

APX Solution de Consolidation de Sauvegarde, restauration et Archivage

Intervenant : Olivier Parcollet olivier.parcollet@semtao.fr Architecte Systèmes & Réseaux. RETOUR D EXPERIENCE Virtualisation à lasetao

Acronis True Image 10 Home Edition

Module 0 : Présentation de Windows 2000

Proce dure Installation Cluster de basculement SQL Server 2005

Guide d'installation. Release Management pour Visual Studio 2013

Préconisations Techniques & Installation de Gestimum ERP

1 JBoss Entreprise Middleware

MIGRATION ANNEXE SAINT YVES. 1 : L existant. Pourquoi cette migration Schéma et adressage IP. 2 : Le projet. Schéma et adressage IP.

Acronis Backup & Recovery 10 Server for Linux. Guide de démarrage rapide

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Installation de IBM SPSS Modeler Server Adapter

Pré-requis techniques

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

OpenMediaVault installation

VMware vsphere 5 Préparation à la certification VMware Certified Professional 5 Data Center Virtualization (VCP5-DCV) - Examen VCP510

FreeNAS Shere. Par THOREZ Nicolas

GSB/LOT 3 : Logiciel de backup

Procédure : Sauvegarder un Windows 7 sur un disque réseau

Stockage des machines virtuelles d un système ESXi jose.tavares@hesge.ch & gerald.litzistorf@hesge.ch

Contributions à l expérimentation sur les systèmes distribués de grande taille

Transcription:

Cluster de calcul Freeware en Océanographie Opérationnelle Bertrand FERRET, Responsable du Service Informatique (*, **) Carine CASTILLON, Ingénieure Systèmes et Réseaux (*) Mondher CHEKKI, Ingénieur High Performance Computing (*, **) (*) Mercator Océan (**) Observatoire Midi-Pyrénées Parc Technologique du Canal CNRS UMS 831 8-10 rue Hermès 14 avenue Edouard Belin 31520 Ramonville Saint-Agne 31400 Toulouse Résumé Dans cet article, nous présentons les choix effectués en vue de construire un cluster Free Home Made pour réaliser des prévisions de l état physique tridimensionnel de l océan, mission de la société civile Mercator Océan. Pour des raisons de coût (budget maximum de 60 K HT), d espace occupé dans la salle informatique, de consommation électrique, de bande passante CPU / RAM et de parallélisme à grains fins, nous avons opté pour des blades intégrant 4 cartes-mère. Ce calculateur est doté de 16 nœuds (128 cœurs de calcul) connectés en infiniband et de 768 Go de RAM. Le cluster a été installé à l'aide de logiciels issus du monde libre : «Linux» pour le système d'exploitation, «SystemImager» pour le déploiement et la sauvegarde du système, «C3 tools» pour la gestion centralisée, «Torque / Maui» pour le gestionnaire de ressources et «Ganglia, Nagios / Centreon» pour la surveillance des nœuds. Nous décrivons donc les solutions choisies tant au niveau hardware que software et nous essayons de répondre aux différentes questions que se pose un administrateur système lors de la construction d'un cluster de calcul. Mots-clés Cluster de calcul, High Performance Computing, SystemImager, C3 tools, Ganglia, Nagios / Centreon, Torque / Maui, OpenMPI, codes parallèles. 1 Puissance de calcul à petit prix 1.1 Le contexte Depuis une dizaine d'années, Mercator Océan (Société Civile composée de 5 organismes, Météo France, SHOM, Ifremer, CNRS, IRD) utilise d importants moyens de calcul pour effectuer des prévisions hautes résolutions en trois dimensions de l'état physique de l'océan jusqu'à 14 jours. Des paramètres comme la température, le courant, la salinité... sont prévus sur tous les océans du globe grâce au modèle NEMO développé par le CNRS, avec assimilation des données altimétriques et des données de bouées (3000 bouées circulent dans les océans du monde entier et effectuent des mesures physiques). Pour information, les modèles que nous utilisons sont similaires en complexité à ceux utilisés par Météo France pour la prévision du temps. Leader européen dans ce domaine, nous utilisons des moyens de calcul, externes (Météo 07/11/2011 1/8 JRES 2011

France, CEP, IDRIS...) mais aussi internes. Pour ces derniers, nous possédons deux calculateurs, le premier, Opale, de marque Fujitsu / Siemens est un calculateur datant de 2005 composé de 27 nœuds bi-opteron, 252 Go de RAM, un réseau gigabit et 6 To d espace disque pour une puissance théorique de 216 GFlops. Le deuxième, Wallis & Futuna, acquis en juin 2007 suite à un appel d'offre européen pour une somme de 800 K HT est de marque SGI, un Altix 4700 dont les caractéristiques sont 192 cœurs de calcul, 960 Go de RAM, un réseau numalink et enfin 40 To d'espace disque en cxfs pour une puissance théorique de 1,23 TFlops. Nous installons et maintenons l'ensemble des moyens informatiques de l'organisme dont les calculateurs précédemment cités. Cet article a pour but de décrire l'ensemble des choix que nous avons effectués pour remplacer notre vieux cluster Opale. 1.2 Les contraintes Les contraintes sont de trois types, tout d'abord financière : notre budget est de 60 K HT (avril 2011) ; ensuite matérielle : l occupation dans notre salle informatique ne peut dépasser 42 U et la consommation électrique est limitée à 12 kwh (contraintes imposées par le vieux cluster Opale) ; et enfin logicielle : nos codes utilisent toute la bande passante CPU / RAM et possèdent un parallélisme à grains fins (échange de gros volumes de données en utilisant les bibliothèques MPI). De plus, ce cluster devra être accessible simultanément par de nombreux utilisateurs. Spécialistes Linux et utilisateurs de produits du monde libre, nous voulons montrer que l'on peut construire un cluster répondant de façon optimale à nos contraintes, possédant une puissance théorique minimum de 1,5 TFlops avec un budget de 60 K HT. 2 Installation et administration du cluster 2.1 Matériel L'architecture du cluster mis en place est la suivante (cf. Figure 1) : un nœud maître DELL R510 permet de compiler et de lancer le code (aucun calcul ne s'exécute sur ce nœud). Par souci d'économie, il sert aussi de nœud I/O distribuant 10 To par le protocole NFS ; 16 nœuds de calcul : 4 blades DELL C6100 de 4 cartes-mère bi-sockets intégrant chacune 2 CPU Intel Xeon de 4 cœurs et 48 Go RAM ; un réseau gigabit 10.202.206.* pour l'administration des nœuds et pour écrire sur les espaces disques centralisés (solution de secours) ; un réseau infiniband QDR 10.203.206.* pour les échanges de message MPI entre CPU de cartes-mère différentes et pour écrire sur les espaces disques centralisés. Notre cluster de calcul possède donc une puissance théorique de 1,56 TFlops, 128 cœurs de calcul connectés en infiniband et 768 Go de RAM. Il consomme 6 KWh max et occupe 16 U. Nous avons sélectionné des processeurs avec seulement 4 cœurs et un QPI élevé pour avoir des performances de bande passante CPU / RAM maximum, contrainte requise pour faire tourner nos codes de prévisions océanographiques. En effet, pour un prix sensiblement équivalent, nous aurions pu faire l'acquisition de processeurs avec, par exemple, 12 cœurs (passage de 90 W par CPU à 120 W), mais nous aurions perdu en performance car le cache du processeur aurait été partagé entre tous ses cœurs et nous n'aurions pu utiliser que 1/3 des cœurs de calcul. La puissance théorique, multipliée par 3, aurait été alors inutilisable. 07/11/2011 2/8 JRES 2011

Dans le calcul scientifique, il faut donc étudier finement les codes devant s'exécuter pour adapter au mieux les caractéristiques du matériel. 2.2 Installation Figure 1 Description du matériel Nous décrivons dans ce paragraphe la partie administration système. Tout ce qui concerne la partie applicative est abordée dans le chapitre 4. L'installation du cluster (nœud maître et nœuds de calcul) est basée sur le système d'exploitation RedHat 5.6 (Tikanga) certifié par le revendeur du matériel (drivers optimisés). Une fois l'os installé sur le serveur maître (R510), nous avons procédé au formatage des partitions qui seront utilisées par l'ensemble des nœuds de calcul. Au vu des différents tests de lecture/écriture réalisés (cf. Chapitre 5), nous avons opté pour le format xfs avec une exportation via le réseau infiniband. Puis nous avons configuré l'os du premier nœud de calcul (C6100) en nous concentrant sur l'accès aux partitions centralisées. Afin d'éviter des problèmes de montage au démarrage des nœuds, et pour minimiser la consommation de ressources, nous avons choisi le montage dynamique automount : les partitions seront montées à la demande et démontées après une période d'inactivité de 900 s. Ce type de montage a nécessité la modification du fichier /etc/auto.master ainsi que la création du fichier /etc/auto.cluster sur ce même nœud. Pour simplifier et homogénéiser l'administration du cluster, tous les nœuds de calcul doivent être installés de manière identique. Dans ce but, nous avons utilisé SIS 1 et plus particulièrement l'outil SystemImager 2 qui permet d'automatiser l'installation (cf. Figure 2). Son principe est simple : absorber l'image système d'un nœud déjà installé (Golden Client) et la déployer sur un ensemble de nœuds de configuration matérielle identique (nœuds de calcul). 1 SIS : System Installation Suite : ensemble d'outils dédiés à l'installation et l'administration d'un groupe de machines au travers d'un réseau. (http://sourceforge.net/projects/sisuite) 2 SystemImager : http://wiki.systemimager.org 07/11/2011 3/8 JRES 2011

Figure 2 - Fonctionnement de SystemImager La partie serveur de SystemImager est installée sur le serveur maître du cluster. Cet outil nécessite la présence d'un serveur DHCP qui, dans notre cas, est également présent sur le serveur maître. L'installation peut se résumer à l'ajout d'une série de packages RPM et à la modification de fichiers de configuration situés dans /etc/dhcp, /etc/systemimager et /tftpboot. Ensuite, nous absorbons l'image système du premier nœud de calcul. Voici la procédure : 1. démarrage du service systemimager-server-rsyncd sur le serveur maître ; 2. sur le nœud de calcul, préparation du Golden Client pour l'absorption de l'image : # si_prepareclient server <ip_serveur_maître> 3. sur le nœud maître, absorption de l'image : # si_getimage --golden-client <ip_nœud_calcul> --image RH56_calcul L'image système du nœud de calcul est maintenant présente sur le serveur maître (par défaut dans /var/lib/systemimager). En plus du déploiement, cette image nous servira de sauvegarde en cas de crash matériel ou logiciel. Il est donc nécessaire de la mettre à jour régulièrement. Nous pouvons, dès à présent, déployer l'image simultanément sur plusieurs nœuds via l'outil bittorrent de SystemImager. Il suffit de configurer le serveur DHCP afin de sélectionner les nœuds à installer (/etc/dhcp/dhcpd.conf) et de lancer les services systemimager-server-bittorrent et dhcpd. A partir du serveur maître, on démarre les nœuds cibles en mode PXE : # /usr/bin/ipmitool -U <LOGIN> -P <PASS> -I lanplus -H <ip_nœud> chassis bootdev pxe # /usr/bin/ipmitool -U <LOGIN> -P <PASS> -I lanplus -H <ip_nœud> chassis power reset L'installation des nœuds de calcul terminée, nous reprogrammons le prochain boot disque : # /usr/bin/ipmitool -U <LOGIN> -P <PASS> -I lanplus -H <ip_nœud> chassis bootdev disk # /usr/bin/ipmitool -U <LOGIN> -P <PASS> -I lanplus -H <ip_nœud> chassis power reset sur Pour garder une configuration logicielle identique des nœuds de calcul, nous utiliserons C3 tools 3 qui permettra, par exemple, de modifier les fichiers de configuration, de redémarrer les services, d'ajouter un package RPM... simultanément sur l'ensemble des nœuds. 3 C3 tools : Cluster Command Control (http://www.csm.ornl.gov/torc/c3/) 07/11/2011 4/8 JRES 2011

2.3 Monitoring Pour rendre un service opérationnel, c'est à dire prévenir les pannes ou être prévenu au moindre dysfonctionnement matériel ou logiciel du cluster, il faut mettre en place un monitoring sur le système. Les différents services présents sur le nœud maitre et les nœuds de calcul sont observés par deux logiciels : Ganglia 4 : pour la surveillance de la charge CPU, de la mémoire et du trafic réseau gigabit. La partie serveur installée sur le nœud maître communique avec le client installé sur chaque nœud de calcul. Une interface Web visualise graphiquement la charge de chaque nœud ainsi que la charge totale du cluster ; Nagios / Centreon 5 : pour le monitoring des services vitaux et des occupations disques. Dans notre cas, peu de services sont installés sur les nœuds, nous surveillons donc l'accès (ping), ainsi que le service de gestion des ressources Torque (cf. Chapitre 3). Un email est envoyé à tous les membres de l'équipe systèmes et réseaux dès qu'un incident survient sur un des nœuds du cluster (maître ou calcul). 3 Configuration du gestionnaire de ressources 3.1 Théorie Penser l organisation des travaux comme un jeu. Si tout le monde peut exécuter des travaux à n importe quel moment, occuper autant de nœuds, de processeurs et de mémoire qu il le désire, c est l anarchie : le système est mal exploité. Mais en utilisant un gestionnaire de ressources, il peut améliorer le rendement et décide : qui peut exécuter les travaux présents dans les queues et quand les travaux doivent être lancés. Les décisions sont basées sur une politique définie au préalable et sur des privilèges. Figure 3 Fonctionnement d'un gestionnaire de ressources La figure 3 décrit une vue générale des outils d'exploitation d'un cluster en exposant leurs relations. Pour comprendre la gestion d'un cluster, il est nécessaire de définir quelques termes : Traitements par lots : un fichier rassemble un ensemble de commandes qui doivent être traitées séquentiellement (contraire à l'interactivité) ; Ordonnanceur : il planifie dans le temps une succession de travaux en attente (contraintes) et gère l'ordre dans lequel ils doivent s'exécuter ; 4 Ganglia : http://ganglia.sourceforge.net/ 5 Nagios (http://ww.nagios.org) / Centreon (http://www.centreon.com) 07/11/2011 5/8 JRES 2011

Répartiteur : il planifie dans l espace, récupère les informations de l Ordonnanceur et teste la disponibilité du matériel au moment de l exécution des processus ; Surveillance : Contrôle temps réel ou post mortem du fonctionnement matériel et des travaux ; Comptabilité : Statistiques d utilisation des ressources communes (facturation). Un gestionnaire de ressources automatise le partage des moyens de calcul entre les différents utilisateurs. 3.2 Politique des queues A Mercator Océan, la «cohabitation» de jobs sur le cluster provenant de plusieurs individus effectuant des réservations concurrentes est rendue possible grâce aux règles suivantes : un job ne pourra pas occuper plus de la moitié des nœuds (8 nœuds maximum) ; 3 queues d'exécution sont disponibles : MONO (1 seul nœud sur maximum 20 heures), MULTI8 (entre 2 et 8 nœuds sur 20 heures maximum) et ARCHIVES (1 seul nœud sur 1 heure maximum) ; priorité des jobs de moins de 4 heures en journée, moins de 8 heures la nuit, et moins de 20 heures le weekend. 3.3 Implémentation sous Torque / Maui Torque et Maui 6 sont les deux outils de gestion de ressources installés sur notre cluster de calcul. Torque gère la partie distribution des jobs sur les différents nœuds, alors que Maui s'occupe de l'ordre de lancement des jobs, suivant les priorités (nombre de nœuds, durée du job, mémoire nécessaire,...). Pour mettre en place notre politique de queues, nous avons modifié la configuration de Torque à l'aide de la commande qmgr. L'exemple ci-dessous montre la configuration de la queue d'exécution MULTI8. create queue multi8 set queue multi8 queue_type = Execution set queue multi8 resources_max.mem = 384000mb set queue multi8 resources_max.nodect = 8 set queue multi8 resources_max.pmem = 6000mb set queue multi8 resources_max.walltime = 20:00:00 set queue multi8 resources_min.nodect = 2 set queue multi8 resources_default.nodect = 1 set queue multi8 resources_default.nodes = 1 set queue multi8 resources_default.walltime = 00:30:00 set queue multi8 acl_group_enable = True set queue multi8 acl_groups = mercator set queue multi8 kill_delay = 2 set queue multi8 max_user_run = 1 set queue multi8 enabled = True set queue multi8 started = True Les jobs exécutés sur cette queue peuvent utiliser entre 2 et 8 nœuds (resources_min.nodect=2, resources_max.nodect=8) et pas plus de 384 Go de mémoire 6 Torque / Maui : gestionnaire de ressources (http://www.clusterresources.com) 07/11/2011 6/8 JRES 2011

(resources_max.mem=384000mb). Ils pourront tourner jusqu'à 20 heures maximum (resources_max.walltime=20:00:00). Maui gère l'ordre de passage des jobs. Un extrait du fichier /var/spool/maui/maui.cfg montre que seuls les jobs de moins de 4 heures peuvent tourner en journée (entre 8h00 et 20h00) les lundi, mardi, mercredi, jeudi et vendredi. SRCFG[jour] STARTTIME=08:00:00 SRCFG[jour] ENDTIME=20:00:00 SRCFG[jour] PERIOD=DAY SRCFG[jour] DAYS=MON,TUE,WED,THU,FRI SRCFG[jour] HOSTLIST=ALL SRCFG[jour] TIMELIMIT=4:01:00 4 Mise en place de l'environnement utilisateur 4.1 Besoins L'environnement logiciel de Mercator Océan est complexe, il est géré grâce aux modules qui offrent une grande flexibilité dans le choix des versions des bibliothèques informatiques. Les ingénieurs et chercheurs disposent de machines aux architectures différentes et de codes mono / multiprocesseurs, il est donc nécessaire de fournir à l'ensemble des utilisateurs, un environnement de travail commun, performant et évolutif. Il doit être en mesure de charger un environnement précis pour une machine donnée de manière souple, transparente et doit permettre de reproduire les conditions dans lesquelles une simulation s'est déroulée. 4.2 Logiciels Pour répondre aux besoins des utilisateurs, les logiciels suivants ont été installés : Module / Environnement switcher 7 : redéfinition automatique des variables d'environnement de l'utilisateur pour s'adapter aux différents logiciels ; Compilateurs (INTEL, PGI, GNU) : compilation et optimisation des codes séquentiels et parallèles ; Librairie parallèle (OpenMPI) : l'utilisation de la bibliothèque MPI (Message Passing Interface) pour les échanges de messages est indispensable pour les codes multiprocesseurs; Les bibliothèques scientifiques (NetCDF, palm, Lapack,...) et de visualisation (GMT, Ferret, IDL...) permettent, d'une part, de faire tourner une simulation et, d'autre part, de vérifier la cohérence et la validité des résultats numériques obtenus. 5 Benchmarks Pour valider les performances de notre cluster (puissance de calcul, réseau et I/O), nous avons développé un bench (90 % calcul et 10 % I/O) basé sur le code NEMO 8 (configuration ORCA au 12 eme de degré) permettant de tester la bande passante CPU / RAM ainsi que les I/O sur les espaces disques centralisés. Nous l'avons testé avec deux filesystem sur infiniband : ext4 et xfs. Le filesystem ext4 est plus rapide mais moins stable (lorsqu'il y a écriture, les accès disques d'un autre utilisateur sont fortement pénalisés), c'est pourquoi nous avons mis en 7 Module : http://modules.sourceforge.net/ 8 NEMO : Nucleus for European Modelling of the Ocean (http://www.nemo-ocean.eu/) 07/11/2011 7/8 JRES 2011

opérationnel uniquement le filesystem xfs. Des tests de performances sur les espaces disques centralisés ont été aussi réalisés à l'aide de Iozone 9. NEMO-ext4 (MO) Dell C6100 NEMO-xfs (MO) Dell C6100 SGI (MO) Altix 4700 C1B (CEP) IBM Cluster 1600 #PROCS TIME (s) MEM (GB) 128 96 128 96 128 96 128 96 13080 18660 14040 19260 18776 -- 18950 28780 559 581 559 581 556 -- 424 443 Tableau 1 Code NEMO : Perfs CPU et I/O Ce même bench a été lancé sur de multiples plateformes, notamment notre SGI Altix 4700 mais aussi sur un IBM Cluster 1600 du CEP. Les résultats montrent que le bench est, par exemple, 25 % plus rapide sur DELL C6100 avec xfs que sur notre plateforme SGI Altix 4700 en cxfs ou IBM Cluster 1600 du CEP (cf. Tableau 1). 6 Bilan Les performances sont donc au rendez-vous, le rapport puissance / prix est très intéressant si l'on compare des plateformes avec le même nombre de cœurs de calcul. De plus, une augmentation de puissance peut se réaliser aisément et ne demandera pas de modifications logicielles simplement un ajout de blades (seule limitation, le réseau avec un nombre de ports gigabit et infiniband fixé par les équipements). Nous terminerons cet article par quelques conseils, fruit de notre expérience, pour élaborer un cluster Free Home Made : ne pas sous estimer la logistique (électricité, bâtiment, climatisation) ; préparer des benchmarks Maisons (mesure et vérification des performances) ; choisir une architecture matérielle cohérente (processeurs, mémoires, réseaux) ; installer des logiciels de surveillance matérielles et logicielles & de comptabilité des ressources en calcul (Torque, Maui, Ganglia, Nagios / Centreon, Qbank & Gold) ; ne pas négliger le temps à passer pour la gestion de l'exploitation (pannes, optimisations, gestionnaire de batch, politique d'occupation, gestion de la charge) ; choisir des logiciels cohérents correctement interfacés (Torque, Maui, OpenMPI, PGI / Intel, Netcdf) ; simplifier l'utilisation du cluster pour les développeurs (module, documentations, cours). Un dernier conseil, attention aux bottlenecks... 9 Iozone : Filesystem benchmark tool (http://www.iozone.org/) 07/11/2011 8/8 JRES 2011