Rapport d'activité 2014 de la plate-forme technologique CISM

Dimension: px
Commencer à balayer dès la page:

Download "Rapport d'activité 2014 de la plate-forme technologique CISM"

Transcription

1 Rapport d'activité 2014 de la plate-forme technologique CISM Rédigé par Damien François, Luc Sindic, Bernard Van Renterghem et Thomas Keutgen (responsable). version électronique disponible à l'adresse

2 Table des matières Introduction 6 1 L année 2014 en bref 7 2 CISM plate-forme technologique 8 3 Les salles informatiques 9 4 Matériel et infrastructure Les infrastructures de calcul La grappe MANNEBACK La grappe HMEM La grappe LEMAITRE Les systèmes de stockage de masse Serveurs spécifiques Serveurs SAS SMCS1&2 (SMCS) Serveur Matlab LM9 (INMA) Gestion et développement de l infrastructure Gestion des incidents Déclassement des serveurs plus anciens Consortium des Equipements de Calcul Intensif Les infrastructures disponibles Enquête de satisfaction Développement d un nouveau système de fichiers partagé Tier1 en FWB et accès à PRACE Développement d un outil d aide à la soumission de jobs Support aux utilisateurs et formations Support aux utilisateurs Formations et au delà A Inventaire des infrastructures de stockage 34 B Inventaire des infrastructures de calcul 35 C D Répartition des utilisateurs de l UCL dans l utilisation des infrastructures de stockage 38 Répartition des utilisateurs de l UCL dans l utilisation des infrastructures de calcul 39 E Activités de formation, veille technologique, et réseautage 40 E.1 Slurm User Group

3 E.2 Réunion Xeon Phi chez HP E.3 Storage Expo F Publications 41 Rapport d activité 2014 du CISM 3 47

4 Le CISM en quelques mots... Le CISM est une plate-forme technologique rattachée au Secteur des Sciences et Technologies (SST). Son rôle est de fournir aux chercheurs de l Université des solutions de calcul intensif sur de puissants systèmes informatiques et des solutions de stockage sûr et sécurisé de grandes masses de données. Un outil indispensable à la recherche En informatique scientifique, bien que la puissance des ordinateurs individuels s accroit de génération en génération, les besoins en calcul et stockage augmentent de manière bien plus grande encore, particulièrement dans les domaines de la simulation numérique, de la modélisation, de la bioinformatique, etc. Cette année 2014 a vu plus de 170 utilisateurs UCL (et 480 en tout), utiliser, souvent jusqu au maximum de leur capacité, les infrastructures du CISM et du CÉCI. Ce qui représente, rien que pour l UCL, plus de 16 millions d heures de calcul (dont 10M uniquement sur les infrastructures du CISM), et 222 TB de stockage, permettant la production de 84 publications scientifiques. Une expertise reconnue L équipe de gestion de la plate-forme CISM regroupe quatre informaticiens spécialisés entretenant un savoir-faire de pointe en calcul scientifique et en gestion de parc informatique. Cette expertise est reconnue au sein de l Université où le CISM contribue à la réalisation des projets de plusieurs entités : hébergement de machines de calcul statistique pour SMCS, étude d une nouvelle salle machine avec SIPR, coopération avec CP3, unité gérant également des grappes de calcul, etc. Cette expertise est également reconnue au sein de la Fédération Wallonie-Bruxelles : les formations organisées par l équipe du CISM ont attiré en 2014 plus de 70 chercheurs issus de chacune des universités wallonnes et bruxelloise. 2014, l année du 10ième anniversaire. Cette année anniversaire a été pour le CISM l occasion d une refonte importante de ses organes de gestion. Et même si les infrastructures n ont pas beaucoup évolué en terme de puissance installée, la puissance de calcul disponible globalement a plus que doublée avec l ouverture au CÉCI du Supercalculateur Tier-1 wallon. De nouvelles formations pour les utilisateurs, et la poursuite des grands chantiers que sont la nouvelle salle machine et le projet de stockage partagé CÉCI viennent compléter le tableau.

5

6 INTRODUCTION Le présent rapport a pour but de fournir un résumé des activités de la plate-forme technologique sectorielle Calcul Intensif et Stockage de Masse (SST/CISM) et de l équipe qui en gère les équipements, pour l année Le lecteur disposant de la version imprimée est invité à consulter la version électronique 1 où les hyperliens donnent accès aux références de ce rapport. Les faits saillants de l année 2014 y sont extraits d une masse brute de procès-verbaux et de statistiques. Le rôle de la plate-forme, pour son aspect «calcul intensif» est d assurer aux chercheurs de l université l accès à des outils informatiques de calcul scientifique de grande puissance, appelés «grappes de calcul», ou «clusters» ; il s agit d ensembles d ordinateurs présentant de très grosses configurations interconnectés de manière à combiner leurs puissances individuelles en un super-ordinateur. Le rôle «stockage de masse» consiste à offrir aux chercheurs l accès à des infrastructures de stockage de données de grande capacité disponibles à toute la communauté universitaire. Les activités prises en charge par la plate-forme vont donc de l acquisition du matériel, et de sa maintenance, au support et à la formation des chercheurs à l utilisation de ce matériel, sur base d une expertise de haut niveau entretenue activement au sein de l équipe, et d une veille technologique permanente, en collaboration avec les autres services de l UCL mais également avec les autres universités belges. La suite de ce rapport présente les faits importants de 2014 (Section 1), l évolution des organes de la plate-forme (Section 2), l état des lieux des infrastructures du CISM (Sections 3 et 4), les nouveaux projets mis en place dans le cadre du CÉCI (Section 5), le bilan des activités de support aux utilisateurs (Section 6.1) et les perspectives pour 2015 (Section 7). Les annexes reprennent les détails des infrastructures (Annexes A et B), la répartition par pôle des utilisateurs de l UCL (Annexes C et D), ainsi que la liste des publications obtenues cette année grâce aux outils du CISM (Annexe F). 1 http :// Rapport d activité 2014 du CISM

7 1 L ANNÉE 2014 EN BREF En 2014, le CISM a fêté ses 10 ans d existence. C était l occasion pour nous d organiser un évènement regroupant les personnes à l origine de notre plate-forme et nous remémorer les souvenirs de 2004, année où le calcul intensif et le stockage de masse ont pris leur place au sein de l Université par la création de l Institut CISM. Plate-forme technologique depuis 2009, notre organisation n a cessé d évoluer. Encore cette année, un nouveau règlement d ordre intérieur (ROI) a été approuvé par les autorités de l Université et la gestion du CISM a été confiée à deux nouveaux comités : le comité de gestion et le comité des utilisateurs. Ce point sera détaillé à la Section 2. Globalement, nos infrastructures n ont pas connu de grosse modification cette année. On notera les serveurs ajoutés au cluster Manneback mais cela reste relativement limité en terme d occupation d espace et de puissance. Pour rappel, nous sommes en attente de la mise à disposition d une nouvelle salle machine nous permettant le déploiement de nouvelles infrastructures. Cette nouvelle salle sera construite en 2015 comme nous le verrons à la Section {salles}. En ce qui concerne le calcul intensif, la mise en service du supercalculateur Tier-1 au Cenaero et son ouverture à tous les utilisateurs du CÉCI[ˆConsortium des Équipements de Calcul Intensif en Fédération Wallonie Bruxelles] est certainement un des évènements les plus importants de l année écoulée. On reviendra plus largement sur cet évènement à la Section 5.4. Dans les activités du CÉCI, un nouveau projet Grands Équipements a été accepté pour financement par le FNRS. Il concerne la mise en place d un système de fichiers partagé favorisant la mobilité des chercheurs entre les différentes plates-formes de calcul mises à disposition par le consortium. Ce point sera discuté à la Section 5.3. On peut également rappeler la séance de debuggage qui a eu lieu en début d année permettant à quelques utilisateurs avertis de tester l efficacité de leur code en utilisant, sur une courte période, les 1344 processeurs disponibles sur le cluster Lemaitre2. Cette session a été un réel succès et certains utilisateurs ont obtenu ainsi les informations nécessaires pour envisager l accès à des infrastructures plus importantes. Pour le stockage de masse, malgré le démantèlement de Storage02, l espace de stockage disponible est resté suffisant pour ne pas devoir envisager son remplacement immédiat. Un renforcement sera cependant nécessaire en Nos formations se sont à nouveau étoffées avec deux nouvelles sessions (programmation Fortran et C++) et trois nouveaux formateurs (voir la section {formations}). Enfin, il reste à citer les 84 publications qui ont bénéficié de l apport essentiel des infrastructures CISM en 2014 ; elles sont listées en annexe F. Rapport d activité 2014 du CISM 7 47

8 2 CISM PLATE-FORME TECHNOLOGIQUE Cette année, le CISM a fêté ses 10 ans d existance! C était l occasion de rassembler les différents acteurs qui ont contribué activement à la réussite de notre plate-forme et se souvenir des premières années de calcul intensif et de stockage de masse à l UCL. Une séance académique a donc été organisée à cette fin le 2 octobre Dès 2013, le CISM avait entamé la modification de son fonctionnement avec la scission de son conseil de gestion en deux nouvelles assemblées : le comité de gestion et le comité des utilisateurs. Au même moment, le Conseil du Service à la Société (CSES) a remis une note au Conseil Académique proposant une nouvelle ligne de conduite pour le fonctionnement des plate-formes technologiques. Notre objectif rencontrant l essentiel des points mentionnés dans cette note, notre nouveau règlement d ordre intérieur (ROI) a rapidement pris forme et a été déposé pour approbation au bureau du Secteur des Sciences et Technologies (SST). Il a officiellement été approuvé par le Conseil Académique du 3 juin Les points importants de notre nouvel ROI sont les suivants : Le CISM devient une plate-forme technologique sectorielle du secteur SST. Il est représenté auprès des autorités de l UCL par son institut de référence, IMCN, et en particulier par son président. Le Comité de Gestion du CISM se réunit environ deux fois par an pour définir les stratégies à moyen et long terme et évaluer le fonctionnement de la plate-forme. Il est composé d un représentant par institut grand utilisateur de nos infrastructures et présidé par un académique nommé pour 4 ans. Le comité des utilisateurs se réunit au moins six fois par an pour proposer la politique de gestion et d utilisation des équipements scientifiques et techniques. Il est composé d au moins un membre des pôles de recherche regroupant les utilisateurs les plus significatifs et présidé par le président du comité de gestion Rapport d activité 2014 du CISM

9 3 LES SALLES INFORMATIQUES Comme discuté dans nos rapports précédents, les deux salles actuelles (l Aquarium et la salle Tier-2) ne permettent plus aujourd hui d héberger simultanément les serveurs des services centraux (SIPR), de IRMP/CP3 et du SST/CISM. Par manque de place d abord : les armoires sont remplies au maximum de leur capacité. Par manque de puissance ensuite : les projets orientés calcul intensif (CISM et CP3) nécessitent des armoires permettant d atteindre les 20 kw alors que la capacité actuelle est de 12 kw par armoire. Enfin, les besoins deviennent de moins en moins compatibles entre les services centraux qui doivent assurer un service ininterrompu et donc, recherchent à assurer la redondance de chaque élément de la salle, et les utilisateurs du calcul haute performance (CP3 et CISM) qui ont besoin d un maximum de puissance par armoire afin d optimiser la densité des serveurs de calcul. Un projet de nouvelle salle (DCIII, DataCenter III) a donc vu le jour grâce au travail efficace de ADPI/GTPL. Un nouveau bâtiment sera construit dans le courant de l année Dans un premier temps (phase I), 12 armoires de 20 kw seront disponibles pour la fin de l année Une seconde phase est prévue en 2017 où la salle sera mise à niveau et atteindra les 20 armoires. La figure 1 présente le site choisi pour l implantation de cette nouvelle salle (cette figure nous a été transmise par ADPI/GTPL). FIGURE 1 : SITE D IMPLANTATION DE LA NOUVELLE SALLE DCIII L optimisation énergétique est un point essentiel dans la conception d une salle machine tant le niveau de consommation électrique est important. Par exemple, en 2014, la consommation cumulée des deux salles existantes s est élevée à 2466 MWh dont un peu moins de la moitié provenant des installations du CISM. Chaque kw économisé par l efficacité de l installation représente donc une économie substantielle pour le gestionnaire de la salle. Un des paramètres les plus utilisés pour mesurer l efficacité d une salle machine est le PUE (Power Usage Effectiveness) qui représente le rapport entre la consommation électrique globale de la salle sur celle des serveurs qu elle héberge. Dans un monde idéal, Rapport d activité 2014 du CISM 9 47

10 si le refroidissement des machines ne produit aucun surcoût énergétique, le PUE est de 1. Ce qui n est bien sûr pas le cas mais plus la conception de la salle est optimisée, plus le PUE se rapprochera de l unité. Pour les salles actuelles, nous avons pu estimer le PUE en comparant les valeurs obtenues sur le compteur général des salles (consommation totale) et les mesures prises sur l UPS, fournissant la puissance électrique des serveurs. Cette valeur doit être considérée comme minimale. La figure 2 présente l évolution annuelle du PUE pour l Aquarium et la salle Tier-2. FIGURE 2 : EVOLUTION ANNUELLE DU PUE POUR LES SALLES AQUARIUM ET TIER-2 On peut remarquer que cette valeur n est pas constante et qu elle dépend des saisons et donc, des conditions de température extérieure. Cette dépendance est particulièrement marquée pour la salle Tier-2 qui, contrairement à l Aquarium, est équipée d un aéroréfrigérant qui permet de refroidir le circuit hydraulique de la salle par simple ventilation, lorsque la température extérieure est suffisamment basse. La salle Aquarium, installée en 2005, présente un PUE moyen de 1.55 alors que la salle Tier-2, datant de 2007, plus efficace, tourne autour de L objectif de la nouvelle salle machine, le DCIII, sera de descendre en dessous de 1.3. Fin 2015, lorsque la première phase du DCIII sera terminée, il est prévu de commencer le transfert de toutes les activités de SST/CISM et IRMP/CP3 dans la nouvelle salle. L objectif final étant de libérer la totalité des armoires utilisées dans les anciennes salles pour permettre aux services centraux d augmenter leur capacité. Le CISM gardera cependant une armoire à l Aquarium pour assurer une solution de backup délocalisé de ses services. IRMP/CP3 gardera également une armoire en salle Tier-2 pour certains services ne pouvant pas déménager du bâtiment Marc de Hemptinne. Le rapprochement des serveurs IRMP/CP3 et SST/CISM dans le même local est une chance unique de mutualiser nos différents services. Une collaboration étroite avec les administrateurs de IRMP/CP3 a donc débuté cette année pour étudier les possibilités de ce rapprochement Rapport d activité 2014 du CISM

11 4 MATÉRIEL ET INFRASTRUCTURE FIGURE 3 : EVOLUTION DE LA PUISSANCE THÉORIQUE DE CALCUL AU CISM DEPUIS 2006 En 2014, afin de prolonger un peu l utilité de ses processeurs plus anciens, la majorité des nœuds de calcul de GREEN ont été transférés sur Manneback. Combinée aux huit nouvelles machines que nous avons ajoutées à ce cluster, la puissance théorique cumulée a atteint en 2014 les 42 TFlops comme le montre la figure 3. Un tableau récapitulatif est présenté en Annexe B ainsi que la répartition par Secteurs/Instituts/Pôles des utilisateurs de l UCL (Annexe D). Le détail du taux d utilisation de ces différents clusters sera développé dans les paragraphes ci-dessous. FIGURE 4 : EVOLUTION DE L ESPACE DE STOCKAGE DISPONIBLE AU CISM DEPUIS 2006 Rapport d activité 2014 du CISM 11 47

12 En ce qui concerne le service de stockage de masse, avec le déclassement programmé de Storage02, le CISM met à la disposition de l ensemble de la communauté universitaire environ 260 terabytes[ˆ1 terabyte représente 1000 gigabytes soit l équivalent d un disque dur externe, ou environ 250 DVD] (TB). La répartition de cet espace sur nos serveurs est détaillée à la figure 4. Un tableau récapitulatif est également présenté en annexe {inventaire_st}. La répartition des utilisateurs par secteur/institut/pôle se retrouve en annexe C. Le reste de cette section présente en détail les différentes infrastructures de calcul, grappes et machines interactives ainsi que le récapitulatif des interventions opérées sur ces machines en Les infrastructures de calcul Les infrastructures de calcul du CISM sont de deux types : des grappes de calcul, où les utilisateurs soumettent leurs calculs au logiciel chargé de la gestion des ressources (Manneback, Hmem, Lemaitre2) ; des machines interactives où les utilisateurs se connectent et lancent leurs calculs directement (SMCS1&2, LM9) La grappe MANNEBACK Manneback, baptisée en hommage à Charles Manneback, est une grappe réservée aux membres de l UCL ; elle héberge les machines issues de projets de recherche industriels, les machines spécialement achetées pour tester de nouvelles technologies, et les machines ne trouvant pas leur place ailleurs. Ce qui en fait un cluster hétérogène, regroupant des processeurs AMD et des processeurs Intel, des nœuds avec une interconnexion rapide et à faible latence, et d autres équipés d accélérateurs matériels. Cette année, la puissance maximale de cette grappe a doublé, passant de 10TFlops à un peu plus de 20TFlops. Ainsi, Manneback compte Charles Manneback ( ) à présent 1616 cœurs et dépasse en puissance maximale théorique la grappe Lemaitre2 (1380 cœurs, 14TFlops). Cet accroissement important est dû essentiellement à trois apports : la reconversion de 79 machines de l ancien cluster Green, intégrées à Manneback (+ 6,32Tflops) ; l ajout en mars, d un serveur de 32 cœurs Xeon E5-4620@2.2GHz/128 GB RAM, intégré à la partition OBAN (+ 563Gflops) ; et pour finir, l ajout en juin, de 8 nœuds de 16 cœurs Xeon E5-2650v2@2.6GHz/64GB RAM (+ 2.66Tflops). Le front-end (ou serveur d accès) avait été renforcé l an passé. Il s agit d une machine puissante équipée de deux processeurs Intel(R) Xeon(R) CPU 2.00GHz (soit Rapport d activité 2014 du CISM

13 100.. CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 5 : TAUX D UTILISATION CUMULÉ DE MANNEBACK cœurs de calcul en tout), 64GB de RAM, et 30TB de disque configurés en RAID6. Ce serveur d accès supporte sans difficulté le doublement de la charge (de 856 à 1616 cœurs). La partition INDUS a été mise en place suite à un contrat de recherche en collaboration avec des partenaires industriels. Cette partition est réservée aux activités liées à ce contrat durant la durée des travaux, et n est disponible pour les utilisateurs n y étant pas impliqués directement qu en cas de surcapacité. En pratique, chacun peut y soumettre un job, mais ce job pourra être arrêté et annulé pour laisser la place aux jobs prioritaires si besoin est. NAPS 70%. 10% COSY 8% 5% Autres 7% ELEN MIRO FIGURE 6 : RÉPARTITION PAR PÔLE POUR MANNEBACK La partition OBAN est également réservée en priorité aux utilisateurs qui ont financé les machines qui la composent ; cependant, si leurs jobs ont une priorité nettement supérieure à celle des autres jobs, ils n ont pas la possibilité d arrêter un job en cours pour prendre sa place. Le taux d utilisation cumulé de Manneback (Figures 5) présente la somme de la consommation de CPU et de mémoire des branches par défaut (c est-à-dire tous les nœuds sauf ceux des partitions INDUS et d OBAN). Sur cette figure, on remarque en juillet une interruption due à la semaine de maintenance et de mise à jour de l ensemble des serveurs de calcul. Et hormis les deux périodes plus creuses de mars et de mai, la tendance est à une augmentation de la charge de Manneback. Rapport d activité 2014 du CISM 13 47

14 4.1.2 La grappe HMEM La grappe de calcul Hmem est une infrastructure orientée calcul intensif réclamant une quantité de mémoire vive importante ; d où le choix du nom Hmem pour «High-Memory». Cette infrastructure, installée en février 2011, est à la disposition des utilisateurs de l UCL pour moitié et des membres du Consortium CÉCI pour l autre moitié. Cette grappe est composée de 16 machines DELL (fournies par ClusterVision) 4x12 cœurs AMD Opteron 6174 dont deux sont équipées de 512 GB de RAM, 7 de 256 GB et 7 de 128 GB. Un financement La grappe Hmem d ELIC a permis d ajouter un huitième nœud équipé de 128 GB de RAM (Hmem17). L ensemble est interconnecté par un réseau rapide à faible latence Infiniband QDR (40 Gbits/s). Le CISM a ajouté un serveur d accès et de sessions interactives équipé de 2x6 cœurs AMD Opteron 4180, 64GB de RAM, et de 11TB d espace disque pour les répertoires utilisateurs. Il permet l identification des utilisateurs et la gestion des jobs en attente de soumission. Enfin, 3 serveurs Transtec Calleo 530 acquis en novembre 2008 (4 dual-cœur AMD Opteron et 128GB RAM) faisant anciennement partie de Lemaitre ont été ajoutés à la grappe Hmem (Hmem18, 19 et 20, dans une queue «fast» de 24 heures maximum) CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 7 : TAUX D UTILISATION CUMULÉ DE HMEM Le matériel qui compose Hmem est particulier car très peu de serveurs de calcul disposent d un demi TB de RAM, et les valeurs de 128 et 256 GB sont également plus élevées que ce qui est classiquement disponible sur des serveurs de calcul. Cela permet d y faire tourner des simulations qui ne pourraient s exécuter ailleurs (manipulant des tableaux très grands, par exemple). Néanmoins, le taux d utilisation de Hmem, bien que relativement élevé, a fléchi cette année. C est ce que présente la figure 7. Cela peut s expliquer par différents facteurs : Le CÉCI dispose, avec Dragon1, d une grappe de 26 serveurs équipés chacun de 128 GB de RAM et, avec Vega, de 43 nœuds de 256GB de RAM. Hormis les deux premiers nœuds Hmem1 et Hmem2 (512 GB de RAM), Hmem n est plus le seul à pouvoir accueillir des modélisations gourmandes en mémoire. De plus, les processeurs AMD Opteron 6174 sont moins rapides que les processeurs de générations suivantes, qui équipent les grappes plus récentes. La figure 8 montre une utilisation de Hmem bien répartie au sein des universités du CÉCI (seulement 4% UMons et 6% ULB qui hébergent respectivement Dragon1 et Vega). Sur la partition High (les nœuds Hmem1-Hmem2 équipés de 512 GB de RAM), SLURM, le gestionnaire de jobs, a été configuré de telle manière que seules les Rapport d activité 2014 du CISM

15 UCL 43% 27%. 4% UMons UNamur 20% ULB 6% ULg FIGURE 8 : RÉPARTITION DE L UTILISATION DE HMEM PAR UNIVERSITÉ simulations demandant plus de 256GB puissent y démarrer, pour utiliser judicieusement ces serveurs particuliers. Ils sont ainsi plus disponibles mais cela fait diminuer leur taux moyen d utilisation. SLURM doit veiller au partage équilibré entre les utilisateurs des 5 universités de la Fédération Wallonie Bruxelles. La configuration choisie tient compte du fait que la machine est dédiée à 50% aux membres de l UCL et 50% aux membres du CÉCI (dont l UCL). A part cela, tous les utilisateurs sont mis sur le même pied. La figure 8 présente la répartition de l utilisation de la grappe Hmem entre les 5 universités de la FWB pour l année La grappe LEMAITRE2 L accord du Consortium des équipements de Calcul Intensif CÉCI de 2010 a permis en 2011 le financement par le FNRS d une machine massivement parallèle, disposant d un grand nombre de CPUs performants interconnectés par un réseau rapide. La grappe Lemaitre2 est composée de 1344 cœurs de calcul Intel X5649@2.53GHz interconnectés par un réseau Infiniband QDR (3 :1) blocking. Un système de fichiers parallélisé de type Lustre assure Georges Lemaitre l accès en écriture le plus rapide possible à un espace d hébergement ( ) temporaire de données de 120 TB. Les serveurs de gestion, d accès aux répertoires utilisateurs (contenant les données essentielles, les sources et les programmes des utilisateurs) et de gestion du système de fichiers Lustre (plus performant, contenant les données de production des utilisateurs) sont tous dédoublés et sécurisés via Linux High Availibility (LHA). La grappe Lemaitre2, avec sa puissance maximale théorique de 13.6 Tflops, représente 35% de la puissance offerte par le CISM à la communauté. La figure 9 présente le taux d utilisation mensuelle de la grappe Lemaitre2 pour l année Rapport d activité 2014 du CISM 15 47

16 100.. CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 9 : TAUX D UTILISATION CUMULÉ DE LEMAITRE2 UCL UNamur 12% 37%. 33% 10% 8% UMons ULB ULg FIGURE 10 : RÉPARTITION DE L UTILISATION DE LEMAITRE2 PAR UNIVERSITÉ Rapport d activité 2014 du CISM

17 4.2 Les systèmes de stockage de masse Le serveur Storage02, acquis en 2009, est arrivé en fin de garantie début 2014 et a été déclassé. L espace disponible a ainsi été réduit de 36 TB. Actuellement, les trois serveurs Storage03, Storage04 et Storage05 fournissent à la communauté universitaire 261 TB d espace disque en ligne, répartis comme suit (voir également la figure 4) : Storage03 : 42 TB Storage04 : 64 TB Storage05 : 155 TB Cet espace disque est sécurisé : la configuration RAID des machines tolère la panne de disques, remplaçables à chaud, c est-à-dire sans devoir éteindre la machine. De plus, la récupération en cas de désastre est assurée par la délocalisation des serveurs (Storage04 et Storage05 au Pythagore ; Storage03 au Marc de Hemptinne) et la mise en place d un système de réplication des données, activé uniquement si l utilisateur le souhaite. FIGURE 11 : RÉPARTITION DES UTILISA- TEURS PAR SECTEUR FIGURE 12 : RÉPARTITION DES UTILISA- TEURS PAR INSTITUT FIGURE 13 : RÉPARTITION DES UTILISA- TEURS PAR PÔLE FIGURE 14 : RÉPARTITION DU STOCKAGE UTILISÉ DEPUIS 2008 Les Figures 11 à 13 présentent la répartition des utilisateurs par secteur, par institut et par pôle de recherche. ELI reste l institut le plus important avec les pôles ELIC et ELIE. La Figure 14 montre l évolution de l espace de stockage utilisé et son accélération ces dernières années. En 2015, les prévisions basées sur les estimations des utilisateurs du calcul intensif nous annoncent une augmentation importante de l espace utilisé. Un renforcement de notre infrastructure de stockage deviendra nécessaire. Rapport d activité 2014 du CISM 17 47

18 Suite à la réduction de l espace disponible sur les serveurs Storage04 et Storage05, lors de la consolidation du niveau de sécurisation des données en 2013, l espace de stockage alloué à ELIE et ELIC a été réduit proportionnellement. FIGURE 15 : LA RESTRUCTURATION DES SERVEURS DE STOCKAGE Les données ont été redistribuées entre les serveurs de façon à regrouper celles de chaque pôle de recherche sur un même serveur. L accès aux machines de stockage a également été restructuré. La figure 15 représente la consolidation des différents serveurs Storage02 à Storage05, entreprise en début d année, afin de permettre à tout les utilisateurs d accéder à leurs données de façon identique (sur storage.cism.ucl.ac.be, dans son /home/pôle/login). Dans la salle Aquarium se trouvent Storage02, Storage04 et Storage05, alors que Storage03 est installé dans la Salle Tier2. Une procédure de montage automatique (NFS auto mount) permet d établir la correspondance /home/pôle/login, même si les données accédées se trouvent sur un autre serveur. Par exemple, sur Storage05, /home/naps est un lien vers /net/storage03/storage/naps car les données du pôle NAPS se trouvent sur Storage03. Le serveur déclassé Storage02 a été reconditionné : quatre liens directs relient les quatre grappes de calcul. Ainsi, les espaces de travail /workdircism et /workdirceci sont visibles depuis tout les nœuds de calcul de chaque cluster. Enfin, signalons que Pascal Frisque (SIMM) a été nommé représentant des petits utilisateurs du stockage de masse, en remplacement d Emile Berckmans, que le CISM tient à remercier tout partiuclièrement Rapport d activité 2014 du CISM

19 4.3 Serveurs spécifiques Outre les grappes de calcul, le CISM héberge des serveurs de calculs interactifs, mis en place pour répondre aux besoins spécifiques de certaines entités Serveurs SAS SMCS1&2 (SMCS) Pour permettre aux chercheurs dont les travaux nécessitent de travailler sur des grosses bases de données, de mener à bien leur recherche, la plate-forme technologique Service de Méthodologie et de Calcul Statistique (IMAQ/SMCS) a financé, en 2011, deux serveurs de calcul que nous hébergeons dans nos infrastructures... CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 16 : TAUX D UTILISATION DE SMCS1.. CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 17 : TAUX D UTILISATION DE SMCS2 Ces deux machines, conçues principalement pour le logiciel statistique SAS, permettent également l utilisation des logiciels R et Stata. En 2014, la gestion de ces deux machines s est poursuivie sans incident, avec comme fait notable la mise à jour du logiciel SAS en version 9.4, et la reconfiguration de la connexion de ces machines à leur espace de stockage de manière à augmenter significativement les vitesses d accès aux données. Dans les figures 16 et 17, on peut voir l évolution de l utilisation des processeurs (surface bleue) et de la mémoire (trait rouge) des deux machines. Une utilisation au-delà de 100% indique une utilisation sous-optimale de la machine ; plus de processus (instances de programmes utilisateurs) que de processeurs (et donc changements de contextes fréquents car plusieurs processus se partagent un même processeur) ou plus de mémoire Rapport d activité 2014 du CISM 19 47

20 de travail utilisée que de mémoire disponible (et donc utilisation d espace disque de type swap pour la mémoire) Serveur Matlab LM9 (INMA) Début 2011 toujours, le pôle d Ingénierie Mathématique (ICTM/INMA), avait financé un serveur spécifique pour l utilisation interactive du logiciel Matlab. En 2013, la gestion de cette machine par le CISM s est poursuivie également, avec, à noter, deux interventions sur panne de disque dur. Cette machine est régulièrement utilisée, comme le montre la figure 18. Elle est en fait beaucoup utilisée pour convertir des programmes Matlab en programmes C de manière à pouvoir les faire tourner sur un cluster comme MANNEBACK ou HMEM CPU.. Mem Jan Feb Apr May Jul Sep Oct Dec FIGURE 18 : TAUX D UTILISATION DE LM9 4.4 Gestion et développement de l infrastructure Gestion des incidents Au cours de l année 2014, nous avons dû faire face à une trentaine de pannes ou problèmes matériels. Certains ont nécessité un remplacement, d autre une reconfiguration. La figure 19 montre la fréquence des incidents selon leur type. On voit sans surprise que ce sont les disques durs et les mémoires qui sont les éléments devant être le plus souvent remplacés. Il est à noter que grâce à la configuration en redondance des disques durs des homes et des stockages de masse, aucune perte de données n est à déplorer lors des crash de disques. A contrario, les disques des systèmes de scratch sont configurés sans redondance ; ainsi le crash d un disque du système /scratch de Hmem a conduit à la perte de certains fichiers pour certains utilisateurs. Heureusement, il s agissait de fichiers reconstructibles, ou dont une copie existait ailleurs. Et alors que les autres types d interventions se font obligatoirement lors d un arrêt de la machine, les remplacements de disques se font à chaud, alors que la machine tourne et répond aux commandes des utilisateurs, de manière totalement invisible pour ces derniers. Il est évident que le nombre d interventions sur un système dépend à la fois de la taille de ce système et de son ancienneté. Comme on le voit sur la figure 20, la majorité des Rapport d activité 2014 du CISM

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014 SIGAMM/ COMMISSION UTILISATEUR du 05/12/2014 ORDRE DU JOUR : - Rôle de la commission, - Présentation de la nouvelle plateforme, - Accès Mésocentre, - Point sur les problèmes rencontrés, - Propositions

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue

Plus en détail

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de

Plus en détail

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire

Plus en détail

Infrastructures Parallèles de Calcul

Infrastructures Parallèles de Calcul Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide

Plus en détail

«clustering» et «load balancing» avec Zope et ZEO

«clustering» et «load balancing» avec Zope et ZEO IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4

Plus en détail

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l

L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i

Plus en détail

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE Version de juin 2010, valable jusqu en décembre 2010 Préalable Ce document présente l architecture

Plus en détail

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8 Guide de Tarification Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé Page 2 Page 3 Page 4 Page 5 Page 8 Introduction Dexero FD est une application Web de gestion d

Plus en détail

Mise en place d'un cluster

Mise en place d'un cluster Mise en place d'un cluster par David Dessailly & Régis Sion UMR8187- LOG Laboratoire d'océanologie et de Géosciences MREN Université du Littoral Côte d'opale. MIn2RIEN Mise en place d'un cluster 13 février

Plus en détail

SQL Server 2008 et YourSqlDba

SQL Server 2008 et YourSqlDba SQL Server 2008 et YourSqlDba Le futur de la maintenance des bases de données et la haute-disponibilité Par : Maurice Pelchat Société GRICS Survol du sujet Haute disponibilité (HD) Assurer la disponibilité

Plus en détail

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) ETABLISSEMENT PUBLIC DE SANTE MENTALE «Morbihan» 22, Rue de l Hôpital - B. P. 10 56896 SAINT-AVE Cédex Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics) CAHIER DES

Plus en détail

Système de stockage IBM XIV Storage System Description technique

Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de

Plus en détail

Créer et partager des fichiers

Créer et partager des fichiers Créer et partager des fichiers Le rôle Services de fichiers... 246 Les autorisations de fichiers NTFS... 255 Recherche de comptes d utilisateurs et d ordinateurs dans Active Directory... 262 Délégation

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM 4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés

Plus en détail

Résolvez vos problèmes d énergie dédiée à l informatique

Résolvez vos problèmes d énergie dédiée à l informatique Résolvez vos problèmes d énergie dédiée à l informatique GRÂCE À UNE SOLUTION ENERGY SMART DE DELL Surmonter les défis énergétiques des datacenters Les responsables informatiques ont un problème urgent

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Marché Public. Serveurs et Sauvegarde 2015

Marché Public. Serveurs et Sauvegarde 2015 Marché Public Serveurs et Sauvegarde 2015 Remise des Offres avant le lundi 22 juin 2015 à 16h 1 P a g e Table des matières 1. OBJET DE LA CONSULTATION... 4 1.1. Description de la consultation... 4 1.2.

Plus en détail

ORACLE EXADATA DATABASE MACHINE X2-8

ORACLE EXADATA DATABASE MACHINE X2-8 ORACLE EXADATA DATABASE MACHINE X2-8 CARACTERISTIQUES ET AVANTAGES CARACTERISTIQUES 128 cœurs de CPU et 2 TO de mémoire pour le traitement des bases de données 168 cœurs de CPU pour le traitement du stockage

Plus en détail

ORACLE EXADATA DATABASE MACHINE X2-2

ORACLE EXADATA DATABASE MACHINE X2-2 ORACLE EXADATA DATABASE MACHINE X2-2 CARACTERISTIQUES ET AVANTAGES CARACTERISTIQUES Jusqu à 96 cœurs de CPU et 768 GO de mémoire pour le traitement des bases de données Jusqu à 168 cœurs de CPU pour le

Plus en détail

Protection des données avec les solutions de stockage NETGEAR

Protection des données avec les solutions de stockage NETGEAR Protection des données avec les solutions de stockage NETGEAR Solutions intelligentes pour les sauvegardes de NAS à NAS, la reprise après sinistre pour les PME-PMI et les environnements multi-sites La

Plus en détail

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash Des performances haut de gamme à un prix avantageux ETERNUS DX : le stockage centré

Plus en détail

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd

Plus en détail

Concepts et systèmes de stockage

Concepts et systèmes de stockage Concepts et systèmes de stockage Francesco Termine, professeur HES, francesco.termine@he-arc.ch 1 Plan Gestion de volumes de stockage Systèmes RAID DAS SAS Concepts Technologies actuelles NAS Concepts

Plus en détail

Présentation Infrastructure DATACENTRE

Présentation Infrastructure DATACENTRE Présentation Infrastructure DATACENTRE Innovatec de Gemsol : l activité ISP & le Datacentre 1500 hébergements h et services associés s de clients situés s en France & en Espagne Datacentre d un haut niveau

Plus en détail

Version de novembre 2012, valable jusqu en avril 2013

Version de novembre 2012, valable jusqu en avril 2013 Pré requis techniques pour l installation du logiciel complet de gestion commerciale WIN GSM en version hyper File en configuration Windows Terminal Serveur Version de novembre 2012, valable jusqu en avril

Plus en détail

Une nouvelle génération de serveur

Une nouvelle génération de serveur Séminaire Aristote 27 Mars 2013 Une nouvelle génération de serveur Sommaire L'équipe État de l'art et vision Présentation de l'innovation Les points forts de la solution Cas d'usage Questions? 2 L'équipe

Plus en détail

Infrastructure de calcul du CRRI

Infrastructure de calcul du CRRI Infrastructure de calcul du CRRI Types d'infrastructures de calcul Calcul Intensif (High Performance Computing) Tâches fortement couplées (codes vectoriels / parallèles) Supercalculateurs, SMP, clusters,

Plus en détail

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service 10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore

Plus en détail

Sur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11)

Sur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11) 1/ Généralités : Un ordinateur est un ensemble non exhaustif d éléments qui sert à traiter des informations (documents de bureautique, méls, sons, vidéos, programmes ) sous forme numérique. Il est en général

Plus en détail

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa libérez votre innovation avec l extreme computing CEA/Philippe Stroppa Solutions Bull pour l extreme computing Une gamme qui démultiplie votre pouvoir d innovation. De la physique fondamentale à la recherche

Plus en détail

SQL2005, la migration Atelier 316

SQL2005, la migration Atelier 316 SQL2005, la migration Atelier 316 Par : Maurice Pelchat Spécialiste SQL Server Société GRICS SQL2005, la migration Introduction Pourquoi? Comment? Outils disponibles Processus de migration Quand? Perspectives

Plus en détail

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Cluster High Availability. Holger Hennig, HA-Cluster Specialist Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE

Plus en détail

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES

LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES LE SAN ET LE NAS : LE RESEAU AU SERVICE DES DONNEES Marie GALEZ, galez@cines.fr Le propos de cet article est de présenter les architectures NAS et SAN, qui offrent de nouvelles perspectives pour le partage

Plus en détail

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère

Plus en détail

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long, en fait ça me faisait penser au nom d un certain projet gouvernemental je me suis

Plus en détail

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen P. Stroppa Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen 25 novembre 2010 CONTACTS PRESSE : CEA / Service Information-Media Marie VANDERMERSCH Tél. : 01 64 50 17 16 - marie.vandermersch@cea.fr

Plus en détail

Demande d'ap informatique 2012

Demande d'ap informatique 2012 Demande d'ap informatique 2012 Architecture Laboratoire: Les postes de travail Les environnements Linux/Windows Le réseau du Laboratoire Grille de Calcul à l IPN Unité mixte de recherche CNRS-IN2P3 Université

Plus en détail

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet Beat Wolf 1, Pierre Kuonen 1, Thomas Dandekar 2 1 icosys, Haute École Spécialisée de Suisse occidentale,

Plus en détail

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008

Windows Server 2008. Chapitre 1: Découvrir Windows Server 2008 Windows Server 2008 Chapitre 1: Découvrir Windows Server 2008 Objectives Identifier les caractéristiques de chaque édition de Windows Server 2008 Identifier les caractéristiques généraux de Windows Server

Plus en détail

VMWare Infrastructure 3

VMWare Infrastructure 3 Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...

Plus en détail

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper

Plus en détail

Initiation au HPC - Généralités

Initiation au HPC - Généralités Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours

Plus en détail

Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012

Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012 Livre blanc Solution Hadoop d entreprise d EMC Stockage NAS scale-out Isilon et Greenplum HD Par Julie Lockner et Terri McClure, Analystes seniors Février 2012 Ce livre blanc d ESG, qui a été commandé

Plus en détail

Une présentation de HP et de MicroAge. 21 septembre 2010

Une présentation de HP et de MicroAge. 21 septembre 2010 Une présentation de HP et de MicroAge 21 septembre 2010 Programme Présentation de MicroAge Maria Fiore Responsable du développement des affaires MicroAge Virtualisation et stockage optimisé à prix abordable

Plus en détail

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz Choix d'un serveur Vous êtes responsable informatique d'une entreprise. Vous devez faire un choix pour l'achat d'un nouveau serveur. Votre prestataire informatique vous propose les choix ci-dessous Vous

Plus en détail

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE

ORACLE 10g Découvrez les nouveautés. Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE ORACLE 10g Découvrez les nouveautés Jeudi 17 Mars Séminaire DELL/INTEL/ORACLE Le Grid Computing d Entreprise Pourquoi aujourd hui? Principes et définitions appliqués au système d information Guy Ernoul,

Plus en détail

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance.

CLOUD CP3S SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE. La virtualisation au service de l entreprise. Évolutivité. Puissance. CLOUD CP3S La virtualisation au service de l entreprise Virtualisation / Cloud Évolutivité Sécurité Redondance Puissance SOLUTION D INFRASTRUCTURE SOUMIS À LA LÉGISLATION FRANÇAISE SOLUTION D INFRASTRUCTURE

Plus en détail

Cahier des charges pour la mise en place de l infrastructure informatique

Cahier des charges pour la mise en place de l infrastructure informatique 1 COMMUNE DE PLOBSHEIM Cahier des charges pour la mise en place de l infrastructure informatique Rédaction Version 2 : 27 /05/2014 Contact : Mairie de PLOBSHEIM M. Guy HECTOR 67115 PLOBSHEIM dgs.plobsheim@evc.net

Plus en détail

<Insert Picture Here> Exadata Storage Server et DB Machine V2

<Insert Picture Here> Exadata Storage Server et DB Machine V2 Exadata Storage Server et DB Machine V2 Croissance de la Volumétrie des Données Volumes multipliés par 3 tous les 2 ans Evolution des volumes de données 1000 Terabytes (Données) 800

Plus en détail

Etude d architecture de consolidation et virtualisation

Etude d architecture de consolidation et virtualisation BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.

Plus en détail

Communications performantes par passage de message entre machines virtuelles co-hébergées

Communications performantes par passage de message entre machines virtuelles co-hébergées Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction

Plus en détail

Consolidation de stockage

Consolidation de stockage (Information sur la technologie Sto-2003-2) Wolfgang K. Bauer Spécialiste stockage Centre de compétence transtec AG Waldhörnlestraße 18 D-72072 Tübingen Allemagne TABLE DES MATIÈRES 1 RÉSUMÉ...3 2 INTRODUCTION...4

Plus en détail

Conseil d administration Genève, novembre 2002 LILS

Conseil d administration Genève, novembre 2002 LILS BUREAU INTERNATIONAL DU TRAVAIL GB.285/LILS/1 285 e session Conseil d administration Genève, novembre 2002 Commission des questions juridiques et des normes internationales du travail LILS PREMIÈRE QUESTION

Plus en détail

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. 2013 Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D. Table des matières 1 Introduction (Historique / définition)... 3 2 But de la virtualisation... 4 3 Théorie : bases et typologie des solutions techniques...

Plus en détail

UC4 effectue tout l ordonnancement batch pour Allianz en Allemagne

UC4 effectue tout l ordonnancement batch pour Allianz en Allemagne UC4 effectue tout l ordonnancement batch pour Allianz en Allemagne La société Le groupe Allianz est un des principaux fournisseurs de services globaux dans les domaines de l assurance, de la banque et

Plus en détail

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin

ParallelKnoppix. Majid Hameed. Copyright 2005 Majid Hameed. Copyright 2005 Gauthier Savart. Copyright 2005 Joëlle Cornavin Linux Gazette n 110 Janvier 2005 Majid Hameed Copyright 2005 Majid Hameed Copyright 2005 Gauthier Savart Copyright 2005 Joëlle Cornavin Article paru dans le n 110 de la Gazette Linux de janvier 2005. Traduction

Plus en détail

Conception d une infrastructure «Cloud» pertinente

Conception d une infrastructure «Cloud» pertinente Conception d une infrastructure «Cloud» pertinente Livre blanc d ENTERPRISE MANAGEMENT ASSOCIATES (EMA ) préparé pour Avocent Juillet 2010 RECHERCHE EN GESTION INFORMATIQUE, Sommaire Résumé........................................................

Plus en détail

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS Journée Utiliateurs 2015 Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS 1 Pôle ID, Grid'5000 Ciment Une proximité des platesformes Autres sites G5K Grenoble + CIMENT Pôle ID = «Digitalis»

Plus en détail

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1 Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High

Plus en détail

Spécifications détaillées

Spécifications détaillées Hewlett-Packard HP ProLiant DL380 G5 Storage Server 1.8TB SAS Model - NAS - 1.8 To - montage en rack - Serial ATA-150 / SAS - DD 36 Go x 2 + 300 Go x 6 - DVD±RW x 1 - RAID 0, 1, 5, 6 - Gigabit Ethernet

Plus en détail

Architectures d implémentation de Click&DECiDE NSI

Architectures d implémentation de Click&DECiDE NSI Architectures d implémentation de Click&DECiDE NSI de 1 à 300 millions de ligne de log par jour Dans ce document, nous allons étudier les différentes architectures à mettre en place pour Click&DECiDE NSI.

Plus en détail

Contributions à l expérimentation sur les systèmes distribués de grande taille

Contributions à l expérimentation sur les systèmes distribués de grande taille Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte

Plus en détail

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013 Gérald.Dulac@eolas.fr Ibrahim.Safieddine@eolas.

agile Datacenter vert Le monde naissant des datacenters de nouvelle génération ICAR-2013 Gérald.Dulac@eolas.fr Ibrahim.Safieddine@eolas. Le monde naissant des datacenters de nouvelle génération ICAR-2013 Datacenter vert agile Grenoble Lyon Paris Gérald.Dulac@eolas.fr Ibrahim.Safieddine@eolas.fr Datacenter de nouvelle génération vert agile?

Plus en détail

ERP Service Negoce. Pré-requis CEGID Business version 2008. sur Plate-forme Windows. Mise à jour Novembre 2009

ERP Service Negoce. Pré-requis CEGID Business version 2008. sur Plate-forme Windows. Mise à jour Novembre 2009 ERP Service Negoce Pré-requis CEGID Business version 2008 sur Plate-forme Windows Mise à jour Novembre 2009 Service d'assistance Téléphonique 0 825 070 025 Pré-requis Sommaire 1. PREAMBULE... 3 Précision

Plus en détail

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM Global Headquarters: 5 Speen Street Framingham, MA 01701 USA P.508.872.8200 F.508.935.4015 www.idc.com LIVRE BLANC IBM PureFlex System Optimisé pour le Cloud Pour : IBM Randy Perry Juillet 2013 Mary Johnston

Plus en détail

Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD

Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD Fiche produit Fujitsu ETERNUS JX40 Baie de stockage JBOD Baie de stockage passive à connexion directe au serveur Baie de stockage JBOD ETERNUS JX

Plus en détail

CONCOURS «MA THÈSE EN 180 SECONDES»

CONCOURS «MA THÈSE EN 180 SECONDES» CONCOURS «MA THÈSE EN 180 SECONDES» (édition 2015) ouvert aux doctorants et docteurs diplômés de l année 2014-2015 Informations : http://www.ulb.ac.be/rech/doctorants/doctorat-mt180.html (page ULB) et

Plus en détail

Pré-requis techniques

Pré-requis techniques Sommaire 1. PRÉAMBULE... 3 2. PRÉ-REQUIS TÉLÉCOM... 4 Généralités... 4 Accès Télécom supporté... 4 Accès Internet... 5 Accès VPN... 5 Dimensionnement de vos accès... 6 3. PRÉ-REQUIS POUR LES POSTES DE

Plus en détail

Plan de cette matinée

Plan de cette matinée Plan de cette matinée Windows 2008 Les différentes versions Migration Rôles et fonctionnalités Présentation des nouveautés Windows 2008 R2 Les apports de cette nouvelle version Windows 7 Les différentes

Plus en détail

Fiche Technique Windows Azure

Fiche Technique Windows Azure Le 25/03/2013 OBJECTIF VIRTUALISATION mathieuc@exakis.com EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Fiche Technique Objectif 25/03/2013 27/03/2013 Windows

Plus en détail

Hébergement de base de données MySQL. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA)

Hébergement de base de données MySQL. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA) Hébergement de base de données MySQL. Description du service (D après OGC - ITIL v3 - Service Design- Appendix F : Sample SLA and OLA) Source : commundit:_ex:catalogue_services:db:sla_dit_mysql.docx Distribution

Plus en détail

Tests de SlipStream sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la. Vers la fédération du Cloud computing

Tests de SlipStream sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la. Vers la fédération du Cloud computing Tests de sur les plateformes StratusLab@LAL et OpenStack@CC-IN2P3 : vers la fédération du Cloud computing Cécile Cavet1 & Charles Loomis2 (1) Centre François Arago, Laboratoire, Université Paris Diderot,

Plus en détail

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 186 Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 L'utilisation des fonctionnalités de haute disponibilité intégrées aux applications, L'ajout de solutions tierces. 1.1 Windows Server

Plus en détail

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de

Plus en détail

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage

La Virtualisation Windows chez CASINO. Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage La Virtualisation Windows chez CASINO Philippe CROUZY Responsable Infrastructure Equipes Systèmes -Stockage Sommaire Contexte Datacenters La virtualisation chez Casino Notre démarche Feuille de route Bilan

Plus en détail

Étude d une architecture évolutive et haute disponibilité pour les postes de travail virtuels

Étude d une architecture évolutive et haute disponibilité pour les postes de travail virtuels Étude d une architecture évolutive et haute disponibilité pour les postes de travail virtuels Ziya Aral Jonathan Ely DataCore Software Récapitulatif Ce rapport fournit une analyse d une configuration de

Plus en détail

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec.

3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. Stephane.Vialle@supelec.fr http://www.metz.supelec. 3A-IIC - Parallélisme & Grid Stéphane Vialle Stephane.Vialle@supelec.fr http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation

Plus en détail

100% Swiss Cloud Computing

100% Swiss Cloud Computing 100% Swiss Cloud Computing Simplifiez votre IT, augmentez sa puissance, sa flexibilité, sa sécurité et maîtrisez les coûts Avec le Cloud, vous disposez d un espace d hébergement dédié, dissocié de votre

Plus en détail

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données

Unitt www.unitt.com. Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données Zero Data Loss Service (ZDLS) La meilleure arme contre la perte de données La meilleure protection pour les données vitales de votre entreprise Autrefois, protéger ses données de manière optimale coûtait

Plus en détail

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist

Cluster High Performance Computing. Dr. Andreas Koch, Cluster Specialist Cluster High Performance Computing Dr. Andreas Koch, Cluster Specialist TABLE DES MATIÈRES 1 RÉSUMÉ... 3 2 INTRODUCTION... 4 3 STRUCTURE D UN CLUSTER HPC... 6 3.1 INTRODUCTION... 6 3.2 MONTAGE SIMPLE...

Plus en détail

VIRTUALISATION : MYTHES & RÉALITÉS

VIRTUALISATION : MYTHES & RÉALITÉS VIRTUALISATION : MYTHES & RÉALITÉS Virtualisation Définition Marché & Approche Microsoft Virtualisation en PME Quel(s) besoin(s) Quelle(s) approche(s) Témoignage Client Mr Rocher, DSI CESML Questions /

Plus en détail

1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File :

1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File : 1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File : Version de novembre 2014, valable jusqu en mai 2015 Préalable Ce document présente

Plus en détail

SAN AoE (ATA over Ethernet)

SAN AoE (ATA over Ethernet) Paris - 1 décembre 2010 LEGI - Laboratoire des Ecoulements Geophysiques et Industriels CNRS / UJF / G-INP - Grenoble, France http://www.legi.grenoble-inp.fr/ 1 décembre 2010 1 Généralités sur l AoE 2 3

Plus en détail

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures Le stockage 1. Architecture de stockage disponible a. Stockage local ou centralisé L architecture de stockage à mettre en place est déterminante pour l évolutivité et la performance de la solution. Cet

Plus en détail

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP

TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP Vue d ensemble du basculement DHCP Dans Windows Server 2008 R2, il existe deux options à haute disponibilité dans le cadre du déploiement du serveur DHCP. Chacune de ces options est liée à certains défis.

Plus en détail

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés Livre blanc La sécurité de nouvelle génération pour les datacenters virtualisés Introduction Ces dernières années, la virtualisation est devenue progressivement un élément stratégique clé pour le secteur

Plus en détail

Réduction des coûts de consommation dans un datacenter

Réduction des coûts de consommation dans un datacenter Réduction des coûts de consommation dans un datacenter Didier Magotteaux Thierry Engels L hôpital dans son environnement, journées d études 3 & 4 juin 2010 09/06/2010 1 Saviez-vous que NRB...? Est l une

Plus en détail

LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES

LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES CAHIER DES CHARGES LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES Suivi de versions Addendum : 11 avril 2012 MARS 2012 Agence pour la Recherche et l Innovation

Plus en détail

Détection d'intrusions en environnement haute performance

Détection d'intrusions en environnement haute performance Symposium sur la Sécurité des Technologies de l'information et des Communications '05 Détection d'intrusions en environnement haute performance Clusters HPC Fabrice Gadaud (fabrice.gadaud@cea.fr) 1 Sommaire

Plus en détail

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware Transformation vers le Cloud Premier partenaire Cloud Builder certifié IBM, HP et VMware 1 Sommaire Introduction Concepts Les enjeux Modèles de déploiements Modèles de services Nos offres Nos Références

Plus en détail

Le cluster à basculement

Le cluster à basculement Le cluster à basculement La technologie de cluster à basculement a une approche très différente de NLB. L objectif est de maintenir des ressources en ligne en permanence. Chaque ressource est instanciée

Plus en détail

JetClouding Installation

JetClouding Installation JetClouding Installation Lancez le programme Setup JetClouding.exe et suivez les étapes d installation : Cliquez sur «J accepte le contrat de licence» puis sur continuer. Un message apparait and vous demande

Plus en détail

Clusters de PCs Linux

Clusters de PCs Linux Clusters de PCs Linux Benoit DELAUNAY delaunay@in2p3.fr Centre de Calcul de l'in2p3 Plan Historique PC au CCIN2P3. Une première étape. Une réponse à la demande. Une véritable orientation. La place des

Plus en détail

Ordinateur Logiciel Mémoire. Entrées/sorties Périphériques. Suite d'instructions permettant de réaliser une ou plusieurs tâche(s), de résoudre un

Ordinateur Logiciel Mémoire. Entrées/sorties Périphériques. Suite d'instructions permettant de réaliser une ou plusieurs tâche(s), de résoudre un ESZ Introduction à l informatique et à l environnement de travail Éric Gaul (avec la collaboration de Dominic Boire) Partie 1: Concepts de base Ordinateur Logiciel Mémoire Données Entrées/sorties Périphériques

Plus en détail

SysFera. Benjamin Depardon

SysFera. Benjamin Depardon SysFera Passage d applications en SaaS Benjamin Depardon CTO@SysFera SysFera Technologie 2001 Création 2010 Spin Off INRIA Direction par un consortium d investisseurs 12 personnes 75% en R&D Implantation

Plus en détail