Jeudi 2 octobre 2008. Journées Informatiques de l IN2P3 et de l Irfu



Documents pareils
Retour d'expérience CC-IN2P3

Le monitoring de flux réseaux à l'in2p3 avec EXTRA

TUTOJRES 2014 Retour d'expérience Datacentre du CC IN2P3,

Demande d'ap informatique 2012

Clusters de PCs Linux

Tendances Techniques et compétences des laboratoires

Guide de Tarification. Introduction Licence FD Entreprise Forfaits clé en main SaaS SaaS Dédié SaaS Partagé. Page 2 Page 3 Page 4 Page 5 Page 8

Architectures d implémentation de Click&DECiDE NSI

Gestion de clusters de calcul avec Rocks

«autres» missions du CC

Colloque Calcul IN2P3

LES DATACENTRES. ANGD MATHRICE Novembre Françoise Berthoud Violaine Louvet. Merci à Dominique Boutigny. Site web :

parée e avec C. Germain, B. Kegl et M. Jouvin CS de l Université Paris Sud

3 ème journée des utilisateurs de l archivage

Concepts et systèmes de stockage

vmware au CC-IN2P3 Déploiement rapide d une infrastructure destinée à de la formation et réflexions sur vsphere.

Astroparticules. (prospectives en informatique) Giovanni Lamanna. Université de Savoie, CNRS/IN2P3, Annecy-le-Vieux, France

Infrastructures Parallèles de Calcul

BONJOURGRID : VERSION ORIENTÉE DONNÉE & MAPREDUCE SÉCURISÉ

ORACLE EXADATA DATABASE MACHINE X2-2

ORACLE EXADATA DATABASE MACHINE X2-8

Une nouvelle génération de serveur

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

Ces exigences s appliquent à la version 2014 de Sage 200 ERP Extra au

Sébastien Geiger IPHC Strasbourg

L informatique à l IN2P3 et le rôle du Chargé de Mission

<Insert Picture Here> Exadata Storage Server et DB Machine V2

Qu est ce qu une offre de Cloud?

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Exigences système Commercial & Digital Printing

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Infrastructure de calcul du CRRI

DOSSIER DE PARTENARIAT

Webinar ORACLE LE LICENSING ORACLE Quel type de licensing choisir?

StruxureWare Power Monitoring v7.0. La nouvelle génération en matière de logiciel de gestion complète d énergie

Charte d adhésion d un laboratoire au Mésocentre CIMENT

Exigences système Commercial & Digital Printing

Retours d expériences et perspectives sur les aspects énergétiques

Robot WIFIBOT Lab V3. 4 roues motrices

SAN AoE (ATA over Ethernet)

SQL Server 2008 solutions de sauvegarde et de continuité

PROSPECTIVES IN2P3-IRFU

ManageEngine EventLog Analyzer. Les bonnes critiques et recommandations

Exigences système Edition & Imprimeries de labeur

2 disques en Raid 0,5 ou 10 SAS

Protection des données avec les solutions de stockage NETGEAR

RoomMate Guide de l'utilisateur

Les vpack DataCenter et End-User. Yves Pellemans Directeur Technique Groupe APX

Creation de Contenus Numériques pour

Qu est ce qu une offre de Cloud?

JetClouding Installation

FormaSciences 2014 «Les énergies du futur»

Réduction des coûts de consommation dans un datacenter

Présentation de la Grille EGEE

LOT N 1 : ORDINATEURS BORDEREAU DE PRIX IDENTIFICATION DU FOURNISSEUR. Code DESIGNATION QTE PU HT EN EURO MONTANT TOTAL HT EN EURO MONTANT TTC EN EURO

Editeur de solutions innovantes C 3. Solution globale managée de communication et de téléphonie sur IP

en version SAN ou NAS

Spécifications détaillées

Parallels Transporter Lisez-moi

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

10 juin Pharmagest - Villers-Lès-Nancy. Inauguration DataCenter

Pré-requis techniques

vbladecenter S! tout-en-un en version SAN ou NAS

Sébastien Geiger IPHC Strasbourg

Tout le monde parle du Cloud Computing, Mais qui offre une solution complète? Copyright IBM Corporation, 2009 All Rights Reserved

Etude d architecture de consolidation et virtualisation

Configuration Matérielle et Logicielle AGORA V2

VMware ESX : Installation. Hervé Chaudret RSI - Délégation Centre Poitou-Charentes

Marché à procédure adaptée (en application de l article 28 du code des Marchés Publics)

POUR LA FOURNITURE DE SERVEURS ET DE SYSTEMES DE STOCKAGE ET DE SAUVEGARDE

ISTEX, vers des services innovants d accès à la connaissance

Contrat VTX Serveur dédié

Mise en place d'un cluster

Limitations of the Playstation 3 for High Performance Cluster Computing

Fastilog, votre outil de gestion des activités du personnel

Architecture des ordinateurs

Backup , l intégration du backup sur disque

<Insert Picture Here> Solaris pour la base de donnés Oracle

Portage d applications sur le Cloud IaaS Portage d application

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E GHz

e need L un des premiers intégrateurs opérateurs Cloud Computing indépendants en France

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant R&T 1ère année. Sylvain MERCHEZ

Mise en place d'un gestionnaire de données léger, pluridisciplinaire et national pour les données scientifiques

EMC DATA DOMAIN OPERATING SYSTEM

COTISATIONS VSNET 2015


Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

Exigences système Edition & Imprimeries de labeur

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Dynamic Computing Services solution de backup. White Paper Stefan Ruckstuhl

Archivage. des dossiers

Architecture Technique

V- Présentation des Equipements

EMC DATA DOMAIN HYPERMAX

Architecture des calculateurs

Spécifications détaillées

Les classes de service pour les projets scientifiques

Diagrammes de Package, de déploiement et de composants UML

Transcription:

Évolution du CC-IN2P3 Journées Informatiques de l IN2P3 et de l Irfu

CPU Ferme de calcul: Top 500 265 IBM dual CPU dual core Operon -1.2 MSpecHEP 479 DELL dual CPU / quad core INTEL 5345 @ 2.33 GHz 6.3 MSpecHEP 401 DELL dual CPU / quad core INTEL 5450 @ 3.0 GHz 6.5 MSpecHEP Total power available: ~14 MSpecHEP 8100 cores Durée de vie des workers < 3 ans Le système de batch BQS passe à l échelle sans problème

CPU (2) Disponibilité de la ferme: 2007: 83.9 % 2008: 93.1 % CPU consommé CPU disponible Problèmes électriques et travaux d infrastructure 2006: 82% 2007: 66% Coexistence de 3 OS: SL3 SL4 32 bits 2008: 61% SL4 64 bits Augmentation impressionnante de la puissance CPU dans un laps de temps très court Les expériences LHC n étaient pas complètement prêtes à l utiliser Stockage / I/O / Réseau / Software / Transfert de données doivent être parfaitement au point et parfaitement équilibrés pour utiliser efficacement le CPU

Les expériences non-lhc bénéficient aussi de l augmentation de puissance CPU D0 BaBar

LHC / Total

Utilisation de la Grille

Stockage 4 systèmes principaux: IBM DS8300: 250 TBytes Système SAN haute performance / haute disponibilité : AFS + beaucoup d autres services SUN X4500 (Thumpers) : 2.3 Po DAS: dcache, xrootd + 3.2 Po livrés il y a 2 semaines IBM / DDN DCS9550 640 Tbytes : GPFS 480 Tbytes : Cache HPSS CC-IN2P3 / CNRS / f. de Stefanis PILLAR Axiom: 42Tbyte Base Oracle pour OPERA

Protocoles supportés dcache: A destination des SE - EGEE LHC : (1053 TB) ILC: 20 TB PHENIX: 28 TB - VIRGO: 2 TB Latice QCD: 2 TB Biomed: 2 TB xrootd: Total: 347 TB partagés entre BaBar B D0 INDRA ANTARES SRB: The Storage Resource Broker Total 146 TB partagés entre BaBar Auger plusieurs groupes de biologie GPFS Espace utilisateur orienté analyse Total 280 TB utilisés par toutes les expériences Principaux utilisateurs: Supernovae, Planck, Auger, BaBar, HESS, PHENIX, COMPASS, D0 and INTEGRAL +AFS pour les homes et les softs des expériences

Stockage Situation en juin 2008

Stockage de masse 2 bibliothèques robotisées SL8500 installées 1 autre à la fin de l année Essentiellement T10000 + LTO4 CC-IN2P3 / CNRS / f. de Stefanis T10000B 1To CC-IN2P3 / CNRS / f. de Stefanis

Évolution du réseau interne (1) > 800 k d investissement en 2008 100Mb/s Internal Services External Services 1Gb/s CISCO 6500 10Gb/s RENATER 4x 10Gb/s 10Gb/s Jérome Bernier

Évolution du réseau interne (2) Stockage CPU Worker nodes connectés en Gbit ethernet t 10Gb/s 10Gb/s

Puissance électrique Limite de disjonction du CC Marge agede sécurité (200 kw)

Infrastructure du CC-IN2P3 Nous utilisons maintenant 1.5 MW de puissance électrique Installation d un transfo de chantier Location d un dun groupe froid 2009: Pérennisation de ces solutions provisoires i Test de racks refroidis à l eau (appel d offre lancé) Passage de l été Hébergement de workers à l extérieur du CC (CINES +????) La solution: nouveau bâtiment "La" solution mais retard de plus d un an en raison des difficultés pour obtenir le terrain Situation réellement très difficile

Développements Suite à une réorganisation interne: Création d une équipe de développement (13 personnes) Développement liés à la Grille (CIC Portal par exemple) Outil d interopérabilité JSAGA (cf talk de Sylvain Reynaud) Système de batch BQS Système d Information du CC Au passage on notera la fusion de l équipe grille dans les autres équipes: Opération Infrastructure Développement

Plateforme d analyse Historiquement le CC-IN2P3 a fortement développé la capacité et la fiabilité de sa plateforme de production L analyse des données du LHC va être un enjeu critique pour les équipes IN2P3 / Irfu Réflexion en cours pour mettre en place une plateforme d analyse performante Filtrage rapide des données Analyse interactive Contrainte de ne pas interférer avec la production Ce développement e est une priorité forte du CC-IN2P3

Ouverture du CC Le CC consacre une (petite) partie de ses ressources pour des activités ité d ouverture en dehors de la physique corpusculaire Stratégie d ouverture Université Région Création d une grille régionale Grands projets nationaux où le CC peut avoir un impact fort Asie - en liaison i avec les Laboratoire Internationaux ti Associés (Chine, Japon, Corée, Vietnam) Historiquement i t rôle important t dans le domaine de la bio Récemment: TGE ADONIS Archivage pérenne des données SHS Mise en place et tests d une plateforme Fedora

Recherche en informatique Un CR1 recruté par la section 07 du Comité National et affecté au CC- IN2P3 Frédéric Suter Pont entre les grilles de recherches et les grilles de production Collaboration avec le LIP A terme on vise une équipe de recherche de 3 à 5 personnes

Mutualisation L une des missions de base du CC-IN2P3 est de fournir des moyens informatiques mutualisés pour la communauté IN2P3 / Irfu Négociation de l achat de licences GPFS (licences + maintenance) NI LabView (licences) AXALANT (EDMS) (licences) Outils collaboratifs: Indico.. Mise à disposition de logiciels Compilateurs, Matlab, etc CADENCE

Backup Déploiement d un backup centralisé pour les labos qui le souhaitent Actuellement 7 labos utilisent ce backup centralisé CENBG CSNSM IPHC IPNL IPNO LPCC LPSC ~100 millions de fichiers 47 To De 60 à 150 Go transférés au CC chaque jour Ce système est bien sûr généralisable à d autres labos

Conclusion La mission première du CC-IN2P3 est de servir les groupes de recherche de l IN2P3 et de l Irfu Très forte priorité sur le LHC : ~80% des ressources mais: ressources importantes et garanties pour les autres projets Ouverture "contrôlée" du CC-IN2P3 Grille régionale Rhône-Alpes Ambition de devenir l opérateur de la future grille nationale de production La mutualisation des ressources et de certains services au niveau de lin2p3 l IN2P3 / Irfu est une nécessité