Mésocentre de Calcul Intensif Aquitain. Présentation du cluster Avakas 13/01/2012

Documents pareils
Chapitre 2. Cluster de calcul (Torque / Maui) Grid and Cloud Computing

Gestion de clusters de calcul avec Rocks

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Charte d'utilisation des infrastructures de la plate-forme bioinformatique Genotoul

Symantec Backup Exec 12.5 for Windows Servers. Guide d'installation rapide

Détection d'intrusions en environnement haute performance

Acronis Backup & Recovery for Mac. Acronis Backup & Recovery et Acronis ExtremeZ-IP ARCHITECTURE DE RÉFÉRENCE

Produits et grille tarifaire. (septembre 2011)

Grid5000 aujourd'hui : Architecture & utilisation

Préconisations Techniques & Installation de Gestimum ERP

FreeNAS Shere. Par THOREZ Nicolas

Sauvegarde des données au LAAS

INFO-F-404 : Techniques avancées de systèmes d exploitation

Procédure d installation pour WinEUR PROCÉDURE D INSTALLATION POUR WINEUR. Copyright GIT SA 2015 Page 1/16

VMWARE VSPHERE ESXI INSTALLATION

1. Aménagements technologiques 2. Installation de Microsoft SQL Server 2012

Windows 2000: W2K: Architecture. Introduction. W2K: amélioration du noyau. Gamme windows W2K pro: configuration.

Symantec Backup Exec Guide d'installation rapide

Laplink PCmover Express La façon la plus facile de transférer vers un nouveau PC Windows

Documentation utilisateur, manuel utilisateur MagicSafe Linux. Vous pouvez télécharger la dernière version de ce document à l adresse suivante :

CAHIER DES CHARGES D IMPLANTATION

Tropimed Guide d'installation

Introduction à Linux (pour le HPC) «Linux 101» Présentation :

Architectures d implémentation de Click&DECiDE NSI

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

ManageEngine EventLog Analyzer. Les bonnes critiques et recommandations

«clustering» et «load balancing» avec Zope et ZEO

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Utilisation des ressources informatiques de l N7 à distance

Symantec Backup Exec Guide d'installation rapide

Veeam Backup and Replication

Fiche Produit. Plateforme de sauvegarde en marque blanche Kiwi Business

LOGICIEL KIPICAM : Manuel d installation et d utilisation

Tsoft et Groupe Eyrolles, 2005, ISBN :

Demande d'ap informatique 2012

Bienvenue sur Lab-Windows Il n'y a de vents favorables que pour ceux qui ont un cap

Contrôle de la DreamBox à travers un canal SSH

Areca Backup Première Sauvegarde - Configurez votre premier groupe et votre première cible.

Installation du transfert de fichier sécurisé sur le serveur orphanet

ALOHA Load Balancer Guide de démarrage

Guide de prise en main Symantec Protection Center 2.1

Comment installer la configuration des salles sur son ordinateur personnel?

Guide d installation JMap 5.0

Ajout et Configuration d'un nouveau poste pour BackupPC

Dispositions relatives à l'installation :

Gestion collaborative de documents

Documentation d information technique spécifique Education. PGI Open Line PRO

Projet Personnalisé Encadré PPE 2

SQL Server Installation Center et SQL Server Management Studio

CA ARCserve Backup pour Windows

Symantec Backup Exec TM 11d for Windows Servers. Guide d'installation rapide

Symantec Backup Exec.cloud

MEGA Web Front-End Installation Guide MEGA HOPEX V1R1 FR. Révisé le : 5 novembre 2013 Créé le : 31 octobre Auteur : Noé LAVALLEE

VERITAS NetBackup 5.0 en 5 jours : Administration Avancée

Maarch Framework 3 - Maarch. Tests de charge. Professional Services. 11, bd du Sud Est Nanterre

Installation 1K-Serveur

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

Galaxy est une plateforme de traitements (bio)informatiques accessible depuis l'url : (en précisant votre login et mot de passe LDAP «genotoul»).

Guide d'installation. Release Management pour Visual Studio 2013

Version de novembre 2012, valable jusqu en avril 2013

Faulconnier Bastien SIO2. Cahier des charges. Choix et mise en œuvre d'un datacenter pour Infrastructure Cloud. Pour la société :

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

Chapitre 2 Accès aux partages depuis votre système d'exploitation

Copyright Arsys Internet E.U.R.L. Arsys Backup Online. Guide de l utilisateur

VERITAS NetBackup 6.x en 5 jours : Administration Avancée

Les différentes méthodes pour se connecter

Procédure d installation de la solution Central WiFI Manager CWM

Guide de déploiement

Le Ro le Hyper V Premie re Partie Configuration et Prise en main du gestionnaire Hyper-V

1. Aménagements technologiques 2. Installation de Microsoft SQL Server Microsoft SQL Server 2008 Service Pack 3

Open Source Job Scheduler. Installation(s)

Déploiement d un serveur courriel dédié pour entreprise

DSI - Pôle Infrastructures

Addenda du Guide de l administrateur

Protection des données avec les solutions de stockage NETGEAR

Serveur de sauvegarde à moindre coût

Vous êtes bien à la bonne présentation, c est juste que je trouvais que le titre de cette présentation étais un peu long,

Backup Exec 15. Guide d'installation rapide

Installation et configuration du CWAS dans une architecture à 2 pare-feux

Sauvegarde de postes clients avec BackupPC

WGW PBX. Guide de démarrage rapide

PROJET DE MIGRATION EXCHANGE 2003 VERS EXCHANGE 2010

Service d'installation et de démarrage de la solution de stockage réseau HP StoreEasy 1000/3000

CA ARCserve Backup Patch Manager pour Windows

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Installation de TeamLab sur un serveur local Ce guide est destiné aux utilisateurs ayant des connaissances de base en administration Windows

SQUID P r o x y L i b r e p o u r U n i x e t L i n u x

Kaspersky Security Center 9.0 Manuel d'implantation

Fonctionnalités d Acronis :

Sébastien Geiger IPHC Strasbourg

pour Windows Manuel de l agent pour Microsoft SQL Server r11.1 C F

Sauvegarder sa messagerie Gmail

[Serveur de déploiement FOG]

Installation de Premium-RH

Comment reproduire les résultats de l article : POP-Java : Parallélisme et distribution orienté objet

Aide à l installation et à la migration en HelloDoc 5.60

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

Forex VPS Mode d emploi

Transcription:

Mésocentre de Calcul Intensif Aquitain Présentation du cluster Avakas 13/01/2012

Présentation du cluster Avakas Présentation du cluster : le matériel et la communauté Environnement logiciel Calculer sur la machine Gestion des données

Présentation du cluster Avakas Présentation du cluster : le matériel et la communauté Matériel : serveurs Matériel : réseaux Communauté Avakas : le Comité des Utilisateurs Communauté Avakas : la Dream Team Communauté Avakas : Redmine Environnement logiciel Calculer sur la machine Gestion des données

Matériel : serveurs Nœuds frontaux (avakas.mcia.univbordeaux.fr) avakas-frontend1 avakas-frontend2 Nœuds maîtres Nœuds de stockage Nœuds de calcul Nœuds - C6100 (x264) 2 processeurs hexacœurs (12 cœurs par nœud) 3,06 GHz 48 Go RAM Nœuds "bigmem" - R910 (x4) 4 processeurs 10 cœurs (40 cœurs par nœud) 2,4 GHz 512 Go RAM 4 disques SAS 10krpm

Matériel : réseaux Connexion à Internet (frontaux) 1 Gb/s Ethernet 10 Gb/s Ethernet en cours d'installation Réseau d'administration Réseau standard: 1 Gb/s Ethernet Réseau Infiniband: 40 Gb/s IB QDR non bloquant

Communauté Avakas : le Comité des Utilisateurs Composé de représentants des utilisateurs et de l'équipe technique Ouvert aux candidatures Animé par Luc Mieussens (IMB) - luc.mieussens@math.u-bordeaux1.fr On y discute des orientations techniques et de la vie de la machine Au passage, la charte d'utilisation du Mésocentre : http://www.mcia.univ-bordeaux.fr/index.php?id=charte_d_utilisation

Communauté Avakas : la Dream Team Nguyen Nguyen Ky - administration/support Pierre Gay - administration/support Benoît Hiroux - administration/support, assistance aux PMEs Redouane Bouchouirbat - administration/support, assistance à la recherche Services: On peut organiser des formations fournir de l'aide à la réalisation de projets modélisation portage optimisation parallélisation etc...

Communauté Avakas : Redmine http://www.redmine.univ-bordeaux.fr : le site collaboratif du Mésocentre Connexion Wiki Documentation publique Lecture et écriture pour les utilisateurs inscrits Annonces Outil de communication complémentaire aux mails Flux RSS disponibles (c'est vrai pour tout le redmine) Tickets (= demandes) Invisibles au public non inscrit Permet une communication montante Problèmes / pannes Demandes d'assistance / d'information Demande d'évolution (installations, etc...) Forums Entraide (flux RSS et notifications disponibles) Discussions en général (améliorer, pousser un coup de gueule, etc...)

Présentation du cluster Avakas Présentation du cluster : le matériel et la communauté Environnement logiciel Se connecter au cluster Avakas Environment modules Compilateurs Debuggers Logiciels à licence Calculer sur la machine Gestion des données

Se connecter au cluster Avakas 1- Se connecter depuis Linux : Pour accéder aux nœuds frontaux du cluster $ ssh user_name@avakas.mcia.univ-bordeaux.fr Pour le portage graphique X11 (rajouter l'option -Y ou -X): $ ssh -Y user_name@avakas.mcia.univ-bordeaux.fr

Se connecter au cluster Avakas Se connecter depuis Windows : Il faut un client ssh et pour les applications graphiques, un serveur X à distance. Deux utilitaires : PuTTy : Xming :

Se connecter au cluster Avakas PuTTy :st un client SSH sous Windows.

Se connecter au cluster Avakas Pour le portage graphique lancer tout d'abord Xming et ensuite Putty. Etape 1 : entrer avakas.mcia.univ-bordeaux.fr Etape 2 : Sélectionner le protocole SSH. Etape 3 : ici votre login pour cette session. Etape 4 : (optionnel) Activation du portage graphique X11, sur PuTTy sélectionner ssh- X11.

Se connecter au cluster Avakas Etape 5 : cliquer sur save/load pour enregistrer/charger la session. Etape 6 : cliquer le boutton OPEN Etape 7 : cliquer sur YES

Se connecter au cluster Avakas

Environment modules Un outil pour configurer l'environnement du shell Fichiers pseudo Tcl descriptifs de la configuration nécessaire à l'utilisation d'un logiciel Déposés dans des répertoires source ($MODULEPATH) Permet de faire cohabiter plusieurs logiciels concurrents ou plusieurs versions d'un même logiciel sur le cluster MPI: OpenMPI, Intel-MPI, etc... Permet de profiter de mises à jour sans sacrifier à la stabilité Commandes module avail liste des modules disponibles module list liste des modules actuellement chargés module load charger un module module unload décharger un module module switch changer de version pour un module module purge décharger tous les modules

Compilateurs Plusieurs compilateurs accessibles par modules gcc Intel Compiler Suite Versions 11.1, 12.0 Architecture 32 ou 64 bits Open64

Debuggers Allinea/DDT Utilisable en graphique, y compris sur les nœuds de calcul (voir job interactif) profiling / optimisation: Intel Trace Analyzer Intel Source checker Intel VTune

Logiciels à licence Accès général: Logiciels Intel (20 ou 5 jetons) Allinea/DDT (32 jetons) Accès restreint: Quand la licence acquise ne permet pas d'inclure tous les utilisateurs du Cluster Gaussian: licences liées à des sites géographiques Comsol: licence appartenant à un labo

Présentation du cluster Avakas Présentation du cluster : le matériel et la communauté Environnement logiciel Calculer sur la machine Utilisation du scheduler Qsub soumission de jobs Jobs interactifs Interrogation du système de jobs Jobs MPI Configuration du scheduler Sujets avancés Gestion des données

Utilisation du scheduler Les nœuds de calcul ne sont accessibles qu'à travers le Scheduler Torque+MAUI L'allocation des ressources CPU est exclusive Le partitionnement de la mémoire des nœuds n'est pas garantie Les ressources d'entrées/sorties d'un nœud non entièrement réservé seront partagées entre plusieurs jobs La durée demandée d'un job est sa durée maximale Il faut donc estimer la durée d'exécution de son calcul Pas de moyen de rallonger un job commencé

Qsub soumission de jobs qsub <script> Demander des ressources: qsub -l nodes=2 qsub -l nodes=1:ppn=4 qsub -l nodes=2:ppn=12 qsub -l nodes=3:ppn=30 qsub -l nodes=1:ppn=2:bigmem La mémoire n'est pas réellement prise en compte (qsub -l mem=1gb) nodexxx: 4Go/core bigmemxx: 11Go/core Temps de calcul qsub -l walltime=dd:hh:mm:ss Mettre les options de qsub dans le script: #PBS -N jobname man qsub ou voir le wiki

Jobs interactifs qsub -I qsub -I -X -V

Interrogation du système de jobs qstat qstat -a qstat -n qstat -q checkjob <jobid>

Jobs MPI L interdiction du ssh oblige à prendre des précautions OpenMPI no problem Intel/MPI module load torque-intel-mpi MPICH/MPICH2? MVAPICH/MVAPICH2 module load mpiexec QLogic?

Configuration du scheduler Files d'attente File d'attente <groupe> (walltime < 120h) File d'attente longq (120h < walltime < 720h) Nombre de jobs maximum par utilisateur : 10 Nombre de jobs maximum : 100 Limites des jobs walltime < 720 h procs*hours < 5760 h calcul des priorités Fairshare sur 28 jours (decay 0.95) user target 1+ group target 5+ XFactor XFACTOR = 1 + QUEUETIME / MAX ( XFMINWCLIMIT, WALLCLOCKLIMIT ) XFMINWCLIMIT 01:00:00

Sujets avancés Accéder quand même en ssh aux nœuds sur lesquels tournent mes jobs module load torque-ssh2job Dans le job: jobsshd A partir d'un frontal: ssh2job --node=<node> --job=<jobnum> récupérer des données écrites en local En fin de job, ok. Mais quand le job part en timelimit? Utiliser un script épilogue Module jobrsync (bientôt disponible)

Présentation du cluster Avakas Présentation du cluster : le matériel et la communauté Environnement logiciel Calculer sur la machine Gestion des données /home local /tmp /scratch

/home 20 To pour tout le monde Système NFS Espace sauvegardé journalièrement (/backup) Pour les données sensibles ou peu volumineuses de l'utilisateur

local /tmp Nettoyage automatique du /tmp difficile à mettre en œuvre utiliser de préférence /tmp/$pbs_jobid Pour les données des jobs Ayant besoin d'entrées/sorties performantes en local Données moyennement volumineuses Récupération moins facile en fin de job

/scratch 120 To temporaires accessibles à travers Infiniband sur tous les nœuds bande passante agrégée 4Go/s mais partagée entre tout le monde Pour les données très volumineuses ou pour des accès rapides en parallèle Problème de surcharge inutile lors de nombreux jobs séquentiels, ou gros job MPI

Questions / discussion