Rapport d activité. Mathieu Souchaud Juin 2007
|
|
|
- David Brousseau
- il y a 10 ans
- Total affichages :
Transcription
1 Rapport d activité Mathieu Souchaud Juin 2007 Ce document fait la synthèse des réalisations accomplies durant les sept premiers mois de ma mission (de novembre 2006 à juin 2007) au sein de l équipe ScAlApplix en tant qu Ingénieur associé. Table des matières 1 Introduction Présentation de la mission EPSN, un Environnement pour le Pilotage de Simulations Numériques Travaux effectués Test de mise à l échelle de la plate-forme EPSN (2 mois) Amélioration du Collective CORBA Object Workspace (4 mois) Présentation de ColCOWS Stabilisation du programme Communications hiérarchiques Intégration de PadicoTM dans EPSN PadicoTM, une plate-forme de communication pour grille ColCOWS / PadicoTM (1 mois) Autre activité : administration de la grappe de visualisation Bilan 7 1
2 1 Introduction 1.1 Présentation de la mission Le projet ScAlApplix a développé la plate-forme EPSN [3] de «computational steering» qui permet le pilotage à distance et l interaction avec des applications parallèles, et ce depuis des clients de visualisation séquentiels ou parallèles. L objectif est tout d abord de mener à bien la validation de la plate-forme sur des applications manipulant des données de grandes tailles (par exemple plusieurs millions de particules ce qui représentera plusieurs dizaines de Gigaoctets de données) et sur un nombre important de noeuds de calcul (plus de 100 noeuds). Le second objectif est d intégrer PadicoTM (une plate-forme de communication développé dans le projet RUNTIME) dans EPSN afin d utiliser au mieux l infrastructure de la grille. En particulier, cela permettra à EPSN d utiliser de manière transparente les réseaux hautes performances d une grappe de calcul. 1.2 EPSN, un Environnement pour le Pilotage de Simulations Numériques EPSN est une bibliothèque pour le pilotage de simulations numériques parallèles et la visualisation en ligne des résultats intermédiaires de ces simulations (figure 1). Plus précisément, EPSN permet de piloter des codes de simulations parallèles respectant un modèle de programmation SPMD et utilisant un processus de calcul itératif, comme par exemple les schémas de résolution en temps. Cluster de PCs graphiques Simulation parallèle pilotable Visualisation en ligne sur un mur d images Infrastructure EPSN (LAN/VLAN/WAN) Client de pilotage léger FIG. 1 Vue d ensemble de la plate-forme EPSN. 2 Travaux effectués 2.1 Test de mise à l échelle de la plate-forme EPSN (2 mois) Les premiers tests ont révélé une instabilité de la plate-forme EPSN lors d une utilisation avec un nombre supérieur à 40 noeuds. Les simulations actuelles demandent une puissance de calcul importante : des grappes de plusieurs centaines de noeuds sont couramment utilisées. La limitation d EPSN à 40 noeuds devenait donc un réel problème. Mon premier objectif a été de résoudre le problème d instabilité d EPSN, ce qui m a permis de me plonger dans l architecture et dans le code source de la plate forme. D après la figure 2, la couche la plus basse d EPSN est ColCOWS, la suivante est RedGRID [6] et enfin les dernières sont RedSYM et EPSN. Chacune de ces couches est en réalité une bibliothèque qui peut être utilisée indépendamment l une de l autre. 2
3 Simulation Pilotable Client de Pilotage EPSN Back End API EPSN Font End API RedSYM API EPSN Core RedSYM RedCORBA ColCOWS CORBA FIG. 2 Les couches logicielles de l environnement EPSN. Pour les tests des différentes bibliothèques j ai utilisé une grappe de calcul en faisant varier le nombre de noeuds de 2 à 128. Les bibliothèques ColCOWS et RedGRID se sont avérées stables. En revanche, la bibliothèque EPSN Core ne fonctionnait plus correctement au-delà de 40 noeuds. D après ces expériences, on aurait pu en déduire que l instabilité était du à la couche haute. Cependant d après les membres du projet EPSN, l erreur était liée à ColCOWS. En effet ColCOWS ne garantissait pas certaines fonctionnalités, notamment la synchronisation des noeuds lors de l activation et de la connexion. J ai donc été chargé d implémenter ces fonctionnalités afin d améliorer la stabilité de la plate-forme. 2.2 Amélioration du Collective CORBA Object Workspace (4 mois) Présentation de ColCOWS ColCOWS [1] est une bibliothèque développée au sein du projet EPSN afin de faciliter le partage de références d objet CORBA (ou IOR) au sein d un groupe de processus, formant ce que nous appelons un workspace. Plus précisément, un workspace est constitué d un ensemble de noeuds, c est-à-dire des threads ou des processus distincts qui jouent le rôle de serveurs CORBA. Chaque noeud dispose d un ensemble d objets CORBA qu il souhaite mettre en partage (i.e. les références locales). Initialement, chaque noeud possède un ensemble d IORs locales qu il souhaite mettre en partage dans le workspace. ColCOWS offre principalement deux fonctionnalités : l activation et la connexion (figure 3). L activation est une opération collective comparable à un all-to-all consistant à diffuser à tous les noeuds du workspace l ensemble des IORs présentes sur chaque noeud. A l issue de cette opération, chaque noeud possède une connaissance globale de toutes les références locales au workspace. La connexion intervient après l activation et permet à deux workspaces de mettre en partage l ensemble des IORs présentes dans chaque workspace. En outre, Col- COWS permet de gérer les opérations inverses : déconnexion et désactivation Stabilisation du programme L instabilité d EPSN était d après l équipe de ScAlApplix dû a ColCOWS. En effet, ColCOWS ne garantissait pas la synchronisation des noeuds d un workspace. EPSN pouvait donc être lancé sur un workspace avec des noeuds n ayant pas toutes leurs références. Un nouvel algorithme d activation a donc été mis en place (figure 4). L ancien algorithme considerait le workspace comme activé à l étape 3, cependant, à cette étape, aucun des noeuds ne sait si tous les noeuds ont toutes les références. Il a fallu donc ajouter une étape d acquittement supplémentaire. Les algorithmes de connexion, de déconnexion et de désactivation fonctionnent de la même manière : un acquittement est effectué lorsque tout les noeuds ont fait l opération voulue. En plus de la modification des algorithmes, ColCOWS a été remaniée en profondeur. La bibliothèque ColCOWS est maintenant en version stable. La nouvelle version de la bibliothèque est intégrée dans EPSN. Les tests ont été validés pour la bibliothèque EPSN sur des grappes de 128 noeuds. 3
4 FIG. 3 ColCOWS : activation et connexion entre workspaces. 4
5 FIG. 4 ColCOWS : algorithme de l activation d un workspace Communications hiérarchiques Les algorithmes de communication de la bibliothèque ColCOWS ont été améliorés. Auparavant, les communications étaient séquentielles : le noeud racine envoyait un message à tous les noeuds fils en suivant la topologie d un arbre séquentiel (figure 5). Cependant, avec plus de noeuds, le noeud racine passe trop de temps à communiquer avec chaque noeuds, les performances chutes. La solution pour diffuser les références aux noeuds fils est de communiquer en envoyant les messages en suivant un arbre binomial (figure 5). Avec cet arbre, on tire parti de l architecture parallèle de la grappe : le noeud racine sous traite une partie de ses communications à ses noeuds fils. La complexité du nombre d étapes de communication n est plus de n noeuds mais de log(n) noeuds. FIG. 5 ColCOWS : arbre plat et arbre binomial. Colcows est beaucoup plus rapide en version hiérarchique qu en version séquentielle (figure 6), notamment sur des grappes de calculs de plus de 50 noeuds. Avec une grappe de 256 noeuds, l activation est 5 fois plus rapide en utilisant des communications hiérarchiques qu en utilisant des communications séquentielles. 5
6 FIG. 6 ColCOWS : mesure de performances de l activation d un workspace. 2.3 Intégration de PadicoTM dans EPSN PadicoTM, une plate-forme de communication pour grille PadicoTM [2] est une plate-forme de recherche développée pour permettre à un ensemble d intergiciels d utiliser un large éventail de réseaux et méthodes de communication. Elle est développée au sein du projet de recherche Runtime. PadicoTM offre un environnement qui résout les conflits d accès aux ressources (processeur, réseau) pour autoriser la cohabitation efficace de plusieurs exécutifs au sein d un même processus. Elle permet par exemple d utiliser conjointement CORBA et MPI sur des réseaux hautes performances. Son ambition est de pouvoir relier les ordinateurs composant les grilles de calcul à grandes échelles tout en tirant le meilleur parti des réseaux disponibles. Par exemple, elle offre l implémentation CORBA la plus rapide à ce jour. Sur des réseaux hautes performances de type Infiniband, OmniORB peut atteindre une vitesse de transfert de 600Mo/s et une latence d environ 10 microsecondes [5]. Intégrer PadicoTM à EPSN permettrait donc d améliorer la rapidité des communications de EPSN (figure 7) et d augmenter les possibilités de connections (figure 8). FIG. 7 Utilisation des réseaux hautes performances via PadicoTM. 6
7 FIG. 8 PadicoTM permet de franchir les pare-feux ColCOWS / PadicoTM (1 mois) Afin d intégrer PadicoTM dans EPSN, il faut d abord intégrer PadicoTM dans la bibliothèque ColCOWS qui est la couche la plus basse de EPSN. J ai intégré PadicoTM dans ColCOWS en un mois. Tous les programmes de tests de ColCOWS sont fonctionnels. Cependant un travail important reste à effectuer. PadicoTM est un programme complexe, nécessitant du temps pour être pris en main. La programmation dans un contexte parallèle est difficile, notamment lorsque l on utilise les réseaux rapides et que l on veut obtenir de bons résultats. Les tâches restant à réaliser : Des benchmarks de ColCOWS / PadicoTM sur une grappe de grande taille (supérieur à 100 noeuds) en utilisant les réseaux hautes performances. L intégration complète de PadicoTM dans toutes les couches de EPSN, avec une compilation et un lancement aisé de EPSN. Des benchmarks de chaque couche d EPSN. 2.4 Autre activité : administration de la grappe de visualisation Durant ce premier semestre, on m a proposé de prendre en charge l administration de la grappe de visualisation du projet EPSN. J ai notamment utilisé les outils d administration réseaux DHCP, DNS, NIS. Je suis maintenant l administrateur principal de la grappe. La grappe se composait initialement d un noeud frontal centralisant les informations, et de quatre noeuds de calcul permettant la visualisation. Au cours du mois d avril, sept nouvelles machines remplaçant les anciens noeuds de calculs sont arrivées. Nous avons alors installé Kadeploy [4] sur la frontale avec l aide de Pierre Lemoine (ingénieur associé Grid 5000). Kadeploy est utilisé sur Grid 5000, il permet de déployer rapidement un système d exploitation sur plusieurs noeuds de calcul. Kadeploy permet une gestion très souple de la grappe, et notamment, il peut sauvegarder le système d exploitation d une machine et le répliquer. Ceci est nécessaire car les utilisateurs de la grappe ont des besoins différents. Par exemple, certains ont besoin d un sytème RedHat version 4 car le logiciel propriétaire IBM, Deep Computing Visualization (DCV) ne fonctionne que sur cette version, d autres ont besoin d un système avec des bibliothèques plus récentes... et ceci en utilisant un nombre variable de noeuds. 3 Bilan Le bilan est très positif. Ma première mission est accomplie, nous avons pu faire fonctionner la plate-forme EPSN sur 128 processus, ce qui était impossible avant la refonte de ColCOWS. Ces premiers mois m ont beaucoup apporté, aussi bien d un point de vue relationnel que d un point de vue scientifique. Je me suis intégré à l équipe de ScAlApplix, ils m ont accordé beaucoup de temps et de sympathie. D un point de vue technique, j ai développé mes compétences en programmation, notamment dans le domaine 7
8 des grilles de calcul. J ai pu aussi apprendre à administrer une grappe d ordinateurs. Je souhaite donc vivement pouvoir poursuivre mes travaux au sein de l équipe ScAlApplix. Parmi les travaux restant à effectuer, l intégration de PadicoTM dans EPSN nécessite plusieurs mois de travail. De plus, nous avons prévu de soumettre un article dans une conférence expliquant les recherches effectuées sur ColCOWS. Références [1] ColCOWS. Collective CORBA Object WorkSpace. http ://colcows.sourceforge.net/. [2] A. Denis. Contribution à la conception d une plate-forme haute performance d intégration d exécutifs communicants pour la programmation des grilles de calcul. PhD thesis, Université de Rennes I, [3] A. Esnard. Analyse, conception et réalisation d un environnement pour le pilotage et la visualisation en ligne de simulations numériques parallèles. Informatique, Université de Bordeaux 1, décembre [4] Kadeploy. Deployment system for cluster and grid computing. http ://gforge.inria.fr/projects/kadeploy/. [5] PadicoTM. High Performance Runtime Systems for Parallel Architectures. http ://runtime.futurs.inria.fr/padicotm/. [6] RedGRID. Parallel Data Redistribution Library. http :// esnard/research/redgrid. 8
Runtime. Gestion de la réactivité des communications réseau. François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I
Runtime Gestion de la réactivité des communications réseau François Trahay Runtime, LaBRI sous la direction d'alexandre Denis Université Bordeaux I 1 Le calcul hautes performances La tendance actuelle
CORBA haute performance
CORBA haute performance «CORBA à 730Mb/s!» Alexandre DENIS PARIS/IRISA, Rennes [email protected] Plan Motivations : concept de grille de calcul CORBA : concepts fondamentaux Vers un ORB haute performance
Grid5000 aujourd'hui : Architecture & utilisation
1 Grid5000 aujourd'hui : Architecture & utilisation [email protected] 11 octobre 2005 Contexte 2 Grid5000 est : Une plateforme expérimentale pour le grid computing Ouverte à de nombreux thèmes de
HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM
4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés
MEAD : temps réel et tolérance aux pannes pour CORBA
MEAD : un intergiciel temps-réel et tolérant aux pannes pour CORBA Master 2 Informatique Recherche Université de Marne-la-Vallée Vendredi 3 mars 2006 Plan 1 Introduction 2 Solutions existantes 3 Concilier
PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN
PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,
4. Utilisation d un SGBD : le langage SQL. 5. Normalisation
Base de données S. Lèbre [email protected] Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :
Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. [email protected]. white-paper-cluster_fr.sxw, Version 74 Page 1
Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. [email protected] white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High
Notice d Utilisation du logiciel Finite Element Method Magnetics version 3.4 auteur: David Meeker
Notice d Utilisation du logiciel Finite Element Method Magnetics version 3.4 auteur: David Meeker DeCarvalho Adelino [email protected] septembre 2005 Table des matières 1 Introduction
Groupe Eyrolles, 2004 ISBN : 2-212-11504-0
Groupe Eyrolles, 2004 ISBN : 2-212-11504-0 Table des matières Avant-propos................................................ 1 Quel est l objectif de cet ouvrage?............................. 4 La structure
FICHE PRODUIT COREYE CACHE Architecture technique En bref Plateforme Clients Web Coreye Cache applicative Références Principe de fonctionnement
COREYE CACHE Solution d absorption de charge pour une disponibilité et une performance optimales des applications Web En bref Architecture technique La plateforme Coreye Cache délivre la majeure partie
Parallélisme et Répartition
Parallélisme et Répartition Master Info Françoise Baude Université de Nice Sophia-Antipolis UFR Sciences Département Informatique [email protected] web du cours : deptinfo.unice.fr/~baude Septembre 2009 Chapitre
Alcatel-Lucent VitalQIP Appliance Manager
Alcatel-Lucent Appliance Manager Solution complète de gestion des adresses IP et de bout en bout basée sur des appliances Rationalisez vos processus de gestion et réduisez vos coûts d administration avec
3A-IIC - Parallélisme & Grid GRID : Définitions. GRID : Définitions. Stéphane Vialle. [email protected] http://www.metz.supelec.
3A-IIC - Parallélisme & Grid Stéphane Vialle [email protected] http://www.metz.supelec.fr/~vialle Principes et Objectifs Evolution Leçons du passé Composition d une Grille Exemple d utilisation
Evaluation des performances de programmes parallèles haut niveau à base de squelettes
Evaluation des performances de programmes parallèles haut niveau à base de squelettes Enhancing the Performance Predictability of Grid Applications with Patterns and Process Algebras A. Benoit, M. Cole,
Architecture distribuée
Architecture distribuée Conception et développement d algorithmes distribués pour le moteur Baboukweb Jean-Christophe DALLEAU Département de Mathématiques et Informatique Université de La Réunion 26 juin
PLATEFORME DE SUPERVISION
PLATEFORME DE SUPERVISION ACCOR SOLUTIONS - Page 1/10 - PRESENTATION GENERALE SMART VE est une plateforme de supervision développée par Accor, spécifiquement dédiée aux infrastructures de recharge pour
NFS Maestro 8.0. Nouvelles fonctionnalités
NFS Maestro 8.0 Nouvelles fonctionnalités Copyright Hummingbird 2002 Page 1 of 10 Sommaire Sommaire... 2 Généralités... 3 Conformité à la section 508 de la Rehabilitation Act des Etats-Unis... 3 Certification
Introduction aux applications réparties
Introduction aux applications réparties Noël De Palma Projet SARDES INRIA Rhône-Alpes http://sardes.inrialpes.fr/~depalma [email protected] Applications réparties Def : Application s exécutant
FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Fiche Technique Windows Azure
Le 25/03/2013 OBJECTIF VIRTUALISATION [email protected] EXAKIS NANTES Identification du document Titre Projet Date de création Date de modification Fiche Technique Objectif 25/03/2013 27/03/2013 Windows
Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration
Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...
FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Perspectives pour l entreprise. Desktop Cloud. JC Devos IBM IT Architect [email protected]. 2010 IBM Corporation
Perspectives pour l entreprise Desktop Cloud JC Devos IBM IT Architect [email protected] Principe technique Disposer d un poste de travail virtuel accessible par la plupart des terminaux disponibles Ce
WEB15 IBM Software for Business Process Management. un offre complète et modulaire. Alain DARMON consultant avant-vente BPM [email protected].
WEB15 IBM Software for Business Process Management un offre complète et modulaire Alain DARMON consultant avant-vente BPM [email protected] Claude Perrin ECM Client Technical Professional Manager
Architecture réseaux Nouveau schéma directeur
Architecture réseaux Nouveau schéma directeur Restitution suite à l étude de faisabilité de refonte d architecture réseaux et évolution du SI réalisée par Architecture réseaux Nouveau schéma directeur
Guide d administration de Microsoft Exchange ActiveSync
Guide d administration de Microsoft Exchange ActiveSync Copyright 2005 palmone, Inc. Tous droits réservés. palmone, HotSync, Treo, VersaMail et Palm OS sont des marques commerciales ou déposées dont palmone,
CAHIER DES CHARGES D IMPLANTATION
CAHIER DES CHARGES D IMPLANTATION Tableau de diffusion du document Document : Cahier des Charges d Implantation EVRP Version 6 Etabli par DCSI Vérifié par Validé par Destinataires Pour information Création
Rapport de stage. Développement d un logiciel de vidéoconférence : Enjeux 3. Guillaume DOTT 2009
Rapport de stage Développement d un logiciel de vidéoconférence : Enjeux 3 Guillaume DOTT 2009 Maître de stage : Louis Poulette Tutrice : Marie-Paule Muller Remerciements Je tiens à remercier toute l équipe
WEA Un Gérant d'objets Persistants pour des environnements distribués
Thèse de Doctorat de l'université P & M Curie WEA Un Gérant d'objets Persistants pour des environnements distribués Didier Donsez Université Pierre et Marie Curie Paris VI Laboratoire de Méthodologie et
Conception des systèmes répartis
Conception des systèmes répartis Principes et concepts Gérard Padiou Département Informatique et Mathématiques appliquées ENSEEIHT Octobre 2012 Gérard Padiou Conception des systèmes répartis 1 / 37 plan
Contributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale
D2.2 Définition des mécanismes minimaux d un runtime tolérant aux pannes dans les infrastructures Petascale VERSION 1.0 DATE 2010 EDITORIAL MANAGER Sylvain Peyronnet AUTHORS STAFF Ala Rezmerita, Camille
Communications performantes par passage de message entre machines virtuelles co-hébergées
Communications performantes par passage de message entre machines virtuelles co-hébergées François Diakhaté1,2 1 CEA/DAM Île de France 2 INRIA Bordeaux Sud Ouest, équipe RUNTIME Renpar 2009 1 Plan Introduction
Rencontre sur la thématique du Calcul Haute Performance - 13 juin 2012. Better Match, Faster Innovation
Better Match, Faster Innovation Rencontre sur la thématique du Calcul Haute Performance - 13 juin 2012 Meeting on the theme of High Performance Computing TABLE DES MATIÈRES Qu est ce qu un imatch? STI
Méthode de Test. Pour WIKIROUTE. Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel.
Méthode de Test Pour WIKIROUTE Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel. [Tapez le nom de l'auteur] 10/06/2009 Sommaire I. Introduction...
Etude d architecture de consolidation et virtualisation
BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.
Comment gérer toutes mes tâches logicielles d automatisation dans un seul environnement?
Comment gérer toutes mes tâches logicielles d automatisation dans un seul environnement? Avec Totally Integrated Automation Portal : un seul environnement de développement intégré pour toutes vos tâches
Prise en compte des ressources dans les composants logiciels parallèles
Prise en compte des ressources dans les composants logiciels parallèles Aperçus de l action RASC et du projet Concerto F. Guidec [email protected] Action RASC Plan de cet exposé Contexte Motivations
Introduction à LDAP et à Active Directory... 15. Étude de cas... 37
Introduction à LDAP et à Active Directory... 15 Généralité sur l annuaire et LDAP... 16 Qu est-ce qu un annuaire?... 16 Un peu d histoire sur le protocole... 16 LDAP version 2 et version 3... 17 Le standard
Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau
: Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau Nicolas Niclausse - INRIA Sophia Antipolis Méditerranée - projet Aladdin Grid 5000 2 juillet
25/08/2013. Vue Nagios. Vue Nagios. Le réseau du lycée
Le réseau du lycée 1. Mise en évidence de la complexité du réseau Le réseau vu par les utilisateurs Le réseau vu par le technicien 2. «Architecture matérielle» du réseau Topologie Le switch, élément central
Windows Server 2012 Administration avancée
Introduction 1. Introduction 13 2. Les différentes éditions de Windows Server 2012 13 3. Les grands axes de Windows Server 2012 15 3.1 Un meilleur contrôle de l information 15 3.2 Une meilleure protection
FOIRE AUX QUESTIONS ACT! 2009
FOIRE AUX QUESTIONS ACT! 2009 Informations générales sur ACT! 1. Quelles sont les principales fonctionnalités d ACT!? - Gérer tous vos contacts et vos clients en toute simplicité - Communiquer avec vos
XML, PMML, SOAP. Rapport. EPITA SCIA Promo 2004 16 janvier 2003. Julien Lemoine Alexandre Thibault Nicolas Wiest-Million
XML, PMML, SOAP Rapport EPITA SCIA Promo 2004 16 janvier 2003 Julien Lemoine Alexandre Thibault Nicolas Wiest-Million i TABLE DES MATIÈRES Table des matières 1 XML 1 1.1 Présentation de XML.................................
VMWare Infrastructure 3
Ingénieurs 2000 Filière Informatique et réseaux Université de Marne-la-Vallée VMWare Infrastructure 3 Exposé système et nouvelles technologies réseau. Christophe KELLER Sommaire Sommaire... 2 Introduction...
Spécialiste Systèmes et Réseaux
page 1/5 Titre professionnel : «Technicien(ne) Supérieur(e) en Réseaux Informatiques et Télécommunications» inscrit au RNCP de niveau III (Bac + 2) (J.O. du 19/02/2013) 24 semaines + 8 semaines de stage
Cahier des charges (CDC)
Cahier des charges (CDC) PTella Auteur Arnaud Aucher - Ecole Centrale Groupe PT1 3 Nom du document Version 3 Page 1 / 5 Sommaire Sommaire... 2 Présentation générale du projet... 3 1. Descriptif du projet...
Initiation au HPC - Généralités
Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours
Les environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
SoMachine. Solution logicielle pour votre architecture Machine Atelier de découverte. SoMachine
Solution logicielle pour votre architecture Machine Atelier de découverte SoMachine Objectif de la manipulation Le programme à réaliser va permettre de gérer le remplissage et la vidange d une cuve en
TP redondance DHCP. Gillard Frédéric Page 1/17. Vue d ensemble du basculement DHCP
Vue d ensemble du basculement DHCP Dans Windows Server 2008 R2, il existe deux options à haute disponibilité dans le cadre du déploiement du serveur DHCP. Chacune de ces options est liée à certains défis.
Gestion de clusters de calcul avec Rocks
Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse [email protected] 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte
UE 8 Systèmes d information de gestion Le programme
UE 8 Systèmes d information de gestion Le programme Légende : Modifications de l arrêté du 8 mars 2010 Suppressions de l arrêté du 8 mars 2010 Partie inchangée par rapport au programme antérieur Indications
IRL : Simulation distribuée pour les systèmes embarqués
IRL : Simulation distribuée pour les systèmes embarqués Yassine El Khadiri, 2 ème année Ensimag, Grenoble INP Matthieu Moy, Verimag Denis Becker, Verimag 19 mai 2015 1 Table des matières 1 MPI et la sérialisation
Tour des Unités du C.I.A.M. Tour des Unités du C.I.A.M. Maurice Baudry Laboratoire Statistique & Génome, Évry.
Tour des Unités du C.I.A.M. Maurice Baudry Laboratoire Statistique & Génome, Évry. 1 La cellule informatique : - Christophe Ambroise (PR UEVE) - Gilles Grasseau (IR CNRS) - Maurice Baudry (AI INRA) 2 Moi...
Évaluation et implémentation des langages
Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation
Augmenter la disponibilité des applications JEE grâce au clustering : Le projet open source JShaft
Augmenter la disponibilité des applications JEE grâce au clustering : Le projet open source Jérôme Petit, Serge Petit & Serli Informatique, ITMatic Jérôme Petit, Serge Petit & SERLI & ITMatic Serli : SSII
Projet de développement
Projet de développement Introduction à Eclipse Philippe Collet Licence 3 MIAGE S6 2012-2013 http://miageprojet2.unice.fr/index.php?title=user:philippecollet/projet_de_développement_2012-2013 Plan r Application
Bonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX
Bonjour I.Le contexte II.Le cloud computing III.L'expérimentation des solutions libres sur Grid'5000 1.Eucalyptus 2.OpenNebula 3.OpenStack IV.Tableau Comparatif V.Conclusion I.Le contexte 1)Le projet
Portage d applications sur le Cloud IaaS Portage d application
s sur le Cloud IaaS Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire AstroParticule et Cosmologie (APC), LabEx UnivEarthS APC, Univ. Paris Diderot, CNRS/IN2P3,
CNAM 2010-2011. Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010
CNAM 2010-2011 Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010 Déploiement d une application dans le cloud. 1. Cloud Computing en 2010 2. Offre EC2
PRODIGUER un noeud français de distribution de données GIEC/IPCC
PRODIGUER un noeud français de distribution de données GIEC/IPCC Sébastien Denvil et Olivier Marti Pôle de Modélisation, IPSL Prodiguer - Mercredi 18 juin 2008 1 Le contexte : le compte à rebours du rapport
Fonctions Informatiques et Supports Opérationnels
Fonctions Informatiques et Supports Opérationnels Nos métiers par activité Nos métiers de l informatique comprennent d une part un volet études et d autre part la gestion des infrastructures ; les fonctions
Initiation aux bases de données (SGBD) Walter RUDAMETKIN
Initiation aux bases de données (SGBD) Walter RUDAMETKIN Bureau F011 [email protected] Moi Je suis étranger J'ai un accent Je me trompe beaucoup en français (et en info, et en math, et...)
Introduction à la Programmation Parallèle: MPI
Introduction à la Programmation Parallèle: MPI Frédéric Gava et Gaétan Hains L.A.C.L Laboratoire d Algorithmique, Complexité et Logique Cours du M2 SSI option PSSR Plan 1 Modèle de programmation 2 3 4
Mise en place d un cluster. De basculement. Et DHCP Failover. Installation. Préparation. Vérification
Mise en place d un cluster De basculement Et DHCP Failover Valentin Banse Thomas Haën-Boucher Thomas Bichon Présentation Installation Préparation B T S S I O 2 2 / 0 4 / 2 0 1 4 Configuration Vérification
Travaux Pratiques sur GRID 5000
Travaux Pratiques sur GRID 5000 réalisés par Alexandru Tantar, Bilel Derbel, Nouredine Melab Université des Sciences et Technologies de Lille (USTL/IEEEA), Laboratoire d Informatique Fondamentale de Lille
1 Architecture du cœur ARM Cortex M3. Le cœur ARM Cortex M3 sera présenté en classe à partir des éléments suivants :
GIF-3002 SMI et Architecture du microprocesseur Ce cours discute de l impact du design du microprocesseur sur le système entier. Il présente d abord l architecture du cœur ARM Cortex M3. Ensuite, le cours
Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace
1 Réseau longue distance et application distribuée dans les grilles de calcul : étude et propositions pour une interaction efficace Réseau longue distance et application distribuée dans les grilles de
Exercices Active Directory (Correction)
Exercices Active Directory (Correction) Exercice : Scénarios pour l'implémentation de composants logiques AD DS Lire les scénarios suivants et déterminer les composants logiques AD DS à déployer dans chaque
Présentation du module Base de données spatio-temporelles
Présentation du module Base de données spatio-temporelles S. Lèbre [email protected] Université de Strasbourg, département d informatique. Partie 1 : Notion de bases de données (12,5h ) Enjeux et principes
Windows Internet Name Service (WINS)
Windows Internet Name Service (WINS) WINDOWS INTERNET NAME SERVICE (WINS)...2 1.) Introduction au Service de nom Internet Windows (WINS)...2 1.1) Les Noms NetBIOS...2 1.2) Le processus de résolution WINS...2
Systèmes répartis. Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine. Systèmes répartis p.1/49
Systèmes répartis Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine Systèmes répartis p.1/49 Systèmes répartis Définition très large : un système réparti est système informatique
Sauvegarde des données au LAAS
Sauvegarde des données au LAAS Laurent Blain, LAAS-CNRS 1 Configuration Technique 1 Serveur de sauvegarde connecté à une bibliothèque de bandes 1 bibliothèque Qualstar 88132 3 lecteurs LTO-2 100 bandes
Note d application: Les différentes topologies de réseaux de capteurs sans fil
: Les différentes capteurs NA_002R1.1 Réf : 5827_0000 Date de publication : 23/03/2009 Modèle : SES_V120 Page : 1 / DOCUMENT N Document Version 1.1 Référence externe Date de publication Auteur JONATHAN
Communiqué de lancement Paie 100 pour SQL Server
Communiqué de lancement Paie 100 pour SQL Server Sage complète son offre Ligne 100 SGBDR en proposant aujourd hui Paie 100 pour SQL Server, version 11.01. Paie 100 pour SQL Server permet de répondre à
INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE
I N T E RS Y S T E M S INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE David Kaaret InterSystems Corporation INTERSySTEMS CAChé CoMME ALTERNATIvE AUx BASES de données RéSIdENTES
Qu est-ce que ArcGIS?
2 Qu est-ce que ArcGIS? LE SIG ÉVOLUE Depuis de nombreuses années, la technologie SIG améliore la communication, la collaboration et la prise de décision, la gestion des ressources et des infrastructures,
Cours Bases de données
Informations sur le cours Cours Bases de données 9 (10) séances de 3h Polycopié (Cours + TD/TP) 3 année (MISI) Antoine Cornuéjols www.lri.fr/~antoine [email protected] Transparents Disponibles
L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i n f r a m e, un b e s o i n c r u c i a l
Siège social : 5 Speen Street Framingham, MA 01701, É.-U. T.508.872.8200 F.508.935.4015 www.idc.com L I V R E B L A N C P r o t ég e r l e s a p p l i c a t i o n s m ét i e r s c r i t i q u e s M a i
«clustering» et «load balancing» avec Zope et ZEO
IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4
Windows Server 2012 R2 Administration avancée - 2 Tomes
Introduction 1. Introduction 17 2. Les différentes éditions de Windows Server 2012/2012 R2 18 3. Les grands axes de Windows Server 2012 R2 19 3.1 Un meilleur contrôle de l information 19 3.2 Une meilleure
Plan du cours. Autres modèles pour les applications réparties Introduction. Mode de travail. Introduction
Plan du cours Autres modèles pour les applications réparties Introduction [email protected] http://rangiroa.polytech.unice.fr Notre terrain de jeu : les systèmes répartis Un rappel : le modèle dominant
Chapitre 1 Windows Server 2008 11
Chapitre 1 Windows Server 2008 11 1.1. Les fondations du système... 15 1.2. La virtualisation... 16 1.3. La sécurité... 18 1.4. Le Web... 20 1.5. Fonctionnalité disponible dans Windows Server 2008... 21
Projet Active Object
Projet Active Object TAO Livrable de conception et validation Romain GAIDIER Enseignant : M. Noël PLOUZEAU, ISTIC / IRISA Pierre-François LEFRANC Master 2 Informatique parcours MIAGE Méthodes Informatiques
DSI - Pôle Infrastructures
Département du Système d Information CONTEXTE DSI - Pôle Infrastructures SUJET Architecture cible pour un projet devant intégrer le SI de l'inserm référence PI01091V02V.doc version statut créé le 29/06/2006
Cluster High Availability. Holger Hennig, HA-Cluster Specialist
Cluster High Availability Holger Hennig, HA-Cluster Specialist TABLE DES MATIÈRES 1. RÉSUMÉ...3 2. INTRODUCTION...4 2.1 GÉNÉRALITÉS...4 2.2 LE CONCEPT DES CLUSTERS HA...4 2.3 AVANTAGES D UNE SOLUTION DE
Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair
Architecture d un service de partage de données modifiables sur une infrastructure pair-à-pair Mathieu Jan [email protected] Superviseurs : Gabriel Antoniu, Luc Bougé, Thierry Priol {Gabriel.Antoniu,Luc.Bouge,Thierry.Priol}@irisa.fr
CRM PERFORMANCE CONTACT
CRM PERFORMANCE CONTACT PREMIUM 3ème génération Un concentré de haute technologie pour augmenter de 30 % vos rendez-vous Le Vinci, 2 place Alexandre Farnèse 84000 Avignon Tél : + 33 (0)4 90 13 15 88 Télécopie
Conseils et astuces pour un déploiement réussi de la solution VMware Mirage
Conseils et astuces pour un déploiement réussi de la solution VMware Mirage Entrez le nom de l animateur ici 2014 VMware Inc. Tous droits réservés. Sommaire 1 Qu est-ce que VMware Mirage? 2 Quelles sont
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper
