Projet Tuteure : Configuration automatique d un cluster de calcul avec Puppet

Dimension: px
Commencer à balayer dès la page:

Download "Projet Tuteure : Configuration automatique d un cluster de calcul avec Puppet"

Transcription

1 Projet Tuteure : Configuration automatique d un cluster de calcul avec Puppet Andre Dimitri Quentin Dexheimer Riwan Blonde 26 mars 2012

2 Table des matières Remerciements Introduction au Projet Tuteuré Le Grid Présentation du Grid Les outils du Grid OAR Kadeploy Taktuk KaVLAN Les autres outils Puppet Labs Introduction à Puppet Qu est ce que Puppet Labs? Contexte d utilisation Fonction principale Commencer avec Puppet Installation Configuration Synchronisation Manifests Qu est ce qu un manifest? Ressources Modules Qu est ce qu un module? Structure d un module Exemple concret de module : MySQL Complément à Puppet Puppet Dashboard Scripts et modules développés Les Scripts Script de réservation Script d installation Le script de configuration du serveur Le script de configuration des clients Les modules Puppet Les modules OAR

3 TABLE DES MATIÈRES Le module Kadeploy Le module Dashboard Les autres modules Conclusion et Bibliographie 28 Conclusion Bibliographie Annexes 30 Les Scripts Reserv.sh tunnel.sh clients config.sh master config.sh install.sh Les Modules Puppet Module apache Module NFS Module DHCP Module Dashboard Module DNS Module MySQL Module Kadeploy Module Oar-base Module Oar-server Module Oar-frontend

4 Nous aimerions remercier Monsieur Lucas Nussbaum et le LORIA de nous avoir permis d utiliser le GRID 5000 et particulièrement Monsieur Sébastien Badia, notre tuteur de projet, pour sa gentillesse et sa disponibilité.

5 Introduction au Projet Tuteuré Notre projet tuteuré, dans le cadre de la Licence Professionnelle ASRALL, concerne la Configuration Automatique d un Cluster de Calcul avec Puppet. Ce projet nous a été proposé par Lucas Nussbaum et Sébastien Badia du LORIA, Laboratoire LOrrain de Recherche en Informatique et ses Applications, Unité Mixte de Recherche (UMR 7503), commune à plusieurs établissements, le CNRS, l Université de Lorraine et l INRIA. Le département Réseaux, Systèmes et Services, du LORIA s attache aux problèmes issus des systèmes distribués et parallèles ainsi que sur la capacité qu ils ont, à une echelle jusque là inconnue, à travailler, gérer et calculer en toute transparence. L objectif de ce projet est de réaliser une série de modules Puppet permettant de configurer un cluster de calcul, les tests et validations des développements se faisant sur la plateforme GRID Pour notre travail nous nous sommes en premier intéressés au GRID 5000 que nous présentons dans le premier chapitre de ce rapport. La compréhension, la prise en main et l utilisation de Puppet Lab, logiciel open source comportant les outils nécessaires à la configuration des systèmes informatiques, fait l objet du deuxième chapitre. Nous présenterons ensuite les différents développements que nous avons été amenés à réaliser avant de conclure sur les résultats obtenus, les difficultés rencontrées et les travaux restant à faire.

6 Chapitre 1 Le Grid Présentation du Grid 5000 Le Grid 5000 est une grille informatique ou grille de calcul 1 destinée à la recherche scientifique. Cette plateforme fait partie de l action de développement technique Aladin. Elle a vu le jour en 2003 et a pour but de promouvoir la recherche sur les grilles informatiques en France. Le Grid 5000 est aujourd hui composé de 1540 noeuds répartis sur 11 sites différents situés en France et au Luxembourg et interconnectés avec le Réseau National de Télécommunications pour la Technologie l Enseignement et la Recherche (RENATER). L objectif du Grid 5000 est de permettre aux scientifiques d effectuer des expériences dans le domaine des systèmes informatiques et des réseaux distribués dans un environnement hétérogène aussi proche de la réalite que possible. Figure 1.1 Localisation des différents sites du Grid Grille de calcul infrastructure logicielle et matérielle qui procure à un utilisateur final un accès à des capacités de calcul et de stockage de masse hautement distribuées. 5

7 CHAPITRE 1. LE GRID 5000 Le Grid 5000 est composé de plusieurs sites distincts, où l organisation est la même. Chaque site est composé d un ou plusieurs clusters 2. Par exemple, le site de Nancy héberge deux clusters nommés Griffon et Graphene. Cependant, tous les sites ne disposent pas du même nombre de machine : Bordeaux Grenoble Lille Luxembourg Lyon Nancy Orsay Reims Rennes Sophia Toulouse Total De plus, tous les sites ne proposent pas les mêmes services. Par exemple, le service Kavlan n est disponible que sur 5 des 11 sites : Lille, Lyon, Nancy, Rennes, Sophia A l intérieur de chaque cluster se trouvent des ordinateurs appelés nodes ou noeuds. Il en existe deux types, les noeuds de service et les noeuds de travail : Les noeuds de service servent à l administration des machines situées dans les clusters et à l accès aux hôtes virtuels pour les administrateurs. Les machines de service sont communes aux différents clusters situés sur les sites. Certains noeuds de service appelés frontend sont utilisés par les utilisateurs pour accéder aux différents sites via le protocole ssh, la réservation de noeuds et le déploiement. Les noeuds dit de travail sont les ordinateurs où sont effectuées les expériences. L administration de la plateforme est centralisée et est assurée par 8 personnes, certaines y sont affectées à plein temps d autres non. 1.2 Les outils du Grid 5000 Le Grid 5000 est composé de plusieurs services. Une partie de ces services a été développé uniquement pour cette plateforme comme par exemple Kadeploy qui a été développé par l INRIA Nancy - Grand Est. D autres sont des services standard déjà utilisés sur les systèmes Unix. 2. Cluster, ensemble de machines homogènes 6

8 CHAPITRE 1. LE GRID 5000 Figure 1.2 Un des clusters de Nancy : Griffon OAR2 OAR est un gestionnaire de ressources pour de grandes grilles informatiques. Il est e crit en PERL et s appuie sur une base SQL (PostgreSQL ou MySQL). OAR permet le de ploiement, la re servation et le management des noeuds et des jobs 3. Figure 1.3 Le logo du projet OAR Les principales fonctionnalite s d OAR sont les suivantes : Soumission : Le syste me de cide du moment ou votre travail commence afin d optimiser l ordonnancement global de la plateforme. S il n y a pas de noeud disponible, le travail est mis en attente. (correspond a oarsub -I ou oarsub scriptname ) Re servation pre alable : On de cide quand le travail doit commencer, les ressources devant e tre disponibles a la date spe cifie e. Si les ressources demande es sont disponibles au moment du de but du job, la re servation s effectue, sinon la re servation e choue et il faut alors modifier les parame tres de la re servation. (correspond a oarsub -r date ou oarsub-r Date scriptname) Mode inte ractif : On n exe cute pas de script lors de la soumission ou lors de la re servation mais on choisit de travailler de fac on inte ractive. (correspond a oarsub-i pour la soumission ou oarsub -r jour et oarsub -C jobid pour la re servation) 3. un job correspond a une ta che affecte e a une re servation 7

9 CHAPITRE 1. LE GRID 5000 Mode passif : On choisit d exécuter directement un script sur les noeuds réservés. Il n est alors pas obligatoire de se connecter sur les noeuds mais cela est toujours possible en utilisant oarsub -C jobid). (correspond à oarsub scriptname pour la soumission ou oarsub -r date scriptname pour la réservation) Types de job possible : défaut : on utilise juste l environnement par défaut des noeuds. déploiement : on déploie un système d exploitation défini lors de la réservation. Cette méthode utilise l outil Kadeploy. Il existe un autre type de job, destiné aux utilisateurs avancés Kadeploy Kadeploy est un outil qui permet le déploiement des différents systèmes d exploitation sur les noeuds de la plateforme. Il permet aussi de configurer les noeuds, de les cloner et de les manager. Il permet le déploiement des systèmes d exploitation : Linux, BSD, Windows et Solaris. Kadeploy3 est composé de 8 outils : Figure 1.4 Le logo du projet Kadeploy kadeploy client : l interface utilisateur pour Kadeploy, kaenv : fournit les informations concernant l environnement des noeuds, kareboot : permet de redémarrer les noeuds et de définir les paramètres à utiliser lors du redémarrage, kastat : affiche les performances des noeuds, kaconsole : ouvre une console sur un noeud distant, kanodes : donne des informations sur les noeuds, kapower : permet d allumer et d éteindre des noeuds et de connaître le statut des noeuds (allumé/éteint), karights : modifie les droits des utilisateurs sur les noeuds. 8

10 CHAPITRE 1. LE GRID Taktuk Figure 1.5 Le logo du projet TakTuk TakTuk est un outil complémentaire à OAR2. TakTuk autorise l exécution de commandes à distance sur un grand nombre de noeuds hétérogènes. Il met en place une liaison entre le frontend et les noeuds concernés par la commande et s adapte à l environnement de la machine. Exemple d une commande TakTuk : taktuk -l root -s -f OAR_FILE_NODES broadcast exec [ apt-get update ] L option -l permet d utiliser le compte root pour l installation. L option -s installe Taktuk sur la machine s il ne l est pas déjà. L option -m déploie sur une seule machine tandis que l option -f permet de déployer sur toutes les machines listées dans un fichier. Cette commande permet donc de déployer les paquets puppet, facter et puppetmaster sur les machines définies dans le fichier OAR FILE NODES KaVLAN KaVLAN est un outil qui permet la mise en place d un VLAN sur des noeuds du Grid5000. Plusieurs types de VLAN sont possibles : local, router et global. KaVLAN peut être utilisé en complément de Kadeploy et de OAR pour certains types d expérimentation. Un KaVLAN local est un VLAN complètement isolé du reste de la plateforme Grid5000. Il est alors obligatoire d utiliser une passerelle pour accéder aux noeuds se trouvant à l intérieur de VLAN. Un KaVLAN router permet l accès à tous les noeuds du VLAN depuis le reste du Grid5000 sans utiliser de passerelle. Un KaVLAN global est un VLAN qui est disponible sur tous les sites du Grid5000. Un routeur est alors configuré sur le site où le VLAN a été configuré. La commande suivante réserve un nombre donné, ici 10, de noeuds en utilisant un VLAN local : oarsub -I -t deploy -l {"type= kavlan-local "}/vlan=1+/nodes=10,walltime=1:30:00 9

11 CHAPITRE 1. LE GRID 5000 Kavlan dispose d autres commandes utiles. Par example, la commande donnant la liste des machines qui se trouvent à l intérieur d un VLAN pour un job donné : kavlan -V -j JOBID Celle qui permet d activer le dhcp interne a KaVLAN est : kavlan -e La commande qui permet de désactiver le dhcp est : kavlan -d Les autres outils Le Grid5000 utilise pour son fonctionnement d autres outils : une base de données MySQL. Cette base de données est utilisée par Kadeploy et OAR. un serveur DNS (Domaine Name Server) qui permet de faire la correspondance entre les adresses ip et les noms de domaine. un serveur DHCP (Dynamic Host Configuration Protocol) pour la configuration automatique des paramètres IP des machines. un serveur NFS (Network File System) pour permettre aux utilisateurs de stocker des informations dans leur /home sur les différents sites. des outils de supervision : Nagios : surveille les hôtes et services spécifiés, avec des alertes en cas de problème. Ganglia : permet de superviser des clusters et des grilles informatiques. Munin : présente les résultats sous forme de graphiques disponibles via une interface web. Cacti : mesure les performances réseau et serveur. un serveur weathermap : qui visualise le réseau sous forme d une carte. un serveur syslog : qui collecte les événements et crée les journaux correspondants. un annuaire LDAP ( Lightweight Directory Access Protocol). un serveur web Apache. un serveur Squid : un proxy/proxy reverse. un serveur NAT (Network Address Translation) : pour faire correspondre une seule adresse externe publique visible sur Internet à toutes les adresses d un réseau privé. un serveur mail. un dépôt de paquets et de logiciels. API Rest g5k : utilisé par KaVLAN, Kadeploy et UMS (User Management System). Il permet d utiliser toutes les fonctions du Grid 5000 et de les automatiser. une infrastructure de virtualisation XEN comportant de 2 a 5 dom0 et environ 30 domu avec un service par domu. 10

12 Chapitre 2 Puppet Labs 2.1 Introduction à Puppet Qu est ce que Puppet Labs? Puppet est un logiciel open source comportant les outils nécessaires à la configuration de systèmes informatiques. Il est basé sur le langage de programmation Ruby, et est sous licence GPL v2. Puppet a principalement été développé par Luke Kanies et son entreprise Puppet Labs. Kanies a développé puppet grâce à son expérience dans les systèmes Unix et les systèmes d administration depuis Non satisfait des outils de configuration existants, il a commencé à travailler avec des outils de développement en 2001, et a fondé Puppet Labs en 2005, une entreprise de développement open source basée sur les outils d automatisation. Peu de temps après, Puppet Labs sort son nouveau produit phare : Puppet. Il peut être utilisé pour gérer la configuration d application sous Unix et OSX, ainsi que Linux et Windows depuis peu de temps. Figure 2.1 Principe d utilisation de Puppet 11

13 CHAPITRE 2. PUPPET LABS Son modèle est basé sur 3 piliers : Le déploiement Un langage de configuration et une couche d abstraction Sa couche transactionnelle Contexte d utilisation La gestion au quotidien des configurations systèmes et applicatives d une entreprise représente un travail très fastidieux. Puppet simplifie grandement la vie des administrateurs : plus de contrôles et d interventions à réaliser régulièrement. Puppet se charge d imposer sur les machines des utilisateurs les configurations modèles définies par l administrateur. Puppet est un outil de déploiement et de gestion centralisée de configurations pour les environnements Linux, Unix et Windows ; les machines gérées pouvant être physiques ou virtualisées Fonction principale Puppet est un outil de déploiement et de gestion automatisés de configurations et de systèmes informatiques (serveurs, postes de travail..). Il repose sur un modèle client/serveur : un serveur central sert de dépôt de configurations, les systèmes clients (nœuds) se mettant à jour de manière manuelle ou automatique. Avec Puppet, l administrateur n écrit pas un ensemble d opérations à exécuter sur les différents nœuds sous la forme d un script, l administrateur décrit l état final de la machine dans un Manifest, ce qui l affranchit de la connaissance des commandes propres à chaque système d exploitation pour arriver à cet état. Le client Puppet peut être exécuté plusieurs fois, les changements seront opérés seulement si l état de la machine ne correspond pas à celui désiré. Figure 2.2 Fonction principale de Puppet Deploiement Puppet est habituellement déployé sur un simple modèle client/serveur. Le serveur est appelé Puppet Master, le logiciel client est appelé un agent, et l hôte lui-même ainsi que les agents sont définit comme des noeuds. Le Master s exécute comme un 12

14 CHAPITRE 2. PUPPET LABS démon sur un hôte et contient la configuration requise pour l environnement. Les agents se connectent au Master via une connexion cryptée qui utilise le standard SSL. Il est important de préciser que si l agent a déjà la configuration requise, puppet ne fera rien. Cela signifie que puppet appliquera seulement les changements sur l environnement s ils sont nécessaires. L ensemble de ces processus est appelé une exeécution de configuration. Par défaut, l agent puppet vérifie toutes les 30 minutes le Master afin de voir si des modifications doivent êtres effectuées. Cet interval de temps est bien sûr paramétrable. Configuration Lang/Rsrc Puppet utilise son propre langage de déclaration pour définir les points de configuration qui sont écrits dans une Ressource. Ce qui permet de distinguer puppet de beaucoup d autres outils de configuration. Ce langage permet de déclarer si un package doit être installé ou si un service doit être lancé par exemple. La plupart des outils de configuration (scripts shell ou pearl par exemple) sont procéduraux. Ils décrivent comment les choses doivent êtres faites plutôt que de se focaliser sur l état final attendu. Les utilisateurs de puppet ont juste besoin de déclarer l état final voulu de ses hôtes : les packages à installer, les services à executer etc. Avec puppet, l administrateur système n attache pas d importance sur comment ces actions vont être faites. Transaction Layer Le moteur de puppet est sa couche transactionnelle. Une transaction puppet : Interprète et compile la configuration, Communique la configuration compilée à l agent, Applique la configuration sur l agent, Rapporte le résultat de cette application au Master. La 1ère étape de puppet est d analyser la configuration et de calculer comment l appliquer sur l agent. Pour cela, puppet crée un graphique représentant toutes les ressources, ainsi que leurs relations entre elles et chaque agents. Puis puppet applique chaque ressource sur un hôte. Ce qui en fait une des caracteristiques les plus puissantes de puppet. Ensuite puppet se sert des ressources et les compile dans un catalogue pour chaque agent. Le catalogue est envoyé à l hôte et appliqué par l agent puppet. Les résultats de cette application sont renvoyés au Master sous forme de rapport. La couche transactionnelle permet aux configurations d être créées et appliquées indéfiniment sur un hôte. Ceci est appelé idempotent, cela signifie que de multiples applications de la même opération donneront le même résultat. Une configuration de puppet peut être 13

15 CHAPITRE 2. PUPPET LABS exécutée plusieurs fois sur un hôte en toute sécurité avec le même résultat, assurant ainsi à la configuration de rester compatible. 2.2 Commencer avec Puppet Installation Nous allons à present passer à l installation de Puppet sur une machine serveur et sur une machine cliente. Nous utiliserons le système d exploitation Debian Squeeze, puisque c est celui que nous utiliserons plus tard lors du travail effectué. Cependant, il faut savoir que Puppet est disponible sur toutes les distributions Linux et Unix (OpenSolaris, BSD, RedHat, Debian et Ubuntu) ainsi que sur Windows Server Côté Serveur Les pré-requis pour installer Puppet sont les packages ruby et libshadow-ruby1.8. Nous allons utiliser le package Puppetmaster disponible dans l APT, nous n aurons donc pas à devoir gérer les dépendances liées à l utilisation de Puppet. Ainsi pour installer Puppet, nous entrons la commande suivante : sudo apt-get install puppet puppetmaster facter En installant le paquet Puppet sur la machine serveur, nous lui permettons de s autogérer. Pour les machines clientes, il suffit d installer les mêmes paquets à l exception du Puppetmaster. Les packages installés Liste des différents paquets installés et leurs utilités : Package puppet : Ce paquet contient le script de démarrage et les scripts de compatibilité pour l agent puppet, qui est le processus responsable de la configuration du nœud local. Package puppetmaster : Ce paquet contient le script de démarrage et les scripts de compatibilité pour le processus maître puppet, qui est le serveur hébergeant les manifests et les fichiers pour les nœuds puppet. Package facter : Bibliothèque dite cross-plateform, qui permet de collecter des informations sur le système. Particulièrement utile dans la collecte d un nom de système, d adresses IP et/ou MAC, clés SSH. 14

16 CHAPITRE 2. PUPPET LABS Configuration Côté Serveur Pour configurer le serveur, il faudra éditer le fichier de configuration puppet.conf, ainsi que le fichier de hosts : 1. Dans le fichier /etc/puppet/puppet.conf, on y ajoute les lignes suivantes : 1 s e r v e r=nom machine serveur 2 [ master ] 3 certname=nom machin serveur L option serveur= permet d indiquer à l agent Puppetd quelle est la machine serveur. On la rajoute pour lui permettre de s auto-gérer. L option certname= définie le nom de la machine serveur au Puppetmasterd. 2. Dans le deuxième fichier, /etc/hosts, on y ajoute les adresses IP des machines clientes ainsi que sa propre adresse : Par exemple : l o c a l h o s t x. x puppet. ptut grid5000. lan puppetmaster x. x dns. ptut grid5000. lan dns x. x dhcp. ptut grid5000. lan dhcp 5... Côté Client Comme pour le serveur il faudra éditer les fichiers puppet.conf et hosts mais cette fois sans l option certname Synchronisation Une fois l installation et les configurations terminées, on lance le serveur maître via la commande : sudo /etc/init.d/puppetmaster {start stop restart} Lors de la première installation le serveur est déjà démarré. Sur la machine cliente, on lance une deuxième commande : sudo puppet agent --test 15

17 CHAPITRE 2. PUPPET LABS On obtient alors une demande de validation de certificat : info: Creating a new certificate request for puppetclient info: Creating a new SSL key at /var/lib/puppet/ssl/private_keys/puppetclient.pem warning: peer certificate won t be verified in this SSL session notice: Did not receive certificate Sur le serveur il faut alors délivrer le certificat pour la machine client : sudo puppet cert --list sudo puppet cert --sign puppetclient Pour avoir la liste complète des commandes : puppet help. Une fois le certificat distribué, on relance la commande précédente et cette fois apparait un nouveau message : notice: Got signed certificate notice Stating Puppet client err: Could not retrieve catalog: Could not find default node or by name with puppetclient on node puppetclient. L agent du client a bien été connecté avec le serveur mais n a pas pu trouver un catalogue pour le dit client. 2.3 Manifests Pour que Puppet fonctionne nous devons lui dire quoi faire. Ceci se fait grâce aux manifests Qu est ce qu un manifest? Les programmes de Puppet sont appelés manifest, et ils utilisent l extension de fichier.pp. Le coeur du language Puppet est la déclaration de ressources, qui représente l état désiré d une ressource. Les Manifests peuvent également utiliser des instructions conditionnelles, un groupe de ressources dans des collections, générer du texte avec des fonctions, référencer du code dans d autres manifests, et bien d autres choses, mais tout revient en dernière analyse à faire en sorte que les bonnes ressources soient gérées de la bonne façon. Avant d être appliqués, les manifests sont compilés dans le catalogue, qui est un graphe acyclique dirigé qui ne représente que les ressources et l ordre dans lequel elles doivent être synchronisées. Toute la logique conditionnelle, la recherche de données, l interpolation de variables, et le regroupement de ressources calculent l écart lors de la compilation. Parmis les manifests deux sont importants. Lorsque le client consultera le Puppet Master, l agent lira les fichiers dans un certain ordre : 16

18 CHAPITRE 2. PUPPET LABS le fichier /etc/puppet/manifests/site.pp qui dit à Puppet où et quelle configuration charger pour les clients. C est dans ce fichier que nous ferons la déclaration des ressources, on spécifiera également d importer les nodes. 1 import nodes. pp le fichier /etc/puppet/manifest/node.pp est lu lors de l import. Dans ce fichier, nous renseignons les FQDN des clients ainsi que les modules qui leur sont associés. 1 node oar s e r v e r. ptut grid5000. lan { i n c l u d e oar s erver, apache, mysql } Ressources Une ressource est un élément que Puppet sait configurer : file (contenu, permissions, propriétaire) package (présence ou absence) service (activation/désactivation, démarrage/arrêt) exec(exécution commande) cron, group, host, user etc... Dans Puppet chaque ressource est identifiée par un nom, elle est composée d un certain nombre d attributs qui ont chacun une valeur. Le language de Puppet représente une ressource comme ceci : 1 user { dave : 2 ensure => present, 3 uid => 507, 4 gid => admin, 5 s h e l l => / bin / zsh, 6 home => /home/ dave, 7 managehome => true, 8 } 2.4 Modules Qu est ce qu un module? Un module est une collection de manifests, ressources, fichiers, templates, class et définitions. Un simple module contiendra tout ce qui est requis pour configurer une application particulière. Par exemple il pourra contenir toutes les ressources spécifiées dans le manifest, fichiers et configuration associée pour Apache. Chaque module a besoin d une 17

19 CHAPITRE 2. PUPPET LABS structure de répertoire spécifique et d un fichier appelé init.pp. Cette structure autorise Puppet à charger automatiquement les modules. Pour accomplir ce chargement automatique Puppet vérifie une série de répertoires appelée le chemin du module (the module path en anglais). Ce chemin est configuré avec l option de configuration du module path dans la section [main] de puppet.conf. Par défault, Puppet recherche des modules dans /etc/puppet/modules et /var/lib/puppet/modules. Si nécessaire on peut rajouter d autres chemins Structure d un module Un module est définit de la façon suivante : 1. /etc/puppet/nom-du-module/manifests/ : Le répertoire manifests contiendra notre fichier init.pp et tout autre configuration. Le fichier init.pp est le coeur de notre module et chaque module doit en avoir un. Dans le fichier init.pp nous allons retrouver des classes qui seront instanciées lors de l appel d un agent. Dans ces classes on retrouve les configurations de réference. 2. /etc/puppet/nom-du-module/files/ : Le répertoire files contiendra tous les fichiers que nous souhaitons utiliser comme une partie de notre module, par exemple des fichiers à uploader. 3. /etc/puppet/nom-du-module/templates/ : Le répertoire templates contiendra tous les templates que notre module pourrait utiliser. 18

20 CHAPITRE 2. PUPPET LABS Exemple concret de module : MySQL Premièrement création de l arborescence : mkdir p /etc/puppet/modules/mysql/{files,templates,manifests} Ensuite nous allons créer le fichier init.pp avec la commande suivante : touch /etc/puppet/modules/mysql/manifests/init.pp Une fois l arborescence créée nous devons configurer le fichier init.pp comme ceci : 1 import i n s t a l l. pp 2 import c o n f i g. pp 3 import s e r v i c e. pp 4 5 c l a s s mysql { 6 i n c l u d e mysql : : i n s t a l l, mysql : : c o n f i g, mysql : : s e r v i c e 7 } Notre init.pp contient une seule class appelée mysql. A cela, on y ajoute trois fichiers install.pp, config.pp et service.pp contenant respectivement les class mysql : :install, mysql : :config et mysql : :service. La class mysql dit au puppetmaster d aller exécuter les class inclusent. Les trois fichiers doivent se trouver dans le même répertoire que le fichier init.pp. Le premier fichier, install.pp, s assure que les paquets MySQL-server, MySQL-client et Phpmyadmin sont bien installés. 1 c l a s s mysql : : i n s t a l l { 2 package { [ mysql s e r v e r, mysql c l i e n t, phpmyadmin ] : 3 ensure => present, 4 r e q u i r e => User [ mysql ], 5 } 6 user { 7 mysql : 8 ensure => present, 9 comment => MySQL user, 10 gid => mysql, 11 s h e l l => / bin / f a l s e, 12 r e q u i r e => Group [ mysql ], 13 } 14 group { 15 mysql : 16 ensure => present, 17 } 18 } Il permet aussi de créer un utilisateur MySQL et un groupe MySQL auquel on donne les droits administrateur sur MySQL. 19

21 CHAPITRE 2. PUPPET LABS Le second fichier, config.pp, utilise la class mysql : :config. Elle est une class de type ressource fichier. Elle permet de copier un fichier de configuration de MySQL prédéfinie. 1 c l a s s mysql : : c o n f i g { 2 f i l e { 3 / e t c /mysql/my. cnf : 4 source => puppet :/// mysql/mysql conf, 5 ensure => f i l e, 6 owner => root, 7 group => root, 8 mode => 644, 9 n o t i f y => S e r v i c e [ mysql ], 10 r e q u i r e => Class [ mysql : : i n s t a l l ] ; 11 } 12 } L option source indique à Puppet où se situe le fichier. Généralement, il se trouve dans le dossier files du module. Cependant, on ne spécifie pas tout le chemin d accès. Juste le nom du module et le nom du fichier. Puppet cherchera directement dans le dossier files. Les autres options permettent de définir le propriétaire, le groupe et les permissions du fichier. Le troisième fichier importé, service.pp, sert à vérifier que le service récemment installé fonctionne ou est démarré. 1 c l a s s mysql : : s e r v i c e { 2 s e r v i c e { mysql : 3 ensure => running, 4 h a s s t a t u s => true, 5 h a s r e s t a r t => true, 6 enable => true, 7 r e q u i r e => Class [ mysql : : i n s t a l l ], 8 } 9 } 2.5 Complément à Puppet Puppet Dashboard Aperçu Puppet Dashboard est une application avec interface web permettant d afficher des informations sur le serveur Puppet et son environnement (Master et Agents). Il permet de voir sur des graphes, les données répertoriées d un serveur Puppet ou de plusieurs serveurs (multi-puppet). Il fait aussi l inventaire de données à partir des agents (à la façon d un OCS inventory). 20

22 CHAPITRE 2. PUPPET LABS Enfin, il peut être utilisé comme console de configuration pour le serveur Puppet et de ses nodes (désignation des class et/ou paramètres, etc...). Installation Comme tout Puppet, son installation est relativement simple puisqu une ligne de commande via l APT est requise. Cependant le dépôt Puppet Labs APT doit être ajouté dans le fichier sources.list : #/etc/apt/sources.list deb squeeze main deb-src squeeze main A fortiori, la clé GPG doit aussi être ajoutée : sudo gpf --recv-key 4BD6EC30 sudo gpg -a --export 4BD6EC30 > /tmp/key sudo apt-key add /tmp/key Finalement, la commande pour l installer via l APT est : sudo apt-get install puppet-dashboard Pour se connecter à l interface web on exécute la commande suivante puis dans la barre navigation de son navigateur web, l url qui suit : sudo /etc/init.d/puppet-dashboard start 21

23 Chapitre 3 Scripts et modules développés 3.1 Les Scripts Script de réservation Nous avons réalisé un script qui nous permet de réserver des machines sans avoir à renseigner les commandes de l outil OAR. Nous demandons à la personne souhaitant réserver des machines de rentrer le nom de la réservation, le nombre de machines et le temps de réservation de celles-ci. Nous passons ensuite ces arguments à oarsub avec les options requises. 1 oarsub I t deploy l { type = kavlan l o c a l }/ vlan=1+/nodes=$nbr nodes, walltime=$tmps n $nom Script d installation Le script d installation, install.sh, nous permet d automatiser le déploiement de notre cluster une fois les machines réservées. Nous commençons l installation de notre cluster par l activation du DHCP de Grid5000. Il sera désactivé une fois notre serveur DHCP mis en place. Nous générons ensuite le fichier de configuration dhcpd.conf en fonction du site et du numéro du VLAN associé. Nous le déplaçons ensuite dans le dossier files du module DHCP de puppet. 1 // A c t i v a t i o n du DHCP i n t e r n e 2 kavlan e 3 4 // Generation du f i c h i e r de c o n f i g u r a t i o n 5 j o b i d = o a r s t a t grep $USER cut d f1 6 vlan = kavlan V j $ j o b i d 7 s i t e = uname n cut d. f2 8 export GEMHOME=/home/$USER/. gem/ruby /1.8/ 9 gem i n s t a l l ruby ip no r i no rdoc user i n s t a l l 10 chmod +x. / p r o j e t / i n s t a l l / gen dhcpd conf. rb 11. / p r o j e t / i n s t a l l / gen dhcpd conf. rb s i t e $ s i t e vlan id $vlan 12 mv dhcpd kavlan $vlan $ s i t e. conf $puppet modules /dhcp/ f i l e s /dhcpd. conf 22

24 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Nous allons ensuite déployer l image ISO de Debian Squeeze que nous fournit le Grid5000 pour installer les différents services sur les noeuds. Nous affichons auparavant la liste des noeuds que nous avons réservés. 1 echo Deploiement de l environnement Linux, Debian Squeeze 64 b i t, 2 sur t o u t e s l e s machines r e s e r v e e s ( Peut prendre p l u s i e u r s minutes ). 3 // Deploiement de l image ISO Debian Squeeze x64 b a s e 4 kadeploy3 e squeeze x64 base f $OAR FILE NODES vlan $vlan d V4 k $HOME/. ssh / i d d s a. pub Nous mettons en place les différents fichiers exploités par le script : list nodes, contient la liste de toutes les machines réservées list users, contient toutes les machines utilisateurs. puppet clients, contient toutes les machines services installées via Puppet : MySQL, DNS, DHCP, Kadeploy, OAR, NFS. puppet master, contient le FQDN de la machine puppet serveur Vient ensuite l ensemble des tests sur la configuration SSH du client qui a lancé le déploiement. Cela consiste en une vérification sur le fichier de configuration (.ssh/config) et le fichier d authorisation (.ssh/authorized keys), puis en une copie des clés de l utilisateur sur toutes les machines concernées par le déploiement du cluster. Cela nous permet de nous connecter aux différentes machines réservées sans avoir à entrer nos mots de passe à chaque fois et d utiliser TakTuk. 1 taktuk l root s m $node broadcast exec [ cat /. ssh / i d d s a. pub >> /. ssh / a u t h o r i z e d k e y s ] Nous créons ensuite les tunnels SSH grâce au script tunnel.sh. Via la commande SCP nous transmettons sur toutes les machines réservées le script tunnel.sh. Avec la commande Taktuk nous l exécutons. 23

25 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Nous passons ensuite à l installation du serveur Puppet et des clients puppets. Ainsi qu au rappatriement des modules du frontend vers la machine serveur. 1 // I n s t a l l a t i o n des paquets s e r v e u r s 2 taktuk l root s m $puppet master broadcast exec [ apt get q y i n s t a l l puppet f a c t e r puppetmaster ] 3 // I n s t a l l a t i o n des paquets c l i e n t s 4 taktuk l root s m $ p u p p e t c l i e n t s broadcast exec [ apt get q y i n s t a l l puppet f a c t e r ] 5 // rappatriement des c a t a l o g u e s / modules / m a n i f e s t s sur l e master 6 scp r $puppet modules / root@$puppet master : / e t c / puppet / Une fois installés, nous configurons le Puppetmaster grâce au script master config.sh qu on transmet sur la machine via un scp aussi. Une fois le maître configuré, nous configurons tous nos clients de telle sorte que chaque machine puisse recevoir la configuration qui lui est attribuée depuis le master. Enfin, nous terminons l installation par la désactivation du vlan fourni par Grid5000 pour utiliser notre propre serveur DHCP, puis par la suppression du fichier temporaire utilisé. 1 taktuk l root s f $ p u p p e t c l i e n t s broadcast exec [ d h c l i e n t ] 2 taktuk l root s f $ l i s t u s e r s broadcast exec [ d h c l i e n t ] Le script de configuration du serveur. Ce script permet d écrire toute la configuration du maître Puppet en se basant sur tous les services à installer. Pour commencer, nous configurons le fichier /etc/hostname pour établir le nom du réseau et nous redémarrons le service hostname. Ensuite nous établissons le fichier puppet.conf comme vu précédemment. Ainsi que le fichier /etc/hosts. Nous avons également besoin de configurer les adresses ou les noms de nos machines clientes pour que Puppet puisse les retrouver. 1 y=1 2 f o r r o l e in puppet dhcp dns mysql n f s oar frontend oar s e r v e r kadeploy 3 do 4 node= sed n $y p p u p p e t c l i e n t s 5 ip node = arp $node cut d f 2 cut d ( f 2 cut d ) f1 6 echo $ip node $ r o l e. ptut grid5000. lan >> / e t c / h o s t s 7 y=$ ( ( $y+1) ) 8 done 24

26 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Nous utilisons le même type de boucle pour définir les noeuds dans le fichier nodes.pp. Enfin, nous terminons la configuration du master Puppet par la configuration du service de noms de domaine. 1 f o r machine in $ ( cat l i s t u s e r s ) 2 do 3 ip machine = arp $machine cut d f 2 cut d ( f 2 cut d ) f1 4 echo machine$i IN A $ip machine >> 5 / e t c / puppet / modules / bind / f i l e s /db. ptut grid5000. lan 6 i p o c t 4 = echo $ip machine cut d. f 4 7 echo $ i p o c t 4 IN PTR machine$i. ptut grid5000. lan. >> 8 / e t c / puppet / modules / bind / f i l e s /db. r e v e r s 9 echo marocco $ i. ptut. grid5000. f r $ip machines marocco >> 10 / e t c / puppet / modules / kadeploy / f i l e s / c o n f s / nodes 11 i=$ ( ( $ i +1) ) 12 done La fin du programme permet de préparer l installation de kadeploy en modifiant le fichier de configuration Le script de configuration des clients. Contrairement au master, le client puppet n a besoin de connaître que deux adresses : celle du master puppet, et celle de son propre client. 3.2 Les modules Puppet Le sujet principal du projet était de déployer l intégralité du cluster au travers de Puppet. Une fois que l infrastructure est installée, nous allons maintenant déployer les différents services à l aide des modules que nous avons crées. Pour éviter les répétitions, nous nous contenterons d étudier les modules des outils spécifiques à Grid5000 et ceux qui ont une importance capitale. Tous les modules sont dans l annexe Les modules OAR OAR se décompose en deux parties : le serveur et le frontend. Figure 3.1 Deux modules pour OAR : Le serveur, et le frontend. 25

27 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Ces deux modules nécessitent un certain nombre de paramètres qui lui permettent de fonctionner : Une communication SSH qui permettent au frontend de se connecter directement sur le serveur et inversement ; Le fichier de depôt de logiciels d OAR. Nous copions donc l intégralité des clés SSH créées pour l occasion, ainsi que le fichier de configuration de notre utilisateur et le fichier de configuration du démon SSH. L ensemble de cette configuration, déployée à l identique sur le frontend et le serveur, est définie par une class située dans le fichier install.pp de chaque module OAR. Le module OAR-frontend. Il est configuré par deux programmes : les fichiers prologue et épilogue. Ils nécessitent absolument une configuration manuelle car vierges par défaut. Tout comme le serveur OAR, le frontend est configuré par deux scripts puppet, l un permettant d initialiser le module, l autre se contentant de vérifier et d adapter la configuration sur le client Puppet. Figure 3.2 Deux scripts d installation pour chaque module OAR Le module OAR-server. Le serveur OAR dépend activement d une base de données, en l occurence ici une base mysql, afin de gérer les noeuds. Cette base est localisée et configurée dans le fichier oar.conf, que nous allons copier depuis le maître Puppet vers le client. Deux autres fichiers de configuration sont nécessaires pour le serveur OAR. Il s agit de : Monika.conf, qui permet de montrer les jobs soumis par le frontend au serveur ainsi que l état de chaque noeud ; drawgantt.conf, qui permet de présenter les différentes tâches dans le temps suivant un Diagramme de Gantt. Le serveur OAR nécessite également plusieurs autres services : un serveur Web du type apache2 sur la machine déployée ; une base de données de type mysql ou postgre qui peut être sur une autre machine Le module Kadeploy Ce module est installé par Puppet à l aide de 5 fichiers de scripts Puppet. Cela permet de définir simplement ce qu un client et un serveur doivent récupérer. Kadeploy possède son propre depôt qu il faut ajouter pour pouvoir l installer. Il utilise également une base de données créee et configurée par Puppet à l aide des fichiers db creation.sql et init deploy3-db. Nous rajoutons également le fichier authorized keys de 26

28 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Figure 3.3 Module Kadeploy manière à permettre une communication SSH. Dans le dossier confs des fichers utiles à la configuration de kadeploy par Puppet, nous retrouvons les fichiers qui permettent d indiquer le nom du cluster, les partitions à appliquer, les commandes spécifiques pour certains noeuds, etc Le module Dashboard C est une fonctionnalité qui n était pas prévue initialement dans le projet. Elle nécessite d installer la clé publique pour le dépôt du Dashboard, qui n est pas inclus par défaut dans les dépôts logiciels du Grid5000. Nous nous assurons le bon fonctionnement du module sur le noeud au travers de 4 scripts Puppet, qui permettent d installer, de configurer et de lancer le puppet dashboard Les autres modules D autres modules ont dû être définis pour assurer le bon fonctionnement des outils utilisés. Nous avons donc réalisé ces modules en se basant sur des exemples fournis sur le site de Puppet, que nous avons réadapté avec une configuration adaptée à nos besoins. Cela nous a permis d installer ces services très rapidement, avec la souplesse d utilisation de ces modules. 27

29 Conclusion et Bibliographie Conclusion Pour conclure ce rapport, nous pouvons dire que ce travail fut vraiment très intéressant à mener et que l environnement du LORIA, la découverte du GRID 5000 et de Puppet ont été très formateur et nous ont beaucoup apporté. Nous avons ainsi réussi à mener à bien les items suivants : réservation automatique des machines installation sans image ISO installation du serveur Puppet avec configuration et déploiement avec configuration des agents sur les machines clientes récupération sans problème des modules DNS, DHCP, NFS, MySQL, Apache2, Dashboard, les services associés fonctionnent rapatriement sans soucis des modules OAR et KADEPLOY, des difficultés cependant ont été rencontrées pour leur fonctionnement Nous n avons par contre pas eu le temps de nous intéresser à d autres solutions de configuration automatique que Puppet. Un des problèmes majeurs que nous avons rencontré et que nous n avons pas réussi à résoudre concerne les hostnames des machines clientes. Ainsi quand on les change pour les faire correspondre à nos attentes (du genre : puppet.ptut-grid5000.lan au lieu de griffon-xx-kavlan-x.nancy.grid5000.fr), puppet crée un certificat sous le nom puppet.ptutgrid5000.lan mais lorsqu on lance une récupération des catalogues, il nous informe que les hostnames et le certificat ne correspondent pas. Pourtant, le serveur Puppet arrive à entrer en contact avec toutes les machines clientes puisque définies dans le /etc/hosts. De plus la demande de certificat est prise en compte. Donc le contact entre le serveur et la machine a bien été établi. Pour contourner cette difficulté et pouvoir continuer notre projet nous avons créé des scripts où les hostnames des machines clientes restent inchangés. Pour finaliser ce travail il reste à tester une réservation, à déployer notre mini Grid 5000 et à rechercher et valider des solutions alternatives à Puppet. 28

30 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Bibliographie https :// :Home http ://kadeploy3.gforge.inria.fr/ http ://oar.imag.fr/ http ://taktuk.gforge.inria.fr/ http ://puppetlabs.com/ Pro Puppet de James Turnbull, Jeffrey McCune édition Apress

31 Annexes Les Scripts Reserv.sh 1 #! / bin / bash 2 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 3 #Formulaire 4 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 5 echo n Nom de l a r e s e r v a t i o n : 6 read nom 7 echo n Nombre de machine a r e s e r v e r : 8 read nbr\ nodes 9 echo n Temps de l a r e s e r v a t i o n ( h :mm: s s ) : 10 read tmps # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 13 #Reservation des machines 14 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 15 echo Reservation de $nbr nodes machine ( s ) pour $tmps heure ( s ). 16 oarsub I t deploy l { type = kavlan l o c a l }/ vlan=1+/nodes=$nbr \ nodes, walltime=$tmps n $nom tunnel.sh 1 #! / bin / bash 2 user = cat username 3 gateway = / sbin / ip route awk / d e f a u l t /{ p r i n t $3 } 4 5 ssh q o StrictHostKeyChecking=no o UserKnownHostsFile=/dev/ n u l l o P r e f e r r e d A u t h e n t i c a t i o n s=publickey o BatchMode=yes NL 8080: proxy :3128 $user@$gateway &>/dev/ n u l l & 6 7 rm / e t c / apt / apt. conf. d/ proxy 8 echo Acquire : : http : : Proxy http : / / : ; > / e t c / apt / apt. conf. d/ proxy 30

32 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS clients config.sh 1 #! / bin / bash 2 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 3 #C o n f i g u r a t i o n des machines c l i e n t e s 4 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 5 gateway = / sbin / ip route awk / d e f a u l t /{ p r i n t $3 } 6 puppetmaster = sed n 1 p couple 7 ip puppetmaster = arp $puppetmaster cut d f 2 cut d ( f 2 cut d ) f1 8 p u p p e t c l i e n t = sed n 2 p couple 9 i p p u p p e t c l i e n t = hostname i 10 num= sed n 3 p couple 11 r o l e = sed n $num p r o l e s echo s e r v e r=puppet. ptut grid5000. lan >> / e t c / puppet / puppet. conf echo >> / e t c / h o s t s 16 echo #ajout IP puppet >> / e t c / h o s t s 17 echo $ip puppetmaster puppet puppet. ptut grid5000. lan >> / e t c / h o s t s 18 echo $ i p p u p p e t c l i e n t $ r o l e $ r o l e. ptut grid5000. lan >> / e t c / h o s t s dns= sed n 2 p p u p p e t c l i e n t s 21 i p d n s = arp $dns cut d f 2 cut d ( f 2 cut d ) f echo nameserver $ i p d n s > / e t c / r e s o l v. conf 24 echo nameserver $gateway >> / e t c / r e s o l v. conf echo $ r o l e. ptut grid5000. lan > / e t c /hostname 27 / e t c / i n i t. d/hostname. sh s t a r t e x i t 0 master config.sh 1 #! / bin / bash 2 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 3 #C o n f i g u r a t i o n du s e r v e u r puppet maitre 4 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 5 puppetmaster = sed n 1p p u p p e t c l i e n t s 6 echo s e r v e r=puppet. ptut grid5000. lan >> / e t c / puppet / puppet. conf 7 echo [ master ] >> / e t c / puppet / puppet. conf 8 echo certname=puppet. ptut grid5000. lan >> / e t c / puppet / puppet. conf 9 echo >> / e t c / h o s t s 10 echo #ajout IP puppet >> / e t c / h o s t s #ajout des h o s t s c l i e n t s 13 y=1 14 f o r r o l e in puppet dhcp dns mysql n f s oar s e r v e r oar frontend kadeploy 15 do 16 node= sed n $y p p u p p e t c l i e n t s 17 ip node = arp $node cut d f 2 cut d ( f 2 cut d ) f1 18 echo $ip node $ r o l e $ r o l e. ptut grid5000. lan >> / e t c / h o s t s 31

33 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS 19 y=$ ( ( $y+1) ) 20 done #a t t r i b u t i o n des r o l e s aux c l i e n t s et ajout des c l i e n t s dans nodes. pp 23 echo node puppet. ptut grid5000. lan { i n c l u d e apache } >> / e t c / puppet / m a n i f e s t s / nodes. pp 24 j=2 25 f o r r o l e in dhcp dns mysql n f s oar s e r v e r oar frontend kadeploy 26 do 27 node= sed n $ j p p u p p e t c l i e n t s 28 echo node $ r o l e. ptut grid5000. lan { i n c l u d e $ r o l e } >> / e t c / puppet / m a n i f e s t s / nodes. pp 29 j=$ ( ( $ j +1) ) 30 done 31 echo import nodes. pp >> / e t c / puppet / m a n i f e s t s / s i t e. pp # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 34 #C o n f i g u r a t i o n des f i c h i e r s pour l e module DHCP 35 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 36 y=1 37 f o r r o l e in puppet dhcp dns mysql n f s oar s e r v e r oar frontend kadeploy 38 do 39 node= sed n $y p p u p p e t c l i e n t s 40 host name= echo $node cut d. f1 41 sed i s / $host name / $ r o l e /g / e t c / puppet / modules /dhcp/ f i l e s /dhcpd. conf 42 y=$ ( ( $y+1) ) 43 done sed i s /nancy. grid5000. f r / ptut grid5000. lan /g / e t c / puppet / modules /dhcp/ f i l e s /dhcpd. conf # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 48 #C o n f i g u r a t i o n des f i c h i e r s pour l e module DNS 49 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 50 gateway = / sbin / ip route awk / d e f a u l t /{ p r i n t $3 } 51 puppet= sed n 1p p u p p e t c l i e n t s 52 i p c o m p l e t e = arp $puppet cut d f 2 cut d ( f 2 cut d ) f dns= sed n 3 p p u p p e t c l i e n t s 55 i p d n s = arp $dns cut d f 2 cut d ( f 2 cut d ) f echo nameserver $ i p d n s > / e t c / r e s o l v. conf 58 echo nameserver $gateway >> / e t c / r e s o l v. conf 59 sed i s / / $gateway /g / e t c / puppet / modules /dns/ f i l e s /named. conf. o p t i o n s echo zone echo $ ip c omplete cut d. f3. echo $ip complete cut d. f2. echo $ip complete cut d. f1. in addr. arpa { >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 62 echo type master ; >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 63 echo n o t i f y no ; >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 64 echo f i l e / e t c / bind /db. r e v e r s ; >> / e t c / puppet / modules /dns/ f i l e s / named. conf. l o c a l 65 echo } ; >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 66 32

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau

Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau Nicolas Niclausse - INRIA Sophia Antipolis Méditerranée - projet Aladdin Grid 5000 2 juillet

Plus en détail

GESTION D INFRASTRUCTURE AVEC PUPPET

GESTION D INFRASTRUCTURE AVEC PUPPET GESTION D INFRASTRUCTURE AVEC PUPPET Séminaire RAISIN du 27/05/2010 Florent Paillot & Christophe Delalande INRIA Bordeaux - Sud-Ouest Sommaire 2 Qu est ce que Puppet? Pourquoi faire Avantages/Inconvénients

Plus en détail

Serveur Linux : FTP. Mise en place d un service FTP sous Linux. Bouron Dimitri 20/04/2014

Serveur Linux : FTP. Mise en place d un service FTP sous Linux. Bouron Dimitri 20/04/2014 Mise en place d un service FTP sous Linux Bouron Dimitri 20/04/2014 Ce document sert de démonstration concise pour l installation, la configuration, la sécurisation, d un serveur FTP sous Linux utilisant

Plus en détail

PUPPET. Romain Bélorgey IR3 Ingénieurs 2000

PUPPET. Romain Bélorgey IR3 Ingénieurs 2000 PUPPET Romain Bélorgey IR3 Ingénieurs 2000 SOMMAIRE Qu est-ce que Puppet? Utilisation de Puppet Ses composants Son utilisation Le langage Puppet Démonstration QU EST-CE QUE PUPPET? Administration centralisée

Plus en détail

Automatisation de l administration système

Automatisation de l administration système Automatisation de l administration système Plan Problèmatique : trop de systèmes, trop de solutions Typage des solutions Puppet : gestion de configuration de systèmes Capistrano : déploiement d applications

Plus en détail

Automatisation de l administration système avec

Automatisation de l administration système avec Automatisation de l administration système avec Puppet à la présidence de l UHP Sylvain Zimmermann Université Henri Poincaré 16 février 2011 Plan Introduction Motivations à utiliser puppet Généralités

Plus en détail

Grid5000 aujourd'hui : Architecture & utilisation

Grid5000 aujourd'hui : Architecture & utilisation 1 Grid5000 aujourd'hui : Architecture & utilisation aurelien.dumez@labri.fr 11 octobre 2005 Contexte 2 Grid5000 est : Une plateforme expérimentale pour le grid computing Ouverte à de nombreux thèmes de

Plus en détail

Configuration matériel. Tâche 2 : Installation proprement dite de l application sur un serveur de test virtualisé sous VmWare Workstation.

Configuration matériel. Tâche 2 : Installation proprement dite de l application sur un serveur de test virtualisé sous VmWare Workstation. PPE 1 MISSION 1 Tâche 1 : Se renseigner sur les exigences logicielles et matérielles de l utilisation de MRBS sur une distribution Linux (Debian). Proposer une configuration matérielle suffisante pour

Plus en détail

Gérer ses environnements de développement avec Vagrant RMLL 2012

Gérer ses environnements de développement avec Vagrant RMLL 2012 Gérer ses environnements de développement avec Vagrant RMLL 2012 1 Jean-Marc Fontaine Passionné de web depuis 1996, de PHP depuis 2000 et de musique depuis 1977 Consultant PHP chez Alter Way Ex-Président

Plus en détail

Travaux Pratiques sur GRID 5000

Travaux Pratiques sur GRID 5000 Travaux Pratiques sur GRID 5000 réalisés par Alexandru Tantar, Bilel Derbel, Nouredine Melab Université des Sciences et Technologies de Lille (USTL/IEEEA), Laboratoire d Informatique Fondamentale de Lille

Plus en détail

POVERELLO KASONGO Lucien SIO 2, SISR SITUATION PROFESSIONNELLE OCS INVENTORY NG ET GLPI

POVERELLO KASONGO Lucien SIO 2, SISR SITUATION PROFESSIONNELLE OCS INVENTORY NG ET GLPI POVERELLO KASONGO Lucien SIO 2, SISR SITUATION PROFESSIONNELLE OCS INVENTORY NG ET GLPI Contexte de la mission Suite à la multiplication des matériels et des logiciels dans les locaux de GSB, le service

Plus en détail

Gestion de clusters de calcul avec Rocks

Gestion de clusters de calcul avec Rocks Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte

Plus en détail

Table des matières. 1. Installation de VMware ESXI 4... 3. 1.1. Pré-requis... 3. 1.2. Installation... 3

Table des matières. 1. Installation de VMware ESXI 4... 3. 1.1. Pré-requis... 3. 1.2. Installation... 3 Table des matières 1. Installation de VMware ESXI 4.... 3 1.1. Pré-requis... 3 1.2. Installation... 3 1.2.1. Panneau de configuration du serveur ESXI... 4 1.2.2. Configuration du mot de passe «Root»....

Plus en détail

BTS SIO option SISR Lycée Godefroy de Bouillon Clermont-Ferrand

BTS SIO option SISR Lycée Godefroy de Bouillon Clermont-Ferrand Active Directory sous Windows Server SAHIN Ibrahim BTS SIO option SISR Lycée Godefroy de Bouillon Clermont-Ferrand Sommaire I - Introduction... 3 1) Systèmes d exploitation utilisés... 3 2) Objectifs...

Plus en détail

Serveur de partage de documents. Étude et proposition d'une solution afin de mettre en place un serveur de partage de documents.

Serveur de partage de documents. Étude et proposition d'une solution afin de mettre en place un serveur de partage de documents. Serveur de partage de documents Étude et proposition d'une solution afin de mettre en place un serveur de partage de documents. Table des matières Création de la machine virtuelle Debian... 3 Présentation

Plus en détail

Tour des Unités du C.I.A.M. Tour des Unités du C.I.A.M. Maurice Baudry Laboratoire Statistique & Génome, Évry.

Tour des Unités du C.I.A.M. Tour des Unités du C.I.A.M. Maurice Baudry Laboratoire Statistique & Génome, Évry. Tour des Unités du C.I.A.M. Maurice Baudry Laboratoire Statistique & Génome, Évry. 1 La cellule informatique : - Christophe Ambroise (PR UEVE) - Gilles Grasseau (IR CNRS) - Maurice Baudry (AI INRA) 2 Moi...

Plus en détail

Maintenance et gestion approfondie des Systèmes d exploitation Master 2 SILI. Année universitaire 2014-2015 David Genest

Maintenance et gestion approfondie des Systèmes d exploitation Master 2 SILI. Année universitaire 2014-2015 David Genest Maintenance et gestion approfondie des Systèmes d exploitation Master 2 SILI Année universitaire 2014-2015 David Genest Systèmes d exploitation Master 2 SILI 2014-2015 1 Chapitre I Virtualisation 1 Présentation

Plus en détail

Installation des outils OCS et GLPI

Installation des outils OCS et GLPI Installation des outils OCS et GLPI MAYERAU David 06/02/2012 PRESENTATION. --------------------------------------------------------------------------------------------- 3 INSTALLATION DE GLPI. ------------------------------------------------------------------------------------

Plus en détail

Serveur DNS et DHCP couplé à LDAP Debian GNU/Linux

Serveur DNS et DHCP couplé à LDAP Debian GNU/Linux Serveur DNS et DHCP couplé à LDAP Debian GNU/Linux Matthieu Vogelweith 13 janvier 2009 Résumé L objectif de ce document est de détailler l installation d un serveur d infrastructure (DNS et DHCP) complet

Plus en détail

Compte rendu d'activité PTI n 2

Compte rendu d'activité PTI n 2 Compte rendu d'activité PTI n 2 Nom et prénom : CIULLO Julien BTS Informatique de Gestion Nature de l'activité OCS-NG et GLPI Introduction : Afin de pouvoir répondre aux demandes des utilisateurs au niveau

Plus en détail

Getting Started. 10 étapes pour bien démarrer. Avant de démarrer. Première connexion PCC

Getting Started. 10 étapes pour bien démarrer. Avant de démarrer. Première connexion PCC 10 étapes pour bien démarrer En suivant les différentes étapes de ce guide, vous vous familiariserez avec l interface d administration de votre Private Cloud. Quelques minutes vous suffiront pour déployer

Plus en détail

JOMARON Sébastien BTS SIO 2012/2014. Titre de l activité: Surveiller des hôtes et des services avec NAGIOS

JOMARON Sébastien BTS SIO 2012/2014. Titre de l activité: Surveiller des hôtes et des services avec NAGIOS JOMARON Sébastien BTS SIO 2012/2014 Titre de l activité: Surveiller des hôtes et des services avec NAGIOS Intitulé Activité Type de référence. Durée effective de l activité. Mettre en œuvre et exploiter

Plus en détail

LAB : Schéma. Compagnie C 192.168.10.30 /24 192.168.10.10 /24 NETASQ

LAB : Schéma. Compagnie C 192.168.10.30 /24 192.168.10.10 /24 NETASQ LAB : Schéma Avertissement : l exemple de configuration ne constitue pas un cas réel et ne représente pas une architecture la plus sécurisée. Certains choix ne sont pas à prescrire dans un cas réel mais

Plus en détail

Open Source Job Scheduler. Installation(s)

Open Source Job Scheduler. Installation(s) Open Source Job Scheduler Installation(s) Installations Standard Configuration Superviseur Agent SOS-Paris 2 Pré-requis o Base de données o MySQL, MSACCESS, Oracle o JDBC ou ODBC o Connecteurs o Mysql

Plus en détail

Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5

Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5 Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5 Machine virtuelle Machine virtuelle Machine virtuelle VMware ESX Network Shutdown Module

Plus en détail

TD4 - Supervision et métrologie des réseaux. 1 Supervision des applications et services réseaux et des ressources locales

TD4 - Supervision et métrologie des réseaux. 1 Supervision des applications et services réseaux et des ressources locales M2 ISIM SIC Pro (RS) 2012 2013 Réseaux - Sécurité R.Card & T.T. Dang Ngoc dntt@u-cergy.fr TD4 - L architecture de gestion du réseau proposée par le protocole SNMP est fondée sur trois principaux éléments

Plus en détail

Tutoriel Création d une source Cydia et compilation des packages sous Linux

Tutoriel Création d une source Cydia et compilation des packages sous Linux Tutoriel Création d une source Cydia et compilation des packages sous Linux 1. Pré-requis 1. Quelques connaissances sous Linux 2. Avoir à disposition un Serveur FTP pour héberger votre source 3. Un thème

Plus en détail

TP : Introduction à TCP/IP sous UNIX

TP : Introduction à TCP/IP sous UNIX 1 Introduction TP : Introduction à TCP/IP sous UNIX Le but de cette séance est de vous familiariser au fonctionnement de la pile TCP/IP sous UNIX. Les systèmes UNIX (Linux, FreeBSD, Solaris, HPUX,...)

Plus en détail

PPE GESTION PARC INFORMATIQUE

PPE GESTION PARC INFORMATIQUE BTS SIO 2013 2014 PPE GESTION PARC INFORMATIQUE PPE4-1 DAHMANI RACHID BAZEMONT ANTHONY SOMMAIRE... 3 Installation service AD-DNS... 3 Configuration DNS... 7 Intégration d une machine dans le domaine ISE...

Plus en détail

1. La plate-forme LAMP

1. La plate-forme LAMP Servi ces pour intranet et Internet Ubuntu Linux - Création et gestion d un réseau local d entreprise 1. La plate-forme LAMP Services pour intranet et Internet La fourniture d'un site pour le réseau ou

Plus en détail

Spécialiste Systèmes et Réseaux

Spécialiste Systèmes et Réseaux page 1/5 Titre professionnel : «Technicien(ne) Supérieur(e) en Réseaux Informatiques et Télécommunications» inscrit au RNCP de niveau III (Bac + 2) (J.O. du 19/02/2013) 24 semaines + 8 semaines de stage

Plus en détail

RTN / EC2LT Réseaux et Techniques Numériques. Ecole Centrale des Logiciels Libres et de Télécommunications

RTN / EC2LT Réseaux et Techniques Numériques. Ecole Centrale des Logiciels Libres et de Télécommunications RTN / EC2LT Réseaux et Techniques Numériques Ecole Centrale des Logiciels Libres et de Télécommunications Mise en place d'un Contrôleur de Domaine dans un milieu hétérogène avec SAMBA couplé à LDAP Domaine

Plus en détail

Solution d inventaire automatisé d un parc informatique et de télédistribution OCS INVENTORY NG. EHRHARD Eric - Gestionnaire Parc Informatique

Solution d inventaire automatisé d un parc informatique et de télédistribution OCS INVENTORY NG. EHRHARD Eric - Gestionnaire Parc Informatique Solution d inventaire automatisé d un parc informatique et de télédistribution OCS INVENTORY NG EHRHARD Eric - Gestionnaire Parc Informatique 1 Possibilités d OCS Inventory. Informations d'inventaire pertinentes.

Plus en détail

Ubuntu Linux Création, configuration et gestion d'un réseau local d'entreprise (3ième édition)

Ubuntu Linux Création, configuration et gestion d'un réseau local d'entreprise (3ième édition) Introduction 1. Introduction 13 2. Le choix de l'ouvrage : Open Source et Linux Ubuntu 13 2.1 Structure du livre 13 2.2 Pré-requis ou niveau de connaissances préalables 13 3. L'objectif : la constitution

Plus en détail

Afin d'éviter un message d'erreur au démarrage du service Apache du type :

Afin d'éviter un message d'erreur au démarrage du service Apache du type : I. INTRODUCTION GLPI (Gestionnaire libre de parc informatique) est une solution open-source de gestion de parc informatique et de gestion des services d assistance aux utilisateurs distribué sous licence

Plus en détail

Architecture de serveurs virtualisés pour la communauté mathématique

Architecture de serveurs virtualisés pour la communauté mathématique Architecture de serveurs virtualisés pour la communauté mathématique Jacquelin Charbonnel Journées ARAMIS - Lyon, juin 2012 version 1.1 Plan K pour un laboratoire K pour la Plateforme en Ligne pour les

Plus en détail

Bonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX

Bonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX Bonjour I.Le contexte II.Le cloud computing III.L'expérimentation des solutions libres sur Grid'5000 1.Eucalyptus 2.OpenNebula 3.OpenStack IV.Tableau Comparatif V.Conclusion I.Le contexte 1)Le projet

Plus en détail

Installation et configuration d OCS/GLPI sur un Serveur Debian

Installation et configuration d OCS/GLPI sur un Serveur Debian Installation et configuration d OCS/GLPI sur un Serveur Debian GLPI (Gestionnaire Libre de Parc Informatique) est une application web (développée en PHP) qui permet la gestion de parc informatique et de

Plus en détail

Installation de Zabbix

Installation de Zabbix 1 Installation de Zabbix Présentation Zabbix (http://www.zabbix.com) est une solution de supervision open source. Ce logiciel permet de superviser des réseaux, et de surveiller les statuts de différents

Plus en détail

Mise en place d un firewall d entreprise avec PfSense

Mise en place d un firewall d entreprise avec PfSense Mise en place d un firewall d entreprise avec PfSense JA-PSI Programmation & Sécurité informatique http://www.ja-psi.fr Par Régis Senet http://www.regis-senet.fr regis.senet [at] supinfo.com Le 13/06/2009

Plus en détail

TP LINUX : MISE EN PLACE DU SERVEUR DE MESSAGERIE QMAIL

TP LINUX : MISE EN PLACE DU SERVEUR DE MESSAGERIE QMAIL TP LINUX : MISE EN PLACE DU SERVEUR DE MESSAGERIE QMAIL Au cours de ce TP, vous allez installer un serveur de courrier sur un réseau local. Les étapes par lesquelles vous allez passer sont les suivantes

Plus en détail

vsphere 5 TP2 La virtualisation avec VMware CNFETP F. GANGNEUX technologie GANGNEUX F. 17/12/2012

vsphere 5 TP2 La virtualisation avec VMware CNFETP F. GANGNEUX technologie GANGNEUX F. 17/12/2012 vsphere 5 La virtualisation avec VMware GANGNEUX F. 17/12/2012 CNFETP F. GANGNEUX technologie 1. Introduction... 3 2. Installation du contrôleur de domaine... 3 3. Installation du vcenter... 4 3.1. Installation

Plus en détail

Réaliser un inventaire Documentation utilisateur

Réaliser un inventaire Documentation utilisateur Référence : 11662 Version N : 6 Créé le : 29 Janvier 2014 Créé par : Bruno RICHOUX Téléphone : 0811 65 60 02 Sommaire 1. Conventions... 3 2. Introduction... 4 3. Principes généraux... 5 3.1. Depuis les

Plus en détail

Les différentes méthodes pour se connecter

Les différentes méthodes pour se connecter Les différentes méthodes pour se connecter Il y a plusieurs méthodes pour se connecter à l environnement vsphere 4 : en connexion locale sur le serveur ESX ; avec vsphere Client pour une connexion sur

Plus en détail

Mise en place des TPs Réseau en machines virtuelles. Utilisation de VmPlayer

Mise en place des TPs Réseau en machines virtuelles. Utilisation de VmPlayer Semestre 4 TR2 2013/2014 Mise en place des TPs Réseau en machines virtuelles. Utilisation de VmPlayer But du TP Le but est simple : vous donner les moyens de réaliser chez vous les TPs réseaux, en utilisant

Plus en détail

11/04/2014 Document Technique des Services Disponibles. 16/04/2014. Document Technique des Services Disponibles.

11/04/2014 Document Technique des Services Disponibles. 16/04/2014. Document Technique des Services Disponibles. 16/04/2014 Document Technique des Services Disponibles. 1 Sommaire Schéma de l infrastructure réseau... 3 Détail des configurations... 5 Identifiants de connexions.... 8 2 Schéma de l infrastructure réseau

Plus en détail

Documentation FOG. 3. Choisir le nom de la machine, le nom d utilisateur et le mot de passe correspondant (par exemple : fog, password)

Documentation FOG. 3. Choisir le nom de la machine, le nom d utilisateur et le mot de passe correspondant (par exemple : fog, password) 1. Installer une machine Ubuntu Server 14.04 i386 2. Saisir l adresse IP 3. Choisir le nom de la machine, le nom d utilisateur et le mot de passe correspondant (par exemple : fog, password) 4. Si vous

Plus en détail

INSTALLATION NG V2.1 D OCS INVENTORY. Procédure d utilisation. Auteur : GALLEGO Cédric 23/10/2014 N version : v1

INSTALLATION NG V2.1 D OCS INVENTORY. Procédure d utilisation. Auteur : GALLEGO Cédric 23/10/2014 N version : v1 INSTALLATION D OCS INVENTORY NG V2.1 Procédure d utilisation Installation d OCS Inventory NG (Open Computer and Software Inventory) sur un serveur Linux N version : v1 Installation d OCS Inventory NG v2.1

Plus en détail

Tutoriel compte-rendu Mission 1

Tutoriel compte-rendu Mission 1 Mission 1 : Inventaire de l ensemble du matériel BTS SIO 2 2012/2013 MUNIER Julien Tutoriel compte-rendu Mission 1 Sommaire I - OCS Inventory Agent a) Installation et configuration Agent b) Installation

Plus en détail

Répartition des charges avec HaProxy CONTEXTE MFC JULIEN HUBERT

Répartition des charges avec HaProxy CONTEXTE MFC JULIEN HUBERT 2015 Répartition des charges avec HaProxy CONTEXTE MFC JULIEN HUBERT Développée par le français Willy Tarreau en 2002, HAProxy est une solution libre, fiable et très performante de répartition de charge

Plus en détail

PRODUCTION ASSOCIEE. Le réseau de la M2L est organisé VLANs et comporte des commutateurs de niveau 2 et des routeurs.

PRODUCTION ASSOCIEE. Le réseau de la M2L est organisé VLANs et comporte des commutateurs de niveau 2 et des routeurs. PRODUCTION ASSOCIEE Contexte : Le contexte de la Maison des Ligues de Lorraine (La M2L) a été retenu au sein de notre centre de formation dans le cadre des PPE. La M2L, établissement du Conseil Régional

Plus en détail

Services Réseaux - Couche Application. TODARO Cédric

Services Réseaux - Couche Application. TODARO Cédric Services Réseaux - Couche Application TODARO Cédric 1 TABLE DES MATIÈRES Table des matières 1 Protocoles de gestion de réseaux 3 1.1 DHCP (port 67/68)....................................... 3 1.2 DNS (port

Plus en détail

Catalogue des formations 2015

Catalogue des formations 2015 Catalogue des formations 2015 Sommaire Relation entre les formations 3 1. Les bases de Linux 4 2. Certification Linux LPIC-1 8 3. Certification Linux LPIC-2 11 4. Certification Linux LPIC-3 14 5. Services

Plus en détail

NOTE: Pour une meilleure sécurisation, nous vous recommandons de faire l installation des outils web à l intérieur d un serveur virtuel.

NOTE: Pour une meilleure sécurisation, nous vous recommandons de faire l installation des outils web à l intérieur d un serveur virtuel. Environnement des outils de gestion Comme nous allons utiliser principalement des outils orientés Web pour la gestion de notre domaine, pour que ceux-ci fonctionnent autant sous Windows que sous Linux,

Plus en détail

REPARTITION DE CHARGE LINUX

REPARTITION DE CHARGE LINUX REPARTITION DE CHARGE LINUX I. SOMMAIRE II. Introduction... 2 1. Principe cluster... 2 III. Contexte... 2 2. Objectifs... 2 3. Topologie logique et physique finale... 3 IV. Préparation des postes... 4

Plus en détail

Ce TP consiste à installer, configurer et tester un serveur DNS sous Linux. Serveur open source : bind9 Distribution : Mandriva

Ce TP consiste à installer, configurer et tester un serveur DNS sous Linux. Serveur open source : bind9 Distribution : Mandriva DNS (DOMAIN NAME SERVER) INSTALLATION ET CONFIGURATION Ce TP consiste à installer, configurer et tester un serveur DNS sous Linux. Serveur open source : bind9 Distribution : Mandriva Objectifs : L objectif

Plus en détail

DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX)

DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX) DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX) 1. DESCRIPTION DU CONCOURS 1.1. But de l épreuve La compétition permet aux étudiants 1 de mettre à l épreuve leurs connaissances

Plus en détail

PRODUCTION ASSOCIEE. Le réseau de la M2L est organisé VLANs et comporte des commutateurs de niveau 2 et des routeurs.

PRODUCTION ASSOCIEE. Le réseau de la M2L est organisé VLANs et comporte des commutateurs de niveau 2 et des routeurs. PRODUCTION ASSOCIEE Contexte : Le contexte de la Maison des Ligues de Lorraine (La M2L) a été retenu au sein de notre centre de formation dans le cadre des PPE. La M2L, établissement du Conseil Régional

Plus en détail

Procédure d utilisation et de paramétrage (filtrage) avec IPFIRE

Procédure d utilisation et de paramétrage (filtrage) avec IPFIRE Procédure d utilisation et de paramétrage (filtrage) avec IPFIRE Par AVIGNON Bastien et CHOMILIER Tom V2.0 Sommaire : (Sommaire interactif) I) Introduction... 2 II) Mettre en place une black liste sur

Plus en détail

Imprimantes et partage réseau sous Samba avec authentification Active Directory

Imprimantes et partage réseau sous Samba avec authentification Active Directory Imprimantes et partage réseau sous Samba avec authentification Active Directory Sommaire 1- Pré requis Page 2 2- Configuration réseau Page 3 3- Installation de samba Page 4 à 5 4- Installation de kerberos

Plus en détail

User Documentation. Documentation utilisateur. version 0.2b 04-2009

User Documentation. Documentation utilisateur. version 0.2b 04-2009 User Documentation Documentation utilisateur version 0.2b 04-2009 Table des matières 3 French Version....4 English Version.22 Table des matières 4 Table des matières TABLE DES MATIERES 3 A PROPOS DE CE

Plus en détail

Gestion d identités PSL Installation IdP Authentic

Gestion d identités PSL Installation IdP Authentic Gestion d identités PSL Installation IdP Authentic Entr ouvert SCOP http ://www.entrouvert.com 2 avril 2015 Table des matières 1 Installation du système de base 1 1.1 Rappel sur la la synchronisation des

Plus en détail

Installation de la plate-forme Liberacces 2.0 «Intégrale» avec LiberInstall

Installation de la plate-forme Liberacces 2.0 «Intégrale» avec LiberInstall Installation de la plate-forme Liberacces 2.0 «Intégrale» avec LiberInstall Titre Version Date Dernière page Identité du document Installation de la plate-forme Liberacces 2.0 «Intégrale» avec LiberInstall

Plus en détail

Protéger une machine réelle derrière une machine virtuelle avec pfsense

Protéger une machine réelle derrière une machine virtuelle avec pfsense Protéger une machine réelle derrière une machine virtuelle avec pfsense Je vous présente un petit tutoriel sur la façon d utiliser pfsense au sein de VirtualBox comme passerelle pour votre machine Windows

Plus en détail

VXPERT SYSTEMES. CITRIX NETSCALER 10.1 et SMS PASSCODE 6.2. Guide d installation et de configuration pour Xenapp 6.5 avec SMS PASSCODE 6.

VXPERT SYSTEMES. CITRIX NETSCALER 10.1 et SMS PASSCODE 6.2. Guide d installation et de configuration pour Xenapp 6.5 avec SMS PASSCODE 6. VXPERT SYSTEMES CITRIX NETSCALER 10.1 et SMS PASSCODE 6.2 Guide d installation et de configuration pour Xenapp 6.5 avec SMS PASSCODE 6.2 Pour VXPERT.fr et FGAGNE.COM François Gagné fgagne@vxpert.fr 1 1.

Plus en détail

Mettre en place un accès sécurisé à travers Internet

Mettre en place un accès sécurisé à travers Internet Mettre en place un accès sécurisé à travers Internet Dans cette partie vous verrez comment configurer votre serveur en tant que serveur d accès distant. Dans un premier temps, les méthodes pour configurer

Plus en détail

vcenter Server 1. Interface Lancez le vsphere Client et connectez vous à vcenter Server. Voici la page d accueil de vcenter Server.

vcenter Server 1. Interface Lancez le vsphere Client et connectez vous à vcenter Server. Voici la page d accueil de vcenter Server. vcenter Server 1. Interface Lancez le vsphere Client et connectez vous à vcenter Server. Voici la page d accueil de vcenter Server. L icône Home permet de centraliser tous les paramètres sur une seule

Plus en détail

Mise en route d'un Routeur/Pare-Feu

Mise en route d'un Routeur/Pare-Feu Mise en route d'un Routeur/Pare-Feu Auteur : Mohamed DAOUES Classification : T.P Numéro de Version : 1.0 Date de la création : 30.05.2011 2 Suivi des Versions Version : Date : Nature des modifications

Plus en détail

BIND : installer un serveur DNS

BIND : installer un serveur DNS BIND : installer un serveur DNS Cet article a pour but de vous présenter comment installer et configurer un serveur DNS en utilisant l'application BIND. Je supposerai que vous disposez d'un réseau local

Plus en détail

DOMAIN NAME SYSTEM. CAILLET Mélanie. Tutoriel sur le DNS. Session 2012-2014 Option SISR

DOMAIN NAME SYSTEM. CAILLET Mélanie. Tutoriel sur le DNS. Session 2012-2014 Option SISR DOMAIN NAME SYSTEM Tutoriel sur le DNS CAILLET Mélanie Session 2012-2014 Option SISR Table des matières DOMAIN NAME SYSTEM 2013 I. DNS Statique sous Linux (Ubuntu 12.04 LTS)... 3 A. DNS Principal... 3

Plus en détail

Machine virtuelle W4M- Galaxy : Guide d'installation

Machine virtuelle W4M- Galaxy : Guide d'installation Machine virtuelle W4M- Galaxy : Guide d'installation Christophe Duperier 17/09/2014 v03 Ce document décrit l'installation et les fonctionnalités de la machine virtuelle W4M- Galaxy disponible sur le site

Plus en détail

Déploiement d OCS 1.02 RC2 sous Debian Etch 64

Déploiement d OCS 1.02 RC2 sous Debian Etch 64 Déploiement d OCS 1.02 RC2 sous Debian Etch 64 Par Big_orneau Note : Utilisation ici d OCS sur un domu Xen. Les commandes sont en italiques. - Avant toute chose vérifier absolument : La date sur le serveur

Plus en détail

Linux et le Shell. Francois BAYART. Atelier du samedi 20 Novembre 2010 http://www.loligrub.be

Linux et le Shell. Francois BAYART. Atelier du samedi 20 Novembre 2010 http://www.loligrub.be Linux et le Shell Francois BAYART Atelier du samedi 20 Novembre 2010 http://www.loligrub.be 1 Le «système» 2 FHS http://fr.wikipedia.org/wiki/filesystem_hierarchy_standard Filesystem Hierarchy Standard

Plus en détail

Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server

Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server Machine virtuelle Machine virtuelle Machine virtuelle VMware ESX 3 Network Shutdown Module Network

Plus en détail

NRPE. Objectif. Documentation. Procédures

NRPE. Objectif. Documentation. Procédures NRPE Objectif NRPE est un addon de Nagios permettant d établir une connexion sécurisée entre deux machines sous Linux. L intérêt est de lancer les commandes de vérifications sur la machine cliente afin

Plus en détail

Gestion d identités PSL Exploitation IdP Authentic

Gestion d identités PSL Exploitation IdP Authentic Gestion d identités PSL Exploitation IdP Authentic Entr ouvert SCOP http ://www.entrouvert.com Table des matières 1 Arrêt et démarrage 2 2 Configuration 2 2.1 Intégration à la fédération............................

Plus en détail

Cisco Certified Network Associate

Cisco Certified Network Associate Cisco Certified Network Associate Version 4 Notions de base sur les réseaux Chapitre 3 01 Quel protocole de la couche application sert couramment à prendre en charge les transferts de fichiers entre un

Plus en détail

Installation d un serveur HTTP (Hypertext Transfer Protocol) sous Débian 6

Installation d un serveur HTTP (Hypertext Transfer Protocol) sous Débian 6 Installation d un serveur HTTP (Hypertext Transfer Protocol) sous Débian 6 1 BERNIER François http://astronomie-astrophotographie.fr Table des matières Installation d un serveur HTTP (Hypertext Transfer

Plus en détail

Chapitre IX : Virtualisation

Chapitre IX : Virtualisation Chapitre IX : Virtualisation Eric Leclercq & Marinette Savonnet Département IEM http://ufrsciencestech.u-bourgogne.fr http://ludique.u-bourgogne.fr/~leclercq 5 mai 2011 1 Principes Problématique Typologie

Plus en détail

TP 7, 8 & 9 : Installation et Gestion de GLPI et Télédéploiement SISR 1 HUBERT JULIEN LABBE RICHARD DAY MICKAEL DOGNY CHRISTOPHE

TP 7, 8 & 9 : Installation et Gestion de GLPI et Télédéploiement SISR 1 HUBERT JULIEN LABBE RICHARD DAY MICKAEL DOGNY CHRISTOPHE TP 7, 8 & 9 : SISR 1 Installation et Gestion de GLPI et Télédéploiement HUBERT JULIEN LABBE RICHARD DAY MICKAEL DOGNY CHRISTOPHE Table des matières TP 7 : Installation de GLPI... 2 1 ) Recherchez sur internet

Plus en détail

Les réseaux des EPLEFPA. Guide «PfSense»

Les réseaux des EPLEFPA. Guide «PfSense» Les réseaux des EPLEFPA Guide «PfSense» Chantier national DRTIC http://drtic.educagri.fr/ Mai 2010 2 Table des matières 1 Installation de la PfSense...3 Schéma de principe...3 Préalable...3 Installation...4

Plus en détail

Projet Semestre2-1SISR

Projet Semestre2-1SISR Table des matières 1 Ressources... 2 2 Récupération des sources Samba... 2 3 Préparation du serveur... 2 4 Vérification et Compilation de SAMBA4... 3 5 Préparation du controleur de domaine... 3 6 Test

Plus en détail

IDEC. Windows Server. Installation, configuration, gestion et dépannage

IDEC. Windows Server. Installation, configuration, gestion et dépannage IDEC Windows Server Installation, configuration, gestion et dépannage Les deux tomes du manuel d installation, configuration gestion et dépannage vous sont fournis à la fois comme support de cours et comme

Plus en détail

MISE EN PLACE DU FIREWALL SHOREWALL

MISE EN PLACE DU FIREWALL SHOREWALL MISE EN PLACE DU FIREWALL SHOREWALL I. LA MISSION Dans le TP précédent vous avez testé deux solutions de partage d une ligne ADSL de façon à offrir un accès internet à tous vos utilisateurs. Vous connaissez

Plus en détail

Année Universitaire 2014-2015 3 ième année IMAC Mardi 6 janvier 2015. Cloud computing Travaux Pratiques

Année Universitaire 2014-2015 3 ième année IMAC Mardi 6 janvier 2015. Cloud computing Travaux Pratiques Année Universitaire 2014-2015 3 ième année IMAC Mardi 6 janvier 2015 Cloud computing Travaux Pratiques Objectif Dans un premier temps, on utilisera libvirt : une librairie d accès aux principaux hyperviseurs

Plus en détail

Toutes ces machines sont virtuelles et bridgées sur ma carte réseau.

Toutes ces machines sont virtuelles et bridgées sur ma carte réseau. Tutoriel Installation Debian 7.1 1 : Préambule FOG est une application open-source sous licence GPL de gestion d'images disques permettant le déploiement de stations via la technologie du Boot PXE. Ça

Plus en détail

MANUEL D INSTALLATION D UN PROXY

MANUEL D INSTALLATION D UN PROXY MANUEL D INSTALLATION D UN PROXY Squid, SquidGuard, Dansguardian Dans ce guide on va détailler l installation et la configuration d une solution proxy antivirale en utilisant les outils ; squid, dansguardian,

Plus en détail

Cloud Computing. Groupe : Vincent, Mohammed, Yannick, Allan Tuteur : Mr. NUSSBAUM Lucas Année : 2009/2010

Cloud Computing. Groupe : Vincent, Mohammed, Yannick, Allan Tuteur : Mr. NUSSBAUM Lucas Année : 2009/2010 Cloud Computing Groupe : Vincent, Mohammed, Yannick, Allan Tuteur : Mr. NUSSBAUM Lucas Année : 2009/2010 31 Mars 2010 1 Sommaire Introduction Le Cloud Computing Mise en place du Cloud Computing Grid5000

Plus en détail

Utilisation de KoXo Computers V2.1

Utilisation de KoXo Computers V2.1 Version 2.1.0.0 / Mai 2013 Page 2/45 Sommaire 1 Présentation... 4 2 Configuration des stations... 4 2. 1 Démarche manuelle (non conseillée)... 4 2. 2 Démarche automatique par les stratégies de groupe (conseillée)...

Plus en détail

Virtualisation et le hosting. Christophe Lucas <clucas@rotomalug.org> Sébastien Bonnegent <sebastien.bonnegent@insa rouen.fr>

Virtualisation et le hosting. Christophe Lucas <clucas@rotomalug.org> Sébastien Bonnegent <sebastien.bonnegent@insa rouen.fr> Christophe Lucas Sébastien Bonnegent ROTOMALUG INSA de Rouen Samedi 17 mars 2007 PLAN 1. Virtualisation 2. Xen 3. VServer 4. Utilisations 5. Cas

Plus en détail

Les clés d un réseau privé virtuel (VPN) fonctionnel

Les clés d un réseau privé virtuel (VPN) fonctionnel Les clés d un réseau privé virtuel (VPN) fonctionnel À quoi sert un «VPN»? Un «VPN» est, par définition, un réseau privé et sécurisé qui évolue dans un milieu incertain. Ce réseau permet de relier des

Plus en détail

Personnes ressources Tice. Académie de Rouen

Personnes ressources Tice. Académie de Rouen Personnes ressources Tice Académie de Rouen Objectifs Acquérir les connaissances de base concernant Linux Découvrir la solution technique SambaEdu3 : serveur de fichiers sous Linux Mettre en oeuvre cette

Plus en détail

Installation d un Serveur de Messagerie

Installation d un Serveur de Messagerie Installation d un Serveur de Messagerie Auteur : Mohamed DAOUES Classification : T.P Numéro de Version : 1.0 Date de la création : 22.07.2011 2 Suivi des Versions Version : Date : Nature des modifications

Plus en détail

SECURITE DES SYSTEMES DʼINFORMATION FREEIPA Projet de semestre ITI 3eme année Etudiant RAZAFIMAHATRATRA LAURE Professeur : Gérald LITZISTORF

SECURITE DES SYSTEMES DʼINFORMATION FREEIPA Projet de semestre ITI 3eme année Etudiant RAZAFIMAHATRATRA LAURE Professeur : Gérald LITZISTORF SECURITE DES SYSTEMES DʼINFORMATION FREEIPA Projet de semestre ITI 3eme année Etudiant RAZAFIMAHATRATRA LAURE Professeur : Gérald LITZISTORF 1 Année académique 2013-2014 Projet de semestre SECURITE DES

Plus en détail

1. Présentation du TP

1. Présentation du TP LP CHATEAU BLANC 45 CHALETTE/LOING BAC PRO SEN TR THÈME : CONTROLEUR PRINCIPAL DE TP N 1 DOMAINE ACADÉMIE D ORLÉANS-TOURS OBJECTIFS : INSTALLER ACTIVE DIRECTORY CONFIGURER ACTIVE DIRECTORY : - CREER DES

Plus en détail

OCS Inventory & GLPI

OCS Inventory & GLPI OCS Inventory & GLPI Avant toute chose, il faut mettre à jour les sources (apt-get update). Ensuite, nous allons installer les paquets nécessaires à la mise en place d un gestionnaire d incidents et un

Plus en détail

Windows 2000 Server Active Directory

Windows 2000 Server Active Directory ACTION PROFESIONNELLE N 2 Fabien SALAMONE BTS INFORMATIQUE DE GESTION Option Administrateur de Réseaux Session 2003 Windows 2000 Server Active Directory Compétences : C 21 C 23 C 27 C 31 C 33 C 36 Installer

Plus en détail

Serveur de messagerie sous Debian 5.0

Serveur de messagerie sous Debian 5.0 Serveur de messagerie sous Debian 5.0 Avec Postfix et une connexion sécurisée GEORGET DAMIEN ET ANTHONY DIJOUX 06/10/2009 [Tutorial d installation d un serveur de messagerie POP et SMTP sous Debian, avec

Plus en détail

ASR4 Réseaux Département Informatique, IUT Bordeaux 1. DHCP Prénom : Nom : Groupe :

ASR4 Réseaux Département Informatique, IUT Bordeaux 1. DHCP Prénom : Nom : Groupe : TP1 ASR4 Réseaux Département Informatique, IUT Bordeaux 1 ASR4-R Prénom : Nom : Groupe : 1 Gestion du réseau virtuel Le réseau virtuel utilisé lors de ce TP a été réalisé avec NEmu (Network Emulator),

Plus en détail