Projet Tuteure : Configuration automatique d un cluster de calcul avec Puppet
|
|
- Denise Doré
- il y a 8 ans
- Total affichages :
Transcription
1 Projet Tuteure : Configuration automatique d un cluster de calcul avec Puppet Andre Dimitri Quentin Dexheimer Riwan Blonde 26 mars 2012
2 Table des matières Remerciements Introduction au Projet Tuteuré Le Grid Présentation du Grid Les outils du Grid OAR Kadeploy Taktuk KaVLAN Les autres outils Puppet Labs Introduction à Puppet Qu est ce que Puppet Labs? Contexte d utilisation Fonction principale Commencer avec Puppet Installation Configuration Synchronisation Manifests Qu est ce qu un manifest? Ressources Modules Qu est ce qu un module? Structure d un module Exemple concret de module : MySQL Complément à Puppet Puppet Dashboard Scripts et modules développés Les Scripts Script de réservation Script d installation Le script de configuration du serveur Le script de configuration des clients Les modules Puppet Les modules OAR
3 TABLE DES MATIÈRES Le module Kadeploy Le module Dashboard Les autres modules Conclusion et Bibliographie 28 Conclusion Bibliographie Annexes 30 Les Scripts Reserv.sh tunnel.sh clients config.sh master config.sh install.sh Les Modules Puppet Module apache Module NFS Module DHCP Module Dashboard Module DNS Module MySQL Module Kadeploy Module Oar-base Module Oar-server Module Oar-frontend
4 Nous aimerions remercier Monsieur Lucas Nussbaum et le LORIA de nous avoir permis d utiliser le GRID 5000 et particulièrement Monsieur Sébastien Badia, notre tuteur de projet, pour sa gentillesse et sa disponibilité.
5 Introduction au Projet Tuteuré Notre projet tuteuré, dans le cadre de la Licence Professionnelle ASRALL, concerne la Configuration Automatique d un Cluster de Calcul avec Puppet. Ce projet nous a été proposé par Lucas Nussbaum et Sébastien Badia du LORIA, Laboratoire LOrrain de Recherche en Informatique et ses Applications, Unité Mixte de Recherche (UMR 7503), commune à plusieurs établissements, le CNRS, l Université de Lorraine et l INRIA. Le département Réseaux, Systèmes et Services, du LORIA s attache aux problèmes issus des systèmes distribués et parallèles ainsi que sur la capacité qu ils ont, à une echelle jusque là inconnue, à travailler, gérer et calculer en toute transparence. L objectif de ce projet est de réaliser une série de modules Puppet permettant de configurer un cluster de calcul, les tests et validations des développements se faisant sur la plateforme GRID Pour notre travail nous nous sommes en premier intéressés au GRID 5000 que nous présentons dans le premier chapitre de ce rapport. La compréhension, la prise en main et l utilisation de Puppet Lab, logiciel open source comportant les outils nécessaires à la configuration des systèmes informatiques, fait l objet du deuxième chapitre. Nous présenterons ensuite les différents développements que nous avons été amenés à réaliser avant de conclure sur les résultats obtenus, les difficultés rencontrées et les travaux restant à faire.
6 Chapitre 1 Le Grid Présentation du Grid 5000 Le Grid 5000 est une grille informatique ou grille de calcul 1 destinée à la recherche scientifique. Cette plateforme fait partie de l action de développement technique Aladin. Elle a vu le jour en 2003 et a pour but de promouvoir la recherche sur les grilles informatiques en France. Le Grid 5000 est aujourd hui composé de 1540 noeuds répartis sur 11 sites différents situés en France et au Luxembourg et interconnectés avec le Réseau National de Télécommunications pour la Technologie l Enseignement et la Recherche (RENATER). L objectif du Grid 5000 est de permettre aux scientifiques d effectuer des expériences dans le domaine des systèmes informatiques et des réseaux distribués dans un environnement hétérogène aussi proche de la réalite que possible. Figure 1.1 Localisation des différents sites du Grid Grille de calcul infrastructure logicielle et matérielle qui procure à un utilisateur final un accès à des capacités de calcul et de stockage de masse hautement distribuées. 5
7 CHAPITRE 1. LE GRID 5000 Le Grid 5000 est composé de plusieurs sites distincts, où l organisation est la même. Chaque site est composé d un ou plusieurs clusters 2. Par exemple, le site de Nancy héberge deux clusters nommés Griffon et Graphene. Cependant, tous les sites ne disposent pas du même nombre de machine : Bordeaux Grenoble Lille Luxembourg Lyon Nancy Orsay Reims Rennes Sophia Toulouse Total De plus, tous les sites ne proposent pas les mêmes services. Par exemple, le service Kavlan n est disponible que sur 5 des 11 sites : Lille, Lyon, Nancy, Rennes, Sophia A l intérieur de chaque cluster se trouvent des ordinateurs appelés nodes ou noeuds. Il en existe deux types, les noeuds de service et les noeuds de travail : Les noeuds de service servent à l administration des machines situées dans les clusters et à l accès aux hôtes virtuels pour les administrateurs. Les machines de service sont communes aux différents clusters situés sur les sites. Certains noeuds de service appelés frontend sont utilisés par les utilisateurs pour accéder aux différents sites via le protocole ssh, la réservation de noeuds et le déploiement. Les noeuds dit de travail sont les ordinateurs où sont effectuées les expériences. L administration de la plateforme est centralisée et est assurée par 8 personnes, certaines y sont affectées à plein temps d autres non. 1.2 Les outils du Grid 5000 Le Grid 5000 est composé de plusieurs services. Une partie de ces services a été développé uniquement pour cette plateforme comme par exemple Kadeploy qui a été développé par l INRIA Nancy - Grand Est. D autres sont des services standard déjà utilisés sur les systèmes Unix. 2. Cluster, ensemble de machines homogènes 6
8 CHAPITRE 1. LE GRID 5000 Figure 1.2 Un des clusters de Nancy : Griffon OAR2 OAR est un gestionnaire de ressources pour de grandes grilles informatiques. Il est e crit en PERL et s appuie sur une base SQL (PostgreSQL ou MySQL). OAR permet le de ploiement, la re servation et le management des noeuds et des jobs 3. Figure 1.3 Le logo du projet OAR Les principales fonctionnalite s d OAR sont les suivantes : Soumission : Le syste me de cide du moment ou votre travail commence afin d optimiser l ordonnancement global de la plateforme. S il n y a pas de noeud disponible, le travail est mis en attente. (correspond a oarsub -I ou oarsub scriptname ) Re servation pre alable : On de cide quand le travail doit commencer, les ressources devant e tre disponibles a la date spe cifie e. Si les ressources demande es sont disponibles au moment du de but du job, la re servation s effectue, sinon la re servation e choue et il faut alors modifier les parame tres de la re servation. (correspond a oarsub -r date ou oarsub-r Date scriptname) Mode inte ractif : On n exe cute pas de script lors de la soumission ou lors de la re servation mais on choisit de travailler de fac on inte ractive. (correspond a oarsub-i pour la soumission ou oarsub -r jour et oarsub -C jobid pour la re servation) 3. un job correspond a une ta che affecte e a une re servation 7
9 CHAPITRE 1. LE GRID 5000 Mode passif : On choisit d exécuter directement un script sur les noeuds réservés. Il n est alors pas obligatoire de se connecter sur les noeuds mais cela est toujours possible en utilisant oarsub -C jobid). (correspond à oarsub scriptname pour la soumission ou oarsub -r date scriptname pour la réservation) Types de job possible : défaut : on utilise juste l environnement par défaut des noeuds. déploiement : on déploie un système d exploitation défini lors de la réservation. Cette méthode utilise l outil Kadeploy. Il existe un autre type de job, destiné aux utilisateurs avancés Kadeploy Kadeploy est un outil qui permet le déploiement des différents systèmes d exploitation sur les noeuds de la plateforme. Il permet aussi de configurer les noeuds, de les cloner et de les manager. Il permet le déploiement des systèmes d exploitation : Linux, BSD, Windows et Solaris. Kadeploy3 est composé de 8 outils : Figure 1.4 Le logo du projet Kadeploy kadeploy client : l interface utilisateur pour Kadeploy, kaenv : fournit les informations concernant l environnement des noeuds, kareboot : permet de redémarrer les noeuds et de définir les paramètres à utiliser lors du redémarrage, kastat : affiche les performances des noeuds, kaconsole : ouvre une console sur un noeud distant, kanodes : donne des informations sur les noeuds, kapower : permet d allumer et d éteindre des noeuds et de connaître le statut des noeuds (allumé/éteint), karights : modifie les droits des utilisateurs sur les noeuds. 8
10 CHAPITRE 1. LE GRID Taktuk Figure 1.5 Le logo du projet TakTuk TakTuk est un outil complémentaire à OAR2. TakTuk autorise l exécution de commandes à distance sur un grand nombre de noeuds hétérogènes. Il met en place une liaison entre le frontend et les noeuds concernés par la commande et s adapte à l environnement de la machine. Exemple d une commande TakTuk : taktuk -l root -s -f OAR_FILE_NODES broadcast exec [ apt-get update ] L option -l permet d utiliser le compte root pour l installation. L option -s installe Taktuk sur la machine s il ne l est pas déjà. L option -m déploie sur une seule machine tandis que l option -f permet de déployer sur toutes les machines listées dans un fichier. Cette commande permet donc de déployer les paquets puppet, facter et puppetmaster sur les machines définies dans le fichier OAR FILE NODES KaVLAN KaVLAN est un outil qui permet la mise en place d un VLAN sur des noeuds du Grid5000. Plusieurs types de VLAN sont possibles : local, router et global. KaVLAN peut être utilisé en complément de Kadeploy et de OAR pour certains types d expérimentation. Un KaVLAN local est un VLAN complètement isolé du reste de la plateforme Grid5000. Il est alors obligatoire d utiliser une passerelle pour accéder aux noeuds se trouvant à l intérieur de VLAN. Un KaVLAN router permet l accès à tous les noeuds du VLAN depuis le reste du Grid5000 sans utiliser de passerelle. Un KaVLAN global est un VLAN qui est disponible sur tous les sites du Grid5000. Un routeur est alors configuré sur le site où le VLAN a été configuré. La commande suivante réserve un nombre donné, ici 10, de noeuds en utilisant un VLAN local : oarsub -I -t deploy -l {"type= kavlan-local "}/vlan=1+/nodes=10,walltime=1:30:00 9
11 CHAPITRE 1. LE GRID 5000 Kavlan dispose d autres commandes utiles. Par example, la commande donnant la liste des machines qui se trouvent à l intérieur d un VLAN pour un job donné : kavlan -V -j JOBID Celle qui permet d activer le dhcp interne a KaVLAN est : kavlan -e La commande qui permet de désactiver le dhcp est : kavlan -d Les autres outils Le Grid5000 utilise pour son fonctionnement d autres outils : une base de données MySQL. Cette base de données est utilisée par Kadeploy et OAR. un serveur DNS (Domaine Name Server) qui permet de faire la correspondance entre les adresses ip et les noms de domaine. un serveur DHCP (Dynamic Host Configuration Protocol) pour la configuration automatique des paramètres IP des machines. un serveur NFS (Network File System) pour permettre aux utilisateurs de stocker des informations dans leur /home sur les différents sites. des outils de supervision : Nagios : surveille les hôtes et services spécifiés, avec des alertes en cas de problème. Ganglia : permet de superviser des clusters et des grilles informatiques. Munin : présente les résultats sous forme de graphiques disponibles via une interface web. Cacti : mesure les performances réseau et serveur. un serveur weathermap : qui visualise le réseau sous forme d une carte. un serveur syslog : qui collecte les événements et crée les journaux correspondants. un annuaire LDAP ( Lightweight Directory Access Protocol). un serveur web Apache. un serveur Squid : un proxy/proxy reverse. un serveur NAT (Network Address Translation) : pour faire correspondre une seule adresse externe publique visible sur Internet à toutes les adresses d un réseau privé. un serveur mail. un dépôt de paquets et de logiciels. API Rest g5k : utilisé par KaVLAN, Kadeploy et UMS (User Management System). Il permet d utiliser toutes les fonctions du Grid 5000 et de les automatiser. une infrastructure de virtualisation XEN comportant de 2 a 5 dom0 et environ 30 domu avec un service par domu. 10
12 Chapitre 2 Puppet Labs 2.1 Introduction à Puppet Qu est ce que Puppet Labs? Puppet est un logiciel open source comportant les outils nécessaires à la configuration de systèmes informatiques. Il est basé sur le langage de programmation Ruby, et est sous licence GPL v2. Puppet a principalement été développé par Luke Kanies et son entreprise Puppet Labs. Kanies a développé puppet grâce à son expérience dans les systèmes Unix et les systèmes d administration depuis Non satisfait des outils de configuration existants, il a commencé à travailler avec des outils de développement en 2001, et a fondé Puppet Labs en 2005, une entreprise de développement open source basée sur les outils d automatisation. Peu de temps après, Puppet Labs sort son nouveau produit phare : Puppet. Il peut être utilisé pour gérer la configuration d application sous Unix et OSX, ainsi que Linux et Windows depuis peu de temps. Figure 2.1 Principe d utilisation de Puppet 11
13 CHAPITRE 2. PUPPET LABS Son modèle est basé sur 3 piliers : Le déploiement Un langage de configuration et une couche d abstraction Sa couche transactionnelle Contexte d utilisation La gestion au quotidien des configurations systèmes et applicatives d une entreprise représente un travail très fastidieux. Puppet simplifie grandement la vie des administrateurs : plus de contrôles et d interventions à réaliser régulièrement. Puppet se charge d imposer sur les machines des utilisateurs les configurations modèles définies par l administrateur. Puppet est un outil de déploiement et de gestion centralisée de configurations pour les environnements Linux, Unix et Windows ; les machines gérées pouvant être physiques ou virtualisées Fonction principale Puppet est un outil de déploiement et de gestion automatisés de configurations et de systèmes informatiques (serveurs, postes de travail..). Il repose sur un modèle client/serveur : un serveur central sert de dépôt de configurations, les systèmes clients (nœuds) se mettant à jour de manière manuelle ou automatique. Avec Puppet, l administrateur n écrit pas un ensemble d opérations à exécuter sur les différents nœuds sous la forme d un script, l administrateur décrit l état final de la machine dans un Manifest, ce qui l affranchit de la connaissance des commandes propres à chaque système d exploitation pour arriver à cet état. Le client Puppet peut être exécuté plusieurs fois, les changements seront opérés seulement si l état de la machine ne correspond pas à celui désiré. Figure 2.2 Fonction principale de Puppet Deploiement Puppet est habituellement déployé sur un simple modèle client/serveur. Le serveur est appelé Puppet Master, le logiciel client est appelé un agent, et l hôte lui-même ainsi que les agents sont définit comme des noeuds. Le Master s exécute comme un 12
14 CHAPITRE 2. PUPPET LABS démon sur un hôte et contient la configuration requise pour l environnement. Les agents se connectent au Master via une connexion cryptée qui utilise le standard SSL. Il est important de préciser que si l agent a déjà la configuration requise, puppet ne fera rien. Cela signifie que puppet appliquera seulement les changements sur l environnement s ils sont nécessaires. L ensemble de ces processus est appelé une exeécution de configuration. Par défaut, l agent puppet vérifie toutes les 30 minutes le Master afin de voir si des modifications doivent êtres effectuées. Cet interval de temps est bien sûr paramétrable. Configuration Lang/Rsrc Puppet utilise son propre langage de déclaration pour définir les points de configuration qui sont écrits dans une Ressource. Ce qui permet de distinguer puppet de beaucoup d autres outils de configuration. Ce langage permet de déclarer si un package doit être installé ou si un service doit être lancé par exemple. La plupart des outils de configuration (scripts shell ou pearl par exemple) sont procéduraux. Ils décrivent comment les choses doivent êtres faites plutôt que de se focaliser sur l état final attendu. Les utilisateurs de puppet ont juste besoin de déclarer l état final voulu de ses hôtes : les packages à installer, les services à executer etc. Avec puppet, l administrateur système n attache pas d importance sur comment ces actions vont être faites. Transaction Layer Le moteur de puppet est sa couche transactionnelle. Une transaction puppet : Interprète et compile la configuration, Communique la configuration compilée à l agent, Applique la configuration sur l agent, Rapporte le résultat de cette application au Master. La 1ère étape de puppet est d analyser la configuration et de calculer comment l appliquer sur l agent. Pour cela, puppet crée un graphique représentant toutes les ressources, ainsi que leurs relations entre elles et chaque agents. Puis puppet applique chaque ressource sur un hôte. Ce qui en fait une des caracteristiques les plus puissantes de puppet. Ensuite puppet se sert des ressources et les compile dans un catalogue pour chaque agent. Le catalogue est envoyé à l hôte et appliqué par l agent puppet. Les résultats de cette application sont renvoyés au Master sous forme de rapport. La couche transactionnelle permet aux configurations d être créées et appliquées indéfiniment sur un hôte. Ceci est appelé idempotent, cela signifie que de multiples applications de la même opération donneront le même résultat. Une configuration de puppet peut être 13
15 CHAPITRE 2. PUPPET LABS exécutée plusieurs fois sur un hôte en toute sécurité avec le même résultat, assurant ainsi à la configuration de rester compatible. 2.2 Commencer avec Puppet Installation Nous allons à present passer à l installation de Puppet sur une machine serveur et sur une machine cliente. Nous utiliserons le système d exploitation Debian Squeeze, puisque c est celui que nous utiliserons plus tard lors du travail effectué. Cependant, il faut savoir que Puppet est disponible sur toutes les distributions Linux et Unix (OpenSolaris, BSD, RedHat, Debian et Ubuntu) ainsi que sur Windows Server Côté Serveur Les pré-requis pour installer Puppet sont les packages ruby et libshadow-ruby1.8. Nous allons utiliser le package Puppetmaster disponible dans l APT, nous n aurons donc pas à devoir gérer les dépendances liées à l utilisation de Puppet. Ainsi pour installer Puppet, nous entrons la commande suivante : sudo apt-get install puppet puppetmaster facter En installant le paquet Puppet sur la machine serveur, nous lui permettons de s autogérer. Pour les machines clientes, il suffit d installer les mêmes paquets à l exception du Puppetmaster. Les packages installés Liste des différents paquets installés et leurs utilités : Package puppet : Ce paquet contient le script de démarrage et les scripts de compatibilité pour l agent puppet, qui est le processus responsable de la configuration du nœud local. Package puppetmaster : Ce paquet contient le script de démarrage et les scripts de compatibilité pour le processus maître puppet, qui est le serveur hébergeant les manifests et les fichiers pour les nœuds puppet. Package facter : Bibliothèque dite cross-plateform, qui permet de collecter des informations sur le système. Particulièrement utile dans la collecte d un nom de système, d adresses IP et/ou MAC, clés SSH. 14
16 CHAPITRE 2. PUPPET LABS Configuration Côté Serveur Pour configurer le serveur, il faudra éditer le fichier de configuration puppet.conf, ainsi que le fichier de hosts : 1. Dans le fichier /etc/puppet/puppet.conf, on y ajoute les lignes suivantes : 1 s e r v e r=nom machine serveur 2 [ master ] 3 certname=nom machin serveur L option serveur= permet d indiquer à l agent Puppetd quelle est la machine serveur. On la rajoute pour lui permettre de s auto-gérer. L option certname= définie le nom de la machine serveur au Puppetmasterd. 2. Dans le deuxième fichier, /etc/hosts, on y ajoute les adresses IP des machines clientes ainsi que sa propre adresse : Par exemple : l o c a l h o s t x. x puppet. ptut grid5000. lan puppetmaster x. x dns. ptut grid5000. lan dns x. x dhcp. ptut grid5000. lan dhcp 5... Côté Client Comme pour le serveur il faudra éditer les fichiers puppet.conf et hosts mais cette fois sans l option certname Synchronisation Une fois l installation et les configurations terminées, on lance le serveur maître via la commande : sudo /etc/init.d/puppetmaster {start stop restart} Lors de la première installation le serveur est déjà démarré. Sur la machine cliente, on lance une deuxième commande : sudo puppet agent --test 15
17 CHAPITRE 2. PUPPET LABS On obtient alors une demande de validation de certificat : info: Creating a new certificate request for puppetclient info: Creating a new SSL key at /var/lib/puppet/ssl/private_keys/puppetclient.pem warning: peer certificate won t be verified in this SSL session notice: Did not receive certificate Sur le serveur il faut alors délivrer le certificat pour la machine client : sudo puppet cert --list sudo puppet cert --sign puppetclient Pour avoir la liste complète des commandes : puppet help. Une fois le certificat distribué, on relance la commande précédente et cette fois apparait un nouveau message : notice: Got signed certificate notice Stating Puppet client err: Could not retrieve catalog: Could not find default node or by name with puppetclient on node puppetclient. L agent du client a bien été connecté avec le serveur mais n a pas pu trouver un catalogue pour le dit client. 2.3 Manifests Pour que Puppet fonctionne nous devons lui dire quoi faire. Ceci se fait grâce aux manifests Qu est ce qu un manifest? Les programmes de Puppet sont appelés manifest, et ils utilisent l extension de fichier.pp. Le coeur du language Puppet est la déclaration de ressources, qui représente l état désiré d une ressource. Les Manifests peuvent également utiliser des instructions conditionnelles, un groupe de ressources dans des collections, générer du texte avec des fonctions, référencer du code dans d autres manifests, et bien d autres choses, mais tout revient en dernière analyse à faire en sorte que les bonnes ressources soient gérées de la bonne façon. Avant d être appliqués, les manifests sont compilés dans le catalogue, qui est un graphe acyclique dirigé qui ne représente que les ressources et l ordre dans lequel elles doivent être synchronisées. Toute la logique conditionnelle, la recherche de données, l interpolation de variables, et le regroupement de ressources calculent l écart lors de la compilation. Parmis les manifests deux sont importants. Lorsque le client consultera le Puppet Master, l agent lira les fichiers dans un certain ordre : 16
18 CHAPITRE 2. PUPPET LABS le fichier /etc/puppet/manifests/site.pp qui dit à Puppet où et quelle configuration charger pour les clients. C est dans ce fichier que nous ferons la déclaration des ressources, on spécifiera également d importer les nodes. 1 import nodes. pp le fichier /etc/puppet/manifest/node.pp est lu lors de l import. Dans ce fichier, nous renseignons les FQDN des clients ainsi que les modules qui leur sont associés. 1 node oar s e r v e r. ptut grid5000. lan { i n c l u d e oar s erver, apache, mysql } Ressources Une ressource est un élément que Puppet sait configurer : file (contenu, permissions, propriétaire) package (présence ou absence) service (activation/désactivation, démarrage/arrêt) exec(exécution commande) cron, group, host, user etc... Dans Puppet chaque ressource est identifiée par un nom, elle est composée d un certain nombre d attributs qui ont chacun une valeur. Le language de Puppet représente une ressource comme ceci : 1 user { dave : 2 ensure => present, 3 uid => 507, 4 gid => admin, 5 s h e l l => / bin / zsh, 6 home => /home/ dave, 7 managehome => true, 8 } 2.4 Modules Qu est ce qu un module? Un module est une collection de manifests, ressources, fichiers, templates, class et définitions. Un simple module contiendra tout ce qui est requis pour configurer une application particulière. Par exemple il pourra contenir toutes les ressources spécifiées dans le manifest, fichiers et configuration associée pour Apache. Chaque module a besoin d une 17
19 CHAPITRE 2. PUPPET LABS structure de répertoire spécifique et d un fichier appelé init.pp. Cette structure autorise Puppet à charger automatiquement les modules. Pour accomplir ce chargement automatique Puppet vérifie une série de répertoires appelée le chemin du module (the module path en anglais). Ce chemin est configuré avec l option de configuration du module path dans la section [main] de puppet.conf. Par défault, Puppet recherche des modules dans /etc/puppet/modules et /var/lib/puppet/modules. Si nécessaire on peut rajouter d autres chemins Structure d un module Un module est définit de la façon suivante : 1. /etc/puppet/nom-du-module/manifests/ : Le répertoire manifests contiendra notre fichier init.pp et tout autre configuration. Le fichier init.pp est le coeur de notre module et chaque module doit en avoir un. Dans le fichier init.pp nous allons retrouver des classes qui seront instanciées lors de l appel d un agent. Dans ces classes on retrouve les configurations de réference. 2. /etc/puppet/nom-du-module/files/ : Le répertoire files contiendra tous les fichiers que nous souhaitons utiliser comme une partie de notre module, par exemple des fichiers à uploader. 3. /etc/puppet/nom-du-module/templates/ : Le répertoire templates contiendra tous les templates que notre module pourrait utiliser. 18
20 CHAPITRE 2. PUPPET LABS Exemple concret de module : MySQL Premièrement création de l arborescence : mkdir p /etc/puppet/modules/mysql/{files,templates,manifests} Ensuite nous allons créer le fichier init.pp avec la commande suivante : touch /etc/puppet/modules/mysql/manifests/init.pp Une fois l arborescence créée nous devons configurer le fichier init.pp comme ceci : 1 import i n s t a l l. pp 2 import c o n f i g. pp 3 import s e r v i c e. pp 4 5 c l a s s mysql { 6 i n c l u d e mysql : : i n s t a l l, mysql : : c o n f i g, mysql : : s e r v i c e 7 } Notre init.pp contient une seule class appelée mysql. A cela, on y ajoute trois fichiers install.pp, config.pp et service.pp contenant respectivement les class mysql : :install, mysql : :config et mysql : :service. La class mysql dit au puppetmaster d aller exécuter les class inclusent. Les trois fichiers doivent se trouver dans le même répertoire que le fichier init.pp. Le premier fichier, install.pp, s assure que les paquets MySQL-server, MySQL-client et Phpmyadmin sont bien installés. 1 c l a s s mysql : : i n s t a l l { 2 package { [ mysql s e r v e r, mysql c l i e n t, phpmyadmin ] : 3 ensure => present, 4 r e q u i r e => User [ mysql ], 5 } 6 user { 7 mysql : 8 ensure => present, 9 comment => MySQL user, 10 gid => mysql, 11 s h e l l => / bin / f a l s e, 12 r e q u i r e => Group [ mysql ], 13 } 14 group { 15 mysql : 16 ensure => present, 17 } 18 } Il permet aussi de créer un utilisateur MySQL et un groupe MySQL auquel on donne les droits administrateur sur MySQL. 19
21 CHAPITRE 2. PUPPET LABS Le second fichier, config.pp, utilise la class mysql : :config. Elle est une class de type ressource fichier. Elle permet de copier un fichier de configuration de MySQL prédéfinie. 1 c l a s s mysql : : c o n f i g { 2 f i l e { 3 / e t c /mysql/my. cnf : 4 source => puppet :/// mysql/mysql conf, 5 ensure => f i l e, 6 owner => root, 7 group => root, 8 mode => 644, 9 n o t i f y => S e r v i c e [ mysql ], 10 r e q u i r e => Class [ mysql : : i n s t a l l ] ; 11 } 12 } L option source indique à Puppet où se situe le fichier. Généralement, il se trouve dans le dossier files du module. Cependant, on ne spécifie pas tout le chemin d accès. Juste le nom du module et le nom du fichier. Puppet cherchera directement dans le dossier files. Les autres options permettent de définir le propriétaire, le groupe et les permissions du fichier. Le troisième fichier importé, service.pp, sert à vérifier que le service récemment installé fonctionne ou est démarré. 1 c l a s s mysql : : s e r v i c e { 2 s e r v i c e { mysql : 3 ensure => running, 4 h a s s t a t u s => true, 5 h a s r e s t a r t => true, 6 enable => true, 7 r e q u i r e => Class [ mysql : : i n s t a l l ], 8 } 9 } 2.5 Complément à Puppet Puppet Dashboard Aperçu Puppet Dashboard est une application avec interface web permettant d afficher des informations sur le serveur Puppet et son environnement (Master et Agents). Il permet de voir sur des graphes, les données répertoriées d un serveur Puppet ou de plusieurs serveurs (multi-puppet). Il fait aussi l inventaire de données à partir des agents (à la façon d un OCS inventory). 20
22 CHAPITRE 2. PUPPET LABS Enfin, il peut être utilisé comme console de configuration pour le serveur Puppet et de ses nodes (désignation des class et/ou paramètres, etc...). Installation Comme tout Puppet, son installation est relativement simple puisqu une ligne de commande via l APT est requise. Cependant le dépôt Puppet Labs APT doit être ajouté dans le fichier sources.list : #/etc/apt/sources.list deb squeeze main deb-src squeeze main A fortiori, la clé GPG doit aussi être ajoutée : sudo gpf --recv-key 4BD6EC30 sudo gpg -a --export 4BD6EC30 > /tmp/key sudo apt-key add /tmp/key Finalement, la commande pour l installer via l APT est : sudo apt-get install puppet-dashboard Pour se connecter à l interface web on exécute la commande suivante puis dans la barre navigation de son navigateur web, l url qui suit : sudo /etc/init.d/puppet-dashboard start 21
23 Chapitre 3 Scripts et modules développés 3.1 Les Scripts Script de réservation Nous avons réalisé un script qui nous permet de réserver des machines sans avoir à renseigner les commandes de l outil OAR. Nous demandons à la personne souhaitant réserver des machines de rentrer le nom de la réservation, le nombre de machines et le temps de réservation de celles-ci. Nous passons ensuite ces arguments à oarsub avec les options requises. 1 oarsub I t deploy l { type = kavlan l o c a l }/ vlan=1+/nodes=$nbr nodes, walltime=$tmps n $nom Script d installation Le script d installation, install.sh, nous permet d automatiser le déploiement de notre cluster une fois les machines réservées. Nous commençons l installation de notre cluster par l activation du DHCP de Grid5000. Il sera désactivé une fois notre serveur DHCP mis en place. Nous générons ensuite le fichier de configuration dhcpd.conf en fonction du site et du numéro du VLAN associé. Nous le déplaçons ensuite dans le dossier files du module DHCP de puppet. 1 // A c t i v a t i o n du DHCP i n t e r n e 2 kavlan e 3 4 // Generation du f i c h i e r de c o n f i g u r a t i o n 5 j o b i d = o a r s t a t grep $USER cut d f1 6 vlan = kavlan V j $ j o b i d 7 s i t e = uname n cut d. f2 8 export GEMHOME=/home/$USER/. gem/ruby /1.8/ 9 gem i n s t a l l ruby ip no r i no rdoc user i n s t a l l 10 chmod +x. / p r o j e t / i n s t a l l / gen dhcpd conf. rb 11. / p r o j e t / i n s t a l l / gen dhcpd conf. rb s i t e $ s i t e vlan id $vlan 12 mv dhcpd kavlan $vlan $ s i t e. conf $puppet modules /dhcp/ f i l e s /dhcpd. conf 22
24 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Nous allons ensuite déployer l image ISO de Debian Squeeze que nous fournit le Grid5000 pour installer les différents services sur les noeuds. Nous affichons auparavant la liste des noeuds que nous avons réservés. 1 echo Deploiement de l environnement Linux, Debian Squeeze 64 b i t, 2 sur t o u t e s l e s machines r e s e r v e e s ( Peut prendre p l u s i e u r s minutes ). 3 // Deploiement de l image ISO Debian Squeeze x64 b a s e 4 kadeploy3 e squeeze x64 base f $OAR FILE NODES vlan $vlan d V4 k $HOME/. ssh / i d d s a. pub Nous mettons en place les différents fichiers exploités par le script : list nodes, contient la liste de toutes les machines réservées list users, contient toutes les machines utilisateurs. puppet clients, contient toutes les machines services installées via Puppet : MySQL, DNS, DHCP, Kadeploy, OAR, NFS. puppet master, contient le FQDN de la machine puppet serveur Vient ensuite l ensemble des tests sur la configuration SSH du client qui a lancé le déploiement. Cela consiste en une vérification sur le fichier de configuration (.ssh/config) et le fichier d authorisation (.ssh/authorized keys), puis en une copie des clés de l utilisateur sur toutes les machines concernées par le déploiement du cluster. Cela nous permet de nous connecter aux différentes machines réservées sans avoir à entrer nos mots de passe à chaque fois et d utiliser TakTuk. 1 taktuk l root s m $node broadcast exec [ cat /. ssh / i d d s a. pub >> /. ssh / a u t h o r i z e d k e y s ] Nous créons ensuite les tunnels SSH grâce au script tunnel.sh. Via la commande SCP nous transmettons sur toutes les machines réservées le script tunnel.sh. Avec la commande Taktuk nous l exécutons. 23
25 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Nous passons ensuite à l installation du serveur Puppet et des clients puppets. Ainsi qu au rappatriement des modules du frontend vers la machine serveur. 1 // I n s t a l l a t i o n des paquets s e r v e u r s 2 taktuk l root s m $puppet master broadcast exec [ apt get q y i n s t a l l puppet f a c t e r puppetmaster ] 3 // I n s t a l l a t i o n des paquets c l i e n t s 4 taktuk l root s m $ p u p p e t c l i e n t s broadcast exec [ apt get q y i n s t a l l puppet f a c t e r ] 5 // rappatriement des c a t a l o g u e s / modules / m a n i f e s t s sur l e master 6 scp r $puppet modules / root@$puppet master : / e t c / puppet / Une fois installés, nous configurons le Puppetmaster grâce au script master config.sh qu on transmet sur la machine via un scp aussi. Une fois le maître configuré, nous configurons tous nos clients de telle sorte que chaque machine puisse recevoir la configuration qui lui est attribuée depuis le master. Enfin, nous terminons l installation par la désactivation du vlan fourni par Grid5000 pour utiliser notre propre serveur DHCP, puis par la suppression du fichier temporaire utilisé. 1 taktuk l root s f $ p u p p e t c l i e n t s broadcast exec [ d h c l i e n t ] 2 taktuk l root s f $ l i s t u s e r s broadcast exec [ d h c l i e n t ] Le script de configuration du serveur. Ce script permet d écrire toute la configuration du maître Puppet en se basant sur tous les services à installer. Pour commencer, nous configurons le fichier /etc/hostname pour établir le nom du réseau et nous redémarrons le service hostname. Ensuite nous établissons le fichier puppet.conf comme vu précédemment. Ainsi que le fichier /etc/hosts. Nous avons également besoin de configurer les adresses ou les noms de nos machines clientes pour que Puppet puisse les retrouver. 1 y=1 2 f o r r o l e in puppet dhcp dns mysql n f s oar frontend oar s e r v e r kadeploy 3 do 4 node= sed n $y p p u p p e t c l i e n t s 5 ip node = arp $node cut d f 2 cut d ( f 2 cut d ) f1 6 echo $ip node $ r o l e. ptut grid5000. lan >> / e t c / h o s t s 7 y=$ ( ( $y+1) ) 8 done 24
26 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Nous utilisons le même type de boucle pour définir les noeuds dans le fichier nodes.pp. Enfin, nous terminons la configuration du master Puppet par la configuration du service de noms de domaine. 1 f o r machine in $ ( cat l i s t u s e r s ) 2 do 3 ip machine = arp $machine cut d f 2 cut d ( f 2 cut d ) f1 4 echo machine$i IN A $ip machine >> 5 / e t c / puppet / modules / bind / f i l e s /db. ptut grid5000. lan 6 i p o c t 4 = echo $ip machine cut d. f 4 7 echo $ i p o c t 4 IN PTR machine$i. ptut grid5000. lan. >> 8 / e t c / puppet / modules / bind / f i l e s /db. r e v e r s 9 echo marocco $ i. ptut. grid5000. f r $ip machines marocco >> 10 / e t c / puppet / modules / kadeploy / f i l e s / c o n f s / nodes 11 i=$ ( ( $ i +1) ) 12 done La fin du programme permet de préparer l installation de kadeploy en modifiant le fichier de configuration Le script de configuration des clients. Contrairement au master, le client puppet n a besoin de connaître que deux adresses : celle du master puppet, et celle de son propre client. 3.2 Les modules Puppet Le sujet principal du projet était de déployer l intégralité du cluster au travers de Puppet. Une fois que l infrastructure est installée, nous allons maintenant déployer les différents services à l aide des modules que nous avons crées. Pour éviter les répétitions, nous nous contenterons d étudier les modules des outils spécifiques à Grid5000 et ceux qui ont une importance capitale. Tous les modules sont dans l annexe Les modules OAR OAR se décompose en deux parties : le serveur et le frontend. Figure 3.1 Deux modules pour OAR : Le serveur, et le frontend. 25
27 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Ces deux modules nécessitent un certain nombre de paramètres qui lui permettent de fonctionner : Une communication SSH qui permettent au frontend de se connecter directement sur le serveur et inversement ; Le fichier de depôt de logiciels d OAR. Nous copions donc l intégralité des clés SSH créées pour l occasion, ainsi que le fichier de configuration de notre utilisateur et le fichier de configuration du démon SSH. L ensemble de cette configuration, déployée à l identique sur le frontend et le serveur, est définie par une class située dans le fichier install.pp de chaque module OAR. Le module OAR-frontend. Il est configuré par deux programmes : les fichiers prologue et épilogue. Ils nécessitent absolument une configuration manuelle car vierges par défaut. Tout comme le serveur OAR, le frontend est configuré par deux scripts puppet, l un permettant d initialiser le module, l autre se contentant de vérifier et d adapter la configuration sur le client Puppet. Figure 3.2 Deux scripts d installation pour chaque module OAR Le module OAR-server. Le serveur OAR dépend activement d une base de données, en l occurence ici une base mysql, afin de gérer les noeuds. Cette base est localisée et configurée dans le fichier oar.conf, que nous allons copier depuis le maître Puppet vers le client. Deux autres fichiers de configuration sont nécessaires pour le serveur OAR. Il s agit de : Monika.conf, qui permet de montrer les jobs soumis par le frontend au serveur ainsi que l état de chaque noeud ; drawgantt.conf, qui permet de présenter les différentes tâches dans le temps suivant un Diagramme de Gantt. Le serveur OAR nécessite également plusieurs autres services : un serveur Web du type apache2 sur la machine déployée ; une base de données de type mysql ou postgre qui peut être sur une autre machine Le module Kadeploy Ce module est installé par Puppet à l aide de 5 fichiers de scripts Puppet. Cela permet de définir simplement ce qu un client et un serveur doivent récupérer. Kadeploy possède son propre depôt qu il faut ajouter pour pouvoir l installer. Il utilise également une base de données créee et configurée par Puppet à l aide des fichiers db creation.sql et init deploy3-db. Nous rajoutons également le fichier authorized keys de 26
28 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Figure 3.3 Module Kadeploy manière à permettre une communication SSH. Dans le dossier confs des fichers utiles à la configuration de kadeploy par Puppet, nous retrouvons les fichiers qui permettent d indiquer le nom du cluster, les partitions à appliquer, les commandes spécifiques pour certains noeuds, etc Le module Dashboard C est une fonctionnalité qui n était pas prévue initialement dans le projet. Elle nécessite d installer la clé publique pour le dépôt du Dashboard, qui n est pas inclus par défaut dans les dépôts logiciels du Grid5000. Nous nous assurons le bon fonctionnement du module sur le noeud au travers de 4 scripts Puppet, qui permettent d installer, de configurer et de lancer le puppet dashboard Les autres modules D autres modules ont dû être définis pour assurer le bon fonctionnement des outils utilisés. Nous avons donc réalisé ces modules en se basant sur des exemples fournis sur le site de Puppet, que nous avons réadapté avec une configuration adaptée à nos besoins. Cela nous a permis d installer ces services très rapidement, avec la souplesse d utilisation de ces modules. 27
29 Conclusion et Bibliographie Conclusion Pour conclure ce rapport, nous pouvons dire que ce travail fut vraiment très intéressant à mener et que l environnement du LORIA, la découverte du GRID 5000 et de Puppet ont été très formateur et nous ont beaucoup apporté. Nous avons ainsi réussi à mener à bien les items suivants : réservation automatique des machines installation sans image ISO installation du serveur Puppet avec configuration et déploiement avec configuration des agents sur les machines clientes récupération sans problème des modules DNS, DHCP, NFS, MySQL, Apache2, Dashboard, les services associés fonctionnent rapatriement sans soucis des modules OAR et KADEPLOY, des difficultés cependant ont été rencontrées pour leur fonctionnement Nous n avons par contre pas eu le temps de nous intéresser à d autres solutions de configuration automatique que Puppet. Un des problèmes majeurs que nous avons rencontré et que nous n avons pas réussi à résoudre concerne les hostnames des machines clientes. Ainsi quand on les change pour les faire correspondre à nos attentes (du genre : puppet.ptut-grid5000.lan au lieu de griffon-xx-kavlan-x.nancy.grid5000.fr), puppet crée un certificat sous le nom puppet.ptutgrid5000.lan mais lorsqu on lance une récupération des catalogues, il nous informe que les hostnames et le certificat ne correspondent pas. Pourtant, le serveur Puppet arrive à entrer en contact avec toutes les machines clientes puisque définies dans le /etc/hosts. De plus la demande de certificat est prise en compte. Donc le contact entre le serveur et la machine a bien été établi. Pour contourner cette difficulté et pouvoir continuer notre projet nous avons créé des scripts où les hostnames des machines clientes restent inchangés. Pour finaliser ce travail il reste à tester une réservation, à déployer notre mini Grid 5000 et à rechercher et valider des solutions alternatives à Puppet. 28
30 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS Bibliographie https :// :Home http ://kadeploy3.gforge.inria.fr/ http ://oar.imag.fr/ http ://taktuk.gforge.inria.fr/ http ://puppetlabs.com/ Pro Puppet de James Turnbull, Jeffrey McCune édition Apress
31 Annexes Les Scripts Reserv.sh 1 #! / bin / bash 2 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 3 #Formulaire 4 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 5 echo n Nom de l a r e s e r v a t i o n : 6 read nom 7 echo n Nombre de machine a r e s e r v e r : 8 read nbr\ nodes 9 echo n Temps de l a r e s e r v a t i o n ( h :mm: s s ) : 10 read tmps # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 13 #Reservation des machines 14 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 15 echo Reservation de $nbr nodes machine ( s ) pour $tmps heure ( s ). 16 oarsub I t deploy l { type = kavlan l o c a l }/ vlan=1+/nodes=$nbr \ nodes, walltime=$tmps n $nom tunnel.sh 1 #! / bin / bash 2 user = cat username 3 gateway = / sbin / ip route awk / d e f a u l t /{ p r i n t $3 } 4 5 ssh q o StrictHostKeyChecking=no o UserKnownHostsFile=/dev/ n u l l o P r e f e r r e d A u t h e n t i c a t i o n s=publickey o BatchMode=yes NL 8080: proxy :3128 $user@$gateway &>/dev/ n u l l & 6 7 rm / e t c / apt / apt. conf. d/ proxy 8 echo Acquire : : http : : Proxy http : / / : ; > / e t c / apt / apt. conf. d/ proxy 30
32 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS clients config.sh 1 #! / bin / bash 2 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 3 #C o n f i g u r a t i o n des machines c l i e n t e s 4 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 5 gateway = / sbin / ip route awk / d e f a u l t /{ p r i n t $3 } 6 puppetmaster = sed n 1 p couple 7 ip puppetmaster = arp $puppetmaster cut d f 2 cut d ( f 2 cut d ) f1 8 p u p p e t c l i e n t = sed n 2 p couple 9 i p p u p p e t c l i e n t = hostname i 10 num= sed n 3 p couple 11 r o l e = sed n $num p r o l e s echo s e r v e r=puppet. ptut grid5000. lan >> / e t c / puppet / puppet. conf echo >> / e t c / h o s t s 16 echo #ajout IP puppet >> / e t c / h o s t s 17 echo $ip puppetmaster puppet puppet. ptut grid5000. lan >> / e t c / h o s t s 18 echo $ i p p u p p e t c l i e n t $ r o l e $ r o l e. ptut grid5000. lan >> / e t c / h o s t s dns= sed n 2 p p u p p e t c l i e n t s 21 i p d n s = arp $dns cut d f 2 cut d ( f 2 cut d ) f echo nameserver $ i p d n s > / e t c / r e s o l v. conf 24 echo nameserver $gateway >> / e t c / r e s o l v. conf echo $ r o l e. ptut grid5000. lan > / e t c /hostname 27 / e t c / i n i t. d/hostname. sh s t a r t e x i t 0 master config.sh 1 #! / bin / bash 2 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 3 #C o n f i g u r a t i o n du s e r v e u r puppet maitre 4 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 5 puppetmaster = sed n 1p p u p p e t c l i e n t s 6 echo s e r v e r=puppet. ptut grid5000. lan >> / e t c / puppet / puppet. conf 7 echo [ master ] >> / e t c / puppet / puppet. conf 8 echo certname=puppet. ptut grid5000. lan >> / e t c / puppet / puppet. conf 9 echo >> / e t c / h o s t s 10 echo #ajout IP puppet >> / e t c / h o s t s #ajout des h o s t s c l i e n t s 13 y=1 14 f o r r o l e in puppet dhcp dns mysql n f s oar s e r v e r oar frontend kadeploy 15 do 16 node= sed n $y p p u p p e t c l i e n t s 17 ip node = arp $node cut d f 2 cut d ( f 2 cut d ) f1 18 echo $ip node $ r o l e $ r o l e. ptut grid5000. lan >> / e t c / h o s t s 31
33 CHAPITRE 3. SCRIPTS ET MODULES DÉVELOPPÉS 19 y=$ ( ( $y+1) ) 20 done #a t t r i b u t i o n des r o l e s aux c l i e n t s et ajout des c l i e n t s dans nodes. pp 23 echo node puppet. ptut grid5000. lan { i n c l u d e apache } >> / e t c / puppet / m a n i f e s t s / nodes. pp 24 j=2 25 f o r r o l e in dhcp dns mysql n f s oar s e r v e r oar frontend kadeploy 26 do 27 node= sed n $ j p p u p p e t c l i e n t s 28 echo node $ r o l e. ptut grid5000. lan { i n c l u d e $ r o l e } >> / e t c / puppet / m a n i f e s t s / nodes. pp 29 j=$ ( ( $ j +1) ) 30 done 31 echo import nodes. pp >> / e t c / puppet / m a n i f e s t s / s i t e. pp # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 34 #C o n f i g u r a t i o n des f i c h i e r s pour l e module DHCP 35 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 36 y=1 37 f o r r o l e in puppet dhcp dns mysql n f s oar s e r v e r oar frontend kadeploy 38 do 39 node= sed n $y p p u p p e t c l i e n t s 40 host name= echo $node cut d. f1 41 sed i s / $host name / $ r o l e /g / e t c / puppet / modules /dhcp/ f i l e s /dhcpd. conf 42 y=$ ( ( $y+1) ) 43 done sed i s /nancy. grid5000. f r / ptut grid5000. lan /g / e t c / puppet / modules /dhcp/ f i l e s /dhcpd. conf # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 48 #C o n f i g u r a t i o n des f i c h i e r s pour l e module DNS 49 # = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 50 gateway = / sbin / ip route awk / d e f a u l t /{ p r i n t $3 } 51 puppet= sed n 1p p u p p e t c l i e n t s 52 i p c o m p l e t e = arp $puppet cut d f 2 cut d ( f 2 cut d ) f dns= sed n 3 p p u p p e t c l i e n t s 55 i p d n s = arp $dns cut d f 2 cut d ( f 2 cut d ) f echo nameserver $ i p d n s > / e t c / r e s o l v. conf 58 echo nameserver $gateway >> / e t c / r e s o l v. conf 59 sed i s / / $gateway /g / e t c / puppet / modules /dns/ f i l e s /named. conf. o p t i o n s echo zone echo $ ip c omplete cut d. f3. echo $ip complete cut d. f2. echo $ip complete cut d. f1. in addr. arpa { >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 62 echo type master ; >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 63 echo n o t i f y no ; >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 64 echo f i l e / e t c / bind /db. r e v e r s ; >> / e t c / puppet / modules /dns/ f i l e s / named. conf. l o c a l 65 echo } ; >> / e t c / puppet / modules /dns/ f i l e s /named. conf. l o c a l 66 32
Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau
: Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau Nicolas Niclausse - INRIA Sophia Antipolis Méditerranée - projet Aladdin Grid 5000 2 juillet
Plus en détailGESTION D INFRASTRUCTURE AVEC PUPPET
GESTION D INFRASTRUCTURE AVEC PUPPET Séminaire RAISIN du 27/05/2010 Florent Paillot & Christophe Delalande INRIA Bordeaux - Sud-Ouest Sommaire 2 Qu est ce que Puppet? Pourquoi faire Avantages/Inconvénients
Plus en détailServeur Linux : FTP. Mise en place d un service FTP sous Linux. Bouron Dimitri 20/04/2014
Mise en place d un service FTP sous Linux Bouron Dimitri 20/04/2014 Ce document sert de démonstration concise pour l installation, la configuration, la sécurisation, d un serveur FTP sous Linux utilisant
Plus en détailPUPPET. Romain Bélorgey IR3 Ingénieurs 2000
PUPPET Romain Bélorgey IR3 Ingénieurs 2000 SOMMAIRE Qu est-ce que Puppet? Utilisation de Puppet Ses composants Son utilisation Le langage Puppet Démonstration QU EST-CE QUE PUPPET? Administration centralisée
Plus en détailAutomatisation de l administration système
Automatisation de l administration système Plan Problèmatique : trop de systèmes, trop de solutions Typage des solutions Puppet : gestion de configuration de systèmes Capistrano : déploiement d applications
Plus en détailAutomatisation de l administration système avec
Automatisation de l administration système avec Puppet à la présidence de l UHP Sylvain Zimmermann Université Henri Poincaré 16 février 2011 Plan Introduction Motivations à utiliser puppet Généralités
Plus en détailGrid5000 aujourd'hui : Architecture & utilisation
1 Grid5000 aujourd'hui : Architecture & utilisation aurelien.dumez@labri.fr 11 octobre 2005 Contexte 2 Grid5000 est : Une plateforme expérimentale pour le grid computing Ouverte à de nombreux thèmes de
Plus en détailConfiguration matériel. Tâche 2 : Installation proprement dite de l application sur un serveur de test virtualisé sous VmWare Workstation.
PPE 1 MISSION 1 Tâche 1 : Se renseigner sur les exigences logicielles et matérielles de l utilisation de MRBS sur une distribution Linux (Debian). Proposer une configuration matérielle suffisante pour
Plus en détailGérer ses environnements de développement avec Vagrant RMLL 2012
Gérer ses environnements de développement avec Vagrant RMLL 2012 1 Jean-Marc Fontaine Passionné de web depuis 1996, de PHP depuis 2000 et de musique depuis 1977 Consultant PHP chez Alter Way Ex-Président
Plus en détailTravaux Pratiques sur GRID 5000
Travaux Pratiques sur GRID 5000 réalisés par Alexandru Tantar, Bilel Derbel, Nouredine Melab Université des Sciences et Technologies de Lille (USTL/IEEEA), Laboratoire d Informatique Fondamentale de Lille
Plus en détailPOVERELLO KASONGO Lucien SIO 2, SISR SITUATION PROFESSIONNELLE OCS INVENTORY NG ET GLPI
POVERELLO KASONGO Lucien SIO 2, SISR SITUATION PROFESSIONNELLE OCS INVENTORY NG ET GLPI Contexte de la mission Suite à la multiplication des matériels et des logiciels dans les locaux de GSB, le service
Plus en détailGestion de clusters de calcul avec Rocks
Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse scemama@irsamc.ups-tlse.fr 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte
Plus en détailTable des matières. 1. Installation de VMware ESXI 4... 3. 1.1. Pré-requis... 3. 1.2. Installation... 3
Table des matières 1. Installation de VMware ESXI 4.... 3 1.1. Pré-requis... 3 1.2. Installation... 3 1.2.1. Panneau de configuration du serveur ESXI... 4 1.2.2. Configuration du mot de passe «Root»....
Plus en détailBTS SIO option SISR Lycée Godefroy de Bouillon Clermont-Ferrand
Active Directory sous Windows Server SAHIN Ibrahim BTS SIO option SISR Lycée Godefroy de Bouillon Clermont-Ferrand Sommaire I - Introduction... 3 1) Systèmes d exploitation utilisés... 3 2) Objectifs...
Plus en détailServeur de partage de documents. Étude et proposition d'une solution afin de mettre en place un serveur de partage de documents.
Serveur de partage de documents Étude et proposition d'une solution afin de mettre en place un serveur de partage de documents. Table des matières Création de la machine virtuelle Debian... 3 Présentation
Plus en détailTour des Unités du C.I.A.M. Tour des Unités du C.I.A.M. Maurice Baudry Laboratoire Statistique & Génome, Évry.
Tour des Unités du C.I.A.M. Maurice Baudry Laboratoire Statistique & Génome, Évry. 1 La cellule informatique : - Christophe Ambroise (PR UEVE) - Gilles Grasseau (IR CNRS) - Maurice Baudry (AI INRA) 2 Moi...
Plus en détailMaintenance et gestion approfondie des Systèmes d exploitation Master 2 SILI. Année universitaire 2014-2015 David Genest
Maintenance et gestion approfondie des Systèmes d exploitation Master 2 SILI Année universitaire 2014-2015 David Genest Systèmes d exploitation Master 2 SILI 2014-2015 1 Chapitre I Virtualisation 1 Présentation
Plus en détailInstallation des outils OCS et GLPI
Installation des outils OCS et GLPI MAYERAU David 06/02/2012 PRESENTATION. --------------------------------------------------------------------------------------------- 3 INSTALLATION DE GLPI. ------------------------------------------------------------------------------------
Plus en détailServeur DNS et DHCP couplé à LDAP Debian GNU/Linux
Serveur DNS et DHCP couplé à LDAP Debian GNU/Linux Matthieu Vogelweith 13 janvier 2009 Résumé L objectif de ce document est de détailler l installation d un serveur d infrastructure (DNS et DHCP) complet
Plus en détailCompte rendu d'activité PTI n 2
Compte rendu d'activité PTI n 2 Nom et prénom : CIULLO Julien BTS Informatique de Gestion Nature de l'activité OCS-NG et GLPI Introduction : Afin de pouvoir répondre aux demandes des utilisateurs au niveau
Plus en détailGetting Started. 10 étapes pour bien démarrer. Avant de démarrer. Première connexion PCC
10 étapes pour bien démarrer En suivant les différentes étapes de ce guide, vous vous familiariserez avec l interface d administration de votre Private Cloud. Quelques minutes vous suffiront pour déployer
Plus en détailJOMARON Sébastien BTS SIO 2012/2014. Titre de l activité: Surveiller des hôtes et des services avec NAGIOS
JOMARON Sébastien BTS SIO 2012/2014 Titre de l activité: Surveiller des hôtes et des services avec NAGIOS Intitulé Activité Type de référence. Durée effective de l activité. Mettre en œuvre et exploiter
Plus en détailLAB : Schéma. Compagnie C 192.168.10.30 /24 192.168.10.10 /24 NETASQ
LAB : Schéma Avertissement : l exemple de configuration ne constitue pas un cas réel et ne représente pas une architecture la plus sécurisée. Certains choix ne sont pas à prescrire dans un cas réel mais
Plus en détailOpen Source Job Scheduler. Installation(s)
Open Source Job Scheduler Installation(s) Installations Standard Configuration Superviseur Agent SOS-Paris 2 Pré-requis o Base de données o MySQL, MSACCESS, Oracle o JDBC ou ODBC o Connecteurs o Mysql
Plus en détailNetwork Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5
Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server 3, 3.5 Machine virtuelle Machine virtuelle Machine virtuelle VMware ESX Network Shutdown Module
Plus en détailTD4 - Supervision et métrologie des réseaux. 1 Supervision des applications et services réseaux et des ressources locales
M2 ISIM SIC Pro (RS) 2012 2013 Réseaux - Sécurité R.Card & T.T. Dang Ngoc dntt@u-cergy.fr TD4 - L architecture de gestion du réseau proposée par le protocole SNMP est fondée sur trois principaux éléments
Plus en détailTutoriel Création d une source Cydia et compilation des packages sous Linux
Tutoriel Création d une source Cydia et compilation des packages sous Linux 1. Pré-requis 1. Quelques connaissances sous Linux 2. Avoir à disposition un Serveur FTP pour héberger votre source 3. Un thème
Plus en détailTP : Introduction à TCP/IP sous UNIX
1 Introduction TP : Introduction à TCP/IP sous UNIX Le but de cette séance est de vous familiariser au fonctionnement de la pile TCP/IP sous UNIX. Les systèmes UNIX (Linux, FreeBSD, Solaris, HPUX,...)
Plus en détailPPE GESTION PARC INFORMATIQUE
BTS SIO 2013 2014 PPE GESTION PARC INFORMATIQUE PPE4-1 DAHMANI RACHID BAZEMONT ANTHONY SOMMAIRE... 3 Installation service AD-DNS... 3 Configuration DNS... 7 Intégration d une machine dans le domaine ISE...
Plus en détail1. La plate-forme LAMP
Servi ces pour intranet et Internet Ubuntu Linux - Création et gestion d un réseau local d entreprise 1. La plate-forme LAMP Services pour intranet et Internet La fourniture d'un site pour le réseau ou
Plus en détailSpécialiste Systèmes et Réseaux
page 1/5 Titre professionnel : «Technicien(ne) Supérieur(e) en Réseaux Informatiques et Télécommunications» inscrit au RNCP de niveau III (Bac + 2) (J.O. du 19/02/2013) 24 semaines + 8 semaines de stage
Plus en détailRTN / EC2LT Réseaux et Techniques Numériques. Ecole Centrale des Logiciels Libres et de Télécommunications
RTN / EC2LT Réseaux et Techniques Numériques Ecole Centrale des Logiciels Libres et de Télécommunications Mise en place d'un Contrôleur de Domaine dans un milieu hétérogène avec SAMBA couplé à LDAP Domaine
Plus en détailSolution d inventaire automatisé d un parc informatique et de télédistribution OCS INVENTORY NG. EHRHARD Eric - Gestionnaire Parc Informatique
Solution d inventaire automatisé d un parc informatique et de télédistribution OCS INVENTORY NG EHRHARD Eric - Gestionnaire Parc Informatique 1 Possibilités d OCS Inventory. Informations d'inventaire pertinentes.
Plus en détailUbuntu Linux Création, configuration et gestion d'un réseau local d'entreprise (3ième édition)
Introduction 1. Introduction 13 2. Le choix de l'ouvrage : Open Source et Linux Ubuntu 13 2.1 Structure du livre 13 2.2 Pré-requis ou niveau de connaissances préalables 13 3. L'objectif : la constitution
Plus en détailAfin d'éviter un message d'erreur au démarrage du service Apache du type :
I. INTRODUCTION GLPI (Gestionnaire libre de parc informatique) est une solution open-source de gestion de parc informatique et de gestion des services d assistance aux utilisateurs distribué sous licence
Plus en détailArchitecture de serveurs virtualisés pour la communauté mathématique
Architecture de serveurs virtualisés pour la communauté mathématique Jacquelin Charbonnel Journées ARAMIS - Lyon, juin 2012 version 1.1 Plan K pour un laboratoire K pour la Plateforme en Ligne pour les
Plus en détailBonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX
Bonjour I.Le contexte II.Le cloud computing III.L'expérimentation des solutions libres sur Grid'5000 1.Eucalyptus 2.OpenNebula 3.OpenStack IV.Tableau Comparatif V.Conclusion I.Le contexte 1)Le projet
Plus en détailInstallation et configuration d OCS/GLPI sur un Serveur Debian
Installation et configuration d OCS/GLPI sur un Serveur Debian GLPI (Gestionnaire Libre de Parc Informatique) est une application web (développée en PHP) qui permet la gestion de parc informatique et de
Plus en détailInstallation de Zabbix
1 Installation de Zabbix Présentation Zabbix (http://www.zabbix.com) est une solution de supervision open source. Ce logiciel permet de superviser des réseaux, et de surveiller les statuts de différents
Plus en détailMise en place d un firewall d entreprise avec PfSense
Mise en place d un firewall d entreprise avec PfSense JA-PSI Programmation & Sécurité informatique http://www.ja-psi.fr Par Régis Senet http://www.regis-senet.fr regis.senet [at] supinfo.com Le 13/06/2009
Plus en détailTP LINUX : MISE EN PLACE DU SERVEUR DE MESSAGERIE QMAIL
TP LINUX : MISE EN PLACE DU SERVEUR DE MESSAGERIE QMAIL Au cours de ce TP, vous allez installer un serveur de courrier sur un réseau local. Les étapes par lesquelles vous allez passer sont les suivantes
Plus en détailvsphere 5 TP2 La virtualisation avec VMware CNFETP F. GANGNEUX technologie GANGNEUX F. 17/12/2012
vsphere 5 La virtualisation avec VMware GANGNEUX F. 17/12/2012 CNFETP F. GANGNEUX technologie 1. Introduction... 3 2. Installation du contrôleur de domaine... 3 3. Installation du vcenter... 4 3.1. Installation
Plus en détailRéaliser un inventaire Documentation utilisateur
Référence : 11662 Version N : 6 Créé le : 29 Janvier 2014 Créé par : Bruno RICHOUX Téléphone : 0811 65 60 02 Sommaire 1. Conventions... 3 2. Introduction... 4 3. Principes généraux... 5 3.1. Depuis les
Plus en détailLes différentes méthodes pour se connecter
Les différentes méthodes pour se connecter Il y a plusieurs méthodes pour se connecter à l environnement vsphere 4 : en connexion locale sur le serveur ESX ; avec vsphere Client pour une connexion sur
Plus en détailMise en place des TPs Réseau en machines virtuelles. Utilisation de VmPlayer
Semestre 4 TR2 2013/2014 Mise en place des TPs Réseau en machines virtuelles. Utilisation de VmPlayer But du TP Le but est simple : vous donner les moyens de réaliser chez vous les TPs réseaux, en utilisant
Plus en détail11/04/2014 Document Technique des Services Disponibles. 16/04/2014. Document Technique des Services Disponibles.
16/04/2014 Document Technique des Services Disponibles. 1 Sommaire Schéma de l infrastructure réseau... 3 Détail des configurations... 5 Identifiants de connexions.... 8 2 Schéma de l infrastructure réseau
Plus en détailDocumentation FOG. 3. Choisir le nom de la machine, le nom d utilisateur et le mot de passe correspondant (par exemple : fog, password)
1. Installer une machine Ubuntu Server 14.04 i386 2. Saisir l adresse IP 3. Choisir le nom de la machine, le nom d utilisateur et le mot de passe correspondant (par exemple : fog, password) 4. Si vous
Plus en détailINSTALLATION NG V2.1 D OCS INVENTORY. Procédure d utilisation. Auteur : GALLEGO Cédric 23/10/2014 N version : v1
INSTALLATION D OCS INVENTORY NG V2.1 Procédure d utilisation Installation d OCS Inventory NG (Open Computer and Software Inventory) sur un serveur Linux N version : v1 Installation d OCS Inventory NG v2.1
Plus en détailTutoriel compte-rendu Mission 1
Mission 1 : Inventaire de l ensemble du matériel BTS SIO 2 2012/2013 MUNIER Julien Tutoriel compte-rendu Mission 1 Sommaire I - OCS Inventory Agent a) Installation et configuration Agent b) Installation
Plus en détailRépartition des charges avec HaProxy CONTEXTE MFC JULIEN HUBERT
2015 Répartition des charges avec HaProxy CONTEXTE MFC JULIEN HUBERT Développée par le français Willy Tarreau en 2002, HAProxy est une solution libre, fiable et très performante de répartition de charge
Plus en détailPRODUCTION ASSOCIEE. Le réseau de la M2L est organisé VLANs et comporte des commutateurs de niveau 2 et des routeurs.
PRODUCTION ASSOCIEE Contexte : Le contexte de la Maison des Ligues de Lorraine (La M2L) a été retenu au sein de notre centre de formation dans le cadre des PPE. La M2L, établissement du Conseil Régional
Plus en détailServices Réseaux - Couche Application. TODARO Cédric
Services Réseaux - Couche Application TODARO Cédric 1 TABLE DES MATIÈRES Table des matières 1 Protocoles de gestion de réseaux 3 1.1 DHCP (port 67/68)....................................... 3 1.2 DNS (port
Plus en détailCatalogue des formations 2015
Catalogue des formations 2015 Sommaire Relation entre les formations 3 1. Les bases de Linux 4 2. Certification Linux LPIC-1 8 3. Certification Linux LPIC-2 11 4. Certification Linux LPIC-3 14 5. Services
Plus en détailNOTE: Pour une meilleure sécurisation, nous vous recommandons de faire l installation des outils web à l intérieur d un serveur virtuel.
Environnement des outils de gestion Comme nous allons utiliser principalement des outils orientés Web pour la gestion de notre domaine, pour que ceux-ci fonctionnent autant sous Windows que sous Linux,
Plus en détailREPARTITION DE CHARGE LINUX
REPARTITION DE CHARGE LINUX I. SOMMAIRE II. Introduction... 2 1. Principe cluster... 2 III. Contexte... 2 2. Objectifs... 2 3. Topologie logique et physique finale... 3 IV. Préparation des postes... 4
Plus en détailCe TP consiste à installer, configurer et tester un serveur DNS sous Linux. Serveur open source : bind9 Distribution : Mandriva
DNS (DOMAIN NAME SERVER) INSTALLATION ET CONFIGURATION Ce TP consiste à installer, configurer et tester un serveur DNS sous Linux. Serveur open source : bind9 Distribution : Mandriva Objectifs : L objectif
Plus en détailDESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX)
DESCRIPTION DU CONCOURS QUÉBÉCOIS 2014 39 INFORMATIQUE (GESTION DE RÉSEAUX) 1. DESCRIPTION DU CONCOURS 1.1. But de l épreuve La compétition permet aux étudiants 1 de mettre à l épreuve leurs connaissances
Plus en détailPRODUCTION ASSOCIEE. Le réseau de la M2L est organisé VLANs et comporte des commutateurs de niveau 2 et des routeurs.
PRODUCTION ASSOCIEE Contexte : Le contexte de la Maison des Ligues de Lorraine (La M2L) a été retenu au sein de notre centre de formation dans le cadre des PPE. La M2L, établissement du Conseil Régional
Plus en détailProcédure d utilisation et de paramétrage (filtrage) avec IPFIRE
Procédure d utilisation et de paramétrage (filtrage) avec IPFIRE Par AVIGNON Bastien et CHOMILIER Tom V2.0 Sommaire : (Sommaire interactif) I) Introduction... 2 II) Mettre en place une black liste sur
Plus en détailImprimantes et partage réseau sous Samba avec authentification Active Directory
Imprimantes et partage réseau sous Samba avec authentification Active Directory Sommaire 1- Pré requis Page 2 2- Configuration réseau Page 3 3- Installation de samba Page 4 à 5 4- Installation de kerberos
Plus en détailUser Documentation. Documentation utilisateur. version 0.2b 04-2009
User Documentation Documentation utilisateur version 0.2b 04-2009 Table des matières 3 French Version....4 English Version.22 Table des matières 4 Table des matières TABLE DES MATIERES 3 A PROPOS DE CE
Plus en détailGestion d identités PSL Installation IdP Authentic
Gestion d identités PSL Installation IdP Authentic Entr ouvert SCOP http ://www.entrouvert.com 2 avril 2015 Table des matières 1 Installation du système de base 1 1.1 Rappel sur la la synchronisation des
Plus en détailInstallation de la plate-forme Liberacces 2.0 «Intégrale» avec LiberInstall
Installation de la plate-forme Liberacces 2.0 «Intégrale» avec LiberInstall Titre Version Date Dernière page Identité du document Installation de la plate-forme Liberacces 2.0 «Intégrale» avec LiberInstall
Plus en détailProtéger une machine réelle derrière une machine virtuelle avec pfsense
Protéger une machine réelle derrière une machine virtuelle avec pfsense Je vous présente un petit tutoriel sur la façon d utiliser pfsense au sein de VirtualBox comme passerelle pour votre machine Windows
Plus en détailVXPERT SYSTEMES. CITRIX NETSCALER 10.1 et SMS PASSCODE 6.2. Guide d installation et de configuration pour Xenapp 6.5 avec SMS PASSCODE 6.
VXPERT SYSTEMES CITRIX NETSCALER 10.1 et SMS PASSCODE 6.2 Guide d installation et de configuration pour Xenapp 6.5 avec SMS PASSCODE 6.2 Pour VXPERT.fr et FGAGNE.COM François Gagné fgagne@vxpert.fr 1 1.
Plus en détailMettre en place un accès sécurisé à travers Internet
Mettre en place un accès sécurisé à travers Internet Dans cette partie vous verrez comment configurer votre serveur en tant que serveur d accès distant. Dans un premier temps, les méthodes pour configurer
Plus en détailvcenter Server 1. Interface Lancez le vsphere Client et connectez vous à vcenter Server. Voici la page d accueil de vcenter Server.
vcenter Server 1. Interface Lancez le vsphere Client et connectez vous à vcenter Server. Voici la page d accueil de vcenter Server. L icône Home permet de centraliser tous les paramètres sur une seule
Plus en détailMise en route d'un Routeur/Pare-Feu
Mise en route d'un Routeur/Pare-Feu Auteur : Mohamed DAOUES Classification : T.P Numéro de Version : 1.0 Date de la création : 30.05.2011 2 Suivi des Versions Version : Date : Nature des modifications
Plus en détailBIND : installer un serveur DNS
BIND : installer un serveur DNS Cet article a pour but de vous présenter comment installer et configurer un serveur DNS en utilisant l'application BIND. Je supposerai que vous disposez d'un réseau local
Plus en détailDOMAIN NAME SYSTEM. CAILLET Mélanie. Tutoriel sur le DNS. Session 2012-2014 Option SISR
DOMAIN NAME SYSTEM Tutoriel sur le DNS CAILLET Mélanie Session 2012-2014 Option SISR Table des matières DOMAIN NAME SYSTEM 2013 I. DNS Statique sous Linux (Ubuntu 12.04 LTS)... 3 A. DNS Principal... 3
Plus en détailMachine virtuelle W4M- Galaxy : Guide d'installation
Machine virtuelle W4M- Galaxy : Guide d'installation Christophe Duperier 17/09/2014 v03 Ce document décrit l'installation et les fonctionnalités de la machine virtuelle W4M- Galaxy disponible sur le site
Plus en détailDéploiement d OCS 1.02 RC2 sous Debian Etch 64
Déploiement d OCS 1.02 RC2 sous Debian Etch 64 Par Big_orneau Note : Utilisation ici d OCS sur un domu Xen. Les commandes sont en italiques. - Avant toute chose vérifier absolument : La date sur le serveur
Plus en détailLinux et le Shell. Francois BAYART. Atelier du samedi 20 Novembre 2010 http://www.loligrub.be
Linux et le Shell Francois BAYART Atelier du samedi 20 Novembre 2010 http://www.loligrub.be 1 Le «système» 2 FHS http://fr.wikipedia.org/wiki/filesystem_hierarchy_standard Filesystem Hierarchy Standard
Plus en détailNetwork Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server
Network Shutdown Module V3 Extension du Manuel Utilisateur pour architecture Virtualisée VMWare ESX Server Machine virtuelle Machine virtuelle Machine virtuelle VMware ESX 3 Network Shutdown Module Network
Plus en détailNRPE. Objectif. Documentation. Procédures
NRPE Objectif NRPE est un addon de Nagios permettant d établir une connexion sécurisée entre deux machines sous Linux. L intérêt est de lancer les commandes de vérifications sur la machine cliente afin
Plus en détailGestion d identités PSL Exploitation IdP Authentic
Gestion d identités PSL Exploitation IdP Authentic Entr ouvert SCOP http ://www.entrouvert.com Table des matières 1 Arrêt et démarrage 2 2 Configuration 2 2.1 Intégration à la fédération............................
Plus en détailCisco Certified Network Associate
Cisco Certified Network Associate Version 4 Notions de base sur les réseaux Chapitre 3 01 Quel protocole de la couche application sert couramment à prendre en charge les transferts de fichiers entre un
Plus en détailInstallation d un serveur HTTP (Hypertext Transfer Protocol) sous Débian 6
Installation d un serveur HTTP (Hypertext Transfer Protocol) sous Débian 6 1 BERNIER François http://astronomie-astrophotographie.fr Table des matières Installation d un serveur HTTP (Hypertext Transfer
Plus en détailChapitre IX : Virtualisation
Chapitre IX : Virtualisation Eric Leclercq & Marinette Savonnet Département IEM http://ufrsciencestech.u-bourgogne.fr http://ludique.u-bourgogne.fr/~leclercq 5 mai 2011 1 Principes Problématique Typologie
Plus en détailTP 7, 8 & 9 : Installation et Gestion de GLPI et Télédéploiement SISR 1 HUBERT JULIEN LABBE RICHARD DAY MICKAEL DOGNY CHRISTOPHE
TP 7, 8 & 9 : SISR 1 Installation et Gestion de GLPI et Télédéploiement HUBERT JULIEN LABBE RICHARD DAY MICKAEL DOGNY CHRISTOPHE Table des matières TP 7 : Installation de GLPI... 2 1 ) Recherchez sur internet
Plus en détailLes réseaux des EPLEFPA. Guide «PfSense»
Les réseaux des EPLEFPA Guide «PfSense» Chantier national DRTIC http://drtic.educagri.fr/ Mai 2010 2 Table des matières 1 Installation de la PfSense...3 Schéma de principe...3 Préalable...3 Installation...4
Plus en détailProjet Semestre2-1SISR
Table des matières 1 Ressources... 2 2 Récupération des sources Samba... 2 3 Préparation du serveur... 2 4 Vérification et Compilation de SAMBA4... 3 5 Préparation du controleur de domaine... 3 6 Test
Plus en détailIDEC. Windows Server. Installation, configuration, gestion et dépannage
IDEC Windows Server Installation, configuration, gestion et dépannage Les deux tomes du manuel d installation, configuration gestion et dépannage vous sont fournis à la fois comme support de cours et comme
Plus en détailMISE EN PLACE DU FIREWALL SHOREWALL
MISE EN PLACE DU FIREWALL SHOREWALL I. LA MISSION Dans le TP précédent vous avez testé deux solutions de partage d une ligne ADSL de façon à offrir un accès internet à tous vos utilisateurs. Vous connaissez
Plus en détailAnnée Universitaire 2014-2015 3 ième année IMAC Mardi 6 janvier 2015. Cloud computing Travaux Pratiques
Année Universitaire 2014-2015 3 ième année IMAC Mardi 6 janvier 2015 Cloud computing Travaux Pratiques Objectif Dans un premier temps, on utilisera libvirt : une librairie d accès aux principaux hyperviseurs
Plus en détailToutes ces machines sont virtuelles et bridgées sur ma carte réseau.
Tutoriel Installation Debian 7.1 1 : Préambule FOG est une application open-source sous licence GPL de gestion d'images disques permettant le déploiement de stations via la technologie du Boot PXE. Ça
Plus en détailMANUEL D INSTALLATION D UN PROXY
MANUEL D INSTALLATION D UN PROXY Squid, SquidGuard, Dansguardian Dans ce guide on va détailler l installation et la configuration d une solution proxy antivirale en utilisant les outils ; squid, dansguardian,
Plus en détailCloud Computing. Groupe : Vincent, Mohammed, Yannick, Allan Tuteur : Mr. NUSSBAUM Lucas Année : 2009/2010
Cloud Computing Groupe : Vincent, Mohammed, Yannick, Allan Tuteur : Mr. NUSSBAUM Lucas Année : 2009/2010 31 Mars 2010 1 Sommaire Introduction Le Cloud Computing Mise en place du Cloud Computing Grid5000
Plus en détailUtilisation de KoXo Computers V2.1
Version 2.1.0.0 / Mai 2013 Page 2/45 Sommaire 1 Présentation... 4 2 Configuration des stations... 4 2. 1 Démarche manuelle (non conseillée)... 4 2. 2 Démarche automatique par les stratégies de groupe (conseillée)...
Plus en détailVirtualisation et le hosting. Christophe Lucas <clucas@rotomalug.org> Sébastien Bonnegent <sebastien.bonnegent@insa rouen.fr>
Christophe Lucas Sébastien Bonnegent ROTOMALUG INSA de Rouen Samedi 17 mars 2007 PLAN 1. Virtualisation 2. Xen 3. VServer 4. Utilisations 5. Cas
Plus en détailLes clés d un réseau privé virtuel (VPN) fonctionnel
Les clés d un réseau privé virtuel (VPN) fonctionnel À quoi sert un «VPN»? Un «VPN» est, par définition, un réseau privé et sécurisé qui évolue dans un milieu incertain. Ce réseau permet de relier des
Plus en détailPersonnes ressources Tice. Académie de Rouen
Personnes ressources Tice Académie de Rouen Objectifs Acquérir les connaissances de base concernant Linux Découvrir la solution technique SambaEdu3 : serveur de fichiers sous Linux Mettre en oeuvre cette
Plus en détailInstallation d un Serveur de Messagerie
Installation d un Serveur de Messagerie Auteur : Mohamed DAOUES Classification : T.P Numéro de Version : 1.0 Date de la création : 22.07.2011 2 Suivi des Versions Version : Date : Nature des modifications
Plus en détailSECURITE DES SYSTEMES DʼINFORMATION FREEIPA Projet de semestre ITI 3eme année Etudiant RAZAFIMAHATRATRA LAURE Professeur : Gérald LITZISTORF
SECURITE DES SYSTEMES DʼINFORMATION FREEIPA Projet de semestre ITI 3eme année Etudiant RAZAFIMAHATRATRA LAURE Professeur : Gérald LITZISTORF 1 Année académique 2013-2014 Projet de semestre SECURITE DES
Plus en détail1. Présentation du TP
LP CHATEAU BLANC 45 CHALETTE/LOING BAC PRO SEN TR THÈME : CONTROLEUR PRINCIPAL DE TP N 1 DOMAINE ACADÉMIE D ORLÉANS-TOURS OBJECTIFS : INSTALLER ACTIVE DIRECTORY CONFIGURER ACTIVE DIRECTORY : - CREER DES
Plus en détailOCS Inventory & GLPI
OCS Inventory & GLPI Avant toute chose, il faut mettre à jour les sources (apt-get update). Ensuite, nous allons installer les paquets nécessaires à la mise en place d un gestionnaire d incidents et un
Plus en détailWindows 2000 Server Active Directory
ACTION PROFESIONNELLE N 2 Fabien SALAMONE BTS INFORMATIQUE DE GESTION Option Administrateur de Réseaux Session 2003 Windows 2000 Server Active Directory Compétences : C 21 C 23 C 27 C 31 C 33 C 36 Installer
Plus en détailServeur de messagerie sous Debian 5.0
Serveur de messagerie sous Debian 5.0 Avec Postfix et une connexion sécurisée GEORGET DAMIEN ET ANTHONY DIJOUX 06/10/2009 [Tutorial d installation d un serveur de messagerie POP et SMTP sous Debian, avec
Plus en détailASR4 Réseaux Département Informatique, IUT Bordeaux 1. DHCP Prénom : Nom : Groupe :
TP1 ASR4 Réseaux Département Informatique, IUT Bordeaux 1 ASR4-R Prénom : Nom : Groupe : 1 Gestion du réseau virtuel Le réseau virtuel utilisé lors de ce TP a été réalisé avec NEmu (Network Emulator),
Plus en détail