Introduction à Hadoop + Map/Reduce. Certificat Big Data. TME Hadoop
|
|
|
- Emmanuelle Giroux
- il y a 10 ans
- Total affichages :
Transcription
1 Certificat Big Data TME Hadoop Ce TME a pour objectif de se familiariser avec le framework distribué Apacha Hadoop. Dans un premier temps, nous considèrerons les diérentes commandes permettant le chargement et l'exportation de données sur le système de chiers virtuel qu'il utilise : le système HDFS. Ensuite nous développerons un premier programme JAVA Hadoop réalisant un simple comptage de mots dans des chiers d'entrée de manière parallèlisée grâce au fonctionnalités MapReduce proposées par Hadoop. Enn, un classique classi- eur NaiveBayes parallèlisé pourra être envisagé. 1 Prise en Main de HDFS Quelques commandes après s'être loggué à la machine en tant que hduser (par la commande ssh [email protected] ): jps : permet de lister les services java lancés. start-dfs.sh : permet de lancer les services NameNode, DataNode et Secondary- NameNode. Ces services sont indispensables pour la gestion du système de chier hdfs. start-yarn.sh : permet de lancer les services RessourceManager et NodeManager. Ces services sont indispensables pour les fonctionnalités Map Reduce.!! Dans notre TP, hadoop est déjà démarré, pas besoin de le démarrer!! 1.1 Chargement et exportation de données à partir du shell La commande hadoop fs permet de lister les commandes disponibles sur le système de chiers: 1
2 Les noms des commandes et leurs fonctionnalités ressemblent énormément à celles du shell Unix. L'option help fournit des informations complémentaires sur une commande précise. La documentation ocielle, consultable à l'adresse org/docs/stable/hadoop-project-dist/hadoop-common/filesystemshell.html, recense les commandes du shell et en donne de courtes descriptions. Dans cette section, nous allons utiliser les commandes du shell Hadoop de façon à importer des données dans HDFS et à exporter des données à partir de HDFS. Ces commandes sont souvent employées pour charger des données appropriées, à télécharger des données traitées, à maintenir le système de chiers et à consulter le contenu des dossiers. Il est donc indispensable de les connaître pour exploiter ecacement HDFS. Réalisez les opérations minimales suivantes pour prendre en main hdfs : 1. Créer un dossier dans HDFS 2. Placer un chier dans le repertoire créé 3. Lister le contenu du repertoire hdfs 4. Récupérer le chier placé sur hdfs et l'enregistrer dans un chier local Note: Si toutes les commandes aboutissent à l'achage du message "No such le or directory", il est possible que la répertoire racine n'existe pas pour hadoopuser. Dans ce cas, créez le par la commande : hadoop fs -mkdir -p /user/hadoopuser. [email protected] 2
3 1.2 Chargement et exportation de données à partir de Java On souhaite réaliser les mêmes opérations que précédemment mais à partir d'un programme Java dans une classe HdfsManagement. Pour cela on utilise l'objet FileSystem récupéré par : C o n f i g u r a t i o n conf=new C o n f i g u r a t i o n ( ) ; FileSystem f s=filesystem. get ( c onf ) ; Cet objet propose les méthodes suivantes: liststatus : retourne un tableau des chiers contenus au chemin hdfs dénoté par l'objet Path passé en paramètre create : crée le chemin hdfs correspondant à l'objet Path passé en paramètre copyfromlocalfile : copie l'arborescence pointée par le chemin local source à l'adresse hdfs spéciée par le chemin destination passée en paramètre movetolocalfile : copie l'arborescence pointée par le chemin hdfs source à l'adresse locale spéciée par le chemin destination passée en paramètre Pour information, voici une liste d'imports hadoop dont vous pouvez avoir besoin: import org. apache. hadoop. c onf. C o n f i g u r a t i o n ; import org. apache. hadoop. f s. L o c a t e d F i l e S t a t u s ; import org. apache. hadoop. f s. RemoteIterator ; import org. apache. hadoop. f s. F i l e S t a t u s ; import org. apache. hadoop. f s. FileSystem ; import org. apache. hadoop. f s. F i l e U t i l ; import org. apache. hadoop. f s. Path ; Une fois la classe HdfsManagement écrite, il s'agit de la compiler en jar executable. En supposant que les sources sont dans un repertoire src, on peut dénir un script de compilation makejar.sh tel que (vous pouvez retrouver ce script dans le repertoire /Vrac/lamprier/FDMS ): mkdir bin f i n d s r c name ". java " > " s o u r c e s. t x t " l 1 ="/ usr / l o c a l /hadoop/ s hare /hadoop/common/hadoop common j a r " l 2 ="/ usr / l o c a l /hadoop/ s hare /hadoop/mapreduce/hadoop mapreduce c l i e n t core j a r " l 3 ="/ usr / l o c a l /hadoop/ s hare /hadoop/common/ l i b /commons c l i 1.2. j a r " l 4 ="/ usr / l o c a l /hadoop/ s hare /hadoop/common/ l i b /hadoop annotations j a r " j a v a c c l a s s p a t h $ l 1 " : " $ l 2 " : " $ l 3 " : " $ l 4 " : bin " d t x t echo Main C l a s s : $1 > MANIFEST.MF echo Class Path :. / bin / >> MANIFEST.MF j a r cvmf MANIFEST.MF Main. j a r C bin. La compilation se fait alors par : sh makejar. sh HdfsManagement Enn, on peut lancer le jar Main.jar sur hadoop par la commande : hadoop j a r Main. j a r [email protected] 3
4 2 MapReduce : WordCount Nous proposons de commencer l'initiation à la programmation MapReduce par le très classique programme de comptage de mots WordCount. Il s'agit de compter les mots de chiers texte plaçés dans un repertoire HDFS. Nous dénirons pour cela une classe WordCount qui sera la classe principale du programme (comportant le main) et deux classes WordCountMapper et WordCountReducer qui correspondent respectivement à l'étape Map et à l'étape Reduce du programme. La classe WordCountMapper hérite de Mapper<Object, Text, Text, IntWritable> et possède une méthode map(object oset, Text value, Context context) qui découpe en mots la ligne de texte contenue dans la variable value passée en paramètre et émet pour chacun d'entre eux un couple <mot,new IntWritable(1)> en appelant la méthode write de l'objet context. L'objectif du Reducer est alors d'additionner les valeurs des couples de même clé. On écrit alors une classe WordCountReducer qui hérite de Reducer<Text, IntWritable, Text, Text> et dénit une méthode reduce(text key, Iterable<IntWritable> values,context context) qui somme les valeurs contenues dans la liste values passée en paramètre et émet le résultat sous forme d'un couple <mot,nombre d'occurences> en utilisant la méthode write de l'objet context. Il reste alors à dénir le job, déclarer le Mapper et le Reducer ainsi que les chiers d'entrée en incluant les lignes suivantes dans le main de la classe WordCount: C o n f i g u r a t i o n conf=new C o n f i g u r a t i o n ( ) ; FileSystem f s=filesystem. get ( c onf ) ; Job job=job. g e t I n s t a n c e ( conf, " Compteur de mots v1. 0 " ) ; job. setmapperclass ( WordCountMapper. c l a s s ) ; job. s e t R e d u c e r C l a s s ( WordCountReducer. c l a s s ) ; job. setjarbyclass ( WordCount. c l a s s ) ; job. setoutputkeyclass ( Text. c l a s s ) ; job. setoutputvalueclass ( I n t W r i t a b l e. c l a s s ) ; FileInputFormat. addinputpath ( job, new Path ( a r g s [ 0 ] ) ) ; FileOutputFormat. setoutputpath ( job, new Path ( a r g s [ 1 ] ) ) ; job. waitforcompletion ( t r u e ) ; [email protected] 4
5 Pour information, les imports hadoop suivants sont nécessaires ici: import org. apache. hadoop. c onf. C o n f i g u r a t i o n ; import org. apache. hadoop. f s. Path ; import org. apache. hadoop. i o. I n t W r i t a b l e ; import org. apache. hadoop. i o. Text ; import org. apache. hadoop. mapreduce. Job ; import org. apache. hadoop. mapreduce. l i b. input. FileInputFormat ; import org. apache. hadoop. mapreduce. l i b. output. FileOutputFormat ; import org. apache. hadoop. mapreduce. Mapper ; import org. apache. hadoop. mapreduce. Reducer ; 3 MapReduce : classieur NaiveBayes Un modèle probabiliste de classication classique considère la probabilité conditionnelle suivante: p(c x 1,..., x n ) où c C est une classe parmi les classes possible pour un objet donné x et x 1,..., x n un vecteur de ses n caractéristiques. On considère ici des vecteurs binaires {0, 1} n La classe prédite par le modèle est alors la classe qui maximise cette probabilité conditionnelle: C(x) = arg max p(c x 1,..., x n ) À l'aide du théorème de Bayes, nous écrivons : p(c x 1,..., x n ) = p(c) p(f 1 = x 1,..., F n = x n c). p(x 1,..., x n ) avec F i la valeur d'une caractéristique binaire donnée i. On peut alors considérer le classieur équivalent suivant : C(x) = arg max p(c) p(f 1 = x 1,..., F n = x n c) p(x 1,..., x n ) dans lequel on peut ignorer p(x 1,..., x n ) indépendant de la classe et donc ne perturbant pas le choix de la classe de probabilité maximale: C(x) = arg max p(c) p(f 1 = x 1,..., F n = x n c) En considérant une hypothèse d'indépendance de réalisation des diérentes caractéristiques F 1,..., F n et en passant au logarithme de la probabilité conditionnelle p(c x 1,..., x n ), on peut alors considérer la formulation suivante: C(x) = arg max log p(c) + n log p(f i = x i c) i=1 [email protected] 5
6 3.1 Inférence En considérant que l'on dispose pour chaque classe C de sa probabilité a priori p(c) et des probabilités conditionnelles marginales p(f i C) des diérentes caractéristiques F i pour i {1... n} selon cette classe C, développer un modèle MapReduce de classication NaiveBayes sur Hadoop qui prédit la classe la plus probable d'instances contenues dans un ou plusieurs chiers texte (une instance par ligne). Que doit faire le Mapper pour ces prédicitions de classe? Et le Reducer? Tester le modèle de prédiction développé sur les données contenues dans les chiers du repertoire /Vrac/lamprier/FDMS/WebKB/content (4 chiers texte). Chaque ligne de ces chiers représente un site Web accompagné d'une liste de caractéristiques binaires et d'un label à prédire. 3.2 Apprentissage En posant la log-vraissemblance suivante sur l'ensemble des données d'entraînement X : L(θ) = log p(c x ) + n log p(f i = x i C x ) x X x X i=1 avec C x correspond à la classe de l'exemple x, la maximisation de cette quantité sous les contraintes p(c) = 1 et i {1... n} c C, p(f i = 0 c) + p(f i = 0 c) = 1 permet l'estimation des paramètres selon : c C : p(c) = {x X, C x = c} X i {1... n} c C : p(f i c) = {x X, x i = F i C x = c} {x X, C x = c} Que doit faire le Mapper pour cette tâche d'estimation des paramètres? Et le Reducer? Développer ce processus d'apprentissage pour le modèle de classication et expérimenter l'estimation de paramètres sur des données des chiers du repertoire /Vrac/lamprier/FDMS/WebKB/content. [email protected] 6
Certificat Big Data - Master MAthématiques
1 / 1 Certificat Big Data - Master MAthématiques Master 2 Auteur : Sylvain Lamprier UPMC Fouille de données et Medias Sociaux 2 / 1 Rich and big data: Millions d utilisateurs Millions de contenus Multimedia
Hadoop / Big Data. Benjamin Renaut <[email protected]> MBDS 2014-2015
Hadoop / Big Data Benjamin Renaut MBDS 2014-2015 TP 1 Méthodologie Map/Reduce - programmation Hadoop. 1 Installer VirtualBox (https://www.virtualbox.org/). Importer la machine
Hadoop : une plate-forme d exécution de programmes Map-Reduce
Hadoop : une plate-forme d exécution de programmes Map-Reduce Jonathan Lejeune UPMC 8 octobre 2013 PSIA 2013 Inspiré du cours des années précédentes de Luciana Arantes J. Lejeune (UPMC) Hadoop Map-Reduce
API04 Contribution. Apache Hadoop: Présentation et application dans le domaine des Data Warehouses. Introduction. Architecture
API04 Contribution Apache Hadoop: Présentation et application dans le domaine des Data Warehouses Introduction Cette publication a pour but de présenter le framework Java libre Apache Hadoop, permettant
Hadoop : une plate-forme d exécution de programmes Map-Reduce
Hadoop : une plate-forme d exécution de programmes Map-Reduce Jonathan Lejeune École des Mines de Nantes Janvier 2015 CODEL 2014/2015 J. Lejeune (École des Mines de Nantes) Hadoop Map-Reduce Janvier 2015
Hadoop / Big Data. Benjamin Renaut <[email protected]> MBDS 2014-2015
Hadoop / Big Data Benjamin Renaut MBDS 2014-2015 TP 3 TP noté Méthodologie Map/Reduce - programmation Hadoop - Sqoop Préparation du TP 1 Importer la machine virtuelle.ova du
MapReduce et Hadoop. Alexandre Denis [email protected]. Inria Bordeaux Sud-Ouest France ENSEIRB PG306
MapReduce et Hadoop Alexandre Denis [email protected] Inria Bordeaux Sud-Ouest France ENSEIRB PG306 Fouille de données Recherche & indexation de gros volumes Appliquer une opération simple à beaucoup
Programmation parallèle et distribuée (Master 1 Info 2015-2016)
Programmation parallèle et distribuée (Master 1 Info 2015-2016) Hadoop MapReduce et HDFS Note bibliographique : ce cours est largement inspiré par le cours de Benjamin Renaut (Tokidev SAS) Introduction
Introduction à Hadoop & MapReduce
Introduction à Hadoop & MapReduce Cours 2 Benjamin Renaut MOOC / FUN 2014-2015 5 Hadoop: présentation Apache Hadoop 5-1 Projet Open Source fondation Apache. http://hadoop.apache.org/
Notes de cours Practical BigData
Notes de cours Practical BigData Nguyen-Nhut DOAN 15 janvier 2015 Introduction Ces notes personnelles traduisent la deuxième partie du cours INF553 de l Ecole Polytechnique sur les bases de données et
MapReduce. Nicolas Dugué [email protected]. M2 MIAGE Systèmes d information répartis
MapReduce Nicolas Dugué [email protected] M2 MIAGE Systèmes d information répartis Plan 1 Introduction Big Data 2 MapReduce et ses implémentations 3 MapReduce pour fouiller des tweets 4 MapReduce
Hadoop / Big Data. Benjamin Renaut <[email protected]> MBDS 2013-2014
Hadoop / Big Data Benjamin Renaut MBDS 2013-2014 1 Introduction Programme Planning Objectifs TP/Évaluations Introduction 1-1 Benjamin Renaut Tokidev SAS - Bureau d'étude -
Introduction à MapReduce/Hadoop et Spark
1 / 36 Introduction à MapReduce/Hadoop et Spark Certificat Big Data Ludovic Denoyer et Sylvain Lamprier UPMC Plan 2 / 36 Contexte 3 / 36 Contexte 4 / 36 Data driven science: le 4e paradigme (Jim Gray -
Big Data Concepts et mise en oeuvre de Hadoop
Introduction 1. Objectif du chapitre 9 2. Le Big Data 10 2.1 Introduction 10 2.2 Informatique connectée, objets "intelligents" et données collectées 11 2.3 Les unités de mesure dans le monde Big Data 12
Map-Reduce : un cadre de programmation parallèlle pour l analyse de grandes données. Stéphane Genaud ENSIIE
Map-Reduce : un cadre de programmation parallèlle pour l analyse de grandes données Stéphane Genaud ENSIIE Traitement de données distribuées Google a introduit Map-Reduce [Dean and Ghemawat 2004] Ils s
7 Développement d une application de MapReduce
7 Développement d une application de MapReduce Ecrire un programme d Hadoop demande un processus : écrire une fonction map, une fonction reduce et tester localement. Ecrire ensuite un programme pour lancer
Hadoop / Big Data 2014-2015 MBDS. Benjamin Renaut <[email protected]>
Hadoop / Big Data Benjamin Renaut MBDS 2014-2015 1 Introduction Programme Planning Objectifs TP/Évaluations Introduction 1-1 Benjamin Renaut Tokidev SAS - Bureau d'étude -
Algorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Déploiement d une architecture Hadoop pour analyse de flux. franç[email protected]
Déploiement d une architecture Hadoop pour analyse de flux franç[email protected] 1 plan Introduction Hadoop Présentation Architecture d un cluster HDFS & MapReduce L architecture déployée Les
Introduc)on à Map- Reduce. Vincent Leroy
Introduc)on à Map- Reduce Vincent Leroy Sources Apache Hadoop Yahoo! Developer Network Hortonworks Cloudera Prac)cal Problem Solving with Hadoop and Pig Les cours seront mis en ligne sur hhp://membres.liglab.fr/leroy/
TP : Shell Scripts. 1 Remarque générale. 2 Mise en jambe. 3 Avec des si. Systèmes et scripts
E3FI ESIEE Paris Systèmes et scripts B. Perret TP : Shell Scripts 1 Remarque générale Lorsque vous cherchez des informations sur Internet, n'oubliez pas que langage de shell script que nous avons vu correspond
R+Hadoop = Rhadoop* Des logiciels libres complémentaires, une implémentation, une réponse au nouveau paradigme du bigdata!
R+Hadoop = Rhadoop* * Des logiciels libres complémentaires, une implémentation, une réponse au nouveau paradigme du bigdata! 27 Janvier 2014 / Université Paul Sabatier / DTSI / David Tsang-Hin-Sun Big
Importation et exportation de données dans HDFS
1 Importation et exportation de données dans HDFS Introduction Dans une installation type, Hadoop se trouve au cœur d un flux de données complexe. Ces données proviennent souvent de systèmes disparates
Fouillez facilement dans votre système Big Data. Olivier TAVARD
Fouillez facilement dans votre système Big Data Olivier TAVARD A propos de moi : Cofondateur de la société France Labs Développeur (principalement Java) Formateur en technologies de moteurs de recherche
Labs Hadoop Février 2013
SOA - BRMS - ESB - BPM CEP BAM - High Performance Compute & Data Grid - Cloud Computing - Big Data NoSQL - Analytics Labs Hadoop Février 2013 Mathias Kluba Managing Consultant Responsable offres NoSQL
Programmation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution
Programmation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2014) Marc Parizeau, Département de génie électrique et de génie informatique Plan Mégadonnées («big data») Architecture Hadoop distribution
Big Data. Cyril Amsellem Consultant avant-vente. 16 juin 2011. Talend 2010 1
Big Data Cyril Amsellem Consultant avant-vente 16 juin 2011 Talend 2010 1 Big Data Architecture globale Hadoop Les projets Hadoop (partie 1) Hadoop-Core : projet principal. HDFS : système de fichiers distribués
Avant-propos. Organisation du livre
Avant-propos Avec Hadoop par la pratique, les développeurs vont apprendre à maîtriser Hadoop et vont acquérir de nombreuses compétences sur la résolution de problèmes à l aide de ce framework. Ils vont
Oracle WebLogic Server (WLS) 11gR1 (10.3.5 et 10.3.6) Installation sur Oracle Linux 5 et 6 Hypothèses Installation Oracle Linux 5 (OL5)
Oracle WebLogic Server (WLS) 11gR1 (10.3.5 et 10.3.6) Installation sur Oracle Linux 5 et 6 Cet article présente une brève présentation de l'installation de Oracle WebLogic Server (WLS) 11gR1 (10.3.5 et
MapReduce. Malo Jaffré, Pablo Rauzy. 16 avril 2010 ENS. Malo Jaffré, Pablo Rauzy (ENS) MapReduce 16 avril 2010 1 / 15
MapReduce Malo Jaffré, Pablo Rauzy ENS 16 avril 2010 Malo Jaffré, Pablo Rauzy (ENS) MapReduce 16 avril 2010 1 / 15 Qu est ce que c est? Conceptuellement Données MapReduce est un framework de calcul distribué
TP1. Outils Java Eléments de correction
c sep. 2008, v2.1 Java TP1. Outils Java Eléments de correction Sébastien Jean Le but de ce TP, sur une séance, est de se familiariser avec les outils de développement et de documentation Java fournis par
Seance 2: En respectant la méthode de programmation par contrat, implémentez les autres fonctions de jeu.
Seance 2: Complétion du code de jeu. (durée max: 2h) Mot clé const et pointeurs: En respectant la méthode de programmation par contrat, implémentez les autres fonctions de jeu. Implémentez jeu_recupere_piece
Introduction à Eclipse
Introduction à Eclipse Eclipse IDE est un environnement de développement intégré libre (le terme Eclipse désigne également le projet correspondant, lancé par IBM) extensible, universel et polyvalent, permettant
Titre: Version: Dernière modification: Auteur: Statut: Licence:
Titre: Installation de WebObjects 5.3 Version: 2.1 Dernière modification: 2011/02/17 11:00 Auteur: Aurélien Minet Statut: version finale Licence: Creative Commons
4 Exemples de problèmes MapReduce incrémentaux
4 Exemples de problèmes MapReduce incrémentaux 1 / 32 Calcul des plus courtes distances à un noeud d un graphe Calcul des plus courts chemins entre toutes les paires de noeuds d un graphe Algorithme PageRank
Traitement de données
Traitement de données Présentation du module TINI Présentation du module : Le module Tini se décline en plusieurs versions, il est constitué d une carte d application et d un module processeur : Les modules
Fast and furious decision tree induction
Institut National des Sciences Appliquées de Rennes Rapport de pré-étude Encadrants : Nikolaos Parlavantzas - Christian Raymond Fast and furious decision tree induction Andra Blaj Nicolas Desfeux Emeline
Hadoop / Big Data. Benjamin Renaut <[email protected]> MBDS 2014-2015
Hadoop / Big Data Benjamin Renaut MBDS 2014-2015 6 map/reduce et Hadoop: exemples plus avancés Exemple: parcours de graphe 6-1 On cherche à déterminer la profondeur maximale
Installation FollowMe Q server
Installation FollowMe Q server FollowMe Rev 1.00 30 nov 2007 Pré requis FollowMe v5 est un service de Windows et s'installe sur tout poste fonctionnant sous XP Pro, 2000 server, 2003 server. Il utilise
Tutoriel: Création d'un Web service en C++ avec WebContentC++Framework
Tutoriel: Création d'un Web service en C++ avec WebContentC++Framework Gaël de Chalendar CEA LIST / LIC2M Journée de Présentation des Technologies WebContent INSTN 14/12/2009 Présentation de gsoap Plan
Cloud Computing MapReduce Année académique 2014/15
Cloud Computing Année académique 2014/15 Qu'est-ce que le Big Data? Source: Paul Butler (Facebook) "Visualizing Friendships", https://www.facebook.com/note.php?note_id=469716398919 2 2015 Marcel Graf Qu'est-ce
Prototypage et évaluation de performances d un service de traçabilité avec une architecture distribuée basée sur Hadoop
Julien Gerlier Siman Chen Rapport de projet de fin d étude ASR 2010/2011 Prototypage et évaluation de performances d un service de traçabilité avec une architecture distribuée basée sur Hadoop Encadrants
Premiers pas en Linux
Premiers pas en Linux 1 Bref historique Linux Système d'exploitation créé en 1991. Par Linus Torvalds un étudiant nlandais. Développé et amélioré par des centaines de spécialistes dans le monde. Particularité
Formation Cloudera Data Analyst Utiliser Pig, Hive et Impala avec Hadoop
Passez au niveau supérieur en termes de connaissance grâce à la formation Data Analyst de Cloudera. Public Durée Objectifs Analystes de données, business analysts, développeurs et administrateurs qui ont
L écosystème Hadoop Nicolas Thiébaud [email protected]. Tuesday, July 2, 13
L écosystème Hadoop Nicolas Thiébaud [email protected] HUG France 250 membres sur la mailing liste 30 présentations 9 meetups organisés, de 20 à 100 invités Présence de Cloudera, MapR, Hortonworks,
TP n 2 : Installation et administration du serveur ProFTP. Partie 1 : Fonctionnement du protocole FTP (pas plus de 15min)
TP n 2 : Installation et administration du serveur ProFTP Objectifs du TP Comprendre le fonctionnement du protocole FTP Installation et compilation d un paquet source Configuration, lancement et administration
WEBMESTRE : CONCEPTION DE SITES ET ADMINISTRATION DE SERVEURS WEB
WEBMESTRE : CONCEPTION DE SITES ET ADMINISTRATION DE SERVEURS WEB Installation et administration d un serveur web Module 25793 TP A5 (1/2 valeur) Chapitre 14 Mise en place d un serveur ftp Le plus grand
Etude de cas : PGE JEE V2
Arrivés à ce point du tutoriel, nous savons créer une application Web implémentant la persistance des données. Toutefois, le modèle de cette application était simple et composé d'une unique classe et les
Département Informatique 5 e année 2013-2014. Hadoop: Optimisation et Ordonnancement
École Polytechnique de l Université de Tours 64, Avenue Jean Portalis 37200 TOURS, FRANCE Tél. +33 (0)2 47 36 14 14 www.polytech.univ-tours.fr Département Informatique 5 e année 2013-2014 Hadoop: Optimisation
INFO-F-404 : Techniques avancées de systèmes d exploitation
Nikita Veshchikov e-mail : [email protected] téléphone : 02/650.58.56 bureau : 2N8.213 URL : http://student.ulb.ac.be/~nveshchi/ INFO-F-404 : Techniques avancées de systèmes d exploitation Table
Les technologies du Big Data
Les technologies du Big Data PRÉSENTÉ AU 40 E CONGRÈS DE L ASSOCIATION DES ÉCONOMISTES QUÉBÉCOIS PAR TOM LANDRY, CONSEILLER SENIOR LE 20 MAI 2015 WWW.CRIM.CA TECHNOLOGIES: DES DONNÉES JUSQU'À L UTILISATEUR
SHERLOCK 7. Version 1.2.0 du 01/09/09 JAVASCRIPT 1.5
SHERLOCK 7 Version 1.2.0 du 01/09/09 JAVASCRIPT 1.5 Cette note montre comment intégrer un script Java dans une investigation Sherlock et les différents aspects de Java script. S T E M M E R I M A G I N
Prototypage et évaluation de performances d un service de traçabilité avec une architecture distribuée basée sur Hadoop
Prototypage et évaluation de performances d un service de traçabilité avec une architecture distribuée basée sur Hadoop Soutenance de projet ASR 27/01/2011 Julien Gerlier Siman Chen Encadrés par Bruno
HADOOP ET SON ÉCOSYSTÈME
HADOOP ET SON ÉCOSYSTÈME Mars 2013 2012 Affini-Tech - Diffusion restreinte 1 AFFINI-TECH Méthodes projets Outils de reporting & Data-visualisation Business & Analyses BigData Modélisation Hadoop Technos
Architecture de la plateforme SBC
Simple Business Connector Architecture de la plateforme SBC Titre Projet Description Architecture de la plateforme SBC Plateforme SBC Ce document reprend toutes les étapes de l'installation du serveur
Professeur-superviseur Alain April
RAPPORT TECHNIQUE PRÉSENTÉ À L ÉCOLE DE TECHNOLOGIE SUPÉRIEURE DANS LE CADRE DU COURS GTI792 BASE DE DONNÉES DISTRIBUÉE APPLIQUÉE EN GÉNÉTIQUE DANS LE CADRE DE L'ANALYSE DE SÉQUENÇAGE GÉNOMIQUE JEAN-PHILIPPE
Serveur Linux : FTP. Mise en place d un service FTP sous Linux. Bouron Dimitri 20/04/2014
Mise en place d un service FTP sous Linux Bouron Dimitri 20/04/2014 Ce document sert de démonstration concise pour l installation, la configuration, la sécurisation, d un serveur FTP sous Linux utilisant
Cartographie des solutions BigData
Cartographie des solutions BigData Panorama du marché et prospective 1 1 Solutions BigData Défi(s) pour les fournisseurs Quel marché Architectures Acteurs commerciaux Solutions alternatives 2 2 Quels Défis?
Open Source Job Scheduler. Installation(s)
Open Source Job Scheduler Installation(s) Installations Standard Configuration Superviseur Agent SOS-Paris 2 Pré-requis o Base de données o MySQL, MSACCESS, Oracle o JDBC ou ODBC o Connecteurs o Mysql
Table des matières. 2011 Hakim Benameurlaine 1
Table des matières 1 OpenSSH... 2 1.1 Introduction... 2 1.2 Installation... 2 1.3 Test de connexion... 2 1.4 Configuration du serveur ssh... 3 1.5 Contrôle du service ssh... 4 1.6 Log... 4 1.7 Client ssh...
Big Data : utilisation d un cluster Hadoop HDFS Map/Reduce HBase
Big Data : utilisation d un cluster cluster Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire APC, Université Paris Diderot LabEx UnivEarthS 14 Janvier 2014 C. Cavet
BIG DATA en Sciences et Industries de l Environnement
BIG DATA en Sciences et Industries de l Environnement François Royer www.datasio.com 21 mars 2012 FR Big Data Congress, Paris 2012 1/23 Transport terrestre Traçabilité Océanographie Transport aérien Télémétrie
TD séances n 3 et n 4 Répertoires et Fichiers sous Unix
Ce TP est destiné à vous familiariser avec les fichiers sous l'environnement UNIX. Fortement axé sur la pratique, il aborde la création, la manipulation et la suppression des répertoires et fichiers. 1
Contents. 1 Premiers pas en Linux. 1.2 Généralités. 1.1 Bref historique Linux
Contents 1 Premiers pas en Linux 1 1.1 Bref historique Linux....................... 1 1.2 Généralités............................. 1 1.3 Arborescence sous Linux...................... 2 1.4 Commandes fondamentales....................
Votre premier projet Android
3 Votre premier projet Android Maintenant que le SDK Android est installé, il est temps de créer votre premier projet. La bonne nouvelle est qu il n exige aucune ligne de code les outils Android créent
Installation et prise en main
TP1 Installation et prise en main Android est le système d'exploitation pour smartphones, tablettes et autres appareils développé par Google. Pour permettre aux utilisateurs d'installer des applications
Conception de circuits numériques et architecture des ordinateurs
Conception de circuits numériques et architecture des ordinateurs Frédéric Pétrot Année universitaire 2014-2015 Structure du cours C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 Codage des nombres en base 2, logique
Cours 8 Not Only SQL
Cours 8 Not Only SQL Cours 8 - NoSQL Qu'est-ce que le NoSQL? Cours 8 - NoSQL Qu'est-ce que le NoSQL? Catégorie de SGBD s'affranchissant du modèle relationnel des SGBDR. Mouvance apparue par le biais des
Introduction aux algorithmes MapReduce. Mathieu Dumoulin (GRAAL), 14 Février 2014
Introduction aux algorithmes MapReduce Mathieu Dumoulin (GRAAL), 14 Février 2014 Plan Introduction de la problématique Tutoriel MapReduce Design d algorithmes MapReduce Tri, somme et calcul de moyenne
1 Configuration réseau des PC de la salle TP
TP Installation/Configuration des services NIS et NFS sur serveur GNU/Linux Nom : Prénom : Date : Numéro : Objectifs : Installer un serveur NFS et NIS sur un PC GNU/Linux (Mandriva). Visiter les principaux
Documentation technique OpenVPN
Documentation technique OpenVPN Table des matières Présentation :... 3 Installation du serveur OpenVPN :... 3 Configuration du serveur OpenVPN :... 3 Création d'un compte client OpenVPN :... 6 Configuration
Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html. R.R. Université Lyon 2
Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html 1 Plan de présentation 1. L écosystème Hadoop 2. Principe de programmation MapReduce 3. Programmation des fonctions
Cours Linux. Cours en ligne Administrateur Systèmes Linux. Académie Libre [email protected]
Cours Linux Cours en ligne Administrateur Systèmes Linux Académie Libre [email protected] Programme général du cours Linux MODULE 1 - Fondamentaux Introduction à Linux La procédure de Login et Logout
Cours 420-KEG-LG, Gestion de réseaux et support technique. Atelier No2 :
Atelier No2 : Installation d Active Directory Installation du service DNS Installation du Service WINS Création d'un compte d'ordinateur Jonction d'un ordinateur à un domaine Création d usagers. Étape
Module d anonymisation
Module d anonymisation Préambule Ce module permet d «anonymiser» un fichier, c est à dire de masquer les informations qu il contient en fonction de règles préalablement spécifiées. Le fichier généré par
KAJOUT WASSIM INTERNET INFORMATION SERVICES (IIS) 01/03/2013. Compte-rendu sur ISS KAJOUT Wassim
01/03/2013 Le rôle de Serveur Web (IIS) dans Windows Server 2008 R2 vous permet de partager des informations avec des utilisateurs sur Internet, sur un intranet ou un extranet. Windows Server 2008 R2 met
Export et Import de modèles ICAR sous Trnsys 17
Export et Import de modèles ICAR sous Trnsys 17 Export de modèles Trnsys 17 vers ICAR Une fonction permettant d exporter des modèles Trnsys vers des composants ICAR a été implémentée sous Simulation Studio.
Le service FTP. M.BOUABID, 04-2015 Page 1 sur 5
Le service FTP 1) Présentation du protocole FTP Le File Transfer Protocol (protocole de transfert de fichiers), ou FTP, est un protocole de communication destiné à l échange informatique de fichiers sur
Guide de déploiement
Guide de déploiement Installation du logiciel - Table des matières Présentation du déploiement du logiciel CommNet Server Windows Cluster Windows - Serveur virtuel CommNet Agent Windows Cluster Windows
Sage 100 CRM Guide de l Import Plus avec Talend Version 8. Mise à jour : 2015 version 8
Sage 100 CRM Guide de l Import Plus avec Talend Version 8 Mise à jour : 2015 version 8 Composition du progiciel Votre progiciel est composé d un boîtier de rangement comprenant : le cédérom sur lequel
Galaxy Training days. Liste des sessions disponibles : http://bioinfo.genotoul.fr. Les formateurs :
-- 1 -- Galaxy Training days Durée / Programme : 3 journées. Galaxy : First step. Galaxy : Reads alignment and SNP calling. Galaxy : RNAseq alignment and transcripts assemblies. Public : Personnes souhaitant
D1- L'environnement de travail
Le Certificat Informatique et Internet C2i niveau 1 à l Université de la Polynésie Française D1- L'environnement de travail Equipe C2I Démarrage A la mise sous tension d'un ordinateur, les deux phases
Compte-rendu de projet de Système de gestion de base de données
Compte-rendu de projet de Système de gestion de base de données Création et utilisation d'un index de jointure LAMBERT VELLER Sylvain M1 STIC Université de Bourgogne 2010-2011 Reponsable : Mr Thierry Grison
TD/TP 1 Introduction au SDK d Android
TD/TP 1 Introduction au SDK d Android Romain Raveaux 1 Introduction Android est un système d'exploitation pour téléphone portable de nouvelle génération développé par Google. Celui-ci met à disposition
PARAMETRER LA MESSAGERIE SOUS THUNDERBIRD
PARAMETRER LA MESSAGERIE SOUS THUNDERBIRD Ref : FP. P763 V 5.0 Résumé Ce document vous indique comment paramétrer votre messagerie sous Thunderbird. Vous pourrez notamment, créer, modifier ou supprimer
TP2 - Conguration réseau et commandes utiles. 1 Généralités. 2 Conguration de la machine. 2.1 Commande hostname
Département d'informatique Architecture des réseaux TP2 - Conguration réseau et commandes utiles L'objectif de ce TP est d'une part de vous présenter la conguration réseau d'une machine dans l'environnement
Réaliser un inventaire Documentation utilisateur
Référence : 11662 Version N : 6 Créé le : 29 Janvier 2014 Créé par : Bruno RICHOUX Téléphone : 0811 65 60 02 Sommaire 1. Conventions... 3 2. Introduction... 4 3. Principes généraux... 5 3.1. Depuis les
E-mail : [email protected] - Web : http://www.nqicorp.com
- 5, rue Soutrane - 06560 Valbonne Sophia-Antipolis E-mail : [email protected] - Web : http://www.nqicorp.com NQI Orchestra 3.3 - Guide d'installation Windows.................................................................
Dossier. Développer en Java sur téléphone mobile. Benjamin Damécourt [email protected]. UFR SITEC Master 2 EESC 11 janvier 2012
Dossier Développer en Java sur téléphone mobile Benjamin Damécourt [email protected] UFR SITEC Master 2 EESC 11 janvier 2012 Table des matières Introduction 2 Pré-requis 3 Hello World! 5 Installation
Sharpdesk V3.3. Guide d installation Push pour les administrateurs système Version 3.3.04
Sharpdesk V3.3 Guide d installation Push pour les administrateurs système Version 3.3.04 Copyright 2000-2010 par SHARP CORPORATION. Tous droits réservés. Toute reproduction, adaptation ou traduction sans
TP 1 : 1 Calculs en binaire, octal et hexadécimal
Univ. Lille 1 - Licence Informatique 2ème année 2013-14 Objectifs du TP Ce TP a pour but Codage de l'information TP 1 : 1. de découvrir quelques opérations logiques sur les nombres 2. et quelques formats
TUTORIEL: INSTALLATION D'UN SERVEUR LOCAL SOUS WINDOWS 7 POUR APPINVENTOR version du 06/04/2013
TUTORIEL: INSTALLATION D'UN SERVEUR LOCAL SOUS WINDOWS 7 POUR APPINVENTOR version du 06/04/2013 1. Téléchargement des sources AppInventor http://appinventor.mit.edu/appinventor-sources/ Télécharger ces
Cours Langage C/C++ Programmation modulaire
Cours Langage C/C++ Programmation modulaire Thierry Vaira BTS IRIS Avignon [email protected] «v0.1 Rappel Programmation modulaire (1/2) Le découpage d'un programme en sous-programmes est appelée programmation
