Big Data, Green & Dirty Data

Dimension: px
Commencer à balayer dès la page:

Download "Big Data, Green & Dirty Data"

Transcription

1 PSIR IR (2015) Projet Scientifique d Initiation à la Recherche (PSIR) Big Data, Green & Dirty Data E. Robin, M. Canat, B. Martin, A. Keller, N. Gutowski* Groupe Esaip 18 rue du 8 mai 1945, CS St Barthélémy d Anjou Cedex ARTICLE INFO Article : Créé le 11/02/2015 sur le thème du Big Data et de ses enjeux Mots-clés : Big Data Hadoop Green & Dirty Data Fourth ABSTRACT We live in a world where technology has evolved at a very high speed. Considering that evolution, they have succeeded in being a significant factor in each field and they now represent a major issue for the global economy. However, this has not only advantages. In fact, the growing storage capabilities can be associated with the generation of more and more data and data increasingly big. This gave birth to the new concept of "Big Data", which roughly means all the massive data generated and that can t be processed or analyzed without using special tools. Analysis of these data can predict a "future" and is generally used for decision support, especially in a world in which business is really important. In addition to the technological and economic aspect, Big Data also has an impact on the environment, since it stores the data sometimes over long periods and it requires electrically powered machines. How can we process and analyze all that data? What are the impacts on our society? Is there an effective way to reduce the environmental impact due to Big Data? 1. INTRODUCTION Depuis 1990, les réseaux sociaux se sont petit à petit ancrés dans la vie quotidienne des Hommes. Par leur biais, tous les utilisateurs de l Internet peuvent échanger librement des fichiers de toutes tailles et de tous types. Par exemple, il sera possible d échanger des images sur Instagram ou Facebook, tandis que l on partagera des vidéos sur YouTube. En parallèle, les capacités de stockage informatique ont constamment augmenté, permettant de répondre à la problématique posée par la taille massive des données générées via Internet. Toutes ces données créées, au vu de leur nombre massif, finissent par être stockées sur des serveurs, voire même oubliées/laissées à l abandon sur ces derniers. On peut alors se poser la question suivante : «Comment peut-on traiter et analyser un tel volume de données provenant de différentes sources?» Pour répondre à cette problématique, il est nécessaire d étudier dans un premier temps ce qu est le «Big Data», ses intérêts et les enjeux qui en découlent, dans un second temps, étudier les outils qui permettent de traiter ce phénomène et enfin d analyser l impact environnemental. 2. BIG DATA 2.1. Qu est-ce que c est? Le «Big Data» est le terme qui décrit toutes les données massivement produites et/ou stockées. Pour donner une idée, au début de l humanité jusqu en 2003, l'humanité entière a généré environ 5 exaoctets de donnés. En 2011, nous avons généré le même volume en deux jours, et en 2013 seulement 10 minutes. Comme nous le prouvent ces chiffres, le volume de données générées ne fait que croître de plus en plus chaque année. Elle est due à l'émergence des nouvelles technologies, et surtout des réseaux sociaux qui nous permettent de produire et de stocker de plus en plus de données, telle que des vidéos sur YouTube, ou des photos sur Instagram, etc. *Contact :

2 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 2 Il est important de ne pas oublier une seule de ces caractéristiques lors du traitement de données. Sans valeur, la donnée n est pas réellement utile ni utilisable. Sans volume, la donnée perd en crédibilité et donc perd en valeur aussi. Sans variété, les analyses ne s appliqueraient qu à un seul type de données, voire une seule source de données, ce qui nous conduirait à des analyses et des résultats similaires, voire identiques. Enfin, sans vélocité, nous ne pourrions pas traiter rapidement l information, ce qui signifie que la donnée ainsi que le résultat obtenu pourraient devenir obsolètes après analyse. En prenant en compte ces 4 caractéristiques, le Big Data peut rapidement devenir une carte maîtresse en influant sur la prise de décision de ceux qui sauront s en servir. Fig. 1. Quelques chiffres à propos du Big Data 2.2. Description détaillée du Big Data Le Big Data est composé d une multitude d informations provenant toutes de sources diverses et variées. Cela peut être des données prélevées d une base de données ou bien tout simplement les informations que tous les utilisateurs divulguent sur les réseaux sociaux Ses enjeux D une manière générale, le «Big Data» est utilisé pour analyser un fait. Par exemple, nous pouvons analyser les sentiments des clients sur un produit en particulier afin de savoir ce qui doit être amélioré, ce qui était bien, etc. Il permet aux fournisseurs de savoir quoi faire pour attirer plus de clients et de changer sa stratégie de marketing. Le savoir est synonyme de pouvoir et ceux qui détiennent le savoir/la connaissance peuvent s adapter à ce qui est attendu d eux. Quels sont les véritables enjeux du Big Data? À l heure actuelle, notre monde devient de plus en plus informatisé ainsi chaque étape de notre vie quotidienne laisse une trace numérique. Ces informations, autrefois jugez inutiles sont désormais le nouvel «Or noir». Le Big Data est devenu un secteur important de l économie du monde informatique. Ce secteur devrait valoir dans les 24 milliards de dollars en 2016 selon une étude de la société d analyse IDC. Fig. 2. Détail concernant le Big Data Comme le décrit l IDC dans l un de ses rapports, big data technologies describe a new generation of technologies and architectures, designed to economically extract value from very large volumes of a wide variety of data, by enabling the high-velocity capture, discovery, and/or analysis. [1]. À partir de cette définition, on peut alors résumer le Big Data en 4 caractéristiques principales, que l on appelle aussi la règle des «4 V» : - La valeur : ce que l on peut récupérer de la donnée - Le volume : corresponds à la quantité de données - La variété : tous les types de données possibles - La vélocité : la vitesse de traitement des données Un des enjeux principaux du Big Data est l enjeu sociétal, c est-à-dire la récupération de données personnelles par des sociétés non connues et auxquelles les utilisateurs n ont pas donné explicitement leurs accords pour la récupération de ces données. Ces données peuvent semblées anodine tel que le nom, prénom et date de naissance lors d une inscription sur un site de commerce. Mais le cumul de ces informations permet de réaliser un profil très complet. Fig. 3. Les enjeux du Big Data [10]

3 3 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) Par ce procédé, de multiples droits tels que le droit à l oubli, le respect de la vie privée ainsi que d autres ne sont possiblement pas respectés lors de la collecte de ces masses de données. Ces datamasses ont pour but de réaliser un catalogue «humain» des utilisateurs d Internet qui deviennent alors des produits. Mais il existe aussi un autre enjeu qui impacte lui, le monde du travail et de la formation. En effet, le secteur du Big Data vaut de plus en plus, ce qui nécessite de plus en plus de mains d œuvres ainsi que de formateurs. Selon l institut Mc Kinsey Global, le recrutement des États-Unis en analystes Big Data, serait de à travailleurs d ici à Ces offres d emploi nécessitent des compétences technologiques dans le domaine du Big Data mais aussi dans la maîtrise de mathématiques et statistiques de haut niveau ainsi que des compétences en programmations. Pour manipuler ces datamasses, il est nécessaire d avoir de la puissance, et celle-ci est obtenue en combinant de puissants ordinateurs. Mais toutes les entreprises, collectivités ou états utilisant de manière ponctuelle, ces différentes analyses de ces données, ne peuvent posséder un tel équipement. Cela ne serait pas rentable pour eux d investir dans un tel matériel qui ne serait pas utilisé à 100 %. Il existe donc des sociétés, une poignée seulement, qui elles gèrent les données des activités de trading tel que celles de Wall Street, ou les données de gestion du réseau d EDF. Parmi ces sociétés, il y a en toute logique les monstres Google, Microsoft et Amazon, mais il y a aussi des structures plus modestes telles que le CEA (Commissariat à l énergie atomique et aux énergies alternatives) et quelques centres universitaires. Fig. 4. Des chiffres sur l enjeu économique Mais dans ce monde où de plus en plus de nos actions laisse une trace digitale, les quantités de données sont de plus en plus gigantesque! Dans ce cas-là, une entreprise comme Facebook, qui possède un très grand nombre d utilisateurs et qui collectent beaucoup d informations sur chacun d entre eux, ne peut ni stocker en interne ni traiter via les outils classiques d analyse de base de donnée, les données récupérées sur ses utilisateurs. Cette problématique exprime donc un des enjeux du Big Data : l enjeu technologique. Pour répondre à ce besoin, il faut s intéresser au cœur du Big Data, c est-à-dire le calcul distribué qui permet d analyser toute ces masses gigantesques de données Son Avenir Fig. 5. Des chiffres sur le Big Data actuel On peut désormais dire que l année 2014 fût l année du Big Data, mais quid du futur? Selon le cabinet McKinsey, l évolution du nombre d objets connectés serait de l ordre de 400 % pour atteindre 50 milliards! Le volume de données créées par l industrie (entreprises & machines) et par les particuliers croît chaque année de 40 %. Ceci impliquerait une forte augmentation du besoin en spécialiste aux États-Unis, de l ordre de à spécialistes, et pour la France.

4 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 4 L année 2015, le marché du Big Data sera de 16.9 milliards de dollars, c est-à-dire 5 fois plus qu en Tous les secteurs, tels que le marketing, l assurance, la sécurité, la finance et d autres, auront de nouvelles perspectives grâce à l analyse des datamasses. Dans ces domaines, le Big Data permettra de cibler les clients actuels ou potentiels afin de leur proposer des produits adaptés à chacun. Tout ceci permettra aux industriels d économiser des sommes importantes. Mais le Big Data influencera aussi des domaines du quotidien, tel que la gestion des feux de signalisations afin d améliorer la fluidité du trafic d une ville ou alors de parfaire les prévisions météorologiques. Avec l évolution du Big Data suivra la découverte et création de nouvelles méthodes de traitements et d analyses de l information ce qui pourra révolutionner la science informatique millions d'utilisateurs mettent à jour leur profil au moins une fois par jour - Plus de 1 milliard de photos mises en ligne chaque mois - Plus de 10 millions de vidéos mises en ligne chaque mois - Plus de 1 milliard de contenus partagés chaque semaine (liens, notes, photos...) Le traitement en masse des données ne dépend pas que du secteur du numérique. En effet, cette manipulation est utilisée dans d'autres domaines notamment dans celui de la recherche. Dans le domaine scientifique, la recherche avance vers le stockage de l'adn humain. Le volume associé représenterait 100 Go de données soit l'équivalent de photos [23]. L'objectif étant pour les chercheurs de comprendre les mutations génétiques et le processus biologique. De plus, le fait de comparer deux génomes (un sain et un autre atteint d'une tumeur) représente le traitement de 1 To de données non compressées. Un million de génomes équivaudraient à analyser 1 Exaoctet. Dans un autre domaine scientifique, l'observatoire Solaire de la NASA capture environ 1.6 To de données chaque jour contre 140 To pour le «Large Synoptic Survey Telescope». Hadoop embarque MapReduce. Il s'agit de l'élément central du traitement des données. MapReduce effectue des travaux de pré manipulation en vue d'accélérer l'accès aux données lors des différentes requêtes. Chaque donnée est représentée sous la forme d'une <clé, valeur>. La première opération est le «Map». Il s'agit de retrouver toutes les occurrences d'une clé donnée. Les travaux parcourent l'ensemble des sources de données puis réalisent un mappage d'une ou plusieurs clés. La figure 1 représente un exemple de cette opération. Fig. 6. Des chiffres sur l avenir du Big Data 3. HADOOP 3.1. Hadoop ou comment traiter du Big Data? Hadoop est une technologie basée sur la technologie MapReduce de Google. Elle est utilisée en vue de traiter de grandes quantités de données non structurées. Les études montrent que la quantité de données générée chaque jour augmente de façon exponentielle (la quantité de données double chaque 18 mois) [21]. Ce phénomène est dû en partie aux réseaux sociaux. En effet, Facebook est un acteur majoritaire dans le secteur du numérique. L'entreprise permet l'échange et le traitement de données à grande échelle à travers le monde entier. Facebook génère des données en grande quantité [22] : Fig. 7. Opération «Map» Ici, le travail associé à cette opération de «Map» cherche l'ensemble des clés correspondantes à 1949, 1950,1951. On remarque que pour une clé donnée, plusieurs occurrences apparaissent. C'est le point d'entrée avant la seconde opération : le «Reduce». Lors d'une opération «Reduce», les travaux associés vont reprendre les résultats du «Map». L'objectif ici est de réduire l'ensemble des données en incluant les valeurs au sein d'une seule et même clé. C'està-dire que pour une clé K on retrouvera les valeurs X, Y, Z associées.

5 5 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) Des études ont été réalisées [24] mais nous ne tiendrons compte que des réalisations de tests sur de grandes données, pour rester en lien avec le Big Data. Tout d'abord, l'expérience commence avec une requête de type «Scan». Celle-ci vise à obtenir un ensemble de données à partir d'une requête simple. Fig. 8. Opération «Reduce» La figure 8 montre qu'avec l'ensemble des données repérées par l'opération «Map», il est possible de les regrouper et d'éviter la redondance de clé. Pour un ensemble de clés, valeurs suivantes : <1,a> ; <2,b> ; <3,c> ; <3,i> ; <1,k> ; <3,o> L'opération de «Reduce» retournera le nouvel ensemble de clés valeurs suivant : <1,[a k]> ; <2,[b]> ; <3,[c i o]> L'algorithme de recherche de valeur sera plus rapide car il n'aura pas à rechercher chacune des clés avant de pouvoir traiter la donnée. Une seule opération sera nécessaire au lieu de n fois le nombre de clés grâce au prétraitement de MapReduce Un environnement modulable L'écosystème Hadoop permet de traiter plus rapidement des données. Pour ce faire, des modules doivent être inclus en vue de ce traitement. Par défaut, Hadoop embarque les éléments suivants : Fig. 9. Résultats d une requête «Scan» Pour obtenir les résultats présentés dans la figure 9, une requête sur les données «SELECT pageurl, pagerank FROM rankings WHERE pagerank > X» a été effectuée. On peut dès cette requête s'apercevoir que le data warehouse HIVE inclus dans Hadoop n'est pas le plus rapide pour exécuter cette requête. Shark-mem arrive en tête avec un temps d'exécution de 3.6 secondes. Sharkmem utilise le cache afin de pouvoir stocker les tables en entrée et les tables en sorties. L'étude se poursuit avec une requête de type «Agrégation». - OOZIE : système de planification des tâches de traitements. - PIG : plate-forme d'analyse de données. - HIVE : data warehouse de Hadoop pour la gestion de grandes données. - HBASE : base de données de Hadoop. - MAPREDUCE : algorithme de mappage des données et de réduction des associations. - HDFS : système de fichiers distribué de Hadoop. L'écosystème Hadoop est facile et rapide à mettre en œuvre, d'où une implémentation classique utilisée dans les entreprises manipulant de grosses données. Cependant, dans cette utilisation classique, on peut constater certains axes d'amélioration possible. Prenons par exemple, le cas de «HIVE», représentant le data warehouse de Hadoop par défaut, il en existe d'autres pouvant être incorporés à la solution et se substituer à HIVE. Des tests ont été effectués en vue de comparer la vitesse d'exécution de ce data warehouse avec d'autres produits sur le marché. Ces tests représentent différentes requêtes pouvant être effectuées sur le data warehouse. Fig. 10. Résultats d une requête «Agrégation»

6 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 6 La figure 10 montre les résultats de la requête «SELECT SUBSTR(sourceIP, 1, X), SUM(adRevenue) FROM uservisits GROUP BY SUBSTR(sourceIP, 1, X)». HIVE est encore le plus lent pour traiter cette requête. Redshift retourne la réponse le plus rapidement. Il s'agit d'un produit propriétaire d'amazon. Ici, il est utilisé avec l'ensemble de ses paramètres par défaut. Shark vient se positionner en deuxième position pour ce test. Le test suivant propose l'analyse d'une opération de requête de jointure. La requête utilisée est la suivante : «SELECT sourceip, totalrevenue, avgpagerank FROM (SELECT sourceip, AVG(pageRank) as avgpagerank, SUM(adRevenue) as totalrevenue FROM Rankings AS R, UserVisits AS UV WHERE R.pageURL = UV.destURL AND UV.visitDate BETWEEN Date(` ') AND Date(`X') GROUP BY UV.sourceIP) ORDER BY totalrevenue DESC LIMIT 1» La démonstration souhaite évaluer le temps d'exécution d'une requête multiple. des requêtes sur son data warehouse. Sachant que HIVE s'exécute avec MapReduce, on peut émettre certaines hypothèses selon lequelles soit le data warehouse joue un rôle important dans l'obtention des résultats soit il s'agit de l'algorithme lui-même qui est à prendre en compte. Il serait intéressant de pouvoir réaliser ces mêmes tests en incluant l'algorithme MapReduce à Shark. On pourrait alors voir s'il s'agit d'un dat warehouse performant ou d'un algorithme de traitement des données efficace. 4. LES DIRTY ET CLEAN DATAS 4.1. Que sont les «Dirty data» et leur inverse les «clean data»? Avec le Big Data et sa quantité impressionnante de données enregistrées tous les jours ; il est normal que des erreurs s y glissent. Ce sont les Dirty data. Elles peuvent être dues à des entrées utilisateur incorrectes, des fautes de frappe, un mauvais champ de formulaire renseigné ou bien une fusion de plusieurs bases de données. Mais elles peuvent aussi être générées par une mauvaise méthode de stockage ou un mauvais traitement logiciel. Ci-dessous une liste non exhaustive de dirty data : La donnée incorrecte Pour s'assurer de la validité de la donnée, il est nécessaire de vérifier que l'entrée utilisateur correspond au type de donnée requis. La donnée imprécise quelques fois la donnée sera correcte mais imprécise, ce qui la rend peu valable. La donnée qui contredit une règle métier Ex. : Une date d'expiration plus ancienne que la date de création. Fig. 11. Résultats d une requête «Jointure» On constate que Redshift est encore le data warehouse le plus rapide devant Shark mem. HIVE arrive en dernière position. Par la représentation de ces tests, on peut en conclure que les solutions Shark-mem et Redshift(HDD) sont les plus efficaces dans le traitement d'un volume important de données. Redshift semble être une solution de substitution à HIVE. Cependant, cette solution n'incorpore pas le traitement de scripts à distance contrairement à Shark-mem. Les deux solutions sont compatibles avec le système de fichier de HADOOP (HDFS). Le data warehouse Shark a été utilisé avec son algorithme de traitement Spark. Il utilise le langage SQL afin de réaliser Les données contradictoires : la non-vérification des données entraine la création de données qui se contredisent. Les données incomplètes : Les données enregistrées avec des champs manquants. Les doublons : Ce sont les données enregistrées plusieurs fois. Selon une étude menée par «Experian Data Quality [25]» (Experian Data Quality, 2014) 94% des entreprises admettent avoir des doublons et 92% que les données utilisateurs pourraient être erronés. 91% des entreprises interrogées pensent que les dirty data ont causée des pertes financières dans l année écoulée. C est en moyenne 12% du budget qui est perdu à cause de ces données de mauvaise qualité. Cette perte est due au temps humain perdu à rechercher l information ainsi qu à la perte financière brute causée par ces erreurs.

7 7 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) Pour améliorer la qualité de ces données on utilise le Data Scrubbing ou Data cleansing. Ce processus d amélioration peut consister à corriger des fautes de frappe ou bien à valider la donnée par rapport à une liste connue de données «saines». Certains algorithmes dédiés à cette tache analysent les données pour en comprendre la logique et remontent une alerte pour chaque donnée qui lui parait «anormale» dans son contexte. De plus en plus d entreprises fournissent des logiciels de «Data Cleansing». On peut citer Google avec son «Google refine», SQLPower avec DQguru, ou bien encore «Data Cleaner» qui est une solution open source. Les limites de ces logiciels sont qu ils demandent beaucoup de temps de fonctionnement et des ressources matérielles importantes ; de plus une vérification manuelle est préférable pour éviter de créer des mauvaises données supplémentaires. Il est nécessaire de limiter l utilisation de ces logiciels uniquement aux données nouvellement insérées dans la base, pour un souci évident de gain de temps/argent. On peut citer les bonnes pratiques suivantes pour garder ses données propres. Établir des standards pour la saisie de données. Prévenir l enregistrement de doublons Mettre les informations existantes à jour plutôt que de recréer une entrée. Si les données sont le pétrole de demain le data cleansing sera le raffinage. 5. CONCLUSION En résumé, le Big Data est un ensemble de données massivement générées qui ne peuvent être ni traitées, ni analysées telles qu elles sont. Etant donné qu elles proviennent de sources différentes, ces dernières peuvent décrire un même type de données mais sont définies par des normes différentes (par exemple, une date année/mois/jour et une autre date jour/mois/année) ce qui rend donc l analyse et la relation entre les données très complexes. C est ce que l on appelle les Dirty Data. Ces données sont traitées par des outils spécifiques tels que Hadoop par exemple, se servant d un algorithme de calcul appelé MapReduce, qui va permettre entre autre de regrouper des données similaires afin de les traiter plus rapidement. De ce traitement de données découle l analyse de ces mêmes données. Elle permet d étudier certains comportements et de prévoir certaines réactions, ce qui donne à celui qui est capable de les analyser le pouvoir d anticiper. Par l anticipation, on est capable de connaître par exemple la réaction d un consommateur face à un changement spécifique du produit. Cette capacité représente en soi un enjeu économique pour les grandes firmes vis-à-vis de leurs clients. De plus, l analyse de données traitées se fait beaucoup plus rapidement que celle de données non traitées/triées. Or, il est nécessaire de faire fonctionner des machines pour cela, ce qui signifie que plus les calculs seront brefs, moins cela aura d impact sur l environnement. REFERENCES [1] Gantz J, Reinsel D (2011) Extracting value from chaos. IDC iview, pp 1 12 [2] Datafloq Connecting Data and people Disponible : https://datafloq.com/ [3] Edd Dumbil. (1/14/2014) The Data Lake Dream. [En ligne] Disponible :http://www.forbes.com/sites/edddumbill/201 4/01/14/the-data-lake-dream/ [4] Matt Turck, The state of big data in 2014, Disponible: [5] IBM Insight 2014 by the numbers Disponible : numbers [6] Pratt Institute - City by Numbers: Big Data and the Urban Future. Disponible:https://www.pratt.edu/events/single/?id= [7] Pratt Institute - City by Numbers: Big Data and the Urban Future. Disponible:https://www.pratt.edu/events/single/?id= [8] Susan Hutton - Twitter, Big Data, and Jobs Numbers. Disponible:http://www.lsa.umich.edu/lsa/ci.twitterbigdat aandjobsnumbers_ci.detail [9] Jeff Bertolucci IMB s Predictions : 6 Big Data Trends in Disponible : [10] Future Mag - Big Data - Préparez-vous à la révolution!. Disponible : [11] Future Mag - Les enjeux du big data Disponible : [12] Arte Volet I : Big Data I : des données à vitesse grand V Volet 2 : Big Data II - Bienvenue dans le monde des Yottaoctets Volet 3 : Big Data III - Moi, l'octet Disponible : [13] Phillipe Rigaux CNAM - Big data, décodage et analyse des enjeux. Disponible :http://recherche.cnam.fr/equipes/sciencesindustrielles-et-technologies-de-l-information/big-datadecodage-et-analyse-des-enjeux kjsp [14] Blandine Laffargue Corp Events - Les nouveaux enjeux du Big Data. Disponible :http://www.bigdataparis.com/2014/enjeuxbig-data-blandine-laffargue.php [15] Didier Gaultier JDN - Les enjeux du Big Data dans la connaissance client en Disponible :

8 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 8 s-enjeux-du-big-data-dans-la-connaissance-client-en shtml [16] Alexandre Dolique JDN - Le Big Data se démocratise : impacts et enjeux sur l organisation des entreprises. Disponible :http://www.journaldunet.com/solutions/expe rt/58779/le-big-data-se-democratise---impacts-et-enjeuxsur-l-organisation-des-entreprises.shtml [17] Data business - BIG DATA : Définition, Enjeux, Etudes de cas.disponible : [18] L Usine Nouvelle - Infographie : Big data, un marché à 100 milliards de dollars. Disponible : digitale.fr/article/infographie-big-data-un-marche-a-100- milliards-de-dollars.n [19] Transformation Digitale - Infographie : le Big Data, un défi incroyable. Disponible : analytics/infographie-le-big-data-un-defi-incroyable_a html [20] Michael Meyers - BIG DATA Take a Look at the Numbers. Disponible : %E2%80%93-take-look-numbers [21] «Big Data, big leap?»,2014, Jean-Baptiste HEITZMANN, Talend [22] 9_presentations/keynotes/DhrubaBorthakur- Hadoop_File_System_Architecture_Facebook.pdf [23] Big data, Hadoop and cloud computing in genomics by Aisling O Driscoll, Jurate Daugelaite, Roy D. Sleator [24] https://amplab.cs.berkeley.edu/benchmark/ [25]

Plan. Pourquoi Hadoop? Présentation et Architecture. Démo. Usages

Plan. Pourquoi Hadoop? Présentation et Architecture. Démo. Usages 1 Mehdi LOUIZI Plan Pourquoi Hadoop? Présentation et Architecture Démo Usages 2 Pourquoi Hadoop? Limites du Big Data Les entreprises n analysent que 12% des données qu elles possèdent (Enquête Forrester

Plus en détail

LINQ to SQL. Version 1.1

LINQ to SQL. Version 1.1 LINQ to SQL Version 1.1 2 Chapitre 03 - LINQ to SQL Sommaire 1 Introduction... 3 1.1 Rappels à propos de LINQ... 3 1.2 LINQ to SQL... 3 2 LINQ to SQL... 3 2.1 Importer des tables... 3 2.1.1 Le concepteur

Plus en détail

L approche Bases de données

L approche Bases de données L approche Bases de données Cours: BD. Avancées Année: 2005/2006 Par: Dr B. Belattar (Univ. Batna Algérie) I- : Mise à niveau 1 Cours: BDD. Année: 2013/2014 Ens. S. MEDILEH (Univ. El-Oued) L approche Base

Plus en détail

avec nos solutions spécialisées pour la microfinance et ses institutions coopératives Big Data

avec nos solutions spécialisées pour la microfinance et ses institutions coopératives Big Data avec nos solutions spécialisées pour la microfinance et ses institutions coopératives Big Data Historique de Big data Jusqu à l avènement d Internet et surtout du Web 2.0 il n y avait pas tant de données

Plus en détail

Requêtes S.Q.L. 1 Création des requêtes sous ACCESS

Requêtes S.Q.L. 1 Création des requêtes sous ACCESS Activité 15 Requêtes S.Q.L. Objectif Interroger une base de données avec des requêtes SQL. Fiche de savoir associée Ressource à utiliser Csi1Projets.pdf (Dossier 4) B.1.1.b. 1 En cliquant sur l'objet "Requêtes"

Plus en détail

Rapport de méthodologie:

Rapport de méthodologie: Rapport de méthodologie: "Laboratoire on chip/lab-on-chip/loc" REMARQUE : La méthode employée est en tout point similaire à celle utilisée en groupe. Contents Rapport de méthodologie:... 1 "Laboratoire

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution

Plus en détail

SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE

SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE En tant qu outils d aide à la décision, les tableaux de bord doivent répondre rapidement. Pour participer à cet effort de réactivité en termes

Plus en détail

Bases de données documentaires et distribuées Cours NFE04

Bases de données documentaires et distribuées Cours NFE04 Bases de données documentaires et distribuées Cours NFE04 Introduction du cours Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers prénom.nom@cnam.fr Département d informatique Conservatoire

Plus en détail

NewPoint IT Consulting BIG DATA WHITE PAPER. NewPoint Information Technology Consulting

NewPoint IT Consulting BIG DATA WHITE PAPER. NewPoint Information Technology Consulting NewPoint IT Consulting BIG DATA WHITE PAPER NewPoint Information Technology Consulting Contenu 1 Big Data: Défi et opportunité pour l'entreprise... 3 2 Les drivers techniques et d'entreprise de BIG DATA...

Plus en détail

ITIL V2 Processus : La Gestion des Configurations

ITIL V2 Processus : La Gestion des Configurations ITIL V2 Processus : La Gestion des Configurations Auteur: Fabian PIAU, Master 2 MIAGE, Nantes La Gestion des Configurations est un processus issu d ITIL version 2 qui aide au soutien du service («Service

Plus en détail

OFFRE D EMPLOI. 2.1 La définition du poste

OFFRE D EMPLOI. 2.1 La définition du poste OFFRE D EMPLOI 1 Introduction Définir une offre d emploi type n est pas un processus anodin à sous-estimer. En effet, l offre que l entreprise va communiquer représente la proposition d emploi vacant.

Plus en détail

Cahier des charges de l application visant à effectuer un suivi de consommation énergétique pour les communes. Partenaires du projet :

Cahier des charges de l application visant à effectuer un suivi de consommation énergétique pour les communes. Partenaires du projet : Cahier des charges de l application visant à effectuer un suivi de consommation énergétique pour les communes Partenaires du projet : 1 Sommaire A) Contexte... 3 B) Description de la demande... 4 1. Les

Plus en détail

ENRICHIR LES DONNEES DE DETAILS ACCEDEES A TRAVERS UN RAPPORT OLAP

ENRICHIR LES DONNEES DE DETAILS ACCEDEES A TRAVERS UN RAPPORT OLAP ENRICHIR LES DONNEES DE DETAILS ACCEDEES A TRAVERS UN RAPPORT OLAP SAS Web Report Studio offre depuis de nombreuses versions la possibilité de visualiser les observations spécifiques à partir des données

Plus en détail

A. Introduction. Chapitre 4. - les entités de sécurité ; - les sécurisables ; - les autorisations.

A. Introduction. Chapitre 4. - les entités de sécurité ; - les sécurisables ; - les autorisations. Chapitre 4 A. Introduction Le contrôle d'accès représente une opération importante au niveau de la gestion de la sécurité sur un serveur de bases de données. La sécurisation des données nécessite une organisation

Plus en détail

Thibault Denizet. Introduction à SSIS

Thibault Denizet. Introduction à SSIS Thibault Denizet Introduction à SSIS 2 SSIS - Introduction Sommaire 1 Introduction à SQL Server 2008 Integration services... 3 2 Rappel sur la Business Intelligence... 4 2.1 ETL (Extract, Transform, Load)...

Plus en détail

ANALYSE DES RISQUES ET MANAGENEMENT DES RISQUES

ANALYSE DES RISQUES ET MANAGENEMENT DES RISQUES ANALYSE DES RISQUES ET MANAGENEMENT DES RISQUES Introduction : Le management des risques est un processus qui permet au Business Manager d équilibrer les coûts économiques et opérationnels et faire du

Plus en détail

Méthode de Test. Pour WIKIROUTE. Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel.

Méthode de Test. Pour WIKIROUTE. Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel. Méthode de Test Pour WIKIROUTE Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel. [Tapez le nom de l'auteur] 10/06/2009 Sommaire I. Introduction...

Plus en détail

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE 1 Introduction ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE Atelier «pour approfondir» Sauvegarder ses données à domicile ou sur Internet Qui n a jamais perdu des photos ou documents suite à une panne

Plus en détail

Introduction à la gestion de projets. Laurent Poinsot. Introduction. 26 janvier 2009

Introduction à la gestion de projets. Laurent Poinsot. Introduction. 26 janvier 2009 26 janvier 2009 Le modèle du est une méthodologie de développement logiciel qui est devenue un standard de l industrie logicielle. Ce modèle est constitué de deux phases : l une est dite descendante et

Plus en détail

Travaux pratiques. avec. WordPress. Karine Warbesson

Travaux pratiques. avec. WordPress. Karine Warbesson Travaux pratiques avec WordPress Karine Warbesson Toutes les marques citées dans cet ouvrage sont des marques déposées par leurs propriétaires respectifs. Mise en pages réalisée par ARCLEMAX Illustration

Plus en détail

Programmation parallèle et distribuée (Master 1 Info 2015-2016)

Programmation parallèle et distribuée (Master 1 Info 2015-2016) Programmation parallèle et distribuée (Master 1 Info 2015-2016) Hadoop MapReduce et HDFS Note bibliographique : ce cours est largement inspiré par le cours de Benjamin Renaut (Tokidev SAS) Introduction

Plus en détail

Intelligence Economique - Business Intelligence

Intelligence Economique - Business Intelligence Intelligence Economique - Business Intelligence Notion de Business Intelligence Dès qu'il y a une entreprise, il y a implicitement intelligence économique (tout comme il y a du marketing) : quelle produit

Plus en détail

MODELE D UN RAPPORT DE STAGE DE BAC PRO ELECTROTECHNIQUE

MODELE D UN RAPPORT DE STAGE DE BAC PRO ELECTROTECHNIQUE MODELE D UN RAPPORT DE STAGE DE BAC PRO ELECTROTECHNIQUE [Prénom Nom] Rapport sur le stage effectué du [date] au [date] Dans la Société : [NOM DE LA SOCIETE : Logo de la société] à [Ville] [Intitulé du

Plus en détail

CONCLUSIONS. Par rapport aux résultats obtenus, on peut conclure les idées suivantes :

CONCLUSIONS. Par rapport aux résultats obtenus, on peut conclure les idées suivantes : CONCLUSIONS L application de la PNL à l entreprise est confrontée aux besoins des leaders d équipe, tels que: la gestion de son propre développement, du stress, la résolution des problèmes tels que les

Plus en détail

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus.

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus. GESTION DE LA MEMOIRE SOUS UNIX La mémoire est une ressource critique car elle conditionne les temps de traitements. Différentes options SAS sont disponibles pour utiliser au mieux la mémoire de la machine.

Plus en détail

Gestion du compte AWS et des utilisateurs

Gestion du compte AWS et des utilisateurs Chapitre 2 Gestion du compte AWS et des utilisateurs 1. Création d'un compte Gestion du compte AWS et des utilisateurs Avant de pouvoir profiter des services web Amazon, vous devez tout d'abord créer un

Plus en détail

Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce

Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce Année 2007-2008 Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce B. Monsuez Projet informatique «Voyageur de commerce» Résolution

Plus en détail

Changement dans les achats de solutions informatiques

Changement dans les achats de solutions informatiques Changement dans les achats de solutions informatiques Ce que cela signifie pour l informatique et les Directions Métiers Mai 2014 Le nouvel acheteur de technologies et la nouvelle mentalité d achat Un

Plus en détail

Pourquoi sous-traiter votre processus de recrutement?

Pourquoi sous-traiter votre processus de recrutement? Pourquoi sous-traiter votre processus de recrutement? (Article rédigé par Ain Boost Office Le 22 Juillet 2015) Le recrutement est un processus incontournable dans la vie de toute entreprise, les petites

Plus en détail

INGENIERIE COLLABORATIVE, ELLE A TOUT D'UNE GRANDE...

INGENIERIE COLLABORATIVE, ELLE A TOUT D'UNE GRANDE... INGENIERIE COLLABORATIVE, ELLE A TOUT D'UNE GRANDE... Article rédigé pour les Etats généraux 2008 du MICADO, par Yannick BOUDIER. Résumé : L ingénierie collaborative est souvent prise pour un système d

Plus en détail

Qu est ce que le RAID?

Qu est ce que le RAID? LES SYSTEMES RAID PLAN Introduction : Qu est ce que le RAID? Quels sont les différents niveaux de RAID? Comment installer une solution RAID? Conclusion : Quelle solution RAID doit-on choisir? Qu est ce

Plus en détail

Exercices Active Directory (Correction)

Exercices Active Directory (Correction) Exercices Active Directory (Correction) Exercice : Scénarios pour l'implémentation de composants logiques AD DS Lire les scénarios suivants et déterminer les composants logiques AD DS à déployer dans chaque

Plus en détail

Le DSI du futur Rapport d'étude

Le DSI du futur Rapport d'étude Le DSI du futur Rapport d'étude Devenir un catalyseur du changement Partagez ce rapport d'étude Le DSI du futur : Devenir un catalyseur du changement Tandis que la plupart des DSI s accordent à dire que

Plus en détail

Fournir un accès rapide à nos données : agréger au préalable nos données permet de faire nos requêtes beaucoup plus rapidement

Fournir un accès rapide à nos données : agréger au préalable nos données permet de faire nos requêtes beaucoup plus rapidement Introduction Phases du projet Les principales phases du projet sont les suivantes : La mise à disposition des sources Des fichiers Excel sont utilisés pour récolter nos informations L extraction des données

Plus en détail

Chapitre 2 : Représentation des nombres en machine

Chapitre 2 : Représentation des nombres en machine Chapitre 2 : Représentation des nombres en machine Introduction La mémoire des ordinateurs est constituée d une multitude de petits circuits électroniques qui ne peuvent être que dans deux états : sous

Plus en détail

UE 8 Systèmes d information de gestion Le programme

UE 8 Systèmes d information de gestion Le programme UE 8 Systèmes d information de gestion Le programme Légende : Modifications de l arrêté du 8 mars 2010 Suppressions de l arrêté du 8 mars 2010 Partie inchangée par rapport au programme antérieur Indications

Plus en détail

Pourquoi intégrer le Big Data à son organisa3on?

Pourquoi intégrer le Big Data à son organisa3on? Pourquoi intégrer le Big Data à son organisa3on? Yvan Robert, VP Affaires Stratégiques Emmanuel Faug, Resp. pra>que BI Colloque 2014 Big Data Agenda Qui sommes nous? L importance de l information Méthodes

Plus en détail

Les «BUSINESS DECISION MAKERS» l entreprise numérique. 14 février 2013

Les «BUSINESS DECISION MAKERS» l entreprise numérique. 14 février 2013 Les «BUSINESS DECISION MAKERS» & l entreprise numérique 14 février 2013 Nathalie Wright Directrice de la Division Grandes Entreprises & Alliances Microsoft France #MSTechdays @MicrosoftFrance Microsoft

Plus en détail

ACTUALITÉS LANDPARK. Nouvelle version. Landpark Helpdesk. Landpark Helpdesk. Les avantages de la nouvelle version 3.9.2.

ACTUALITÉS LANDPARK. Nouvelle version. Landpark Helpdesk. Landpark Helpdesk. Les avantages de la nouvelle version 3.9.2. ACTUALITÉS LANDPARK Solutions complètes d'inventaire, de gestion de parc et de helpdesk ITIL Avril 2015 Nouvelle version Landpark Helpdesk Landpark vous associe aux meilleurs logiciels de Gestion de Parc

Plus en détail

Solocal Group Solocal Group pilote ses audiences via un ensemble de tableaux de bord complètement automatisés grâce à l API AT Internet.

Solocal Group Solocal Group pilote ses audiences via un ensemble de tableaux de bord complètement automatisés grâce à l API AT Internet. Online Intelligence Solutions Solocal Group Solocal Group pilote ses audiences via un ensemble de tableaux de bord complètement automatisés grâce à l API AT Internet. Case study Case study INTRODUCTION

Plus en détail

OpenText Content Server v10 Cours 3-0126 (ex 215)

OpenText Content Server v10 Cours 3-0126 (ex 215) v10 Cours 3-0126 (ex 215) Administration système et indexation-recherche Durée : 5 jours Ce cours de 5 jours apprendra aux administrateurs, aux architectes système et aux services support comment installer,

Plus en détail

CREER UNE BASE DE DONNEES ACCESS AVEC DAO (étape par étape)

CREER UNE BASE DE DONNEES ACCESS AVEC DAO (étape par étape) CREER UNE BASE DE DONNEES ACCESS AVEC DAO (étape par étape) NIVEAU : PREMIERE RENCONTRE AVEC VB INITIES/EXPERIMENTES Pré requis pour comprendre ce tutorial : - Connaître les principales commandes de VB

Plus en détail

Transformation digitale

Transformation digitale La plateforme bancaire internationale. Pour chaque métier. décembre 2015 Transformation digitale Les défis de la distribution bancaire Par Olivier Cruanès, Responsable Marketing SOMMAIRE 1 La révolution

Plus en détail

QUICK GUIDE #1. Guide du pilotage par la performance pour les distributeurs automobiles

QUICK GUIDE #1. Guide du pilotage par la performance pour les distributeurs automobiles QUICK GUIDE #1 Guide du pilotage par la performance pour les distributeurs automobiles INTRODUCTION Vous managez des concessions automobiles et c est une responsabilité qui demande un contrôle quotidien

Plus en détail

Transformation IT de l entreprise ANALYTIQUE: L ÈRE WATSON

Transformation IT de l entreprise ANALYTIQUE: L ÈRE WATSON Transformation IT de l entreprise ANALYTIQUE: L ÈRE WATSON L analytique joue un rôle désormais primordial dans la réussite d une entreprise. Les pouvoirs qu elle délivre sont incontestables, cependant

Plus en détail

Gouvernance des Technologies de l Information

Gouvernance des Technologies de l Information Walid BOUZOUITA Auditeur Interne secteur des télécommunications CISA, ITIL walid.bouzouita@ooredoo.tn Gouvernance des Technologies de l Information 08 Mai 2014, Maison de l Exportateur Implémenter la

Plus en détail

Cookies de session ils vous permettent de sauvegarder vos préférences d utilisation et optimiser l expérience de navigation de l Utilisateur ;

Cookies de session ils vous permettent de sauvegarder vos préférences d utilisation et optimiser l expérience de navigation de l Utilisateur ; Ce site utilise des Cookies, émis également par des tiers, pour des raisons de fonctionnalité, pratiques et statistiques indiquées dans notre politique en matière de Cookies. Politique en matière de Cookies

Plus en détail

Le tableau de bord de la DSI : un outil pour mieux piloter son informatique.

Le tableau de bord de la DSI : un outil pour mieux piloter son informatique. Le tableau de bord de la DSI : un outil pour mieux piloter son informatique. Introduction Face à l évolution constante des besoins fonctionnels et des outils informatiques, il est devenu essentiel pour

Plus en détail

PRÉSENTATION PRODUIT. Plus qu un logiciel, la méthode plus efficace de réconcilier.

PRÉSENTATION PRODUIT. Plus qu un logiciel, la méthode plus efficace de réconcilier. PRÉSENTATION PRODUIT Plus qu un logiciel, la méthode plus efficace de réconcilier. Automatiser les réconciliations permet d optimiser l utilisation des ressources et de générer plus de rentabilité dans

Plus en détail

Labs Hadoop Février 2013

Labs Hadoop Février 2013 SOA - BRMS - ESB - BPM CEP BAM - High Performance Compute & Data Grid - Cloud Computing - Big Data NoSQL - Analytics Labs Hadoop Février 2013 Mathias Kluba Managing Consultant Responsable offres NoSQL

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2014) Marc Parizeau, Département de génie électrique et de génie informatique Plan Mégadonnées («big data») Architecture Hadoop distribution

Plus en détail

Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services.

Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services. Solutions de Service Management Guide d achat Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services. Aujourd hui, toutes

Plus en détail

Mise en place d une gestion d un fond d images pour le service d un community manager

Mise en place d une gestion d un fond d images pour le service d un community manager Projet Informatique Mise en place d une gestion d un fond d images pour le service d un community manager Projet réalisé avec Filemaker Pro 12 Projet informatique présenté en vue d obtenir la LICENCE PROFESSIONNELLE

Plus en détail

FAITES DE LA DONNÉE LE MOTEUR DE VOTRE BUSINESS. Alexandre Vasseur Responsable Avant-Vente Europe du Sud Pivotal, EMC

FAITES DE LA DONNÉE LE MOTEUR DE VOTRE BUSINESS. Alexandre Vasseur Responsable Avant-Vente Europe du Sud Pivotal, EMC FAITES DE LA DONNÉE LE MOTEUR DE VOTRE BUSINESS Alexandre Vasseur Responsable Avant-Vente Europe du Sud Pivotal, EMC 1 Big Data = Volume, Variété, Vélocité et Valorisation Internet des objets Informations

Plus en détail

La rencontre du Big Data et du Cloud

La rencontre du Big Data et du Cloud La rencontre du Big Data et du Cloud Libérez le potentiel de toutes vos données Visualisez et exploitez plus rapidement les données de tous types, quelle que soit leur taille et indépendamment de leur

Plus en détail

La gestion des flux d information : EDI

La gestion des flux d information : EDI La gestion des flux d information : EDI Introduction EDI (définition, composants, types et domaines d application) Les enjeux de l EDI La mise en œuvre de l EDI Conclusion Introduction Tâches Création

Plus en détail

Représentation des Nombres

Représentation des Nombres Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...

Plus en détail

ALBUM Y REALISE PAR DAGHOUI AZZEDDINE NAJMI HAFIDA ABDALLAH MAISSA

ALBUM Y REALISE PAR DAGHOUI AZZEDDINE NAJMI HAFIDA ABDALLAH MAISSA ALBUM Y REALISE PAR DAGHOUI AZZEDDINE NAJMI HAFIDA ABDALLAH MAISSA Sommaire INTRODUCTION... 3 SYNOPSIS... 4 TITRE DU PROJET... 4 CONCEPT DU PROJET... 4 PUBLIC VISE... 4 OBJECTIFS... 4 CAHIER DES CHARGES...

Plus en détail

Rapport de Post- Campagne 1

Rapport de Post- Campagne 1 Rapport de Post- Campagne 1 Résumé - La campagne Adwords que nous avons mené pour Galerie Photo-Originale a duré 21 jours (5.05-26.05) et nous a coûté $250,18. L objectif principal est en premier de stimuler

Plus en détail

UNE SOLUTION CRM CONÇUE POUR LA FORCE DE VENTE

UNE SOLUTION CRM CONÇUE POUR LA FORCE DE VENTE LIVRE BLANC UNE SOLUTION CRM CONÇUE POUR LA FORCE DE VENTE Comment choisir un CRM qui répondra à toutes les attentes de vos commerciaux www.aptean..fr LIVRE BLANC UNE SOLUTION CRM CONÇUE POUR LA FORCE

Plus en détail

Plan PME - ENVIRONNEMENT ACCES Rhône-Alpes- CAP ENERGIE. CONSULTATION EXPERTS en Efficacité énergétique des sites industriels et des procédés

Plan PME - ENVIRONNEMENT ACCES Rhône-Alpes- CAP ENERGIE. CONSULTATION EXPERTS en Efficacité énergétique des sites industriels et des procédés Consultation de sociétés d Expert en Efficacité énergétique des sites industriels et des procédés, pour la réalisation d interventions auprès des PME/PMI dans le cadre du programme CAP ENERGIE Contexte

Plus en détail

MODE OPERATOIRE OPENOFFICE BASE

MODE OPERATOIRE OPENOFFICE BASE MODE OPERATOIRE OPENOFFICE BASE Openoffice Base est un SGBDR : Système de Gestion de Base de Données Relationnelle. L un des principaux atouts de ce logiciel est de pouvoir gérer de façon efficace et rapide

Plus en détail

Objet du document...2 SOLUSMAO...2. Description du développement logiciel, fonctionnalités...3

Objet du document...2 SOLUSMAO...2. Description du développement logiciel, fonctionnalités...3 1. INTRODUCTION...2 Objet du document...2 SOLUSMAO...2 2. FONCTIONNALITES...3 Description du développement logiciel, fonctionnalités....3 Fonctionnement attendu... 3 Fonctionnement du poste client... 4

Plus en détail

Les expériences d ERNI dans l univers du management, des processus et des technologies. Experience N 52. Mars 2012 Pas à pas vers de bonnes exigences

Les expériences d ERNI dans l univers du management, des processus et des technologies. Experience N 52. Mars 2012 Pas à pas vers de bonnes exigences Les expériences d ERNI dans l univers du management, des processus et des technologies Experience N 52 Mars 2012 OutsourcINg Pas à pas vers de bonnes exigences Outsourcing 10 11 Pas à pas vers de bonnes

Plus en détail

Big Data? Big responsabilités! Paul-Olivier Gibert Digital Ethics

Big Data? Big responsabilités! Paul-Olivier Gibert Digital Ethics Big Data? Big responsabilités! Paul-Olivier Gibert Digital Ethics Big data le Buzz Le Big Data? Tout le monde en parle sans trop savoir ce qu il signifie. Les médias high-tech en font la nouvelle panacée,

Plus en détail

Contexte PPE GSB CR. Analyse. Projet réalisé :

Contexte PPE GSB CR. Analyse. Projet réalisé : Contexte PPE GSB CR Le laboratoire est issu de la fusion entre le géant américain Galaxy et le conglomérat Swiss Bourdin. Cette fusion a eu pour but de moderniser l activité de visite médicale et de réaliser

Plus en détail

Collecter de nouveaux Leads avec Twitter

Collecter de nouveaux Leads avec Twitter Collecter de nouveaux Leads avec Twitter 05/05/2015 Comment générer de l intérêt pour votre marque sur Twitter? Comme tout autre réseau social, Twitter représente une bonne opportunité pour faire connaître

Plus en détail

Webinar EBG Nouvelles perspectives d'exploitation des données clients avec le big data

Webinar EBG Nouvelles perspectives d'exploitation des données clients avec le big data Webinar EBG Nouvelles perspectives d'exploitation des données clients avec le big data Approches & opportunités face aux enjeux de volume, variété et vélocité France, 2012-2014 28 mars 2013 Ce document

Plus en détail

Méthodologie de conceptualisation BI

Méthodologie de conceptualisation BI Méthodologie de conceptualisation BI Business Intelligence (BI) La Business intelligence est un outil décisionnel incontournable à la gestion stratégique et quotidienne des entités. Il fournit de l information

Plus en détail

CONFERENCE TECHNOM AIDE IBM

CONFERENCE TECHNOM AIDE IBM Conférence Big Data CONFERENCE TECHNOM AIDE IBM Le BIG DATA : le nouveau pétrole de la société. En présence de : Christophe MENICHETTI (spécialiste BIG DATA chez IBM) JN. SCHNEIDER et F. WEYGAND (professeurs

Plus en détail

Sites web propriétaires

Sites web propriétaires Ce document est disponible à : C:\Users\pc_samba\Documents\Doc sites prop.docx Sommaire 1 Introduction... 3 2 Création du mini-site... 4 2.1 Autorisation de création... 4 2.2 Création de votre site Web...

Plus en détail

Aider les exploitants à comprendre les résultats analytiques rapidement et facilement

Aider les exploitants à comprendre les résultats analytiques rapidement et facilement Juin 2013 Aider les exploitants à comprendre les résultats analytiques rapidement et facilement (page 1) De nouveaux outils pour offrir davantage d options afin de visualiser les résultats analytiques

Plus en détail

Commentaires de la Banque Nationale

Commentaires de la Banque Nationale Commentaires de la Banque Nationale Livre blanc de l OCRCVM Modifications apportées aux règles concernant l obligation de mise à niveau des compétences et le versement direct de commissions Le 29 avril

Plus en détail

Introduction à l Informatique

Introduction à l Informatique Introduction à l Informatique. Généralités : Etymologiquement, le mot informatique veut dire «traitement d information». Ceci signifie que l ordinateur n est capable de fonctionner que s il y a apport

Plus en détail

L achat de formation en 3 étapes :

L achat de formation en 3 étapes : L achat de formation en 3 étapes : 1- La définition du besoin de formation L origine du besoin en formation peut avoir 4 sources : Une évolution des choix stratégiques de l entreprise (nouveau métier,

Plus en détail

Documentation utilisateur FReg.NET

Documentation utilisateur FReg.NET Epitech Documentation utilisateur FReg.NET Document réservé aux utilisateurs souhaitant comprendre rapidement le fonctionnement du logiciel FReg.NET Lago_a, schehl_c, narcis_m, clique_x, tran-p_n 5/14/2010

Plus en détail

Edito : Cybersudoe Innov : Un réseau d experts en innovation par le numérique du Sud-Ouest européen

Edito : Cybersudoe Innov : Un réseau d experts en innovation par le numérique du Sud-Ouest européen Edito : Cybersudoe Innov : Un réseau d experts en innovation par le numérique du Sud-Ouest européen Un des objectifs principaux du projet européen Cybersudoe innov est la création d une base de données

Plus en détail

Comment développer des politiques et actions équitables et inclusives en s appuyant sur la culture?

Comment développer des politiques et actions équitables et inclusives en s appuyant sur la culture? Comment développer des politiques et actions équitables et inclusives en s appuyant sur la culture? 1 Protéger et promouvoir la créativité de l humanité Uncontacted tribe discovered in Brazilian Amazon,

Plus en détail

Compte rendu d activité Fiche n 1

Compte rendu d activité Fiche n 1 Compte rendu d activité Fiche n 1 Alexandre K. (http://ploufix.free.fr) Nature de l activité Création d une base de connaissances avec PostgreSQL Contexte : Le responsable technique souhaite la mise en

Plus en détail

Introduction aux systèmes d exploitation

Introduction aux systèmes d exploitation Introduction aux systèmes d exploitation Le système d exploitation est un ensemble de logiciels qui pilotent la partie matérielle d un ordinateur. Les principales ressources gérées par un système d exploitation

Plus en détail

Les défis statistiques du Big Data

Les défis statistiques du Big Data Les défis statistiques du Big Data Anne-Sophie Charest Professeure adjointe au département de mathématiques et statistique, Université Laval 29 avril 2014 Colloque ITIS - Big Data et Open Data au cœur

Plus en détail

Big Data Concepts et mise en oeuvre de Hadoop

Big Data Concepts et mise en oeuvre de Hadoop Introduction 1. Objectif du chapitre 9 2. Le Big Data 10 2.1 Introduction 10 2.2 Informatique connectée, objets "intelligents" et données collectées 11 2.3 Les unités de mesure dans le monde Big Data 12

Plus en détail

Experience N 52. Les expériences d ERNI dans l univers du management, des processus et des technologies. Mars 2012

Experience N 52. Les expériences d ERNI dans l univers du management, des processus et des technologies. Mars 2012 Les expériences d ERNI dans l univers du management, des processus et des technologies Experience N 52 Mars 2012 MIGRATIONS Garder la maîtrise lors de migrations GARdER la maîtrise LORS de migrations Lors

Plus en détail

Guide préparatif «Automatiser sa vigie sur Twitter avec R» 1

Guide préparatif «Automatiser sa vigie sur Twitter avec R» 1 Guide préparatif «Automatiser sa vigie sur Twitter avec R» 1 Date : Jeudi 25 juin 2015 Horaire : 9h à 16h Local : C-2059 Adresse : Université de Montréal Pavillon Lionel Groulx 3150, rue Jean-Brillant

Plus en détail

Le client/serveur repose sur une communication d égal à égal entre les applications.

Le client/serveur repose sur une communication d égal à égal entre les applications. Table des matières LES PRINCIPES DE BASE... 1 Présentation distribuée-revamping...2 Présentation distante...3 Traitements distribués...3 données distantes-rd...4 données distribuées-rda distribué...4 L'ARCHITECTURE

Plus en détail

Utilisation du RAID logiciel Sur un serveur Windows 2000

Utilisation du RAID logiciel Sur un serveur Windows 2000 BTS INFORMATIQUE DE GESTION Option Administrateur de réseaux développement d applications COMPTE-RENDU D ACTIVITE ACTIVITE N 6 Nom et Prénom : Casanova Grégory Identification (objectif) de l activité Utilisation

Plus en détail

1 Les clés de lecture du livre

1 Les clés de lecture du livre 1 Les clés de lecture du livre 1 Les clés de lecture du livre La logique de notre ouvrage Cet ouvrage est destiné aux lecteurs ne connaissant pas l ingénierie système et qui veulent comprendre rapidement

Plus en détail

PLAN D AFFAIRE PROJET AUTEUR. Date. Modèle de plan d affaire 1 welcome@efcom-conseil.com

PLAN D AFFAIRE PROJET AUTEUR. Date. Modèle de plan d affaire 1 welcome@efcom-conseil.com PLAN D AFFAIRE PROJET AUTEUR Date Modèle de plan d affaire 1 welcome@efcomconseil.com SOMMAIRE SOMMAIRE...2 LE PORTEUR...4 L IDEE DE DEPART...5 L ETUDE DE MARCHE...6 Le marché et son environnement...6

Plus en détail

Ecole des Hautes Etudes Commerciales HEC Alger. par Amina GACEM. Module Informatique 1ière Année Master Sciences Commerciales

Ecole des Hautes Etudes Commerciales HEC Alger. par Amina GACEM. Module Informatique 1ière Année Master Sciences Commerciales Ecole des Hautes Etudes Commerciales HEC Alger Évolution des SGBDs par Amina GACEM Module Informatique 1ière Année Master Sciences Commerciales Evolution des SGBDs Pour toute remarque, question, commentaire

Plus en détail

Le géomarketing - Page 1 sur 7

Le géomarketing - Page 1 sur 7 Le géomarketing - Page 1 sur 7 LES DOSSIERS MADWATCH.net méthodes Le Géomarketing Novembre 2003 Nb de pages : 7 Le géomarketing - Page 2 sur 7 Créé dans les années 80, la plupart des applications du géomarketing

Plus en détail

Business & High Technology

Business & High Technology UNIVERSITE DE TUNIS INSTITUT SUPERIEUR D ADMINISTRATION DES ENTREPRISES DE GAFSA Département : Informatique Business & High Technology Chapitre 6 : PGI : Progiciels de Gestion Intégrés ERP : Enterprise

Plus en détail

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2

Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 186 Hyper-V et SC Virtual Machine Manager sous Windows Server 2008 R2 L'utilisation des fonctionnalités de haute disponibilité intégrées aux applications, L'ajout de solutions tierces. 1.1 Windows Server

Plus en détail

AGENCE NATIONALE D APPUI A LA PERFORMANCE DES ETABLISSEMENTS DE SANTE ET MEDICO-SOCIAUX APPEL A PROJETS

AGENCE NATIONALE D APPUI A LA PERFORMANCE DES ETABLISSEMENTS DE SANTE ET MEDICO-SOCIAUX APPEL A PROJETS AGENCE NATIONALE D APPUI A LA PERFORMANCE DES ETABLISSEMENTS DE SANTE ET MEDICO-SOCIAUX APPEL A PROJETS «Validation méthodologique de l élaboration de scores composites de performance hospitalière» 1.

Plus en détail

Tuning des requêtes. Chapitre 7. 1. Qu'est-ce qu'une requête lente?

Tuning des requêtes. Chapitre 7. 1. Qu'est-ce qu'une requête lente? 147 Chapitre 7 Tuning des requêtes 1. Qu'est-ce qu'une requête lente? Tuning des requêtes Lorsqu'il y a des remontées d'utilisateurs ou une constatation de comportement lent au niveau de l'application,

Plus en détail

Management des processus opérationnels

Management des processus opérationnels Ecole Nationale Supérieure de Management Master Management des organisations Management des processus opérationnels Dr TOUMI Djamila Cours n 4: l approche processus et le management du système d informations

Plus en détail

DPAS n 3 Les recettes d un bon Mailing

DPAS n 3 Les recettes d un bon Mailing DPAS n 3 Les recettes d un bon Mailing Le Mailing est un outil marketing, qui est utilisé pour faire la promotion d un produit, d un service, d une entreprise. Le mailing est un support papier comme par

Plus en détail

Dossier I Découverte de Base d Open Office

Dossier I Découverte de Base d Open Office ETUDE D UN SYSTEME DE GESTION DE BASE DE DONNEES RELATIONNELLES Définition : Un SGBD est un logiciel de gestion des données fournissant des méthodes d accès aux informations. Un SGBDR permet de décrire

Plus en détail

Documentation Ellipses Windows. Auteur : Léonard FRECHET Date : 10/01/07 Diffusion : Publique ELLIPSES 2000. Envoi Automatisé de SMS Ellipses SMS

Documentation Ellipses Windows. Auteur : Léonard FRECHET Date : 10/01/07 Diffusion : Publique ELLIPSES 2000. Envoi Automatisé de SMS Ellipses SMS ELLIPSES 2000 Envoi Automatisé de SMS Ellipses SMS SOMMAIRE I. Introduction à Ellipses SMS... 3 II. Deux modes de fonctionnement... 3 1. Au travers d Ellipses 2000... 3 2. Utilisation normale (en vue d

Plus en détail