Big Data, Green & Dirty Data

Dimension: px
Commencer à balayer dès la page:

Download "Big Data, Green & Dirty Data"

Transcription

1 PSIR IR (2015) Projet Scientifique d Initiation à la Recherche (PSIR) Big Data, Green & Dirty Data E. Robin, M. Canat, B. Martin, A. Keller, N. Gutowski* Groupe Esaip 18 rue du 8 mai 1945, CS St Barthélémy d Anjou Cedex ARTICLE INFO Article : Créé le 11/02/2015 sur le thème du Big Data et de ses enjeux Mots-clés : Big Data Hadoop Green & Dirty Data Fourth ABSTRACT We live in a world where technology has evolved at a very high speed. Considering that evolution, they have succeeded in being a significant factor in each field and they now represent a major issue for the global economy. However, this has not only advantages. In fact, the growing storage capabilities can be associated with the generation of more and more data and data increasingly big. This gave birth to the new concept of "Big Data", which roughly means all the massive data generated and that can t be processed or analyzed without using special tools. Analysis of these data can predict a "future" and is generally used for decision support, especially in a world in which business is really important. In addition to the technological and economic aspect, Big Data also has an impact on the environment, since it stores the data sometimes over long periods and it requires electrically powered machines. How can we process and analyze all that data? What are the impacts on our society? Is there an effective way to reduce the environmental impact due to Big Data? 1. INTRODUCTION Depuis 1990, les réseaux sociaux se sont petit à petit ancrés dans la vie quotidienne des Hommes. Par leur biais, tous les utilisateurs de l Internet peuvent échanger librement des fichiers de toutes tailles et de tous types. Par exemple, il sera possible d échanger des images sur Instagram ou Facebook, tandis que l on partagera des vidéos sur YouTube. En parallèle, les capacités de stockage informatique ont constamment augmenté, permettant de répondre à la problématique posée par la taille massive des données générées via Internet. Toutes ces données créées, au vu de leur nombre massif, finissent par être stockées sur des serveurs, voire même oubliées/laissées à l abandon sur ces derniers. On peut alors se poser la question suivante : «Comment peut-on traiter et analyser un tel volume de données provenant de différentes sources?» Pour répondre à cette problématique, il est nécessaire d étudier dans un premier temps ce qu est le «Big Data», ses intérêts et les enjeux qui en découlent, dans un second temps, étudier les outils qui permettent de traiter ce phénomène et enfin d analyser l impact environnemental. 2. BIG DATA 2.1. Qu est-ce que c est? Le «Big Data» est le terme qui décrit toutes les données massivement produites et/ou stockées. Pour donner une idée, au début de l humanité jusqu en 2003, l'humanité entière a généré environ 5 exaoctets de donnés. En 2011, nous avons généré le même volume en deux jours, et en 2013 seulement 10 minutes. Comme nous le prouvent ces chiffres, le volume de données générées ne fait que croître de plus en plus chaque année. Elle est due à l'émergence des nouvelles technologies, et surtout des réseaux sociaux qui nous permettent de produire et de stocker de plus en plus de données, telle que des vidéos sur YouTube, ou des photos sur Instagram, etc. *Contact :

2 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 2 Il est important de ne pas oublier une seule de ces caractéristiques lors du traitement de données. Sans valeur, la donnée n est pas réellement utile ni utilisable. Sans volume, la donnée perd en crédibilité et donc perd en valeur aussi. Sans variété, les analyses ne s appliqueraient qu à un seul type de données, voire une seule source de données, ce qui nous conduirait à des analyses et des résultats similaires, voire identiques. Enfin, sans vélocité, nous ne pourrions pas traiter rapidement l information, ce qui signifie que la donnée ainsi que le résultat obtenu pourraient devenir obsolètes après analyse. En prenant en compte ces 4 caractéristiques, le Big Data peut rapidement devenir une carte maîtresse en influant sur la prise de décision de ceux qui sauront s en servir. Fig. 1. Quelques chiffres à propos du Big Data 2.2. Description détaillée du Big Data Le Big Data est composé d une multitude d informations provenant toutes de sources diverses et variées. Cela peut être des données prélevées d une base de données ou bien tout simplement les informations que tous les utilisateurs divulguent sur les réseaux sociaux Ses enjeux D une manière générale, le «Big Data» est utilisé pour analyser un fait. Par exemple, nous pouvons analyser les sentiments des clients sur un produit en particulier afin de savoir ce qui doit être amélioré, ce qui était bien, etc. Il permet aux fournisseurs de savoir quoi faire pour attirer plus de clients et de changer sa stratégie de marketing. Le savoir est synonyme de pouvoir et ceux qui détiennent le savoir/la connaissance peuvent s adapter à ce qui est attendu d eux. Quels sont les véritables enjeux du Big Data? À l heure actuelle, notre monde devient de plus en plus informatisé ainsi chaque étape de notre vie quotidienne laisse une trace numérique. Ces informations, autrefois jugez inutiles sont désormais le nouvel «Or noir». Le Big Data est devenu un secteur important de l économie du monde informatique. Ce secteur devrait valoir dans les 24 milliards de dollars en 2016 selon une étude de la société d analyse IDC. Fig. 2. Détail concernant le Big Data Comme le décrit l IDC dans l un de ses rapports, big data technologies describe a new generation of technologies and architectures, designed to economically extract value from very large volumes of a wide variety of data, by enabling the high-velocity capture, discovery, and/or analysis. [1]. À partir de cette définition, on peut alors résumer le Big Data en 4 caractéristiques principales, que l on appelle aussi la règle des «4 V» : - La valeur : ce que l on peut récupérer de la donnée - Le volume : corresponds à la quantité de données - La variété : tous les types de données possibles - La vélocité : la vitesse de traitement des données Un des enjeux principaux du Big Data est l enjeu sociétal, c est-à-dire la récupération de données personnelles par des sociétés non connues et auxquelles les utilisateurs n ont pas donné explicitement leurs accords pour la récupération de ces données. Ces données peuvent semblées anodine tel que le nom, prénom et date de naissance lors d une inscription sur un site de commerce. Mais le cumul de ces informations permet de réaliser un profil très complet. Fig. 3. Les enjeux du Big Data [10]

3 3 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) Par ce procédé, de multiples droits tels que le droit à l oubli, le respect de la vie privée ainsi que d autres ne sont possiblement pas respectés lors de la collecte de ces masses de données. Ces datamasses ont pour but de réaliser un catalogue «humain» des utilisateurs d Internet qui deviennent alors des produits. Mais il existe aussi un autre enjeu qui impacte lui, le monde du travail et de la formation. En effet, le secteur du Big Data vaut de plus en plus, ce qui nécessite de plus en plus de mains d œuvres ainsi que de formateurs. Selon l institut Mc Kinsey Global, le recrutement des États-Unis en analystes Big Data, serait de à travailleurs d ici à Ces offres d emploi nécessitent des compétences technologiques dans le domaine du Big Data mais aussi dans la maîtrise de mathématiques et statistiques de haut niveau ainsi que des compétences en programmations. Pour manipuler ces datamasses, il est nécessaire d avoir de la puissance, et celle-ci est obtenue en combinant de puissants ordinateurs. Mais toutes les entreprises, collectivités ou états utilisant de manière ponctuelle, ces différentes analyses de ces données, ne peuvent posséder un tel équipement. Cela ne serait pas rentable pour eux d investir dans un tel matériel qui ne serait pas utilisé à 100 %. Il existe donc des sociétés, une poignée seulement, qui elles gèrent les données des activités de trading tel que celles de Wall Street, ou les données de gestion du réseau d EDF. Parmi ces sociétés, il y a en toute logique les monstres Google, Microsoft et Amazon, mais il y a aussi des structures plus modestes telles que le CEA (Commissariat à l énergie atomique et aux énergies alternatives) et quelques centres universitaires. Fig. 4. Des chiffres sur l enjeu économique Mais dans ce monde où de plus en plus de nos actions laisse une trace digitale, les quantités de données sont de plus en plus gigantesque! Dans ce cas-là, une entreprise comme Facebook, qui possède un très grand nombre d utilisateurs et qui collectent beaucoup d informations sur chacun d entre eux, ne peut ni stocker en interne ni traiter via les outils classiques d analyse de base de donnée, les données récupérées sur ses utilisateurs. Cette problématique exprime donc un des enjeux du Big Data : l enjeu technologique. Pour répondre à ce besoin, il faut s intéresser au cœur du Big Data, c est-à-dire le calcul distribué qui permet d analyser toute ces masses gigantesques de données Son Avenir Fig. 5. Des chiffres sur le Big Data actuel On peut désormais dire que l année 2014 fût l année du Big Data, mais quid du futur? Selon le cabinet McKinsey, l évolution du nombre d objets connectés serait de l ordre de 400 % pour atteindre 50 milliards! Le volume de données créées par l industrie (entreprises & machines) et par les particuliers croît chaque année de 40 %. Ceci impliquerait une forte augmentation du besoin en spécialiste aux États-Unis, de l ordre de à spécialistes, et pour la France.

4 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 4 L année 2015, le marché du Big Data sera de 16.9 milliards de dollars, c est-à-dire 5 fois plus qu en Tous les secteurs, tels que le marketing, l assurance, la sécurité, la finance et d autres, auront de nouvelles perspectives grâce à l analyse des datamasses. Dans ces domaines, le Big Data permettra de cibler les clients actuels ou potentiels afin de leur proposer des produits adaptés à chacun. Tout ceci permettra aux industriels d économiser des sommes importantes. Mais le Big Data influencera aussi des domaines du quotidien, tel que la gestion des feux de signalisations afin d améliorer la fluidité du trafic d une ville ou alors de parfaire les prévisions météorologiques. Avec l évolution du Big Data suivra la découverte et création de nouvelles méthodes de traitements et d analyses de l information ce qui pourra révolutionner la science informatique millions d'utilisateurs mettent à jour leur profil au moins une fois par jour - Plus de 1 milliard de photos mises en ligne chaque mois - Plus de 10 millions de vidéos mises en ligne chaque mois - Plus de 1 milliard de contenus partagés chaque semaine (liens, notes, photos...) Le traitement en masse des données ne dépend pas que du secteur du numérique. En effet, cette manipulation est utilisée dans d'autres domaines notamment dans celui de la recherche. Dans le domaine scientifique, la recherche avance vers le stockage de l'adn humain. Le volume associé représenterait 100 Go de données soit l'équivalent de photos [23]. L'objectif étant pour les chercheurs de comprendre les mutations génétiques et le processus biologique. De plus, le fait de comparer deux génomes (un sain et un autre atteint d'une tumeur) représente le traitement de 1 To de données non compressées. Un million de génomes équivaudraient à analyser 1 Exaoctet. Dans un autre domaine scientifique, l'observatoire Solaire de la NASA capture environ 1.6 To de données chaque jour contre 140 To pour le «Large Synoptic Survey Telescope». Hadoop embarque MapReduce. Il s'agit de l'élément central du traitement des données. MapReduce effectue des travaux de pré manipulation en vue d'accélérer l'accès aux données lors des différentes requêtes. Chaque donnée est représentée sous la forme d'une <clé, valeur>. La première opération est le «Map». Il s'agit de retrouver toutes les occurrences d'une clé donnée. Les travaux parcourent l'ensemble des sources de données puis réalisent un mappage d'une ou plusieurs clés. La figure 1 représente un exemple de cette opération. Fig. 6. Des chiffres sur l avenir du Big Data 3. HADOOP 3.1. Hadoop ou comment traiter du Big Data? Hadoop est une technologie basée sur la technologie MapReduce de Google. Elle est utilisée en vue de traiter de grandes quantités de données non structurées. Les études montrent que la quantité de données générée chaque jour augmente de façon exponentielle (la quantité de données double chaque 18 mois) [21]. Ce phénomène est dû en partie aux réseaux sociaux. En effet, Facebook est un acteur majoritaire dans le secteur du numérique. L'entreprise permet l'échange et le traitement de données à grande échelle à travers le monde entier. Facebook génère des données en grande quantité [22] : Fig. 7. Opération «Map» Ici, le travail associé à cette opération de «Map» cherche l'ensemble des clés correspondantes à 1949, 1950,1951. On remarque que pour une clé donnée, plusieurs occurrences apparaissent. C'est le point d'entrée avant la seconde opération : le «Reduce». Lors d'une opération «Reduce», les travaux associés vont reprendre les résultats du «Map». L'objectif ici est de réduire l'ensemble des données en incluant les valeurs au sein d'une seule et même clé. C'està-dire que pour une clé K on retrouvera les valeurs X, Y, Z associées.

5 5 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) Des études ont été réalisées [24] mais nous ne tiendrons compte que des réalisations de tests sur de grandes données, pour rester en lien avec le Big Data. Tout d'abord, l'expérience commence avec une requête de type «Scan». Celle-ci vise à obtenir un ensemble de données à partir d'une requête simple. Fig. 8. Opération «Reduce» La figure 8 montre qu'avec l'ensemble des données repérées par l'opération «Map», il est possible de les regrouper et d'éviter la redondance de clé. Pour un ensemble de clés, valeurs suivantes : <1,a> ; <2,b> ; <3,c> ; <3,i> ; <1,k> ; <3,o> L'opération de «Reduce» retournera le nouvel ensemble de clés valeurs suivant : <1,[a k]> ; <2,[b]> ; <3,[c i o]> L'algorithme de recherche de valeur sera plus rapide car il n'aura pas à rechercher chacune des clés avant de pouvoir traiter la donnée. Une seule opération sera nécessaire au lieu de n fois le nombre de clés grâce au prétraitement de MapReduce Un environnement modulable L'écosystème Hadoop permet de traiter plus rapidement des données. Pour ce faire, des modules doivent être inclus en vue de ce traitement. Par défaut, Hadoop embarque les éléments suivants : Fig. 9. Résultats d une requête «Scan» Pour obtenir les résultats présentés dans la figure 9, une requête sur les données «SELECT pageurl, pagerank FROM rankings WHERE pagerank > X» a été effectuée. On peut dès cette requête s'apercevoir que le data warehouse HIVE inclus dans Hadoop n'est pas le plus rapide pour exécuter cette requête. Shark-mem arrive en tête avec un temps d'exécution de 3.6 secondes. Sharkmem utilise le cache afin de pouvoir stocker les tables en entrée et les tables en sorties. L'étude se poursuit avec une requête de type «Agrégation». - OOZIE : système de planification des tâches de traitements. - PIG : plate-forme d'analyse de données. - HIVE : data warehouse de Hadoop pour la gestion de grandes données. - HBASE : base de données de Hadoop. - MAPREDUCE : algorithme de mappage des données et de réduction des associations. - HDFS : système de fichiers distribué de Hadoop. L'écosystème Hadoop est facile et rapide à mettre en œuvre, d'où une implémentation classique utilisée dans les entreprises manipulant de grosses données. Cependant, dans cette utilisation classique, on peut constater certains axes d'amélioration possible. Prenons par exemple, le cas de «HIVE», représentant le data warehouse de Hadoop par défaut, il en existe d'autres pouvant être incorporés à la solution et se substituer à HIVE. Des tests ont été effectués en vue de comparer la vitesse d'exécution de ce data warehouse avec d'autres produits sur le marché. Ces tests représentent différentes requêtes pouvant être effectuées sur le data warehouse. Fig. 10. Résultats d une requête «Agrégation»

6 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 6 La figure 10 montre les résultats de la requête «SELECT SUBSTR(sourceIP, 1, X), SUM(adRevenue) FROM uservisits GROUP BY SUBSTR(sourceIP, 1, X)». HIVE est encore le plus lent pour traiter cette requête. Redshift retourne la réponse le plus rapidement. Il s'agit d'un produit propriétaire d'amazon. Ici, il est utilisé avec l'ensemble de ses paramètres par défaut. Shark vient se positionner en deuxième position pour ce test. Le test suivant propose l'analyse d'une opération de requête de jointure. La requête utilisée est la suivante : «SELECT sourceip, totalrevenue, avgpagerank FROM (SELECT sourceip, AVG(pageRank) as avgpagerank, SUM(adRevenue) as totalrevenue FROM Rankings AS R, UserVisits AS UV WHERE R.pageURL = UV.destURL AND UV.visitDate BETWEEN Date(` ') AND Date(`X') GROUP BY UV.sourceIP) ORDER BY totalrevenue DESC LIMIT 1» La démonstration souhaite évaluer le temps d'exécution d'une requête multiple. des requêtes sur son data warehouse. Sachant que HIVE s'exécute avec MapReduce, on peut émettre certaines hypothèses selon lequelles soit le data warehouse joue un rôle important dans l'obtention des résultats soit il s'agit de l'algorithme lui-même qui est à prendre en compte. Il serait intéressant de pouvoir réaliser ces mêmes tests en incluant l'algorithme MapReduce à Shark. On pourrait alors voir s'il s'agit d'un dat warehouse performant ou d'un algorithme de traitement des données efficace. 4. LES DIRTY ET CLEAN DATAS 4.1. Que sont les «Dirty data» et leur inverse les «clean data»? Avec le Big Data et sa quantité impressionnante de données enregistrées tous les jours ; il est normal que des erreurs s y glissent. Ce sont les Dirty data. Elles peuvent être dues à des entrées utilisateur incorrectes, des fautes de frappe, un mauvais champ de formulaire renseigné ou bien une fusion de plusieurs bases de données. Mais elles peuvent aussi être générées par une mauvaise méthode de stockage ou un mauvais traitement logiciel. Ci-dessous une liste non exhaustive de dirty data : La donnée incorrecte Pour s'assurer de la validité de la donnée, il est nécessaire de vérifier que l'entrée utilisateur correspond au type de donnée requis. La donnée imprécise quelques fois la donnée sera correcte mais imprécise, ce qui la rend peu valable. La donnée qui contredit une règle métier Ex. : Une date d'expiration plus ancienne que la date de création. Fig. 11. Résultats d une requête «Jointure» On constate que Redshift est encore le data warehouse le plus rapide devant Shark mem. HIVE arrive en dernière position. Par la représentation de ces tests, on peut en conclure que les solutions Shark-mem et Redshift(HDD) sont les plus efficaces dans le traitement d'un volume important de données. Redshift semble être une solution de substitution à HIVE. Cependant, cette solution n'incorpore pas le traitement de scripts à distance contrairement à Shark-mem. Les deux solutions sont compatibles avec le système de fichier de HADOOP (HDFS). Le data warehouse Shark a été utilisé avec son algorithme de traitement Spark. Il utilise le langage SQL afin de réaliser Les données contradictoires : la non-vérification des données entraine la création de données qui se contredisent. Les données incomplètes : Les données enregistrées avec des champs manquants. Les doublons : Ce sont les données enregistrées plusieurs fois. Selon une étude menée par «Experian Data Quality [25]» (Experian Data Quality, 2014) 94% des entreprises admettent avoir des doublons et 92% que les données utilisateurs pourraient être erronés. 91% des entreprises interrogées pensent que les dirty data ont causée des pertes financières dans l année écoulée. C est en moyenne 12% du budget qui est perdu à cause de ces données de mauvaise qualité. Cette perte est due au temps humain perdu à rechercher l information ainsi qu à la perte financière brute causée par ces erreurs.

7 7 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) Pour améliorer la qualité de ces données on utilise le Data Scrubbing ou Data cleansing. Ce processus d amélioration peut consister à corriger des fautes de frappe ou bien à valider la donnée par rapport à une liste connue de données «saines». Certains algorithmes dédiés à cette tache analysent les données pour en comprendre la logique et remontent une alerte pour chaque donnée qui lui parait «anormale» dans son contexte. De plus en plus d entreprises fournissent des logiciels de «Data Cleansing». On peut citer Google avec son «Google refine», SQLPower avec DQguru, ou bien encore «Data Cleaner» qui est une solution open source. Les limites de ces logiciels sont qu ils demandent beaucoup de temps de fonctionnement et des ressources matérielles importantes ; de plus une vérification manuelle est préférable pour éviter de créer des mauvaises données supplémentaires. Il est nécessaire de limiter l utilisation de ces logiciels uniquement aux données nouvellement insérées dans la base, pour un souci évident de gain de temps/argent. On peut citer les bonnes pratiques suivantes pour garder ses données propres. Établir des standards pour la saisie de données. Prévenir l enregistrement de doublons Mettre les informations existantes à jour plutôt que de recréer une entrée. Si les données sont le pétrole de demain le data cleansing sera le raffinage. 5. CONCLUSION En résumé, le Big Data est un ensemble de données massivement générées qui ne peuvent être ni traitées, ni analysées telles qu elles sont. Etant donné qu elles proviennent de sources différentes, ces dernières peuvent décrire un même type de données mais sont définies par des normes différentes (par exemple, une date année/mois/jour et une autre date jour/mois/année) ce qui rend donc l analyse et la relation entre les données très complexes. C est ce que l on appelle les Dirty Data. Ces données sont traitées par des outils spécifiques tels que Hadoop par exemple, se servant d un algorithme de calcul appelé MapReduce, qui va permettre entre autre de regrouper des données similaires afin de les traiter plus rapidement. De ce traitement de données découle l analyse de ces mêmes données. Elle permet d étudier certains comportements et de prévoir certaines réactions, ce qui donne à celui qui est capable de les analyser le pouvoir d anticiper. Par l anticipation, on est capable de connaître par exemple la réaction d un consommateur face à un changement spécifique du produit. Cette capacité représente en soi un enjeu économique pour les grandes firmes vis-à-vis de leurs clients. De plus, l analyse de données traitées se fait beaucoup plus rapidement que celle de données non traitées/triées. Or, il est nécessaire de faire fonctionner des machines pour cela, ce qui signifie que plus les calculs seront brefs, moins cela aura d impact sur l environnement. REFERENCES [1] Gantz J, Reinsel D (2011) Extracting value from chaos. IDC iview, pp 1 12 [2] Datafloq Connecting Data and people Disponible : https://datafloq.com/ [3] Edd Dumbil. (1/14/2014) The Data Lake Dream. [En ligne] Disponible :http://www.forbes.com/sites/edddumbill/201 4/01/14/the-data-lake-dream/ [4] Matt Turck, The state of big data in 2014, Disponible: [5] IBM Insight 2014 by the numbers Disponible : numbers [6] Pratt Institute - City by Numbers: Big Data and the Urban Future. Disponible:https://www.pratt.edu/events/single/?id= [7] Pratt Institute - City by Numbers: Big Data and the Urban Future. Disponible:https://www.pratt.edu/events/single/?id= [8] Susan Hutton - Twitter, Big Data, and Jobs Numbers. Disponible:http://www.lsa.umich.edu/lsa/ci.twitterbigdat aandjobsnumbers_ci.detail [9] Jeff Bertolucci IMB s Predictions : 6 Big Data Trends in Disponible : [10] Future Mag - Big Data - Préparez-vous à la révolution!. Disponible : [11] Future Mag - Les enjeux du big data Disponible : [12] Arte Volet I : Big Data I : des données à vitesse grand V Volet 2 : Big Data II - Bienvenue dans le monde des Yottaoctets Volet 3 : Big Data III - Moi, l'octet Disponible : [13] Phillipe Rigaux CNAM - Big data, décodage et analyse des enjeux. Disponible :http://recherche.cnam.fr/equipes/sciencesindustrielles-et-technologies-de-l-information/big-datadecodage-et-analyse-des-enjeux kjsp [14] Blandine Laffargue Corp Events - Les nouveaux enjeux du Big Data. Disponible :http://www.bigdataparis.com/2014/enjeuxbig-data-blandine-laffargue.php [15] Didier Gaultier JDN - Les enjeux du Big Data dans la connaissance client en Disponible :

8 E. Robin, M. Canat, B. Martin, A. Keller / PSIR IR (2015) 8 s-enjeux-du-big-data-dans-la-connaissance-client-en shtml [16] Alexandre Dolique JDN - Le Big Data se démocratise : impacts et enjeux sur l organisation des entreprises. Disponible :http://www.journaldunet.com/solutions/expe rt/58779/le-big-data-se-democratise---impacts-et-enjeuxsur-l-organisation-des-entreprises.shtml [17] Data business - BIG DATA : Définition, Enjeux, Etudes de cas.disponible : [18] L Usine Nouvelle - Infographie : Big data, un marché à 100 milliards de dollars. Disponible : digitale.fr/article/infographie-big-data-un-marche-a-100- milliards-de-dollars.n [19] Transformation Digitale - Infographie : le Big Data, un défi incroyable. Disponible : analytics/infographie-le-big-data-un-defi-incroyable_a html [20] Michael Meyers - BIG DATA Take a Look at the Numbers. Disponible : %E2%80%93-take-look-numbers [21] «Big Data, big leap?»,2014, Jean-Baptiste HEITZMANN, Talend [22] 9_presentations/keynotes/DhrubaBorthakur- Hadoop_File_System_Architecture_Facebook.pdf [23] Big data, Hadoop and cloud computing in genomics by Aisling O Driscoll, Jurate Daugelaite, Roy D. Sleator [24] https://amplab.cs.berkeley.edu/benchmark/ [25]

avec nos solutions spécialisées pour la microfinance et ses institutions coopératives Big Data

avec nos solutions spécialisées pour la microfinance et ses institutions coopératives Big Data avec nos solutions spécialisées pour la microfinance et ses institutions coopératives Big Data Historique de Big data Jusqu à l avènement d Internet et surtout du Web 2.0 il n y avait pas tant de données

Plus en détail

Plan. Pourquoi Hadoop? Présentation et Architecture. Démo. Usages

Plan. Pourquoi Hadoop? Présentation et Architecture. Démo. Usages 1 Mehdi LOUIZI Plan Pourquoi Hadoop? Présentation et Architecture Démo Usages 2 Pourquoi Hadoop? Limites du Big Data Les entreprises n analysent que 12% des données qu elles possèdent (Enquête Forrester

Plus en détail

SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE

SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE En tant qu outils d aide à la décision, les tableaux de bord doivent répondre rapidement. Pour participer à cet effort de réactivité en termes

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution

Plus en détail

Changement dans les achats de solutions informatiques

Changement dans les achats de solutions informatiques Changement dans les achats de solutions informatiques Ce que cela signifie pour l informatique et les Directions Métiers Mai 2014 Le nouvel acheteur de technologies et la nouvelle mentalité d achat Un

Plus en détail

Veille Technologique. Cloud-Computing. Jérémy chevalier

Veille Technologique. Cloud-Computing. Jérémy chevalier E6 Veille Technologique Cloud-Computing Jérémy chevalier Table des matières DESCRIPTION :...2 Introduction :...2 Définition du Cloud :...2 Exemple de serveur proposant la solution de Cloud :...2 Les spécificités

Plus en détail

Rapport de méthodologie:

Rapport de méthodologie: Rapport de méthodologie: "Laboratoire on chip/lab-on-chip/loc" REMARQUE : La méthode employée est en tout point similaire à celle utilisée en groupe. Contents Rapport de méthodologie:... 1 "Laboratoire

Plus en détail

Synthèse d étude et projets d'intergiciels. Base NOSQL

Synthèse d étude et projets d'intergiciels. Base NOSQL Synthèse d étude et projets d'intergiciels Base NOSQL octera [AT] octera [DOT] info Résumé Devant le besoin grandissant en performance et en disponibilité des services/sites possédant un fort trafic, un

Plus en détail

Qu est ce que le RAID?

Qu est ce que le RAID? LES SYSTEMES RAID PLAN Introduction : Qu est ce que le RAID? Quels sont les différents niveaux de RAID? Comment installer une solution RAID? Conclusion : Quelle solution RAID doit-on choisir? Qu est ce

Plus en détail

Le DSI du futur Rapport d'étude

Le DSI du futur Rapport d'étude Le DSI du futur Rapport d'étude Devenir un catalyseur du changement Partagez ce rapport d'étude Le DSI du futur : Devenir un catalyseur du changement Tandis que la plupart des DSI s accordent à dire que

Plus en détail

Transformation IT de l entreprise ANALYTIQUE: L ÈRE WATSON

Transformation IT de l entreprise ANALYTIQUE: L ÈRE WATSON Transformation IT de l entreprise ANALYTIQUE: L ÈRE WATSON L analytique joue un rôle désormais primordial dans la réussite d une entreprise. Les pouvoirs qu elle délivre sont incontestables, cependant

Plus en détail

Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services.

Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services. Solutions de Service Management Guide d achat Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services. Aujourd hui, toutes

Plus en détail

Intelligence Economique - Business Intelligence

Intelligence Economique - Business Intelligence Intelligence Economique - Business Intelligence Notion de Business Intelligence Dès qu'il y a une entreprise, il y a implicitement intelligence économique (tout comme il y a du marketing) : quelle produit

Plus en détail

ACTUALITÉS LANDPARK. Nouvelle version. Landpark Helpdesk. Landpark Helpdesk. Les avantages de la nouvelle version 3.9.2.

ACTUALITÉS LANDPARK. Nouvelle version. Landpark Helpdesk. Landpark Helpdesk. Les avantages de la nouvelle version 3.9.2. ACTUALITÉS LANDPARK Solutions complètes d'inventaire, de gestion de parc et de helpdesk ITIL Avril 2015 Nouvelle version Landpark Helpdesk Landpark vous associe aux meilleurs logiciels de Gestion de Parc

Plus en détail

LINQ to SQL. Version 1.1

LINQ to SQL. Version 1.1 LINQ to SQL Version 1.1 2 Chapitre 03 - LINQ to SQL Sommaire 1 Introduction... 3 1.1 Rappels à propos de LINQ... 3 1.2 LINQ to SQL... 3 2 LINQ to SQL... 3 2.1 Importer des tables... 3 2.1.1 Le concepteur

Plus en détail

La rencontre du Big Data et du Cloud

La rencontre du Big Data et du Cloud La rencontre du Big Data et du Cloud Libérez le potentiel de toutes vos données Visualisez et exploitez plus rapidement les données de tous types, quelle que soit leur taille et indépendamment de leur

Plus en détail

INGENIERIE COLLABORATIVE, ELLE A TOUT D'UNE GRANDE...

INGENIERIE COLLABORATIVE, ELLE A TOUT D'UNE GRANDE... INGENIERIE COLLABORATIVE, ELLE A TOUT D'UNE GRANDE... Article rédigé pour les Etats généraux 2008 du MICADO, par Yannick BOUDIER. Résumé : L ingénierie collaborative est souvent prise pour un système d

Plus en détail

Bases de données documentaires et distribuées Cours NFE04

Bases de données documentaires et distribuées Cours NFE04 Bases de données documentaires et distribuées Cours NFE04 Introduction du cours Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers prénom.nom@cnam.fr Département d informatique Conservatoire

Plus en détail

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE 1 Introduction ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE Atelier «pour approfondir» Sauvegarder ses données à domicile ou sur Internet Qui n a jamais perdu des photos ou documents suite à une panne

Plus en détail

Le rôle d un tableau de bord

Le rôle d un tableau de bord CHAPITRE 1 Le rôle d un tableau de bord Introduction «Trop d informations tue l information.» Proverbe japonais Sur le plan théorique, un tableau de bord est un outil de reporting regroupant différents

Plus en détail

NewPoint IT Consulting BIG DATA WHITE PAPER. NewPoint Information Technology Consulting

NewPoint IT Consulting BIG DATA WHITE PAPER. NewPoint Information Technology Consulting NewPoint IT Consulting BIG DATA WHITE PAPER NewPoint Information Technology Consulting Contenu 1 Big Data: Défi et opportunité pour l'entreprise... 3 2 Les drivers techniques et d'entreprise de BIG DATA...

Plus en détail

MapReduce. Malo Jaffré, Pablo Rauzy. 16 avril 2010 ENS. Malo Jaffré, Pablo Rauzy (ENS) MapReduce 16 avril 2010 1 / 15

MapReduce. Malo Jaffré, Pablo Rauzy. 16 avril 2010 ENS. Malo Jaffré, Pablo Rauzy (ENS) MapReduce 16 avril 2010 1 / 15 MapReduce Malo Jaffré, Pablo Rauzy ENS 16 avril 2010 Malo Jaffré, Pablo Rauzy (ENS) MapReduce 16 avril 2010 1 / 15 Qu est ce que c est? Conceptuellement Données MapReduce est un framework de calcul distribué

Plus en détail

OFFRE D EMPLOI. 2.1 La définition du poste

OFFRE D EMPLOI. 2.1 La définition du poste OFFRE D EMPLOI 1 Introduction Définir une offre d emploi type n est pas un processus anodin à sous-estimer. En effet, l offre que l entreprise va communiquer représente la proposition d emploi vacant.

Plus en détail

UE 8 Systèmes d information de gestion Le programme

UE 8 Systèmes d information de gestion Le programme UE 8 Systèmes d information de gestion Le programme Légende : Modifications de l arrêté du 8 mars 2010 Suppressions de l arrêté du 8 mars 2010 Partie inchangée par rapport au programme antérieur Indications

Plus en détail

Requêtes S.Q.L. 1 Création des requêtes sous ACCESS

Requêtes S.Q.L. 1 Création des requêtes sous ACCESS Activité 15 Requêtes S.Q.L. Objectif Interroger une base de données avec des requêtes SQL. Fiche de savoir associée Ressource à utiliser Csi1Projets.pdf (Dossier 4) B.1.1.b. 1 En cliquant sur l'objet "Requêtes"

Plus en détail

FAITES DE LA DONNÉE LE MOTEUR DE VOTRE BUSINESS. Alexandre Vasseur Responsable Avant-Vente Europe du Sud Pivotal, EMC

FAITES DE LA DONNÉE LE MOTEUR DE VOTRE BUSINESS. Alexandre Vasseur Responsable Avant-Vente Europe du Sud Pivotal, EMC FAITES DE LA DONNÉE LE MOTEUR DE VOTRE BUSINESS Alexandre Vasseur Responsable Avant-Vente Europe du Sud Pivotal, EMC 1 Big Data = Volume, Variété, Vélocité et Valorisation Internet des objets Informations

Plus en détail

Solocal Group Solocal Group pilote ses audiences via un ensemble de tableaux de bord complètement automatisés grâce à l API AT Internet.

Solocal Group Solocal Group pilote ses audiences via un ensemble de tableaux de bord complètement automatisés grâce à l API AT Internet. Online Intelligence Solutions Solocal Group Solocal Group pilote ses audiences via un ensemble de tableaux de bord complètement automatisés grâce à l API AT Internet. Case study Case study INTRODUCTION

Plus en détail

Les défis statistiques du Big Data

Les défis statistiques du Big Data Les défis statistiques du Big Data Anne-Sophie Charest Professeure adjointe au département de mathématiques et statistique, Université Laval 29 avril 2014 Colloque ITIS - Big Data et Open Data au cœur

Plus en détail

Le Big Data est-il polluant? BILLET. Big Data, la déferlante des octets VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE TERRE (/TERRE)

Le Big Data est-il polluant? BILLET. Big Data, la déferlante des octets VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE TERRE (/TERRE) Donner du sens à la science Rechercher Se connecter / S'inscrire Suivre VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE MES THÈMES Types DOSSIER Paru le 15.11.2012 Mis à jour le 29.01.2014 Big Data, la

Plus en détail

ITIL V2 Processus : La Gestion des Configurations

ITIL V2 Processus : La Gestion des Configurations ITIL V2 Processus : La Gestion des Configurations Auteur: Fabian PIAU, Master 2 MIAGE, Nantes La Gestion des Configurations est un processus issu d ITIL version 2 qui aide au soutien du service («Service

Plus en détail

CNAM 2010-2011. Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010

CNAM 2010-2011. Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010 CNAM 2010-2011 Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010 Déploiement d une application dans le cloud. 1. Cloud Computing en 2010 2. Offre EC2

Plus en détail

Encryptions, compression et partitionnement des données

Encryptions, compression et partitionnement des données Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des

Plus en détail

Bien comprendre les fonctionnalités d'une GED

Bien comprendre les fonctionnalités d'une GED Bien comprendre les fonctionnalités d'une GED StarXpert 2011 STARXPERT - Siège social : 100 rue des Fougères 69009 LYON SAS au capital de 40 000 - Siret : 449 436 732 00035 - NAF : 723Z Table des matières

Plus en détail

Pourquoi intégrer le Big Data à son organisa3on?

Pourquoi intégrer le Big Data à son organisa3on? Pourquoi intégrer le Big Data à son organisa3on? Yvan Robert, VP Affaires Stratégiques Emmanuel Faug, Resp. pra>que BI Colloque 2014 Big Data Agenda Qui sommes nous? L importance de l information Méthodes

Plus en détail

L IT, l Immatérielle Transformation. Frédéric Simottel Directeur de la rédaction 01B&T Présentateur de l émission : IT For Business

L IT, l Immatérielle Transformation. Frédéric Simottel Directeur de la rédaction 01B&T Présentateur de l émission : IT For Business L IT, l Immatérielle Transformation Frédéric Simottel Directeur de la rédaction 01B&T Présentateur de l émission : IT For Business PLUS D INNOVATION, PLUS DE SIMPLICITE ET UN MARCHE IT SOUS TENSION Des

Plus en détail

Les «BUSINESS DECISION MAKERS» l entreprise numérique. 14 février 2013

Les «BUSINESS DECISION MAKERS» l entreprise numérique. 14 février 2013 Les «BUSINESS DECISION MAKERS» & l entreprise numérique 14 février 2013 Nathalie Wright Directrice de la Division Grandes Entreprises & Alliances Microsoft France #MSTechdays @MicrosoftFrance Microsoft

Plus en détail

Aider les exploitants à comprendre les résultats analytiques rapidement et facilement

Aider les exploitants à comprendre les résultats analytiques rapidement et facilement Juin 2013 Aider les exploitants à comprendre les résultats analytiques rapidement et facilement (page 1) De nouveaux outils pour offrir davantage d options afin de visualiser les résultats analytiques

Plus en détail

Les participants repartiront de cette formation en ayant une vision claire de la stratégie et de l éventuelle mise en œuvre d un Big Data.

Les participants repartiront de cette formation en ayant une vision claire de la stratégie et de l éventuelle mise en œuvre d un Big Data. Big Data De la stratégie à la mise en oeuvre Description : La formation a pour objet de brosser sans concession le tableau du Big Data. Les participants repartiront de cette formation en ayant une vision

Plus en détail

Labs Hadoop Février 2013

Labs Hadoop Février 2013 SOA - BRMS - ESB - BPM CEP BAM - High Performance Compute & Data Grid - Cloud Computing - Big Data NoSQL - Analytics Labs Hadoop Février 2013 Mathias Kluba Managing Consultant Responsable offres NoSQL

Plus en détail

Introduction & concepts Big Data Khamprasit LANPHOUTHACOUL, Responsable de Centre de Compétences OAB UFR IM²AG, St Martin d'hères le 22 octobre 2015

Introduction & concepts Big Data Khamprasit LANPHOUTHACOUL, Responsable de Centre de Compétences OAB UFR IM²AG, St Martin d'hères le 22 octobre 2015 Introduction & concepts Big Data Khamprasit LANPHOUTHACOUL, Responsable de Centre de Compétences OAB UFR IM²AG, St Martin d'hères le 22 octobre 2015 Et à propos des objectifs de cette présentation? 2 Big

Plus en détail

Management des processus opérationnels

Management des processus opérationnels Ecole Nationale Supérieure de Management Master Management des organisations Management des processus opérationnels Dr TOUMI Djamila Cours n 4: l approche processus et le management du système d informations

Plus en détail

Business & High Technology

Business & High Technology UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 09 : CC : Cloud Computing Sommaire Introduction... 2 Définition... 2 Les différentes

Plus en détail

CONFERENCE TECHNOM AIDE IBM

CONFERENCE TECHNOM AIDE IBM Conférence Big Data CONFERENCE TECHNOM AIDE IBM Le BIG DATA : le nouveau pétrole de la société. En présence de : Christophe MENICHETTI (spécialiste BIG DATA chez IBM) JN. SCHNEIDER et F. WEYGAND (professeurs

Plus en détail

La France, un pays où les cyberattaques ont davantage augmenté en 2015 que dans le reste du monde

La France, un pays où les cyberattaques ont davantage augmenté en 2015 que dans le reste du monde Direction Communication 63 rue de Villiers, 92200 Neuilly-sur-Seine Tél. 01 56 57 58 59 Communiqué de presse Contact : PwC, Hélène Coulbault, 01 56 57 88 26, helene.coulbault@fr.pwc.com Neuilly-sur-Seine,

Plus en détail

Le géomarketing - Page 1 sur 7

Le géomarketing - Page 1 sur 7 Le géomarketing - Page 1 sur 7 LES DOSSIERS MADWATCH.net méthodes Le Géomarketing Novembre 2003 Nb de pages : 7 Le géomarketing - Page 2 sur 7 Créé dans les années 80, la plupart des applications du géomarketing

Plus en détail

Big Data. Cyril Amsellem Consultant avant-vente. 16 juin 2011. Talend 2010 1

Big Data. Cyril Amsellem Consultant avant-vente. 16 juin 2011. Talend 2010 1 Big Data Cyril Amsellem Consultant avant-vente 16 juin 2011 Talend 2010 1 Big Data Architecture globale Hadoop Les projets Hadoop (partie 1) Hadoop-Core : projet principal. HDFS : système de fichiers distribués

Plus en détail

Qui est concerné par la qualité des données?

Qui est concerné par la qualité des données? INTRODUCTION Qui est concerné par la qualité des données? Plus que jamais, les entreprises sont confrontées à des marchés de plus en plus exigeants, réclamant une réponse immédiate et adaptée à des besoins

Plus en détail

L'évolution de VISUAL MESSAGE CENTER Architecture et intégration

L'évolution de VISUAL MESSAGE CENTER Architecture et intégration L'évolution de VISUAL MESSAGE CENTER Architecture et intégration Sommaire Résumé exécutif Base technologique : VISUAL Message Center 2 3 VISUAL Message Center Core Engine VISUAL Message Center Extended

Plus en détail

L approche Bases de données

L approche Bases de données L approche Bases de données Cours: BD. Avancées Année: 2005/2006 Par: Dr B. Belattar (Univ. Batna Algérie) I- : Mise à niveau 1 Cours: BDD. Année: 2013/2014 Ens. S. MEDILEH (Univ. El-Oued) L approche Base

Plus en détail

MODELE D UN RAPPORT DE STAGE DE BAC PRO ELECTROTECHNIQUE

MODELE D UN RAPPORT DE STAGE DE BAC PRO ELECTROTECHNIQUE MODELE D UN RAPPORT DE STAGE DE BAC PRO ELECTROTECHNIQUE [Prénom Nom] Rapport sur le stage effectué du [date] au [date] Dans la Société : [NOM DE LA SOCIETE : Logo de la société] à [Ville] [Intitulé du

Plus en détail

Webinar EBG Nouvelles perspectives d'exploitation des données clients avec le big data

Webinar EBG Nouvelles perspectives d'exploitation des données clients avec le big data Webinar EBG Nouvelles perspectives d'exploitation des données clients avec le big data Approches & opportunités face aux enjeux de volume, variété et vélocité France, 2012-2014 28 mars 2013 Ce document

Plus en détail

Le client/serveur repose sur une communication d égal à égal entre les applications.

Le client/serveur repose sur une communication d égal à égal entre les applications. Table des matières LES PRINCIPES DE BASE... 1 Présentation distribuée-revamping...2 Présentation distante...3 Traitements distribués...3 données distantes-rd...4 données distribuées-rda distribué...4 L'ARCHITECTURE

Plus en détail

A. Introduction. Chapitre 4. - les entités de sécurité ; - les sécurisables ; - les autorisations.

A. Introduction. Chapitre 4. - les entités de sécurité ; - les sécurisables ; - les autorisations. Chapitre 4 A. Introduction Le contrôle d'accès représente une opération importante au niveau de la gestion de la sécurité sur un serveur de bases de données. La sécurisation des données nécessite une organisation

Plus en détail

Thibault Denizet. Introduction à SSIS

Thibault Denizet. Introduction à SSIS Thibault Denizet Introduction à SSIS 2 SSIS - Introduction Sommaire 1 Introduction à SQL Server 2008 Integration services... 3 2 Rappel sur la Business Intelligence... 4 2.1 ETL (Extract, Transform, Load)...

Plus en détail

OpenText Content Server v10 Cours 3-0126 (ex 215)

OpenText Content Server v10 Cours 3-0126 (ex 215) v10 Cours 3-0126 (ex 215) Administration système et indexation-recherche Durée : 5 jours Ce cours de 5 jours apprendra aux administrateurs, aux architectes système et aux services support comment installer,

Plus en détail

Ecole des Hautes Etudes Commerciales HEC Alger. par Amina GACEM. Module Informatique 1ière Année Master Sciences Commerciales

Ecole des Hautes Etudes Commerciales HEC Alger. par Amina GACEM. Module Informatique 1ière Année Master Sciences Commerciales Ecole des Hautes Etudes Commerciales HEC Alger Évolution des SGBDs par Amina GACEM Module Informatique 1ière Année Master Sciences Commerciales Evolution des SGBDs Pour toute remarque, question, commentaire

Plus en détail

Méthode de Test. Pour WIKIROUTE. Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel.

Méthode de Test. Pour WIKIROUTE. Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel. Méthode de Test Pour WIKIROUTE Rapport concernant les méthodes de tests à mettre en place pour assurer la fiabilité de notre projet annuel. [Tapez le nom de l'auteur] 10/06/2009 Sommaire I. Introduction...

Plus en détail

Le BigData, aussi par et pour les PMEs

Le BigData, aussi par et pour les PMEs Parole d expert Le BigData, aussi par et pour les PMEs Stéphane MOUTON, CETIC Département Software and Services Technologies Avec le soutien de : LIEGE CREATIVE Le Big Data, aussi par et pour les PMEs

Plus en détail

Enjeux mathématiques et Statistiques du Big Data

Enjeux mathématiques et Statistiques du Big Data Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, mathilde.mougeot@univ-paris-diderot.fr Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris

Plus en détail

Programmation parallèle et distribuée

Programmation parallèle et distribuée Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2014) Marc Parizeau, Département de génie électrique et de génie informatique Plan Mégadonnées («big data») Architecture Hadoop distribution

Plus en détail

Les cartes numériques. La vision d avenir de TomTom

Les cartes numériques. La vision d avenir de TomTom Les cartes numériques La vision d avenir de TomTom Introduction Amsterdam, le 24 août 2007 Ce sont les cartes dont il est équipé qui font la valeur d un appareil de navigation. Cet exposé aborde le développement

Plus en détail

CONSEIL STRATÉGIQUE. Services professionnels. En bref

CONSEIL STRATÉGIQUE. Services professionnels. En bref Services professionnels CONSEIL STRATÉGIQUE En bref La bonne information, au bon moment, au bon endroit par l arrimage des technologies appropriées et des meilleures pratiques. Des solutions modernes adaptées

Plus en détail

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus.

D un point de vue système, ajuster la mémoire est l une des principales méthodes pour augmenter ou réduire les performances d un processus. GESTION DE LA MEMOIRE SOUS UNIX La mémoire est une ressource critique car elle conditionne les temps de traitements. Différentes options SAS sont disponibles pour utiliser au mieux la mémoire de la machine.

Plus en détail

Big Data Concepts et mise en oeuvre de Hadoop

Big Data Concepts et mise en oeuvre de Hadoop Introduction 1. Objectif du chapitre 9 2. Le Big Data 10 2.1 Introduction 10 2.2 Informatique connectée, objets "intelligents" et données collectées 11 2.3 Les unités de mesure dans le monde Big Data 12

Plus en détail

Rapport de Post- Campagne 1

Rapport de Post- Campagne 1 Rapport de Post- Campagne 1 Résumé - La campagne Adwords que nous avons mené pour Galerie Photo-Originale a duré 21 jours (5.05-26.05) et nous a coûté $250,18. L objectif principal est en premier de stimuler

Plus en détail

Baccalauréat technologique

Baccalauréat technologique Baccalauréat technologique Série : sciences et technologies de la gestion (STG) Spécialité gestion des systèmes d information SESSION 2010 Eléments de corrigé AIR France Liste des dossiers Dossier 1 :

Plus en détail

5. Validité de la méta-analyse

5. Validité de la méta-analyse 5. Validité de la méta-analyse 5.1. Poids de la preuve d une méta-analyse Le poids de la preuve d un résultat scientifique quantifie le degré avec lequel ce résultat s approche de la réalité. Il ne s agit

Plus en détail

L analytique en temps réel en un clic. Jean-Michel Franco Directeur Marketing Produit @jmichel_franco

L analytique en temps réel en un clic. Jean-Michel Franco Directeur Marketing Produit @jmichel_franco L analytique en temps réel en un clic Jean-Michel Franco Directeur Marketing Produit @jmichel_franco 2015 Talend Inc. 1 1 Dynamiser l entreprise par ses données Les entreprises orientées données 23X plus

Plus en détail

Introduction MOSS 2007

Introduction MOSS 2007 Introduction MOSS 2007 Z 2 Chapitre 01 Introduction à MOSS 2007 v. 1.0 Sommaire 1 SharePoint : Découverte... 3 1.1 Introduction... 3 1.2 Ce que vous gagnez à utiliser SharePoint... 3 1.3 Dans quel cas

Plus en détail

Qu est-ce que le «cloud computing»?

Qu est-ce que le «cloud computing»? Qu est-ce que le «cloud computing»? Par Morand Studer eleven Octobre 2011 Qu est-ce que le «cloud computing»? - Morand Studer eleven Octobre 2011 www.eleven.fr 1 Aujourd hui, la démocratisation de l informatique

Plus en détail

Découvrir les coûts cachés de votre centre informatique Le point de vue d un chef des services financiers

Découvrir les coûts cachés de votre centre informatique Le point de vue d un chef des services financiers Les Services technologiques mondiaux Leadership d opinion Découvrir les coûts cachés de votre centre informatique Le point de vue d un chef des services financiers De Steven L. Sams Centre informatique

Plus en détail

MODE OPERATOIRE OPENOFFICE BASE

MODE OPERATOIRE OPENOFFICE BASE MODE OPERATOIRE OPENOFFICE BASE Openoffice Base est un SGBDR : Système de Gestion de Base de Données Relationnelle. L un des principaux atouts de ce logiciel est de pouvoir gérer de façon efficace et rapide

Plus en détail

Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html. R.R. Université Lyon 2

Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html. R.R. Université Lyon 2 Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html 1 Plan de présentation 1. L écosystème Hadoop 2. Principe de programmation MapReduce 3. Programmation des fonctions

Plus en détail

BIG DATA. Veille technologique. Malek Hamouda Nina Lachia Léo Valette. Commanditaire : Thomas Milon. Encadré: Philippe Vismara

BIG DATA. Veille technologique. Malek Hamouda Nina Lachia Léo Valette. Commanditaire : Thomas Milon. Encadré: Philippe Vismara BIG DATA Veille technologique Malek Hamouda Nina Lachia Léo Valette Commanditaire : Thomas Milon Encadré: Philippe Vismara 1 2 Introduction Historique des bases de données : méthodes de stockage et d analyse

Plus en détail

Hadoop, les clés du succès

Hadoop, les clés du succès Hadoop, les clés du succès Didier Kirszenberg, Responsable des architectures Massive Data, HP France Copyright 2015 Hewlett-Packard Development Company, L.P. The information contained herein is subject

Plus en détail

Projet : Réalisation d une base de. données. Sujet : Gestion des ressources humaines. Logiciel : Microsoft Access

Projet : Réalisation d une base de. données. Sujet : Gestion des ressources humaines. Logiciel : Microsoft Access Projet : Réalisation d une base de données Sujet : Gestion des ressources humaines Logiciel : Microsoft Access Encadré par : M. Mohamed Saïd ZERRADSAHLI Réalisé par : Ben Abdelmoumen Ibtissam Challaoui

Plus en détail

Project No. 518423 LLP 1 2011 1 ES LEONARDO LMP

Project No. 518423 LLP 1 2011 1 ES LEONARDO LMP Project No. 518423 LLP 1 2011 1 ES LEONARDO LMP FORMATION POUR LES ELECTROMECANICIENS SPECIALISES DANS LA MAINTENANCE DES PRINCIPAUX COMPOSANTS DE VEHICULES ELECTRIQUES: BATTERIES, MOTEURS ELECTRIQUES,

Plus en détail

Compte rendu d activité Fiche n 1

Compte rendu d activité Fiche n 1 Compte rendu d activité Fiche n 1 Alexandre K. (http://ploufix.free.fr) Nature de l activité Création d une base de connaissances avec PostgreSQL Contexte : Le responsable technique souhaite la mise en

Plus en détail

impacts de la réglementation d internet sur les investessement précoces

impacts de la réglementation d internet sur les investessement précoces impacts de la réglementation d internet sur les investessement précoces résumé en 2014, nous avons mené une étude auprès de 0 investisseurs dans huit pays à travers le monde (australie, france, allemagne,

Plus en détail

En 4 semaines seulement!

En 4 semaines seulement! Votre intranet prêt à l emploi En 4 semaines seulement! Innovate Communicate Collaborate Share Team room Team room est un système de gestion documentaire qui permet le contrôle des versions, des check

Plus en détail

L essentiel. Coopérative, flexible, très performante : la plateforme Engineering Base. web aucotec.com

L essentiel. Coopérative, flexible, très performante : la plateforme Engineering Base. web aucotec.com L essentiel Coopérative, flexible, très performante : la plateforme Engineering Base web aucotec.com Les défis La globalisation des structures d ingénierie avec le travail en réseau sur des sites dispersés

Plus en détail

A Barracuda Company. Trois Etapes Pour Budgeter un Projet Elimination des PST. White Paper

A Barracuda Company. Trois Etapes Pour Budgeter un Projet Elimination des PST. White Paper A Barracuda Company Trois Etapes Pour Budgeter un Projet Elimination des PST White Paper Les beaux jours des fichiers PST sont révolus! Autrefois ils étaient considérés comme un moyen acceptable pour la

Plus en détail

CRÉER UN COURS EN LIGNE

CRÉER UN COURS EN LIGNE Anne DELABY CRÉER UN COURS EN LIGNE Deuxième édition, 2006, 2008 ISBN : 978-2-212-54153-3 2 Que recouvre le concept d interactivité? Dans une perspective de cours en ligne, une activité interactive est

Plus en détail

Gestion du compte AWS et des utilisateurs

Gestion du compte AWS et des utilisateurs Chapitre 2 Gestion du compte AWS et des utilisateurs 1. Création d'un compte Gestion du compte AWS et des utilisateurs Avant de pouvoir profiter des services web Amazon, vous devez tout d'abord créer un

Plus en détail

Big Graph Data Forum Teratec 2013

Big Graph Data Forum Teratec 2013 Big Graph Data Forum Teratec 2013 MFG Labs 35 rue de Châteaudun 75009 Paris, France www.mfglabs.com twitter: @mfg_labs Julien Laugel MFG Labs julien.laugel@mfglabs.com @roolio SOMMAIRE MFG Labs Contexte

Plus en détail

Internet et Big Brother : Réalité ou Fantasme? Dr. Pascal Francq

Internet et Big Brother : Réalité ou Fantasme? Dr. Pascal Francq Internet et Big Brother : Réalité ou Fantasme? Dr. Pascal Francq Contenu Introduction Traces Google Applications Enjeux Conclusions 2 Contenu Introduction Traces Google Applications Enjeux Conclusions

Plus en détail

PRÉSENTATION PRODUIT. Plus qu un logiciel, la méthode plus efficace de réconcilier.

PRÉSENTATION PRODUIT. Plus qu un logiciel, la méthode plus efficace de réconcilier. PRÉSENTATION PRODUIT Plus qu un logiciel, la méthode plus efficace de réconcilier. Automatiser les réconciliations permet d optimiser l utilisation des ressources et de générer plus de rentabilité dans

Plus en détail

Transformation IT de l entreprise COMMENT PROTÉGER VOS DONNÉES ET APPLICATIONS À L ÈRE DE LA MOBILITÉ?

Transformation IT de l entreprise COMMENT PROTÉGER VOS DONNÉES ET APPLICATIONS À L ÈRE DE LA MOBILITÉ? Transformation IT de l entreprise COMMENT PROTÉGER VOS DONNÉES ET APPLICATIONS À L ÈRE DE LA MOBILITÉ? L a montée en puissance des fuites de données en tout genre et l explosion des volumes de données

Plus en détail

Programmation parallèle et distribuée (Master 1 Info 2015-2016)

Programmation parallèle et distribuée (Master 1 Info 2015-2016) Programmation parallèle et distribuée (Master 1 Info 2015-2016) Hadoop MapReduce et HDFS Note bibliographique : ce cours est largement inspiré par le cours de Benjamin Renaut (Tokidev SAS) Introduction

Plus en détail

L écosystème Hadoop Nicolas Thiébaud ni.thiebaud@gmail.com. Tuesday, July 2, 13

L écosystème Hadoop Nicolas Thiébaud ni.thiebaud@gmail.com. Tuesday, July 2, 13 L écosystème Hadoop Nicolas Thiébaud ni.thiebaud@gmail.com HUG France 250 membres sur la mailing liste 30 présentations 9 meetups organisés, de 20 à 100 invités Présence de Cloudera, MapR, Hortonworks,

Plus en détail

L influence des medias sociaux auprès des entreprises dans le choix d un partenaire financier. réalisée par

L influence des medias sociaux auprès des entreprises dans le choix d un partenaire financier. réalisée par L influence des medias sociaux auprès des entreprises dans le choix d un partenaire financier Etude réalisée par Médias sociaux L influence des médias sociaux auprès des entreprises dans le choix d un

Plus en détail

Les services d externalisation des données et des services. Bruno PIQUERAS 24/02/2011

Les services d externalisation des données et des services. Bruno PIQUERAS 24/02/2011 Les services d externalisation des données et des services Bruno PIQUERAS 24/02/2011 1 1 Introduction Différents types d externalisation de données : Les données sauvegardées Les données bureautiques Les

Plus en détail

SOFT AVOCAT Guide d utilisation

SOFT AVOCAT Guide d utilisation SOFT AVOCAT Guide d utilisation 1 SOFT AVOCAT est un logiciel de gestion automatisée des dossiers des cabinets d avocats qui facilite le suivi de leurs traitements à travers ses différentes composantes.

Plus en détail

Dossier Spécial DE NOUVELLES PERSPECTIVES POUR UNE BUSINESS INTELLIGENCE AGILE

Dossier Spécial DE NOUVELLES PERSPECTIVES POUR UNE BUSINESS INTELLIGENCE AGILE Dossier Spécial DE NOUVELLES PERSPECTIVES POUR UNE BUSINESS INTELLIGENCE AGILE L es utilisateurs du décisionnel réclament plus de souplesse. Les approches mixtes, classiques et liées aux Big Data, répondent

Plus en détail

Transformation digitale

Transformation digitale La plateforme bancaire internationale. Pour chaque métier. décembre 2015 Transformation digitale Les défis de la distribution bancaire Par Olivier Cruanès, Responsable Marketing SOMMAIRE 1 La révolution

Plus en détail

VIII : Gestion des prévisions

VIII : Gestion des prévisions CHTIBI Chafik Une prévision est une prédiction des événements à venir qu'on utilise à des fins de planification. Les méthodes de prévision peuvent se fonder sur des modèles mathématiques utilisant les

Plus en détail

Accédez au test ici http://myspeed.visualware.com/index.php

Accédez au test ici http://myspeed.visualware.com/index.php Test de vitesse VoIP Pourquoi faire le test? Un test de vitesse VoIP est un moyen efficace d évaluer la capacité de votre connexion Internet à prendre en charge un système de téléphonie VoIP. D autres

Plus en détail

Cahier des charges de l application visant à effectuer un suivi de consommation énergétique pour les communes. Partenaires du projet :

Cahier des charges de l application visant à effectuer un suivi de consommation énergétique pour les communes. Partenaires du projet : Cahier des charges de l application visant à effectuer un suivi de consommation énergétique pour les communes Partenaires du projet : 1 Sommaire A) Contexte... 3 B) Description de la demande... 4 1. Les

Plus en détail