Rapport d étude sur le Big Data
|
|
|
- Céline Martineau
- il y a 10 ans
- Total affichages :
Transcription
1 Rapport d étude sur le Big Data SRS Day 2012 Ce document a été réalisé dans le cadre de la SRS Day La SRS Day est un événement annuel organisé par les étudiants de la majeure SRS, de l EPITA. Il s agit d un travail de réflexions sur des sujets émergents ou d actualité, réalisé par les étudiants et suivi par une entreprise. Coach Ali FAWAZ Etienne CAPGRAS Auteurs Mickaël CORINUS Thomas DEREY Jérémie MARGUERIE William TÉCHER Nicolas VIC 05 octobre 2012
2 Remerciements Nous tenons à remercier dans un premier temps notre coach, Ali FAWAZ, pour sa disponibilité, son coaching et ses conseils avisés. Nous remercions aussi Etienne CAPGRAS, notre second coach qui aura pris efficacement le relai durant le mois de septembre. Nous remercions également Luc MANIGOT, Directeur des opérations chez Sinequa, pour l'aide et les réponses qu'il aura su nous apporter lors de notre entretien. Nous souhaitons remercier tout particulièrement Microstrategy et l'équipe avec laquelle nous avons été mis en relation ; nous remercions Idris BOUCHEHAIT, Marketing Manager, Laurent LEE A SIOE, Manager Avant-Vente, et Henri-François CHADEISSON, Ingénieur Avant-Vente, qui auront pris le temps de nous éclairer longuement et avec pertinence sur l'univers du Big Data et les risques qui l'entourent. Enfin, nous voulons remercier Gérôme BILLOIS, Sébastien BOMBAL, Solucom et EPITA pour nous avoir permis de réaliser cette étude sur ce sujet émergent qu'est le Big Data. Page II
3 Sommaire Remerciements... II 1 Executive Summary Présentation du Big Data Big Data, qu est-ce que c est? Volume Vitesse Variété L analyse : le point clé du Big Data De nouveaux enjeux, mais aussi des risques État des lieux Panorama des cas d usage Quels secteurs d activités s intéressent au Big Data? De nombreux exemples de cas d usage Un secteur qui intéresse du monde et des premiers déploiements Les solutions et technologies existantes Hadoop : une histoire vieille de dix ans NoSQL ou les bases de données non relationnelles De nombreuses technologies émergentes Les systèmes distribués et leurs problématiques Comment approcher le Big Data côté métier Analyse de risques Méthodologie Légende Analyse différentielle Risques de non-conformité Risques de non disponibilité Risques de perte de confidentialité Risque de perte d intégrité Risques opérationnels Page III
4 4.3.6 Risques liés aux modes d intégration Proposition d un plan d action global Obligations légales Sécurité des données Problèmes opérationnels Synthèse de l analyse de risques Bibliographie Glossaire Annexes Solucom Epita Page IV
5 1 Executive Summary Big Data est un terme que l on entend partout depuis quelques années, derrière ce terme marketing se cache en réalité une myriade de technologies (certaines vieilles de plus de dix ans) et dont le but est la manipulation de gros volumes de données. La raison pour laquelle le Big Data est aujourd hui à la mode est l augmentation drastique de la quantité de données, due entre autres à l augmentation des sources de données (blogs, médias sociaux, recherches sur internet, réseaux de capteurs, etc.), qui permet de nouvelles utilisation des données. En effet, lorsque l on parle de manipulation de gros volume de données, on pense traditionnellement à des problématiques sur le volume des données et sur la rapidité de traitement de ces données. Mais aujourd hui, il est aussi question de manipuler des données venants de sources diverses ; des données qui n ont pas forcément beaucoup de valeur en elles-mêmes, mais qui, croisées les unes avec les autres, offrent une mine d informations clés pour l entreprise (marketing personnalisé, moteurs de recherches, surveillance, etc.). Les grandes caractéristiques qui englobent les problématiques auxquelles le Big Data répond sont le Volume des données, la Vitesse d'acquisition et de traitement des données et la Variété des types de données : plus simplement, on parle des trois «V» du Big Data. Les premiers secteurs intéressés par le Big Data l ont été pour tenter de résoudre leurs problématiques de Volume et de Vitesse, des secteurs comme les banques, le milieu des télécommunications ou les marchés financiers. D autres s y sont ensuite intéressés pour la capacité à donner de la valeur à des données variées, comme les services publics, le marketing ou la santé. Le fait est que le Big Data représente aujourd hui un 05 octobre 2012
6 marché important, de plusieurs centaines de millions d euros, où de nombreux fournisseurs de solutions Big Data existent. Le Big Data intéresse déjà beaucoup de secteurs, mais comment une entreprise (de ces secteurs ou non) peut-elle savoir si le Big Data est fait pour elle? D un point de vue métier, il y a quatre questions à se poser : De quelles informations avons-nous besoin pour innover et être compétitif? Quelles sont les données sous- et inexploitées à notre disposition? Sommes-nous prêts à «extraire» l information utile de nos données? Sommes-nous capable de gérer les nouveaux risques de sécurité? Les trois premières questions sont introspectives et les réponses varieront d une entreprise à une autre. Mais pour la question de la sécurité, une analyse de risque sur le Big Data est nécessaire et nous nous sommes intéressés tout particulièrement à cette question. D après notre analyse, la plupart des risques du Big Data sont de même type que ceux issus des solutions dites «classiques» de base de données. Toutefois, certains de ces risques auront des impacts différents, qu ils soient amoindris ou exacerbés. Pourtant, il existe de nouveaux risques propres au Big Data, mais pour ceux-ci, des contre-mesures efficaces existent, les risques sont donc faibles. Enfin, l externalisation partielle ou entière de la solution Big Data et sa mauvaise utilisation sont, en fait, les plus gros risques que l on peut lier au Big Data, car celui-ci nécessite des compétences particulières pour arriver à donner de la valeur aux données traitées et le meilleur moyen de contrôler la confidentialité et la sécurité de ses données est encore de les posséder entièrement. Page 2
7 2 Présentation du Big Data 2.1 Big Data, qu est-ce que c est? Le Big Data est avant tout un terme marketing. À dire vrai, il recouvre un ensemble de concepts et d'idées pas clairement définis. En se tenant à l'étymologie du terme, Big Data voudrait dire «grosses données». Or, la problématique des «grosses données», ou données ayant un volume important, n'est pas nouvelle. Depuis plus de 30 ans, nous sommes confrontés à des volumes importants de données. Bien sûr, cela est difficilement comparable à la déferlante dont nous sommes témoins aujourd'hui. Néanmoins, à y regarder de plus près, les capacités de stockage de l'époque étaient bien différentes et une base de données de plusieurs dizaines de giga-octets pouvait paraître énorme. À court terme, nous nous dirigeons vers des bases de stockage de plusieurs péta-octets de données. Le gros problème réside plutôt dans la gestion de la donnée et une fois encore, ce n'est pas nouveau. En fait, cela fait presque dix ans que la problématique de gestion des gros volumes de données se pose dans les métiers de la finance, de l indexation web et de la recherche scientifique. Pour y répondre, l approche historique a été celle des offres de Data Warehouse (TeraData, Oracle, IBM, EMC ou HP). Ces dernières ont évoluées pour supporter de plus grandes quantités de données et faire porter par le «stockage» une capacité de traitement étendue. En somme, le Big Data, ce serait plutôt des besoins et des envies nouvelles émanant de l'idée de mieux utiliser ces données qui commencent à s'entasser dans nos Data Warehouse. Et là, les réseaux sociaux et les moteurs de recherches sont parmi les nombreux facteurs qui ont mis à jour ces besoins. La quantité d'information que l'on peut obtenir directement grâce aux utilisateurs, que ce soit par des statistiques Page 3
8 d'utilisation ou de recherches ou encore par des données mises directement à disposition des entreprises est phénoménale. Fondamentalement, le Big Data s'approche beaucoup du Data Mining dans sa transformation de l'information stockée en information clé pour une utilisation future. Là où le Big Data marque une grosse différence, c'est dans le besoin émanant de ces données clés. Souvent, les entreprises ont une idée de ce qu'elles peuvent tirer de leurs informations, mais ne savent pas les rendre utile. Dans d'autres cas, la question est de savoir si on ne révèle pas de nouvelles informations en établissant des corrélations entre ces ensembles de données. Le concept de Big Data se caractérise par bien des aspects. De nombreux responsables informatiques et autorités du secteur tendent à définir le Big Data selon trois grandes caractéristiques : Volume, Vitesse et Variété, soit les trois «V» Volume Le Big Data est associé à un volume de données vertigineux, se situant actuellement entre quelques dizaines de téraoctets et plusieurs péta-octets en un seul jeu de données. Les entreprises, tous secteurs d activité confondus, devront trouver des moyens pour gérer le volume de données en constante augmentation qui est créé quotidiennement. Les catalogues de plus de 10 millions de produits sont devenus la règle plutôt que l exception Vitesse La vitesse décrit la fréquence à laquelle les données sont générées, capturées et partagées. Les entreprises doivent appréhender la vitesse non seulement en termes de création de données, mais aussi sur le plan de leur traitement, de leur analyse et de leur restitution à l'utilisateur en respectant les exigences des applications en temps réel. Page 4
9 2.1.3 Variété La croissance de la variété des données est très largement la conséquence des nouvelles données multi structurelles et de l'expansion des types de données. Aujourd hui, on trouve des capteurs d'informations aussi bien dans les trains, les automobiles ou les avions, ajoutant à cette variété. Ces trois caractéristiques, ces trois «V», sont les piliers définissant le Big Data. Avant tout, il s'agit d'un changement d'orientation sur l'utilisation de la donnée. En somme, le point clé du Big Data est de donner un sens à ces grosses données et pour cela, il faut les analyser. 2.2 L analyse : le point clé du Big Data Le Big Data répond à de nombreux objectifs précis parmi lesquels on trouve l extraction d informations utiles des données stockées, l analyse de ces données, la restitution efficace des résultats d analyse ou encore, l accroissement de l interactivité entre utilisateurs et données. La combinaison de ce déluge d'informations et d'algorithmes logiciels intelligents ouvre la voie à de nouvelles opportunités de business. Prenons, par exemple, Google et Facebook qui sont des «entreprises Big Data», mais aussi Sinequa, IBM ou JDA Software. Après analyse des trois caractéristiques du Big Data et de l'utilisation qu en font les acteurs du marché, ce qui en ressort et qui semble avoir le plus d'importance dans le Big Data est ce qui se fait de l'information. L'analyse est le point clé de l utilisation du Big Data. Elle permet de mieux connaître sa clientèle, d'optimiser son marketing, de détecter et prévenir des fraudes, d'analyser son Page 5
10 image sur les réseaux sociaux et la valoriser, ou encore, d optimiser ses processus métiers. Toutefois, il ne suffit pas de prolonger ce que nous faisons avec les données aujourd'hui pour anticiper ce que sera l'exploitation des données dans un futur plus ou moins proche. Déjà, de nouvelles manières d utiliser le Big Data apparaissent, des utilisations qui peuvent être clés pour les entreprises. 2.3 De nouveaux enjeux, mais aussi des risques Pour beaucoup d entreprises, le Big Data représente de nouveaux enjeux qu il faut envisager, mais il faut aussi étudier les risques induits. Avec le Big Data, il est possible de traiter de gros volumes en temps réel, ce qui permet aussi bien de surveiller le trafic réseau d une entreprise que d analyser la qualité de service. Anticiper des changements peut être une des clés du futur, que ce soit aux travers de multiples capteurs sur un système pour détecter une défaillance ou en étudiant les attentes des consommateurs. De manière plus générale, le Big Data permet de donner de la valeur aux données qui, jusque-là, ne pouvaient pas être utilisées telles quelles, en faisant des statistiques sur des périodes prolongées ou en les croisant entre elles. Ne pas s intéresser au Big Data aujourd hui, c est peut-être risquer demain de perdre en compétitivité et d être en retard sur son marché mais se précipiter sur le Big Data porte aussi son lot de risques, les technologies sont nouvelles et pas forcément maîtrisées, pas forcément fiables. Sur un marché qui a émergé il y a peu de temps, les fournisseurs de solutions aujourd hui auront peut-être disparus demain, à qui faire Page 6
11 confiance? Le Big Data soulève des problèmes éthiques, une réglementation particulière sera probablement définie pour limiter les abus. Les technologies qui servent au Big Data sont classiques (serveurs, stockage, communications réseau), et portent donc les mêmes risques, mais l impact de ces risques est peut-être plus important, et doit être surveillé. Le premier risque lié au Big Data est sûrement de mal l utiliser, il faut savoir quoi en faire et s assurer d en avoir les compétences nécessaires, cela nécessite un travail de fond sur le sujet, et probablement le recrutement de personnel qualifié, dans les domaines des statistiques ou de la «data analyse». Page 7
12 3 État des lieux Le Big Data est plus qu un simple terme aujourd hui, c est une réalité. Nous allons maintenant nous attacher à voir où l on trouve du Big Data, et mieux prendre conscience du phénomène Big Data. 3.1 Panorama des cas d usage Quels secteurs d activités s intéressent au Big Data? Le Big Data, bien que récent, a rapidement attiré l attention de nombreuses personnes et représente déjà un marché important, cette évolution rapide a été poussée par certains secteurs d activité qui attendent beaucoup du Big Data. Ces secteurs d activité, qui ont été les premiers à s intéresser au Big Data, peuvent être séparés en deux groupes : ceux pour qui le Big Data répond à des besoins historiques de leur activité, et ceux pour qui il ouvre de nouvelles opportunités. Dans la première catégorie, on retrouve des secteurs qui manipulent quotidiennement des volumes de données très important, avec des problématiques de vitesse associées. On y trouve : Les Banques : la sanctuarisation de données anciennes due à des contraintes réglementaires ; La Télécommunication : l analyse de l état du réseau en temps réel ; Les Médias Numériques : le ciblage publicitaire et l analyse de sites web ; Les Marchés Financier : l analyse des transactions pour la gestion des risques et la gestion des fraudes, ainsi que pour l analyse des clients. Page 8
13 La deuxième catégorie de secteur est plus hétérogène, les besoins, mais aussi l utilisation qui est faite du Big Data, peuvent être très différents. On y trouve : Les Services Publics : l analyse des compteurs (gaz, électricité, etc.) et la gestion des équipements ; Le Marketing : le ciblage publicitaire et l'analyse de tendance ; La Santé : l analyse des dossiers médicaux et l analyse génomique. Le Big Data est déjà amplement utilisé par certains secteurs d activité, mais d autres commencent à s y intéresser, notamment la Recherche, la Police ou encore les Transports. Cette liste d utilisateurs risque de s agrandir fortement dans les années qui viennent De nombreux exemples de cas d usage Les possibles utilisations du Big Data sont nombreuses, pour vous donner une idée de ce qu il est possible de faire, nous présentons ici plusieurs exemples de cas d usage. Bien que le Big Data soit récent, de nombreuses entreprises l utilisent déjà à des fins diverses et variées. Voici quelques exemples de sociétés ayant mis en place ou proposant des solutions de Big Data : La police de New York utilise le Big Data afin de rassembler et d analyser rapidement toutes les données dont elle dispose. En effet, l outil développé conjointement avec Microsoft permet d utiliser diverses sources et bases de données, telles que les caméras de vidéosurveillance de la ville ou les lecteurs de plaques minéralogiques ; Page 9
14 Microstrategy propose via son application «Wisdom» la possibilité de regrouper les utilisateurs Facebook ayant acceptés d installer cette application. Ces regroupements permettent de personnaliser des offres de fidélisation, des campagnes de marketing ou des opérations de réduction en fonction des affinités des utilisateurs. En pratique, cette application permet de naviguer au travers de ces utilisateurs et de les filtrer selon divers critères tels que leurs caractéristiques, région, genre, niveau d étude, situation maritale, participation à un évènement. Principal intérêt : la connaissance de leur goût (culturel ou sectoriel) et de leur attirance pour d autres marques ; À nouveau dans le marketing, Pega propose un moteur prédictif en temps réel. Ce moteur permet d aligner les pratiques de vente sur le profil et le comportement unitaire de chaque client. Pour bâtir ses modèles, le système analytique croise un maximum d évènements liés au client : sa description objective (âge, localisation, etc.), l historique de ses transactions et de ses interactions avec les forces de vente. Outre le marketing, ce principe de recommandation automatisé pourra servir à la gestion de processus de Pegasystems, mais aussi dans la détection de fraude, le support client ou la détection d incidents ; Avec d autres objectifs, Tibco propose une solution pour effectuer des analyses de logs. Cette solution structure les logs, les agrège et en tire des corrélations afin, par exemple, de mesurer le taux de consultation d'une fiche produit. Elle permet également de faciliter l identification de menaces ou d anomalies et ainsi de lutter contre la fraude ; Picviz Labs a développé un outil nommé «Picviz Inspector». Cet outil permet d identifier des anomalies aussi bien que d analyser des données critiques à partir de logs. Ces logs, générés automatiquement, peuvent aussi bien provenir d applications, que de serveurs, de réseaux ou encore de divers appareils. Page 10
15 Ce ne sont que de brefs exemples d utilisation du Big Data, mais ceux-ci mettent en exergue la variété d utilisation qui en découle. De nouveaux outils exploitant les technologies du Big Data sont apparus et démontrent bien les nouveaux usages qui apparaissent, ainsi que les nouveaux concepts qui en émergent. 3.2 Un secteur qui intéresse du monde et des premiers déploiements Comme présenté précédemment, le Big Data est une technologie qui intéresse de nombreux secteurs d activité. Cependant, certaines entreprises comme Yahoo! et Google ont besoin, pour leur métier, de solutions très particulières afin de répondre à leurs besoins précis. Pour cette raison, ces entreprises ont développées leurs solutions de Big Data. Ces entreprises sont donc fournisseurs de solutions et simultanément utilisateurs de ces solutions. Elles sont des cas particuliers de sociétés à la fois utilisateur et fournisseur de Big Data. Le Big Data se retrouve dans beaucoup de secteurs, et nombreux sont les géants de l informatique à investir dans le phénomène. Les principaux utilisateurs, Google et Yahoo!, sont aussi ceux à l origine des technologies du Big Data et qui investissent dans son évolution. Afin de répondre à cette demande, de nombreux fournisseurs de technologie de Big Data sont apparus. Ces entreprises proposant des offres peuvent être divisées en deux groupes : Les grandes entreprises d informatique comme Microsoft ou IBM qui s ouvrent à ce nouveau marché afin de diversifier les secteurs dans l informatique qu ils couvrent ; Page 11
16 En plus de ces entreprises, d autre sociétés sont spécialisées dans ce domaine du Big Data et en ont fait leur métier tel que Microstrategy, Hurence ou TeraData. Mais de nombreuses autres entreprises utilisent des solutions de Big Data proposées par d autres sociétés. Parmi elles, on retrouve différents secteurs d activité tels que : les télécoms : SFR ; les réseaux sociaux : Facebook ; des sociétés de services : Amazon Web Services ; des sociétés d analyses : HPCC Systems, 1010 Data, Quantivo, Opera solutions Page 12
17 3.3 Les solutions et technologies existantes Arrêtons-nous un instant et revenons aux origines des technologies emblématiques du Big Data aujourd hui. Hadoop et NoSQL sont des technologies phares de l univers Big Data et, actuellement, il est impossible de passer à côté d eux lorsque l on sillonne les myriades de solutions et technologies mises à notre disposition Hadoop : une histoire vieille de dix ans Depuis un an, l engouement du marché pour le Big Data se manifeste principalement sur une de ses composantes : l analyse de données. Le phénomène résulte clairement de la montée en puissance d Hadoop, un Framework open source réputé pour sa puissance d indexation, de transformation, de recherche ou d élaboration de modèles sur de très gros volumes de données. Une des raisons pour lesquelles Hadoop concentre tant l attention de l industrie tient à la légitimité qu il a acquise tout au long de cette décennie. Le succès de Google lui est en partie imputable. En 2001, alors qu il n'en est encore qu'à ses balbutiements sur le marché des moteurs de recherche, le futur géant développe ce qui inspira les composants phares d'hadoop : MapReduce, Google BigTable et Google BigFiles (futur Google File System). En 2004, le fondateur du moteur de recherche open source Lucene, Doug Cutting, qui travaille sur une méthode relativement économique pour indexer en masse des pages web, s empare des publications de Google et créé le premier prototype d Hadoop. En 2006, Yahoo!, l'autre géant du web, embauche Doug Cutting et se lance dans la promotion active de la technologie et de son écosystème. Page 13
18 En 2011, Yahoo! crée Hortonworks, sa filiale dédiée à Hadoop. L'entreprise se concentre sur le développement et le support d'apache Hadoop. De la même manière, Cloudera, créé au début de l'année 2009, se place comme l'un des plus gros contributeurs au projet Hadoop, au côté de MapR (2009) et Hortonworks. Hadoop consiste en deux points : Hadoop MapReduce et Hadoop Distributed File System. Ces deux points forment l écosystème Hadoop, écosystème fortement convoité et qui se trouve au centre de l univers du Big Data. Initialement pensé comme un clone du MapReduce de Google, Hadoop est : évolutif, car pensé pour utiliser plus de ressources physiques, selon les besoins, et de manière transparente ; rentable, car il optimise les coûts via une meilleure utilisation des ressources présentes ; souple, car il répond à la caractéristique de variété des données en étant capable de traiter différents types de données ; et enfin, résilient, car pensé pour ne pas perdre d'information et être capable de poursuivre le traitement si un nœud du système tombe en panne. Nous allons détailler le fonctionnement des deux technologies phares de Hadoop : HDFS et Map/Reduce car les technologies sont très liées aux concepts développés dans ces deux produits. Page 14
19 Hadoop Distributed File System (HDFS) HDFS permet de distribuer le stockage des données et de faire des analyses très performantes sur ces données grâce au modèle MapReduce permettant de distribuer une opération sur plusieurs nœuds dans le but de paralléliser leur exécution. HDFS est un système de fichiers virtuel qui se décompose en un namenode, le maître, et plusieurs datanodes, les nœuds de données. Les nœuds de données regroupent les blocs de données en les répliquant : ci-dessous, les blocs sont tous répliqués trois fois. Le maître, quant à lui, va orchestrer les données, et contient les informations concernant l'emplacement des différentes répliques. Le secondary namenode sert à effectuer des checkpoints réguliers du namenode, afin de les réutiliser en cas de problème. Ci-dessous, un schéma expliquant les différents nœuds du HDFS : Page 15
20 C est un système de fichiers distribué où les blocs d information sont répartis et répliqués sur les différents nœuds du cluster (regroupement de plusieurs serveurs indépendants). L'algorithme de Map/Reduce Le MapReduce est une technique qui décompose le traitement d'une opération (appelée «job» chez Hadoop) en plusieurs étapes, dont deux élémentaires, afin de faciliter la parallélisation des traitements sur les données. Le «Mapping» Cette étape accomplit une opération spécifique sur chaque élément de la liste en entrée ; à partir d'une liste sous la forme <clé, valeur>, il génère une liste en sortie sous la même forme : Le «Reducing» L'opération qui se situe entre le Mapping et le Reducing est appelée le Shuffling, et réarrange les éléments de la liste afin de préparer le Reducing. Le traitement voulu est alors effectué, donnant la sortie finale suivante : Page 16
21 3.3.2 NoSQL ou les bases de données non relationnelles Le terme NoSQL désigne une catégorie de systèmes de gestion de base de données destinés à manipuler des bases de données volumineuses pour des sites de grande audience. Apparu pour la première fois en 1998, NoSQL (Not Only SQL) est un terme générique pour désigner les bases de données ne suivant pas les principes classiques des SGBD relationnels. L idée sous-jacente du mouvement NoSQL est d avoir des bases plus adaptées au besoin réel de l application plutôt que d utiliser systématiquement une base relationnelle. L'offre se développe de façon exponentielle au printemps 2009 avec le Cloud Computing et le Web 2.0, mais pas seulement. Le meetup NoSQL de San Francisco, le 11 juin 2009, a été particulièrement important pour le développement de cette tendance. Pas moins de 100 développeurs de logiciels ont assisté à des présentations de solutions telles que : Project Voldemort (LinkedIn) ; Cassandra Project (Facebook) ; HBase (Facebook) ; Page 17
22 Dynomite (basé sur Dynamo d'amazon) ; CouchDB (Ubuntu One) ; ou encore, MongoDB (SourceForge.net). Très souvent, les bases de données NoSQL sont catégorisées selon la manière dont elles stockent les données. On retrouve ainsi des catégories comme les bases orientées clévaleur, colonne, document ou encore les bases structurant les données en s appuyant sur la théorie des graphes. D autres catégories existent et beaucoup de sous-catégories peuvent être répertoriées ou citées ici et là, mais intéressons-nous aussi à la taille que prennent les données dans ces bases et à la complexité de mise en place et d exploitation de celles-ci. Emil Eifrem, PDG de Neo Technology, société qui développe la solution Java, Neo4j (the graph database), classe ces catégories selon ces deux critères : Page 18
23 Il y a peu encore, les développeurs web ont commencé à utiliser le système de cache mémoire pour stocker de manière temporaire des données en RAM, pour que les données fréquemment utilisées soient plus rapide à ressortir. Cette méthode nécessitait d'écrire tous les accès à la base de donnée en usant du paradigme Clé-Valeur. Avec le temps et l'expérience, les développeurs ont commencé à s'essayer à des bases de données utilisant cette méthode de stockage en mémoire et en dur. Il s'agit d'un des exemples rares de suppression d'une couche d'abstraction, l'interface clé-valeur étant moins expressive et plus bas niveau que les requêtes SQL. De tels systèmes requièrent plus de travail pour le développeur pour plus de flexibilité et de contrôle sur l'utilisation de la base de données. Les bases de données «graphes» ont été pensées selon une approche complètement différente. Elles répondent à un problème de modélisation des données selon les méthodes classiques de bases de données relationnelles. De manière assez ironique, ces dernières éprouvent de grandes difficultés à traiter les relations entre nœuds (création de table jointe à foison, requête obscure et complexe, etc.). Là où une base de données «graphe» est pensée pour représenter ce type d'information et les traiter. Hadoop et NoSQL ont été précurseur dans les concepts qui forment le Big Data, mais beaucoup d autres technologies ont vu le jour par la suite. Ces technologies exploitent de nouvelles idées ou explorent plus encore, des concepts déjà connus. Elles sont le signe d un nouveau marché qui s est ouvert et continu à s ouvrir. Page 19
24 3.3.3 De nombreuses technologies émergentes Il y a eu une quantité phénoménale d innovations dans les outils de traitements de la donnée au cours des dernières années, notamment grâce à certaines tendances clés : apprendre à partir du monde web, étendre les recherches en informatique à d autres problèmes et évidemment, les avancées technologiques qui rendent le matériel meilleur marché. Ces tendances ont mené à une explosion des nouveaux outils. Nous sommes donc aujourd hui confrontés à de très nombreuses technologies émergentes qui définissent «l univers Big Data». Ces innovations ont aidé à concevoir des outils basés : Sur les bases de données NoSQL, avec des solutions qui gagnent chaque jour en fonctionnalités et en performance sur des points critiques. On peut citer MongoDB (document), CouchDB (document), Cassandra (clévaleur), Redis (structure de données complexe), BigTable (structure particulière), HBase (structure proche de BigTable), Hypertable (structure proche de BigTable), Voldemort (clé-valeur), Riak (clé-valeur) et ZooKeeper (clé-valeur). Sur l'approche MapReduce, avec des solutions comme Hadoop et de nombreuses autres qui tendent à s'y greffer et à l'améliorer. On peut citer Hive, Pig, Cascading, Cascalog, mrjob, Caffeine, S4, MapR, Acunu, Flume, Kafka, Azkaban, Oozie et Greenplum. Sur les processus de stockage, avec des solutions prenant en compte les différences dues aux traitements des données à grande échelle, traitements que les systèmes de fichiers traditionnels ne peuvent gérer. On peut citer S3 d'amazon, mais aussi et surtout, HDFS. Sur les ressources de calcul, avec des solutions Cloud (SaaS) innovantes et flexibles dans leur utilisation et leur exploitation. Page 20
25 On peut citer EC2, Google App Engine, Elastic Beanstalk et Heroku. Sur la restitution visuelle de l'information, avec des solutions visant à fournir de la meilleure manière possible, les résultats de traitement. Cette approche visuelle permet de discerner des informations parfois bien plus simplement et de manière plus utile que de simples valeurs brutes. On peut citer Gephi, GraphViz, Processing, Protovis, Fusion Tables et Tableau. Sur l'acquisition de données, avec des solutions visant à pallier au manque de structure, au bruit et à la complexité initialement présente à la récupération des données. On peut citer Google Refine, Needlebase et ScraperWiki. Sur la sérialisation des données, afin d'acheminer la donnée d'un point de traitement à un autre tout en restant capable de la conserver. On peut citer JSON, BSON, Thrift, Avro et Protocol Buffers Les systèmes distribués et leurs problématiques Les systèmes distribués étaient bien connus avant l apparition du Big Data et leurs problématiques sont aujourd hui bien maitrisées. Parmi les problèmes à résoudre, on peut citer la gestion d un grand parc de machines et les problèmes d intégrité des données lorsque l on utilise ce parc pour du stockage. L intégrité des données est nécessaire aux entreprises stockant des données importantes sur un cluster de sauvegarde, par exemple sur HDFS. Il est alors primordial de pouvoir assurer l intégrité des données à travers des dizaines, centaines, voire milliers de machines différentes, stockant plusieurs copies d une même donnée. Page 21
26 Les systèmes de gestion d intégrité des solutions semblent assez matures et des exemples basés sur HDFS nous ont poussé à ne pas développer ce risque dans l analyse de risques (partie 4), car l intégrité y est préservée activement avec des vérifications de somme de contrôle bien plus fréquentes que sur du stockage sur disques durs. On trouve ainsi des infrastructures avec % 1 d intégrité conservée, comptabilisant environ pétaoctets. Le risque de perte d intégrité avec ce niveau d intégrité est alors extrêmement faible. 3.4 Comment approcher le Big Data côté métier Nous avons défini ce qui se cache derrière le terme Big Data, vu ce que l on pouvait en faire et vu les technologies sur lesquels il est construit. Maintenant, nous allons prendre un point de vue plus métier du Big Data, comment il faut l aborder avant même d envisager de l intégrer à l activité de l entreprise. Pour les métiers (directions opérationnelles), le Big Data répond à des enjeux majeurs : accroître la capacité à supporter sa propre activité, gagner en productivité, mais surtout innover par rapport à la concurrence. Tout cela en s appuyant sur l ensemble des données brutes utiles, de l entreprise ou publiques, et en exploitant pleinement celles-ci. Avant de songer au Big Data, les métiers doivent se poser les bonnes questions afin de déterminer si le Big Data représente une opportunité et s ils ont les moyens de la saisir : De quelles informations avons-nous besoin pour innover et être compétitif? 1 19 blocs de 64 Mo en erreurs sur 329 millions (Source : ) Page 22
27 o Multiplier les sources des informations n est plus un problème, mais il faut identifier les opportunités business que cela peut ouvrir. o Ne pas hésiter à s inspirer des initiatives innovantes du marché. Quels sont les données sous- et inexploitées à notre disposition? o Il est important de connaître les sources de données de l entreprises, ces sources ont potentiellement de la valeur. Il faut se concentrer sur les données pertinentes au risque de devoir sur-dimensionner son infrastructure (voir analyse de risque : ). o Il faut savoir interpréter les données brutes. Sommes-nous prêts à «extraire» l information utile de nos données? o Analyser les données requiert des compétences rares, il peut être nécessaire de recruter des Data Analyst. o Cadrer les transformations organisationnelles, éthiques et légales associées. Sommes-nous capable de gérer les nouveaux risques de sécurité? o Les impacts autour de la donnée augmentent, la sécurité autour peut avoir besoin d être augmenté. o L utilisation de Cloud peut être une solution autant qu un problème à la sécurité. Le premier risque du Big Data est sûrement de ne pas bien l utiliser, si les opportunités business que le Big Data peut apporter ne sont pas claires ou si les compétences nécessaires pour les atteindre ne sont pas acquises alors il ne vaut mieux pas se lancer dans un projet Big Data. Ces questions permettent à l entreprise de déterminer si elle est prête à tirer des avantages business du Big Data. Mais ces avantages doivent être relativisés avec les risques que le Big Data apporte, pour le RSSI une analyse de risque s impose. Page 23
28 4 Analyse de risques 4.1 Méthodologie Avec le Big Data et ses nouvelles technologies, ses nouveaux concepts, ses nouvelles idées et envies, de nombreuses problématiques sont soulevées au niveau de la sécurité des infrastructures à mettre en place et des processus organisationnels qui les entourent. Notre démarche d analyse des risques apportés par le Big Data passe par une analyse différentielle entre le Big Data et les technologies dites classiques de collecte et d analyse de données. Nous allons alors explorer les risques apportés en termes de nonconformité légale, de perte de disponibilité, de non confidentialité, de perte d intégrité, des risques opérationnels et les risques liés aux différents modes d intégration. Nous n aborderons pas les risques présents dans les solutions classiques et qui ne sont pas exacerbés ou changés par l utilisation du Big Data. Qui accède à mes données? Qu en est-il de sa disponibilité? Quels risques portent sur l intégrité de mes données dans les systèmes distribués? Comment contrôler ces données pour rester maître de son SI? Sommes-nous prêt à accueillir le Big Data sans danger? Nous allons étudier toutes ces questions à travers l analyse de risques qui suit, en partant de l analyse de la chaîne de traitement des données et en dégageant les risques associés : Page 24
29 4.2 Légende Complexité Réduction de risques Faible Moyenne Forte Page 25
30 4.3 Analyse différentielle Risques de non-conformité Dû à la collecte d informations non déclarées à la CNIL Origine : La collecte de données à caractère personnel implique une obligation de déclaration de la collecte et des traitements sur ces données à la CNIL (Article du code pénal 2 ). Scénario : Dû à la nature des données non-structurées du Big Data, des informations personnelles et supplémentaires se sont mêlées dans les enregistrements. Impacts : Un contrôle de la CNIL pourrait résulter en une condamnation, avec une amende, et une perte d image pour l entreprise, due à la publication du jugement. Contre-mesures : Filtrage a priori des données collectées : Supprimer dès la collecte, les données détectée comme personnels via l utilisation de patterns connus. Cela permet notamment de supprimer les adresses IPs, numéros de téléphone et numéro de sécurité social. Il est malheureusement impossible d être exhaustif dans la suppression par liste noire, ce qui ne fait que réduire le risque. Anonymiser les données : Anonymiser les données assez rapidement dans le processus de collecte et de stockage pour empêcher l identification d un individu à partir de ces données. Le processus est intéressant, il permet de conserver la relation d appartenance des données sans en conserver le caractère personnelle, mais reste complexe et ne peut être généralisé à tous les types de données personnelles. 2 Page 26
31 Contre-mesure Complexité de mise en œuvre Réduction du risque Filtrage a priori des données collectées Anonymiser les données Dû à la durée de conservation des données personnelles Origine : Les textes de loi, ainsi que les autorisations de la CNIL imposent une limite temporelle pour la conservation de données personnelles. Il est possible de garder les données plus longtemps si celles-ci sont anonymisées. (Article du code pénal 3 ) Scénario 1 : Dû à la nature de la base de données NoSQL utilisées, il se peut qu il n existe pas de système permettant d ajouter des métadonnées pour enregistrer la date de collecte des données, et donc, pas de moyen de déterminer quand celles-ci doivent être supprimés. Scénario 2 : Le système de stockage ne permet pas de rechercher les enregistrements par leurs métadonnées, et ne permet donc pas de faire des recherches par date d'insertion pour effacer les enregistrements. Impacts : Un contrôle de la CNIL pourrait résulter en une condamnation, avec une amende, et une perte d image pour l entreprise, due à la publication du jugement. Contre-mesures : Annoter les données avec la date de collecte et faire des passes de «suppression» : Problème technique fortement lié au logiciel de stockage. 3 Page 27
32 Contre-mesure Complexité de mise en œuvre Réduction du risque Annoter les données Dû à l incapacité de rectifier/modifier les données - dû à l incapacité d accéder directement aux données Origine : Les lois obligent le possesseur d une base de donnée à mettre à disposition des utilisateurs du service la capacité de : connaitre les informations récoltées a son propos, de les rectifier, et de les faire supprimer (Décret n du 20 octobre 2005, Article 110). Scénario : Dû à la nature des bases de données non structurées, le système ne permet pas de récupérer les données à partir du nom d une personne, une recherche exhaustive est obligatoire. Le problème se pose par exemple avec le traitement des «logs» non anonymisés. La suppression ou la rectification est alors problématique. Impacts : Un contrôle de la CNIL pourrait résulter en une condamnation, avec une amende, et une perte d image pour l entreprise, due à la publication du jugement. Contre-mesures : Supprimer un document tout entier si les informations sont contestées. Anonymiser les données : Anonymiser les données assez rapidement dans le processus de collecte et de stockage pour empêcher l identification d un individu à partir de ces données. Le processus est intéressant, il permet de conserver la relation d appartenance des données sans en conserver le Page 28
33 caractère de données personnelles, mais reste complexe et ne peut être généralisé à tous les types de données personnelles. Contre-mesure Complexité de mise en œuvre Réduction du risque Supprimer un document tout entier Anonymiser les données récoltées Dû à un problème d attribution de responsabilité (incapacité à tracer les actions des administrateurs) Origine : Afin de détecter les modifications anormales et de pouvoir attribuer les modifications d un système à leur responsable, tracer les actions d administration est primordial. En outre, certaines normes ou lois imposent de tracer les actions des administrateurs du système. Scénario : Tracer les actions d un administrateur pour savoir qui a fait des modifications sur les infrastructures afin d assurer la conformité avec la norme PCI-DSS. Impacts : Amendes, Condamnation, Rupture de contrat. Contre-mesures : Tracer les actions des administrateurs : Prendre une base qui produit des logs. Stockage des logs sécurisé, inaccessible à un administrateur unique. On peut choisir de sous-traiter le stockage des logs pour empêcher à un administrateur de pouvoir modifier ou supprimer ceux-ci suite à une action malveillante. Il est aussi possible de stocker les logs et empêcher à un administrateur seul d accéder aux logs, limitant le risque. Page 29
34 Contre-mesure Complexité de mise en œuvre Réduction du risque Tracer les actions des administrateurs Stockage des logs sécurisé Dû à une incapacité à protéger les données conformément aux réglementations et standards Origine : Certaines normes imposent le cloisonnement de certaines données : c est par exemple le cas de PCI-DSS, avec les numéros de cartes bleues. Scénario : Les données sensibles à cloisonner sont stockées sur la même infrastructure de stockage que les données non sensibles. Des traitements utilisant ce stockage comme source peuvent accéder aux données sensibles. Impacts : Non-conformité avec la norme ciblée, pouvant entraîner une rupture de contrat et fuite de données sensibles. Contre-mesures : Authentification et séparation logique : Instaurer une séparation logique des données avec authentification obligatoire pour l utilisation des données sensibles, suivant le système de stockage utilisé. Chiffrer les données et les déchiffrer à la volée en cas de traitement sur ces données. Séparer physiquement les systèmes de stockage en infrastructures distincts. Page 30
35 Contre-mesure Complexité de mise en œuvre Réduction du risque Authentification et séparation logique Chiffrement Risques de non disponibilité Politique de sauvegarde Origine : Une attaque, une erreur de manipulation ou un problème technique entraine une perte de donnée, ce qui peut être un coup fatal pour une entreprise. Scénario : Suite à une mauvaise manipulation, des données importantes ont été supprimées. Impact : Perte de données. Contre-mesures : Politique de sauvegarde. La politique de sauvegarde doit intégrer les informations suivantes : Technique de sauvegarde : o Sauvegarde brute des données sur les disques (sauvegarde peu performante) o Système intégré et distribué de sauvegarde o Sauvegarde incrémentale basée sur les métadonnées du système de fichier distribué La fréquence : o Fréquence des sauvegardes complètes o Fréquence des sauvegardes différentielles Page 31
36 Les tests de restauration et leur fréquence Stockage des sauvegardes : o Sur quel type de stockage? (bande, disque) o Où sont-elles localisées? (sur site, hors site, dans le Cloud) Contre-mesure Complexité de mise en œuvre Réduction du risque Sauvegarde Pannes matérielles Origine : Les problèmes de disponibilité suite à des défaillances matérielles sur les équipements réseaux ou ceux de l infrastructure sont exacerbés par le Big Data du fait de sa mise à l échelle sur de nombreux serveurs. Scénario 1 : Suite à une panne matérielle sur équipement réseau non ou mal redondé, une partie des serveurs de stockage est inaccessible. Scénario 2 : Suite à une panne matérielle sur l un des serveurs de stockage (mémoire vive défectueuse, CPU en surchauffe, coupure électrique), les données stockées ne sont plus accessibles. Impact : Perte de disponibilité des données. Contre-mesures : Réseau entièrement redondé : il est primordial de redonder le cœur de réseau et les switchs de distribution ainsi que l ensemble des composants intermédiaires (pare-feu, VPN et répartition de charge). Il est préférable, mais pas nécessaire, de redonder la connexion terminale entre les serveurs et les switchs d accès. Page 32
37 Failover : les logiciels de stockage et les bases de données NoSQL possèdent des systèmes automatiques de basculement en cas de détection de perte de «nœuds» de stockage ou de calcul. Les activer permet de réduire drastiquement les problèmes de disponibilité car les multiples répliques de la donnée prennent alors le relai. Contre-mesure Complexité de mise en œuvre Réduction du risque Redondance du réseau Failover Risques de perte de confidentialité Dû au vol/diffusion/fuite d informations confidentielles Origine : Attaque sur le système menant au vol d information. Scénario : Un attaquant s introduit dans le système, et vole des informations, tel que des N de Carte bleue. Impacts : Fuite ou perte d information, impact sur les clients. Contre-mesures : Sécurisation de l infrastructure : Il est impératif de réaliser des audits réguliers de l infrastructure et de vérifier, notamment, les permissions d accès aux données et la configuration des systèmes critiques. Le monitoring constant peut permettre, en cas d attaque, de détecter celle-ci rapidement et d empêcher la fuite d information. Page 33
38 Contre-mesure Complexité de mise en œuvre Réduction du risque Sécurisation de son architecture Dû à un accès à des données confidentielles, par une personne illégitime Origine : Base de stockage mal sécurisée à cause d une mauvaise gestion des droits. Scénario : Un employé mécontent s empare d information, par un accès à une base de données, depuis l intérieur, puis revend ou diffuse des informations stratégiques pour l entreprise. Impact : Fuite d information. Contre-mesures : Audit régulier de la base des permissions pour détecter les profils laissés actifs par oublie et les permissions trop larges. Limitation des privilèges : Gestion fine des droits d'accès. Ne permettre l'accès à la base de données qu aux comptes d administrateurs et aux applications. Contre-mesure Complexité de mise en œuvre Réduction du risque Audit régulier des permissions Limitation des privilèges Page 34
39 Dû à une mauvaise gestion des habilitations d un nouveau logiciel Origine : Base de stockage mal sécurisée à cause d un manque de compétences techniques. Scénario : Certaines options de configuration nécessaires n ont pas été ajoutées car la technologie n est pas encore maîtrisée par le SI. Impact : Fuite d informations. Contre-mesures : Audit technique : Faire examiner la sécurité de notre infrastructure de stockage par des spécialistes, sous traitement à une SSII spécialisée dans les tests d intrusion. Suivi de guide de sécurisation. Contre-mesure Complexité de mise en œuvre Réduction du risque Audit Suivi de guide de sécurisation Page 35
40 4.3.4 Risque de perte d intégrité La problématique d intégrité dans les systèmes distribués a été mentionnée dans la partie «3.3.4 Les systèmes distribués et leurs problématiques» et ne seront donc pas abordés car ils sont négligeable à la vue des systèmes actifs de préservation d intégrité Risques opérationnels Dû à la collecte d informations non pertinente ou inutilisable La collecte doit être limitée aux seules données utiles et l organisation ne doit pas se mettre à «tout enregistrer» en vue d un possible enrichissement des données par corrélation ultérieure. Cela entraîne une perte de place considérable, de temps de collecte et peut saturer inutilement les infrastructures de stockage. Cet impact ne sera pas plus détaillé, car celui-ci est un souci de choix de collecte de données plus qu un risque. Dû à dépendance technologique de la DSI envers une solution jeune et peu éprouvée Origine : Les solutions de Big Data sont jeunes et leur maturité n est pas encore atteinte. Les problématiques de support et de pérennité des solutions sont en outre à considérer. Scénario : Disparition de l entreprise porteuse d une solution. Perte d intérêt d une communauté open-source envers le développement d une solution. Support commercial de faible qualité. Bogue logiciel non corrigé par les équipes de développement. Impacts : Le MCO de la solution problématique est plus coûteux (bug bloquant, manque d aide du support), disparition de l entreprise/la communauté supportant la solution. Manque de compétences sur le marché du travail. Page 36
41 Contre-mesures : Choisir des solutions supportées par des entreprises dont la santé financière est bonne et dont la perspective à plusieurs années est le maintien du développement de la solution. Choisir des technologies «standard de fait du marché» pour faciliter le recrutement. Contre-mesure Complexité de mise en œuvre Réduction du risque Choisir des solutions supportées par des entreprises solides Choisir un «standard de fait du marché» Dû à une dépendance des autres applications à une solution technologique unique Origine : En l absence d un langage de requête intermédiaire, comparable au SQL pour les bases de données, l'hétérogénéité des systèmes Big Data entraîne une dépendance du SI envers une unique solution. Scénario : Du fait de la forte singularité des systèmes Big Data (interface non compatibles), en cas de changement de technologie, il faut modifier toutes les applications en dépendant. Impacts : Augmentation importante du coût du changement de technologie. On se retrouve «prisonnier» d une seule solution. Contre-mesures : Page 37
42 Utiliser plusieurs technologies différentes en parallèle (pour différentes données et traitement). Contre-mesure Complexité de mise en œuvre Réduction du risque Utiliser plusieurs technologies différentes Risques liés aux modes d intégration L intégration d une plateforme Big Data peut se faire de différentes manières : Interne : toute la plateforme est contrôlée par l entreprise. Externe / Cloud : l entreprise utilise une plateforme mutualisée ou un service de type «Cloud». Le cas de l intégration interne n apporte pas de risques supplémentaires si ce n est la mauvaise gestion de la solution. A contrario, l utilisation d une plateforme hors du contrôle de l entreprise peut poser des problèmes juridiques ou des risques de perte de confidentialité. Ces risques ne sont pas exacerbés par l utilisation du Big Data, mais sont inhérent aux infrastructures mutualisées sous le contrôle d une entreprise tierce, aussi nous allons évoquer les risques engendrés, mais ceux-ci ne seront pas développés car ils n entrent pas dans le périmètre de l étude. Confidentialité Fuite d information : la sécurité de mes données dépend de la sécurité de la solution proposée. Le contrôle sur celle-ci est généralement inexistant et les Page 38
43 attaques sur les plateformes de grande envergure sont plus «intéressantes» pour les pirates qui ne manqueront pas de trouver et exploiter les failles 4. Légal Localisation des données : la perte de capacité à localiser l emplacement géographique de ses données peut poser des problèmes légaux de transfert de données. Les données localisées dans un autre pays tombent sous les lois dudit pays, posant aussi des problèmes de confidentialité. Juridiction et gestionnaire de la plateforme : bien que mes données soient localisées sur des serveurs de mon pays, si l entreprise qui gère le service est localisée dans un autre pays, les injonctions émanant de l état de cet autre pays peuvent-elles lui permettre d accéder à mes données? Appartenance des données : certains services possèdent des clauses de propriété sur les données manipulées sur leurs infrastructures, il y a alors un risque de perte de propriété intellectuelle autant que juridique car on ne contrôle plus les données manipulées. Dépendance au Cloud provider Sécurité : la sécurité des données est laissée au gestionnaire de la plateforme et il est difficile, sinon impossible, de pouvoir auditer la sécurité de celui-ci. Dépendance à une technologie : le risque de dépendance forte à un acteur unique et à sa technologie sous-jacente est exacerbé car celui-ci met à disposition non seulement le matériel, mais aussi le logiciel (varie suivant le service). Tous ces risques doivent alors être pris en considération lors d une intégration dans le Cloud ou sur une plateforme gérée par un organisme externe. La contre-mesure 4 En juin 2011, Dropbox a laissé fuiter l ensemble des données de ses utilisateurs pendant 4h, l authentification acceptant n importe quel mot de passe. (Source : ) Page 39
44 consiste à internaliser les traitements et à posséder sa propre infrastructure, mais cela demande des capacités techniques de pointe et peut demander des investissements conséquents. Contre-mesure Complexité de mise en œuvre Réduction du risque Internaliser la solution Page 40
45 4.4 Proposition d un plan d action global En résumé, nous proposons le plan d action générique suivant pour améliorer la sécurité autour des technologies Big Data Obligations légales Suivre les obligations de la CNIL relatives aux données personnelles : Filtrage a priori des données collectées qui ne sont pas pertinentes pour le traitement déclaré, ou anonymisation des données si cela n est pas possible ; Annoter les données avec la date de collecte et faire des passes de «suppression» pour répondre aux dates limites de conservations ; Offrir des moyens de rectification et de suppression des informations personnelles aux personnes fichées, quitte à supprimer un document tout entier si les informations sont contestées Sécurité des données Séparation logique du stockage : Instaurer une séparation logique des données sensibles, par une gestion des droits d'accès ; Politique de sauvegarde des données ; Utilisation des systèmes de failover automatique ; Réseau entièrement redondé pour une disponibilité maximale Problèmes opérationnels Utiliser des solutions techniques supportées par des entreprises dont la santé financière est bonne et dont le développement sur plusieurs années parait probable. Page 41
46 4.5 Synthèse de l analyse de risques L analyse de risques nous montre que le Big Data, malgré son apparition récente, apporte peu de risques nouveaux sur le plan de la sécurité, si ce n est ceux liées à la faible maturité des solutions disponibles, quoique éprouvé par les architectures de grande envergure de certains géants du web qui prouvent la solidité de nombreuses solutions de Big Data. Il subsiste néanmoins les risques liés aux problèmes de configuration et les questions de disponibilité d un système décentralisé. Il est aussi important de choisir judicieusement son mode d intégration (interne ou externe / Cloud) et en accepter les risques inhérents ; le Big Data n apporte alors pas de risques supplémentaires aux risques inhérents à ces modes d intégration. Enfin, les problèmes de disponibilité et d intégrité inhérents aux systèmes répartis sont fortement réduits grâce aux technologies de basculement automatique et de vérification active d intégrité. Partant de ces constats, nous en déduisons que l implantation du Big Data dans les entreprises doit venir d un besoin fort du métier car la complexité de la mise en place d une telle solution ne doit pas être sous-estimée. Les risques liés à celui-ci, bien que devant être clairement assimilés, ne devrait néanmoins pas faire porter de nouveaux risques majeurs sur le SI. Page 42
47 5 Bibliographie [1] Big Data - Wikipédia [2] Enterprise Big-data - David Floyer [3] Big Data... Méfiez-vous : l'appellation est trompeuse! - Philippe Gosseye [4] Big Data: Making sense at scale - Henri Verdier [5] Big Data : Opportunités et problèmes de sécurité - études Forrester [6] Qu est-ce que le Big Data? - Lise Gasnier [7] Quel est le paysage technologique du Big Data? - Mathieu Millet [8] Le Big Data : le Nirvana Marketing ou la prochaine bulle sur le point d'éclater? - Sinequa [9] Big Data Meets the Supply Chain - Kelly Thomas [10] Big Data vs. Strategic S&OP: Opposite Sides of the Spectrum? - Paula Natoli [11] Big Data : mais qu est-ce c est? - José Diz [12] Le b.a.-ba du Big data pour tous - Charles-Yves Baudet [13] Les 3 V du Big Data : Volume, Vitesse et Variété - Gérard Clech [14] Comment quatre fournisseurs remixent le concept du big data - Vincent Berdot Page 43
48 [15] Hadoop : une histoire vieille de dix ans - Vincent Berdot [16] Big Data: Marketing Nirvana or the Next Big Bubble to Burst? - Hans-Josef Jeanrond [17] Use the Four V s to Better Understand the Big Data Ecosystem - Mark Myers [18] NoSQL : un mouvement qui prend de l ampleur - Nicolas Martignole [19] How Big Data Became So Big - Steve Lohr [20] 10 hot big data startups to watch this year - Benedikt Koehler [21] Why Do So Many Big Data Companies Have Jungle Animals for Logos? - Mellisa Tolentino [22] How Companies Like Amazon Use Big Data To Make You Love Them - Sean Madden [23] 6 companies doing big data in the cloud - Derrick Harris [24] Présentation sur les Big Data - Xavier Dalloz [25] Big-Data Computing: Creating revolutionary breakthroughs in commerce, science, and society - Randal E. Bryant, Randy H. Katz & Edward D. Lazowska [26] What is Hadoop? - Christophe de My Data News [27] Security in Hadoop - Ravi Phulari [28] Le phénomène des big data touche toutes les entreprises - Claude Bernard Page 44
49 [29] Schneier: government, big data pose bigger 'Net threat than criminals - Dan Goodin [30] La nouvelle version d'iway Software d'information Builders assure la qualité des Big Data des entreprises - Information Builder [31] Big Data et données non structurées : PostgreSQL n a pas dit son dernier mot! - Damien Clochard [32] Creating Value Through Data Integrity - Guy Gilliland, Sue Kolloru Barger, Vikrant Bhatia & Ron Nicol [33] Comprendre Hadoop en 5 min - Arnault Jeanson [34] Hadoop, première partie : Le système de fichier et le MapReduce au service des gros volumes de données - Elias Daboussi [35] Big Data A Big Backup Challenge - George Crump [36] Hervé Rolland, IBM France : Le Big data? c est un process inversé - Hervé Rolland [37] NoSQL & DataGrids from a Developer Perspective - Cyrille Le Clerc & Michaël Figuière [38] Top 6 big data issues - Cynthia Karena [39] Eight Problems With Big Data - Jay Stanley [40] Data Integrity and Availability in Apache Hadoop HDFS - Sanjay Radia [41] Le Big Data face à la sécurité et au cloud - Guy Chesnot Page 45
50 6 Glossaire Audit : L'audit est une activité de contrôle et de conseil qui consiste en une expertise par un agent compétent et impartial et un jugement sur l'organisation, la procédure, ou une opération quelconque de l'entité. Failover : Le failover, ou basculement, est la capacité d'un équipement ou d'une infrastructure à basculer automatiquement sur un/une autre en cas de panne partielle ou totale d'une de ses parties. Cloud : Le «Cloud Computing» est un concept qui consiste à déporter sur des serveurs distants des stockages et des traitements informatiques traditionnellement localisés sur des serveurs locaux ou sur le poste de l'utilisateur. Cloud Provider : Une entreprise fournissant des services de «Cloud Computing» à ses utilisateurs. Cluster : En réseau et système, un cluster est une grappe de serveurs constituée de deux serveurs au minimum (appelé aussi nœuds) et partageant une baie de disques commune, pour assurer une continuité de service et/ou repartir la charge de calcul et/ou la charge réseau. CNIL : La «Commission Nationale de l'informatique et des Libertés» est l'autorité de contrôle française en matière de protection des données personnelles. Confidentialité : Fait de réserver des informations à un petit nombre de personnes déterminées. Data Mining : Le Data Mining, ou exploration de données, a pour objet l extraction d'un savoir ou d'une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques. Page 46
51 Data Warehouse : Le Data Warehouse, ou «Entrepôt de données», désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir une aide à la décision en entreprise. Disponibilité : Propriété d'un système informatique comparant la durée pratique pendant laquelle ce système est opérationnel à la durée maximale pendant laquelle il pourrait l'être. Habilitation : L'habilitation de sécurité est une procédure permettant à une personne d'avoir accès à des informations protégées. Hadoop : Hadoop est un Framework Java libre destiné à faciliter la création d'applications distribuées et scalables. Il permet aux applications de travailler avec des milliers de nœuds et des pétaoctets de données. Hadoop a été inspiré par les publications MapReduce, GoogleFS et BigTable de Google. HDFS : Hadoop Distributed File System est un système de fichiers distribué permettant à des applications d'accéder aux données avec une grande rapidité. Intégrité : État d un tout, d une chose qui est dans son entier. IP : «Internet Protocol» est un protocole d'adressage utilisé pour communiquer entre plusieurs machines sur un même réseau. Les trois «V» : Volume, Vitesse, Variété. MapReduce : Un système permettant l'exécution d'algorithme en distribuant la charge sur plusieurs nœuds de calcul. Page 47
52 Mapping : Une opération associant à chaque élément d'un set (d'un domaine), un élément d'un second domaine, formant un nouveau set. MCO : Maintien en Conditions Opérationnelles. NoSQL : Not Only SQL. Open source : La désignation «Open Source» s applique aux logiciels dont l'accès au code source est autorisé par son auteur, permettant ainsi la mise en place de logiciels dérivés. PCI DSS : Le «Payment Card Industry Data Security Standard» (PCI DSS) est un standard de sécurité relatif aux paiements par cartes bancaires utilisé mondialement. Reducing : Le procédé récursif qui à partir d'un set de données produit une valeur en traitant récursivement les sous-parties du set. Réplication : La copie d'une donnée à de multiples endroits en vue de conserver son intégrité et sa disponibilité. Sérialisation : Un processus visant à coder l'état d'une information qui est en mémoire sous la forme d'une suite d'informations plus petites (dites atomiques, voir l'étymologie de atome) le plus souvent des octets voire des bits. SGBD : Système de Gestion de Base de Données SGBDR : Système de Gestion de Base de Données Relationnelles Système distribué : Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Page 48
53 Tests d'intrusion : Un test d'intrusion est une méthode d'évaluation de la sécurité d'un système ou d'un réseau informatique. Traçabilité : Ensemble des informations, documents, etc., qui permettent de connaître tout l historique de la production et de la distribution d un produit. Page 49
54 7 Annexes 7.1 Solucom Solucom est un cabinet de conseil en management et système d information. Les clients de Solucom sont dans le top 200 des grandes entreprises et administrations. Pour eux, Solucom est capable de mobiliser et de conjuguer les compétences de près de 1000 collaborateurs. Sa mission? Porter l innovation au cœur des métiers, cibler et piloter les transformations créatrices de valeur, faire du système d information un véritable actif au service de la stratégie de l entreprise. Solucom est coté sur NYSE Euronext et a obtenu la qualification entreprise innovante décernée par OSEO innovation. Pour en savoir plus, venez découvrir le magazine en ligne de Solucom. 7.2 Epita Créée il y a 25 ans, l EPITA est l école d ingénieurs qui forme celles et ceux qui conçoivent, développent et font progresser les technologies de l information et de la communication (TIC), au cœur des changements du 21ème siècle. Page 50
Big Data. SRS Day 2012. Ali FAWAZ Etienne CAPGRAS. Membres du groupe : Coaché par :
Big Data SRS Day 2012 Membres du groupe : Mickaël CORINUS Thomas DEREY Jérémie MARGUERIE William TÉCHER Nicolas VIC Coaché par : Ali FAWAZ Etienne CAPGRAS 1 Sommaire 1 2 Présentation du Big Data État des
Les participants repartiront de cette formation en ayant une vision claire de la stratégie et de l éventuelle mise en œuvre d un Big Data.
Big Data De la stratégie à la mise en oeuvre Description : La formation a pour objet de brosser sans concession le tableau du Big Data. Les participants repartiront de cette formation en ayant une vision
Bases de données documentaires et distribuées Cours NFE04
Bases de données documentaires et distribuées Cours NFE04 Cloud et scalabilité Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers pré[email protected] Département d informatique Conservatoire
Introduction Big Data
Introduction Big Data SOMMAIRE Rédacteurs : Réf.: SH. Lazare / F. Barthélemy AXIO_BD_V1 QU'EST-CE QUE LE BIG DATA? ENJEUX TECHNOLOGIQUES ENJEUX STRATÉGIQUES BIG DATA ET RH ANNEXE Ce document constitue
Quels choix de base de données pour vos projets Big Data?
Quels choix de base de données pour vos projets Big Data? Big Data? Le terme "big data" est très à la mode et naturellement un terme si générique est galvaudé. Beaucoup de promesses sont faites, et l'enthousiasme
Cartographie des solutions BigData
Cartographie des solutions BigData Panorama du marché et prospective 1 1 Solutions BigData Défi(s) pour les fournisseurs Quel marché Architectures Acteurs commerciaux Solutions alternatives 2 2 Quels Défis?
Programmation parallèle et distribuée (Master 1 Info 2015-2016)
Programmation parallèle et distribuée (Master 1 Info 2015-2016) Hadoop MapReduce et HDFS Note bibliographique : ce cours est largement inspiré par le cours de Benjamin Renaut (Tokidev SAS) Introduction
Programmation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution
BIG DATA. Veille technologique. Malek Hamouda Nina Lachia Léo Valette. Commanditaire : Thomas Milon. Encadré: Philippe Vismara
BIG DATA Veille technologique Malek Hamouda Nina Lachia Léo Valette Commanditaire : Thomas Milon Encadré: Philippe Vismara 1 2 Introduction Historique des bases de données : méthodes de stockage et d analyse
AVRIL 2014. Au delà de Hadoop. Panorama des solutions NoSQL
AVRIL 2014 Panorama des solutions NoSQL QUI SOMMES NOUS? Avril 2014 2 SMILE, EN QUELQUES CHIFFRES 1er INTÉGRATEUR EUROPÉEN DE SOLUTIONS OPEN SOURCE 3 4 NOS EXPERTISES ET NOS CONVICTIONS DANS NOS LIVRES
Programmation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2014) Marc Parizeau, Département de génie électrique et de génie informatique Plan Mégadonnées («big data») Architecture Hadoop distribution
Groupe de Discussion Big Data Aperçu des technologies et applications. Stéphane MOUTON [email protected]
Groupe de Discussion Big Data Aperçu des technologies et applications Stéphane MOUTON [email protected] Recherche appliquée et transfert technologique q Agréé «Centre Collectif de Recherche» par
Fouillez facilement dans votre système Big Data. Olivier TAVARD
Fouillez facilement dans votre système Big Data Olivier TAVARD A propos de moi : Cofondateur de la société France Labs Développeur (principalement Java) Formateur en technologies de moteurs de recherche
20 ans du Master SIAD de Toulouse - BigData par l exemple - Julien DULOUT - 22 mars 2013. 20 ans du SIAD -"Big Data par l'exemple" -Julien DULOUT
20 ans du Master SIAD de Toulouse - BigData par l exemple - Julien DULOUT - 22 mars 2013 20 ans du SIAD -"BigData par l'exemple" -Julien DULOUT Qui a déjà entendu parler du phénomène BigData? Qui a déjà
Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012
Livre blanc Solution Hadoop d entreprise d EMC Stockage NAS scale-out Isilon et Greenplum HD Par Julie Lockner et Terri McClure, Analystes seniors Février 2012 Ce livre blanc d ESG, qui a été commandé
Ecole des Hautes Etudes Commerciales HEC Alger. par Amina GACEM. Module Informatique 1ière Année Master Sciences Commerciales
Ecole des Hautes Etudes Commerciales HEC Alger Évolution des SGBDs par Amina GACEM Module Informatique 1ière Année Master Sciences Commerciales Evolution des SGBDs Pour toute remarque, question, commentaire
DÉPLOIEMENT DE QLIKVIEW POUR DES ANALYSES BIG DATA CHEZ KING.COM
DÉPLOIEMENT DE QLIKVIEW POUR DES ANALYSES BIG DATA CHEZ KING.COM Étude de cas technique QlikView : Big Data Juin 2012 qlikview.com Introduction La présente étude de cas technique QlikView se consacre au
L écosystème Hadoop Nicolas Thiébaud [email protected]. Tuesday, July 2, 13
L écosystème Hadoop Nicolas Thiébaud [email protected] HUG France 250 membres sur la mailing liste 30 présentations 9 meetups organisés, de 20 à 100 invités Présence de Cloudera, MapR, Hortonworks,
NoSQL. Introduction 1/23. I NoSQL : Not Only SQL, ce n est pas du relationnel, et le contexte. I table d associations - Map - de couples (clef,valeur)
1/23 2/23 Anne-Cécile Caron Master MIAGE - BDA 1er trimestre 2013-2014 I : Not Only SQL, ce n est pas du relationnel, et le contexte d utilisation n est donc pas celui des SGBDR. I Origine : recherche
À PROPOS DE TALEND...
WHITE PAPER Table des matières Résultats de l enquête... 4 Stratégie d entreprise Big Data... 5 Intégration des Big Data... 8 Les défis liés à la mise en œuvre des Big Data... 10 Les technologies pour
Big Data. Cyril Amsellem Consultant avant-vente. 16 juin 2011. Talend 2010 1
Big Data Cyril Amsellem Consultant avant-vente 16 juin 2011 Talend 2010 1 Big Data Architecture globale Hadoop Les projets Hadoop (partie 1) Hadoop-Core : projet principal. HDFS : système de fichiers distribués
Les quatre piliers d une solution de gestion des Big Data
White Paper Les quatre piliers d une solution de gestion des Big Data Table des Matières Introduction... 4 Big Data : un terme très vaste... 4 Le Big Data... 5 La technologie Big Data... 5 Le grand changement
TOP. année promet d être BIG (Business Intelligence Growth) PRINCIPALES TENDANCES EN MATIÈRE DE SOLUTIONS DÉCISIONNELLES POUR 2013
0 Cette TOP 10 PRINCIPALES TENDANCES EN MATIÈRE DE SOLUTIONS DÉCISIONNELLES POUR 2013 année promet d être BIG (Business Intelligence Growth) Quel est le bilan de l année 2012 en matière de solutions décisionnelles?
Labs Hadoop Février 2013
SOA - BRMS - ESB - BPM CEP BAM - High Performance Compute & Data Grid - Cloud Computing - Big Data NoSQL - Analytics Labs Hadoop Février 2013 Mathias Kluba Managing Consultant Responsable offres NoSQL
Tableau Online Sécurité dans le cloud
Tableau Online Sécurité dans le cloud Auteur : Ellie Fields Ellie Fields, directrice principale du marketing produits, Tableau Software Juin 2013 p.2 Tableau est conscient que les données font partie des
Vision prospective et obstacles à surmonter pour les assureurs
smart solutions for smart leaders Le «Big Data» assurément Rédigé par Pascal STERN Architecte d Entreprise Vision prospective et obstacles à surmonter pour les assureurs Un avis rendu par la cour de justice
Big data et données géospatiales : Enjeux et défis pour la géomatique. Thierry Badard, PhD, ing. jr Centre de Recherche en Géomatique
Big data et données géospatiales : Enjeux et défis pour la géomatique Thierry Badard, PhD, ing. jr Centre de Recherche en Géomatique Événement 25e anniversaire du CRG Université Laval, Qc, Canada 08 mai
10 bonnes pratiques de sécurité dans Microsoft SharePoint
10 bonnes pratiques de sécurité dans Microsoft SharePoint SharePoint constitue certes un outil collaboratif précieux. Mais gare aux risques pour votre entreprise. 10 bonnes pratiques de sécurité dans Microsoft
4. Utilisation d un SGBD : le langage SQL. 5. Normalisation
Base de données S. Lèbre [email protected] Université de Strasbourg, département d informatique. Présentation du module Contenu général Notion de bases de données Fondements / Conception Utilisation :
Big Data Concepts et mise en oeuvre de Hadoop
Introduction 1. Objectif du chapitre 9 2. Le Big Data 10 2.1 Introduction 10 2.2 Informatique connectée, objets "intelligents" et données collectées 11 2.3 Les unités de mesure dans le monde Big Data 12
Déploiement d une architecture Hadoop pour analyse de flux. franç[email protected]
Déploiement d une architecture Hadoop pour analyse de flux franç[email protected] 1 plan Introduction Hadoop Présentation Architecture d un cluster HDFS & MapReduce L architecture déployée Les
Article 2 : Conseils et meilleures pratiques pour gérer un cloud privé
Article 2 : Conseils et meilleures pratiques pour gérer un cloud privé Sponsored by Mentions relatives aux droits d'auteur 2011 Realtime Publishers. Tous droits réservés. Ce site contient des supports
INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE
I N T E RS Y S T E M S INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE David Kaaret InterSystems Corporation INTERSySTEMS CAChé CoMME ALTERNATIvE AUx BASES de données RéSIdENTES
Les technologies du Big Data
Les technologies du Big Data PRÉSENTÉ AU 40 E CONGRÈS DE L ASSOCIATION DES ÉCONOMISTES QUÉBÉCOIS PAR TOM LANDRY, CONSEILLER SENIOR LE 20 MAI 2015 WWW.CRIM.CA TECHNOLOGIES: DES DONNÉES JUSQU'À L UTILISATEUR
Transformez vos données en opportunités. avec Microsoft Big Data
Transformez vos données en opportunités avec Microsoft Big Data 1 VOLUME Augmentation du volume de données tous les cinq ans Vélocité x10 4,3 Nombre d appareils connectés par adulte VARIÉTÉ 85% Part des
Nos Solutions PME VIPDev sont les Atouts Business de votre entreprise.
Solutions PME VIPDev Nos Solutions PME VIPDev sont les Atouts Business de votre entreprise. Cette offre est basée sur la mise à disposition de l ensemble de nos compétences techniques et créatives au service
Présentation du module Base de données spatio-temporelles
Présentation du module Base de données spatio-temporelles S. Lèbre [email protected] Université de Strasbourg, département d informatique. Partie 1 : Notion de bases de données (12,5h ) Enjeux et principes
5 novembre 2013. Cloud, Big Data et sécurité Conseils et solutions
5 novembre 2013 Cloud, Big Data et sécurité Conseils et solutions Agenda 1. Enjeux sécurité du Cloud et du Big Data 2. Accompagner les projets 3. Quelques solutions innovantes 4. Quelle posture pour les
Garantir une meilleure prestation de services et une expérience utilisateur optimale
LIVRE BLANC Garantir une meilleure prestation de services et une expérience utilisateur optimale Mai 2010 Garantir une meilleure prestation de services et une expérience utilisateur optimale CA Service
#BigData Dossier de presse Mai 2014
#BigData Dossier de presse Mai 2014 La valeur du Big Data pour l entreprise Comment permettre l avènement d une culture de la donnée pour tous? Dans un monde porté par la mobilité et le Cloud, non seulement
Big Data. Concept et perspectives : la réalité derrière le "buzz"
Big Data Concept et perspectives : la réalité derrière le "buzz" 2012 Agenda Concept & Perspectives Technologies & Acteurs 2 Pierre Audoin Consultants (PAC) Pierre Audoin Consultants (PAC) est une société
Chapitre 9 : Informatique décisionnelle
Chapitre 9 : Informatique décisionnelle Sommaire Introduction... 3 Définition... 3 Les domaines d application de l informatique décisionnelle... 4 Architecture d un système décisionnel... 5 L outil Oracle
AXIAD Conseil pour décider en toute intelligence
AXIAD Conseil pour décider en toute intelligence Gestion de la Performance, Business Intelligence, Big Data Domaine d expertise «Business Intelligence» Un accompagnement adapté à votre métier dans toutes
Business & High Technology
UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 8 : ID : Informatique Décisionnelle BI : Business Intelligence Sommaire Introduction...
La dernière base de données de Teradata franchit le cap du big data grâce à sa technologie avancée
Communiqué de presse Charles-Yves Baudet Twitter: Les clients de Teradata Teradata Corporation peuvent [email protected] tirer parti de plusieurs + 33 1 64 86 76 14 + 33 (0) 1 55 21 01 48/49 systèmes,
Pentaho Business Analytics Intégrer > Explorer > Prévoir
Pentaho Business Analytics Intégrer > Explorer > Prévoir Pentaho lie étroitement intégration de données et analytique. En effet, les services informatiques et les utilisateurs métiers peuvent accéder aux
Document réalisé par Khadidjatou BAMBA
Comprendre le BIG DATA Document réalisé par Khadidjatou BAMBA 1 Sommaire Avant propos. 3 Historique du Big Data.4 Introduction.....5 Chapitre I : Présentation du Big Data... 6 I. Généralités sur le Big
Surmonter les 5 défis opérationnels du Big Data
Surmonter les 5 défis opérationnels du Big Data Jean-Michel Franco Talend Connect 9 octobre 2014 Talend 2014 1 Agenda Agenda Le Big Data depuis la découverte jusqu au temps réel en passant par les applications
Découvrir les vulnérabilités au sein des applications Web
Applications Web Découvrir les vulnérabilités au sein des applications Web Les vulnérabilités au sein des applications Web sont un vecteur majeur du cybercrime. En effet, selon le rapport d enquête 2012
Utiliser Access ou Excel pour gérer vos données
Page 1 of 5 Microsoft Office Access Utiliser Access ou Excel pour gérer vos données S'applique à : Microsoft Office Access 2007 Masquer tout Les programmes de feuilles de calcul automatisées, tels que
Découverte et investigation des menaces avancées PRÉSENTATION
Découverte et investigation des menaces avancées PRÉSENTATION AVANTAGES CLÉS RSA Security Analytics offre les avantages suivants : Surveillance de la sécurité Investigation des incidents Reporting sur
La gestion des risques en entreprise de nouvelles dimensions
La gestion des risques en entreprise de nouvelles dimensions Octobre 2006 La pratique de la gestion des risques en entreprise devient plus cruciale et plus complexe de jour en jour. Les entreprises doivent
Stratégies gagnantes pour les prestataires de services : le cloud computing vu par les dirigeants Dossier à l attention des dirigeants
Dossier à l attention des dirigeants Centres d évaluation de la technologie inc. Le cloud computing : vue d ensemble Les sociétés de services du monde entier travaillent dans un environnement en pleine
Recommandations pour les entreprises qui envisagent de souscrire à des services de Cloud computing
Recommandations pour les entreprises qui envisagent de souscrire à des services de Cloud computing D un point de vue juridique, la CNIL constate que le Cloud computing soulève un certain nombre de difficultés
DOSSIER SOLUTION CA ERwin Modeling. Comment gérer la complexité des données et améliorer l agilité métier?
DOSSIER SOLUTION CA ERwin Modeling Comment gérer la complexité des données et améliorer l agilité métier? CA ERwin Modeling fournit une vue centralisée des définitions de données clés afin de mieux comprendre
Offre formation Big Data Analytics
Offre formation Big Data Analytics OCTO 2014 50, avenue des Champs-Elysées 75008 Paris - FRANCE Tél : +33 (0)1 58 56 10 00 Fax : +33 (0)1 58 56 10 01 www.octo.com 1 Présentation d OCTO Technology 2 Une
www.netexplorer.fr [email protected]
www.netexplorer.fr 05 61 61 20 10 [email protected] Sommaire Sécurité applicative... 3 Authentification... 3 Chiffrement... 4 Traçabilité... 4 Audits... 5 Sécurité infrastructure... 6 Datacenters...
PANORAMA DES MENACES ET RISQUES POUR LE SI
PANORAMA DES MENACES ET RISQUES POUR LE SI LEXSI > CNIS EVENT CNIS EVENT 05/11/2013 SOMMAIRE Big Data Cloud Computing Virtualisation 2 BIG DATA Définition Chaque jour, 2,5 trillions d octets de données
Symantec Endpoint Protection 12.1.5 Fiche technique
Symantec Endpoint Protection 12.1.5 Fiche technique Fiche technique : Sécurité des terminaux Présentation Outre les attaques massives à grande échelle qu ils perpétuent, les logiciels malveillants ont
IBM Software Big Data. Plateforme IBM Big Data
IBM Software Big Data 2 Points clés Aide les utilisateurs à explorer de grands volumes de données complexes Permet de rationaliser le processus de développement d'applications impliquant de grands volumes
QU EST CE QUE LE CLOUD COMPUTING?
En France, on parle plus volontiers d «informatique en nuage» 1 pour décrire ce concept. Apparu au début des années 2000, le cloud computing constitue une évolution majeure de l informatique d entreprise,
Ad-exchanges & RTB (avec la participation de Fabien Magalon, La place
En partenariat avec : Tout savoir sur le marketing à la performance Intervenants Hugo Loriot Directeur media technologie, Fifty Five Yann Gabay - Directeur général, Netbooster Fabien Magalon Directeur
Les modules SI5 et PPE2
Les modules SI5 et PPE2 Description de la ressource Propriétés Intitulé long Formation concernée Matière Présentation Les modules SI5 et PPE2 BTS SIO SI5 PPE2 Description Ce document présente une approche
TRIBUNE BRAINWAVE GOUVERNANCE ET SéCURITé. Shadow IT, la menace fantôme. Une tendance irréversible mais pas dénuée de risques.
TRIBUNE BRAINWAVE GOUVERNANCE ET SéCURITé Shadow IT, la menace fantôme Une tendance irréversible mais pas dénuée de risques. Par Sébastien Faivre Chief Marketing Officer de Brainwave Shadow IT, la menace
HADOOP ET SON ÉCOSYSTÈME
HADOOP ET SON ÉCOSYSTÈME Mars 2013 2012 Affini-Tech - Diffusion restreinte 1 AFFINI-TECH Méthodes projets Outils de reporting & Data-visualisation Business & Analyses BigData Modélisation Hadoop Technos
Atteindre la flexibilité métier grâce au data center agile
Atteindre la flexibilité métier grâce au data center agile Aperçu : Permettre l agilité du data-center La flexibilité métier est votre objectif primordial Dans le monde d aujourd hui, les clients attendent
Les ressources numériques
Les ressources numériques Les ressources numériques sont diverses et regroupent entre autres, les applications, les bases de données et les infrastructures informatiques. C est un ensemble de ressources
Formation Cloudera Data Analyst Utiliser Pig, Hive et Impala avec Hadoop
Passez au niveau supérieur en termes de connaissance grâce à la formation Data Analyst de Cloudera. Public Durée Objectifs Analystes de données, business analysts, développeurs et administrateurs qui ont
Introduction Que s est-il passé en 2014? Qu attendre de 2015?
Les grandes tendances Data & Analytics 2015 L épreuve de la réalité janvier 2015 Introduction Que s est-il passé en 2014? Qu attendre de 2015? 2014 a confirmé l intérêt croissant pour la donnée au sein
Acquisition des données - Big Data. Dario VEGA Senior Sales Consultant
Acquisition des données - Big Data Dario VEGA Senior Sales Consultant The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated
Tirez plus vite profit du cloud computing avec IBM
Tirez plus vite profit du cloud computing avec IBM Trouvez des solutions de type cloud éprouvées qui répondent à vos priorités principales Points clés Découvrez les avantages de quatre déploiements en
Formation continue. Ensae-Ensai Formation Continue (Cepe)
CertifiCat de data scientist Formation continue Ensae-Ensai Formation Continue (Cepe) CertifiCat de data scientist La demande de data scientists est croissante mais peu de formations existent. Ce certificat
Cours 6. Sécurisation d un SGBD. DBA - M1ASR - Université Evry 1
Cours 6 Sécurisation d un SGBD DBA - M1ASR - Université Evry 1 Sécurisation? Recette d une application Vérification des fonctionnalités Vérification de l impact sur le SI existant Gestion du changement
Introduction à MapReduce/Hadoop et Spark
1 / 36 Introduction à MapReduce/Hadoop et Spark Certificat Big Data Ludovic Denoyer et Sylvain Lamprier UPMC Plan 2 / 36 Contexte 3 / 36 Contexte 4 / 36 Data driven science: le 4e paradigme (Jim Gray -
Préface Dunod Toute reproduction non autorisée est un délit. Les raisons de l émergence du Big Data sont bien connues. Elles sont d abord économiques et technologiques. La chute exponentielle des coûts
NoSQL. Introduction 1/30. I NoSQL : Not Only SQL, ce n est pas du relationnel, et le contexte. I table d associations - Map - de couples (clef,valeur)
1/30 2/30 Anne-Cécile Caron Master MIAGE - SGBD 1er trimestre 2014-2015 I : Not Only SQL, ce n est pas du relationnel, et le contexte d utilisation n est donc pas celui des SGBDR. I Origine : recherche
Cloud Computing. Veille Technologique
Cloud Computing Veille Technologique La veille technologique consiste à s'informer de façon systématique sur les techniques les plus récentes et surtout sur leur mise à disposition commerciale (ce qui
NewPoint IT Consulting BIG DATA WHITE PAPER. NewPoint Information Technology Consulting
NewPoint IT Consulting BIG DATA WHITE PAPER NewPoint Information Technology Consulting Contenu 1 Big Data: Défi et opportunité pour l'entreprise... 3 2 Les drivers techniques et d'entreprise de BIG DATA...
Enterprise Intégration
Enterprise Intégration Intégration des données L'intégration de données des grandes entreprises, nationales ou multinationales est un vrai cassetête à gérer. L'approche et l'architecture de HVR est très
Axe de valeur BMC Identity Management, la stratégie d optimisation de la gestion des identités de BMC Software TM
BROCHURE SOLUTIONS Axe de valeur BMC Identity Management, la stratégie d optimisation de la gestion des identités de BMC Software TM L IDENTITE AU COEUR DE VOTRE PERFORMANCE «En tant que responsable informatique,
Vos experts Big Data. [email protected]. Le Big Data dans la pratique
Vos experts Big Data [email protected] Le Big Data dans la pratique Expert Expert Infrastructure Data Science Spark MLLib Big Data depuis 2011 Expert Expert Hadoop / Spark NoSQL HBase Couchbase MongoDB
Solutions de sécurité des données Websense. Sécurité des données
Sécurité des données Data Security Suite Data Discover Data Monitor Data Protect Data Endpoint Solutions de sécurité des données Sécurité des Données: l approche de permet d assurer l activité de l entreprise
Un guide LE CLOUD COMPUTING DÉMYSTIFIÉ 5 IDÉES REÇUES QUE TOUTES LES PETITES ENTREPRISES DEVRAIENT CONNAÎTRE SUR LE CLOUD COMPUTING
Un guide LE CLOUD COMPUTING DÉMYSTIFIÉ 5 IDÉES REÇUES QUE TOUTES LES PETITES ENTREPRISES DEVRAIENT CONNAÎTRE SUR LE CLOUD COMPUTING Les avantages considérables promis par le cloud computing aux petites
Sujet 2 : Interconnexion de réseaux IP (routeurs CISCO). Sujet 3 : Implémentation d un serveur VPN avec OpenVPN.
UFC CENTRE DE BAB EZZOUAR EXEMPLES DE SUJETS POUR LE PROJET DE FIN D ETUDE OPSIE PROPOSES PAR M. NACEF (ENSEIGNANT) Sujet 1 : Management des risques par la méthode MEHARI. Type : étude, audit. MEHARI est
Symantec Protection Suite Enterprise Edition Protection éprouvée pour les terminaux, la messagerie et les environnements Web
Fiche technique: Sécurité des terminaux Protection éprouvée pour les terminaux, la messagerie et les environnements Web Présentation permet de créer un environnement (terminaux, messagerie et Web) protégé
Les datas = le fuel du 21ième sicècle
Les datas = le fuel du 21ième sicècle D énormes gisements de création de valeurs http://www.your networkmarketin g.com/facebooktwitter-youtubestats-in-realtime-simulation/ Xavier Dalloz Le Plan Définition
Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte
Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte 1Les bases : vos objectifs 2 Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte
QU EST-CE QUE LE DECISIONNEL?
La plupart des entreprises disposent d une masse considérable d informations sur leurs clients, leurs produits, leurs ventes Toutefois ces données sont cloisonnées par les applications utilisées ou parce
VirtualScale L expert infrastructure de l environnement Open source HADOOP Sofiane Ammar [email protected]
VirtualScale L expert infrastructure de l environnement Open source HADOOP Sofiane Ammar [email protected] Avril 2014 Virtualscale 1 Sommaire Les enjeux du Big Data et d Hadoop Quels enjeux
Xi Ingénierie. La performance technologique au service de votre e-commerce. Comment exploiter les cookies sur vos applications web en toute légalité?
Xi Ingénierie La performance technologique au service de votre e-commerce Comment exploiter les cookies sur vos applications web en toute légalité? Copyright 2012 Xi Ingénierie Toute reproduction ou diffusion
Planifier la migration des applications d entreprise dans le nuage
TM Planifier la migration des applications d entreprise dans le nuage Guide de vos options de migration : nuage privé et public, critères d évaluation des applications et meilleures pratiques de migration
Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION
Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION Classe de terminale de la série Sciences et Technologie du Management et de la Gestion Préambule Présentation Les technologies de l information
Chapitre 4: Introduction au Cloud computing
Virtualisation et Cloud Computing Chapitre 4: Introduction au Cloud computing L'évolution d'internet Virt. & Cloud 12/13 2 Définition Le cloud computing est une technologie permettant de délocaliser les
FORUM NTIC BIG DATA, OPEN DATA Big Data: les challenges, les défis
FORUM NTIC BIG DATA, OPEN DATA Big Data: les challenges, les défis Joseph Salmon Télécom ParisTech Jeudi 6 Février Joseph Salmon (Télécom ParisTech) Big Data Jeudi 6 Février 1 / 18 Agenda Contexte et opportunités
Les bases de données relationnelles
Bases de données NO SQL et SIG : d un existant restreint à un avenir prometteur CHRISTIAN CAROLIN, AXES CONSEIL [email protected] - HTTP://WWW.AXES.FR Les bases de données relationnelles constituent désormais
Introduction. Les articles de la presse spécialisée tendent à nous laisser penser que c est en effet le cas :
Introduction Le CRM se porte-t-il si mal? Les articles de la presse spécialisée tendent à nous laisser penser que c est en effet le cas : «75 % de projets non aboutis» «La déception du CRM» «Le CRM : des
Le Big Data est-il polluant? BILLET. Big Data, la déferlante des octets VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE TERRE (/TERRE)
Donner du sens à la science Rechercher Se connecter / S'inscrire Suivre VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE MES THÈMES Types DOSSIER Paru le 15.11.2012 Mis à jour le 29.01.2014 Big Data, la
FAMILLE EMC RECOVERPOINT
FAMILLE EMC RECOVERPOINT Solution économique de protection des données et de reprise après sinistre en local et à distance Avantages clés Optimiser la protection des données et la reprise après sinistre
