SGBD et aide à la décision, Gestion des données, Big Data...



Documents pareils
SGBD et aide à la décision, Aide à la décision

Le "tout fichier" Le besoin de centraliser les traitements des fichiers. Maitriser les bases de données. Historique

Les participants repartiront de cette formation en ayant une vision claire de la stratégie et de l éventuelle mise en œuvre d un Big Data.

Chapitre 9 : Informatique décisionnelle

AXIAD Conseil pour décider en toute intelligence

CATALOGUE DE FORMATIONS BUSINESS INTELLIGENCE. Edition 2012

Business Intelligence : Informatique Décisionnelle

Entrepôt de données 1. Introduction

Nos Solutions PME VIPDev sont les Atouts Business de votre entreprise.

Introduction Big Data

et les Systèmes Multidimensionnels

Introduction à la B.I. Avec SQL Server 2008

Titre : La BI vue par l intégrateur Orange

SQL Server 2012 Implémentation d'une solution de Business Intelligence (Sql Server, Analysis Services...)

Méthodologie de conceptualisation BI

Les Entrepôts de Données. (Data Warehouses)

Business Intelligence avec SQL Server 2012

Un datawarehouse est un entrepôt de données (une base de données) qui se caractérise par des données :

Inscriptions : Renseignements : 33 (0) education.france@sap.com

BI Open Source Octobre Alioune Dia, Consultant BI

Théories de la Business Intelligence

Licence Professionnelle en Statistique et Informatique Décisionnelle (S.I.D.)

Business Intelligence avec SQL Server 2012

Les Entrepôts de Données

Didier MOUNIEN Samantha MOINEAUX

Urbanisme du Système d Information et EAI

Introduction au domaine du décisionnel et aux data warehouses

Catalogue Formation «Vanilla»

Intelligence Economique - Business Intelligence

Introduction. Informatique décisionnelle et data mining. Data mining (fouille de données) Cours/TP partagés. Information du cours

BI = Business Intelligence Master Data-ScienceCours 3 - Data

BUSINESS INTELLIGENCE. Une vision cockpit : utilité et apport pour l'entreprise

La problématique. La philosophie ' ) * )

CQP ADMINISTRATEUR DE BASES DE DONNÉES (ABD)

Panorama des solutions analytiques existantes

SQL SERVER 2008, BUSINESS INTELLIGENCE

Plan. Introduction Eléments de la théorie des systèmes d'informations Les entrepôts de données (Datawarehouse) Les datamart Architecture Modélisation

La Geo-Business Intelligence selon GALIGEO avec 26/10/2005 1

Formation continue. Ensae-Ensai Formation Continue (Cepe)

Business Intelligence avec SQL Server 2014 Maîtrisez les concepts et réalisez un système décisionnel

En synthèse. HVR pour garantir les échanges sensibles de l'entreprise

Catalogue des Formations

Agenda de la présentation

BUSINESS INTELLIGENCE

L information et la technologie de l informationl

LES ENTREPOTS DE DONNEES

Business Intelligence, Etat de l art et perspectives. ICAM JP Gouigoux 10/2012

ÉCONOMIE ET GESTION LYCÉES TECHNOLOGIQUE ET PROFESSIONNEL

PROGICIELS DE GESTION INTÉGRÉS SOLUTIONS DE REPORTING

Architecture d'entreprise : Guide Pratique de l'architecture Logique

Prestations d audit et de conseil 2015

Les nouvelles architectures des SI : Etat de l Art

Business Intelligence avec SQL Server 2012 Maîtrisez les concepts et réalisez un système décisionnel

BI2B est un cabinet de conseil expert en Corporate Performance Management QUI SOMMES-NOUS?

Objectif. Participant. Prérequis. Oracle BI Suite EE 10g R3 - Développer des référentiels. 5 Jours [35 Heures]

Evry - M2 MIAGE Entrepôt de données

HADOOP ET SON ÉCOSYSTÈME

Surmonter les 5 défis opérationnels du Big Data

20 ans du Master SIAD de Toulouse - BigData par l exemple - Julien DULOUT - 22 mars ans du SIAD -"Big Data par l'exemple" -Julien DULOUT

BI = Business Intelligence Master Data-Science

Livret de Stages 2014 / 2015

Labs Hadoop Février 2013

Alphonse Carlier, Intelligence Économique et Knowledge Management, AFNOR Éditions, 2012.

1 er Avril 2015 Data Science & Big Data Etat de l art Donner plus d intelligence aux données

Conseil et Ingénierie des Systèmes d Information d Entreprise

International Master of Science en Business Intelligence

Urbanisation des SI-NFE107

Le terme «ERP» provient du nom de la méthode MRP (Manufacturing Ressource Planning) utilisée dans les années 70 pour la gestion et la planification

Management des SI, Gouvernance de la DSI

Business & High Technology

Big Data. Concept et perspectives : la réalité derrière le "buzz"

L INTÉGRATION ENTRE BUSINESS INTELLIGENCE ET WEB ANALYTICS

GENIE STATISTIQUE GESTION DES RISQUES ET INGENIERIE FINANCIERE MARKETING QUANTITATIF ET REVENUE MANAGEMENT

Stratégie et Vision de SAP pour le secteur Banque- Assurance: Data-Management, BI, Mobilité

Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données

La place de la Géomatique Décisionnelle dans le processus de décision

Document d accompagnement pour le référentiel national du C2i niveau 2 Métiers de l environnement et de l aménagement durables

INTRODUCTION A LA B.I AVEC PENTAHO BUSINESS ANALYTICS Formation animée par

BI CONSULTING. Présentation de l offre. Mai La Synthèse et le Pilotage en réponse aux besoins des métiers

Fournir un accès rapide à nos données : agréger au préalable nos données permet de faire nos requêtes beaucoup plus rapidement

Système d Information Géographique (SIG) : quels apports dans les métiers de l assurance?

QU EST-CE QUE LE DECISIONNEL?

Le 09 et 10 Décembre 09

Conduite de projets informatiques Développement, analyse et pilotage (2ième édition)

Analyse comparative entre différents outils de BI (Business Intelligence) :

ANTICIPEZ ET PRENEZ LES BONNES DÉCISIONS POUR VOTRE ENTREPRISE

Petit Déjeuner Pépinière du Logiciel Libre. 25 juin 2008

CATALOGUE DE FORMATIONS BUSINESS INTELLIGENCE. Edition 2014

Les entrepôts de données

Programme scientifique Majeure ARCHITECTURE DES SYSTEMES D INFORMATION. Mentions Ingénierie des Systèmes d Information Business Intelligence

Notre Catalogue des Formations IT / 2015

CQP Développeur Nouvelles Technologies (DNT)

Plan d études du CAS SMSI Volée 2014

Les tableaux de bord de pilotage de nouvelle génération. Copyright PRELYTIS

Groupe Eyrolles, 2004 ISBN :

Annuaires LDAP et méta-annuaires

Transcription:

SGBD et aide à la décision, Gestion des données, Big Data... Les données sont au cœur du système d'information. L'efficience de leur organisation et de leur exploitation est une préoccupation majeure pour le développement de l'entreprise. A l'heure de la Business Intelligence, du Big Data, du géomarketing, du Data Mining,... les enjeux deviennent multiples et d'importance croissante. Vision d'ensemble, expertise métier et compréhension des solutions techniques sont des clés essentielles. C'est pourquoi Orsys vous propose des séminaires et stages de synthèse, issus de l'expérience de nos consultants formateurs, pour faire le point sur les technologies et les meilleures pratiques du domaine. Séminaires Systèmes décisionnels, démarche et solutions... Best ( p3 ) Exploiter les données des réseaux sociaux avec la Business Intelligence... ( p9 ) Data Mining, synthèse... ( p12 ) Géomarketing, principes et solutions... ( p16 ) Big Data, synthèse... Best ( p19 ) Open Data, maîtriser les enjeux et les moyens... ( p21 ) Stockage de données, état de l'art et perspectives... ( p22 ) Réseaux de stockage, SAN/NAS... Best ( p23 ) Bases de données NoSQL, enjeux et solutions... Best ( p25 ) Cours de synthèse Construire un Data Warehouse... Best ( p5 ) Master Data Management, la gouvernance des données... ( p10 ) Stages pratiques Cycle certifiant Data Scientist... Nouveau ( p2 ) Modélisation en étoile, conception et mise en œuvre... Best ( p7 ) Statistiques, maîtriser les fondamentaux... ( p14 ) Big Data, méthodes et solutions pratiques pour l'analyse des données... Best ( p17 ) Bases de données, modélisation et choix techniques... Best ( p27 ) PowerAMC, concevoir une base de données... ( p29 ) Conception d'une base de données avec Oracle Data Modeler... ( p31 ) UML 2, modéliser et créer vos bases de données... ( p33 ) Bases de données et langage SQL pour non-informaticiens... Best ( p34 ) ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 1

Stage pratique de 12 jour(s) Réf : KDS Data Miner, Data Scientist, analyste, responsable de reporting décisionnel, statisticien, tout acteur ayant à consolider et faire valider ses connaissances pour être reconnu Data Scientist. Connaissances de base en mathématiques / logique (cumul, pourcentage, fonctions conditionnelles). Cycle certifiant Data Scientist Nouveau La "science des données" nécessite des compétences spécifiques afin de prévoir le comportement des clients ou anticiper des tendances. Ce cycle Data Scientist vous apportera les meilleures pratiques en vigueur, et vous permettra de mettre en œuvre les méthodes et outils destinés à "faire parler les données". OBJECTIFS PEDAGOGIQUES Comprendre le rôle stratégique des données dans l'entreprise et savoir maîtriser leur qualité Comprendre et mettre en pratique l'essentiel des modèles statistiques Mettre en pratique les techniques de modélisation du Data Mining Maîtriser les outils et pratiques d'analyse des données propres au Big Data 1) Présentation de la gouvernance des données 2) L'essentiel des modèles statistiques 3) Data Mining, extraction de connaissances à partir de données brutes 4) Big Data, analyse des données massives 1) Présentation de la gouvernance des données - Rôle stratégique des données pour l'entreprise. - Etat des lieux sur la qualité des données. Définition des notions "Donnée" et "Information". - Evaluer la qualité des données des entreprises. Réconciliation des données. - Contrôle de qualité et bonnes pratiques. - Cycle de vie des données : archivage de base de données. Confidentialité des données. - Présentation des offres de MDM. Arriver à un consensus sur la qualité des données. Lien qualité des données et solvabilité II. 2) L'essentiel des modèles statistiques - Fondamentaux de la statistique descriptive. - Démarche et modélisation d'une analyse statistique. - Paramètre de position et de dispersion. - Analyses prédictives : mise en place d'un modèle de régression linéaire. - Tests et intervalle de confiance. Valider la précision d'une estimation. - Panorama des outils (R, SAS...). Etude d'une population et dimensionnement d'un échantillon. Modélisation statistique d'un phénomène. Calcul de paramètres de position et de dispersion sur différents échantillonnages. 3) Data Mining, extraction de connaissances à partir de données brutes - Définition et finalité du Data Mining (DM). - Les méthodes prédictives et descriptives. Les arbres de décisions. Les réseaux de neurones. - La méthode descriptive du clustering. - Exemples d'application du DM : le scoring, le géomarketing. - Méthodologie de projet. Les outils du marché. Présentation d'applications du clustering. Mise en œuvre de la méthode de scoring. Cas pratique d'utilisation de géomarketing. 4) Big Data, analyse des données massives - Origines et définition du Big Data : la BI face à la croissance et à la diversité des données. - Les technologies du Big Data. - Gérer les données structurées et non structurées. - Les méthodes d'analyse des données pour le Big Data. - Data visualisation et cas d'usage concrets. Installation d'une plateforme Big Data. Talend For Big Data, implémentation de flux de données. Mise en place d'analyses avec le logiciel R. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 2

Séminaire de 3 jour(s) Réf : SID Responsables informatiques, responsables des études, architectes SI, consultants et chefs de projet décisionnel, autres chefs de projets fonctionnels et techniques. Aucune connaissance particulière. Prix 2015 : 2610 HT 8 sep. 2015, 24 nov. 2015 Systèmes décisionnels, démarche et solutions Best Comment élaborer un SI Décisionnel (SID) global performant, réactif et rentable? Comment exploiter au mieux les informations du datawarehouse? Comprendre le virage du Big Data et ses impacts sur le SID. Quelle dose de BI découverte ou de décisionnel opérationnel? Quel niveau qualité? Comment intégrer les nouvelles architectures NoSQL? Comment faire du décisionnel un centre de valeur? Quelle organisation pour les équipes et les données? Basé sur un ensemble de bonnes pratiques, ce séminaire présente une démarche complète, les solutions adéquates et les enjeux à chacune de ces étapes. OBJECTIFS PEDAGOGIQUES Comprendre la valeur ajoutée, les enjeux et les principes des systèmes décisionnels Percevoir le rôle fondamental de la modélisation des informations dans la conception d'un SID Mettre en œuvre une démarche pour concevoir un référentiel des données d'entreprise Ajuster le Système d'information Décisionnel pour le rendre plus performant Suivre pas à pas les étapes pour piloter son projet SID Faire les bons choix d'outils en ayant un panorama global du marché 1) Finalité et principes des SID 2) Démarche de conception du SID 3) Construire les référentiels 4) Optimiser l'accès aux données 5) Mesurer les performances du SID 6) Mise en production et fiabilisation d'un SID 7) Etat de l'art des outils décisionnels 8) Opportunité et création de valeur pour l'entreprise 9) Organisation d'un projet SID Exemple Un exemple complet de mise en œuvre d'un système d'information décisionnel sera traité. 1) Finalité et principes des SID - Positionnement du SID par rapport au SIO (Système d'information Opérationnel). - Les grandes évolutions du décisionnel. - Les nouveaux enjeux : valorisation de l'information, corrélation rapide. Les besoins des directions générales. - L'architecture d'organisation des données. - Les choix stratégiques d'architecture : fonctionnelle et technique. - Le rôle fondamental de la modélisation des informations et sa réussite. 2) Démarche de conception du SID - La typologie des demandes sur un SID. - Déterminer le processus de conception adapté aux besoins exprimés et aux différentes restitutions à produire. - Comment passer de datamarts en silo à un système décisionnel partagé? - Cohérence des modèles en étoile : multidimensionnel et relationnel. Analyse en mémoire contre modèle en étoile. - Modèle en vecteur pour l'analyse du comportement client (ou autre). - Eviter le foisonnement d'agrégats et d'indicateurs en réutilisant les développements. Etude de cas Proposer une démarche de conception à partir de besoins d'analyse exprimés. 3) Construire les référentiels - Comment faciliter l'accès aux informations? Réconcilier MOA, MOE autour du référentiel. - Construire le référentiel d'entreprise. Les dimensions d'analyse et les indicateurs partageables. - Construire une architecture couvrant toutes les étapes, du pilotage à l'analyse des comportements. - Construire les dictionnaires pour le SID, utiliser les métadonnées pour gérer la cohérence. Etude de cas Déploiement des méthodes proposées sur des exemples. 4) Optimiser l'accès aux données - Comment répondre aux besoins et définir les réponses informatiques optimales? - Le multidimensionnel, ROLAP, MOLAP ou Hybride : les critères de choix, les évolutions futures. - Résoudre les problèmes de volumétrie. - Couvrir un besoin avec plusieurs cubes multidimensionnels. - Gérer la montée en puissance de la solution multidimensionnelle. - Appliquer une normalisation décisionnelle à vos modèles en étoile. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 3

5) Mesurer les performances du SID - Comment mettre le SID en adéquation avec la stratégie de l'entreprise? - Urbaniser le SID pour éviter le foisonnement des traitements et identifier les zones éligibles au Cloud Computing. - Définir les critères d'efficacité d'un SID. - Une démarche d'urbanisation d'un SID pour relier l'efficacité aux moyens mis en œuvre. - Quantifier la valeur ajoutée du décisionnel. Mesurer la performance du SID. 6) Mise en production et fiabilisation d'un SID - Avoir la vision complète de son décisionnel. - Construire un plan de production informatique pour son SID. - Check-list des recommandations. - Industrialiser des cubes multidimensionnels. - Comment garantir la fiabilité des données et des informations? - Mettre en place le processus de la gestion de la qualité. - Définir les contrôles qualité minimum. Définir le phasing des contrôles. 7) Etat de l'art des outils décisionnels - Panorama des suites décisionnelles : SAS, Microsoft suite BI, SAP Business Objects... - Intégration d'un ETL. Outils multidimensionnels. Déploiement Web. - Les outils Open Source : Pentaho, Jaspersoft... - Temps réel. Big Data. BD NoSQL. - Analyse en mémoire. BD vectorielle et leur modélisation. QlikView. - Positionnement de HADOOP dans l'analyse du comportement client. - Comment intégrer les nouvelles architectures dans le SID existant? 8) Opportunité et création de valeur pour l'entreprise - Comment évaluer la valeur ajoutée pour l'entreprise? - Gérer son portefeuille de projets. Quel projet pilote choisir? - Prioriser vos projets décisionnels. Critères de lotissement d'un projet décisionnel. - Les spécificités de la recette d'un projet décisionnel en particulier pour le multidimensionnel. - Les techniques d'analyse de besoin en décisionnel, les pièges à éviter. - Comment évaluer la complexité, la maturité des besoins? - Comment conduire le passage de l'infocentre, du décisionnel éparpillé au SID? 9) Organisation d'un projet SID - Les différents acteurs et leurs rôles respectifs. La relation MOA-MOE. - Positionner le décisionnel au sein de l'entreprise. - L'organisation pour exploiter au mieux son SID : centralisée ou décentralisée. - Préserver l'autonomie des utilisateurs. Gérer la réactivité. - Administrer les différents composants du système d'information décisionnel. - Gestion des compétences sur le projet : compétences clés, compétences externalisables. - Organiser un centre de compétences décisionnelles. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 4

Cours de synthèse de 3 jour(s) Réf : DAW Responsables Infocentre, responsables informatiques, responsables des études, architectes de systèmes d'information, chefs de projets fonctionnels et techniques. Bonnes connaissances en gestion de bases de données. Connaissances de base en analyse décisionnelle. Prix 2015 : 2190 HT 29 sep. 2015, 1 déc. 2015 Construire un Data Warehouse qualité des données et performance du SI décisionnel Best Le Data Warehouse est au coeur de l'analyse décisionnelle. Au travers d'une démarche structurée et pragmatique, vous découvrirez les meilleures méthodes et outils pour élaborer un entrepôt de données, à partir des besoins métier, l'alimenter et le rendre fiable et évolutif. Vous découvrirez également quels sont les rôles clés dans ce type de projet, et quel est l'impact sur l'architecture SI et la qualité du référentiel de données d'entreprise. Un séminaire centré sur l'expérience pratique qui vous donnera aussi une première approche de la modélisation " en étoile ". OBJECTIFS PEDAGOGIQUES Comprendre les enjeux stratégiques d'un SI décisionnel et ses avantages Repérer les différentes couches de l'organisation d'un système décisionnel Modéliser Data Warehouse au coeur du système décisionnel Identifier les étapes essentielles dans la démarche de construction d'un Data Warehouse Maitriser les rôles et les livrables sur un projet de construction de Data Warehouse Avoir une vue complète et synthétique des solutions BI du marché 1) Le Data Warehouse, finalité et principes 2) L'architecture d'un SI décisionnel d'entreprise 3) Les principes de la modélisation Data Warehouse 4) La démarche de construction d'un Data Warehouse 5) Organisation du projet, les acteurs et les livrables 6) Les outils dans le domaine du décisionnel 7) Synthèse 1) Le Data Warehouse, finalité et principes - Les enjeux stratégiques d'un SI décisionnel - Les raisons techniques et culturelles qui conduisent au Data Warehouse. - Définition du Data Warehouse selon Bill Inmon. - Les solutions apportées par l'architecture technique et fonctionnelle du Data Warehouse. - Caractéristiques des données du SI décisionnel - L'Infocentre et le SI décisionnel. - Présentation des différentes approches Data Warehouse et Infocentre, leurs avantages et inconvénients. 2) L'architecture d'un SI décisionnel d'entreprise - Les différentes couches de l'organisation d'un Data Warehouse. - La collecte et l'intégration des données. - L'operational Data Store et la Data Staging area. - La couche de présentation, le portail décisionnel. - Les moteurs d'analyse OLAP : (MOLAP) et/ou relationnel OLAP (ROLAP). - Les techniques d'analyse "Data Mining" : méthodes prédictives, méthodes descriptives. - Croissance du volume et de la nature des données, les enjeux du Big Data. - La documentation des données du DW : notions de référentiel de données. - Comment le DW fiabilise la gestion du référentiel de données (MDM). - La gestion des flux : la capture des données sources, les règles de transformation. Exemple Présentation d'exemples de projets d'analyse décisionnelle divers. 3) Les principes de la modélisation Data Warehouse - Les modèles relationnels opérationnels et dénormalisés. - Les modèles hybrides. - Les modèles génériques. - Comprendre le modèle en étoile, sa finalité. - Comprendre les notions de faits et d'analyse. Les hiérarchies d'axe d'analyse. - Le modèle en flocon. - La problématique des dimensions à évolution. - Gestion des agrégats et de la stabilité du périmètre fonctionnel. - Quelle approche favorise les informations de détail ou les agrégats? Bonnes pratiques, questions à poser au métier. Réflexion collective Construction collective et enrichissement d'un modèle de données en étoile, suivant plusieurs études de cas données. Elaboration du questionnement a proposer pour recueillir le besoin utilisateur. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 5

4) La démarche de construction d'un Data Warehouse - Identifier le périmètre fonctionnel candidat. Déterminer l'objectif et les événements de gestion à suivre. - Estimer la volumétrie du périmètre. - Analyse fonctionnelle, recueil des besoins utilisateurs. - Conception de l'architecture technique détaillée. - Etablir une démarche générique de mise en oeuvre. - Les apports d'une démarche itérative, le contenu d'une itération. - Première itération ou projet pilote, bien le choisir. Rôle du sponsor, de la MOA, de la MOE, impact sur l'organisation. - L'administration et le suivi de la solution opérationnelle. Echanges Présentation de la démarche de conception d'un périmètre fonctionnel du Data Warehouse. 5) Organisation du projet, les acteurs et les livrables - Le rôle fondamental du sponsor ou promoteur. - Le comité de pilotage. - Rôle de l'équipe fonctionnelle, du groupe de projet utilisateurs : valider le design de l'environnement utilisateur. - Le transfert de compétences vers les utilisateurs finaux par l'équipe fonctionnelle : formation et documentation. - L'équipe technique, les architectes. - Les principaux livrables d'un projet décisionnel. Echanges Présentation des livrables et de leur responsable suivant les étapes de la démarche. 6) Les outils dans le domaine du décisionnel - Les dernières évolutions techniques des SGBDR dans le domaine du décisionnel. - Panorama et typologie des solutions BI du marché. Les offres en mode Saas. - Les solutions de Reporting : SSRS, IBM Cognos, SAS, BusinessObjects... La mise en œuvre des outils de requête. - Les outils d'analyse OLAP côté serveur et côté client : Utilisation, évolutivité, approche DataMart, temps de réponse. - Les solutions d'analyse Data Mining : SAS Enterprise Miner, IBM, OBI Datamining. Exigences et points forts. - Les solutions ETL : IBM, Informatica, Oracle, SAP, Talend.. - Les outils de modélisation relationnelle : possibilités et limites. Exemple Présentation des possibilités de divers outils BI. 7) Synthèse - Les tendances d'évolution des systèmes décisionnels. - Bonnes pratiques pour la modélisation. - Recommandations pour l'organisation du projet Data Warehouse. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 6

Stage pratique de 3 jour(s) Réf : AMT Maîtres d'ouvrage et maîtres d'œuvre, responsables des systèmes décisionnels, responsables informatiques, responsables des études, architectes de systèmes d'information, chefs de projets. Connaissances de base de l'analyse décisionnelle et des SGBD relationnelles. Prix 2015 : 1795 HT 5 oct. 2015, 7 déc. 2015 Aix 21 sep. 2015, 16 nov. 2015 Bordeaux 19 oct. 2015, 14 déc. 2015 Bruxelles 19 oct. 2015, 14 déc. 2015 Geneve 19 oct. 2015, 14 déc. 2015 Grenoble 21 sep. 2015, 16 nov. 2015 Lille 21 sep. 2015, 16 nov. 2015 Luxembourg 19 oct. 2015, 14 déc. 2015 Lyon 21 sep. 2015, 16 nov. 2015 Montpellier 21 sep. 2015, 16 nov. 2015 Nantes 19 oct. 2015, 14 déc. 2015 Rennes 19 oct. 2015, 14 déc. 2015 Sophia-antipolis 21 sep. 2015, 16 nov. 2015 Strasbourg 21 sep. 2015, 16 nov. 2015 Toulouse 19 oct. 2015, 14 déc. 2015 Modélisation en étoile, conception et mise en œuvre Best Ce cours, construit autour de nombreux cas pratiques, vous donnera une idée précise de la démarche de modélisation en étoile dans le cadre du projet Data Warehouse. Vous verrez pourquoi elle est l'expression même du besoin de la maîtrise d'ouvrage et comment elle permet de faire converger la vision des opérationnels, des analystes et des pilotes sur les activités de l'entreprise. OBJECTIFS PEDAGOGIQUES Conduire des interviews pour recueillir les besoins d'analyse auprès des métiers Définir les critères de qualité d'un Data Warehouse A partir d'un cahier des charges d'analyse, identifier les dimensions et les faits à placer dans le modèle Concevoir et décrire un macro-modèle en étoile Optimiser le modèle en étoile en vue de la prise en compte de la volumétrie et des problématiques de reporting Décrire une architecture de chargement des données dans le modèle en étoile décrit 1) Introduction et rappels 2) Les architectures en réponse aux besoins décisionnels 3) Principes et définitions de base sur la modélisation en étoile 4) Conception du modèle en étoile 5) Optimisation fonctionnelle du modèle en étoile 1) Introduction et rappels - Qu'est-ce qu'un système d'information décisionnel? - Evolution des exigences de décision dans le contexte actuel. - Infocentres, SIAD, EIS, Data Warehouse, définition et positionnement. - Comprendre la finalité de l'approche Data Warehouse. 2) Les architectures en réponse aux besoins décisionnels - Les composants principaux, Data Warehouse, ODS ou "staging area", datamarts. - Les architectures proposées par Kimball et Inmon. Avantages et inconvénients. - Positionnement du modèle en étoile dans le Data Warehouse selon l'architecture. - Les phases du cycle de vie d'un Data Warehouse. - Les critères de qualité d'un Data Warehouse. - La notion de métadonnée, de référentiel. Réflexion collective Définition des critères de qualité d'un Data Warehouse. 6) Replacer la modélisation dans le cadre du projet décisionnel 7) Optimisation physique du modèle 8) Alimentation du modèle en étoile 9) Restitution des informations d'un modèle en étoile 10) Conclusion 3) Principes et définitions de base sur la modélisation en étoile - Rappels sur la modélisation des bases de données opérationnelles. - Différences entre OLTP et OLAP. - Entités, attributs, cardinalités, formes normales. - Le principe de la dénormalisation pour concevoir un modèle en étoile. - Comprendre les notions de fait, dimension et axe d'analyse. - Les alternatives de modélisation : modèle en flocon, en galaxie. - Les règles et bonnes pratiques de modélisation en étoile. Proposition alternative de Kortink et Moody. Etude de cas A partir d'un cahier des charges d'analyse, identifier les dimensions et faits principaux d'un modèle. 4) Conception du modèle en étoile - Organisation et synthèse des interviews utilisateur pour le recueil du besoin. - Compréhension et identification des processus métiers à modéliser. - Choix des dimensions d'analyse. - Création de hiérarchies dans les dimensions. - Identification des mesures et croisements avec les dimensions. - Définition de la granularité de l'analyse. - Définition des règles d'agrégation. - Utilisation d'outils de modélisation. A partir d'objectifs fournis par la MOA, réaliser un macro-modèle, en reliant les dimensions. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 7

5) Optimisation fonctionnelle du modèle en étoile - Gestion de l'évolution des référentiels et du changement des nomenclatures. - Gestion des dimensions à évolution lente et rapide. - Les clés de substitution. - Gestion de la qualité, fiabilité des données. - Gestion du contexte non renseigné ou inconnu. - Les dimensions dégénérées. Echanges Décrire l'impact d'un changement donné à partir d'un modèle proposé. Optimisation du modèle pour son évolution. 6) Replacer la modélisation dans le cadre du projet décisionnel - Présentation de la méthode Kimball et Inmon pour l'organisation du projet. - Les acteurs et livrables du projet. - Recueil des besoins métier. Formalisation des exigences techniques et d'organisation. - Identification des priorités et du périmètre pilote. - Modélisation des informations. - Choix de l'infrastructure. Implémentation et recette. - Déploiement et maintenance du modèle. - Gestion des historiques. Jeu de rôle Conduite d'interview de recueil de besoin pour l'analyse. 7) Optimisation physique du modèle - Gestion de la performance des requêtes. - Estimation de l'espace disque requis pour le modèle. - Limitation de la taille occupée par une dimension. - Agrégation directe de certains éléments dans les tables. - Dimensions techniques pour assurer la traçabilité des faits. Estimations de volumétrie moyenne sur quelques cas d'analyse. 8) Alimentation du modèle en étoile - Contraintes des systèmes opérationnels sources. - Rôle des ODS dans l'alimentation. - L'organisation des traitements dans la DSA (Data Staging Area). - Les différents types d'alimentation (delta, stock, complète). - Les étapes, les règles et les prérequis de l'alimentation. - Gestion des rejets. - Gestion des sources différentes pour l'alimentation d'une dimension ou d'un fait. - ETL, les solutions d'alimentation disponibles sur le marché. Sur une étude de cas, proposer une architecture de chargement : ODS / Staging Area. 9) Restitution des informations d'un modèle en étoile - Les différents types d'outils au service de la restitution. - Le marché des outils de restitution. - Optimisation du modèle pour l'exploration des données. - Optimisation des index. - Utilisation du partitionnement des tables. Echanges Présentation de bonnes pratiques pour optimiser le modèle en vue du reporting. 10) Conclusion - Ce qu'il faut retenir. - Les pièges à éviter. - Pour aller plus loin. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 8

Séminaire de 2 jour(s) Réf : BIM Directeurs marketing, directeurs du digital, DSI, responsables organisation ou études, chefs de projet fonctionnel, responsables Business Intelligence. Aucune connaissance particulière. Prix 2015 : 1900 HT Exploiter les données des réseaux sociaux avec la Business Intelligence le Social Media Marketing La communication d'entreprise ne peut négliger les données présentes sur les réseaux sociaux ni son image. La démarche de «Social media Marketing» propose d'exploiter ces données grâce aux outils BI. Ce séminaire vous présentera les bonnes pratiques pour définir et mettre en œuvre une telle démarche. OBJECTIFS PEDAGOGIQUES Comprendre les changements et les enjeux du Social Business Savoir cadrer une stratégie BI pour le Social Business Connaître les étapes clés de mise en oeuvre de la BI pour le Social Media Savoir mesurer la performance de cette stratégie 8 oct. 2015, 10 déc. 2015 1) Comprendre les enjeux du Social Business 2) Cadrer la stratégie de Business Intelligence pour le Social Business 3) Mettre en œuvre la stratégie BI pour le Social Business 4) Cas concret d'usage de KPI et tableaux de bord Social Business 1) Comprendre les enjeux du Social Business - Compréhension et définition des médias sociaux, Social CRM, Social Analytics. - Panoramas et chiffres clés du Social Business dans le monde et en France. - Analyse du contexte : de la relation à l'interaction Web via des technologies complexes. - Evolutions et impacts sur le Social Business. - Typologies d'usages du Social Business dans les entreprises. - Les enjeux du Social Business : image, trafic, conversion et fidélisation. Les enjeux de son pilotage. 2) Cadrer la stratégie de Business Intelligence pour le Social Business - Les facteurs clés du succès de la Business Intelligence pour le Social Business. - Les principaux risques à éviter sur les objectifs, l'apport de valeur, l'organisation, les impacts IT, l'implication. - Les principales étapes et la méthodologie. - Diagnostiquer la maturité dans l'entreprise et le changement. - Définir les objectifs métiers et les usages cibles. - Piloter la stratégie et mettre en place une organisation adaptée. - Construire un plan de veille technologique. - Respecter la réglementation (vie privée, CNIL). 3) Mettre en œuvre la stratégie BI pour le Social Business - Définir la tactique en mode intégré ou spécifique. - Etablir la méthode de benchmark des solutions. - Vue d'ensemble de l'approche intégrée et des solutions du marché. - Vue d'ensemble de l'approche spécifique, de ses avantages et des contraintes. - Mettre en œuvre de manière agile l'approche retenue. - Maintenir et optimiser la stratégie. 4) Cas concret d'usage de KPI et tableaux de bord Social Business - Mesurer l'e-réputation et la notoriété de sa marque. - Mesurer le ROI des influenceurs et l'efficacité des programmes Social Business. - Optimiser le ROI des campagnes marketing. - Identifier l'apport de valeur ajoutée des différents canaux digitaux. - Mesurer l'impact des médias sociaux sur le cycle et le processus de vente des produits ou services. - Mesurer l'expérience et la satisfaction client, optimiser le parcours client. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 9

Cours de synthèse de 2 jour(s) Réf : CYE Toute personne qui doit mettre en place ou comprendre la qualité et la pertinence des données d'une entreprise. Aucune connaissance particulière. Master Data Management, la gouvernance des données Les enjeux concurrentiels et la nécessité accrue de transparence sur les données impose de disposer d'un référentiel de données maitrisé et de qualité. C'est toute la finalité du MDM, Master Data Management. Ce séminaire vous présentera les enjeux liés à la qualité des données de l'entreprise et à leur gestion. OBJECTIFS PEDAGOGIQUES Comprendre le rôle stratégique de la gestion des données pour l'entreprise. Découvrir la notion de "qualité des données" et son évaluation Identifier toutes phases d'un processus de gestion de la qualité des données. Connaitre les bonnes pratiques en matière de contrôle de qualité des données Savoir identifier les différents acteurs du MDM et leur positionnement Prix 2015 : 1690 HT 24 sep. 2015, 10 déc. 2015 Bruxelles 10 sep. 2015 1) Introduction 2) Processus d'évaluation de la qualité des données 3) Processus de gestion de la qualité des données 1) Introduction - Définition de la qualité. - Rôle stratégique des données pour l'entreprise. - Les différentes sources de données de l'entreprise. - Les différentes formes d'exploitation de données. - Système d'information opérationnel. - Système d'information décisionnel. - Architectures : Relationelle, NoSQL ou BigData. - Etat des lieux sur la qualité des données. 4) Contrôle de qualité et bonnes pratiques 5) Cycle de vie des données 6) Présentation des offres de MDM Echanges Echanges sur le rôle stratégique des données pour l'entreprise. 2) Processus d'évaluation de la qualité des données - Définition des notions "Donnée" et "Information". - Définition de la notion. - Différences entre "données" et " information". - Définition de "qualité des données". - Evaluer la qualité des données des entreprises. - Niveau d'approche et de granularité. - Réconciliation des données. Echanges Arriver à un consensus sur la qualité des données. 3) Processus de gestion de la qualité des données - Processus de gestion de la qualité des données. - Collecte des données. - Stockage des données. - Exploitation des données. - Audit de la qualité. - Identification des données de faible qualité. - Traitement des données de faible qualité. - Gestion de la qualité des données. Réflexion collective Présentation des données d'une entreprise. Analyse. 4) Contrôle de qualité et bonnes pratiques - Définition de bonnes pratiques. - Une approche centralisée de la qualité des données. - Types de contrôles de qualité des données. - Processus d'évaluation de la qualité des données. - Processus d'évaluation des utilisateurs. - Audits et suivis. Echanges Lien qualité des données et solvabilité II. Importance de la qualité des données. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 10

5) Cycle de vie des données - Volume de données. - Archivage de base de données. - Gestion des données de test. - Confidentialité des données. - Retrait d'applications. Réflexion collective Echanges sur la gestion des données et leur cycle de vie. 6) Présentation des offres de MDM - Informatica Data Quality / MDM. - L'offre IBM MDM. - SAP Business Object Data Quality. - MDM Microsoft. - Talend MDM. Echanges Echanges sur les différentes offres présentés. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 11

Séminaire de 2 jour(s) Réf : DMI Responsables Infocentre, responsables marketing, statisticiens, responsables informatiques, chefs de projets et experts décisionnels. Utilisateurs et gestionnaires métiers de bases de données. Connaissances de base en analyse décisionnelle. Connaissances de base en statistiques. Prix 2015 : 1900 HT 8 oct. 2015, 10 déc. 2015 Data Mining, synthèse Le Data Mining apporte des solutions pour l'extraction de connaissances à partir de données brutes. Ce séminaire, alliant principes théoriques et expériences pratiques, vous propose une synthèse sur le Data Mining, ses applications, ses apports pour l'entreprise, ainsi que sur les méthodes et outils les plus utilisés. OBJECTIFS PEDAGOGIQUES Comprendre les principes et la finalité du Data Mining (DM) Identifier les principales techniques du DM et leur cas d'utilisation Mettre en oeuvre sur un cas simple les méthodes de scoring et de geomarketing Découvrir les méthodes prédictives et les méthodes descriptives du DM Connaitre les principales étapes d'un projet Data Mining 1) Le Système d'information Décisionnel (SID) 2) Comprendre le Data Mining (DM) 3) Les techniques du Data Mining 4) La méthode descriptive du Clustering 1) Le Système d'information Décisionnel (SID) 5) Exemples d'application du DM 6) Les données de l'entreprise 7) Méthodologie de projet Data Mining 8) Panorama des outils - Les enjeux du SID : besoins, domaines d'application. - Architecture type d'un SID, état de l'art. - Elaboration des informations décisionnelles. - Conception d'un SID : étapes, optimisation, organisation des données, dictionnaires. 2) Comprendre le Data Mining (DM) - Définition et finalité du Data Mining (DM). - Quel lien entre le DM et les statistiques, quelle dépendance entre le DM et l'informatique? - Différence entre DM et OLAP? - Les attentes des entreprises, les réponses du DM. 3) Les techniques du Data Mining - Les différentes familles du DM. - Les méthodes prédictives et les méthodes descriptives. - Analyse factorielle, typologique. La classification... - Les arbres de décisions, les réseaux de neurones... - Classification des techniques de DM. 4) La méthode descriptive du Clustering - Définition et méthodologie. - Les critères pour structurer les données à classer. - Evaluation et validation des classes obtenues. - Les différentes sous-familles du Clustering. Exemple Présentation d'applications du Clustering. 5) Exemples d'application du DM - Le scoring : définition, finalité, méthodologie. - Le géomarketing : définition, finalité, méthodologie. Exemple Mise en œuvre de la méthode de scoring. Cas pratique d'utilisation de géomarketing. 6) Les données de l'entreprise - Rappel de la problématique des données du SI. - Qualité des données et administration des données. - Processus de collecte et d'exploration. - Création d'agrégats et de nouvelles données. - Transformation des données. 7) Méthodologie de projet Data Mining - Définition du problème métier à résoudre et des objectifs à atteindre. - Inventorier, décrire et classer les données. - Concevoir et alimenter la base Data Mining. - Explorer, segmenter des entités analysées. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 12

- Etablir et appliquer les modèles d'analyse. - Itérer, déployer auprès des utilisateurs. - Maintenir le modèle et le logiciel associé. 8) Panorama des outils - Principaux outils du marché : SAS, R, IBM SPSS... - Zoom sur l'outil SAS et sur l'etl Powercenter. - Quels critères de choix pour ce type d'outils? ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 13

Stage pratique de 2 jour(s) Réf : STA Responsables Infocentre, responsables marketing, responsables Qualité, utilisateurs et gestionnaires métiers de bases de données. Connaissances de base en mathématiques / logique (cumul, pourcentage, fonctions conditionnelles) Statistiques, maîtriser les fondamentaux Ce stage présente l'essentiel des modèles statistiques. Il vous permettra de comprendre leur rôle dans le monde de l'analyse décisionnelle, du Big Data et du Data Mining, ainsi que les mécanismes qui permettent de transformer et d'affiner des données pour en tirer des informations métiers utiles. OBJECTIFS PEDAGOGIQUES Comprendre le principe de la statistique descriptive et les méthodes d'échantillonnage Dimensionner un échantillon de population Calculer des paramètres de position et dispersion (médiane, étendue, quantile, écart-type) Exploiter les paramètres statistiques pour modéliser un phénomène sur une population Mettre en place un modèle de régression linéaire pour estimer une valeur et faire de l'analyse prédictive Valider la précision d'une estimation, à l'aide des intervalles de confiance Prix 2015 : 1380 HT 24 sep. 2015, 26 nov. 2015 1) Rappels des fondamentaux de la statistique descriptive 2) Démarche et modélisation d'une analyse statistique 3) Paramètre de position et de dispersion 4) Analyses prédictives 5) Tests et intervalle de confiance 6) Panorama des outils 1) Rappels des fondamentaux de la statistique descriptive - Définition de la statistique descriptive. - Analyse d'une population. - Méthodes d'échantillonnage. - Variables qualitatives et quantitatives. - Effectifs et calcul des fréquences. - Effectifs cumulés croissants et décroissants. - Séries statistiques. - Représentation graphique des variables qualitatives et quantitatives. Etude de cas Etude d'une population et dimensionnement d'un échantillon. 2) Démarche et modélisation d'une analyse statistique - Statistique descriptive. - Phase d'apprentissage. - Statistique prédictive pour estimer et anticiper. - Modélisation statistique d'un phénomène. 3) Paramètre de position et de dispersion - Mode, valeur modale, valeur la plus probable. - Moyenne d'une population (ou d'un échantillon). - Médiane, partager une série numérique. - Etendue, différence entre valeurs extrêmes. - Utiliser les quantiles. - Comprendre l'utilisation de la variance et co-variance. - Ecart-Type, calculer la dispersion d'un ensemble de données. Etude de cas Calcul de paramètres de position et de dispersion sur différents échantillonnages et comparaisons des résultats. 4) Analyses prédictives - Régression linéaire simple. - Régression linéaire multiple. - Régression logistique. - Analyse de la variance et de la co-variance et recherche de corrélation. Mise en place d'un modèle de régression linéaire multiple pour estimer une valeur. 5) Tests et intervalle de confiance - Tests. - Intervalle de confiance. - Lois statistiques et intervalle de confiance. - Valider la précision d'une estimation. Amplitude de l'intervalle. Etude de cas ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 14

Détection de produits finis défectueux sur une chaîne de production. 6) Panorama des outils - Zoom sur le logiciel Open Source "R". - Initiation au logiciel Open Source "R". - Les principaux outils : SAS, SPSS. Ecriture de scripts pour calculer des métriques, moyennes, variances. Régression linéaire simple. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 15

Séminaire de 3 jour(s) Réf : GEM Tout cadre et collaborateur désirant s'initier au géomarketing et comprendre comment mieux valoriser les données géolocalisées. Aucune connaissance particulière. Géomarketing, principes et solutions Les données géolocalisées sont devenues des éléments incontournables dans les processus de prise de décision. Ce séminaire vous apprendra à mieux valoriser la composante spatiale de vos données et vous donnera les clés nécessaires pour mettre en œuvre un projet de géomarketing au sein de votre entreprise. OBJECTIFS PEDAGOGIQUES Comprendre les principes et les applications des logiciels de SIG Identifier comment mieux valoriser la composante spatiale de ses données Découvrir les possibilités de la cartographie et de la data-visualisation pour l'aide à la décision Appréhender les étapes essentielles de mise en œuvre d'un projet de géomarketing Prix 2015 : 2610 HT 19 oct. 2015, 14 déc. 2015 1) Les données géolocalisées au service de l'aide à la décision 2) Les données géolocalisées et les Systèmes d'information Géographiques (SIG) 3) Quels usages de la composante spatiale? Mieux valoriser ses données Méthodes pédagogiques 4) Cartographie et data-visualisation pour l'aide à la décision 5) Mise en œuvre d'un projet de géomarketing Cours théorique s'appuyant sur de nombreux exemples concrets et des études de cas. 1) Les données géolocalisées au service de l'aide à la décision - La géolocalisation composante stratégique du marketing direct. - Le géomarketing : de la cartographie à l'analyse spatiale. - Les enjeux actuels du géomarketing, localiser pour contextualiser, Big Data géographique. Exemple Exemples concrets d'applications et retours d'expériences. Echanges avec les participants. 2) Les données géolocalisées et les Systèmes d'information Géographiques (SIG) - Définitions et concepts. - Géolocaliser l'information, systèmes de référence et projections. - Les référentiels géographiques : sources et producteurs de données. Démonstration Démonstration d'un logiciel de SIG et de son fonctionnement. 3) Quels usages de la composante spatiale? Mieux valoriser ses données - Géocodage, modèles de localisation, maillages et grilles. - Business to Business : secteurs de clientèle, réseaux de distribution. - Business to Consumer : potentiels de marché, zones de chalandises. - Croiser des données hétérogènes : contextualisation de contrats, activités et fichiers. - Analyse de clientèle. Etude de cas Chaque participant identifie comment mieux valoriser la composante spatiale de ses propres données au travers des études de cas proposées. 4) Cartographie et data-visualisation pour l'aide à la décision - Bases et principes de la sémiologie graphique. - Traitement des données pour la cartographie : fondamentaux. - Des données géolocalisées dans les tableaux de bord : prospective en data-visualisation. Réflexion collective Approche critique des cartes pour la décision : échanges avec les participants autour d'une sélection de cartes. 5) Mise en œuvre d'un projet de géomarketing - Les différentes étapes d'un projet SIG. - Cahier des charges fonctionnel. - Coûts et moyens humains. - Panorama des solutions techniques (logiciels de SIG orienté géomarketing, portails Web). - Les outils de la Géo Business Intelligence. Démonstration Démonstration d'outils et de solutions techniques pour le géomarketing. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 16

Stage pratique de 5 jour(s) Réf : BID Dataminers, chargés d'études statistiques, développeurs, chefs de projet, consultants en informatique décisionnelle. Connaissances de base des modèles relationnels, des statistiques et des langages de programmation. Connaissances de base des concepts de la Business Intelligence. Prix 2015 : 2840 HT 7 sep. 2015, 5 oct. 2015 2 nov. 2015, 7 déc. 2015 Sophia-antipolis 19 oct. 2015 Big Data, méthodes et solutions pratiques pour l'analyse des données Best Ce stage vous permettra de comprendre les enjeux et les apports du Big Data ainsi que les technologies pour le mettre en œuvre. Vous apprendrez à intégrer des volumétries massives de données structurées et non structurées via un ETL, puis à les analyser grâce à des modèles statistiques et des dashboards dynamiques. OBJECTIFS PEDAGOGIQUES Comprendre les concepts et l'apport du Big Data par rapport aux enjeux métiers Comprendre l'écosystème technologique nécessaire pour réaliser un projet Big Data Acquérir les compétences techniques pour gérer des flux de données complexes, non structurés et massifs Implémenter des modèles d'analyses statistiques pour répondre aux besoins métiers Appréhender un outil de data visualisation pour restituer des analyses dynamiques 1) Comprendre les concepts et les enjeux du Big Data 2) Les technologies du Big Data 3) Gérer les données structurées et non structurées 4) Les méthodes d'analyse des données pour le Big Data 5) Data visualisation et cas d'usage concrets 6) Conclusion Mettre en place une plateforme Hadoop et ses composants de base, utiliser un ETL pour gérer les données, créer des modèles d'analyse et dashboards. 1) Comprendre les concepts et les enjeux du Big Data - Origines et définition du Big Data : la BI face à la croissance et à la diversité des données. - Les chiffres clés du marché dans le monde et en France. - Les enjeux du Big Data : ROI, organisation, confidentialité des données. - Un exemple d'architecture Big Data. 2) Les technologies du Big Data - Description de l'architecture et des composants de la plateforme Hadoop. - Les modes de stockage (NoSQL, HDFS). - Principes de fonctionnement de MapReduce. - Présentation des distributions principales du marché et des outils complémentaires (Hortonworks, Cloudera, MapR, Aster). - Installer une plateforme Hadoop. - Présentation des technologies spécifiques pour le Big Data (Talend, Tableau, Qlikview...). Installation d'une plateforme Big Data complète via Cloudera et ses composants. 3) Gérer les données structurées et non structurées - Principes de fonctionnement de Hadoop Distributed File System (HDFS). - Importer des données externes vers HDFS. - Réaliser des requêtes SQL avec HIVE. - Utiliser PIG pour traiter la donnée. - Utiliser un ETL pour industrialiser la création de flux de données massives. - Présentation de Talend For Big Data. Installation de Talend For Big Data, implémentation de flux de données massives. 4) Les méthodes d'analyse des données pour le Big Data - Les méthodes d'exploration. - Segmentation et classification. - Estimation et prédiction. - L'implémentation des modèles. Mise en place d'analyses avec le logiciel R. 5) Data visualisation et cas d'usage concrets - Les outils de restitution du marché. - Méthodologie de mise en forme des rapports. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 17

- Apport du Big Data pour le "Social Business". - Mesurer l'e-réputation et la notoriété d'une marque. - Mesurer l'expérience et la satisfaction clients, optimiser le parcours client. Installation et utilisation d'un outil de Data Visualisation pour constituer des analyses dynamiques, récupération de données issues de réseaux sociaux et création d'analyse d'e-réputation. 6) Conclusion - Ce qu'il faut retenir. - Synthèse des bonnes pratiques. - Bibliographie. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 18

Séminaire de 2 jour(s) Réf : BGA DSI, directeurs techniques, chefs de projet, architectes, responsables SI. Connaissances de base des architectures techniques. Prix 2015 : 1900 HT Big Data, synthèse Best OBJECTIFS L'accroissement continuel des données numériques dans les entreprises et les organismes publics a conduit à l'émergence du «Big Data». Ce concept recouvre les questions de stockage et de conservation de vastes quantités de données, mais aussi celles liées au gisement potentiel de valeur que représentent ces masses de données. Ce séminaire présente les problèmes spécifiques du Big Data et les solutions techniques potentielles, de la gestion des données aux différents types de traitement, qui témoignent d'une rupture par rapport aux moyens usuels d'analyse du fait des quantités traitées. 24 sep. 2015, 26 nov. 2015 1) Introduction 2) Big Data : traitements, depuis l'acquisition jusqu'au résultat 3) Relations entre Cloud et Big Data 4) Classification, sécurité et confidentialité des données 5) Introduction à l'open Data 6) Matériel pour les architectures de stockage 7) Architecture logicielle 8) Protection des données 9) Méthodes de traitement et champs d'application 10) Cas d'usage à travers des exemples et conclusion 1) Introduction - Les origines du Big Data : un monde de données numériques, l'e-santé, chronologie. - Une définition par les quatre V : la provenance des données. - Une rupture : changements de quantité, de qualité, d'habitudes. - La valeur de la donnée : un changement d'importance. - La donnée en tant que matière première. - Le quatrième paradigme de la découverte scientifique. 2) Big Data : traitements, depuis l'acquisition jusqu'au résultat - L'enchaînement des opérations. L'acquisition. - Le recueil des données : crawling, scraping. - La gestion de flux événementiel (Complex Event Processing, CEP). - L'indexation du flux entrant. - L'intégration avec les anciennes données. - La qualité des données : un cinquième V? - Les différents types de traitement : recherche, apprentissage (machine learning, transactionnel, data mining). - D'autres modèles d'enchaînement : Amazon, e-santé. - Un ou plusieurs gisements de données? De Hadoop à l'in-memory. - De l'analyse de tonalité à la découverte de connaissances. 3) Relations entre Cloud et Big Data - Le modèle d'architecture des Clouds publics et privés. - Les services XaaS. - Les objectifs et avantages des architectures Cloud. - Les infrastructures. - Les égalités et les différences entre Cloud et Big Data. - Les Clouds de stockage. 4) Classification, sécurité et confidentialité des données - La structure comme critère de classification : non structurée, structurée, semi-structurée. - Classification selon le cycle de vie : données temporaires ou permanentes, archives actives. - Difficultés en matière de sécurité : augmentation des volumétries, la distribution. - Les solutions potentielles. 5) Introduction à l'open Data - La philosophie des données ouvertes et les objectifs. - La libération des données publiques. - Les difficultés de la mise en œuvre. - Les caractéristiques essentielles des données ouvertes. - Les domaines d'application. Les bénéfices escomptés. 6) Matériel pour les architectures de stockage - Les serveurs, disques, réseau et l'usage des disques SSD, l'importance de l'infrastructure réseau. - Les architectures Cloud et les architectures plus traditionnelles. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 19

- Les avantages et les difficultés. - Le TCO. La consommation électrique : serveurs (IPNM), disques (MAID). - Le stockage objet : principe et avantages. - Le stockage objet par rapport aux stockages traditionnels NAS et SAN. 7) Architecture logicielle - Niveaux d'implantation de la gestion du stockage. - Le "Software Defined Storage". - Architecture centralisée (Hadoop File System). - L'architecture Peer-to-Peer et l'architecture mixte. - Les interfaces et connecteurs : S3, CDMI, FUSE etc. - Avenir des autres stockages (NAS, SAN) par rapport au stockage objet. 8) Protection des données - La conservation dans le temps face aux accroissements de volumétrie. - La sauvegarde, en ligne ou locale? - L'archive traditionnelle et l'archive active. - Les liens avec la gestion de hiérarchie de stockage : avenir des bandes magnétiques. - La réplication multisites. - La dégradation des supports de stockage. 9) Méthodes de traitement et champs d'application - Classification des méthodes d'analyse selon le volume des données et la puissance des traitements. - Hadoop : le modèle de traitement Map Reduce. - L'écosystème Hadoop : Hive, Pig. Les difficultés d'hadoop. - Openstack et le gestionnaire de données Ceph. - Le Complex Event Processing : un exemple? Storm. - Du BI au Big Data. - Le décisionnel et le transactionnel renouvelés : les bases de données NoSQL.Typologie et exemples. - L'ingestion de données et l'indexation. Deux exemples : splunk et Logstash. - Les crawlers open source. - Recherche et analyse : elasticsearch. - L'apprentissage : Mahout. In-memory. - Visualisation : temps réel ou non, sur le Cloud (Bime), comparaison Qlikview, Tibco Spotfire, Tableau. - Une architecture générale du data mining via le Big Data. 10) Cas d'usage à travers des exemples et conclusion - L'anticipation : besoins des utilisateurs dans les entreprises, maintenance des équipements. - La sécurité : des personnes, détection de fraude (postale, taxes), le réseau. - La recommandation. Analyses marketing et analyses d'impact. - Analyses de parcours. Distribution de contenu vidéo. - Big Data pour l'industrie automobile? Pour l'industrie pétrolière? - Faut-il se lancer dans un projet Big Data? - Quel avenir pour les données? - Gouvernance du stockage des données : rôle et recommandations, le data scientist, les compétences d'un projet Big Data. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 20

Séminaire de 1 jour(s) Réf : OPU DSI, directeurs techniques, chefs de projet, architectes, responsable SI, toute personne impliquée dans un projet d'ouverture de données ou d'utilisation de données ouvertes. Aucune connaissance particulière. Prix 2015 : 990 HT 9 oct. 2015, 18 déc. 2015 Open Data, maîtriser les enjeux et les moyens L'Open Data désigne la démarche d'ouverture des données publiques. Quels en sont les objectifs, les difficultés techniques et culturelles de mise en œuvre? Quels bénéfices pour les citoyens, les entreprises et l'administration peut-on attendre? Telles sont les questions abordées lors de ce séminaire. OBJECTIFS PEDAGOGIQUES Evaluer et juger la démarche d'ouverture des données publiques Mesurer les risques de l'open Data Identifier les opportunités qu'offre cette démarche Résumer les difficultés techniques de sa mise en place 1) Le cadre de définition des données ouvertes 2) Les principaux objectifs et les bénéfices attendus 3) Difficultés techniques de mise en œuvre 1) Le cadre de définition des données ouvertes 4) Les moyens utilisés pour l'ouverture 5) Domaines d'application 6) Conclusion - Définition et historique de l'open Data. - L'importance des données numériques : quantité, pluralité des sources. - Les données publiques au sein du Big Data. - Le cadre juridique : loi CADA. - Un reflet des niveaux étatiques. - L'ouverture des données privées. - La prise en compte de la confidentialité. - Un contrat d'utilisation. 2) Les principaux objectifs et les bénéfices attendus - Un moteur de croissance. - La création de richesse industrielle : sociétés de plusieurs milliards d'euros aux Etats-Unis. - Le contexte du Big Data : le croisement des sources. - L'intérêt pour les citoyens et les usagers; les véhicules-libs. - L'intérêt pour l'administration. - La relation avec l'e-administration. 3) Difficultés techniques de mise en œuvre - Du côté des fournisseurs de données. - Une nouvelle culture. - La qualité des données. - La disparité des formats. - La réutilisation : formats et API. - Du côté des ré-utilisateurs. - La recherche des données : multiplicité des sources, multiplicité des niveaux. - L'intégration de plusieurs sources : Google Public Data Explorer, Datamarket, Quandl. 4) Les moyens utilisés pour l'ouverture - L'ouverture à l'envers : le crowdsourcing, OpenFoodFacts, OpenStreetMap, OpenMap, Wikipedia. - Les concours d'initiatives : dataconnexions. - Les formats et caractéristiques des données et des métadonnées : disponibilité, structuration, formats, liens. - Les annuaires. - Les interfaces applicatives. - Les compétences spécifiques pour exploiter les données ouvertes. 5) Domaines d'application - La répartition dans le monde : annuaires, jeux de données. - Des domaines et des sources d'information variés : statistiques publiées sur la santé, la sécurité. - Les principaux domaines applicatifs locaux : transports, vie culturelle. - Les comparatifs. - Le data journalisme. - Les recensements. 6) Conclusion - Les retours d'évaluation. - Un enjeu national. - Un futur possible. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 21

Séminaire de 2 jour(s) Réf : STD DSI, directeurs techniques, chefs de projet, architectes, responsables SI. Stockage de données, état de l'art et perspectives OBJECTIFS Ce séminaire présente les évolutions récentes des méthodes de stockage et d'accès aux données ainsi que leurs impacts dans l'entreprise : volumétrie, limites des pratiques actuelles, etc. Il fournit une synthèse des principaux apports des nouvelles méthodes de conservation de données et de leurs modes d'accès. Connaissance des principes et des fonctions des outils logiciels ainsi que des supports courants de stockage : disques et bandes magnétiques, sauvegarde, archivage, NAS, SAN, etc. 1) Les moteurs des évolutions 2) Tendances des supports matériels 3) Panorama de l'accès aux données 4) Stockage et accès par les objets 5) Accès via les métadonnées 6) Architecture des Clouds de stockage privés 7) Renouveau des outils de protection des données 8) Maîtriser les données : avec quels outils? Prix 2015 : 1900 HT 15 oct. 2015, 10 déc. 2015 1) Les moteurs des évolutions - Changement de quantité sans contrôle. Besoin de conservation à l'infini. - Consommation énergétique et TCO. Software Defined Storage. - Qualités de base du stockage. 2) Tendances des supports matériels - Tendances des protocoles : SAS, réseau (iscsi, Infiniband, FCoE). - Disques : chiffrement, intégrité, dichotomie SAS/SATA capacitif et SSD, souplesse du RAID. - Ralentissement et le «zéro watt». - Un avenir pour les bandes magnétiques : densité, LTFS. Supervision des supports. 3) Panorama de l'accès aux données - Notions de base. Historique : de la centralisation au client-serveur. - Du NAS au NAS en Cluster en passant par les systèmes de fichiers partagés et les FAN. - SAN et virtualisations variées. Parallélisme ultime : Panasas, Lustre. - Vers PNFS? Le tout logiciel : de ZFS au NAS. Difficultés d'administration relatives. 4) Stockage et accès par les objets - Accès par les objets. Principes et mécanismes. - Stockage objet par rapport aux stockages traditionnels NAS et SAN. - Architectures : centralisée (Hadoop File System, HDFS), Peer-to-Peer (Ceph, Scality), mixte. - Interfaces et connecteurs : S3, CDMI, FUSE. Avenir des stockages (NAS, SAN) par rapport au stockage objet. 5) Accès via les métadonnées - Indexation et navigation. Des approches métiers. - Les bases de données indexées en XML. 6) Architecture des Clouds de stockage privés - Motivations. - Un changement de niveau d'infrastructure. - Objectifs et avantages des architectures Cloud. 7) Renouveau des outils de protection des données - Taux de disponibilité. Sauvegarde des machines réelles et des machines virtuelles. - Le stockage multisites : fédération, réplication. Réduction : déduplication et compression. - Gestion du cycle de vie des données et des supports. - Stockage multisites. Fédération. Réplication. Redondance. 8) Maîtriser les données : avec quels outils? - Externalisation? Gouvernance du stockage dans l'entreprise. - Avenir des acteurs de l'industrie du stockage. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 22

Séminaire de 2 jour(s) Réf : SAN Chef de projet, architecte, responsable de production, storage manager. Connaissances de base des problématiques de stockage de données en entreprise. Réseaux de stockage, SAN/NAS Best OBJECTIFS Ce séminaire présente les principes fondamentaux nécessaires à la mise en place et à l'administration d'un réseau de stockage. Il aborde les points clés de toutes les phases d'un projet de mise en œuvre d'un SAN/ NAS : recueil des besoins en stockage des applications de l'entreprise, choix d'un fournisseur, définition de l'architecture, migration des applications sur le SAN, et enfin administration. Les principaux aspects du cours concernent aussi bien les aspects techniques qu'organisationnels. Les évolutions technologiques sont évaluées du point de vue de leur utilisation par l'entreprise. Prix 2015 : 1900 HT 24 sep. 2015, 26 nov. 2015 1) Quel stockage pour quelle application? 2) Les composants d'un réseau de stockage 3) Les composants matériels d'un réseau de stockage 4) Composants logiciels d'un réseau de stockage 5) Protocole Fibre Channel 6) Mise en œuvre 7) Organisation de l'administration 1) Quel stockage pour quelle application? - Le stockage vu comme un nouveau paradigme. - Les besoins en stockage des applications. - En quoi le SAN et le NAS sont-ils différents l'un de l'autre? - Quelles sont les applications candidates à la migration sur le SAN? - Quelles sont les applications destinées au NAS? - Les données des SGBDR sont-elles intègres sur un NAS? - Quelles applications pour le SAN et pour le NAS? - Avantages et inconvénients du SAN et NAS. - Qu'est-ce qu'un ROI, un TCO? - Peut-on justifier le coût d'un réseau de stockage? 2) Les composants d'un réseau de stockage - Les bases du protocole Fibre Channel. - Pourquoi passer du SCSI vers la Fibre Channel? - Description des limitations du SCSI. - En quoi la Fibre channel représente-t-elle un progrès par rapport au SCSI? - Terminologie Fibre Channel. - Choix et construction d'un réseau de stockage ISCSI. - Evolution des matériels Ethernet vers le 10 Gb, architecture spécifique et configuration pour l'iscsi. - L'écart prix/performance entre Fibre Channel et ISCSI selon les architectures et matériel utilisés. - Architectures de sauvegarde : client de sauvegarde traditionnel. Lanfree et Serverfree Backup. 3) Les composants matériels d'un réseau de stockage - Câbles : description des différents types monomodes et multimodes, et distances maximales. - GBICS : les convertisseurs optiques et la nouvelle génération (SFP). - HBA : les Host Bus Adapters et le double chemin d'accès permettant le fail-over, load balancing. - Hub : bande passante partagée, mode 'bypass'. Topologies à base de Hubs. - Switch : bande passante agrégée. Protocoles d'optimisation de chemin FSPF et limites. Monitorer les interswitch links. - Topologies réseaux/boucle arbitrée et switched Fabric. - Pourquoi choisir un directeur plutôt que de nombreux switchs départementaux? - Baie de stockage : comparaison des principales architectures internes, grands principes de fonctionnement. - En quoi les dernières évolutions répondent-elles au besoin des applications? - Tête de NAS : caractéristiques principales d'une tête de NAS, architecture de convergence SAN/NAS. 4) Composants logiciels d'un réseau de stockage - Business Continuance Volume : mode de fonctionnement, contraintes de cohérence des données, types d'utilisation. - Adéquation des applications avec les BCV. - Snapshots : fonctionnement, avantages et inconvénients. - Snapclones : description du fonctionnement. - Continuous Data Protection : gestion du retour à un état antérieur des volumes. - Réplication de données entre baies : mécanismes en mode synchrone/asynchrone, choix dans les environnements. - Jusqu'à quelle distance peut-on répliquer les données? - Haute disponibilité. Déduplication des données. Impacts sur les performances des applications. - Nouvelles technologies asynchrones. Virtualisation du stockage. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 23

- Ajouter la flexibilité et la mobilité de vos données sur un site ou entre sites. 5) Protocole Fibre Channel - Couches Fibre Channel : liste de leurs fonctions. - Classes de service : notion de Buffer to Buffer, crédit et principales utilisations. - Convention de nommage et d'adressage (WWN). - Conversion en adresse interne. - Boucle arbitrée : description de la topologie et de la procédure d'arbitrage. - Fabrique : description d'un réseau logique. - Comment instaurer la redondance dans le SAN? - Norme FCoE (Fibre Channel over Ethernet), adaptateur CNA (Converged Network Adapter). 6) Mise en œuvre - L'inventaire et le recueil des besoins. - Les critères pour la sélection des machines candidates. - Evaluer la volumétrie nécessaire. - Faut-il calculer la charge en IO? Jusqu'où doit-on détailler les composants de l'architecture? - Le cahier des charges : les éléments à intégrer. - Le choix du fournisseur : les pièges à éviter. - Démarche pour définir l'architecture du SAN/NAS. - La migration : les différentes options pour la migration. 7) Organisation de l'administration - Administration in-band et outband : administration en dehors du réseau de stockage et dans le Fibre Channel. - Dispositifs d'alerte : Snmp, Http, Telnet, call-home. - Quand faut-il mettre en place un système de surveillance? Les problèmes de sécurité. - Ajout de serveurs ou de volumes : Zoning, Lun Masking, Persistent Binding. - Monitorer les performances du SAN. - Mener un audit de performances, éléments clés à surveiller en fonction des composants. - Modes de répartition des données. Analyse des conséquences de la baisse de densité d'accès. - Notions de qualité de service. - Constituer une équipe de Storage Managers : définir les processus et les procédures, Service Level Objectives. - La gestion du stockage par attribut et les différents niveaux de service. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 24

Séminaire de 2 jour(s) Réf : NSQ Direction informatique et fonctionnelle. Tout responsable informatique. Connaissances de base des architectures techniques et du management SI. Prix 2015 : 1900 HT 24 sep. 2015, 26 nov. 2015 Bases de données NoSQL, enjeux et solutions Best OBJECTIFS Les bases de données NoSQL et NewSQL proposent une nouvelle approche répondant à des besoins de volumétrie et de nouveaux types de données. Ce séminaire présente les raisons qui ont mené à ces bases, leurs bénéfices et leurs limites ainsi que les produits existants. 1) Le NoSQL 2) Le Relationnel et le NoSQL. 3) Fonctionnalités techniques communes des bases NoSQL 4) Un essai de classification du NoSQL 1) Le NoSQL 5) Quelques caractéristiques des bases NoSQL existantes 6) Vers le NewSQL 7) Infrastructures matérielles pour les solutions NoSQL 8) Aller ou non vers le NoSQL? - Pourquoi le NoSQL? - Une tentative de définition. - Motivations : extensibilité (scalability), facilité de développement. - Données structurées, semi et non structurées : provenance, typologie. - Comparaison des Systèmes de gestion des bases de données relationnelles (SGBDR) et du NoSQL. - NoSQL, Big Data et architectures Cloud: principes d'architecture communs et divergents. - Historique du NoSQL. - Positionnement du NoSQL au sein du Big Analytics : de l'ère de la transaction à l'ère de l'interaction. - Le NoSQL et les outils de stockage et d'analyse du Big Data. - Classification des analyses. 2) Le Relationnel et le NoSQL. - Des qualités ACID aux qualités BASE. - Resource Description Framework (RDF). - Théorème CAP (cohérence, disponibilité, tolérance au partitionnement). - Les différents niveaux de cohérence. - SGBDR: forces et limites. - Evolution vers le distribué : extensibilité verticale et horizontale. - Différentes approches de gestion de bases de données. - Bases hiérarchiques, modèle relationnel, bases objets, bases XML, NoSQL. - Compromis du NoSQL. - NoSQL as a Service? 3) Fonctionnalités techniques communes des bases NoSQL - Structure souple des données : conception du schéma, agrégation, dénormalisation, duplication. - Architecture distribuée : principes, le shared-nothing. - Equilibrage de charge. - Méthodes de distribution et de duplication des données. - Disponibilité et cohérence différée : gossip, timestamps, vector clock, règle de majorité, arbre de Merkle. - Méthodes d'amélioration des performances : caches en lecture, en écriture, MVCC. - L'architecture in-memory. Un exemple : ParStream. - Introduction à Hadoop et Map Reduce. - Ecosystème Hadoop : différences avec les SGBDR, relations avec le NoSQL. - Un cas d'usage d'hadoop dans l'entreprise. - Requêtage : une complexité accrue. 4) Un essai de classification du NoSQL - Classement : les différents critères. - Bases de données clé-valeur: modèle de données, extensibilité, réplication, pour et contre, la clé-valeur ordonnée. - Bases de données colonnes: modèle de données, hiérarchie (familles, super colonnes), extensibilité, pour et contre. - Bases de données document: modèle de données, extensibilité, pour et contre. - BDD graphes: modèle de données, requêtage, extensibilité, jointures et graphes, comparaison avec les SGBDR. - Pourquoi utiliser des bases graphes? Piles logicielles. - Deux cas d'usage des bases graphes : détection de fraude, rappel de véhicule. - Bases de données stream et Complex Event Processing (CEP). Détection de fraude chez PayPal. - Base en mémoire. L'avenir : la mémoire non volatile. - Bases XML. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 25

5) Quelques caractéristiques des bases NoSQL existantes - Bases clé-valeur : Amazon Dynamo, Redis, Riak, Voldemort, Memcached. - Bases colonnes. Google BigTable : principes et API. Hbase : qualités, structure au sein d'hadoop. - Hypertable. Cassandra : propriétés, avantages et faiblesses, requêtage, quelques références. - Bases documents : CouchDB, Couchbase. MongoDB : principes, avantages, limites, cas d'usage. - Bases graphes : Neo4J, AllegroGraph, urika, une comparaison. - Bases en mémoire : les ancêtres - SolidDB, TimesTen. - Les actuelles? HANA, SciDB. 6) Vers le NewSQL - Motivation : le meilleur de deux mondes? le relationnel et le NoSQL. - Comparaison entre le NewSQL, le NoSQL et les SGBDR. - Leader actuel MarkLogic: propriétés, architecture, moteur de recherche, interface, intégration avec Hadoop, cas d'usage. - VoltDB : principes et exemple de cas d'usage. - Autres bases : Google Spanner, NuoDB, ucirrus, MemSQL, Clustrix. 7) Infrastructures matérielles pour les solutions NoSQL - Les critères de sélection : performance, capacité, extensibilité. - Des principes similaires aux architectures cloud. - Les choix matériels : serveurs, stockage disque, les ensembles serveur + stockage, le réseau. - Les serveurs à grande mémoire. 8) Aller ou non vers le NoSQL? - Migrer ses données vers le NoSQL : MongoDB, bases graphes. - Outils d'intégration de l'écosystème Hadoop. - A quels usages correspondent les bases de données NoSQL? - Quand éviter le NoSQL? - Critères de différenciation entre projets SGBDR et NoSQL. - Comment et que choisir? - Critères de comparaisons entre les différents types de bases NoSQL et les bases relationnelles. - Quel futur pour les bases de données? ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 26

Stage pratique de 4 jour(s) Réf : CBC Tout public de chefs de projets, décideurs informatiques, développeurs, responsables informatiques. Aucune connaissance particulière. La connaissance d'un langage informatique est toutefois un plus. Prix 2015 : 2330 HT 8 sep. 2015, 24 nov. 2015 Bases de données, modélisation et choix techniques Best Cette formation apporte une synthèse complète des connaissances aujourd'hui indispensables en matière de bases de données, du processus de conception à son utilisation effective. Elle analyse les architectures et domaines d'application, évalue l'offre du marché et examine les démarches pratiques de mise en œuvre. OBJECTIFS PEDAGOGIQUES Comprendre la logique des SGBD relationnels et les règles de Codd sous-jacentes Réaliser le modèle conceptuel d'une base de données à l'aide du langage UML Passer du modèle conceptuel de la base à son modèle logique Comprendre les principes de normalisation et dénormalisation d'un schéma Passer du modèle logique au modèle physique, et son implémentation avec SQL Extraire un modèle à partir d'une base de données existante (Reverse Engineering) 1) Logique des SGBD 2) Techniques de modélisation 3) Modèle logique de données 4) Implémentation avec SQL 5) Paramètres clés pour le choix d'un serveur 1) Logique des SGBD - Rappel des théories sous-jacentes aux bases de données relationnelles. - Modèles de données (hiérarchique, réseau...). - Typologie des SGBD. Objectifs des SGBD relationnels. - Fonctionnalités (règles de Codd, transactions, indexage, sauvegardes, restaurations). - Les architectures. Création d'un utilisateur, attributions de droits, transaction, interrogation d'une base de données. 2) Techniques de modélisation - Le modèle conceptuel. - Analyse des besoins. - Concepts de base (entités, associations...). - Dépendances fonctionnelles. - Niveau conceptuel avec Merise et UML. - La démarche. - Prise en compte des règles métier et contraintes. Etudes de plusieurs cas réels, modélisations Merise et UML à l'aide d'un outil. 3) Modèle logique de données - Le modèle logique. La structure des tables et des contraintes. - Modèle relationnel (concepts, notations, terminologie). - Du conceptuel au logique. - Modélisation des arborescences. - Les formes normales (de la 1ère à la 5ème, BCNF). - Dénormalisation. - Calculs de volumétrie. Etude de cas réels, exercices de normalisation et dénormalisation, génération de schémas à l'aide d'un outil. 4) Implémentation avec SQL - Les transactions. - Normes SQL (SQL1, SQL2, SQL:1999, SQL:2003). - Du logique au physique. - Qualité des données. - Vues et vues matérialisées. - Droits d'accès et rôles. - Procédures cataloguées et déclencheurs. - Interfaces avec les langages de programmation. Création et manipulation d'une base, Reverse Engineering, mesures de performances (démonstrations). 5) Paramètres clés pour le choix d'un serveur ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 27

- Etude des paramètres des serveurs SQL. - Composants techniques (disques et interfaces réseau). - Modules applicatifs (outils d'administration...). - Solutions de haute disponibilité, sécurité des données. - Critères techniques. - Coût global d'exploitation. - Offre du marché. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 28

Stage pratique de 2 jour(s) Réf : AMC Concepteur et administrateur de base de données, analyste développeur. Aucune connaissance particulière. La connaissance d'un langage informatique est toutefois un plus. Prix 2015 : 1490 HT PowerAMC, concevoir une base de données Pendant ce stage, vous découvrirez les fonctionnalités majeures de PowerAMC. Vous apprendrez à construire, formaliser et maintenir les modèles utilisés pour concevoir une base de données (modèle orienté objet - UML, modèle conceptuel et physique, dictionnaire...). OBJECTIFS PEDAGOGIQUES Etablir un dictionnaire de données dans PowerAMC Implémenter et vérifier un modèle conceptuel de données dans PowerAMC Paramétrer les règles de transformation du modèle conceptuel au modèle physique de données Générer le modèle physique des données avec PowerAMC et analyser son résultat Pratiquer le Reverse Engineering avec PowerAMC 7 sep. 2015, 9 nov. 2015 1) Introduction 2) Identification des données 3) Modélisation sémantique des données 4) Modélisation physique des données 5) Reverse Engineering 6) Conclusion Les travaux pratiques sont répartis pour moitié entre la conception des modèles (sur l'étude de cas) et leur représentation avec PowerAMC. 1) Introduction - Présentation de PowerAMC. - Les fonctionnalités principales. - L'interface et les menus. Prise en main de PowerAMC. 2) Identification des données - Apprendre à élaborer un dictionnaire des données. - La description des données et les contrôles. - Comment définir les attributs? Analyse de documents et identification des données contenues. Saisir dans PowerAMC les attributs retenus et les règles associées. 3) Modélisation sémantique des données - Le modèle orienté objet (MOO - Diagramme de classe UML). - Identification des classes, des associations, des contraintes. - La démarche pour élaborer un modèle. - La normalisation : le rôle des formes normales dans la compréhension des données. - Les principaux concepts proposés par PowerAMC. - Les vérifications proposées. - Le Modèle Conceptuel des Données (MCD). - Présentation des concepts du MCD par analogie et différence avec le MOO. Construire un diagramme de classe à partir du dictionnaire des données. Saisir le résultat avec PowerAMC. Effectuer les contrôles proposés. Générer le MCD avec PowerAMC et analyser le résultat. 4) Modélisation physique des données - Présentation des règles de transformation d'un modèle sémantique en modèle physique des données. - Les principales règles d'optimisation. - Comment PowerAMC réalise la génération d'un MPD? - La génération des scripts SQL correspondants. Transformer le modèle sémantique en modèle physique. Générer le MPD avec PowerAMC et analyser le résultat. 5) Reverse Engineering - Présentation. - Le Reverse Engineering avec PowerAmc. - Fonctions pour créer un MPD à partir d'une base existante. - Comment générer un MOO ou un MCD à partir d'un MPD existant? ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 29

Ajouter des nouveaux attributs à une base de données. Regénérer les modèles amont. 6) Conclusion - Présentation des fonctions de traitement de PowerAMC. - Les autres diagrammes. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 30

Stage pratique de 2 jour(s) Réf : BDM Architecte, chef de projet, analyste, concepteur/ développeur, responsable méthode. Connaissances de base en informatique. La connaissance de SQL pour Oracle (cours réf. OSL) et des principes de modélisation (cours réf. CBC ou réf. UMD) est un plus. Conception d'une base de données avec Oracle Data Modeler Oracle SQL Developer Data Modeler est une application développée en Java permettant la modélisation de bases de données SQL. Ce stage, après une introduction à la conception de bases de données, vous apprendra à installer et configurer l'outil ainsi que les différentes étapes pour modéliser vos bases de données. OBJECTIFS PEDAGOGIQUES Découvrir la modélisation des bases de données avec l'outil Oracle SQL Developer Data Modeler Créer des modèles Entité-Association (Entity Relationship) Développer ou importer des modèles relationnels Générer des scripts SQL (DDL) Gérer des versions de schémas 1) Introduction à la conception de bases de données 2) Prise en main d'oracle Data Modeler 3) Le modèle logique d'oracle Data Modeler 4) Le modèle relationnel d'oracle Data Modeler 5) Le modèle physique d'oracle Data Modeler 6) Les étapes à suivre 7) Autres fonctionnalités Utilisation de l'outil d'oracle SQL Developer Data Modeler. 1) Introduction à la conception de bases de données - Les théories sous-jacentes aux bases de données relationnelles. - Les typologie des Systèmes de Gestion de Base de Données Relationnels (SGBDR). - Les objectifs des SGBDR. - De la modélisation à la conception de bases de données. - Les approches de conception (Top-Down et Bottom-Up). Réflexion collective Echanges en groupe pour comprendre ce qu'est la modélisation des données et la conception d'une base de données. 2) Prise en main d'oracle Data Modeler - L'historique d'oracle Data Modeler. - Les principaux outils concurrents. - Le processus d'installation. - La partie configuration. - Avantages et inconvénients. Prise en main de l'outil. 3) Le modèle logique d'oracle Data Modeler - Le modèle logique de données. - Les domaines. - Les types personnalisés. - Entités, attributs, identifiants, héritages, relations et vues. - Les différentes notations. - Le modèle multidimensionnel. - Le forward et le reverse engineering. Composer un modèle logique de données. Création d'un glossaire. 4) Le modèle relationnel d'oracle Data Modeler - Les tables. - Les colonnes. - L'index. - Les clés étrangères. - Les schémas et les sous-vues. Echanges Traduire un modèle logique. Modifier un modèle relationnel existant. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 31

5) Le modèle physique d'oracle Data Modeler - Les liens avec le niveau relationnel. - Les sites SGBD. - Les séquences. - Les espaces logiques. - Les rôles. - Les schémas. Traduire un modèle relationnel. Générer un modèle physique. 6) Les étapes à suivre - La construction d'un modèle conceptuel normalisé. - La validation du schéma relationnel. - La génération de scripts SQL. Application à un cas réel. Création du modèle logique puis création des tables. 7) Autres fonctionnalités - Les conventions de nommage (Naming Standards). - Les importations (DDL, Data Dictionary et JDBC). - La génération de rapports (RTF, HTML et PDF). - La gestion de versions (Subversion et Pending Changes). Création d'un rapport dans Word. Importation d'un schéma. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 32

Stage pratique de 2 jour(s) Réf : UMD Architectes, chefs de projet, analystes, concepteurs, développeurs, responsables méthodes. Connaissances de base d'uml. UML 2, modéliser et créer vos bases de données Cette formation vous expliquera comment utiliser à bon escient le diagramme de classes UML afin de concevoir une base de données relationnelle normalisée. Les étapes menant d'un diagramme de classes à sa traduction en langage SQL sont étudiées à l'aide de cas réels. OBJECTIFS PEDAGOGIQUES Concevoir une base de données avec UML. Maîtriser la transformation d'un modèle de classes UML en un modèle relationnel. Identifier et utiliser les principaux modeleurs du marché. Prix 2015 : 1380 HT 24 sep. 2015, 12 nov. 2015 1) Les bases UML 2) Analogies avec les modèles conceptuels 3) Modélisation avec le diagramme de classes d UML 1) Les bases UML - Les diagrammes d'uml. - Du modèle entité-association à la notation UML. - Niveaux d'abstraction couverts par UML. 4) Le niveau logique 5) Le niveau physique 2) Analogies avec les modèles conceptuels - Associations binaires (de one-to-one à many-to-many). - Identification des classes. - Associations réflexives. - Héritages. Comparaisons avec les formalismes entité-association (Barker, IDEF1X, ER, Merise). 3) Modélisation avec le diagramme de classes d UML - Les outils du diagramme de classes. - Ecueils des associations n-aires. - Intérêts des classes-association. - Historisation. - Agrégation pour l'identification relative. - Apports du langage OCL. - Intérêts des rôles. Etudes de cas réels, modélisation à l'aide d'outils du marché (Power AMC, MEGA, Objecteering, Rational Rose, Win'Design). 4) Le niveau logique - Mappings des classes et des associations (déduction des clés). - Cas des agrégations et des héritages. - Identification alternative. - Utilisation du diagramme de classes. - Profil UML. - Normalisation d'un modèle logique. Transformation de modèles conceptuels en modèles relationnels. Validation de schémas (normalisation). Utilisation des outils du marché. 5) Le niveau physique - Processus de génération de tables et de clés. - Génération de scripts SQL. - Programmation avec SQL des règles métiers (contraintes et déclencheurs). - Reverse engineering. Génération de scripts SQL pour Oracle et SQL-Server. Contraintes et indexation. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 33

Stage pratique de 3 jour(s) Réf : SIF Chargé de reporting ou d'analyse, assistant(e), toute personne ayant des besoins d'interrogation ou de mises à jour simples d'une base de données avec le langage SQL. Aucune connaissance particulière. Formation commune à toutes les bases relationnelles (Oracle, SQL Server, DB2, PostGreSQL, MySQL, Access, SQL Lite...). Bases de données et langage SQL pour noninformaticiens Best Cette formation "découverte" vous permettra de comprendre les bases de données dites relationnelles et leurs principes de fonctionnement. Vous manipulerez le langage SQL pour interroger les données d'une base. Vous vous familiariserez également avec des requêtes plus avancées pour analyser les informations. OBJECTIFS PEDAGOGIQUES Comprendre le principe et le contenu d'une base de données relationnelle Créer des requêtes pour extraire des données suivant différents critères Réaliser des requêtes avec des jointures, pour restituer les informations de plusieurs tables Utiliser des calculs simples et des agrégations de données Combiner les résultats de plusieurs requêtes Prix 2015 : 1180 HT 1) Introduction aux bases de données 2) Extraire les données d'une table 3) Interroger les données de plusieurs tables 4) Ordonnancement et statistiques 5) Présenter et trier les données 6) Utiliser des sous-requêtes 14 sep. 2015, 19 oct. 2015 23 nov. 2015 Méthodes pédagogiques Nombreux exercices progressifs d'extraction de données sur base exemple. 1) Introduction aux bases de données - Qu'est-ce qu'une base et un serveur de base de données? - Lire un modèle relationnel. - Composition d'une table. Notion de colonne et de types. - Clé primaire et unicité. - Liens entre les tables et intégrité référentielle. - Métadonnées des tables, colonnes et clés. - Outil pour interroger une base. Investigation dans la base à la recherche de tables, vues, colonnes et clés. 2) Extraire les données d'une table - Qu'est-ce qu'une requête d'extraction? - Lister les valeurs à retourner. - La clause WHERE pour filtrer les données. - L'absence de valeur (marqueur NULL). - Retourner des lignes sans doublon (DISTINCT). - Opérateurs de restriction (BETWEEN, IN, LIKE...). Interrogations de plusieurs tables sur des critères différents. 3) Interroger les données de plusieurs tables - Principe des jointures : restituer les informations à partir de plusieurs tables. - Jointure interne. Jointure externe. - La jointure "naturelle"... et ses difficultés. - Opérateurs ensemblistes (UNION, INTERSECT...). Réaliser des requêtes avec des jointures et des opérateurs ensemblistes. 4) Ordonnancement et statistiques - Trouver des valeurs agrégées (MIN, MAX, AVG, SUM...). - Calculer des agrégats relatifs avec GROUP BY. - Filtrer les valeurs agrégées avec HAVING. - Mélanger agrégats et détails avec OVER. - Ordonnancement des résultats avec RANK, ROW_NUMBER et NTILE. Réaliser des requêtes utilisant des calculs simples et agrégats. Sous-totaux et numération. 5) Présenter et trier les données - Présenter les données des colonnes avec des alias. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 34

- Conversion d'un type à un autre. - Effectuer des choix à l'aide de l'opérateur CASE. - Trier les données avec ORDER BY. - Opérations sur les chaînes de caractères, sur les dates. Utilisation de fonctions permettant d'améliorer la présentation du résultat des requêtes. 6) Utiliser des sous-requêtes - Qu'est-ce qu'une sous-requête? - Les différentes typologies de résultats. - Sous-requêtes liste et opérateurs IN, ANY/SOME et ALL. - Sous-requêtes corrélées. - Utiliser la CTE ("Common Table Expression") pour factoriser les sous requêtes. Ecriture de requêtes incluant des sous-requêtes de différentes formes. Création de vues. ORSYS, La Grande Arche, Paroi Nord, 92044 La Défense cedex. Tél : +33 (0)1 49 07 73 73. Fax : +33(0)1 49 07 73 78 page 35