Les données massives à Calcul Québec
|
|
|
- Albert Nicolas Lecompte
- il y a 10 ans
- Total affichages :
Transcription
1 Les données massives à Calcul Québec Marc Parizeau, professeur et directeur scientifique de Calcul Québec
2 Plan Calcul Québec / Calcul Canada Les outils et les services disponibles Un outil en particulier : Spark 2
3 Calcul Québec 3
4 Mission Procurer au milieu de la R&D des infrastructures matérielles et logicielles en Calcul Informatique de Pointe (CIP) ainsi que des services d expertconseil, afin de contribuer à l avancement des connaissances dans toutes les branches du savoir et à la formation de personnel hautement qualifié en CIP, capable d exploiter efficacement le parallélisme des systèmes informatiques modernes. 4
5 Quelques chiffres Quatre sites principaux Laval McGill / ETS UdeM Sherbrooke Au total: un personnel d une quarantaine d employés environ 1200 utilisateurs dans 400 groupes de recherche 80,000 cœurs de calcul 300 accélérateurs 200 To de mémoire vive 8000 To de stockage sur disque 5
6 Statistiques 6
7 Nous rejoindre Site web Support technique Informations générales Pour un serveur spécifique 7
8 Calcul Canada Université membre Université membre avec personnel Université membre avec personnel et infrastructures 8
9 Infrastructures à l UL Colosse Grappe de 960 noeuds 2 x Intel X GHz (8 coeurs) Mémoire : DDR3 à 1333 MHz noeuds: 24 GB (3 GB / coeur) - 24 noeuds: 48 GB (6 GB / coeur) Réseau: Infiniband QDR (40Gbps) Stockage: 2 x 500 TB (1PB total) 17 GB/s (scratch), 12 GB/s (home) Hélios Grappe de 168 GPGPU 15 noeuds, 20 coeurs à 2,5 GHz, 128 Go RAM et 8 GPU NVIDIA K20 par noeud 6 noeuds, 24 coeurs à 2,7 GHz, 256 GB RAM et 8 GPU NVIDIA K80 par noeud 9
10 Services disponibles Administration et opération de grappes de calcul Déploiement de systèmes de calcul et de stockage parallèle Conception et mise en service de solutions de calcul surmesure Exploitation de grappes de calcul Développement d'algorithmes parallèles (MPI, OpenMP, CUDA, Hadoop, Spark, etc.) Configuration / utilisation de logiciels HPC (Ansys, OpenFoam, etc.) Adaptation et optimisation de workflows distribués Virtualisation Formation 10
11 Les formations De base Software Carpentry Ligne de commande Unix Gestion de code programmation (R / Python) Premiers pas sur les serveurs de calcul Programmation Python Programmation R MDCS : Matlab Distributed Computer Server Visualisation avec Paraview Analyse de données Hadoop / MapReduce Spark 11
12 Accélérateurs et GPU programmation Cuda Programmation Cuda avancée Bibliothèques GPU programmation de Xeon Phi Calcul parallèle de haute performance Introduction à OpenMP Programmation OpenMP avancée Introduction à MPI Programmation MPI avancée et programmation hybride Profilage et optimisation avec Open / SpeedShop Déboggage avec DDT Entrées/sorties parallèles avec HDF5 12
13 Outils: Hadoop + Spark 13
14 Les défis du «big data» les 3 Vs + la véracité 14
15 Apache Software Foundation Plus de 150 projets open source dont plus d une trentaine en lien avec les données massives 15
16 Hadoop mécanique de base stockage distribué autres outils 16
17 Les enjeux l approche classique ne fonctionne plus avec les données massives (Oracle) (Hadoop / Spark) (Google) 17
18 Stockage distribué (HDFS) HDFS = Hadoop Distributed File System 18
19 Map - shuffle - reduce 19
20 Redondance 20
21 problèmes majeurs: usage de disques 21
22 Spark remplace le map/reduce de Hadoop Permet de faire des itérations sans passer par le stockage sur disque Augmente la performance jusqu à 100x 22
23 Hadoop Spark 23
24 Pour en savoir plus? La prochaine formation Spark est mardi le 3 novembre! Voir notre calendrier: formation/calendrier-formations Pour s inscrire: 24
25 Conclusion Temps de calcul Extension de capacité de calcul. Capacité supplémentaire de courte durée (bursting). Stockage / transfert de données Consultation choix technologique développement algorithmique optimisation, etc. Formations spécialisées Soutien à la recherche Contrats avec l industrie 25
Programmation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2015) Marc Parizeau, Département de génie électrique et de génie informatique Plan Données massives («big data») Architecture Hadoop distribution
Organiser vos données - Big Data. Patrick Millart Senior Sales Consultant
Organiser vos données - Big Data Patrick Millart Senior Sales Consultant The following is intended to outline our general product direction. It is intended for information purposes only, and may not be
Hadoop, Spark & Big Data 2.0. Exploiter une grappe de calcul pour des problème des données massives
Hadoop, Spark & Big Data 2.0 Exploiter une grappe de calcul pour des problème des données massives Qui suis-je? Félix-Antoine Fortin Génie info. (B. Ing, M. Sc, ~PhD) Passionné de Python, Data Analytics,
Infrastructures Parallèles de Calcul
Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide
Programmation parallèle et distribuée
Programmation parallèle et distribuée (GIF-4104/7104) 5a - (hiver 2014) Marc Parizeau, Département de génie électrique et de génie informatique Plan Mégadonnées («big data») Architecture Hadoop distribution
Journée Utiliateurs 2015. Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS
Journée Utiliateurs 2015 Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS 1 Pôle ID, Grid'5000 Ciment Une proximité des platesformes Autres sites G5K Grenoble + CIMENT Pôle ID = «Digitalis»
Cartographie des solutions BigData
Cartographie des solutions BigData Panorama du marché et prospective 1 1 Solutions BigData Défi(s) pour les fournisseurs Quel marché Architectures Acteurs commerciaux Solutions alternatives 2 2 Quels Défis?
HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM
4 HPC by OVH.COM Le bon calcul pour l innovation 2 6 5 6 2 8 6 2 OVH.COM 5 2 HPC by OVH.COM 6 HPC pour High Performance Computing Utilisation de serveurs et de grappes de serveurs (clusters), configurés
3 ème journée des utilisateurs de l archivage
Université Lille 2 CINES Département Archivage et Diffusion 3 ème journée des utilisateurs de l archivage 9 juin 2015 JOURNEE INTERNATIONALE Mardi 9 juin 2015 des ARCHIVES Et on la fête absolument partout
Big Data : utilisation d un cluster Hadoop HDFS Map/Reduce HBase
Big Data : utilisation d un cluster cluster Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire APC, Université Paris Diderot LabEx UnivEarthS 14 Janvier 2014 C. Cavet
Panorama des solutions analytiques existantes
Arnaud LAROCHE Julien DAMON Panorama des solutions analytiques existantes SFdS Méthodes et Logiciels - 16 janvier 2014 - Données Massives Ne sont ici considérés que les solutions autour de l environnement
Introduction aux algorithmes MapReduce. Mathieu Dumoulin (GRAAL), 14 Février 2014
Introduction aux algorithmes MapReduce Mathieu Dumoulin (GRAAL), 14 Février 2014 Plan Introduction de la problématique Tutoriel MapReduce Design d algorithmes MapReduce Tri, somme et calcul de moyenne
Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche
Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche Serveurs DELL PowerEdge Tour Rack standard R310 T110II Rack de calcul Lames R815 M610 R410 R910 M620 R415 R510 T620 R620 R720/R720xd
Les technologies du Big Data
Les technologies du Big Data PRÉSENTÉ AU 40 E CONGRÈS DE L ASSOCIATION DES ÉCONOMISTES QUÉBÉCOIS PAR TOM LANDRY, CONSEILLER SENIOR LE 20 MAI 2015 WWW.CRIM.CA TECHNOLOGIES: DES DONNÉES JUSQU'À L UTILISATEUR
Bases de données documentaires et distribuées Cours NFE04
Bases de données documentaires et distribuées Cours NFE04 Cloud et scalabilité Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers pré[email protected] Département d informatique Conservatoire
Gestion de clusters de calcul avec Rocks
Gestion de clusters de calcul avec Laboratoire de Chimie et Physique Quantiques / IRSAMC, Toulouse [email protected] 26 Avril 2012 Gestion de clusters de calcul avec Outline Contexte 1 Contexte
Big Data Concepts et mise en oeuvre de Hadoop
Introduction 1. Objectif du chapitre 9 2. Le Big Data 10 2.1 Introduction 10 2.2 Informatique connectée, objets "intelligents" et données collectées 11 2.3 Les unités de mesure dans le monde Big Data 12
Big Data. Cyril Amsellem Consultant avant-vente. 16 juin 2011. Talend 2010 1
Big Data Cyril Amsellem Consultant avant-vente 16 juin 2011 Talend 2010 1 Big Data Architecture globale Hadoop Les projets Hadoop (partie 1) Hadoop-Core : projet principal. HDFS : système de fichiers distribués
Programmation parallèle et distribuée (Master 1 Info 2015-2016)
Programmation parallèle et distribuée (Master 1 Info 2015-2016) Hadoop MapReduce et HDFS Note bibliographique : ce cours est largement inspiré par le cours de Benjamin Renaut (Tokidev SAS) Introduction
Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI
, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI PROMES (UPR 8521 CNRS) Université de Perpignan France 29 juin 2011 1 Contexte 2 3 4 Sommaire Contexte 1 Contexte 2 3 4 Laboratoire
<Insert Picture Here> Exadata Storage Server et DB Machine V2
Exadata Storage Server et DB Machine V2 Croissance de la Volumétrie des Données Volumes multipliés par 3 tous les 2 ans Evolution des volumes de données 1000 Terabytes (Données) 800
BIG DATA en Sciences et Industries de l Environnement
BIG DATA en Sciences et Industries de l Environnement François Royer www.datasio.com 21 mars 2012 FR Big Data Congress, Paris 2012 1/23 Transport terrestre Traçabilité Océanographie Transport aérien Télémétrie
Le BigData, aussi par et pour les PMEs
Parole d expert Le BigData, aussi par et pour les PMEs Stéphane MOUTON, CETIC Département Software and Services Technologies Avec le soutien de : LIEGE CREATIVE Le Big Data, aussi par et pour les PMEs
SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014
SIGAMM/ COMMISSION UTILISATEUR du 05/12/2014 ORDRE DU JOUR : - Rôle de la commission, - Présentation de la nouvelle plateforme, - Accès Mésocentre, - Point sur les problèmes rencontrés, - Propositions
Les environnements de calcul distribué
2 e Atelier CRAG, 3 au 8 Décembre 2012 Par Blaise Omer YENKE IUT, Université de Ngaoundéré, Cameroun. 4 décembre 2012 1 / 32 Calcul haute performance (HPC) High-performance computing (HPC) : utilisation
Fouille de données massives avec Hadoop
Fouille de données massives avec Hadoop Sebastiao Correia [email protected] Talend 2013 AAFD'14 29-30 avril 2014 1 Agenda Présentation de Talend Définition du Big Data Le framework Hadoop 3 thématiques
Architecture des ordinateurs
Décoder la relation entre l architecture et les applications Violaine Louvet, Institut Camille Jordan CNRS & Université Lyon 1 Ecole «Découverte du Calcul» 2013 1 / 61 Simulation numérique... Physique
HADOOP ET SON ÉCOSYSTÈME
HADOOP ET SON ÉCOSYSTÈME Mars 2013 2012 Affini-Tech - Diffusion restreinte 1 AFFINI-TECH Méthodes projets Outils de reporting & Data-visualisation Business & Analyses BigData Modélisation Hadoop Technos
Déploiement d une architecture Hadoop pour analyse de flux. franç[email protected]
Déploiement d une architecture Hadoop pour analyse de flux franç[email protected] 1 plan Introduction Hadoop Présentation Architecture d un cluster HDFS & MapReduce L architecture déployée Les
Les mésocentres HPC àportée de clic des utilisateurs industriels
Les mésocentres HPC àportée de clic des utilisateurs industriels Université de Reims Champagne-Ardenne (URCA) Centre de Calcul ROMEO Multidisciplinary university more than 22 000 students a wide initial
Introduction à MapReduce/Hadoop et Spark
1 / 36 Introduction à MapReduce/Hadoop et Spark Certificat Big Data Ludovic Denoyer et Sylvain Lamprier UPMC Plan 2 / 36 Contexte 3 / 36 Contexte 4 / 36 Data driven science: le 4e paradigme (Jim Gray -
Hébergement MMI SEMESTRE 4
Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources
M2 GL UE DOC «In memory analytics»
M2 GL UE DOC «In memory analytics» Alexandre Termier 2014/2015 Sources Travaux Amplab, U.C. Berkeley Slides Ion Stoica Présentations Databricks Slides Pat McDonough Articles de M. Zaharia et al. sur les
ORACLE EXADATA DATABASE MACHINE X2-8
ORACLE EXADATA DATABASE MACHINE X2-8 CARACTERISTIQUES ET AVANTAGES CARACTERISTIQUES 128 cœurs de CPU et 2 TO de mémoire pour le traitement des bases de données 168 cœurs de CPU pour le traitement du stockage
Le projet Gaïa, le Big Data au service du traitement de données satellitaires CRIP - 16/10/2013 Pierre-Marie Brunet
Le projet Gaïa, le Big Data au service du traitement de données satellitaires CRIP - 16/10/2013 Pierre-Marie Brunet 1 SOMMAIRE Le calcul scientifique au CNES Le BigData au CNES, le cas Gaïa HPC et BigData
Gamme Serveurs HP ProLiant Rack
Gamme Serveurs HP ProLiant Rack Janvier 2015 Copyright 2012 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice. La gamme de produits la plus
Thomas Loubrieu (Ifremer) Small to Big Data. http://wwz.ifremer.fr/bigdata. 26 Novembre 2013, Ifremer, Brest
Thomas Loubrieu (Ifremer) Small to Big Data 26 Novembre 2013, Ifremer, Brest http://wwz.ifremer.fr/bigdata Small to Big data IFREMER/IDM/ISI T. Loubrieu Résumé A partir d'expériences en gestion de données
Portage d applications sur le Cloud IaaS Portage d application
s sur le Cloud IaaS Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire AstroParticule et Cosmologie (APC), LabEx UnivEarthS APC, Univ. Paris Diderot, CNRS/IN2P3,
Kick Off SCC 2015. Vers de nouveaux horizons
Kick Off SCC 2015 Vers de nouveaux horizons Délivrer des environnements virtuels plus rapidement avec l'hyper-convergence HP Frédéric CHOLLET BU Manager SCC [email protected] Pascal RABIER Datacenter
L écosystème Hadoop Nicolas Thiébaud [email protected]. Tuesday, July 2, 13
L écosystème Hadoop Nicolas Thiébaud [email protected] HUG France 250 membres sur la mailing liste 30 présentations 9 meetups organisés, de 20 à 100 invités Présence de Cloudera, MapR, Hortonworks,
Quantification d incertitude et Tendances en HPC
Quantification d incertitude et Tendances en HPC Laurence Viry E cole de Physique des Houches 7 Mai 2014 Laurence Viry Tendances en HPC 7 Mai 2014 1 / 47 Contents 1 Mode lisation, simulation et quantification
ORACLE EXADATA DATABASE MACHINE X2-2
ORACLE EXADATA DATABASE MACHINE X2-2 CARACTERISTIQUES ET AVANTAGES CARACTERISTIQUES Jusqu à 96 cœurs de CPU et 768 GO de mémoire pour le traitement des bases de données Jusqu à 168 cœurs de CPU pour le
Big Data. Les problématiques liées au stockage des données et aux capacités de calcul
Big Data Les problématiques liées au stockage des données et aux capacités de calcul Les problématiques liées au Big Data La capacité de stockage - Traitement : Ponctuel ou permanent? - Cycle de vie des
L équipement choisit devra être nomade, il servira aux visiteurs en déplacements et sera donc sujets à des limitations de tailles et de poids.
I.Cahier des charges Afin de remplacer les ordinateurs portables obsolètes des visiteurs, nous avons mis en place un cahier des charges afin de sélectionner plusieurs équipements pour ensuite les comparer
Fouillez facilement dans votre système Big Data. Olivier TAVARD
Fouillez facilement dans votre système Big Data Olivier TAVARD A propos de moi : Cofondateur de la société France Labs Développeur (principalement Java) Formateur en technologies de moteurs de recherche
Jean-François Boulicaut & Mohand-Saïd Hacid
e siècle! Jean-François Boulicaut & Mohand-Saïd Hacid http://liris.cnrs.fr/~jboulica http://liris.cnrs.fr/mohand-said.hacid Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205
MapReduce. Nicolas Dugué [email protected]. M2 MIAGE Systèmes d information répartis
MapReduce Nicolas Dugué [email protected] M2 MIAGE Systèmes d information répartis Plan 1 Introduction Big Data 2 MapReduce et ses implémentations 3 MapReduce pour fouiller des tweets 4 MapReduce
20 ans du Master SIAD de Toulouse - BigData par l exemple - Julien DULOUT - 22 mars 2013. 20 ans du SIAD -"Big Data par l'exemple" -Julien DULOUT
20 ans du Master SIAD de Toulouse - BigData par l exemple - Julien DULOUT - 22 mars 2013 20 ans du SIAD -"BigData par l'exemple" -Julien DULOUT Qui a déjà entendu parler du phénomène BigData? Qui a déjà
Exigences système Edition & Imprimeries de labeur
Exigences système Edition & Imprimeries de labeur OneVision Software France Sommaire Asura 9.5, Asura Pro 9.5, Garda 5.0...2 PlugBALANCEin 6.5, PlugCROPin 6.5, PlugFITin 6.5, PlugRECOMPOSEin 6.5, PlugSPOTin
Change the game with smart innovation
Change the game with smart innovation Master Thesis 2013 2014 Faculty of Science engineering 12/08/2012 Master Thesis proposal for the academic year 2013. TABLE OF CONTENTS Section Un Introduction... 3
Exigences système Edition & Imprimeries de labeur
Exigences système Edition & Imprimeries de labeur OneVision Software France Sommaire Asura 10.2, Asura Pro 10.2, Garda 10.2...2 PlugBALANCEin10.2, PlugCROPin 10.2, PlugFITin 10.2, PlugRECOMPOSEin 10.2,
Par CADICI Grégory & FRITZ Rémy
Par & FRITZ Rémy Technicien supérieur de maintenance informatique en contrat de professionnalisation à l IGBMC Virtualisation : projet de fin d étude [email protected] Amélioration des prestations
Initiation au HPC - Généralités
Initiation au HPC - Généralités Éric Ramat et Julien Dehos Université du Littoral Côte d Opale M2 Informatique 2 septembre 2015 Éric Ramat et Julien Dehos Initiation au HPC - Généralités 1/49 Plan du cours
Options indispensables, fortement conseillées pour démarrer sans soucis
Boitier Medion Akoya Processeur Intel Core I3-4160 3.6Ghz 4 Go DDR3 SDRAM Graveur DVD DL x16, Lecteur de carte 4 en 1 4xUSB 2.0 / 2xUSB 3.0 / HDMI VGA-DVI Nvidia GeForce GTX750 1Go DDR5 HDD 1 To SATA Offre
Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html. R.R. Université Lyon 2
Ricco Rakotomalala http://eric.univ-lyon2.fr/~ricco/cours/cours_programmation_r.html 1 Plan de présentation 1. L écosystème Hadoop 2. Principe de programmation MapReduce 3. Programmation des fonctions
R+Hadoop = Rhadoop* Des logiciels libres complémentaires, une implémentation, une réponse au nouveau paradigme du bigdata!
R+Hadoop = Rhadoop* * Des logiciels libres complémentaires, une implémentation, une réponse au nouveau paradigme du bigdata! 27 Janvier 2014 / Université Paul Sabatier / DTSI / David Tsang-Hin-Sun Big
BIG Data et R: opportunités et perspectives
BIG Data et R: opportunités et perspectives Guati Rizlane 1 & Hicham Hajji 2 1 Ecole Nationale de Commerce et de Gestion de Casablanca, Maroc, [email protected] 2 Ecole des Sciences Géomatiques, IAV Rabat,
Stephan Hadinger, Sr. Mgr Solutions Architecture, AWS. Salon du Big Data 11 mars 2015
Stephan Hadinger, Sr. Mgr Solutions Architecture, AWS Salon du Big Data 11 mars 2015 Accélération de l innovation +500 +280 Amazon EC2 Container Service +159 AWS Storage Gateway Amazon Elastic Transcoder
Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle
Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle 1 CEA R & D for Nuclear Energy 5 000 people Nuclear systems
Cloud Computing et Calcul Haute Performance (HPC High Performance C
Cloud Computing et Calcul Haute Performance (HPC High Performance Computing) LIG/UJF/INPG/CNRS/UPMF/INRIA 21 octobre, 2011, Formation-CNRS/ANGD Sommaire Généralité, Historique et Classification Modèle
Catalogue des stages Ercom 2013
Catalogue des stages Ercom 2013 Optimisations sur Modem LTE Poste basé à : Caen (14) Analyse et optimisation des performances des traitements réalisés dans un modem LTE. - Profiling et détermination des
Projet Xdata. Cinequant, Data Publica, EDF, ESRI, Hurence, INRIA, Institut Mines Telecom, La Poste, Orange, Veolia
Projet Xdata Cinequant, Data Publica, EDF, ESRI, Hurence, INRIA, Institut Mines Telecom, La Poste, Orange, Veolia Mutualisation des données XData = Cross Data En croisant des données d origine diverses,
Labs Hadoop Février 2013
SOA - BRMS - ESB - BPM CEP BAM - High Performance Compute & Data Grid - Cloud Computing - Big Data NoSQL - Analytics Labs Hadoop Février 2013 Mathias Kluba Managing Consultant Responsable offres NoSQL
Amazon Elastic MapReduce (Amazon EMR)
Amazon Web Services S'inscrire Compte / Console Français Produits et solutions AWS Product Information Développeurs Support Amazon EMR Présentation d'amazon EMR FAQ Tarification Ressources pour développeurs
CLIENTS LÉGERS. Remote Desktop Services Linux Terminal Server Project
CLIENTS LÉGERS Remote Desktop Services Linux Terminal Server Project Description CS Côte du Sud Besoin Analyse et tests Architecture retenue Déploiement 1. Description CS de la Côte-du-Sud Centre administratif
Grid5000 aujourd'hui : Architecture & utilisation
1 Grid5000 aujourd'hui : Architecture & utilisation [email protected] 11 octobre 2005 Contexte 2 Grid5000 est : Une plateforme expérimentale pour le grid computing Ouverte à de nombreux thèmes de
LXC : Une technologie de contextualisation ultra light intégrée au kernel Linux
Benoît des Ligneris, Ph.D. P.D.G., [email protected] Solutions Linux Open Source, 18 mars 2010 LXC : Une technologie de contextualisation ultra light intégrée au kernel Linux Révolution Linux 2010 Au menu Révolution
LOT N 1 : ORDINATEURS BORDEREAU DE PRIX IDENTIFICATION DU FOURNISSEUR. Code DESIGNATION QTE PU HT EN EURO MONTANT TOTAL HT EN EURO MONTANT TTC EN EURO
LOT N 1 : ORDINATEURS BORDEREAU DE PRIX IDENTIFICATION DU FOURNISSEUR Code DESIGNATION QTE PU HT EN EURO ORD1 Ordinateur de bureau 18 ORD2 Ordinateur de bureau 1 ORD3 Ordinateur portable 1 ORD 4 Unités
Les enjeux du Big Data Innovation et opportunités de l'internet industriel. Datasio 2013
Les enjeux du Big Data Innovation et opportunités de l'internet industriel François Royer [email protected] Accompagnement des entreprises dans leurs stratégies quantitatives Valorisation de patrimoine
Sommaire. Systèmes d Exploitation... 3. Intégration Sage 100 Sage CRM... 3. Disponibilité Client... 3. Bases de données... 3
Communiqué de Lancement Sage CRM v. 6.5 Editions Standard et Avancée Sommaire Systèmes d Exploitation... 3 Intégration Sage 100 Sage CRM... 3 Disponibilité Client... 3 Bases de données... 3 Nouveautés
Centres informatiques
Centres informatiques Architecture des microprocesseurs GIF-3000 Professeur : Christian Gagné Semaine 15 : 11 décembre 2012 GIF-3000 (U. Laval) Centres informatiques C. Gagné 1 / 44 Partie I Présentation
4 Exemples de problèmes MapReduce incrémentaux
4 Exemples de problèmes MapReduce incrémentaux 1 / 32 Calcul des plus courtes distances à un noeud d un graphe Calcul des plus courts chemins entre toutes les paires de noeuds d un graphe Algorithme PageRank
Console de supervision en temps réel du réseau de capteurs sans fil Beanair
Console de supervision en temps réel du réseau de capteurs sans fil Beanair Véritable console de supervision temps réel, le BeanScape permet de modéliser, de visualiser et d administrer en temps réel le
Les participants repartiront de cette formation en ayant une vision claire de la stratégie et de l éventuelle mise en œuvre d un Big Data.
Big Data De la stratégie à la mise en oeuvre Description : La formation a pour objet de brosser sans concession le tableau du Big Data. Les participants repartiront de cette formation en ayant une vision
Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009
Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009 Pôle de Calcul Intensif pour la mer, 11 Decembre 2009 CAPARMOR 2 La configuration actuelle Les conditions d'accès à distance règles d'exploitation
Spécifications détaillées
Hewlett-Packard HP ProLiant DL380 G5 Storage Server 1.8TB SAS Model - NAS - 1.8 To - montage en rack - Serial ATA-150 / SAS - DD 36 Go x 2 + 300 Go x 6 - DVD±RW x 1 - RAID 0, 1, 5, 6 - Gigabit Ethernet
Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E5649 2.53 GHz
Choix d'un serveur Vous êtes responsable informatique d'une entreprise. Vous devez faire un choix pour l'achat d'un nouveau serveur. Votre prestataire informatique vous propose les choix ci-dessous Vous
Rapport de stage Master 2
Rapport de stage Master 2 Informatique Haute Performance et Simulation, 2 ème année Ecole Centrale Paris Accélération des méthodes statistiques sur GPU Auteur : CHAI Anchen. Responsables: Joel Falcou et
Intérêt des codes FEC pour le stockage distribué Le projet ANR FEC4Cloud et la solution RozoFS
Intérêt des codes FEC pour le stockage distribué Le projet ANR FEC4Cloud et la solution RozoFS RESSI-2015 Du 19 au 22 Mai, Université Technologique de Troyes Benoît Parrein (Polytech Nantes, IRCCyN) Jérôme
libérez votre innovation avec l extreme computing CEA/Philippe Stroppa
libérez votre innovation avec l extreme computing CEA/Philippe Stroppa Solutions Bull pour l extreme computing Une gamme qui démultiplie votre pouvoir d innovation. De la physique fondamentale à la recherche
Des solutions sur mesure à partir de modules fonctionnels & CRM associés à un studio de customisation.
( FDV Des solutions sur mesure à partir de modules fonctionnels & CRM associés à un studio de customisation. Constat S il est un secteur informatique où les progiciels ne répondent que partiellement aux
CUOMO PC Route d Oron 4-1010 Lausanne www.cuomopc.ch 021/657 10 60
Lors de l achat d un nouvel ordinateur, vous ne savez pas comment le mettre en route? C est pour cela que nous avons inventé le pack confort. Que vous ayez acheté votre ordinateur dans notre magasin, ou
Introduction Big Data
Introduction Big Data SOMMAIRE Rédacteurs : Réf.: SH. Lazare / F. Barthélemy AXIO_BD_V1 QU'EST-CE QUE LE BIG DATA? ENJEUX TECHNOLOGIQUES ENJEUX STRATÉGIQUES BIG DATA ET RH ANNEXE Ce document constitue
Etude d architecture de consolidation et virtualisation
BOUILLAUD Martin Stagiaire BTS Services Informatiques aux Organisations Janvier 2015 Etude d architecture de consolidation et virtualisation Projet : DDPP Table des matières 1. Objet du projet... 3 2.
GUIDE SUR LA GAMME DE SERVEURS LENOVO
GUIDE SUR LA GAMME DE SERVEURS LENOVO Tendances du marché Le marché des systèmes d entreprises a subi des transformations significatives ces 30 dernières années. L un des changements les plus spectaculaires
PACKS DE VIRTUALISATION HP
PACKS DE VIRTUALISATION HP Les Packs de virtualisation en deux mots 10 configurations prétestées par HP Du pack pour débuter dans la virtualisation à l infrastructure haute disponibilité Toujours la même
Rapport 2014 et demande pour 2015. Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121
Rapport 2014 et demande pour 2015 Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121 Rappel sur Méso-NH : Modélisation à moyenne échelle de l atmosphère
Big Data, un nouveau paradigme et de nouveaux challenges
Big Data, un nouveau paradigme et de nouveaux challenges Sebastiao Correia 21 Novembre 2014 Séminaire Thématique : Traitement et analyse statistique des données massives, Poitiers. 1 Présentation Sebastiao
Anticiper et prédire les sinistres avec une approche Big Data
Anticiper et prédire les sinistres avec une approche Big Data Julien Cabot Directeur Big Data Analytics OCTO [email protected] @julien_cabot OCTO 2013 50, avenue des Champs-Elysées 75008 Paris - FRANCE Tél
ACCOMPAGNER L EXPLOSION DES VOLUMES DE DONNEES : LES NOUVEAUX ENJEUX DU STOCKAGE
Livre Blanc ACCOMPAGNER L EXPLOSION DES VOLUMES DE DONNEES : LES NOUVEAUX ENJEUX DU STOCKAGE Abstract En 2012, l explosion des volumes de données n est plus une hypothèse lointaine mais bien une réalité.
Certificat Big Data - Master MAthématiques
1 / 1 Certificat Big Data - Master MAthématiques Master 2 Auteur : Sylvain Lamprier UPMC Fouille de données et Medias Sociaux 2 / 1 Rich and big data: Millions d utilisateurs Millions de contenus Multimedia
CAHIER DES CHARGES D IMPLANTATION
CAHIER DES CHARGES D IMPLANTATION Tableau de diffusion du document Document : Cahier des Charges d Implantation EVRP Version 6 Etabli par DCSI Vérifié par Validé par Destinataires Pour information Création
Formation Cloudera Data Analyst Utiliser Pig, Hive et Impala avec Hadoop
Passez au niveau supérieur en termes de connaissance grâce à la formation Data Analyst de Cloudera. Public Durée Objectifs Analystes de données, business analysts, développeurs et administrateurs qui ont
LE BIG DATA. TRANSFORME LE BUSINESS Solution EMC Big Data
LE BIG DATA Solution EMC Big Data TRANSITION VERS LE BIG DATA En tirant profit du Big Data pour améliorer leur stratégie et son exécution, les entreprises se démarquent de la concurrence. La solution EMC
«clustering» et «load balancing» avec Zope et ZEO
IN53 Printemps 2003 «clustering» et «load balancing» avec Zope et ZEO Professeur : M. Mignot Etudiants : Boureliou Sylvain et Meyer Pierre Sommaire Introduction...3 1. Présentation générale de ZEO...4
Hadoop, les clés du succès
Hadoop, les clés du succès Didier Kirszenberg, Responsable des architectures Massive Data, HP France Copyright 2015 Hewlett-Packard Development Company, L.P. The information contained herein is subject
Exigences système BauBit pro
INTRODUCTION Chaque installation de BauBit pro se compose d un serveur et d un ou plusieurs clients. Le serveur BauBit pro utilise Microsoft SQL Server 2014 comme système de base de données. Les exigences
