Facteur. Les enjeux de la virtualisation de la puissance de calcul. ANALYSE Machine Learning, le nouvel Eldorado? HOW TO Installer



Documents pareils
en version SAN ou NAS

LENOVO THINKSERVER GUIDE DES PRODUITS. Haute évolutivité et flexibilité conjointes au développement de l entreprise

vbladecenter S! tout-en-un en version SAN ou NAS

LA MISSION D'AMD 2 L'HISTOIRE D'AMD 2014

Portefeuille de solutions HP pour la virtualisation

Outil d aide au choix Serveurs Lot 4 Marché Groupement de Recherche

La gestion du poste de travail en 2011 : Panorama des technologies

Conception d une infrastructure «Cloud» pertinente

Gamme Serveurs HP ProLiant Rack

Approches innovantes vers le Cloud, la Mobilité et les outils sociaux de formation

Optimisez vos environnements Virtualisez assurément

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E GHz

Regard sur hybridation et infogérance de production

Qu est-ce que le «cloud computing»?

Etude d architecture de consolidation et virtualisation

Business Intelligence et Data Visualisation

Windows 7 - Installation du client

Square-IT-Consulting. Présentation

Comment gérer toutes mes tâches logicielles d automatisation dans un seul environnement?

Choisir le bon ordinateur. et la bonne imprimante en avec. Les prix bas, la confiance en plus

Le stockage. 1. Architecture de stockage disponible. a. Stockage local ou centralisé. b. Différences entre les architectures

Résolvez vos problèmes d énergie dédiée à l informatique

En ce qui concerne le datacenter de Facebook à Prineville, l Open Compute a permis de :

ERP Service Negoce. Pré-requis CEGID Business version sur Plate-forme Windows. Mise à jour Novembre 2009

Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés

Citrix XenDesktop avec la technologie FlexCast. Citrix XenDesktop : la virtualisation des postes de travail pour tous.

Livre blanc. L impact de la sécurité de la virtualisation sur votre environnement VDI

HP 600PD TWR i G 4.0G 39 PC

& collaborative workspace. the new multitouch CONNECT & SHARE COLLABORATE BETTER & DECIDE FASTER CREATE & INNOVATE SAVE & TAKE THE DATA WITH YOU

#BigData Dossier de presse Mai 2014

Etude d Exchange, Google Apps, Office 365 et Zimbra

Portable Dell Alienware M18X

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters

FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES

L impact de la sécurité de la virtualisation sur votre environnement VDI

Libérez votre intuition

LA RECONNAISSANCE VOCALE INTEGREE

Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?

transformer en avantage compétitif en temps réel vos données Your business technologists. Powering progress

Guide de poche. Get Wyse. Go Far. * Bienvenue dans le Cloud Client Computing de Wyse. En savoir plus. * Avec Wyse, vous irez loin.

L OUTIL NUMERIQUE CARACTERISTIQUES ET FONCTIONNALITES

10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service

Options indispensables, fortement conseillées pour démarrer sans soucis

Eternelle question, mais attention aux arnaques Question qui est souvent mise en premier plan => ce n est pas une bonne idée

LOT N 1 : ORDINATEURS BORDEREAU DE PRIX IDENTIFICATION DU FOURNISSEUR. Code DESIGNATION QTE PU HT EN EURO MONTANT TOTAL HT EN EURO MONTANT TTC EN EURO

La surveillance réseau des Clouds privés

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

Adopter une approche unifiée en matière d`accès aux applications

Alcatel OmniPCX Office

CloudBees AnyCloud : Valeur, Architecture et Technologie cloud pour l entreprise

Un ordinateur, c est quoi?

TVTools Cloud Edition

Protection des données avec les solutions de stockage NETGEAR

Fiche produit Serveur FUJITSU PRIMERGY BX900 S2 Système de serveur lame

FICHE PRODUIT 360 SPEECHMAGIC SDK

TAI049 Utiliser la virtualisation en assistance et en dépannage informatique TABLE DES MATIERES

LYCEE DE BRAS PANON MAPA MAI 2015

Brochure Datacenter. Novell Cloud Manager. Création et gestion d un cloud privé. (Faire du cloud une réalité)

Les ressources numériques

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

la solution vidéo numérique qui offre une surveillance simple et puissante t: +44 (0) e: w:

PC INDUSTRIELS DYALOX L e c h o i x d e l a f i a b i l i t é

Guide de solution Pourquoi un poste de travail?

Les cinq arguments de Drupal 8 pour séduire les Marketeurs

UNIFIED. Nouvelle génération d'architecture unifiée pour la protection des données D TA. dans des environnements virtuels et physiques PROTECTION

DÉVELOPPEMENT DE COURS ÀDISTANCE JEUDI DU NUMÉRIQUE 14/10/2010 M. LUCAS - UF SPI - ENITAB

Importance de la défragmentation en environnements virtuels

La reconquête de vos marges de manœuvre

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

TOP. année promet d être BIG (Business Intelligence Growth) PRINCIPALES TENDANCES EN MATIÈRE DE SOLUTIONS DÉCISIONNELLES POUR 2013

Découverte des tablettes tactiles (ipad d'apple et Galaxy Tab de Samsung

Document de synthèse. Étude comparative du coût total des systèmes de vidéosurveillance IP et analogiques

SmartClass+ Plateforme de gestion de classe. Qu importe le lieu, le moment, l appareil. ipad, Mac Android Windows Téléphones intelligents «AVEC»

Les Bonnes Affaires de Juillet / Aout 2015

Assurer l avenir de votre activité grâce à l open marketing. Par David Mennie, Senior Director, Product Marketing, Acquia

Métiers d études, recherche & développement dans l industrie

Livre blanc rédigé par ENTERPRISE MANAGEMENT ASSOCIATES (EMA ) pour VMware Avril 2010

Fiche technique RDS 2012

DÉPLOIEMENT DE QLIKVIEW POUR DES ANALYSES BIG DATA CHEZ KING.COM

Introduction Big Data

Serveurs et solutions PowerEdge pour les applications métiers

AMÉLIORER LA QUALITÉ DE VOS COMMUNICATIONS. Terminaux Téléphoniques Panasonic

FAMILLE EMC RECOVERPOINT

Ordinateur portable Latitude E5410

Logiciel de gestion des équipements de test MET/TEAM. NOUVEAU logiciel convivial de gestion des ressources d étalonnage par navigateur

Spécifications détaillées

CRM PERFORMANCE CONTACT

Qu est ce que le Cloud Computing?

Introduction CONTENU EN LIGNE

Principaux utilisateurs du Réseau

Fiche produit Fujitsu LIFEBOOK AH502 Ordinateur portable

Fiche produit FUJITSU ETERNUS DX200F Baie de stockage Flash

Dynamic Computing Services solution de backup. White Paper Stefan Ruckstuhl

Analytics Platform. MicroStrategy. Business Intelligence d entreprise. Self-service analytics. Big Data analytics.

Version de novembre 2012, valable jusqu en avril 2013

L A T O U R D E P E I L Z Municipalité

Silk Portfolio : Une démarche allégée pour les tests, le développement et la gestion de vos applications

Transcription:

NVIDIA Titan X PremierES IMPRESSIONS Le magazine référence des solutions hautes performances www.hpcreview.fr HPC Big Data Cloud Stockage Visualisation Virtualisation Réseau Workstations Facteur 100 Les enjeux de la virtualisation de la puissance de calcul Opinion Quand la Titan de Nvidia fait de l ombre à Tesla ANALYSE Machine Learning, le nouvel Eldorado? HOW TO Installer un GPU sous VMWare vsphere Lab Review Dell Precision Workstation T5810

3 éditorial Chers lecteurs, Sans chercher à pratiquer l art difficile de la divination, a pour mission de vous en livrer quelques indices pour préparer des lendemains qui chantent. En témoigne notre dossier de couverture consacré à la virtualisation de la puissance de calcul pour les stations de travail. Cette discipline toute récente existait à peine voici seulement un an. C est le délai qu il a fallu pour passer du proof of concept à une initiative industrielle et marché, et ainsi aboutir à des solutions techniques exploitables grâce à l engagement et à la collaboration des acteurs-clé, constructeurs et développeurs, unis pour cette nouvelle cause commune. Il en va de même pour certains secteurs de notre marché tel le Machine Learning qui révèle le potentiel du Big Data dans les actes anodins de tous les jours. Avec des perspectives qui donnent le vertige. Nos prochains numéros s en feront largement l écho, avec des cas d usage et des tutoriels pratiques destinés à ce que vous aussi, chers lecteurs, puissiez prendre de l avance sur ce train-là! Bonne lecture! La rédaction

4 sommaire en couverture Facteur 100 Les enjeux de la virtualisation de la puissance de calcul newsfeed Microsoft préfère les FPGAs pour le machine learning SanDisk ouvre le Flash au Big Data Tous les livres Tous les moocs Machine learning Colin Mahony, hp Facebook sort son propre SoC Google marque un gros point dans le calcul quantique LAB REVIEW Lenovo P900 Dell Precision Tower 5810 NVIDIA GTX Titan X Qlik Sense Desktop HPC Labs : comment testons-nous? HOW TO Installer un accélérateur graphique sous VMWare vsphere Avis D expert Réduire le coût total de possession des applications CICS éditorial le chroniqueur masqué prochain numéro

5 chronique Le caméléon se mord la queue le chroniqueur masqué Avec les cartes Titan de NVIDIA, c est «le caméléon qui se mord la queue»! Des cartes graphiques pour joueurs de l extrême dont le fabricant vante les vertus en HPC il y a là de quoi agacer les plus fidèles clients et distributeurs des produits professionnels de la marque! Pourquoi? Parce qu après nous avoir expliqué pendant des années qu une carte graphique n en valait pas une autre deux fois plus onéreuse, voilà le président de la firme Californienne qui, pendant la grande messe annuelle du GPU, le geste grave, le regard fier, présente sa nouvelle Titan comme «révolutionnaire» pour le calcul intensif. Pour bien comprendre, revenons un peu sur l effet de gamme NVIDIA dont le point commun n est autre que le Processeur Graphique (GPU). La gamme GeForce correspond au marché du jeu. La marque décide d un «design board» qu elle communique à l ensemble de ses partenaires comme ASUS, Gigabyte, EVGA, PNY Ces derniers, dont le métier devient «intégrateurs de cartes graphiques», choisissent librement les mémoires et les systèmes de dissipation, entre autres. Et c est vrai pour l ensemble de la gamme à une exception près - je vous le donne en mille : la famille Titan. NVIDIA fabrique ces cartes qui ne sont au final que badgées et façonnées par ses partenaires. Exactement comme les cartes GPU professionnelles, Quadro et TESLA, revendues elles par les OEM et les ODM dans des systèmes complets, ou sur le Channel par un distributeur unique par région On doit reconnaître qu ici, tout est sous contrôle du caméléon qui garantit ainsi une pérennité et une fiabilité produit indiscutables. Et ce n est pas tout, n oublions pas le travail colossal de certification auprès de nombreux éditeurs. Ces cartes sont donc logiquement plus chères ; bien plus chères même, au point que quelquefois c est carrément violent! Vous voyez le problème? Quand les séries GeForce Titan, qu elles soient «Black», «Z» ou bientôt «X», coûtant deux fois moins cher qu une carte Pro de puissance équivalente et bénéficiant des mêmes conditions de fabrication, sont présentée comme la nouvelle référence du calcul massivement parallèle, c est la chute d un modèle, et potentiellement d un écosystème. Au gens du terrain - distributeurs, prescripteurs, etc. - d expliquer ce revirement au client final, et d insister ou pas sur le fait que les Titan ont une espérance de vie bien plus limitée. Cela dit, en y réfléchissant bien, n est-ce pas la nature même du Caméléon que de changer de peau en fonction des situations? Le chroniqueur masqué est un expert de l industrie HPC qui décrypte pour vous l actualité dans chaque numéro

7 newsfeed Machine Learning L avenir ne pourra pas se passer de l intelligence artificielle. Cet «enrichissement de la pensée» n est pas une anticipation mais la preuve que le feu du savoir est inextinguible. Maintenant, il faut apprendre à la maîtriser. l auteur Bernard Ourghanlian Directeur technique et sécurité chez Microsoft France La société hongkongaise Deep Knowledge Ventures (DKV), qui est adossée à des sociétés spécialisées dans les secteurs de la biotechnologie et de la médecine régénérative, a nommé un algorithme à son conseil d administration. Baptisé «VITAL» (acronyme de Validating Investment Tool for Advanced Life Sciences, «outil de validation d investissement pour les sciences de la vie avancées»), il est désormais le sixième membre du conseil et dispose d une voix, à l instar de ses cinq collègues humains. La mission de cet algorithme : l analyse du bilan comptable des sociétés dans lesquelles DKV souhaite investir, celle des résultats de leurs tests cliniques, de leurs précédentes levées de fonds, de leur liste de brevets ceci afin de déterminer les meilleures stratégies en termes d investissement. Coup de pub ou avancée décisive? S agit-il d une opération de com? Ou bien cette décision originale ne serait-elle que le dernier avatar de l éternel rêve prométhéen de

8 newsfeed Sans le savoir, nous utilisons déjà le Machine Learning au quotidien : user de moteurs de recherche, recourir à un service de traduction automatique en ligne, mettre une lettre à la poste et par ce geste convoquer un système de reconnaissance optique qui analyse l adresse et envoie au bon endroit l humanité? Dès 1950, Alan Turing, l un des pères fondateurs de l in formatique, avait posé la question de l intelligence des machines : «Je propose d examiner la question suivante : Les machines peuvent-elles penser?» Il envisageait même que les machines puissent apprendre : «L idée qu une machine puisse apprendre pourrait apparaître paradoxale pour certains lecteurs.» Depuis, cette idée a fait du chemin. Voilà un demi-siècle que les chercheurs en Intelligence Artificielle (IA) sont en effet à la tâche, explorant les capacités de programmer des machines pour leur permettre d apprendre. Qu est-ce qu apprendre? En sciences cognitives, l apprentissage consiste à améliorer ses performances lors de l exercice d une activité via des interactions avec son environnement - tel l enfant qui apprend à parler en écoutant ses parents. Mais apprendre, c est aussi savoir généraliser de manière rationnelle ; il en est ainsi de l apprentissage par l induction, qui consiste à savoir créer une loi à partir d observations. Sous-domaine de l intelligence artificielle, le Machine Learning (ML), apprentissage automatique (ou statistique) en français, s intéresse au développement de méthodes automatisables qui permettent à une machine d évoluer grâce à un processus d apprentissage. Ce dernier repose sur l interaction avec l environnement et a pour but d accomplir des tâches difficiles, voire impossibles par des moyens algorithmiques plus classiques. Jusqu aux années 1990, l apprentissage automatique, utilisé notamment pour identifier des caractères ou des images, s appuyait sur un modèle dit «génératif» de ce qu il fallait reconnaître. Ce n est qu après 1995, avec la parution de l ouvrage fondateur de Vladimir Vapnik que la théorie statistique de l apprentissage a véritablement pris son essor. Pourquoi donc apprendre à une machine à apprendre? Pour au moins quatre raisons essentielles, et quatre contextes illustratifs pour mieux comprendre. Quand on ne peut pas programmer ce que l on cherche à accomplir, par exemple pour reconnaître la parole, l image ou le geste. Quand on ne sait pas «passer à l échelle» (ndlr : en informatique, on parle de scalability ou scalabilité pour désigner la capacité d un produit à s adapter à un nouvel ordre de grandeur, une demande accrue, etc., et à rester fonctionnelle et performante), par exemple pour vous présenter des recommandations d achat sur un site de commerce en ligne ou détecter le spam dans votre boîte aux lettres. Quand on doit adapter ou personnaliser une interaction entre l homme et la machine, par exemple la capacité de votre smartphone à vous «prédire» les mots que vous allez saisir. Et enfin quand on ne peut pas aller assez vite, par exemple pour un jeu vidéo à intelligence artificielle ou pour contrôler un robot. En fait, même si nous ne le savons pas, nous utilisons déjà le Machine Learning au quotidien : user de moteurs de recherche ; recourir à un service de traduction automatique en ligne ; mettre une lettre à la poste et par ce geste convoquer un système de reconnais-

9 newsfeed Comment pouvons-nous construire des systèmes informatiques qui s améliorent automatiquement avec l expérience, et quelles sont les lois fondamentales qui régissent tous les processus d apprentissage? sance optique qui analyse l adresse et envoie au bon endroit ; employer un capteur Kinect pour interagir avec son ordinateur ou sa console de jeux vidéo car sans ML, Kinect n existerait pas. Un ordinateur pourrait-il s autoprogrammer? Cela pourrait aller plus loin encore, car le ML cherche à répondre à la question : «Comment pouvons-nous construire des systèmes informatiques qui s améliorent automatiquement avec l expérience, et quelles sont les lois fondamentales qui régissent tous les processus d apprentissage?» Le ML est un prolongement naturel de l intersection entre l informatique et les statistiques. Si l on considère que l informatique a porté principalement sur la façon de programmer manuellement des ordinateurs, le ML se concentre sur la question de comment faire en sorte que les ordinateurs se programment eux mêmes (à partir de l expérience, plus une structure initiale). D autres domaines, de la biologie à l économie, se posent également la question de savoir comment les systèmes peuvent s adapter automati quement à leur environnement, et le ML sera probablement amené à échanger des idées avec l ensemble de ces domaines au cours des années à venir. Quels progrès attendre pour l homme du Machine Learning? Il reste de nombreux champs ouverts dans le domaine du Machine Learning, car beaucoup d interrogations restent sans réponse. Tout d abord : pourrait-on concevoir des langages de programmation contenant des primitives de ML? Une nouvelle génération de langages de programmation pourrait-elle supporter directement l écriture de programmes qui apprennent? Dans de nombreuses applications actuelles du ML, des algorithmes de ML sont intégrés à la main au sein d une application métier. Pourquoi ne pas concevoir un nouveau langage de programmation qui prendrait en charge l écriture de programmes dans lesquels certains sous-programmes seraient codés «comme d habitude», tandis que d autres seraient spécifiés comme «à apprendre»? Ensuite, ne pourrait-on pas construire des machines apprenant en permanence? La grande majorité des travaux en ML aujourd hui consistent à impliquer des algorithmes sur des données spécifiques, puis à mettre de côté l apprentissage afin d utiliser le résultat obtenu. Cela a contrario de l apprentissage chez les humains et les animaux, lequel consiste en un processus continu, où l on apprend différentes

10 newsfeed C est peut-être là une opportunité de fertilisation croisée avec la possibilité d élaborer une théorie générale des processus d apprentissage couvrant aussi bien les animaux que les machines, avec des implications potentielles pour l amélioration des stratégies d enseignement scolaire. capacités, souvent au fur et à mesure, que l on utilise de manière synergique. Nous rêvons de machines apprenantes qui «s instruiraient» de cette même façon cumulative, de manière à les rendre de plus en plus compétentes, plutôt que de les cantonner à ce qu elles ont appris initialement. Vers une théorie générale des processus cognitifs Au niveau de nos sens, ne pourrait-on imaginer que la perception par ordinateur fusionne avec le ML? Compte tenu de l utilisation croissante du ML dans la vision, la reconnaissance vocale et d autres formes de perception par ordinateur, pourrait-on développer une théorie générale de la perception ancrée au sein des processus d apprentissage? Ceci constituerait une occasion unique d incorporer plusieurs modalités sensorielles (par exemple la vision, l ouïe, le toucher) afin de fournir un cadre dans lequel l auto-apprentissage supervisé serait appliqué afin de prédire une expérience sensorielle à partir des autres. Déjà les chercheurs en sciences de l éducation ont observé que l apprentissage peut être plus efficace si plusieurs de nos sens sont convoqués simultanément. En termes épistémologiques, les théories et les algorithmes de ML pourraient-ils aider à expliquer l apprentissage humain? Récemment, ils ont été jugés pertinents pour la compréhension de certains as pects de l apprentissage tant chez l homme que chez l animal. Par exemple, les algorithmes et les théo ries de l apprentissage par renforcement prédisent étonnamment bien l activité neuronale des neurones dopaminergiques chez les animaux lors d un apprentissage fondé sur la récompense (cf. théorie de Pavlov). Cependant, les théories de l apprentissage chez l animal mettent en œuvre des considérations telles que la motivation, l urgence, la peur, l oubli qui n ont pas encore été prises en compte dans le ML. C est peut-être là une opportunité de fertilisation croisée avec la possibilité d élaborer une théorie générale des processus d apprentissage couvrant aussi bien les animaux que les machines, avec des implications potentielles pour l amélioration des stratégies d enseignement scolaire. Questions éthiques Le Conseil d État, dans son étude annuelle 2014 «Le numérique et les droits fondamentaux», se posait des questions sur les prédictions dont sont capables les algorithmes de ML en recommandant de «mieux encadrer l utilisation d algorithmes prédictifs à l égard des individus». Si nous voulons vivre dans un monde toujours plus riche en données où le ML tient toutes ses pro messes, nous devrons nous focaliser à la fois sur l utilisation des données qui permettent à la machine d apprendre, sur leur contrôle par l utilisateur et sur la transparence de leurs usages. Parce que la confiance se construit sur la transparence. Et que sans la confiance, il est très probable que ce nouveau monde extraordinaire auquel permet de rêver le Machine Learning ne se matérialisera jamais. BO

11 newsfeed Colin Mahony, hp «L analyse des données en nombre illimité et en temps réel est un levier de croissance phénoménal» De passage à Paris, le Senior VP et General Manager en charge du Big Data chez hp nous a répondu. Quelle est l implication de hp dans le secteur du Big Data? hp est très impliqué dans le Big Data au travers de ses divisions Vertica et Autonomy. Couplé à notre savoir-faire logiciel et à nos plate-formes matérielles, nous sommes en mesure de proposer des solutions complètes pour traiter des données. La stratégie de hp se conjugue autour d une plateforme (Haven) qui permet de traiter 100 % des informations à disposition des clients, qu elles soient issues de l entreprise (bases de données, courriels, documents internes) ou externes (réseaux sociaux, pages web, documents en ligne, vidéo, audio ). Cette plateforme modulaire est basée sur 4 composants : Hadoop, Autonomy, Vertica (solution analytique en temps réel) et Entreprise Security (dédiée à la collecte et l analyse des logs d application en temps réel). Autour de la plateforme, l écosystème d éditeurs et d intégrateurs partenaires de hp développe les applications métiers qui permettent aux clients de tirer immédiatement parti des solutions construites à partir de Haven. En matière de champs applicatifs, réduire le Big Data au commerce en ligne serait réducteur. Ce serait oublier tout le champ d applications qui émerge actuellement avec le Big Data : recherche, traitements médicaux, détection de fraude, maintenance préventive et détection de pannes, efficacité et qualité des processus industriels, objets connectés, smart énergie, smart city, sans parler de l interaction quasi temps réel avec les réseaux sociaux. Et l usage des données, au coeur des enjeux et des discussions, reste un sujet sensible. Comment voyez-vous l avenir du Big Data? Je pense que l avenir du Big Data sera déterminant sur au moins deux aspects. D une part sur l accélération de la puissance d analyse sur un nombre de données incroyablement important, déterminant pour les entreprises. La place des données et les leviers de croissance qu elles représentent pour l entreprise sont en train d évoluer et notre annonce de Haven Predictive Analytics, une nouvelle offre qui accélère et rend opérationnels l'apprentissage machine et l'analyse statistique à grande échelle, donnera aux organisations un aperçu plus approfondi et une meilleure compréhension de l évolution rapide des volumes de données d'aujourd'hui. En second lieu, cette puissance d analyse bénéficiera également aux recherches en matière de santé pour arriver par exemple au calcul du génome sur une base individuelle un résultat inconcevable voici seulement dix ans.

12 newsfeed Facebook sort son propre SoC Développé avec Intel en technologie 14 nm et présenté lors du très récent Open Compute Summit, «Yosemite» cible le marché des micro-serveurs, avec pour objet de faciliter le scaleout des centres de données. Voilà 18 mois que le réseau social planche sur ce design, qu il offre en Open Source à l Open Compute Project, à partir de l idée que l architecture serveur bi-socket classique devient obsolète compte tenu des nouveaux besoins en puissance et en efficacité énergétique. D où l idée de cartes SoC «empilables», avec 36 SoCs maximum par unité 2U, donc 540 par armoire. Côté spécifications, une carte Yosemite requiert 90 W, offre plusieurs canaux mémoire intègre au minimum un SSD et un contrôleur local, et reste interopérable avec les cartes respectant le standard d interface «Group Hug» (celui-ci offrant par ailleurs des E/S additionnelles via PCIe). Voilà donc une option supplémentaire pour la conception d architectures serveurs ouvertes. Reste à savoir qui la fabriquera, qui la supportera et, donc, qui l adoptera... Google marque un gros point dans le calcul quantique La semaine passée, Google a annoncé avoir posé ce qui pourrait être le premier pavé d une voie qui mène à rendre le calcul quantique enfin opérationnel. On le sait, les qubits qui représentent l état des données à un instant T sont intrinsèquement défectueux. Opérant pour l heure à des températures très basses, ils sont hyper-sensibles à leurs conditions environnementales, ce qui les rend instables. La possibilité qu ils changent d état (de 0 jusqu à 1 et inversement), et donc ruinent les calculs obtenus, est ainsi connue sous le nom de «bit flip». L apport de Google (et de l UCSB) a consisté à démontrer qu il était possible de détecter de telles erreurs, et donc de stabiliser les résultats jusqu à les rendre reproductibles, en assignant à certains qubits la tâche de détecter les bit flips de leurs pairs. Il reste encore d autres sources d erreurs Quantum computer d origine quantique à éliminer sur les prototypes mais cette avancée pourrait être déterminante car elle prouve la possibilité de solutions elles aussi quantiques, donc capables de s adapter à la taille des problèmes traités.

13 newsfeed Microsoft préfère les FPGAs pour le machine learning Nous le prédisons sans haine et sans crainte : à mesure que le machine learning va prendre de l importance, l utilisation de FP- GAs va significativement croître au dépens des GPUs. Petit rappel, un FPGA est un processeur à tout faire sur lequel on peut câbler directement un algorithme, pour le dédier à tâche applicative bien précise. Or, qui dit Big Data ou machine learning (classification et reconnaissance d images, traitement du langage naturel...) dit besoins en débit de données supérieurs aux besoins en calculs purs, grande spécialité des GPUs. Dans de tels contextes, comme en témoigne une littérature de plus en plus abondante, l équation efficacité informatique / efficacité énergétique / coût plaide en faveur des FPGAs. Cette semaine, Microsoft apporte sa contribution au débat avec un livre blanc consacré à un accélérateur de réseau neuronal «convolutionnel» (CNN) développé en interne, à base de FPGAs Altera standards, dont les performances sont «significantly higher» à celles d architectures GPU. D après Altera, cette «logique reconfigurable» atteint aujourd hui 40 Gflops/Watt, une performance 8 fois supérieure à celles des meilleures machines du Green500. Bonne nouvelle pour les développeurs OpenCL : c est ce framework que recommande Altera pour la programmation de ses nouveaux Arria 10... SanDisk ouvre le Flash au Big Data InfiniFlash, tel est le nom du système de stockage 100 % Flash que SanDisk vient d annoncer, avec au cœur de la chose des cartes hot-swap offrant jusqu à 8 To, pour un total de 512 To par unité 3U. De quoi sérieusement accélérer les traitements Hadoops (SanDisk revendique jusqu à 780 kiops), en attendant la mémoire non volatile résistive. Autre avantage de ce système par rapport aux équivalents mécaniques (surtout en 15K), une consommation électrique diminuée d environ 80 %, et jusqu à 15 % par rapport à d autres systèmes SSD. Enfin, l ensemble présente un coût inférieur à $2 par Go stocké (avant compression et déduplication) ce qui, en soi, constitue une autre avancée majeure...

15 newsfeed books Le réalité augmentée avec Unity Guide du développeur Ce livre s adresse à un public de développeurs désireux d apprendre à programmer leurs propres solutions de réalité augmentée à l aide du moteur 3D temps réel Unity. Grâce à une approche pratique et didactique, l auteur analyse les modalités nécessaires à l élaboration d un projet de réalité augmentée, sur terminaux mobiles et sur PC, Mac ou Linux. Les interactions entre les entités virtuelles et réelles sont étudiées en C# sous l environnement Mono. L ajout du composant de réalité augmentée et l étude de marqueurs sont décrits à l aide de nombreux exemples pratiques. Enfin, le développement complet d une application de réalité augmentée pour smartphone est étudié à travers un chapitre entier, qui expose la réflexion sur l architecture, les contraintes techniques et le déploiement, en apportant à chaque problème une solution concrète et fonctionnelle. Editions ENI, Stéphane Drolac, 344 pages, 54 (40,50 en numérique) Apprentissage Machine De la théorie à la pratique L apprentissage machine est l un des domaines phares de l intelligence artificielle. Il concerne l étude et le développement de modèles quantitatifs permettant à un ordinateur d accomplir des tâches sans qu il soit explicitement programmé à les accomplir. Apprendre dans ce contexte revient à reconnaître des formes complexes et à prendre des décisions intelligentes. Compte tenu de toutes les entrées existantes, la complexité pour y parvenir réside dans le fait que l ensemble des décisions possibles est généralement très difficile à énumérer. Les algorithmes en apprentissage machine ont par conséquent été conçus dans le but d acquérir de la connaissance sur le problème à traiter en se basant sur un ensemble de données limitées issues de ce problème. Editions Eyrolles, Massih-Reza Amini, 295 pages (39 ) Big Data Nouvelles partitions de l information Le Big Data est omniprésent dans les médias. Qualifié de source d innovation, de richesses, de création d emplois, d enjeu démocratique quand il est «open», le Big Data fascine et effraye à la fois. Mais de quoi parlet-on exactement? Ces données massives sont-elles du seul domaine des informaticiens, des statisticiens, des politiques et des créateurs d entreprises? Les professionnels de l informationdocumentation n ont-ils pas un rôle à jouer dans ce nouveau paysage : identification, qualification, archivage, classification? Editions Eyrolles, Lisette Calderan, Pascale Laurent, Hélène Lowinger, Jacques Millet 208 pages, 24,50 (18 en numérique)

16 newsfeed moocs Il commence bientôt Architecture de l information Le MOOC propose une initiation à l architecture de l information, ses notions, ses méthodes et ses outils. L approche «architecture de l information» permet de faire vivre une information partagée et de proposer une expérience utilisateur stimulante via les applications web, les applications mobiles, et les dispositifs numériques émergents. L architecte de l information doit réunir six compétences principales : une compréhension du numérique, une bonne connaissance de l organisation de l information, une maîtrise du design de l expérience utilisateur, une capacité à dialoguer avec des métiers variés, une attention continue sur l innovation et enfin un leadership pour le pilotage de projets. Organisateur : ENS de Lyon Langue : français Début des cours : 6 mai 2015 Fin des cours : 1er juillet 2015 Fin des inscriptions : 17 juin 2015 Effort estimé par semaine : 3 à 5 heures Liens pour s inscrire : www.coursera.org/ course/cryptography Ils ont déjà commencé Ecoute téléphonique et Big Data La surveillance à l ère de l interconnexion et la vie privée des utilisateurs Comment la technologie mobile peut permettre une surveillance massive? Les utilisateurs ont-ils des droits? Comment la surveillance affecte la façon dont nous utilisons les technologies mobiles entre autres? Comment cela affecte- t-il nos institutions démocratiques? Savez-vous que les métadonnées collectées par un réseau mobile en disent long sur les utilisateurs? Ce cours vous permettra d explorer toutes ces questions. Organisateur : Université de Cornell Langue : Anglais Début des cours : à la convenance de l élève Fin des inscriptions : n.a Durée des cours : 10 semaines Effort estimé par semaine : 4 heures Liens pour s inscrire : www.edx.org/course/wiretapsbig-data-privacy-surveillancecornellx-engri1280x#.vnsxu_ mg9rm Cryptographie Historiquement, la cryptographie a été utilisée pour assurer la communication privée entre deux personnes. Plus récemment, son champ d application a été élargi à divers usages comme entre autres l intégrité des données, la communication sur Internet sécurisé, la monnaie électronique. La cryptographie est omniprésente. Ce cours proposé par l université du Maryland vous fera découvrir les bases de la cryptographie moderne avec des cas d applications pratiques. Vous apprendrez l importance de la sécurité tout en découvrant l impact de différentes théories dans le monde réel. Vous apprendrez à connaître les primitives cryptographiques dans les utilisation d aujourd hui, et à voir comment celles-ci peuvent être combinés pour élaborer des protocoles modernes de communication sécurisé. Organisateur : Université du Maryland Langue : Anglais Début des cours : 9 mars 2015 Fin des inscriptions : 18 avril 2015 Durée des cours : 6 semaines Effort estimé par semaine : 3 à 5 heures Liens pour s inscrire : www.coursera.org/course/ cryptography

18 à la une Facteur 100 Les enjeux de la virtualisation de la puissance de calcul

19 à la une Les applications nécessitant du calcul à haute performance (appelé aussi calcul intensif ou HPC pour High Performance Computing) sont de plus en plus nombreuses. CAO, simulation des matériaux, création numérique HD, gestion de grosses volumétries de données... elles concernent aujourd hui un large éventail d activités tant dans le secteur académique que privé. Jusqu ici, pour obtenir la puissance nécessaire à ces applications, il fallait multiplier les serveurs de calcul. Cette époque est révolue. Désormais, les accélérateurs parallèles permettent d atteindre des niveaux de performances extrêmes avec une densité, une fiabilité et un coût incomparables. Le secret du calcul intensif virtualisé : la parallélisation Quel que soit le type d accélérateur, le principe est le même : ils parallélisent les tâches répétitives. Cette parallélisation aboutit à des facteurs d accélération pouvant atteindre 100x sur certaines applications. Les technologies de virtualisation s étendent aux accélérateurs graphiques L écosystème de technologies NVIDIA GRID exploite la puissance des processeurs graphiques NVIDIA pour accélérer une grande variété de jeux, d espaces de travail et d applications en réseau, pour tous les utilisateurs. Les GPU NVIDIA GRID offrent la meilleure expérience utilisateur avec des capacités graphiques incomparables, aussi bien pour les entreprises que pour les fournisseurs de services. Une puissance de calcul illimitée Avec l intégration des technologies «GPU passthrough» et «virtualgpu» de NVIDIA, de plus en plus d entreprises s interrogent sur l opportunité de virtualiser les stations de travail au sein de serveurs dans les datacenters. L objectif n est pas de remplacer toutes les stations de travail physiques, mais plutôt d apporter des solutions complémentaires pour consolider les équipements les moins utilisés et concrétiser de nouveaux scénarios. Cette

20 à la une Bénéfice n 1 Performance Tout comme dans le cas des usages Cloud, le recours à une puissance de calcul virtualisée sans limite repousse le champ des possibles. Sur des calculs hautement parallélisés, les performances peuvent être multipliées par un facteur 100. virtualisation permet notamment de conserver les données les plus sensibles dans le datacenter et d éviter échanges et transferts risqués, de mieux appréhender les pics d activité en jouant sur l élasticité des VM, et surtout de matérialiser toutes sortes de scénarios mobiles où l on est amené à montrer/animer/éditer des modèles en 3D depuis des tablettes ou des ordinateurs nomades. Nvidia GRID : une offre de virtualisation de puissance de calcul mature Les capacités de virtualisation GRID de NVI- DIA permettent de partager simultanément des ressources GPU entre utilisateurs. Ses capacités de streaming assurent un affichage rapide à faible latence et facilitent la mise en réseau des centres de données. L environnement logiciel NVIDIA GRID comprend des bibliothèques de virtualisation GPU, de mise en réseau et de gestion de session permettant à des utilisateurs multiples d utiliser des jeux et les applications graphiques intensives grâce à la puissance partagée de plusieurs GPU. NVI- DIA GRID accélère la capture, une compression efficace, un streaming rapide et un affichage à faible latence de jeux et d applications professionnelles à hautes performances. Nvidia GRID vgpu pour l accélération GPU des applications et bureaux virtuels La technologie vgpu accélère également les bureaux virtuels et les applications en conservant le moteur de calcul et de rendu sur un serveur ou un datacenter vers n importe quel utilisateur se trouvant sur le réseau. Ce modèle est finalement proche du streaming qui a révolutionné l industrie du cinéma et de la musique. L environnement logiciel GRID vgpu apporte tous les avantages de l accélération graphique matérielle aux solutions de virtualisation professionnelles. Cette technologie partage les ressources d un même GPU entre plusieurs utilisateurs et procure aux bureaux virtuels des performances graphiques haut de gamme dignes d un PC en local. Elle transmet les commandes graphiques de chaque machine virtuelle directement au GPU, sans pas-