Bulletin de Juin 2014 (2014/2)

Dimension: px
Commencer à balayer dès la page:

Download "Bulletin de Juin 2014 (2014/2)"

Transcription

1 Site Web : Bulletin de Juin 2014 (2014/2) Bonjour à tous, voici notre deuxième Bulletin de 2014, c est l été. Nous ferons un survol des évènements du 2 ème trimestre 2014, et nous verrons le programme des mois à venir. Nous continuerons également nos rubriques sur l actualité de nos adhérents, du CARA, de l industrie informatique, et de IBM Les événements récents Conférences o Mexico et les villes coloniales o Histoire du CER Sorties et Visites o 100 ème Anniversaire d IBM France à Marineland o Visite du CERN Genève Juin de sport Les événements futurs Conférences o Gestion de patrimoine BPCA o Souvenirs d un voyage en Inde Sorties et Visites o Visite du fort du Mt. Alban o Un après-midi au Suquet o Visite du Palais Garnier à Monte-Carlo o Visite du nouveau stade de Nice Allianz Riviera o Visite de Marseille / MUCEM Juin 2014 (2014/2) 1

2 Actualités, industrie informatique, IBM 5 idées IBM pour les 5 prochaines années Interview de Alain Benichou Le cloud computing : un marché en pleine effervescence IBM et le Cloud Computing IBM achète Cognea, pour ajouter ses assistants virtuels à Watson Concur annonce une alliance stratégique avec IBM IBM et Pro BTP Contributions du laboratoire IBM de La Gaude au progrès de l'informatique et des télécommunications La Question Technique : comment a évolué le disque dur? IBM s'intéresse également au SDS avec Elastic Storage IBM et Fujifilm inventent une bande de stockage ultra-dense pour le big data Stockage IBM envisagerait de céder son activité de fabrication de puces IBM et les nouveaux métiers du numérique IBM France 100 ans Que diriez-vous d ordinateur? Le Mainframe d IBM fête ses 50 ans IBM Mainframe50 Un System Z calibré pour le cloud IBM invente une nouvelle génération de polymères pour les composants électroniques IBM lance la vague des puces Power8 à l assaut du Big Data IBM prépare les serveurs Power 8 IBM lance ses premiers systèmes Power8 La technologie d'ibm va faire de la Colombie-Britannique la côte la plus intelligente de la planète Un chercheur d'ibm décroche le «Prix Nobel» des technologies L intelligence artificielle : une menace pour les professions intellectuelles? Le système Watson trouve sa place chez IBM Juin 2014 (2014/2) 2

3 Rappel amical (L adhésion est annuelle de Janvier à Décembre) N oublions pas de verser notre cotisation annuelle 2014, et pour d autres d adhérer à notre groupement amical dont les propositions se font et se feront plus intéressantes et plus pertinentes, grâce à vous tous. Merci d envoyer un chèque de 25, à l ordre du CARA IBM, à l adresse suivante : Monique Fulconis, CARA IBM, villa "Lu Roure", 4938 route de Saint Jeannet, Saint- Laurent du Var. Le bulletin d adhésion est disponible ci-dessous. IMPORTANT : Il n'est pas à remplir si vous étiez déjà adhérent en En revanche, merci de nous signaler d'éventuels changements de coordonnées, téléphone, adresse Internet... Les bonnes volontés pour participer aux activités du CARA seront les bienvenues : bureau, organisation d événements... Juin 2014 (2014/2) 3

4 Bulletin d adhésion au CARA Bulletin IBM Cara Sud-Est Type d'adhérent * Retraité Pré-retraité Actif Veuf / Veuve Autre Date d adhésion (jj/mm/yyyy) / / Matricule IBM * Date d'entrée à la compagnie (jj/mm/yyyy) * Lettre Clé * / / Date de fin d'activité (jj/mm/yyyy) / / Civilité * Monsieur Madame Mademoiselle Nom * Prénom * Date de naissance (jj/mm/yyyy) * / / Adresse * Complèment d'adresse (lieu-dit, Résidence, B.P...) Code postal * Ville * Tél. domicile Courriel Conjoint / Ayant-droit Civilité Monsieur Madame Mademoiselle Nom Prénom Date de naissance (jj/mm/yyyy) / / Juin 2014 (2014/2) 4

5 Les événements récents Bulletin IBM Cara Sud-Est Les événements récents Conférences Mexico et les villes coloniales souvenirs d un voyage au Mexique Ce film présenté par Michel Genot, le 04 Avril, a réuni 46 personnes. Michel Genot, conférencier Histoire du CER Ou: "Si l'archéologie du CER m'était contée" Beaucoup de fables ont été dites et écrites sur les évènements et les personnalités qui ont conduit à la "décentralisation", le choix du lieu, la création du CER à La Gaude et ses missions. Au moment où IBM va tourner la page, Maurice Papo, acteur principal de cette implantation, a voulu rétablir la vérité historique pour ceux qui en ont vécu l'aventure et les conséquences. Cette conférence, présentée le 23 Mai, a réuni 56 personnes. Maurice Papo Jacques Gros, Frédéric Allard, Maurice Papo Juin 2014 (2014/2) 5

6 Les événements récents Sorties et Visites Centenaire de IBM France Soirée à Marineland A l occasion du 100 ème Anniversaire de IBM France, le CER IBM La Gaude a organisé une soirée à Marineland, en y invitants les adhérents du CARA Sud-Est Une vingtaine de caraistes avaient répondu présents et ont assisté au spectacle grandiose des orques, ainsi qu'au dîner qui rassemblait 400 personnes (IBM actifs) environ... Dans son allocution, Frédéric Allard a rendu hommage au CARA. Visite du CERN à Genève, lundi 16 juin 2014 : Le CERN, l Organisation européenne pour la recherche nucléaire, est l un des plus grands et des plus prestigieux laboratoires scientifiques du monde. Il a pour vocation la physique fondamentale, la découverte des constituants et des lois de l Univers. Il utilise des instruments scientifiques très complexes pour sonder les constituants ultimes de la matière : les particules fondamentales. En étudiant ce qui se passe lorsque ces particules entrent en collision, les physiciens appréhendent les lois de la Nature. Les instruments qu utilise le CERN sont des accélérateurs et des détecteurs de particules. Les accélérateurs portent des faisceaux de particules à des énergies élevées pour les faire entrer en collision avec d'autres faisceaux ou avec des cibles fixes. Les détecteurs, eux, observent et enregistrent le résultat de ces collisions. Fondé en 1954 (60 ans cette année!), le CERN est situé de part et d autre de la frontière francosuisse, près de Genève. Il a été l une des premières organisations à l'échelle européenne et compte aujourd hui vingt et un États membres." ( Jacques Besseyre, un des membres du CARA a proposé cette visite. Le groupe étant limité par l'établissement, seules 28 personnes de notre association ont pu s'inscrire et faire le déplacement : un aller-retour Nice-Genève, en avion, dans la journée. Juin 2014 (2014/2) 6

7 De l'aéroport, un bus de la ville part et passe devant le CERN, ce qui est bien pratique et peu fatigant. Dès notre arrivée, nous avons visité deux expositions forts intéressantes, l'une dans le bâtiment d'accueil et l'autre sous une grande coupole de bois (voir photo ci-dessous). Après un déjeuner à la cantine (très bien...) nous nous sommes installés pour une présentation d'environ une heure. Le conférencier, Marc Goulette, un physicien du CERN, a été très surpris du niveau de connaissance de son auditoire. Les questions des caraïstes montraient que le sujet était sur bien des plans, très bien maîtrisé, qu'il s'agisse des bosons de Higgs, de quarks, et autres... Un bus privé, nous a ensuite conduit aux ateliers. Accueillis par deux physiciens, la visite fut des plus enrichissantes. Pour rejoindre l'aéroport, le groupe a repris le bus de la ville. A l'aller, les tickets étaient gratuits, mais au retour il fallait les payer. Plusieurs d'entre-nous, n'ayant pas de monnaie, ont voyagé sans billets. Avec la crainte qu'un contrôleur monte dans le bus, l'ambiance était espiègles et joyeuses. De vrais potaches en goguette! Mais, chut, il ne faut pas le répéter!... Juin 2014 (2014/2) 7

8 Deux albums de photos prises par JC Pertusier et Jacques Gros, sont diponibles sur notre espace partagé Dropbox ainsi qu un clip vidéo, enregistré par Bernard Grandry Juin 2014 (2014/2) 8

9 Juin de sport, 2014, IBM La Gaude Bulletin IBM Cara Sud-Est Depuis quelques années a lieu à IBM La Gaude, une manifestation sportive appelée "Juin de Sport". Cette année, la date retenue était celle du 17 juin. Le CARA y était encore présent. En tant que soutien à cette manifestation notre Association a offert les coupes récompensant le premier de chaque épreuve (pétanque, course à pieds, tennis, football, etc...). Ce sponsoring est une très bonne manière de nous faire connaître et de montrer notre dynamisme! Les événements à venir Les futures conférences Plusieurs conférences sont en cours d organisation pour la rentrée, des informations plus précises seront diffusées : Gestion de patrimoine - BPCA La Banque Populaire Côte d Azur tiendra une conférence le 23 Septembre. L Inde des Religions Projection de reportages filmés par Yves Bonnet o Les BRAHMANES de Varkala o AJMER Soufis, Jaïns, Hindus et business o AMRITSAR et l'histoire du Temple d'or Juin 2014 (2014/2) 9

10 Les futures Sorties et Visites Bulletin IBM Cara Sud-Est Une liste préliminaire des visites et sorties possibles pour le 2 ème Semestre 2014: Visite du fort du Mont Alban La visite est planifiée pour le 03 Juillet, en 2 sessions (15 :00 et 16 :00), à cause du nombre important d inscrits. Mercredi 8 octobre 2014, 14h30 : après-midi au Suquet Au départ de l hôtel de ville de Cannes, nous emprunterons des rues étroites (rue du Barri, rue Coste-Corail, rue de la boucherie ) témoins du passé moyenâgeux de la bourgade qui nous conduiront place de la Castre d où nous jouirons d un panorama exceptionnel sur le vieux port, le Palais des Festivals, certains palaces et bâtiments anciens prétextes à quelques évocations historiques. Nous rejoindrons alors le Moulin Forville, ancienne demeure de Victor Tuby, félibre, grand admirateur de Frédéric Mistral, chantre de la culture provençale. Par petits groupes nous parcourrons les différentes pièces où sont conservés des objets et des meubles lui ayant appartenu. L après-midi se terminera par un goûter dans la grande salle du Moulin. Groupe limité à 20 personnes. Prix, tout compris (guide, visites, et goûter) : 8 /personne Inscription Monique Fulconis [email protected], tél Juin 2014 (2014/2) 10

11 Autres visites possibles Bulletin IBM Cara Sud-Est Visite du Palais Garnier à Monte-Carlo Visite du nouveau stade de Nice Allianz Riviera Visite de Marseille / MUCEM Ces visites et leurs dates seront confirmées dans des annonces ultérieures. Toute suggestion pour des sorties en 2014 sera la bienvenue. Contacter : Monique Fulconis, tél , courriel : [email protected] Juin 2014 (2014/2) 11

12 Actualités, industrie informatique, IBM Cette série d articles a été collectée par Pierre Alliez, notre veilleur technologique. Juin 2014 (2014/2) 12

13 5 idées IBM pour les 5 prochaines années Juin 2014 (2014/2) 13

14 Bulletin IBM Cara Sud-Est Interview de Alain Benichou Interview de Alain Bénichou sur BFM TV le 25 Avril 2014 Alain Benichou était l invité de BFM Business ce matin. Le président d IBM France revient sur les défis de l entreprise après un siècle de présence en France. Le groupe veut "apporter le meilleur aux entreprises, parce qu elles doivent se transformer pour affronter l économie mondiale. C est une grande fierté pour IBM France d avoir accompagné les entreprises françaises depuis 100 ans. La SNCF en 1920 et juste après Renault. Finalement, ça leur a permis de devenir des entreprises mondiales". Et de préciser que IBM est une entreprise globalisée : "Je ne sais pas ce que c est que la nationalité d une entreprise. IBM a toujours été une entreprise qui fonctionne dans les 175 pays où elle est présente." Sur la sécurité des informations digitales, Alain Benichou rassure : "Les données que nous gérons appartiennent à nos clients. Elles sont en général dans des data-centers français. Le point of delivery sera à Clichy. Les données de nos clients resteront en France et serons protégées." Le cloud computing : un marché en pleine effervescence Publié sur le 06 Juin 2014 L essor du cloud computing se confirme. Il faut dire que ce concept d organisation informatique, qui permet d utiliser des ressources à distance, a de multiples atouts (gain de temps dans le déploiement des ressources, élasticité de l accès aux ressources, etc.). Plutôt que d investir dans du matériel IT et dans des licences logicielles, les entreprises et les administrations plébiscitent de plus en plus le modèle de paiement à l usage. Elles préservent ainsi leur trésorerie et évitent des soucis comptables supplémentaires liées à l amortissement, aux coûts de maintenance et aux coûts de mise à jour. Résultat, le marché français a progressé de plus de 20% en Et cette tendance devrait se poursuivre d après Xerfi, avec notamment un léger rebond des dépenses IT des entreprises et des administrations d ici Les Français pourraient tirer leur épingle du jeu " Aujourd hui, la majeure partie du marché hexagonal est entre les mains des géants américains tels qu Amazon Web Services, Microsoft ou IBM, relève Gabriel Giraud, chargée d'étude au sein de Xerfi. Mais les Français pourraient bien contre-attaquer. En effet, les problématiques de sécurité des données sont revenues sur le devant de la scène, notamment avec l affaire Prism. La révélation de ce programme de surveillance électronique a durablement terni l image des leaders Juin 2014 (2014/2) 14

15 américains comme Amazon ou IBM. Et ce scandale pourrait in fine avoir des répercussions positives sur l activité des spécialistes français du cloud computing ". De plus, l adoption de l informatique dans les nuages par les PME constitue un marché à fort potentiel de croissance pour les intervenants. Seulement 20% des structures de moins de 200 personnes utilisaient le cloud computing en Ainsi, les spécialistes poursuivent leurs efforts pour adapter leurs offres aux besoins de ces petites structures et axer leur communication sur la rapidité et la facilité de mise en place de leurs produits et services. Les spécialistes français pourront, pour cela, compter sur leur relation de proximité avec les PME établie antérieurement. A titre d exemple, SFR a créé en juin 2013 le Pack Business Entrepreneurs, une offre de services de télécoms et de cloud dédiées aux petites entreprises. Dans ce contexte, les experts de Xerfi tablent sur une hausse de l activité des spécialistes nationaux du cloud computing de 20,5% en moyenne par an, à l horizon Le dynamisme de l activité des opérateurs français reposera également sur la mobilisation des pouvoirs publics. Avec le coup d envoi du projet «Nouvelle France industrielle», l Etat français souhaite développer l offre et l usage du cloud computing. Il a pour ambition de renforcer la sécurité à l usage, d aider des jeunes entreprises à se développer dans ce secteur, et de soutenir les opérateurs français face aux géants américains. IBM et le Cloud computing IBM lance une boutique de services Cloud Publié sur le 28 Avril 2014 Cloud Computing : IBM continue de développer son offre Cloud. Outre des développements sur sa plateforme BlueMix, Big Blue a lancé Cloud marketplace, une place de marché pour ses services Cloud et ceux de ses partenaires. Big Blue se positionne à son tour sur le segment des places de marché dédiées aux services Cloud. L éditeur vient en effet de lancer Cloud marketplace, une boutique regroupant ses applications et services Cloud, ainsi que les offres de partenaires. Avec Cloud marketplace, IBM souhaite faciliter et accélérer l adoption de Cloud hybrides, c est-àdire la possibilité pour les entreprises de combiner leurs systèmes on-premise ou legacy avec des applications en mode Cloud. Dans sa boutique, au lancement, IBM propose des services Cloud allant de l analyse des Big Data à la sécurité et le mobile. Parmi les partenaires appelés à se joindre à la plate-forme, IBM cite les éditeurs Zend, SendGrid, MongoDB, NewRelic, Redis Labs, Sonian, Flow Search Corp, Twilio et Ustream. Juin 2014 (2014/2) 15

16 Autre annonce faite par ailleurs par IBM : le développement (30 nouveaux services) de sa plateforme Cloud ouverte (du PaaS Open Source), BlueMix. Celle-ci permet aux développeurs de concevoir et tester leurs applications Cloud, avant éventuellement de les commercialiser via la nouvelle Cloud marketplace d IBM. IBM regroupe ses offres cloud dans une nouvelle marketplace Publié sur le 28 Avril 2014 par Virgil Juhan IBM Cloud Marketplace est une nouvelle boutique d'applications, réunissant l'offre cloud d'ibm mais aussi de tiers. IBM continue son offensive sur le cloud computing, et lance "IBM Cloud Marketplace". Comme son nom indique il s'agit d'une place de marché, c'est-à-dire une boutique d'applications réunissant les différentes offres cloud d'ibm et de tiers. Un service comparable à ce que propose Salesforce avec son AppExchange et qui s'inscrit dans la lignée de ce qu'a déjà impulsé IBM avec "BlueMix", le projet qui réunissait ses nouvelles offres cloud en matière de middleware. Le site IBM Cloud Marketplace est déjà consultable, même s'il est décrit comme une bêta fermée. Lancé et annoncé ce lundi 28 avril aux Etats-Unis, il propose déjà une centaines d'offres. On y trouve PHP 5.5, la version communautaire de MongoDB ou des outils signés IBM facilitant le déploiement d'apache Tomcat, d'oracle Weblogic 12c ou de SharePoint. En tout, le catalogue est riche d'une centaine de références, mais IBM va pouvoir accueillir d'autres fournisseurs, à condition que leurs produits puissent s'exécuter sur Softlayer, l'infrastructure cloud que le groupe a rachetée 2 milliards de dollars en juin Les nouvelles technologies Cloud d'ibm rendent l'analytique plus accessible Publié sur le 21 Mai 2014 IBM annonce un ensemble de solutions pour accompagner les dirigeants dans la prise de décisions réfléchies grâce aux informations recueillies en temps réel sur de nombreux sujets stratégiques, quel que soit l'endroit ou le moment. La notion d' "analytique omniprésente" devient ainsi chaque jour une réalité en rendant les technologies Big Data & Analytics plus accessibles, plus simples d'utilisation, et disponibles à tous les collaborateurs partout et à tout moment. Juin 2014 (2014/2) 16

17 De plus en plus d'organisations se tournent vers le Big Data & Analytics afin de générer du profit et de la croissance. Parce que les entreprises étudient des sources de données à la fois internes et externes, la nécessité d'une analyse de données à valeur ajoutée à tous les niveaux est devenue primordiale. Le cabinet Gartner prévoit que l'analytique sera utilisé par 50 % des collaborateurs en D'ici 2020, ce chiffre atteindra 75%. Malgré cette montée en puissance de l'analytique, les organisations ont encore des difficultés à analyser les données en temps réel et à se donner les moyens d'une meilleure prise de décisions et d'une mise en place plus rapide d'actions appropriées par plus d'acteurs au sein de l'organisation. C'est lors de sa conférence Vision qui se tient cette semaine, qu'ibm annonce un nouveau logiciel disponible sur le Cloud qui met l'analyse et l'exploitation des données entre les mains d'un plus grand nombre de professionnels. Ces nouvelles solutions comprennent: Une offre analytique désormais disponible sur IBM Cloud Marketplace qui permet de gérer le volume croissant et la complexité des processus et des tâches. Cette solution accompagne des collaborateurs de plus en plus mobiles, et souligne l'importance de la collaboration dans les Réseaux Sociaux d'entreprise (RSE) comme partie intégrante de la prise de décision. Un nouvel outil analytique de découverte et de visualisation qui permet aux utilisateurs d'interagir visuellement et qui applique des analyses avancées des données qui deviennent accessibles à tous, sans avoir besoin des compétences d'un data scientist. Un logiciel de gestion de risque et de gouvernance disponible sur SoftLayer, comme un "Managed Service" qui permet aux entreprises de développer une stratégie globale de conformité et de gestion des risques dans de nombreux domaines. Ces annonces soulignent l'engagement d'ibm pour fournir aux organisations un large portefeuille de solutions Big Data & Analytics qui répond à tous leurs besoins. Avec plus de 24 milliards de dollars investis dans le Big Data et Analytics à travers la R&D et de nombreuses acquisitions depuis 2005, IBM continue à s'engager dans??sa mission d'aider les entreprises à exploiter l'énorme quantité de données numériques en provenance des bases de données d'entreprise, des capteurs, des smartphones, d'internet, des réseaux sociaux etc. IBM sacré meilleur fournisseur de cloud par IDC Publié sur le 12 Mai 2014 par Antoine Crochet-Damais Le cabinet d'étude a dévoilé un classement des meilleures offres de cloud. Le palmarès classe IBM grand gagnant. Il y a quelques jours, Forrester publiait son Forrester Wave (l'équivalent du Magic Quadrant du Gartner) sur le Big Data. Il plaçait alors IBM en tête sur ce segment, à la fois en termes de stratégie et de qualité d'offre. Sur le terrain des solutions de cloud (orientée infrastructure - ou IaaS) cette fois, IDC vient de dégainer son étude Et, là encore, IBM arrive premier. Réalisée auprès de 400 grandes entreprises américaines, l'enquête place Big Blue en tête aussi bien en termes de technologies de cloud public que privé. L'offre IBM est ainsi plébiscitée par 35% des répondants, à la fois pour la qualité de sa technologie cloud, son niveau simplicité, son coût, sa vitesse de provisioning, et sa capacité à monter en charge. Il est suivi dans l'ordre par : Cisco, HP et AT&T. Google et Microsoft suivent (avec 16% de réponses chacun), puis Amazon (13%). Il semble bien que les acteurs historiques de l'infrastructure d'entreprise demeurent des valeurs sures sur le front du cloud computing, et ce, à la différence des acteurs du cloud public tels que Google, Microsoft ou Amazon. Reste que le périmètre de l'étude, portant également sur la dimension du cloud privé, tend forcément à placer au second plan ces pure players du cloud public. Juin 2014 (2014/2) 17

18 IBM achète Cognea, pour ajouter ses assistants virtuels à Watson Publié sur le 20 mai 2014 par Serge Leblal L'acquisition de la start-up Cognea s'inscrit dans le programme d'ibm visant à développer la commercialisation de services reposant sur sa plate-forme Watson. Les avatars très riches de Cognea vont permettre à IBM de développer des services pour les banques ou les assurances Avec le rachat de Cognea et de ses assistants virtuels, IBM envisage de déployer cette technologie sur sa plate-forme informatique cognitive Watson. Les assistants virtuels de la start-up reposent sur une large palette d'avatars utilisant une grande variété de personnalités - du costume- cravate classique à des personnages plus amicaux», a déclaré Mike Rhodin, viceprésident senior de Watson Group chez IBM, dans un billet de blog. «Nous croyons à cette focalisation sur la profondeur de la personnalité, lorsqu'elle est combinée avec une compréhension des utilisateurs pour un nouveau niveau d'interaction qui va bien au-delà de celui des smartphones». Cette allusion au Siri d'apple souligne les ambitions d'ibm sur le marché des assistants virtuels et de l'intelligence artificielle, notamment dans le secteur des assurances ou de la santé. «Je ne parle pas d'envoyer un ordre ou de poser une question simple à un ordinateur», ajoute M. Rhodin dans son billet de blog. «C'est la technologie d'hier, je parle de conversations plus réalistes - d'un bavardage amical à un débat intense». L'acquisition de Cognea fait suite aux investissements d'ibm dans Fluid, qui propose une application de type assistant commercial, et dans Welltok, qui a développé des sites sur les soins de santé. IBM n'a pas divulgué les conditions financières de l'acquisition Cognea. Big Blue a fait grand bruit avec Watson en 2011, lorsque son système informatique a battu des anciens champions du jeu Jeopardy. Il a ensuite décidé de commercialiser sa technologie. Un peu plus tôt cette année, IBM a annoncé qu'il allait investir plus de 1 milliard de dollars pour créer la business unit Watson que dirige aujourd'hui Mike Rhodin. 100 millions de dollars vont être investis dans des start-ups pour créer des applications cloud exploitant les capacités de traitement de Watson. Concur annonce une alliance stratégique avec IBM Publié sur le 07 Mai 2014 Forte de ses entreprises équipées de ses solutions et des 25 millions de voyageurs représentés, Concur annonce la conclusion d'une alliance stratégique avec IBM pour commercialiser conjointement ses solutions auprès des grandes entreprises internationales. Dans le cadre de cet accord, IBM s'engage à proposer activement les solutions Cloud de gestion des déplacements et frais professionnels Concur à ses clients : IBM Global Expense Reporting Solutions. Ces derniers continueront de bénéficier de l'expertise et du support d IBM Global Juin 2014 (2014/2) 18

19 Process Service et Business Process Outsourcing alors qu ils passeront sur la plate-forme de gestion de déplacements et frais professionnels Concur leader sur son marché et utilisée dans plus de 150 pays. «IBM et Concur sont des pionniers dans la livraison de solutions de dimension internationale. Ensemble nous servons les plus grand groupes mondiaux. Depuis 20 ans, Concur définit le marché de la gestion automatisée des voyages et dépenses professionnelles. En nous appuyant sur les technologies les plus innovantes, nous nous attachons à proposer une suite de solutions complémentaires dans le but d aider et simplifier le quotidien des entreprises et de leurs salariés en ce qui concerne les services liés aux voyages, les réservations, le remboursement des dépenses, le traitement et la gestion des dépenses.», explique John Torrey, EVP, Corporate Strategy de Concur. IBM continuera à fournir des services de back-office T&E aux clients équipés des solutions Concur, désormais intégrées aux solutions BPS d IBM. «Pour continuer de fournir des services T&E à la pointe de l innovation à nos clients, il nous a semblé naturel et logique d en devenir le partenaire», explique Sandy Khanna, Global Practice Leader chez IBM Global Process Services. «Nous constatons actuellement un changement fondamental sur le marché du T&E vers une gestion plus intégrée du voyage professionnel, et Concur offre la solution la plus avancée pour améliorer considérablement l efficacité et l efficience des process T&E». IBM et Pro BTP Publié sur le 11/06/2014, par Guillaume Champeau IBM a signé un accord avec le groupe PRO BTP pour réaliser un outil de Big Data qui permettra de "vérifier que les cotisations des assurés soient bien utilisées pour des besoins de santé réels". Mais le groupe ne veut pas préciser les données qu'il exploitera. Dans un communiqué de presse inhabituellement court, IBM a annoncé jeudi dernier avoir passé un accord avec PRO BTP, qui se définit comme le "premier groupe professionnel de la protection sociale en France", avec 3,5 millions d'adhérents et plus de entreprises cotisantes. L'organisation propose un ensemble de prestations (retraite, prévoyance, santé, assurance, épargne,...) réservées aux professionnels du bâtiment et des travaux publics, et gère près de 7 milliards d'euros de cotisations. "IBM et PRO BTP associent leur savoir-faire métier et les solutions Big Data & Analytics afin de développer une solution sécurisée, communautaire, fonctionnant en temps réel qui permettra de lutter contre les abus de prestations et la fraude aux remboursements des soins de santé", indiquait le communiqué. "Grâce à une veille permanente, cette solution permettra de vérifier que les cotisations des assurés soient bien utilisées pour des besoins de santé réels." Mais interrogé par Numerama, IBM n'a pas souhaité nous en dire plus sur le type d'informations qui seraient mises "dans le cloud" pour permettre à PRO BTP de détecter les fraudes, ou sur leur provenance. "A ce stade nous ne pouvons pas communiquer d'autres informations", nous a répondu le prestataire. On ne sait donc pas, par exemple, si le système développé par IBM et PRO BTP exploite Facebook ou d'autres réseaux sociaux, comme pourrait le faire à son niveau la sécurité sociale, à l'image de ce qui existe dans d'autres pays. D'abord sur l'optique et le dentaire En Italie par exemple, la sécu a signé un accord avec la société américaine Teradata pour croiser ses données avec celles récupérées sur les pages Facebook des assurés sociaux. Ceci afin de vérifier qu'un salarié officiellement en arrêt maladie pour une double fracture du poignet ne publie pas sur Facebook de photographies de la salle de bain qu'il a retapé lors de son congé. Le fisc est également tenté de recourir aux mêmes méthodes. IBM précise simplement dans son communiqué que la solution ne sera mise en place cette année que pour les remboursements en matière d'optique et de soins dentaires, ce qui pourrait viser Juin 2014 (2014/2) 19

20 davantage les fraudes par les professionnels (telles que celles dénoncées par l'ufc-que Choisir) que les assurés eux-mêmes. "La démarche évolutive poursuivra son enrichissement vers d'autres spécialités médicales et pourra s'élargir à la prévoyance", précise toutefois le groupe. Contributions du laboratoire IBM de La Gaude au progrès de l'informatique et des télécommunications Lorsque IBM France décide de créer à La Gaude son "Centre d'études et de Recherche" (CER), vers la fin des années 50, le concept de téléinformatique est dans l'air du temps, et la recherche appliquée d IBM s intéresse tout naturellement à ce domaine qui englobe la transmission des données et la commutation téléphonique. Le CER, dont les nouveaux bâtiments sont inaugurés sur le site de La Gaude en 1963, va en faire sa spécialité et y jouer un rôle prépondérant, avec de nombreuses innovations remarquées dans des domaines comme, la téléphonie, le traitement numérique des signaux, l intégration voix/données, les réseaux de communication. Très rapidement après son installation à La Gaude, et tout au long des décennies suivantes, le Laboratoire a été un pionnier dans la transmission de données que ce soit sur réseaux terrestres (téléphone, réseaux spécialisés, réseaux numériques) ou par satellites. Il a aussi apporté son expertise dans la protection de la transmission et dans le développement des modems, dans les différentes générations de nœuds de réseaux et dans l architecture des nouveaux réseaux à large bande (infrastructure de l Internet). Certains concepts et inventions sont toujours utilisés dans des produits et techniques tels que dans la téléphonie mobile, Internet. Parmi les réalisations les plus marquantes dans ces domaines, on peut citer : En 1969, la première réalisation commerciale d'un autocommutateur téléphonique privé entièrement électronique. L expérience internationale conduite 1979 où 4 ordinateurs (En Europe et aux États Unis) étaient reliés via une liaison par satellite: le projet "Symphonie". La définition en 1987 d un algorithme de codage de la voix qui sera retenu par les opérateurs Européens. Il constituera le fondement du codeur de voix standard de la norme GSM, et sera déployé en 1991 dans le premier réseau mobile cellulaire Paneuropéen encore en vigueur aujourd hui. L ensemble des Contributions du laboratoire IBM de La Gaude au progrès de l'informatique et des télécommunications a été publiée, en détail en Français: dans les cahiers de l AHTI, et en Anglais: dans les Annales Internationales pour l Histoire de l Informatique (IEEE Annals of the History of Computing). en Le projet "'Symphonie" Ce projet, que le centre de La Gaude a réalisé, à la fin des années 70, entre les laboratoires IBM de La Gaude (chef de projet) et de Gaitersburg, le laboratoire américain de la COMSAT, l administration française des PTTs et l Agence Spatiale Allemande. Il s agissait de faire la première expérience mondiale de transmission à haute vitesse entre ordinateurs, via un satellite de communication,: «Symphonie», (le premier satellite européen expérimental de communication géostationnaire). La vitesse de transmission de l information était supérieure à deux millions de bits par seconde. Dans la phase finale de l'expérimentation, un véritable réseau de 4 ordinateurs fut mis en place, deux ordinateurs aux Etats-Unis, dans la région de Washington, et deux en Europe, à La Gaude et en Allemagne près de Munich, site de l Agence Spatiale Allemande, Ce projet fut un succès, il préfigurait le réseau mondial utilisé de nos jours par l'internet. Juin 2014 (2014/2) 20

21 Codage de la voix pour le téléphone mobile GSM Pour le groupe de traitement du signal d IBM à La Gaude, l aventure du GSM démarre en 1985, par une collaboration avec le CNET, alors embarqué dans la normalisation du futur téléphone mobile pan-européen, Le codeur proposé par IBM La Gaude est choisi au niveau Français en Juillet En Janvier 1987, le groupe d'experts Européens retient le codeur IBM, ainsi qu'un autre proposé par Philips de bonne qualité aussi. IBM analyse très vite les résultats et propose alors une solution permettant de rassembler les points forts des deux systèmes. C'est ce codeur qui sera finalement sélectionné par le groupe d'expert Européens de La Haye en Juillet L'année suivante, la norme du codeur de voix standard (GSM Recommandation 06.10) du premier réseau mobile cellulaire Pan-Européen sera finalisée, le réseau GSM rentre en phase d'exploitation en fin C'est ce mode de codage de la voix inventé à IBM La Gaude qui est toujours aujourd'hui utilisé dans les téléphones mobiles dans le monde entier. La Question Technique : comment a évolué le disque dur? Publié sur le 19 Avril 2014 par Matthieu Sarter Cette semaine dans La Question Technique, il est question de disque dur traditionnel. Vous savez, ce modèle à plateaux magnétiques qui fêtera bientôt ses 60 ans. Une pièce informatique fascinante, qui a traversé l'histoire sans finalement trop changer... Véritable vétéran, le disque dur est le composant dont la conception de base a le moins évolué avec le temps en apparence. Car en réalité, les disques durs d aujourd hui sont de véritables bijoux de technologie, avec une mécanique d une finesse extrême, sans doute la plus précise des mécaniques produites en aussi grande quantité (700 millions d unités par an actuellement ), fruit de plusieurs décennies d évolution. Un peu d histoire Inventé il y a plus de cent ans, le stockage de données sur support magnétique se faisait initialement sur des bandes, qui défilaient le long d une tête fixe. Un système qui cumulait deux défauts : des temps d accès parfois importants (nécessité de faire défiler une grande longueur de bande pour accéder à une donnée) et les frottements de la bande sur la tête, qui peuvent provoquer une usure, voir une rupture de la bande. Pour remédier à ces défauts, IBM a conçu le disque dur. Au lieu d y stocker les données sur une bande souple, elles sont stockées sur un disque d aluminium en rotation (aujourd hui remplacé par du verre ou de la céramique), au-dessus duquel se déplace une tête mobile Juin 2014 (2014/2) 21

22 Un disque dur IBM 350, à l'embarquement... Première implémentation de cette idée, et donc premier disque dur de l histoire, le IBM 350 a été lancé en Il était constitué de 50 plateaux double-face de 24" tournant à 1200 RPM et d une paire de têtes de lecture, qui passait d un plateau à l autre en fonction des besoins Son boîtier occupait un volume de près de 2 m³ pour un poids de l ordre de la tonne. Il offrait une capacité de 3.75 Mo et son débit atteignait 6.5 Ko/s, avec un temps d accès moyen de 600ms. Oui, c était une autre époque La première évolution majeure a été le IBM 1301, lancé en 1961, qui a apporté deux grosses innovations. La première est le recours à une paire de têtes par plateau, plutôt qu une tête partagée entre tous les plateaux, évitant ainsi les latences induites par le déplacement des têtes d un plateau à l autre. La seconde, plus importante, provient du système permettant de faire "flotter" les têtes au-dessus de la surface. Sur les disques antérieurs, les têtes étaient maintenues au-dessus de la surface via un flux d air comprimé, tandis que sur le 1301 la forme des têtes a été conçue de telle sorte que le flux d air induit par la rotation du disque suffise à les maintenir audessus de la surface. Ce système est plus efficace en permettant à la tête de rester plus proche du disque, améliorant ainsi la précision de la lecture. Depuis, la conception mécanique des disques durs n a plus franchement évolué. Les mécanismes ont bien sûr été miniaturisés, tandis que la densité et les performances ont augmenté, mais on retrouve toujours aujourd hui un ensemble de plateaux accompagné chacun de deux têtes (éventuellement une si une seule face du plateau est utilisée) montées sur un bras mobile et maintenue au-dessus du disque par un effet aérodynamique, avec une distance toujours plus faible, de l ordre de la dizaine de nanomètres sur les disques durs d aujourd hui. C est en raison de cet espace particulièrement fin que les disques sont montés dans un boîtier étanche à la poussière, la moindre poussière, même minuscule, risquant de se coincer entre le disque et la tête et d endommager la surface. Juin 2014 (2014/2) 22

23 Toujours plus de densité Bulletin IBM Cara Sud-Est Si le concept mécanique a peu évolué, on ne peut pas en dire autant de la densité de stockage, qui elle a connu une croissance exponentielle, grâce à un accroissement de la finesse et à l introduction de nouvelles technologies, qui permettent aujourd hui d atteindre jusqu à 6 To dans un disque dur de 3.5". Le stockage magnétique consiste à modifier la polarisation magnétique d un élément, en l orientant dans un sens ou dans l autre en fonction de la valeur à stocker, et la densité de stockage découle donc directement de la surface occupée par ces éléments. Initialement, ils étaient positionnés à plat sur la surface et changeaient d orientation parallèlement à la surface. La tête de lecture/écriture était pour sa part un "simple" électro-aimant : en envoyant un courant dans la tête, elle produisait un champ magnétique, permettant de modifier la polarité de la zone du disque située sous la tête, tandis qu à l inverse, en lecture, les variations de polarité des zones défilant sous le disque induisaient un courant électrique dans la tête, qu il suffisait alors de mesurer pour lire les données. Au milieu des années 90, un nouveau type de tête de lecture a été introduit : les têtes magnétorésistives (MR). Celles-ci ne se basent plus sur l induction d un courant électrique pour lire les données, mais sur une variation de la résistance électrique de la tête en fonction du champ magnétique. Cette technologie permet de réduire fortement la taille des plus petits éléments lisibles, mais la tête MR ne peut être utilisée que pour la lecture, une tête classique étant conservée pour l écriture. Ces têtes ont permis d atteindre les limites de densité du stockage magnétique "à plat", qui se situent aux alentours de 30 Gbit/cm². Cette limite provient de la propension des éléments à changer spontanément leur polarité en fonction de fluctuations de température. Plus un élément est petit, plus il changera facilement de polarité sous l effet d une faible variation de température, ce qui oblige à recourir à des matériaux plus "robustes", mais qui exigent également un champ magnétique plus important pour forcer leur changement de polarité (cette résistance au changement de polarité s appelle la coercivité). Pour aller encore plus loin en densité, le constructeurs de disques durs ont donc ressorti au milieu des années 2000 une vieille technologie que Toshiba avait lancé dans les années 1980, sans grand succès, pour produire des disquettes de 2.88 Mo : l enregistrement perpendiculaire. Juin 2014 (2014/2) 23

24 Comme son nom l indique, il consiste à positionner les éléments magnétiques perpendiculairement à la surface disque, et non plus parallèlement à cette surface. Cette solution permet d utiliser la base du plateau comme une "extension" de la tête d écriture, qui peut alors entourer l élément à magnétiser. Il est ainsi possible d imposer à l élément un champ magnétique plus intense, et donc d utiliser un matériau de coercivité plus élevée. Il en résulte alors une réduction de la taille limite à partir de laquelle les éléments risquent de changer spontanément de polarité, et donc, une augmentation de la densité. En pratique, la limite de cette technologie est estimée à environ 160 Gbit/cm², plus de 5 fois la limite de l enregistrement "à plat". Les disques actuellement disponibles atteignent un peu plus de la moitié de cette densité (92 Gbit/cm² pour des plateaux 3.5" de 1 To). La prochaine étape devrait s appuyer sur deux technologies : le Shingled Magnetic Recording et le Heat Assisted Magnetic Recording. Le SMR exploite le fait que la tête de lecture est plus précise que la tête d écriture, ce qui lui permet de lire des pistes plus étroites. Il est ainsi possible "d empiler" les pistes lors des écritures, en ne laissant dépasser que la largeur minimale nécessaire pour permettre de lire la piste du dessous, et donc, de placer plus de pistes sur une même largeur. Ce système peut par contre réduire fortement les performances en écriture, ce qui fait qu il est surtout adapté à des disques utilisés principalement pour des données variant peu. En effet, lorsqu il faut écrire des données sur une piste, il faut aussi relire et réécrire toutes les pistes qui la chevauchent, directement ou indirectement (pistes chevauchant une piste qui elle-même chevauche celle qui doit être écrite, et ainsi de suite ). Ainsi, s il y a par exemple un empilement de 1000 pistes sur un disque dur 7200 RPM, il faudra au minimum 8.3 secondes pour écrire une donnée sur la première piste, en réécrivant aussi les 999 pistes superposées, une seule piste pouvant être écrite à chaque tour (et en supposant que la lecture et l écriture peuvent se faire dans le même tour, sinon il faut encore doubler cette valeur ). Il existe heureusement une astuce toute simple pour éviter de réécrire toutes les pistes à chaque fois: intercaler de temps en temps une piste sans superposition. Par exemple, si une piste sur cinq est laissée sans superposition, l écriture d un secteur imposera au maximum d en réécrire quatre autres, soit une latence inférieure à 50 ms pour un disque dur 7200 RPM. Le HAMR, développé principalement par TDK et Seagate, vise pour sa part à réduire encore plus la taille des éléments magnétiques. Pour réduire la taille des éléments au-delà des limites du PMR sans risque de changements de polarité spontané, il faut recourir à des matériaux de coercivité encore plus élevé. Mais on se heurte alors à un autre problème : la difficulté à faire des têtes produisant un champ magnétique suffisamment élevé et concentré. La solution proposée par TDK consiste à utiliser un laser pour chauffer la surface du disque avant une écriture, la hausse de température permettant de réduire la coercivité. Les derniers prototypes HAMR ont déjà permis de dépasser les 160 Gbit/cm², et TDK espère atteindre 900 Gbit/cm² en Outre les gains en capacité de stockage, notons également que l évolution de la densité a aussi directement influé sur les performances des disques durs : à vitesse de rotation égale, le débit d un disque dur est proportionnel à la racine carré de sa densité surfacique. Le passage de 10 à Juin 2014 (2014/2) 24

25 90 Gbit/cm², soit une multiplication par 9 de la densité surfacique, induit par exemple une multiplication par 3 des débits dont profite l'utilisateur. Évolutions de la structure des données La forte diminution de la taille des éléments magnétiques a été le principal facteur de l évolution de la capacité de stockage des disques durs. Il y a toutefois aussi eu quelques évolutions plus mineures au niveau de la façon de structurer les données sur les disques, qui ont également permis des gains de capacité. Au début des PC, les disques durs étaient divisés avec une structure logique à trois niveaux, et l adressage se faisait en suivant ce découpage. Un secteur était identifié par un numéro de cylindre (C), un numéro de tête (H) et un numéro de secteur dans la piste (S). Le cylindre correspond à l ensemble des pistes situées à la même distance de l axe du disque (donc un cylindre contient deux pistes par plateau) et le numéro de la tête correspond à l identifiant de la tête pouvant lire ce secteur, en fonction donc de la piste sur laquelle il se trouve. Les plus anciens se souviennent sans doute de ce mode de fonctionnement, qui se reflétait sur la configuration du disque dur au niveau du BIOS : il n y avait à l époque pas de détection automatique des caractéristiques du disque et il fallait indiquer dans le BIOS son nombre de cylindres, son nombre de têtes par cylindre et son nombre de secteurs par piste. Très basique, ce mode d adressage avait un défaut : il imposait d avoir le même nombre de secteurs dans chaque piste, alors que les pistes extérieures du disque sont plus longues que les pistes intérieures. Les performances des têtes n étaient donc pas utilisées de façon optimale, la densité de stockage en bordure du disque étant largement inférieure à ce dont la tête était capable. Pour améliorer la capacité, les constructeurs ont alors introduit le Zone Bit Recording, ou ZBR. Avec ce système, les pistes sont regroupées en différentes zones, avec un nombre de secteurs par piste variant d une zone à l autre. Efficace pour augmenter la capacité, cette astuce Juin 2014 (2014/2) 25

26 complexifie par contre l adressage. Cette complexité était prise en charge par le contrôleur du disque, qui effectuait la conversion entre les adresses CHS "externes" basées sur des pistes de longueur fixe et les véritables adresses physiques internes du disque. Cette "virtualisation" de l adressage était également rendue nécessaire par la montée en capacité des disques, l adressage CHS étant limité à 63 secteurs par piste, une valeur qui a été dépassée au début des années 90, lorsque les capacités des disques étaient de l ordre de 500 Mo. Au milieu des années 90, l adressage externe a finalement été totalement remplacé par un nouveau mode d adressage sans aucun lien avec la structure physique, l adressage LBA (Logical Block Adressing), où les secteurs sont simplement numérotés de manière séquentielle, le contrôleur du disque assurant la correspondance entre ces numéros et les secteurs physiques. Depuis 2010, les disques durs proposent une petite évolution de la structure des données, qui a permis de gagner légèrement en capacité : l Advanced Format. Après avoir fonctionné pendant des décennies avec des secteurs de 512 octets, les disques Advanced Format utilisent des secteurs de 4 Ko. Cette augmentation de la taille des secteurs permet de diviser par huit la taille des informations de structure stockées sur le disque (chaque secteur de 4 Ko embarque la même quantité d informations de structure que les anciens secteurs de 512 octets) et par quatre la taille des informations de contrôle et correction d erreur (on passe de 50 octets par secteur de 512 octets à 100 octets par secteur de 4 Ko). Pour assurer la compatibilité avec les ordinateurs et OS existants, tous les disques Advanced Format actuellement disponibles exposent en externe des secteurs de 512 octets (Advanced Format 512e), de façon totalement transparente. Comme avec les SSD, il faut alors prendre soin de bien aligner les partitions sur la taille des secteurs physiques, et non pas sur la taille des secteurs logiques, pour éviter des pertes de performances. À terme, il est prévu que les disques Advanced Format exposent directement leurs secteurs de 4 Ko (Advanced Format 4Kn), mais peu d OS supportent actuellement ce type de disques. Les disques durs, encore là pour longtemps? Bien que leur conception générale puisse paraître archaïque aujourd hui, les disques durs ont probablement encore un avenir radieux devant eux, les successeurs ne se bousculant pas au portillon, tandis que les besoins en capacité de stockage explosent, en particulier dans les datacenter des géants du web. Pour les petites et moyennes capacités, ils vont probablement être remplacés assez rapidement par les SSD qui disposent de sérieux atouts avec leurs performances largement supérieures, leur silence de fonctionnement et leur consommation réduite, mais pour les gros volumes, les SSD risquent de rester encore longtemps disqualifiés par leur prix. On trouve en effet aujourd hui des disques durs à moins de 30 le To, contre 400 le To pour les SSD les plus abordables, et le ratio entre les prix au To des SSD et celui des disques durs ne diminue plus très rapidement. Juin 2014 (2014/2) 26

27 En dehors des SSD, la seule autre alternative évoquée ces dernières années était le Hard Rectangular Drive de DataSlide. Présenté en 2009, il promettait des performances largement supérieures à celles des SSD de l époque ( IOPS et 500 Mo/s), tout en étant basé sur la même technologie de stockage que les disques durs. La différence se faisait eu niveau de la mécanique et du nombre de tête : au lieu de plateaux circulaires tournant sous une tête mobile, le HRD utilise un plateau rectangulaire placé sous une plaque constituée de milliers de têtes fixes. Pour lire les données, le plateau se déplace linéairement sous les têtes, avec une amplitude de déplacement très faible (0.25mm), d où la forte réduction des temps d accès, les gains en débit provenant de la possibilité de lire/écrire avec plusieurs têtes en parallèle (jusqu à 64). Mais depuis 2009, les performances des SSD ont fortement progressé et leur coût a diminué, ce qui a fait perdre une grande partie de l intérêt du HRD Après sa présentation, DataSlide n a quasiment plus communiqué sur son projet, et le site de la société ( ) semble au point mort, ce qui laisse peu d espoir de voir un jour arriver le HRD, surtout pas sur le marché grand public. IBM s'intéresse également au SDS avec Elastic Storage Publié sur le 12 mai 2014 par Serge Leblal Le stockage défini par logiciel monte en puissance chez les constructeurs. Après EMC et sa solution ViPR, IBM songe à exploiter la technologie de virtualisation qui a contribué au succès de son supercalculateur Watson lors du défi lancé en 2011 aux ténors du jeu Jeopardy. Juin 2014 (2014/2) 27

28 Grâce aux technologies développées avec le projet Watson, IBM arrive à son tour sur le marché du SDS et pas seulement sur les DS 8000 Le stockage suit aujourd'hui la même voie que l'informatique de type compute, c'est à dire un avenir où tous les systèmes de stockage d'une entreprise pourront être mélangés et gérés comme des pools virtuels. IBM, par exemple, vient de lever le voile sur un portefeuille de produits SDS (Software Defined Storage), une technologie où des fournisseurs établis et des startups bataillent pour imposer leurs solutions. Pour se distinguer de ses concurrents, IBM a choisi de capitaliser sur la notoriété acquise par son grand système Watson en indiquant réexploiter les technologies utilisées pour défier et vaincre deux des plus grands champions américains du jeu TV Jeopardy (Questions pour un Champion en France). Cette technologie Big Blue, baptisée «Elastic Storage», s'apparente fort à la plate-forme ViPR 2.0 qu'emc a lancé la semaine dernière à l'occasion de sa convention EMC World L'idée générale est de pouvoir accéder à tout type de données sur l'ensemble des systèmes de stockage d'une entreprise, et ce, depuis de multiples endroits. Tout comme elle l'a fait avec les serveurs, la virtualisation traite les baies de stockage comme une ressource collective qui peut être divisée en systèmes virtuels en fonction des besoins de l'application. Multi-tiering dans un environnement hétérogène Un des avantages clefs d' «Elastic Storage» est qu'elle peut automatiquement déplacer les données les moins utilisées vers les systèmes de stockage les moins couteux, pour laisser les solutions plus rapides et plus coûteuses - telles que la flash - traitées les données les plus demandées. Cette gestion dynamique ou multi-tier, est déjà utilisée par les principaux fournisseurs de système de stockage, mais l'enjeu aujourd'hui est de garantir son fonctionnement dans des environnements hétérogènes. Si la plate-forme ViPR 2.0 d'emc ambitionne de travailler avec des systèmes fournis par des constructeurs tiers, le constructeur de Boston avance encore timidement et n'a pour l'instant certifié que deux plates-formes, l'une chez HP et l'autre chez NetApp. IBM indique qu'il va travailler avec les produits de toute entreprise. Et ce via les composants Cinder et Swift d'openstack, qui permettent aux utilisateurs d'accéder et de gérer des données dans les clouds privés et public, et de travailler avec des outils Hadoop et d'autres API ouvertes. En plus d'être proposé en tant que logiciel, Elastic Storage sera également disponible un peu plus tard cette année en tant que service cloud sur la plate-forme IaaS SoftLayer d'ibm. Au cours du défi lancé à Jeopardy, le système Watson a chargé 200 millions de pages (soit 5 To de données) en quelques minutes dans sa mémoire grâce à la technologie Elastic Storage, précise IBM. Cette architecture lui permet de travailler avec des milliers de Yottabytes, dont chacun est égal à 1 milliard de pétaoctets. Juin 2014 (2014/2) 28

29 IBM et Fujifilm inventent une bande de stockage ultradense pour le big data Publié sur le 21 Mai 2014 par Jean Elyan Grâce à la technologie développée par IBM et Fujifilm, il sera possible de stocker jusqu'à 154 To de données sur les cartouches LTO à bande. Les chercheurs d'ibm testent leur prototype de bande magnétique ultradense. Anticipant les futurs besoins du big data en terme de stockage, IBM et Fujifilm se sont associés pour développer une bande magnétique ultra-dense : leur prototype, annoncé pendant la conférence IBM Edge 2014 qui se tient cette semaine à Las Vegas (19-23 mai), est capable de stocker 85,9 milliards de bits de données par pouce carré. Cela signifie qu'avec ce type de bande, une cartouche LTO standard pourrait stocker jusqu'à 154 téraoctets de données non compressées, contre 2,5 téraoctets avec les cartouches LTO version 6 actuelles. La technologie de stockage sur bande magnétique est loin d'être obsolète. Elle n'a été remplacée ni par les disques durs, ni par les disques optiques. Elle peut même encore avoir un bel avenir. Comme le fait valoir Big Blue, «parce qu'il reste moins cher et plus économique sur le plan énergétique que d'autres solutions de stockage, ce type support est tout désigné pour conserver de grandes quantités de données sur le long terme». Selon les estimations, nous produirons collectivement plus de 40 zettabytes, soit 40 milliards de gigaoctets de données (ou 40X1021), d'ici 2020, en sauvegarde, en fichiers audio et vidéo, en archives, en copies de données pour permettre la reprise après sinistre et pour des raisons réglementaire. Même si elles sont rarement utilisées, toutes ces données doivent être stockées et conservées. Une tête de lecture de 90 nanomètres Les chercheurs ont développé différentes techniques pour mettre toujours plus de données sur les bandes magnétiques. Fujifilm a trouvé un moyen de réduire la taille des particules de ferrite de baryum (BaFe) qui servent à l'élaboration des bandes, sans avoir à recourir à des méthodes de pulvérisation de métal ou à des procédés de revêtement par évaporation très coûteux. IBM a affiné le contrôle de l'asservissement de la tête magnétique : celle-ci peut être placée sur le ruban avec une précision nanométrique, ce qui permet de lire et d'écrire des données sur des pistes plus fines. La tête produit aussi des champs magnétiques nettement plus forts, ce qui permet de lire et d'écrire les données sur une surface plus étroite. Enfin, grâce à l'ensemble d'algorithmes développés par l'équipe d'ingénieurs pour traiter le signal, il est possible d'enregistrer les données avec une plus grande fidélité et d'utiliser une tête de lecture avec une magnétorésistance géante (GMR) de 90 nanomètres. Voilà 10 ans qu'ibm et Fuji travaillent ensemble sur ces développements. En 2010, les deux entreprises avaient réussi à inscrire 29,5 milliards de bits de données dans un pouce carré de bande magnétique. IBM n'a pas dit à quel moment cette technologie pourrait être commercialisée, Juin 2014 (2014/2) 29

30 précisant «qu'il faudrait plus d'ingénierie pour l'adapter à des facteurs de forme commercialisables». Le constructeur est déjà présent sur le marché du lecteur sur bande et propose une gamme de lecteurs IBM 3592 avec cartouches associées. Comme il l'a souvent fait pour d'autres technologies, le constructeur pourrait licencier sa technologie à d'autres fabricants de systèmes de stockage. Enfin rappelons que récemment Sony avait dévoilé une bande magnétique permettant de concevoir des cartouches capables de contenir jusqu'à 185 To de données. IBM envisagerait de céder son activité de fabrication de puces Publié sur le 11/06/2014 L'existence de négociations en ce sens avait été révélée début avril. Celles-ci sont compliquées par l'intérêt de GlobalFoundries, d'avantage porté sur les brevets d'ibm que sur la fabrication de puces en elle-même. IBM ne veut plus avoir la puce à l'oreille. Le géant américain de l'informatique est proche d'un accord pour céder ses activités déficitaires de fabrication de semi-conducteurs au groupe spécialisé GlobalFoundries, affirme mercredi l'agence de presse Bloomberg, citant des personnes proches du dossier. L'existence de négociations en ce sens avait été révélée début avril par le Wall Street Journal. Le quotidien américain rapportait alors qu'ibm demandait plus de deux milliards de dollars, alors que GlobalFoundries négocierait pour un milliard de dollars. L'américain est surtout intéressé par le portefeuille de brevets d'ibm, un point délicat qui explique la longueur des négociations, engagées depuis l'an dernier. IBM, une exception parmi la concurrence IBM est l'un des derniers grands du secteur à maîtriser l'intégralité du cycle de production des composants, là où la plupart de ses concurrents ont choisi de se concentrer sur la seule conception des composants de pointe, laissant à des manufacturiers spécialisés le soin de les fabriquer. C'est précisément le cas de GlobalFoundries, créée en 2009 par scission des activités industrielles du fabricant de puces AMD et renforcées par l'apport des capitaux émiratis. Elle avait l'année suivante racheté le singapourien Chartered Semiconductor. Recentrage sur les activités de service L'accord en négociation prévoit qu'après la vente IBM continuera à se fournir chez GlobalFoundries. Selon Bloomberg, l'activité composants d'ibm a perdu certaines années jusqu'à 1,5 milliard de dollars. Devenu au fil des années un groupe de services (avec des gros investissements dans le cloud notamment), le géant américain est engagé dans un vaste plan de restructuration de ses dernières activités industrielles. Le groupe a ainsi annoncé en janvier la cession de ses serveurs d'entrée de gamme pour 2,3 milliards de dollars au groupe d'électronique chinois Lenovo, qui avait aussi repris ses activités de fabrication de PC en Juin 2014 (2014/2) 30

31 IBM France doit convertir 2000 postes aux nouveaux métiers du numérique Publié sur le 17/06/2014 par Ridha Loukil Face à l évolution de l informatique, IBM est engagé dans une grande transformation de ses métiers. Selon Alain Benichou, le patron de l entreprise présente en France depuis 100 ans, les nouveaux business devraient représenter 50 % du chiffre d affaires du groupe dans 2 ans, contre 5 % en Une mutation qui impose la conversion de 2000 postes dans la filiale française. IBM fête ses 100 ans de présence en France. Mais si le vétéran informatique garde la même préoccupation, à savoir aider les entreprises, administrations et gouvernements à améliorer leur compétitivité par le numérique, il est aujourd hui confronté à une profonde transformation de ses métiers. Le cap est clair. Il tient dans le sigle SCAMS, qui résume cinq opportunités de marché : réseaux sociaux, cloud computing, analytique et Big Data, mobilité et cybersécurité. Selon Alain Benichou, PDG d IBM France, ces business d avenir devraient générer 50 % du chiffre d affaires du groupe dans deux ans, contre seulement 5 % en En France, le chiffre serait légèrement plus faible : 47 %. Le cloud computing constitue l un des axes stratégiques de transformation du groupe. "Depuis 2009, nous avons investi 300 millions d euros dans ce secteur en France, soit plus que les 150 millions injectés par l État dans les deux projets de cloud souverains, estime Alain Benichou. Et nous sommes en train de construire un dantacenter à Paris pour Softlayer, notre filiale d hébergement web et cloud public, de façon à garantir la localisation des données en France." Ce nouveau centre de données, hébergé chez Global Switch, à Clichy, devrait ouvrir en juillet 2014 et être inauguré en septembre Il s inscrit dans le cadre d un investissement de 1,2 milliard de dollars visant la création de 15 nouveaux datacenters dans le monde. Watson en Français en 2015 Avec le rachat de Bull, Thierry Breton, PDG d Atos, se positionne comme le leader dans le cloud computing en Europe. Une revendication qui fait rire le patron d IBM France. "En 2013, nous avons réalisé un chiffre d affaires de 1,2 milliard de dollars dans le cloud computing en Europe et 4,4 milliards de dollars au niveau mondial, explique-t-il. Comment Atos peut-être être leader avec un chiffre d affaires de 480 millions d euros? " L informatique cognitive constitue un autre secteur stratégique de redéploiement d IBM dans le prolongement de ses travaux sur Watson, l ordinateur qui comprend le langage naturel, fonctionne par apprentissage et fonde ses réponses sur l analyse de gros volumes de données. "Nous sommes à l aube d un changement de paradigme en passant d une informatique de programmation à une informatique d apprentissage, lance Alain Benichou. L impact économique sera énorme. Une expérimentation dans le centre d appels d une banque aux États-Unis montre que Watson peut, au bout de 10 jours d apprentissage, répondre à la moitié des questions posées par les clients. De quoi réduire de moitié le nombre d agents au Call Center." Aujourd hui, Watson comprend seulement l anglais. La version française devrait arriver en IBM France devrait jouer un rôle de premier plan dans le développement de cette technologie du fait de l excellence de l école française de mathématiques. 700 embauches à Lille sur 5 ans Le développement de ces nouveaux business s accompagne par le déclin des activités d informatique traditionnelle. Ce qui impose à IBM d adapter ses compétences et ses métiers. En France, le groupe a achevé la suppression de 680 postes sur les métiers en déclin dans le cadre d une Gepec (Gestion prévisionnelle de l emploi et des compétences), uniquement sur la base du volontariat, selon Alain Benichou. Dans le même temps, il a ouvert un centre de services à Lille qui devrait employer 700 personnes dans 5 ans sur des métiers d avenir. "Nous avons besoins de moins de gens de maintenance, puisque nous sommes de moins en moins présents dans le matériel, motive le patron de la filiale française. En revanche, nous avons besoin de plus en plus Juin 2014 (2014/2) 31

32 de Data Scientists pour répondre au développement de la demande dans l analytique et le Big Data. " À Lille, IBM travaille avec Pôle emploi pour la formation de jeunes chômeurs aux nouveaux métiers. Le groupe a monté aussi une formation sur le Big Data avec HEC, et se prépare à ouvrir une IBM Academy en France pour former ses salariés aux métiers des SCAMS. Au total, Alain Bénichou estime à 2000 le nombre de postes à convertir sur un effectif total d environ en France. IBM France 100 ans IBM France fête bientôt ses 100 ans Publié sur le 15 Avril 2014, par Maryse Gros Précurseur d'ibm France, la société International Time Recording s'est implantée en France en juillet Au fil des années, elle a multiplié les ouvertures d'agences et installé des centres de recherche à Montpellier et La Gaude. En 2012, la filiale française a ouvert un centre de cloud public à Montpellier et doit ouvrir ce trimestre en proche banlieue parisienne un centre cloud SoftLayer. Le siège d'ibm France, installé à Bois-Colombes depuis novembre 2009 C'est le 15 juillet 1914 que s'implanta dans l'hexagone la société ITR, International Time Recording, première émanation de ce qui devait devenir IBM France en octobre Et c'est le 16 avril 1955 que le mot «ordinateur» est créé pour la filiale française. En réponse à Christian de Waldner, qui était alors son PDG et demandait comment pourrait se traduire Electronic Data Processing machine en français, l'appellation «ordinateur» est proposée par le professeur Jacques Perret de la faculté des lettres de l'université de Paris. Il y a cent ans, quand la société ITR démarre son activité, elle commercialise alors des horloges, des appareils de contrôles de toutes sortes et des machines statistiques à cartes perforées. ITR constituait la filiale française d'une société qui s'était créée un peu moins de trois ans plus tôt aux Etats-Unis, Computing Tabulating Recording, le futur IBM qui ne prendra ce nom qu'en 1924 outre-atlantique. Juin 2014 (2014/2) 32

33 Camille Delcour, 1er dirigeant français d'itr dans les années 20 (source : cara-ibm.org, Club des Anciens, Retraités et Actifs d'ibm) L'année où ITR s'implante en France est aussi celle où Thomas J. Watson, considéré comme le père fondateur d'ibm, est nommé directeur général de CTR. C'est lui qui fait passer à la vitesse supérieure l'expansion internationale de la société. Son nom a, depuis lors, été donné à l'ordinateur cognitif Watson doté de capacités analytiques avancées et promu aujourd'hui par IBM pour un vaste champ d'applications. Fin 1962, 35 agences commerciales sur le territoire En France, dans les années 20, le précurseur d'ibm vend des machines statistiques à cartes perforées. Ce n'est qu'en octobre 1948 que la société prendra le nom d'ibm France. Quelques dates : le bureau de Lille est ouvert en 1923, suivi par les bureaux de Lyon (1924), Marseille (1928), Bordeaux (1932), Nantes (1935), Strasbourg (1938) et Grenoble (1954). IBM France s'installe ensuite à Alger et Casablanca en 1936, puis à Dakar en En 1962, c'est le centre d'études et de recherches à La Gaude qui ouvre ses portes. A la fin de l'année, la filiale française de Big Blue possède au total 35 agences commerciales sur l'ensemble du territoire et 13 bureaux et ateliers Outre-mer. En avril 1981, le premier système 3081 (annoncé en 1980) destiné à la France est livré au centre d'inspection de l'education nationale de Marne-la-Vallée pour une mise en service effective une semaine plus tard. Ce système, parmi les plus puissants d'ibm, est fabriqué à Montpellier pour les pays d'europe, du Moyen-Orient et d'afrique. IBM France a déposé 70 brevets en 2013 Depuis janvier 2010, IBM France est présidé par Alain Benichou, qui a rejoint la société en La filiale est installée depuis novembre 2009 à Bois-Colombes. Depuis 21 ans, forts de ses chercheurs, IBM est au premier rang des dépôts de brevets dans le monde. Parmi les innovations françaises a par exemple figuré le premier prototype d'autocommutateur qui sera homologué par les PTT. En 2013, IBM France a déposé 70 brevets. La filiale dispose avec IBM France Lab du 3ème laboratoire de recherche logiciel dans le monde en dehors d'ibm US. La ville de Montpellier reste un site important d'innovation pour le groupe au même titre que celui de La Gaude (qu'il est prévu de déplacer à Nice). IBM souligne que c'est à Montpellier qu'a été ouvert en 2012 d'un premier centre de cloud public. Parmi les dernières ouvertures figure également celui du Services Center de Lille en juin Enfin, un centre cloud SoftLayer doit être inauguré au cours de ce deuxième trimestre en proche banlieue parisienne. Juin 2014 (2014/2) 33

34 IBM : 100 ans de présence en France Bulletin IBM Cara Sud-Est Publié sur le 16 Avril2014 par Guy Hervier IBM fête ses 100 ans de présence sur l Hexagone. Peu d entreprises dans ce que l on appelle aujourd hui les technologies de l information ont été capables de se réinventer pour rester au tout premier plan de cette industrie Le 16 avril (#IBMfr100) marque le centenaire de l implantation d IBM sur le territoire national. A ses débuts, l activité de l entreprise s articule autour de «l industrie et le commerce de toutes machines horloges et de tous appareils de contrôle, accessoires et appareils similaires». Au fil des années, l offre d IBM s est amplement diversifiée avec des solutions et des services dans le domaine de la transformation numérique. A ses débuts, International Time Recording (ITR), première appellation de l entreprise, est une des premières filiales de la Computing Tabulating Recording Company (CTR) créée trois ans plus tôt aux Etats-Unis. La société deviendra finalement IBM France en Elle compte alors un millier d employés. Thomas J. Watson décide de mettre toutes les activités de la Compagnie hors des Etats-Unis sous la direction d une filiale autonome baptisée «IBM World Trade Corporation». Un Français, Jacques Maisonrouge a été Président de cette filiale en En traversant les époques, IBM a marqué la France de son empreinte : d abord par l expertise de ses collaborateurs, certains d exception comme Benoît Mandelbrot, mathématicien émérite mais également par sa contribution à la transformation de l économie française. IBM peut aussi se targuer de sa contribution au vocabulaire de l informatique avec la création du mot ordinateur. Le premier réel ordinateur, l IBM 650, arriva par avion en Il sera fabriqué ensuite à l usine de Corbeil-Essonnes. Il y a eu ensuite le 704 et la 1401, lancé en 1960, premier vrai ordinateur de gestion qui sera vendu à plus de exemplaires dans le monde. Mais l étape majeure est l annonce de l IBM 360, famille d ordinateur universel qui suscitera une certaine crainte des pouvoirs publics français d être sous la tutelle technologique américaine donnant naissance aux plans calculs successifs. Au 360, succèdera le 370, plus le 3081, le 3090, les System z et zenterprise. Des générations d ordinateurs sous l appellation de mainframes qui existent encore aujourd hui de manière très vivace (Le mainframe d IBM n est pas mort). En 1986, IBM France est confronté à des difficultés commerciales à l issue desquelles la direction décide de redéployer 1200 vers les services commerciaux et de transférer le siège à la défense En 1993, face à des nouvelles difficultés, IBM France lance le premier plan de départs volontaires de son histoire. Fin 2009, la filiale transfère son siège de La défense à Bois-Colombes et passe du vertical (les tours) à l horizontal (un campus). IBM, acteur de la recherche et de l économie française IBM France dispose notamment avec IBM France Lab du 3 ème laboratoire de recherche logiciel dans le monde (hors IBM aux Etats-Unis). La ville de Montpellier demeure une véritable locomotive dans la recherche en France, c est pourquoi IBM a fait de son site de Montpellier au Juin 2014 (2014/2) 34

35 même titre que celui de La Gaude le porte-étendard de l innovation en France. Le site emblématique d IBM de La Gaude va fermer ses portes en Les 650 salariés du site seront transférés sur la technopole Nice Méridia, dont la construction démarre cette année (IBM quitte La Gaude). Au plus fort de sa présence en France, IBM France comptait près de salariés avec des centres de production à Bordeaux, Montpellier et Corbeil-Esssones. Aujourd hui, la filiale française n emploie plus que 9000 personnes. IBM est en effet un partenaire des entreprises françaises, de la grande entreprise à la PME-PMI. A l image de BP²I, co-entreprise fondée par BNP Paribas et IBM, qui est en charge de la gestion et de la maintenance des infrastructures de la banque depuis Autre exemple, le groupe a également établi en 2012, un partenariat avec Cegid qui bénéficie désormais d un Cloud privé personnalisé dans l Hexagone. IBM France, c est aussi une collaboration de près de 30 ans avec le tournoi de Roland-Garros. Plus récemment, elle accompagne Millesima, ce distributeur de Grands Crus sur Internet dans le lancement de nouveaux services ciblés grâce à des solutions de Big Data & Analytics. Par ailleurs, sa présence sur le territoire français s est récemment renforcée avec l ouverture d un centre de Cloud public à Montpellier en IBM a également ouvert en juin 2013 l IBM Services Center à Lille. Enfin, la société a prévu d inaugurer au second semestre 2014 un centre Cloud SoftLayer à Paris. IBM est aussi partenaire des villes et agglomérations françaises, notamment au travers de son initiative Smarter cities. Ainsi, par exemple la ville de Toulouse a analysé son empreinte sur les réseaux sociaux grâce à la solution IBM Social Media Analytics. De son coté, en signant son projet de recherche et développement avec IBM, Montpellier Agglomération a lancé le premier laboratoire urbain intégrant tous les services de l Agglomération, puis ce fut la Métropole de Nice. Malgré les réductions d emplois drastiques depuis les années 90, IBM France se présente comme un acteur majeur du développement du marché de l emploi en France. L entreprise s investit dans divers programmes de formation pour préparer les jeunes aux métiers de demain. A l image des partenariats récemment signés avec de grandes écoles françaises telles que HEC Paris dans le cadre d un cursus Big Data, ou EPITA, qui dispense une formation sur le mainframe, ce serveur emblématique d IBM qui fête cette semaine son cinquantième anniversaire. IBM compte aussi un réseau de 200 «University Ambassadors» qui donnent plus de 3000 heures de cours dans 80 institutions (HEC, Centrale-Supelec, UPMC, Telecom Nancy, SKEMA, ESSEC ). IBM France organise également des journées «immersion en entreprise» avec l accueil de plus de 1000 étudiants dans ses locaux. La dernière annonce importante en matière d emploi est celle de la création de l IBM Services Center à Lille doit permettre de créer 700 nouveaux emplois d ici 5 ans. IBM sera-t-il encore là dans 100 ans? Publié sur le 16 Avril 2014, par David Barroux La filiale française du géant américain fête ses 100 ans de présence en France aujourd hui. Où sera ce groupe demain? IBM, le géant de l informatique, fête aujourd hui ses 100 années de présence en France. Comment ce groupe connu pour ses ordinateurs a-t-il pu s implanter dans l Hexagone en 1914 à une époque où l informatique n existait même pas? En fait, avant IBM, qui n a officiellement pris le nom d IBM que dans les années 40, il y a eu une autre entreprise qui était déjà à l époque à la pointe de la technologie. Au départ, l ancêtre d IBM s appelait la Computing Tabulating Recording Company, c était un groupe américain né en 1911 qui proposait des balances, des instruments de mesure mécaniques et des machines à pointer. Dès le départ, c est un groupe qui a toujours cherché à améliorer la productivité ou l efficacité des entreprises en misant sur la technologie et les machines. Et la France, a été dès 1914, la première filiale ouverte à l étranger par ce groupe. Et la France reste importante pour IBM? Juin 2014 (2014/2) 35

36 Oui, d abord ça reste un gros marché avec plus de 3 milliards d euros de revenus. Ca reste aussi un pays majeur parce que la France compte beaucoup de multinationales, beaucoup de grands comptes. Ce sont des entreprises exigeantes mais qui génèrent une activité importante. Il faut bien les servir en France pour pouvoir aussi espérer les accompagner à l étranger. Les liens noués dans l Hexagone sont un atout à l heure de la mondialisation du business. Et puis enfin, la France c est important au niveau technologique. On le sait, on forme ici de très bons mathématiciens, de très bons ingénieurs. Pour IBM, la France est aussi un vivier de talents et c est encore plus vrai depuis le rachat d Ilog, un éditeur de logiciels qu IBM a racheté en Est-ce qu IBM France ressemble à IBM monde? Il n y a en fait qu un moule, qu un modèle de «Big Blue» comme on dit. Il peut y avoir des particularités régionales mais les grandes lignes stratégiques du groupe sont les mêmes partout. Et tout au long de son histoire, en France comme aux Etats-Unis ou ailleurs, IBM ça a été l histoire d une réinvention permanente. Aujourd hui on est bien sûr très loin des premiers produits qui ont marqué l histoire de ce groupe centenaire. IBM ne fait plus de caisses enregistreuses, de disquettes ou ne mise plus beaucoup sur le code-barre. IBM ne fait même plus de PC et ils sont en train de vendre petit à petit des pans entiers de leurs branches matériels. Ils font encore des gros serveurs mais ils ont vendu il y a peu les petits serveurs, les produits banalisés au chinois Lenovo qui avait déjà acheté ses ordinateurs portables. Si IBM vend ses activités historiques, ça veut dire qu il fera quoi demain? Plus les années passent et moins IBM est un groupe de «hard», de matériel ; et plus c est un groupe de «soft», de logiciels et de services comme le «cloud». En France, IBM c est d abord une grosse SSII, une société de services informatiques qui concurrence Cap Gemini ou Atos. Et dans le monde c est un peu pareil. Mais la particularité d IBM c est aussi d essayer d être à la pointe de la révolution technologique, d investir sur les points de rupture. Aujourd hui ils misent par exemple beaucoup sur Watson. Watson c était au départ un ordinateur un peu spécial, un ordinateur spécialisé sur l intelligence artificielle, un ordinateur capable d analyser mais aussi d apprendre tout seul et de progresser. On en a parlé la première fois parce que ses ancêtres ont battu des champions aux échecs, parce qu il a gagné des jeux télé comme Jeopardy. Mais aujourd hui cette machine intelligente peut conseiller des médecins dans l établissement d un diagnostic, elle peut analyser des millions de données, elle plonge dans la data. Pour l instant ça n est encore qu un petit business mais IBM vise le milliard de dollar et dans quelques années beaucoup plus. Quand on sait qu on est là pour encore 100 ans, on peut se payer le luxe de prendre son temps. Que diriez-vous d ordinateur? Publié sur le 27 Mars 2014, par Patrice Leterrier Juin 2014 (2014/2) 36

37 Ordinateur IBM 650 C est par ces mots que commence la réponse, datée du samedi 16 avril 1955, de Jacques Perret, professeur de philologie latine à la Sorbonne, à Christian de Waldner, alors président d'ibm France. Ce dernier, sous la recommandation de François Girard, responsable du service "Promotion Générale Publicité" et ancien élève de Jacques Perret, l avait sollicité pour trouver un terme concis et précis pour traduire ce que les américains, qui ne s embarrassent pas de philologie, avait appelé Electronic Data Processing System ou en abrégé EDPS. Jacques Perret ajoutait dans son courrier "C'est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l'ordre dans le monde". Il ne se doutait probablement pas qu à peine 60 ans plus tard, les successeurs de cet ordinateur qu il venait de baptiser allaient dominer le monde en y faisant régner l ordre du tout numérique. La lettre se terminait par "Il me semble que je pencherais pour "ordinatrice électronique", car il trouvait qu il "permettrait de séparer plus encore votre machine du vocabulaire de la théologie". Peut-être pas si mécontents de cette filiation divine, les dirigeants d IBM préférèrent Ordinateur et le mot eut un tel succès qu il passa rapidement dans le domaine public. La recherche de ce vocable avait aussi un but marketing car Il s agissait de le différencier du terme computer, facilement traduisible en calculateur, qui était réservé aux premiers ordinateurs scientifiques comme l IBM 701. Les premiers ordinateurs universels, faisant disparaître la nécessité de ce distinguo, n apparaitront chez IBM que le 7 avril 1964 avec l annonce de la série 360 qui va connaître un succès fabuleux et dont les programmes peuvent encore fonctionner aujourd hui sur les plus puissants ordinateurs de la marque. Le premier "ordinateur" d IBM fut l IBM 650, ordinateur à tubes de première génération, qui possédait une mémoire à tambour magnétique de 2000 mots et une mémoire vive en ferrite de 60 mots qui servait de tampon entre l ordinateur et les unités externes, essentiellement lecteur/perforateur de cartes, bandes magnétiques et une tabulatrice l IBM 407. IBM vendit exemplaires de cette machine dont la carrière commença en 1953 pour se terminer en 1962, longévité exceptionnelle même à cette époque. Nous étions loin des performances de la plus petite calculatrice de nos jours avec un temps d opération de 2 ms pour une addition, 13 ms pour une multiplication et 17 ms pour une division! Nous sommes carrément à des années lumières des performances incroyables du moindre smartphone, sans parler des supercalculateurs (ou superordinateurs) qui sont engagés dans une course folle aux 100 péta-flops dans laquelle les chinois sont en tête avec le Tianhe 2 qui affiche 55 péta-flops en vitesse de pointe. Faut-il rappeler qu un péta-flops c est la bagatelle d'un million de milliards d opérations en virgule flottante par seconde? Pour les non initiés la virgule flottante est la forme généralement utilisée pour représenter des nombres réels dans les mémoires des ordinateurs. Mais aujourd hui, où la technologie nous submerge et envahit notre quotidien, tout cela semble aussi naturel et aussi banal que d allumer une lampe électrique. Le moindre smartphone, qui se manipule intuitivement, presque naturellement, du bout des doigts, donne accès à des milliers d applications et enfouit le miracle de la technologie dans une banalité quotidienne. Et puis après la volonté opiniâtre d imposer un vocabulaire francophone avec le terme Informatique inventé par Philippe Dreyfus en 1962, l adoption du terme bureautique créé par Louis Naugès en 1976, on peut dire qu à partir de la vague du Personal Computer l anglo-saxon s est imposé comme la langue unique du monde de l informatique et des réseaux. Juin 2014 (2014/2) 37

38 Le mainframe d'ibm fête ses 50 ans Bulletin IBM Cara Sud-Est Publié sur le 07 Avril 2014 par Jacques Cheminat Le 7 avril 1964, IBM présentait le System/360 qui marquait le début des grands systèmes pour la firme. Cette aventure répondait à un besoin d'uniformisation des ordinateurs et d'une meilleure compatibilité dans les programmes. Le System/360 d'ibm fête ses 50 ans. A bien des égards, l'informatique moderne a débuté au New Englander Motor Hotel à Greenwich dans le Connecticut. C'est là qu'en 1961 un groupe d'ingénieurs d'ibm s'est réuni en secret pour travailler sur un ordinateur de nouvelle génération. Le constructeur disposait à l'époque de plusieurs lignes de produits et avait du mal à garantir la maintenance et les mises à jour. Le fruit des efforts de ce groupe de travail a été dévoilé le 7 avril 1964 sous l'appellation System/360. Ce dernier a inauguré une autre façon de penser la conception et la construction des systèmes informatiques. Avant les ordinateurs étaient élaborés quasiment sur mesure y compris l'os. IBM a donc eu l'idée de créer une famille unifiée d'ordinateurs avec une architecture unique. Cette idée a été poussée par Gene Amdahl, architecte en chef, et Fred Brooks, chef de projet. Avant 1960, l'idée même du mot «architecture» en informatique était inconnue. Ce concept a ouvert la voie à la compatibilité entre les différents modèles d'ordinateurs. Le nom «360» répondait à cette volonté que le système puisse servir tous les types de clients, grands comptes, PME/ PMI, industriels ou scientifiques. Parmi les avancées de l'époque, IBM a été en mesure d'utiliser un système d'exploitation pour ses systèmes (même si des variantes ont été élaborées depuis). Beaucoup d'écritures de code spécifiques ont été supprimées pour que les ingénieurs puissent se concentrer sur la création d'applications. Des efforts ont été menés sur les composants comme les processeurs et les mémoires pour que les ordinateurs puissent partager ces ressources. Compatibilité des programmes et fédération autour du Cobol Les clients bénéficient également d'une compatibilité du code d'une machine à une autre. IBM a toujours soutenu cette compatibilité sur les différentes évolutions de ses mainframes. Les programmes pour les premiers System/360 peuvent toujours fonctionner avec quelques légères modifications sur les systèmes actuels. Au centre du code, le langage Cobol, né en 1959, a fédéré les spécialistes du mainframe. Beaucoup d'entreprises, notamment dans le domaine bancaire, ont élaboré leur propre logiciel en Cobol sur des systèmes IBM. Le mainframe a connu plusieurs évolutions eu fil du temps et fait le succès d'ibm. En 1971, le chiffre d'affaires de Big Blue est passé à 8,3 milliards de dollars contre 3,6 milliards en Dans les années 70, 70% des grands systèmes vendus étaient des IBM. En 1982, plus de la moitié du Juin 2014 (2014/2) 38

39 chiffre d'affaires de la société était issu des descendants du System/360. Aujourd'hui, il reste encore une activité importante de la société, malgré un mouvement de déconsolidation des entreprises pour aller vers des architectures x86. IBM Mainframe50 Un System z calibré pour le cloud Publié sur le 09/04/2014 par Guillaume Rameaux. IBM veut faire de Linux et de System z une plateforme de prédilection pour le cloud. L entreprise vient d annoncer le lancement d une nouvelle offre baptisée Enterprise Cloud System. L idée est de fournir aux entreprises et fournisseurs de services une infrastructure mainframe clés en main permettant de mettre en place rapidement un environnement de cloud privé capable de supporter des workloads critiques. Le System z peut embarquer jusqu à machines virtuelles et est livré avec des outils de monitoring et d orchestration automatique préconfigurés pour accélérer le déploiement de la machine. Pat Toole, Responsable de l offre System z chez IBM, insiste sur la capacité de mettre en œuvre des scenarios hybrides avec cette nouvelle offre. Vous pouvez de façon transparente déplacer les workloads entre le System z et un environnement x86, explique-t-il. Il est également possible d installer une base de données sur le mainframe Linux et de la faire dialoguer avec une application hébergée sur une machine x86. Un premier client en France Pour rendre le mainframe plus attractif auprès des MSP (Managed Services Providers), IBM introduit également une nouvelle tarification basée sur la consommation et non plus sur la capacité du système. En France, l hébergeur à valeur ajoutée et opérateur nantais Oceanet Technology (OT) est le premier à avoir intégré le nouvel Enterprise Cloud System dans son offre. L entreprise souhaite cibler une nouvelle typologie de clients et adresser les entreprises de 500 à salariés. Et notamment celles qui utilisent des bases de données Oracle. «La base de données demande trois ou quatre fois moins de processeurs sur System z pour fonctionner que sur une plateforme x86, souligne-t-il. La licence Oracle étant facturée au nombre de processeurs, les clients peuvent économiser 30 % sur ces coûts en hébergeant leur base sur notre infrastructure». Les autres avantages du système IBM? «Sécurité et fiabilité, répond Cyril Pauty, Dirigeant associé d OT. Le mainframe est une technologie éprouvée qui tourne depuis 50 ans et ne tombe jamais en panne». La société a identifié clients potentiels en France. Cinq sont d ores et déjà en train d étudier la plateforme et Oceanet Technology espère en signer huit d ici la fin de l année. Juin 2014 (2014/2) 39

40 IBM invente une nouvelle génération de polymères pour les composants électroniques Publié sur le 16 mai 2014 par Christophe Lagane Aussi solide que du métal et souple comme un élastique, la nouvelle génération de polymères découverts par IBM pourrait révolutionner la la production de nombre d objets, à commencer par les composants électroniques. IBM va-t-il révolutionner la fabrication des produits dans nombre de domaines comme les transports, l aéronautique ou encore la microélectronique? Les scientifiques du centre californien de recherches Almaden à San Jose viennent d annoncer avoir mis au point de nouvelles classes de polymères qui permettraient de révolutionner la composition des objets en tous genres. Aussi solide que du fer Ces nouveaux matériaux bénéficient notamment d une solidité proche de celle du métal tout en conservant la légèreté du plastique. Ils peuvent aussi afficher des propriétés d élasticité et, chose plus étonnante, seraient complètement auto réparables, y compris en cas de cassure nette où il suffirait de remettre en contact les deux morceaux séparés pour n en reformer qu un. Qui plus est, ces nouveaux polymères sont facilement recyclables puisqu il est possible de les restituer dans leur état originel rien qu en les trempant dans l eau. Pour mémoire, les polymères sont de longues chaînes de molécules reliées chimiquement entre elles et aujourd hui utilisées dans nombre de produits de la vie courante tels le polyester des vêtements, le polyéthylène des bouteilles plastiques, les polyacryliques des peintures, etc. Mais la génération actuelle de ces matériaux est sensible à nombre de facteurs comme la chaleur, les composants chimiques (solvants), le vieillissement, etc., et difficilement recyclables ce qui a pour effet de provoquer des montagnes de déchets. Des structures qui n ont pas connu d évolution majeure depuis une vingtaine d années. Des polymères personnalisables C est par accident, en oubliant un composant dans ses assemblages de matériaux à forte résistance, que la scientifique Jeannette Garcia a créé cette classe de polymères hautement résistante (au point qu elle a dû casser son tube à essais pour récupérer son travail). Qui plus est, en abaissant la température de «cuisson», le matériel en question se transforme en un gel aussi solide qu élastique. Entre extrême solidité et élasticité poussée, cette nouvelle classe de polymères serait ainsi facilement personnalisable selon IBM. Il reste maintenant à appliquer à l échelle industrielle ces avancées. Ce qui pourrait prendre quelques années. Néanmoins, ces découvertes auront fourni à IBM l occasion de mettre en place d autres méthodes de recherches couplant expérimentations en laboratoire et hautes capacité de calcul informatique. Une approche que Big Blue a baptisé «computational chemistry» et qui devrait accélérer les recherches dans les domaines de la chimie, notamment. IBM lance la vague des puces Power8 à l assaut du Big Data Publié sur le 24 avril 2014 par David Feugey Big Blue vient de présenter ses premiers Power Systems pourvus de processeurs Power8. Des machines puissantes, mais également ouvertes. IBM osera-t-il réitérer le pari des PC dans le monde des serveurs? L annonce tant attendue est enfin tombée : IBM lève aujourd hui le voile sur la première gamme de serveurs architecturés autour du processeur Power8. Cette dernière génération de machines Power Systems est le fruit d un effort de développement de 2,4 milliards de dollars. Juin 2014 (2014/2) 40

41 IBM destine tout particulièrement les serveurs Power8 aux charges les plus lourdes, comme le traitement d ensembles massifs de données. Cloud, Big Data et analytique seront donc au cœur de ces offres. Linux AIX et IBM i Plusieurs machines seront disponibles à partir de cet été. Les Power Systems S812L (2U, 1 Power8) et 822L (2U, 2 Power8) ne fonctionnent que sous Linux. Première innovation, Ubuntu Server sera accessible sur ces machines, en plus des distributions de Red Hat et SUSE. Les autres modèles se veulent compatibles avec Linux, AIX et IBM i. Un vaste écosystème de systèmes d exploitation. Sont concernés les Power Systems S814 (4U, 1 Power8), S822 (2U, 2 Power8) et S824 (4U, 2 Power8). Le tarif de base annoncé pour les machines Power8 est de 7973 dollars, soit environ 5760 euros HT. Côté virtualisation, IBM lève le voile sur PowerKVM, une version de l hyperviseur KVM adaptée aux distributions Linux conçues pour les machines Power Systems. Un outil qui est le résultat de l investissement d IBM en faveur de Linux sur la plate-forme Power. Des serveurs puissants Rappelons que le Power8 est une puce à 8 threads par cœur, dont la fréquence peut dépasser les 4 GHz. Des processeurs à 6, 8, 10, et 12 cœurs, avec des fréquences allant de 3,02 à 4,15 GHz ont été évoqués par IBM pour cette première série de machines. La performance par thread se veut 1,6 fois supérieure à celle du Power7. Monstres de calcul, les Power8 comprennent 2 ALU (entiers), 4 FPU (flottants) et 2 VMX (SIMD) par cœur. Voir aussi : «Le Power8 d IBM sera jusqu à trois fois plus véloce que le Power7». Mais ce n est pas tout. Au travers du consortium OpenPower les Power Systems s ouvrent à des technologies tierces, dont les accélérateurs à base de GPU Nvidia (sur bus CAPI, puis plus tard sur base NVLink, voir «Avec NVLink, Nvidia propose une alternative hautes performances au PCI Express»). De quoi entraîner les Power Systems dans le monde du HPC et faire ainsi le lien avec les supercalculateurs d IBM. Le PC des serveurs? Avec le Power8, IBM joue la carte de l ouverture. Les spécifications des puces et cartes-mères sont ainsi accessibles. De plus, le nombre de membres platinum de la Fondation OpenPower s est largement accru : Altera, Canonical, Google, IBM, Mellanox, Micron, Nvidia, PowerCore, Samsung et Tyan. Aujourd hui l écosystème OpenPower compte 25 partenaires, dont la plupart proposeront des offres autour des serveurs IBM. Reste à savoir qui lancera le premier ses propres serveurs, cartes-mères ou processeurs basés sur l architecture Power. Car en l état, les serveurs Power restent toujours une offre propriétaire qui ne demande toutefois qu à devenir le PC du monde des serveurs. Juin 2014 (2014/2) 41

42 IBM prépare les serveurs Power 8 Bulletin IBM Cara Sud-Est Publié sur le 08 Avril 2014, par Guy Hervier En réponse aux serveurs basés sur les processeurs Intel Xeon E5 et F7, IBM s apprête à dévoiler ses systèmes basés sur le microprocesseur Power 8. S il semble vouloir se délester de son activité matériels vente des serveurs Intel d entrée de gamme à Lenovo, cession probable de son activité de fabrication des microprocesseurs IBM devrait dévoiler dans les semaines à venir, les premiers modèles basés sur le Power 8. Selon les informations publiées par le site spécialisé The Four Hundred, les premiers serveurs seraient orientés «scale out» plutôt que «scale up» et seraient ainsi destinés à des applications de type cloud et big data. Les microprocesseurs Power 8 regroupe 12 cœurs dans une technologie à 22 nm et est fabriqué à l unité de East Fishkill dans l état de New York, celle-là même qu IBM essaie de céder à un fondeur. Par socket, le Power 8 entre 2,3 et 2,7 fois plus de performance que le Power 7 pour des applications commerciales. IBM n a pas donné d indications sur les premiers modèles qui seraient introduits. La gamme Power 7/7+ est constituée des modèles suivants : Power 720 à 740 à un ou deux sockets, Power 750 et 760 pouvant contenir jusqu à 4 sockets, Power 770 et 780 jusqu à 16 sockets et Power 795 jusqu à 32 sockets. Comme leurs prédécesseurs, ces serveurs supporteront les systèmes d exploitation IBM i, AIX l Unix d IBM) et Linux. IBM devrait d ailleurs annoncer la version i.7.2 peu après l introduction des serveurs Power 8. Les DSI qui seraient engagés dans une négociation pour acquérir des serveurs Power 7+ devraient intégrer l arrivée de ces nouveaux modèles à leur réflexion. Ces futurs systèmes vont également enrichir l offre cloud qu IBM est en train de construire autour de SoftLayer, la société rachetée l année dernière pour construire une véritable offre cloud. SoftLayer possède 13 data centers regroupe quelque serveurs qui s ajoutent aux 12 que détient IBM. Big Blue ayant annoncé un investissement de 1,2 milliard de dollars pour porter cet ensemble à 40 data centers. Ces data centers se verront dotés de ces nouvelles machines Power Systems dans le courant 2014 qui seront offerte en mode bare metal. IBM utilise déjà les Power Systems sur son infrastructure SmartCloud Enterprise. En ce qui concerne, les systèmes d exploitation et les hyperviseurs qui seront proposés, IBM n a pas encore donné d informations. IBM i, AIX et Linux devraient être disponibles sur l hyperviseur PowerVM. L hyperviseur KVM serait en cours de portage. Les serveurs Power Systems seront aussi utilisés pour offrir les services du système Watson en mode as a service. Juin 2014 (2014/2) 42

43 La gamme de serveurs Power 7 / 7+ à remplacer IBM lance ses premiers systèmes Power8 Publié sur le 24 Avril 2014 par Guy Hervier Dans le sillage de la Fondation OpenPOWER créée l année dernière, IBM annonce les premiers systèmes basés sur les microprocesseurs Power8, premiers à bénéficier du statut d architecture ouverte. Les premiers systèmes basés sur Power8 sont cinq serveurs Power Systems S-Class, conçus pour de larges déploiements d environnements scale-out. IBM annonce un taux d utilisation de 65 % supérieur à ce qui est observé dans le monde des serveurs x86 et indique que les nouveaux Power Systems peuvent contribuer à réduire la taille d un data center par deux. Ils sont proposés en configuration standard sous forme de rack et/ou de tour et n inclut pas des versions de type systèmes convergés, serveurs lame ou hyperscale. Disponibles à partir de la mi-juin, les serveurs S-Class incluent deux systèmes qui fonctionnent exclusivement Linux les Power Systems S812L et S822L. Les trois autres serveurs, les Power Systems S814, S822 et S824, offrent le choix d exécuter de multiples systèmes d exploitation, dont Linux, AIX et IBM i (le S822 fonctionne Juin 2014 (2014/2) 43

44 uniquement avec AIX et IBMi). Ces nouveaux systèmes sont disponibles en configurations 1 et 2 sockets, 2U et 4U, pour un prix de départ de l ordre de 8000 dollars. With the release of these S Class servers, IBM delivers the first viable, open alternative to PC-era technology and creates a processing platform for new innovation, flexibility, and diverse capability from across the vast computing ecosystem. Shown here is the IBM Power Systems S812L, which runs Linux exclusively IBM annonce également trois solutions Power Systems optimisées pour le Big Data et l analytique : IBM Solution for BLU Acceleration, IBM Solution for Analytics et IBM Solution for Hadoop sont optimisées pour que les nouveaux Power Systems puissent extraire des informations pertinentes des données structurées ou non structurées. Par exemple, la nouvelle IBM Solution for Analytics permet d extraire plus rapidement des informations pour les charges de travail de type analytique ou de calculs intensifs, grâce à l intégration de Cognos, de SPSS et de DB2 avec BLU Acceleration. Selon les résultats de tests, les IBM Power Systems sont capables d analyser des données 50 fois plus rapidement que les derniers systèmes à base de x86. Conçus pour le big data, les nouveaux serveurs scale-out IBM Power Systems sont le fruit d un investissement de 2,4 milliards de dollars et de plus de 3 ans de développement s appuyant sur des centaines de brevets IBM. Ce montant qui inclut le coût de migration de la technologie 32 nm vers 22nm est important mais reste modeste par rapport aux sommes qu IBM débourse pour racheter ses propres actions. Les Power8 sont basés sur la technologie Power8 d IBM, une tranche de silicone de 6,45 cm², avec plus de 4 milliards de transistors reliés entre eux par plus de 17 km de connexions haute vitesse en cuivre. Collaboration avec Canonical autour de Linux et PowerKVM L an passé, IBM avait indiqué avoir consacré 1 milliard de dollars en nouvelles technologies Linux et open source pour les serveurs Power Systems. Les investissements incluent de nouveaux produits, un réseau de 5 centres Power Systems Linux dans le monde et la Power Development Platform, un Cloud de développement gratuit pour les développeurs afin qu ils testent et portent des applications x86 sur la plateforme Power. Aujourd hui, IBM annonce deux développements qui renforcent l innovation Cloud sur des systèmes POWER8 : o La disponibilité d Ubuntu Server de Canonical, sur tous les systèmes Power8 o L introduction de PowerKVM, une version de l outil de virtualisation KVM pour les Power Systems qui exécutent exclusivement Linux Cela en complément des distributions Red Hat et Suse Linux déjà supportées. De Power à OpenPower En marge de la fondation de ces nouveaux systèmes par IBM, la Fondation OpenPower, qui regroupe quelque 25 membres parmi lesquels on peut citer Google, IBM, Mellanox Technologies, NVIDIA, et Tyan, a franchi une première étape dans la fourniture de nouveaux systèmes au design novateur basés sur le nouveau processeur Power d IBM Juin 2014 (2014/2) 44

45 Lors de la conférence Open Innovation Summit qui s est tenue en même temps que l annonce des nouveaux serveurs, la fondation OpenPOWER a révélé les premiers détails sur les «white box» serveurs, incluant un concept de développement de Tyan, et un firmware développé par IBM, Google et Canonical. Le stack logiciel OpenPOWER inclus dans ce design doit permettre de faciliter l implémentation de déploiements hybrides. Google a présenté également son premier concept de système POWER white box pour explorer les capacités de l architecture POWER. IBM a, quant à lui, indiqué qu il déploiera des systèmes OpenPOWER dans Softlayer plus tard cette année. Parmi les annonces des partenaires d IBM dans la Fondation OpenPower, on peut mentionner : o Mellanox RDMA exploitation on POWER o NVIDIA GPU Accelerator Integration : NVIDIA a détaillé la première implémentation d accélération GPU avec technologie POWER ainsi que le premier GPU accelerator framework for Java ; o Xilinx and Altera FPGA introduisent des accélérateurs ; o Micron, Samsung Electronics et SK Hynix memory se sont engagés à supporter la foundation OpenPOWER par la fourniture de composants mémoire et stockage pour un écosystème ouvert. L ouverture autour du microprocesseur Power est une évolution importante dans la stratégie d IBM qui intervient sans nul doute face à la pression concurrentielle exercée par Intel et son Xeon. Le marché Unix était en baisse, IBM doit réorienter ses systèmes vers de nouvelles utilisations, le web, l analytics, les data centers. IBM continuera à positionner ses systèmes Power comme des serveurs haut de gamme. D où l intérêt d ouvrir l architecture Power pour permettre à des partenaires de développer des systèmes en marque blanche visant d autres marchés. Si Google qui est en phase d évaluation du matériel faisait le choix des systèmes Power pour ses propres data centers, ce serait évidemment un partenaire de poids. La technologie d'ibm va faire de la Colombie-Britannique la côte la plus intelligente de la planète Publié sur le 12 Mai 2014 IBM a annoncé sa collaboration avec Ocean Networks Canada (ONC) sur un projet de 3 ans de plusieurs millions de dollars afin d'équiper la Colombie-Britannique d'un système de suivi et de prévision des accidents off-shore, des tsunamis et d'autres catastrophes naturelles. Ce nouveau programme "Smart Oceans BC" utilisera des capteurs marins et l'analyse des données pour améliorer la gestion de l'environnement et la sécurité publique et marine, le long de la côte ouest du Canada. Il suivra le trafic maritime, les vagues, les courants et la qualité de l'eau dans les grandes artères de transport et comprendra un système permettant de prédire l'impact des tremblements de terre off-shore, des tsunamis et des glissements de terrain sous-marins. Juin 2014 (2014/2) 45

46 ONC, qui est un des plus grands projets de recherche de l'université de Victoria, exploite déjà l'un des observatoires câblés de l'océan le plus avancé au monde au large de la côte de la Colombie- Britannique. IBM va ainsi investir 12 millions de dollars en infrastructure de "cloud computing", logiciels d'analyse, services et en formation afin de soutenir la prochaine phase du système, ce qui fera du Canada un chef de file mondial dans les technologies de l'océan. L'agence Western Economic Diversification contribue également au financement afin de pouvoir mettre en ligne des observatoires sous-marins supplémentaires et des radars côtiers à haute fréquence. ONC estime que le marché mondial de la technologie des systèmes océaniques intelligents passera de 4 milliards de dollars à au moins 6 milliards de dollars en Par ailleurs, les "Big data" sont en train de devenir la prochaine grande "ressource naturelle", mais il y a une pénurie de scientifiques dans ce domaine. Certaines estimations mondiales prévoient jusqu'à 4,4 millions d'emplois dans ce domaine d'ici la fin de cette année, avec seulement un tiers de ces emplois qui sera pourvu. Grâce à une série d'investissements totalisant plus de 200 millions de dollars au cours des deux dernières années seulement, IBM s'est engagé au Canada à collaborer avec les universités et le gouvernement pour faire avancer davantage la capacité de ce pays à innover, répondre à un manque de compétences, et conduire des analyses recherche. IBM travaille actuellement en collaboration avec plus de 16 établissements d'enseignement supérieur canadiens pour faire avancer la recherche et l'innovation au Canada. Un chercheur d'ibm décroche le «Prix Nobel» des technologies Publié sur le 09 Avril 2014 Le Prix Millennium 2014, équivalent du Prix Nobel dans le domaine des technologies, a été décerné au professeur Stuart Parkin pour ses découvertes qui ont fait avancer le domaine du stockage des données. Stuart Parkin à l'université de Stanford. Tous les deux ans, le Prix Millennium récompense l'auteur d'innovations qui ont apporté, ou sont capables d apporter, un changement bénéfique dans la vie de tous les jours et pour plus grand nombre. Cette année, c'est le Britannique Stuart Parkin, l'un des cerveaux à l'origine de l'augmentation exponentielle des capacités de stockage de données, qui remporte ce prix a annoncé ce 9 avril 2014 l'académie finlandaise de technologie. «Le professeur Parkin reçoit ce Prix Millennium en reconnaissance de ses découvertes, qui ont permis de multiplier par mille la capacité de stockage des disques magnétiques», a déclaré la fondation dans un communiqué. «Notre monde connecté contemporain est rendu possible grâce à ces petites structures atomiques magnétiques», a-t-elle ajouté. Le physicien de 58 ans est salarié du géant américain de l'informatique IBM, consultant à l'université de Stanford (Californie) et dirige le département expérimental de l'institut Max-Planck de physique des microstructures de Halle (Allemagne). Juin 2014 (2014/2) 46

47 Un prix qui récompense un travail qui améliore la vie des gens Son travail a contribué à l'explosion de la capacité de mémoire, permettant de stocker des informations dans des lecteurs de disques magnétiques accessibles via Internet. Et ses innovations ont ouvert la voie à la diffusion massive de films ou d'autres médias en streaming. «Je suis extrêmement heureux et ravi d'avoir gagné le Prix Millennium de technologie, parce que bien sûr c'est l'un des prix les plus importants pour la communauté scientifique, a affirmé Stuart Parkin dans un communiqué. Je suis très ému et fier d'avoir été récompensé avec ce prix, qui représente une validation sans précédent (...) de mon travail et de ses conséquences dans le monde, comme un ensemble.» Ce prix d'un million d'euros a été créé en 2004 et se veut l'équivalent technologique des Prix Nobel suédois pour les sciences, où la récompense est moindre ( euros) et qui ont été critiqués pour leur catégories surannées. Il distingue des innovations récentes, disponibles pour le grand public et qui «améliorent la qualité de vie des gens dans la durée». En 2012, c est Linus Torvalds qui avait été récompensé pour son avoir créé le système d exploitation Linux. Au palmarès, on trouve également le créateur du World Wide Web, Tim Berners-Lee, et le pionnier de la reprogrammation des cellules souches, Shinya Yamana L intelligence artificielle : une menace pour les professions intellectuelles? Publié sur le 13/06/21014 par René Depuis l invention, il y plus de trois siècles et demi, de la machine à calculer mécanique par Blaise Pascal, en 1648 (la machine arithmétique), l homme a toujours rêvé d une machine qui ne serait pas seulement capable de calculer plus vite que le cerveau humain mais qui parviendrait également à raisonner de manière «intelligente», c est-à-dire à trouver, comme l homme, des solutions inédites face à des problèmes nouveaux. Pendant très longtemps, ce rêve resta du domaine de la spéculation et fit les beaux jours de la science-fiction et tous les cinéphiles se souviennent du chef d œuvre de Stanley Kubrick : «2001 : Odyssée de l espace» (sorti en 1968) dans lequel HAL, l ordinateur contrôlant le vaisseau spatial d exploration, se mettait à éprouver des émotions humaines et à adopter un étrange comportement En 1950, alors que les premiers ordinateurs sortaient à peine des laboratoires, le génial scientifique anglais Alan Turing imagina, dans la revue Computing machinery and intelligence, un fameux test consistant à confronter un ordinateur et un humain, sans que ce dernier sache s il avait affaire à une machine ou à un autre être humain. L idée lumineuse de ce test était que le jour où l homme ne serait plus capable de savoir, dans une conversation en temps réel non préparée, si son interlocuteur était une machine ou un humain, les ordinateurs pourraient alors être qualifiés «d intelligents». Juin 2014 (2014/2) 47

48 Il fallut toutefois attendre presque un demi-siècle pour qu en 1997, après 6 parties, le champion d échec Garry Kasparov soit battu pour la première fois dans l histoire de ce jeu, par l ordinateur Deep Blue conçu par IBM. Cette date marqua une grande avancée dans le domaine de l intelligence artificielle car le jeu d échec était considéré depuis des siècles par les scientifiques comme faisant appel à des qualités dépassant largement le simple «calcul» et mobilisant toutes les formes de l intelligence humaine, ruse, imagination, stratégie notamment. Après ce coût d éclat de l IA, certains scientifiques affirmèrent que l ordinateur pouvait, certes, battre tous les joueurs humains aux échecs mais qu il ne parviendrait jamais à battre l homme au jeu de Go, un jeu d une extrême subtilité, dans lequel non seulement la valeur d une pièce donnée n est pas fixée à l avance mais qui présente également un nombre astronomique de combinaisons possibles et dépassera toujours la puissance pure de calcul des superordinateurs. Mais en moins de 10 ans, l utilisation de nouveaux programmes informatiques, issus de la physique statistique, ont permis à l ordinateur de se hisser du rang de joueur médiocre à celui de très bon joueur et aujourd hui, personne ne parierait que les joueurs humains seront encore les meilleurs au go dans dix ans Une autre étape symbolique a été franchie il y a quelques semaines, quand Deep Knowledge Venture, une société de gestion qui gère des fonds à hauts risques relatifs aux biotechnologies et les médicaments contre les maladies liées au vieillissement, a pris la décision surprenante de nommer VITAL, un algorithme, membre de son conseil d administration (Voir Globe Newswire). Ce programme informatique d intelligence artificielle, développé par Aging Analytics a été conçu pour croiser une multitude de données et les analyser de manière à en extraire des informations susceptibles de prévoir les potentialités de développement des entreprises. Ce domaine éminemment stratégique de l intelligence artificielle est en train d arriver à maturité et fait à présent l objet d une compétition féroce entre les géants de l informatique et du numérique. IBM vient ainsi de présenter à une centaine de dirigeants d entreprises suisses il y a quelques jours une nouvelle version de son ordinateur «intelligent» Watson, spécialement conçue pour l analyse économique, financière et commerciale des marchés. On se rappelle que Watson avait réussi l exploit de battre, en 2011, les meilleurs joueurs américains au jeu «Jeopardy». Cette machine avait, en effet, réussi au cours d une finale télévisée mémorable à répondre de manière pertinente à toute une série de questions ambiguës et complexes. Watson est qualifié de «supercalculateur cognitif», par IBM et ce système de nouvelle génération n a pas son pareil pour exploiter de gigantesques bases de données et raisonner par inférence, ce qui lui permet notamment de comprendre remarquablement des subtilités et ambiguïtés du langage humain. Sur le plan électronique et matériel, cette nouvelle version de Watson a également été considérablement améliorée puisque la taille des serveurs nécessaires à son fonctionnement est passée en trois ans de celle d un réfrigérateur à celle d une boîte à chaussures Si Watson ne s est pas encore véritablement implanté en Europe il a déjà su se rendre indispensable dans de multiples domaines d activité aux États-Unis. Dans le secteur bancaire par exemple, la banque Citigroup utilise à présent Watson pour prescrire à ses clients le meilleur «paquet» de produits financiers personnalisés et parfaitement adaptés à leur situation. Watson peut ainsi prévoir l évolution des besoins financiers d un jeune ménage, de manière à lui proposer les meilleures solutions de placement et d épargne en prévision de l entrée à l université de leurs enfants, 20 ans plus tard! Mais Watson risque également de se substituer d ici quelques années aux innombrables centres d appels et plates-formes téléphoniques destinés à vendre de nouveaux produits et services ou à assurer le dépannage et le service après-vente des produits technologiques toujours plus nombreux que nous utilisons dans notre vie quotidienne. Par exemple, le site Internet de la société «The North Face» spécialisée dans la vente de matériel de sports de montagne, a recours aux services de Watson qui est capable de répondre rapidement et efficacement aux interrogations en langage naturel les plus pointus, du genre «de Juin 2014 (2014/2) 48

49 quel matériel ai-je besoin pour une randonnée d une semaine dans le sud saharien au mois de Décembre?». De nombreuses entreprises américaines de services commencent également à utiliser Watson pour répondre aux demandes très précises de leurs clients lorsque ceux-ci sont confrontés à un problème particulier avec leurs appareils et terminaux numériques. Mais c est très probablement dans le secteur médical et sanitaire que les ordinateurs «intelligents», comme Watson, vont entraîner à court terme une révolution d une ampleur au moins comparable à celle de la vaccination, des antibiotiques ou de l imagerie médicale par résonance magnétique nucléaire. À l époque de nos parents, les molécules thérapeutiques se comptaient encore par centaines mais à présent elles se comptent par dizaines de milliers et les combinaisons thérapeutiques qui en résultent deviennent proprement inimaginables et ingérables sans le recours à des systèmes d intelligence artificielle et cela d autant plus que ces associations médicamenteuses seront demain ajustées en fonction du profil génétique spécifique de chaque patient et modifiées en permanence en fonction des résultats obtenus et de la réponse des malades. Cette «explosion combinatoire» touche particulièrement la cancérologie qui dispose pratiquement chaque mois de nouveaux médicaments et doit apprendre à utiliser ceux-ci de la manière la plus efficace possible. IBM a bien compris l importance de cet enjeu médical et économique et s est associé depuis plusieurs mois avec le prestigieux centre anticancéreux Memorial Sloan Kettering de New York pour mettre la puissance de déduction de son superordinateurs Watson au service des malades en leur proposant, après examen et analyse d une gigantesque quantité de données scientifiques et médicales, la meilleure stratégie thérapeutique possible pour combattre leur maladie. Confronté à la marche forcée de son rival Google qui dépense des milliards de dollars pour acquérir à tour de bras les sociétés les plus prometteuses dans le domaine de l intelligence artificielle, IBM vise également son avenir et peut-être sa survie en investissant massivement dans ce domaine à présent incontournable: à la fin de l année, les effectifs du géant informatique travaillant sur l IA auront été multipliés par six en un an On comprend mieux ce pari quand on sait que Watson pourrait, selon certains analystes financiers, générer à lui seul 10 milliards de dollars de chiffre d affaires annuel d ici 2018, soit presque la moitié du chiffre d affaires total d IBM en L intelligence artificielle est également en train de s imposer très rapidement dans le domaine du recrutement et des ressources humaines et la société américaine Knack a conçu et développé des tests sous forme de jeu vidéo interactif qui permettent d évaluer de manière redoutable les capacités d adaptation et la polyvalence des recrues potentielles, qu il s agisse de simples vendeurs, de gestionnaire de stocks ou de responsables commerciaux. Enfin, il y a quelques jours, un programme informatique conçu en Russie et baptisé «Eugene Goostman» est parvenu pour la première fois à l occasion d une compétition organisée par l université britannique de Reading, à tromper plusieurs expérimentateurs humains dans le cadre d un test de Turing (Voir The Independent). Dans cette épreuve, les participants humains formulaient, comme le prévoyait Turing, des questions à l aide de l ordinateur en ignorant si celles-ci étaient traitées par un autre être humain par une machine. À l issue de ce test d une durée de cinq minutes, un tiers des interlocuteurs étaient persuadés qu ils avaient conversé avec un autre humain alors que c était un ordinateur utilisant ce logiciel étonnant qui leur avait répondu. L université de Reading a précisé, par la voix du professeur Kevin Warwick, que ce test de Turing était le premier à avoir été organisé sur la base d un dialogue réellement libre, sans que les questions et sujets abordés aient été connus avant l expérience. Reste à présent à mesurer l impact, sans doute considérable, que vont avoir d ici quelques années ces irrésistibles montées en puissance de l intelligence artificielle sur la croissance économique, l emploi et plus largement sur le fonctionnement global de nos sociétés. Selon une étude récente du bureau américain de recherches économiques, la demande d emplois qualifiés, après avoir Juin 2014 (2014/2) 49

50 fortement augmenté au cours du dernier quart du XXe siècle, diminue depuis une quinzaine d années. Même si les économistes ne sont évidemment pas tous d accord sur les raisons de ce phénomène, les auteurs de ce rapport sont persuadés que cette évolution est essentiellement liée à l accélération des ruptures technologiques majeures, notamment dans le domaine de la robotique et des technologies numériques. Pour l Institut McKinsey, la disparition d emplois qualifiés pourrait atteindre jusqu à 140 millions de postes au niveau mondial à l horizon 2025 Parmi les nombreux secteurs qui risquent de connaître, en seulement quelques années, un bouleversement radical lié à cette évolution technologique, on trouve par exemple le secteur de l assurance. Comme le souligne Georges-Edouard Dias, chargé d enseignement à HEC : «Le métier de l assureur, c est d estimer le risque, de lui donner un prix et de le mutualiser. Demain, grâce à l intelligence artificielle qui pourra exploiter d immenses gisements de données, le mode d estimation actuelle deviendra obsolète car on saura mesurer directement un risque précis pour chaque individu». Cet irrésistible et fulgurant triomphe de l intelligence artificielle est d autant plus ambigu et paradoxal qu il va en même temps entraîner des gains considérables de productivité et d efficacité économique, améliorer notre qualité de vie et provoquer une réduction massive et sans doute définitive du nombre d emplois disponibles au niveau planétaire, y compris dans des domaines hautement qualifiés. Dans son dernier et remarquable essai, intitulé «L innovation destructrice», Luc Ferry, s appuyant sur les travaux visionnaires de Schumpeter, révèle de manière saisissante la face cachée et obscure du processus d innovation qui, de simple outil de développement économique, s est transformé, sans que nous en soyons vraiment conscients, en finalité dans l ensemble des pays développés. Luc Ferry montre également que l innovation, de plus en plus rapide, ne se limite plus au domaine scientifique et technique mais touche également les sphères sociales, politiques culturelles et artistiques. Il reste que chez l homme, contrairement à la machine, les nombreuses formes d intelligence sont inséparables de son imagination, de sa sensibilité et de sa dimension affective et corporelle. Cette singularité humaine peut être considérée comme une faiblesse, si on la compare au mode de fonctionnement d un système informatique utilisant toutes les ressources de l intelligence artificielle. Mais cette spécificité de l intelligence humaine, non réductible au seul calcul, reste sans doute notre meilleur atout pour continuer à découvrir demain et à explorer, loin devant des machines les plus évoluées, de nouveaux chemins insoupçonnés de créativité et de découverte. Juin 2014 (2014/2) 50

51 Le système Watson trouve sa place chez IBM Publié sur le 28 Mars 2014 parserge Leblal Santé, services financiers ou commercial, le système cognitif Watson est sorti des labs de Big Blue pour trouver sa place sur le marché. IBM annonce que 750 entreprises s'intéressent de près aux capacités d'analyse de données du supercalculateur et la France aura même bientôt sa propre division Watson. Exploitant les technologies maison, SPSS ou Cognos, Watson est devenu une division à part entière chez IBM, comme nous l'a expliqué Patrice Poiraud de l'activité big data et analytics chez IBM France. Trois ans après le défi relevé par IBM de participer au jeu télévisé Jeopardy, le superordinateur Watson est devenu une division à part entière chez Big Blue. Après plusieurs années de recherche et même certains partenariats avec des universités sur l'intelligence artificielle et l'analyse du langage naturelle, le système cognitif d'ibm commence à trouver ses premiers usages dans les domaines de la santé et du commerce. Patrice Poiraud, directeur de l'activité big data et analytics chez IBM, nous a dressé un premier tableau des débouchés attendus pour Watson. La médecine est toujours un des axes de développement avec un cloud privé Watson installé chez WellPoint, une mutuelle américaine rassemblant 39 millions d'adhérents. Pour accélérer les dossiers de demande de prise en charge de traitement contre le cancer, WellPoint et IBM ont mis à disposition de plusieurs centres de santé les ressources de Watson. A titre expérimental, le Medecin Memorial Sloan Kettering Cancer Center à New York bénéficie des capacités de traitement de Watson pour l'établissement de traitements contre le cancer. Le système ne délivre pas à proprement parler de chimiothérapies mais accompagne les oncologues pour mieux soigner les patients atteints d'un cancer des poumons. Watson ingurgite une très grande quantité de données médicales, relative aux précédents traitements utilisés pour la même pathologie et au patient lui-même, pour proposer des options aux médecins. «Comme le nombre de patients qui décède d'un cancer est de plus en plus élevé, le sujet est bien adapté aux traitements big data» médecins utilisent aujourd'hui le système Watson aux États-Unis pour peaufiner leurs prescriptions et dans le cas du Medecin Memorial Sloan Kettering Cancer Center, dossiers ont déjà été traités par Watson ce qui représentent combinaisons médicamenteuses évaluées. «Il s'agit bien ici de gagner du temps pour trouver le bon traitement», nous a précisé M. Poiraud. Juin 2014 (2014/2) 51

52 Un renfort pour les centres d'appel Bulletin IBM Cara Sud-Est Autre exemple d'utilisation du système cognitif d'ibm, la DBS Bank à Singapour a commencé à alimenter un superordinateur Watson avec les connaissances de ses employés sur les produits financiers grand public. L'idée est ici de remplacer à terme une partie du travail de conseil en placements financiers réalisé par les conseillers bancaires et les centres d'appels. «Watson pourra engager une conversation pour expliquer à un client ce qu'est un produit financier et analyser son compte bancaire pour lui conseiller de souscrire le meilleur placement. Cet exemple n'est pour l'instant qu'au stade de projet mais IBM espère convaincre des acteurs du marché des call center de revoir leur front office -en complément ou en optimisant leur plateau avec moins de monde - avec une solution comme Watson. Les centres d'appel connaissant en effet un turn over très important - la durée de vie d'un salarié est de cinq mois environ - l'utilisation d'un système cognitif avancé pour un support de niveau 1 permettrait de revoir l'engagement avec le client. Patrick Albert, ancien d'ilog et aujourd'hui à la tête du Centre d'etudes Avancées d'ibm, est un des spécialistes français de l'intelligence artificielle. Il nous a détaillé les avancées d'ibm en informatique cognitive. Autre client potentiellement intéressé par la solution Watson, The North Face qui développe une plate-forme capable de conseiller un client. Selon Patrice Poiraud, 750 entreprises veulent développer quelque chose autour de Watson Et certaines firmes françaises étudient la chose, même si le système Watson est encore indisponible en France faute de localisation. Mais comme aux États-Unis, la création d'une division Watson est bien à l'étude en France. IBM, qui a annoncé qu'il allait investir 1 milliard de dollars pour soutenir cette activité dans le monde, a d'ores et déjà mis 100 millions de dollars sur la table pour soutenir les initiatives des start-ups intéressées par les capacités de traitements cognitifs de Watson. Si une centaine de personne travaillent aujourd'hui sur Watson aux États-Unis (une poignée en France), à termes cette division sera forte de salariés avec un siège social au 51 Astor Place à Manhattan, dans la «Silicon Alley» newyorkaise. Reste que Manoj Saxena, le premier directeur de l'activité Watson Business Group, a déjà rendu son tablier pour rejoindre un fonds d'investissement dans la Silicon Valley. Naturellement, M. Saxena sera à la tête des investissements dans ce qu'on appelle des applications informatiques cognitives, en particulier celles reposant sur la plate-forme d'analyse de données Watson. Juin 2014 (2014/2) 52

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement

Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de

Plus en détail

Atelier numérique Développement économique de Courbevoie

Atelier numérique Développement économique de Courbevoie Jeudi 3 mai 2012 Atelier numérique Développement économique de Courbevoie Le cloud computing : du virtuel au réel Atelier numérique de Courbevoie Intervenants : Olivier CARTIERI Animateur Conseil TIC Franck

Plus en détail

Chapitre 4: Introduction au Cloud computing

Chapitre 4: Introduction au Cloud computing Virtualisation et Cloud Computing Chapitre 4: Introduction au Cloud computing L'évolution d'internet Virt. & Cloud 12/13 2 Définition Le cloud computing est une technologie permettant de délocaliser les

Plus en détail

Cloud Computing : forces et faiblesses

Cloud Computing : forces et faiblesses Chapitre 7 Cloud Computing : forces et faiblesses 1. Présentation Cloud Computing : forces et faiblesses Le monde informatique a connu une véritable révolution ces dernières années avec l'apparition d'un

Plus en détail

netzevent IT-MARKT REPORT 2013 Infrastructure ICT en Suisse: Le point de vue des entreprises utilisatrices

netzevent IT-MARKT REPORT 2013 Infrastructure ICT en Suisse: Le point de vue des entreprises utilisatrices netzevent IT-MARKT REPORT 2013 Infrastructure ICT en Suisse: Le point de vue des entreprises utilisatrices Résultats exclusifs de l'étude systématique des 10 000 plus grandes entreprises en Suisse à leur

Plus en détail

Veille Technologique. Cloud Computing

Veille Technologique. Cloud Computing Veille Technologique Cloud Computing INTRODUCTION La veille technologique ou veille numérique consiste à s'informer de façon systématique sur les techniques les plus récentes et surtout sur leur mise à

Plus en détail

Le Cercle Vertueux du Cloud Public

Le Cercle Vertueux du Cloud Public Le Cercle Vertueux du Cloud Public Le Cercle Vertueux du Cloud Public Le Cloud public rencontre un intérêt croissant auprès de tous les directeurs IT voulant planifier les stratégies informatiques de leur

Plus en détail

WD et le logo WD sont des marques déposées de Western Digital Technologies, Inc, aux États-Unis et dans d'autres pays ; absolutely WD Re, WD Se, WD

WD et le logo WD sont des marques déposées de Western Digital Technologies, Inc, aux États-Unis et dans d'autres pays ; absolutely WD Re, WD Se, WD WD et le logo WD sont des marques déposées de Western Digital Technologies, Inc, aux États-Unis et dans d'autres pays ; absolutely WD Re, WD Se, WD Xe, RAFF et StableTrac sont des marques de Western Digital

Plus en détail

Informatisation du Système d Information

Informatisation du Système d Information Crédits : Guillaume Rivière Informatisation du Système d Information Les SI en entreprises : Interviews, reportages, débats en vidéo ESTIA 2 è année Guillaume Rivière Dernière révision : Avril 2014 1 Séquencement

Plus en détail

Livre Blanc. L hébergement à l heure du Cloud. Comment faire son choix?

Livre Blanc. L hébergement à l heure du Cloud. Comment faire son choix? Comment faire son choix? Document conçu et rédigé par le cabinet de conseil et d études Pierre Audoin Consultants Mars 2014 www.pac-online.com blog.pac-online.com Sommaire Un nouveau paradigme... 3 L'hébergement

Plus en détail

Les ressources numériques

Les ressources numériques Les ressources numériques Les ressources numériques sont diverses et regroupent entre autres, les applications, les bases de données et les infrastructures informatiques. C est un ensemble de ressources

Plus en détail

fourbissent leurs armes infrastructure Ainsi si le cloud computing constitue une des principales tendances du marché TIC depuis de nombreux

fourbissent leurs armes infrastructure Ainsi si le cloud computing constitue une des principales tendances du marché TIC depuis de nombreux que leurs même Salesforce un Diffusion : 30000 Page : 18 Cloud les opérateurs fourbissent leurs armes Sur un marché des services cloud en pleine progression les opérateurs disposent d atouts essentiels

Plus en détail

IGEL : Le «cloud sourcing», un nouveau marché pour les clients légers

IGEL : Le «cloud sourcing», un nouveau marché pour les clients légers Communiqué de presse IGEL : Le «cloud sourcing», un nouveau marché pour les clients légers IGEL considère que le cloud computing est l élément central d une nouvelle vague d externalisation dont les petites

Plus en détail

Micro ordinateur & Périphériques Mémoire de masse Disque dur (SOLUTION)

Micro ordinateur & Périphériques Mémoire de masse Disque dur (SOLUTION) Ressources : www.sen-bretagne.net, rubrique VANNES/Télécom&Réseaux/CI4 Traitement num./ Table des matières 1.Introduction...1 2.Constitution...1 3.Lecture et enregistrement...2 3.1.Principe du stockage

Plus en détail

Qu est-ce que le «cloud computing»?

Qu est-ce que le «cloud computing»? Qu est-ce que le «cloud computing»? Par Morand Studer eleven Octobre 2011 Qu est-ce que le «cloud computing»? - Morand Studer eleven Octobre 2011 www.eleven.fr 1 Aujourd hui, la démocratisation de l informatique

Plus en détail

Clouds et plates-formes multiples

Clouds et plates-formes multiples VMware dévoile plusieurs nouveautés au sein de ses solutions de cloud computing afin de simplifier et d'automatiser la gestion du Software Defined Data Center et permettre ainsi l'it-as-a-service Ces offres

Plus en détail

Hébergement MMI SEMESTRE 4

Hébergement MMI SEMESTRE 4 Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources

Plus en détail

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est: Travaux Pratiques 3. IFT 1002/IFT 1005. Structure Interne des Ordinateurs. Département d'informatique et de génie logiciel. Université Laval. Hiver 2012. Prof : Bui Minh Duc. Tous les exercices sont indépendants.

Plus en détail

Cloud Computing. 19 Octobre 2010 JC TAGGER

Cloud Computing. 19 Octobre 2010 JC TAGGER Cloud Computing 19 Octobre 2010 JC TAGGER AGENDA 8h30-9h00 Le Cloud Computing De quoi s agit-il? Opportunités pour les entreprises Impact sur la chaine de valeur de l industrie des NTIC s 9h00-9h15 Témoignage

Plus en détail

Business & High Technology

Business & High Technology UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 09 : CC : Cloud Computing Sommaire Introduction... 2 Définition... 2 Les différentes

Plus en détail

HySIO : l infogérance hybride avec le cloud sécurisé

HySIO : l infogérance hybride avec le cloud sécurisé www.thalesgroup.com SYSTÈMES D INFORMATION CRITIQUES ET CYBERSÉCURITÉ HySIO : l infogérance hybride avec le cloud sécurisé Le cloud computing et la sécurité au cœur des enjeux informatiques L informatique

Plus en détail

SafeNet La protection

SafeNet La protection SafeNet La protection des données La conception à l'action, SafeNet protège intelligemment les informations pendant tout leur cycle de vie Les informations peuvent faire progresser votre activité, mais

Plus en détail

Chapitre 1 : Introduction aux bases de données

Chapitre 1 : Introduction aux bases de données Chapitre 1 : Introduction aux bases de données Les Bases de Données occupent aujourd'hui une place de plus en plus importante dans les systèmes informatiques. Les Systèmes de Gestion de Bases de Données

Plus en détail

La virtualisation des serveurs ou «loin des yeux, loin de l esprit»...

La virtualisation des serveurs ou «loin des yeux, loin de l esprit»... Acceleris GmbH Webergutstr. 2 CH-3052 Zollikofen Téléphone: 031 911 33 22 [email protected] La virtualisation des serveurs ou «loin des yeux, loin de l esprit»... Des entreprises de toutes les branches

Plus en détail

Cloud Computing. Veille Technologique

Cloud Computing. Veille Technologique Cloud Computing Veille Technologique La veille technologique consiste à s'informer de façon systématique sur les techniques les plus récentes et surtout sur leur mise à disposition commerciale (ce qui

Plus en détail

Veille technologique - (VmWare)

Veille technologique - (VmWare) Veille technologique - (VmWare) Résumé : Cette veille recense les principales informations concernant les solutions de virtualisation de cet éditeur, et ce de façon simpliste. Le but n'étant pas de détailler

Plus en détail

Le Big Data est-il polluant? BILLET. Big Data, la déferlante des octets VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE TERRE (/TERRE)

Le Big Data est-il polluant? BILLET. Big Data, la déferlante des octets VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE TERRE (/TERRE) Donner du sens à la science Rechercher Se connecter / S'inscrire Suivre VIVANT MATIÈRE SOCIÉTÉS UNIVERS TERRE NUMÉRIQUE MES THÈMES Types DOSSIER Paru le 15.11.2012 Mis à jour le 29.01.2014 Big Data, la

Plus en détail

IBM Software Big Data. Plateforme IBM Big Data

IBM Software Big Data. Plateforme IBM Big Data IBM Software Big Data 2 Points clés Aide les utilisateurs à explorer de grands volumes de données complexes Permet de rationaliser le processus de développement d'applications impliquant de grands volumes

Plus en détail

La tête dans les nuages

La tête dans les nuages 19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions

Plus en détail

Architectures informatiques dans les nuages

Architectures informatiques dans les nuages Architectures informatiques dans les nuages Cloud Computing : ressources informatiques «as a service» François Goldgewicht Consultant, directeur technique CCT CNES 18 mars 2010 Avant-propos Le Cloud Computing,

Plus en détail

Regard sur hybridation et infogérance de production

Regard sur hybridation et infogérance de production Regard sur hybridation et infogérance de production Février 2014 édito «comment transformer l hybridation des infrastructures en levier de performances?» Les solutions d infrastructure connaissent depuis

Plus en détail

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé

IBM CloudBurst. Créer rapidement et gérer un environnement de Cloud privé IBM CloudBurst Créer rapidement et gérer un environnement de Cloud privé Points clés Accélérez le déploiement d'un Cloud privé à l'aide d'un système préinstallé et préintégré avec des logiciels, des serveurs

Plus en détail

Informatique en nuage Cloud Computing. G. Urvoy-Keller

Informatique en nuage Cloud Computing. G. Urvoy-Keller Informatique en nuage Cloud Computing G. Urvoy-Keller Sources de ce documents Next Stop, the cloud Objectifs de l'étude : Comprendre la popularité des déploiements de services basés sur des clouds Focus

Plus en détail

Veille Technologique. Cloud-Computing. Jérémy chevalier

Veille Technologique. Cloud-Computing. Jérémy chevalier E6 Veille Technologique Cloud-Computing Jérémy chevalier Table des matières DESCRIPTION :...2 Introduction :...2 Définition du Cloud :...2 Exemple de serveur proposant la solution de Cloud :...2 Les spécificités

Plus en détail

Microsoft Dynamics AX. Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server

Microsoft Dynamics AX. Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server FLEXIBILITÉ Microsoft Dynamics AX Solutions flexibles avec la technologie Microsoft Dynamics AX Application Object Server Livre blanc Comment les entreprises peuvent-elles utiliser la technologie Microsoft

Plus en détail

Accélérez la transition vers le cloud

Accélérez la transition vers le cloud Livre blanc technique Accélérez la transition vers le cloud Architecture HP Converged Cloud Table des matières Une nouvelle informatique pour l'entreprise... 2 Faites évoluer votre stratégie informatique

Plus en détail

Transformation IT de l entreprise MOBILITÉ : ACCOMPAGNEZ L OUVERTURE DE VOTRE SI

Transformation IT de l entreprise MOBILITÉ : ACCOMPAGNEZ L OUVERTURE DE VOTRE SI Transformation IT de l entreprise MOBILITÉ : ACCOMPAGNEZ L OUVERTURE DE VOTRE SI Q ue ce soit avec leurs clients ou leurs partenaires, les entreprises ont commencé à ouvrir leur système d information.

Plus en détail

Cloud (s) Positionnement

Cloud (s) Positionnement Cloud (s) Positionnement Introduction Mainframe Personal Computer Internet Client/serveur Cloud computing 1956-1976 1976-1992 1992-2008 2008-2016 Le Cloud oui mais progressivement Etude IDC 2011 Offre

Plus en détail

Optimisation des niveaux de service dans le cadre de déploiements de Clouds publics

Optimisation des niveaux de service dans le cadre de déploiements de Clouds publics LIVRE BLANC Optimisation des niveaux de service dans le cadre de déploiements de Clouds publics Clés pour une gestion efficace des services agility made possible Table des matières Résumé 3 Introduction

Plus en détail

La surveillance réseau des Clouds privés

La surveillance réseau des Clouds privés La surveillance réseau des Clouds privés Livre blanc Auteurs : Dirk Paessler, CEO de Paessler AG Gerald Schoch, Rédactrice technique de Paessler AG Publication : Mai 2011 Mise à jour : Février 2015 PAGE

Plus en détail

mieux développer votre activité

mieux développer votre activité cloud computing mieux développer votre activité Les infrastructures IT et les applications d entreprise de plus en plus nombreuses sont une source croissante de contraintes. Data centers, réseau, serveurs,

Plus en détail

Tirez plus vite profit du cloud computing avec IBM

Tirez plus vite profit du cloud computing avec IBM Tirez plus vite profit du cloud computing avec IBM Trouvez des solutions de type cloud éprouvées qui répondent à vos priorités principales Points clés Découvrez les avantages de quatre déploiements en

Plus en détail

LE SYNDICAT DE L INNOVATION BIG BIG DATA, UNE RÉVOLUTION TECHNOLOGIQUE OU CULTURELLE? DATA DAY

LE SYNDICAT DE L INNOVATION BIG BIG DATA, UNE RÉVOLUTION TECHNOLOGIQUE OU CULTURELLE? DATA DAY LE SYNDICAT DE L INNOVATION BIG BIG DATA, UNE RÉVOLUTION TECHNOLOGIQUE OU CULTURELLE? DATA DAY A EURATECHNOLOGIES, 165 AVENUE DE BRETAGNE, 59000 LILLE JEUDI 18 SEPTEMBRE 2014 Le Big Data envahit brutalement

Plus en détail

Revue de Presse ACIERNET Année 2014

Revue de Presse ACIERNET Année 2014 Revue de Presse ACIERNET Année 2014 Avec Aciernet, disponibilité immédiate des solutions VCE dans l offre «Cloud in a Box» Publié le 25 Mai 2014 Aciernet est un intégrateur français créé en 2001 et fournit

Plus en détail

CNAM 2010-2011. Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010

CNAM 2010-2011. Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010 CNAM 2010-2011 Déploiement d une application avec EC2 ( Cloud Amazon ) Auteur : Thierry Kauffmann Paris, Décembre 2010 Déploiement d une application dans le cloud. 1. Cloud Computing en 2010 2. Offre EC2

Plus en détail

Kick Off SCC 2015 Stockage Objet. Vers de nouveaux horizons

Kick Off SCC 2015 Stockage Objet. Vers de nouveaux horizons Kick Off SCC 2015 Stockage Objet Vers de nouveaux horizons Stockage Objet Qu est ce que le Stockage Objet? Un moyen différent d adresser la donnée Block Fichier Objet Une zone de disque réservée / Une

Plus en détail

Business Intelligence Les 15 tendances clefs pour 2015

Business Intelligence Les 15 tendances clefs pour 2015 Business Intelligence Les 15 tendances clefs pour 2015 Philippe Nieuwbourg www.decideo.fr www.b-eye-network.com 17/11/2008 15 : Temps réel» Fantasme de l intelligence artificielle» Il faut réduire les

Plus en détail

Technologie SDS (Software-Defined Storage) de DataCore

Technologie SDS (Software-Defined Storage) de DataCore Technologie SDS (Software-Defined Storage) de DataCore SANsymphony -V est notre solution phare de virtualisation du stockage, dans sa 10e génération. Déployée sur plus de 10000 sites clients, elle optimise

Plus en détail

Faire de l infrastructure informatique une source de valeur ajoutée pour l entreprise.

Faire de l infrastructure informatique une source de valeur ajoutée pour l entreprise. IBM Global Services Faire de l infrastructure informatique une source de valeur ajoutée pour l entreprise. Les services d infrastructure et d intégration IBM Pour une infrastructure informatique qui participe

Plus en détail

Le Cloud Computing et le SI : Offre et différentiateurs Microsoft

Le Cloud Computing et le SI : Offre et différentiateurs Microsoft Le Cloud Computing désigne ces giga-ressources matérielles et logicielles situées «dans les nuages» dans le sens où elles sont accessibles via Internet. Alors pourquoi recourir à ces centres serveurs en

Plus en détail

Comment promouvoir le Cloud dans l'entreprise?

Comment promouvoir le Cloud dans l'entreprise? Comment promouvoir le Cloud dans l'entreprise? Pascal OGNIBENE, Directeur Technique VALTECH [email protected] Hervé DESAUNOIS, Consultant Sénior VALTECH [email protected] ph Sommaire

Plus en détail

CA Automation Suite for Data Centers

CA Automation Suite for Data Centers FICHE PRODUIT : CA Automation Suite for Data Centers CA Automation Suite for Data Centers agility made possible «La technologie a devancé la capacité à la gérer manuellement dans toutes les grandes entreprises

Plus en détail

Système de stockage IBM XIV Storage System Description technique

Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Description technique Système de stockage IBM XIV Storage System Le stockage réinventé Performance Le système IBM XIV Storage System constitue une solution de

Plus en détail

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware

Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware Transformation vers le Cloud Premier partenaire Cloud Builder certifié IBM, HP et VMware 1 Sommaire Introduction Concepts Les enjeux Modèles de déploiements Modèles de services Nos offres Nos Références

Plus en détail

TRANSFORMEZ VOTRE INFRASTRUCTURE DE BASE DE DONNEES

TRANSFORMEZ VOTRE INFRASTRUCTURE DE BASE DE DONNEES TRANSFORMEZ VOTRE INFRASTRUCTURE DE BASE DE DONNEES Les bases de données telles qu'oracle et SQL Server exigent un niveau de latence faible et prévisible ainsi que des performances d'e/s exceptionnelles

Plus en détail

Le cloud computing est un concept qui consiste à déporter sur des serveurs distants des stockages et des traitements informatiques traditionnellement

Le cloud computing est un concept qui consiste à déporter sur des serveurs distants des stockages et des traitements informatiques traditionnellement 1 Le cloud computing est un concept qui consiste à déporter sur des serveurs distants des stockages et des traitements informatiques traditionnellement localisés sur des serveurs locaux ou sur le poste

Plus en détail

Cloud Computing : Généralités & Concepts de base

Cloud Computing : Généralités & Concepts de base Cloud Computing : Généralités & Concepts de base Les 24èmes journées de l UR-SETIT 22 Février 2015 Cette oeuvre, création, site ou texte est sous licence Creative Commons Attribution - Pas d Utilisation

Plus en détail

Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri

Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri Gaëtan LAVENU Plan de la présentation Evolution des architectures SIG Qu'est ce que le Cloud Computing? ArcGIS et

Plus en détail

Qu est ce que le Cloud Computing?

Qu est ce que le Cloud Computing? Qu est ce que le Cloud Computing? Makhlouf Hadji Ingénieur de Recherche Qu est ce que le Cloud Computing? Agenda: Virtualisation des Ressources Introduction au Cloud Computing Caractéristiques du Cloud

Plus en détail

Les data centers. à l ère de la consolidation, de la virtualisation. l informatique verte

Les data centers. à l ère de la consolidation, de la virtualisation. l informatique verte DOSSIER REPONSES Après une phase où l informatique s était largement disséminée dans de nombreux sites, l heure est nettement au regroupement des serveurs et à la consolidation ; cela étant dû à une augmentation

Plus en détail

en version SAN ou NAS

en version SAN ou NAS tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi

Plus en détail

Monter une infrastructure web pour 1 million de visites par jour

Monter une infrastructure web pour 1 million de visites par jour DOSSIER DE PRESSE Monter une infrastructure web pour 1 million de visites par jour Petit-déjeuner thématique organisé par Evolix Jeudi 15 avril 2010, de 9h à 11h, au Pôle Média Belle de Mai En partenariat

Plus en détail

À PROPOS DE TALEND...

À PROPOS DE TALEND... WHITE PAPER Table des matières Résultats de l enquête... 4 Stratégie d entreprise Big Data... 5 Intégration des Big Data... 8 Les défis liés à la mise en œuvre des Big Data... 10 Les technologies pour

Plus en détail

Hubert & Bruno Lundi 12 octobre 2009 SAINT-QUENTIN (02)

Hubert & Bruno Lundi 12 octobre 2009 SAINT-QUENTIN (02) Hubert & Bruno Lundi 12 octobre 2009 SAINT-QUENTIN (02) Ne rien livrer au hasard, c est économiser du travail Pont Sainte Maxence(O C est quoi USB? Comment ça marche? Les standards? La technique en détail

Plus en détail

Des systèmes d information partagés pour des parcours de santé performants en Ile-de-France.

Des systèmes d information partagés pour des parcours de santé performants en Ile-de-France. Des systèmes d information partagés pour des parcours de santé performants en Ile-de-France. Colloque du 19 juin 2013 Centre de conférences Marriott, Paris Des systèmes d information partagés pour des

Plus en détail

Architecture des ordinateurs. Environnement Windows : sauvegarde

Architecture des ordinateurs. Environnement Windows : sauvegarde Architecture des ordinateurs Environnement Windows : sauvegarde 1/14 Table des matières 1.Introduction...3 a)objectifs...3 b)critères de choix...3 c)stratégies de sauvegarde...3 2.La source...4 a)sauvegarde

Plus en détail

IV- Comment fonctionne un ordinateur?

IV- Comment fonctionne un ordinateur? 1 IV- Comment fonctionne un ordinateur? L ordinateur est une alliance du hardware (le matériel) et du software (les logiciels). Jusqu à présent, nous avons surtout vu l aspect «matériel», avec les interactions

Plus en détail

Résultats annuels 2013 & perspectives. «Du mobile au Big Data»

Résultats annuels 2013 & perspectives. «Du mobile au Big Data» Résultats annuels 2013 & perspectives «Du mobile au Big Data» Sommaire 1. Profil du Groupe Du mobile au Big Data 2. Résultats annuels 2013 Croissance et rentabilité 3. Perspectives Confiance pour 2014

Plus en détail

Créca. Ajout aux livrets d informatique. Hiver 2014

Créca. Ajout aux livrets d informatique. Hiver 2014 Créca Ajout aux livrets d informatique Hiver 2014 Table des matières 1. La mobilité 2. L Internet 3. Les appareils 4. Les logiciels et les applications 5. Le stockage des informations 1. Mobilité Le maître

Plus en détail

HÉBERGEMENT CLOUD & SERVICES MANAGÉS

HÉBERGEMENT CLOUD & SERVICES MANAGÉS HÉBERGEMENT CLOUD & SERVICES MANAGÉS Pour éditeurs, intégrateurs et entreprises Qui sommes-nous? Présentation Aspaway Septembre 0 Sommaire PARTIE : Qui sommes-nous? PARTIE : Description de notre offre

Plus en détail

vbladecenter S! tout-en-un en version SAN ou NAS

vbladecenter S! tout-en-un en version SAN ou NAS vbladecenter S! tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de

Plus en détail

Brochure Datacenter. www.novell.com. Novell Cloud Manager. Création et gestion d un cloud privé. (Faire du cloud une réalité)

Brochure Datacenter. www.novell.com. Novell Cloud Manager. Création et gestion d un cloud privé. (Faire du cloud une réalité) Brochure Datacenter Novell Cloud Manager Création et gestion d un cloud privé (Faire du cloud une réalité) Novell Cloud Manager : le moyen le plus simple de créer et gérer votre cloud WorkloadIQ est notre

Plus en détail

Vision Infonuagique VMware

Vision Infonuagique VMware Vision Infonuagique VMware Brent McCoubrey spécialiste pré-ventes VMware Québec [email protected] 2010 VMware, Inc. Tous droits réservés. Objectif de VMware Accélérer l informatique pour accélérer votre

Plus en détail

Cloud Computing, Informatique en nuage, UnivCloud, Datacenters, SI, Iaas, Paas, Saas, fonction support, technologies, Innovations.

Cloud Computing, Informatique en nuage, UnivCloud, Datacenters, SI, Iaas, Paas, Saas, fonction support, technologies, Innovations. UnivCloud : Plate-forme mutualisée de services différenciés pour usages d'etablissements d'enseignement Supérieur et de Recherche et Applications métier Frédérick BIGRAT Université Numérique de Paris Île-de-France

Plus en détail

Sommaire. A la une...2-3. Témoignage client...4. Prochain rendez-vous...6. Syselcom : l actu...7. Contact Us

Sommaire. A la une...2-3. Témoignage client...4. Prochain rendez-vous...6. Syselcom : l actu...7. Contact Us Sommaire A la une...2-3 ¾ L évolution du Cloud Computing et ses défis Témoignage client...4 ¾ OneSolutions SA Les événements SyselCloud...5 ¾ RoadShow SolvAxis - SyselCloud Prochain rendez-vous...6 ¾ SyselCloud

Plus en détail

Protéger et héberger vos donnés métiers : les tendances cloud et SaaS au service des entreprises

Protéger et héberger vos donnés métiers : les tendances cloud et SaaS au service des entreprises Livre Blanc Protéger et héberger vos donnés métiers : les tendances cloud et SaaS au service des entreprises Cloud et info financière : Labrador mise sur le cloud Spécialisée dans la communication financière

Plus en détail

Gérez-vous vos serveurs virtuels et physiques en tant que partie intégrante de votre infrastructure sous-jacente?

Gérez-vous vos serveurs virtuels et physiques en tant que partie intégrante de votre infrastructure sous-jacente? DOSSIER SOLUTION CA Infrastructure Management Gérez-vous vos serveurs virtuels et physiques en tant que partie intégrante de votre infrastructure sous-jacente? agility made possible est la base d une solution

Plus en détail

Votre cloud est-il net?

Votre cloud est-il net? Votre cloud est-il net? Avril 2012 greenpeace.fr Mettre en marche une révolution énergétique 03 2 Votre cloud est-il net? Frank van Biemen / EvoSwitch / Greenpeace Greenpeace Votre cloud est-il net? Résumé

Plus en détail

Emmanuelle Touzard [email protected]

Emmanuelle Touzard emmanuelle@oxygen-rp.com CONTACTS BROCADE Contact Société Isabelle Laguerre, Responsable Marketing Europe du Sud, Brocade [email protected] Contacts Presse Oxygen : Sandrine Mahoux [email protected] Tél. : 01 41 11 37 95

Plus en détail

Accenture accompagne la première expérimentation cloud de l État français

Accenture accompagne la première expérimentation cloud de l État français Accenture accompagne la première expérimentation cloud de l État français Pays marqué par la centralisation, la France dispose paradoxalement d une informatique en silo, chaque ministère étant doté de

Plus en détail

PASS_Compagnia. Dommages et Vie LE CHOIX DE L INNOVATION. Étude de cas HDI Assicurazioni

PASS_Compagnia. Dommages et Vie LE CHOIX DE L INNOVATION. Étude de cas HDI Assicurazioni PASS_Compagnia Dommages et Vie LE CHOIX DE L INNOVATION Étude de cas HDI Assicurazioni Index 1. PASS_COMPAGNIA DOMMAGES ET VIE... 3 1.1 Sommaire... 3 1.2 Le scénario... 4 1.3 La solution de RGI... 5 1.3.1

Plus en détail

NewPoint IT Consulting BIG DATA WHITE PAPER. NewPoint Information Technology Consulting

NewPoint IT Consulting BIG DATA WHITE PAPER. NewPoint Information Technology Consulting NewPoint IT Consulting BIG DATA WHITE PAPER NewPoint Information Technology Consulting Contenu 1 Big Data: Défi et opportunité pour l'entreprise... 3 2 Les drivers techniques et d'entreprise de BIG DATA...

Plus en détail

Module 1 Module 2 Module 3 10 Module 4 Module 5 Module 6 Module 7 Module 8 Module 9 Module 10 Module 11 Module 12 Module 13 Module 14 Module 15

Module 1 Module 2 Module 3 10 Module 4 Module 5 Module 6 Module 7 Module 8 Module 9 Module 10 Module 11 Module 12 Module 13 Module 14 Module 15 Introduction Aujourd hui, les nouvelles technologies sont de plus en plus présentes et une masse considérable d informations passe par Internet. Alors qu on parle de monde interconnecté, de vieillissement

Plus en détail

2009 - Présentation de la société. Notre métier, c est de rendre le votre plus facile

2009 - Présentation de la société. Notre métier, c est de rendre le votre plus facile Notre métier, c est de rendre le votre plus facile 2009 - Présentation de la société Le leader de l infogérance sélective et de l évolutivité des systèmes distribués Notre seul et unique métier, c'est

Plus en détail

Open-cloud, où en est-on?

Open-cloud, où en est-on? Open-cloud, où en est-on? Illustration sous licence CC-by-nc Ivan Walsh Par Philippe Scoffoni http://philippe.scoffoni.net [email protected] Cette présentation est placée sous licence Creative Common

Plus en détail

Acquisition et conditionnement de l information Les capteurs

Acquisition et conditionnement de l information Les capteurs Acquisition et conditionnement de l information Les capteurs COURS 1. Exemple d une chaîne d acquisition d une information L'acquisition de la grandeur physique est réalisée par un capteur qui traduit

Plus en détail

Culture numérique Cloud computing

Culture numérique Cloud computing Culture numérique Cloud computing Hervé Le Crosnier Université de Caen Basse-Normandie [email protected] Processus John McCarthy «computation may someday be organized as a public utility.» Transformations

Plus en détail

DES SAUVEGARDES ET DES RESTAURATIONS DE DONNEES SANS CONTRAINTES DE LIEU NI DE TEMPS

DES SAUVEGARDES ET DES RESTAURATIONS DE DONNEES SANS CONTRAINTES DE LIEU NI DE TEMPS POURQUOI CHOISIR ACRONIS BACKUP TO CLOUD? Les volumes de données que votre entreprise doit gérer et les coûts correspondants de sauvegarde et de maintenance augmentent de manière exponentielle. La virtualisation,

Plus en détail

Position du CIGREF sur le Cloud computing

Position du CIGREF sur le Cloud computing Position du CIGREF sur le Cloud computing Septembre 2010 Cette position est le fruit d un groupe de réflexion ayant rassemblé les Directeurs des Systèmes d Information de grandes entreprises, au premier

Plus en détail

d. Tendances du marché...22 e. Une vision européenne...22 III. La distribution en France... 23

d. Tendances du marché...22 e. Une vision européenne...22 III. La distribution en France... 23 Table des matières: 8 PARTIE 1 SYNTHESE... 3 I. Combien d acteurs sur ce marché?... 3 II. Une offre large... 4 III. Facteur de croissance du marché... 4 IV. Impact du cloud computing... 4 V. Homogénéité

Plus en détail

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM

Valeur métier. Réduction des coûts opérationnels : Les coûts opérationnels ont été réduits de 37 %. Les systèmes intégrés comme IBM Global Headquarters: 5 Speen Street Framingham, MA 01701 USA P.508.872.8200 F.508.935.4015 www.idc.com LIVRE BLANC IBM PureFlex System Optimisé pour le Cloud Pour : IBM Randy Perry Juillet 2013 Mary Johnston

Plus en détail

La carte d'achat dans les organisations françaises

La carte d'achat dans les organisations françaises CHAPITRE 2 La carte d'achat dans les organisations françaises Pour bien appréhender l'usage efficace de la carte d'achat, il est important de toujours la considérer comme un moyen d'exécution de la commande.

Plus en détail

Orange Business Services

Orange Business Services Orange Business Services agenda 1 2 3 le Groupe France Telecom Orange Orange Business Services stratégie 4 références 2 1 le Groupe France Telecom Orange 3 un des principaux opérateurs de télécommunications

Plus en détail

1 ère Partie Stratégie et Directions Stockage IBM

1 ère Partie Stratégie et Directions Stockage IBM Cédric ARAGON Directeur des Ventes de Stockage IBM France 1 ère Partie Stratégie et Directions Stockage IBM Agenda Les défis actuels posés par la croissance des volumes de données IBM: acteur majeur sur

Plus en détail

PAC Q&A. Capgemini : le Business Cloud, tout simplement

PAC Q&A. Capgemini : le Business Cloud, tout simplement Capgemini : le Business Cloud, tout simplement Pour Capgemini, le Cloud fait partie intégrante de l'ensemble des solutions pour les entreprises. Toutes les entités du groupe se sont alignées sur ce nouveau

Plus en détail

Cloud computing Votre informatique à la demande

Cloud computing Votre informatique à la demande Cloud computing Votre informatique à la demande Thomas RULMONT Définition du Cloud Computing L'informatique dans le nuage (en anglais, cloud computing) est un concept ( ) faisant référence à l'utilisation

Plus en détail

Réduisez vos activités de maintenance SAP pour vous concentrer sur la valeur ajoutée

Réduisez vos activités de maintenance SAP pour vous concentrer sur la valeur ajoutée Réduisez vos activités de maintenance SAP pour vous concentrer sur la valeur ajoutée Note de synthèse parrainée par IBM Introduction SAP est un élément vital de nombreuses entreprises le moteur qui permet

Plus en détail

Section I: Le Contexte du DATA CENTER Pourquoi l AGILITE est Nécessaire dans le DataCenter

Section I: Le Contexte du DATA CENTER Pourquoi l AGILITE est Nécessaire dans le DataCenter Agile Data Center CONTENU Section I: Le Contexte du DATA CENTER Pourquoi l AGILITE est Nécessaire dans le DataCenter Section II: VERS UNE APPROCHE SERVICE Le DataCenter AGILE (ADC) Une Infrastructure Elastique

Plus en détail