Les chiffres de l informatique et le temps qui passe



Documents pareils
Architecture matérielle des systèmes informatiques

Réseaux grande distance

Prérequis techniques pour l installation du logiciel Back-office de gestion commerciale WIN GSM en version ORACLE

Architecture des ordinateurs

LOT 1 - ACQUISITION DE SERVEURS INFORMATIQUES LOT 2 - ACQUISITION DE 5 POSTES INFORMATIQUES

Tout savoir sur le matériel informatique

CH.3 SYSTÈMES D'EXPLOITATION

Leçon 1 : Les principaux composants d un ordinateur

THEME 1 : L ORDINATEUR ET SON ENVIRONNEMENT. Objectifs

Ordinateur portable Latitude E5410

Systèmes et traitement parallèles

Satellite Pro R50 C O N Ç U P O U R V O T R E E N T R E P R I S E. TOSHIBA recommande Windows 8.

Hiérarchie matériel dans le monde informatique. Architecture d ordinateur : introduction. Hiérarchie matériel dans le monde informatique

NOTIONS DE RESEAUX INFORMATIQUES

Sur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11)

Hubert & Bruno Lundi 12 octobre 2009 SAINT-QUENTIN (02)

COLLEGE ADRIEN CERNEAU

DEVIS MATERIEL INFORMATIQUE MAIRIE DE CAZERES

Spécifications détaillées

TRÈS HAUT DÉBIT. en Seineet-Marne EN 10 QUESTIONS

et dépannage de PC Configuration Sophie Lange Guide de formation avec exercices pratiques Préparation à la certification A+

Plan du Travail. 2014/2015 Cours TIC - 1ère année MI 30

MODULE I1. Plan. Introduction. Introduction. Historique. Historique avant R&T 1ère année. Sylvain MERCHEZ

Structure de base d un ordinateur

Cours 13. RAID et SAN. 2004, Marc-André Léger

Spécifications détaillées

Matériel. Matériel de bureau

FormaSciences 2014 «Les énergies du futur»

Structure et fonctionnement d'un ordinateur : hardware

Entrez dans l ère du Numérique Très Haut Débit

Matériel & Logiciels (Hardware & Software)

Groupe Eyrolles, 2000, 2004, ISBN :

2. Couche physique (Couche 1 OSI et TCP/IP)

Choix d'un serveur. Choix 1 : HP ProLiant DL380 G7 Base - Xeon E GHz

Cours Informatique 1. Monsieur SADOUNI Salheddine

Les tablettes. Présentation tablettes Descriptif Fournisseurs Caractéristiques Comparatifs Conseils Perspectives Démonstration

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

La maison connectée grâce au courant porteur en ligne (CPL)

neotechpro catalogue neotechpro NeoTechPro International

1/ Pré requis techniques pour l installation du logiciel complet de gestion commerciale Wingsm en version Hyper File :

LE MICRO ORDINATEUR. Introduction Architecture Les supports amovibles Les composants Le système d exploitation Les portables

CAHIER. DES CLAUSES TECHNIQUES PARTICULIERES N du 16 avril 2007 ORDINATEURS. C.I.E.P 1, Avenue Léon JOURNAULT SEVRES

Les Bonnes Affaires de Juillet / Aout 2015

Arguments clés. (1) : disponible sur certaines offres

PDF created with pdffactory Pro trial version

Liste de vérification des exigences Flexfone

Éléments d'architecture des ordinateurs

Le poids et la taille des fichiers

10 choses à savoir sur le 10 Gigabit Ethernet

Caractéristiques et débits de votre ligne ADSL

Version de novembre 2012, valable jusqu en avril 2013

INFO 2 : Traitement des images

Cahier des Clauses Techniques Particulières

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:

L ORDINATEUR. Les composants. La carte mère. Le processeur. Fréquence

Cahier des charges pour la mise en place de l infrastructure informatique

Fiche technique CPU 314SC/DPM (314-6CG13)

FICHE PRODUIT PRELIMINAIRE

Les data centers. à l ère de la consolidation, de la virtualisation. l informatique verte

Eléments d architecture des machines parallèles et distribuées

Limitations of the Playstation 3 for High Performance Cluster Computing

Configuration matérielle et logicielle requise et prérequis de formation pour le SYGADE 6

Présentation du système informatique utilisé et éléments d architecture des ordinateurs

xdsl Digital Suscriber Line «Utiliser la totalité de la bande passante du cuivre»

Chapitre 1: Introduction générale

Formation Informatique. Utiliser les périphériques informatiques

Micro ordinateur & Périphériques Mémoire de masse Disque dur (SOLUTION)

MARCHE DE FOURNITURE D EQUIPEMENTS INFORMATIQUES ET RESEAU POUR LE PROJET D APPUI A LA NAVIGABILITE DES VOIES FLUVIALES ET LACUSTRES EN R.D.

CENTRALE DE SURVEILLANCE EMBARQUEE MULTIMEDIA

Enregistrement automatique. des données

Options indispensables, fortement conseillées pour démarrer sans soucis

Quel PC pour quels usages? 1) PC de Bureau ou Portable? Les différents types de portables. - Les ultra-portables. - Les portables généralistes

Clé USB. Quel type de données peut contenir une clé USB?

Une solution stockage sécurisée et distribuée au Synchrotron Soleil

ACQUISITION DE MATERIEL INFORMATIQUE

HP 600PD TWR i G 4.0G 39 PC

Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing

1 ère Partie Stratégie et Directions Stockage IBM

@ L ordinateur et ses périphériques

Alchin Couderc Flambard TBSEID 2

DE L ORDINATEUR. Ligue Libérale des Pensionnés asbl

Performance et usage. La différence NETGEAR - R7000. Streaming HD illimitée

PROJET DE MIGRATION EXCHANGE 2003 VERS EXCHANGE 2010

Architecture des Ordinateurs. Partie II:

CUOMO PC Route d Oron Lausanne 021/

1 Définition et présentation. 2 Le réseau Numéris. 3 Les services. 3.1 Les services Support (Bearer service) SYNTHESE

Power over Ethernet Plus. James Withey Ingénieur R&D senior chez Nexans

Découvrir le. Discover. Lighting Technologies

Initiation au HPC - Généralités

2. DIFFÉRENTS TYPES DE RÉSEAUX

Lecteur de carte à puce LCPM1 SOMMAIRE

Routeur Gigabit WiFi AC 1200 Dual Band

cc.region.beaujeu@wanadoo.fr Site Internet Actuellement nous trouvons ce schéma réseau :

Cours n 12. Technologies WAN 2nd partie

PPE BTS SIO Jourson - Attard Ascenzi Mancini GEP Marseille - 06/11/2014

Le réseau sans fil "Wi - Fi" (Wireless Fidelity)

Surveillance de Température sans fil

Initiation à l informatique. Module 1 : Le Matériel

Transcription:

Les chiffres de l informatique et le temps qui passe Pour comprendre le présent, retour sur le futur Par Claude Marson www.lemarson.com info@lemarson.com Il y a quelques jours, dans un grand magasin spécialisé en informatique, un vendeur argumentait en faveur de sa machine, devant un client blasé et peu convaincu. - avec la Compute XX43, une 64 bits, vous vous rendez compte, vous avez 16 GB de mémoire, 1 TB sur disque, avec interface SATA 3, un processeur quadri-core, 4 connecteurs USB 3.0, une interface Wi-Fi 802.11ac et le tout pour 876 $, garantie pièces et main d œuvre pendant 3 ans - bof, oui c est bien, mais je n ai pas le dernier jeu «Tarzan et Cléopâtre» et rien ne me dit qu il marchera avec votre truc Compute XX43 Tout était dit. Les intégrateurs ont beau proposer les fonctionnalités les plus étonnantes, plus rien ne satisfait le client, qui a perdu cette capacité de comparaison et surtout oublié d où il vient. Il est blasé, incapable de se fixer des repères et mesurer par quelque chiffres le temps qui passe. Alors pour lui rafraîchir la mémoire, c est le cas de le dire, nous nous sommes livrés à un petit exercice d introspection, dans un certain nombre de domaines clés de la technologie informatique. Nous avons pris 12 thèmes et pour chacun d eux avons mesuré le chemin parcouru. Un voyage dans le temps, étonnant et instructif. 1

La densité des circuits Le premier circuit intégré qui date de 1959, comportait 3 résistances, un transistor et une capacité, au sens des circuits discrets utilisés à l époque. Jack Kilby, qui l avait inventé, inaugurait la célèbre échelle d intégration, avec le SSI : Small Scale Integration d une dizaine de transistors élémentaires. Aujourd hui VLSI correspond à plusieurs milliards de transistors, intégrés dans un même circuit, l ennemi bien connu de ces boîtiers étant le dégagement de chaleur par effet Joule, difficulté que l on n a jamais réussi à vaincre. C est toutefois à cette densité que s applique la fameuse loi de Moore, qui depuis les années 60, veut que le nombre de transistors intégrés dans la masse d un circuit, double à peu près tous les deux ans, à surface égale. Progression en 50 ans : facteur de 400 millions. Les technologies modernes permettant d intégrer 400 millions de fois plus de transistors élémentaires qu en 1959. 2

La finesse de gravure des circuits Tout le monde sait que l on est aujourd hui dans l ère de la nanoélectronique et le client de notre grand magasin autant qu un autre. Mais avons-nous une idée des miracles technologiques qui ont permis d y parvenir. On prendra l exemple des microprocesseurs et on se calera sur le 4004 d Intel, premier microprocesseur de l histoire, un circuit 4 bits avec un jeu de 46 instructions, capables d adresser 640 octets. Ce processeur comportait 2300 transistors, gravés en 10 microns. Aujourd hui, si on prend comme exemple le dernier Broadwell d Intel, on en est à une gravure de 14 nm, un processeur double-core et 1,9 milliard de transistors. La taille de la gravure a donc été réduite dans un facteur proche de 700, les «chemins de câbles» qui relient entre eux les différents éléments des circuits, mémoire, cache, bus d interconnexion, pile, etc, étant donc 700 fois plus petits que sur les premiers processeurs. C est ce qui explique qu au fur et à mesure de l évolution de la technologie, il a fallu adapter les moyens de production aux nouveaux circuits et parfois refaire entièrement les usines, devenues incompatibles avec les exigences nouvelles : climatisation, procédés de fabrication, etc. 3

Les capacités mémoire Dans ce domaine nous prendrons deux exemples, celui des mainframes et celui des postes de travail. Pour les mainframes, on considère que le premier modèle à placer dans cette catégorie est le 360 d IBM présenté en avril 1964. Sa capacité mémoire était de 128 KB, fabriquée avec des tores de ferrite, sorte de petits anneaux magnétiques traversés par un fil électrique dont le sens du courant définissait la nature du bit enregistré. Et croyez bien qu avec 128 KB, les programmeurs avaient le sens de l économie Aujourd hui, l un des derniers mainframes d IBM, le z13, est capable d aligner 10 TB de mémoire, dans une technologie qui n a évidemment plus rien à voir avec celle du 360, mais qui représente un facteur d augmentation de 78 millions. En d autres termes, une machine moderne dispose de 78 millions de fois plus de mémoire que son ancêtre 360. De quoi perdre les bonnes habitudes d économie. Prenons aussi l exemple du PC. Quand IBM l a annoncé en 1981, il l avait doté de 16 KB minimum, que l on pouvait étendre à 256 KB. Aujourd hui, si vous n avez pas un minimum de 16 ou 32 GB de mémoire, vous passez pour un retardé mental. Au passage, multiplication par 1 million. Et si l on devait définir le prix en fonction des performances machines, on pourrait presque dire que le PC est gratuit, par rapport à ce qu il était en 1981. 4

Les mémoires «caches» Les caches n ont pas été inventées par Intel, ni apparues pour la première fois sur les PC modernes. C est IBM qui a imaginé le concept, de ce qu il appelait l antémémoire, une sorte de mémoire «antichambre» dans laquelle on stockait le code exigeant, susceptible d être rappelé souvent par les programmes. Cette antémémoire est arrivée sur le 360/85, avec une précision de 16 bits (la mémoire classique était en 8 bits) et une capacité de 16 ou 32 KB. Volume très réduit donc, ce que justifiait le coût élevé des circuits à utiliser. Aujourd hui, en simplifiant un peu, toujours avec un z13 à 8 cœurs, IBM propose 64 MB de cache de niveau 3, soit un total de 512 MB. Le coefficient multiplicateur est donc cette fois de 32.000. La capacité cache ayant été multipliée par 32.000. Ce qui explique largement les performances extraordinaires obtenues sur les machines modernes. 5

La performance des machines Voilà un sujet qui n a jamais été facile à traiter, tant il a été difficile de trouver des critères de comparaison communs à toutes les machines. IBM, toujours lui, caractérisait autrefois la performance par les fameux Mips : Millions d Instructions par Seconde. Son modèle le plus rapide de la série 360, le 360/75 était évalué à la vitesse phénoménale de 1 Mips. Autrement dit la machine était capable d exécuter 1 million d instructions par seconde en langage machine (assembleur). Notre désormais familier z13 culmine pour sa part à 111.000 Mips, ce qui veut dire que la puissance machine a été multipliée par 111.000. Le lecteur soucieux du détail nous pardonnera ici quelques rapprochements et simplifications, notre souhait étant simplement de donner un ordre de grandeur. La performance des machines scientifiques Les scientifiques ne s expriment pas en Mips, mais en MFlops : Mega Floating Operations Per Second, sachant que les instructions mathématiques, dites flottantes n ont pas le même format que les autres, portant sur des entiers ou des caractères. 6

Cette fois, nous avons pris le Cray de Seymour Cray comme référence, cette machine mythique, que l on évoquait dans les années 80, en baissant la voix, tant elle nous impressionnait. Le Cray-1, premier maillon, d une longue histoire, est sorti en 1975 avec des performances évaluées à 80 Mflops. A condition de lui fournir du code parallélisé car sinon il se trainait comme une brouette. En 2015, le HPC le plus rapide, qui est une machine chinoise, le Tianhe-2 (ce qui veut dire «rivière céleste») a atteint des pics de 54,9 PFlops (1 Peta Flops = 1000 Tera Flops). On est donc passé en 40 ans environ à une machine 686 millions de fois plus rapide que le légendaire Cray-1. Renversant. Certes la technologie n est plus la même : du pipeline Cray au cluster Tianhe-2, mais «in fine» il n y a que les chiffres qui comptent. Les nœuds des clusters Puisque l on évoque les formidables progrès accomplis par les machines en clusters, il n est pas inutile de rappeler là encore, l étonnante évolution de cette famille de machines. Le premier cluster de l histoire est à mettre au crédit de la compagnie Digital Equipement en 1983, le Vax Cluster, première machine à comporter plusieurs unités centrales, vues par une seule copie du système d exploitation. En fait, les versions initiales ne comportaient que deux unités centrales, de même que des unités de stockage partagées via un bus d interconnexion en étoile propriétaire, qui n est pas sans rappeler les architectures modernes de type Infiniband. En 2015, le Tianhe-2 est constitué de 3.120.000 cores, avec des Intel Xeon E5-2692 qui sont des 12 cores. Si l on considère qu un Xeon E5-2692 est l équivalent d un processeur Vax, on peut estimer que le nombre de processeurs a été multiplié par 160.000, le Tianhe-2 comportant 320.000 processeurs 12-core. Evidemment, ce genre de calcul est très limite, mais au moins il nous donne une idée du chemin parcouru. 7

La consommation électrique En termes d alimentation électrique, le Cray-1 consommait environ 115 KWh et il était d ailleurs de ce point de vue considéré comme très gourmand, d où l idée de l isoler de ses congénères Le Tianhe-2 consomme pour sa part 17.608 KWh, soit un peu moins de 20 MW. La consommation a donc été multipliée par 155!!! Au point que lorsque certains HPC démarrent, toutes les lumières alentours ont un moment de faiblesse et «reprennent leur souffle» qu au bout de quelques secondes A préciser dans ce domaine, que l on n aura jamais réussi à vaincre la fatalité du «Joule» qu exprime cette bonne vieille formule, que nous avons tous apprise sur les bancs de l école, à savoir : E = 0,24 RI²T ou E est la consommation exprimée en KWh. Sacré James Prescott Joule (un britannique), il n a pas fini de nous embêter, celui-là La capacité des disques Pour mesurer les progrès réalisés sur les disques magnétiques, nous partirons du Ramac d IBM, fabriqué en 1956, pour aboutir à un petit HDD Western Digital des temps modernes. 8

Le Ramac était un disque de 50 plateaux double-face de 24 pouces, tournant à la vitesse de 1.200 TPM. Son encombrement était de l ordre de 2 m 3 et il pesait environ une tonne. Quant à sa capacité, elle était de 3,75 MB, pour un temps d accès de 600 ms. De quoi sourire. En 2015, le dernier WD est un 6 TB en 3,5 pouces. Si on compare ces deux équipements à travers le temps, il faut vraiment s armer de superlatifs pour mesurer les progrès accomplis. La capacité est passée de 3,75 MB à 6 TB, soit un coefficient de 1,6 million Le diamètre des plateaux est passé de 24 à 3,5 pouces, soit un coefficient réducteur de 6,86 L encombrement physique a diminué de 68 pieds cubes (1,9 mètres cubes environ) à 2,1 pouces cubes (34 cm cubes), soit par un coefficient de 57.000 : les nouveaux disques sont 57.000 moins encombrants que le Ramac d IBM Le poids a subi une diminution équivalente : de 910 kg à 62 g, soit une division par 15.000 Le temps d accès moyen à l information est passé de 600 ms (certains parlent de 1 s) à 2 ms, soit une amélioration par un facteur 300 La densité surfacique, en prise directe avec la capacité et l encombrement, était de 1,628 Kb/pouce carré sur le Ramac. Sur un disque moderne 6 TB, elle monte à 1 Gb/pouce carré, soit une multiplication par 614 millions!!! Quant à la consommation électrique, qui était de l ordre de 3.000 W (2.374 W exactement), elle est tombée à 6 W pour le WD 6 TB, soit une division par près de 400. Ce qui est encore plus intéressant est de regarder quelle a été l évolution du nombre de bits stockés par W consommé : il est passé de 11 Kbits/W pour le Ramac à 7 Gbits/W, soit une multiplication par plus de 636.000. Quant au prix, il était de 10.000 $/MB sur Ramac et il n est plus que de 5 cents/gb actuellement, ce qui correspond à une division par 200 millions environ. Les bandes magnétiques Les informaticiens modernes n ont pas connu les fameuses bandes magnétiques ½ pouce qui se plaçaient dans des dérouleurs et qui faisaient un drôle de bruit de succion au démarrage. L une des bandes les plus connues des installations IBM était la 2400. 9

Il s agissait d une bande d un-demi pouce de large, que l on transportait dans des boîtiers de plastique et qui nécessitait par conséquent des dérouleurs dédiés, de véritables armoires de 2 mètres de hauteur environ. Officiellement, plus personne n utilise ce genre de bande, même s il y a encore des millions de bandes qui attendent dans des entrepôts, eu égard à l obligation légale de conserver pendant plusieurs dizaines d années certaines données de gestion. Voire dans le domaine scientifique, des données historisées qui pourraient encore utiles demain. Ce sont les cartouches qui ont pris la relève, au format 5,25 pouces généralement, le type LTO-6 étant ce qui se fait de mieux sur le marché, aujourd hui. Là encore les comparaisons sont édifiantes : La densité longitudinale est passée de 800 bpi (modèle de base IBM 2400) à 384.600 bpi sur un LTO-6 : Linear Tape Open (technologie inventée par HP), soit un coefficient multiplicateur de près de 500. La capacité totale du support est passée de 20 MB environ à 2,5 TB en mode non compressé, soit une multiplication par 125.000. La vitesse de transfert est passée de 15 KB/sec à 400 MB/sec, là encore avec une augmentation significative par un facteur de 27.000, ce qui nous permet aujourd hui d effectuer des sauvegardes de 1,4 TB à l heure, là où le transfert d un GB demandait de 30 mn à 1 heure, il y a quelques années. Les réseaux locaux Dans le domaine des réseaux locaux, on prendra comme référence d origine, la NCC de 1976, manifestation au cours de laquelle un illustre inconnu (à l époque), Robert Metcalfe, a présenté pour la première fois le concept d un réseau local, autrement dit d un bus, susceptible de connecter des postes de travail à la vitesse supersonique de 2 Mbps. Ethernet était né. Aujourd hui Ethernet en est officiellement à 400 Gbps en mode commuté, alors qu à l origine il fonctionnait en mode partage de bande passante, avec le protocole CSMA, comme l est aujourd hui le réseau Wi-Fi. Au passage, la vitesse de communication a donc été multipliée par 200.000 10

Côté utilisateur, on est aussi passé de vitesses de l ordre de 1200 bps, voire pour les terminaux les plus rapides à 9.600 bps à de l Ethernet généralement à 100 Mbps, en mode commuté, soit ici une multiplication par 8.000 environ. Wi-Fi se situe un peu dans la même mouvance. Ses premières spécifications datent de 1997. Il s agissait d un réseau sans fil 802.11, calibré à 2 Mbps, sur une fréquence de 2,4 Ghz. En 2015, Wi-Fi est passé au 802.11ac, à 1,3 Gbps de vitesse nominale (c est vrai, elle ne veut pas dire grand-chose), soit une vitesse 650 fois plus élevée. On n atteint sans doute pas les augmentations stratosphériques constatées pour d autres technologies, mais elle ne s applique elle, que sur 17 années. Les réseaux opérateurs Pour les réseaux opérateurs, deux grandes évolutions sont intervenues, la première concernant les réseaux fixes fondés sur des câbles et la seconde concernant les connexions mobiles apparues à la fin des années 90. Pour ce qui est du câblage fixe, on est surtout passé du câble de cuivre, blindé ou non, à des fibres optiques. Avec le cuivre, les opérateurs nous louaient des connexions qui généralement plafonnaient à 19,2 Kbps, les tarifs variant le plus souvent en fonction de la qualité de la ligne et de la distance de connexion. Aujourd hui les opérateurs peuvent tabler sur des installations à fibres optiques, sur lesquelles ils sont susceptibles de faire passer simultanément un grand nombre d utilisateurs. On peut estimer que les coûts auront été divisés par 20, quand ce n est plus, pour des vitesses qui auront été multipliées par 50.000. Ceci étant une estimation très globale et variable selon les pays, l Amérique du Nord ayant toujours pratiqué des prix moins élevés du fait de la concurrence alors que les européens se sont toujours situés dans les couches hautes de prix, du fait du monopole qui a longtemps été la règle chez eux : Deutsche Telekom, Telecom Italia, France Telecom 11

Dans le domaine des réseaux cellulaires, on est passé du CDMA avec multiplexage temporel américain ou GSM européen à 9,6 Kbps à du LTE A 1 Gbps nominal. Soit une augmentation par un facteur 100.000. Tous les domaines sont concernés D autres domaines mériteraient d être passés en revue, qui témoignent tous d une extraordinaire vitalité, corroborée par des chiffres souvent stupéfiants. Sur le poste de travail, par exemple, on est passé des premières clés USB 1.0 aux USB 3.0 avec des capacités de 8 MB à 256 GB aujourd hui, soit avec un gain de 32.000. Sur les écrans aussi ou la définition est passée de quelques dizaines de pixels au pouce linéaire, typiquement 70 pixels au pouce, à plus de 250 pixels au pouce sur les tablettes dotées d un écran AMOLED comme les dernières Samsung, etc. La liste serait longue et difficile à maintenir si l on voulait en maintenir la crédibilité. Mais qu est devenu notre client? Ce long discours n a eu qu un but, celui de montrer qu avec le temps qui passe, les technologies n en finissent pas de battre leurs propres records. Mais quand tout va trop vite, on perd aussi ses repères et on ne mesure plus les progrès accomplis à leur juste valeur. Ce qui explique sans doute la mine renfrognée de notre client de tout à l heure et les difficultés qu éprouve notre vendeur de le convaincre avec des arguments techniques. Mais au fait, où est-il passé celui-là? Il semble qu il soit parti sans attendre la fin. Il est vrai que nous ne pouvions pas lui garantir que son jeu «Tarzan et Cléopâtre» allait fonctionner 12