I.1- DÉFINITIONS ET NOTIONS DE BASE Informatique Information Automatique Logiciels (Software) Matériels (Hardware) Définition de l information : On appelle une information tout ce qui est transmissible entre un émetteur et un récepteur Propriétés de l information Représentation Support Sens Permanent Temporaire Exemples : Représentation Support Sens Permanent Temporaire Langues, symboles, signes ) Papier, mémoire secondaire. Ondes Sonores, Lumière Électricité L homme est seul capable de lui attribuer un sens 1
Définition d un ordinateur : On appelle ordinateur toute machine automatique de traitement de l'information, permettant de conserver, d'élaborer et de restituer des données sans intervention humaine en effectuant sous le contrôle de programme enregistrés des opérations arithmétiques et logiques. Ordinateur Unité d entrée Unité de sortie Unité centrale Unité de stockage Exemples : Unité d entrée Unité de sortie Unité centrale Unité de stockage Unité d entrée (clavier, Unité de sortie (Écran, Unité centrale (Mémoire Unité de stockage Souris, Scanner, stylo optique etc..) Imprimante, Plotter ) centrale + Processeur ) (Disque, Bandes ) Définition de traitement de l information : On appelle traitement de l information tout processus durant lequel l utilisateur introduit des données, ensuite sous contrôle d un programme (logiciel) celui-ci restitue les résultats via une unité de sortie. Exemples de traitement de l information : Logiciel de calcul des salaires des employés d une entreprise Logiciels de traitement des textes, dessins, images, feuilles de calcul. Systèmes d exploitation. Utilitaire de programmation (Visual C++, VB, SGBD etc ) 2
I.2- HISTORIQUE DES ORDINATEURS A - Principaux Dates saillantes dans l évolution de l informatique Date Invention Pascal : Création de la règle à calcul Le Pascalien-, la première machine à 1642 France calculer permettant l'addition et la soustraction par complément. 1762 France contrôle de métiers à tisser par carton perforé. Hahn : première machine à calculer exécutant directement les 4 1770 Allemagne opérations (fondée sur le cylindre denté inventé par Liebniz en 1671) Le mathématicien anglais Charles Babbage (1792-1871) définit les grands principes des calculatrices électroniques : Le moteur différentiel (Le tout premier ordinateur programmable). A cette époque, la technologie n'était pas 1833 Angleterre assez évoluée pour permettre la réalisation de tels projets. Mais l'idée qui les sous-tendait (un appareil capable d'exécuter des calculs en fonction d'un programme inséré à l'aide de cartes perforées) comprenait la plupart des principes qui seront utilisés plus tard dans la conception des ordinateurs modernes. 1854 Angleterre Boole (Angleterre) : calcul binaire =>Algèbre de Boole 1880-90 USA Hollerith (USA) première machine à carte perforées utilisée pour le recensement américain de 1890 1904 Invention du tube à vide électronique permit la construction du premier élément indispensable à la fabrication d'un ordinateur. D'abord utilisé comme amplificateurs, ces tubes en 1940 virent leur fonction de commutateur symboliser le codage binaire. Les données étaient introduites à l'aide de cartes perforées et les différentes parties du système étaient connectées manuellement à l'aide de câbles. Leur programmation était très lente : il fallait parfois plusieurs jours pour seulement 5 minutes de fonctionnement. 3
1924 Tabulating Machine Corporation fondée par Hollerith devient IBM 1944 Aiken et IBM (USA) : calculateur automatique Mark 1 (Université Harvard ). Un "Electronic Numerical Integrator and Computer" (ENIAC) est réalisé par 1946 1947 une équipe de la More Schoolk de l'université de Pennsylvannie qui est dirigée par Prosper Eckert et John Mauchly. Il pèse 30 tonnes, comprend 17468 tubes électroniques, 70000 résistances, 10000 capacités, 1500 relais, 6000 commutateurs. Il faut tourner à la main le commutateur et brancher pour chaque opérations des centaines de câbles; il consomme 150000 Watts (il est 1000 fois plus rapide que le Mark 1), les relais électromécaniques sont remplacés par des circuits électroniques ) bascule et pour la première fois des impulsions électriques sont utilisées pour mettre les lampes à vide en position allumée ou éteinte, ouverte ou fermée. Le système de code binaire est inventé par Von Neumann, la première construction est l'electronic Discrete Variable Computer (EDVAC). Les systèmes utilisants les tubes étaient volumineux, peu fiables. Ils étaient aussi limités en puissance de calcul. Tous ces problèmes furent résolus en 1947, lorsque John Bardeen, Walter Brattain et William Shockley travaillant chez Bell inventèrent le transistor qui a les mêmes fonctions que les tubes mais qui n'est constitué que d'un petit morceau de matériau semi-conducteur tel que le silicium pour agir comme de commutateur. 1951 Aux Etats-Unis, la première machine à usage civil Univac 1 est mise au point par Eckert et Mauchly. 1952 Von Neumann présente son architecture qui est encore utilisée comme modèle (modèle de Von Neumann) à ce jour; Le calculateur est composé d'une Unité arithmétique et logique avec des accumulateurs, qui accède à la mémoire de la machine et à l'unité de commande, communique grâce à des unités d'entrées et de sorties. Le système de code binaire est utilisé pour la première fois dans cette machine dont l appellation est l'electronic Discrete Variable Computer (EDVAC). 1964 IBM 360, premier ordinateur à circuit intégré. General Electric 4
1971 1980 1995 1998 Invention du microprocesseur par l'ingénieur Ted Hoff de la société américaine Intel, le réalise la miniaturisation totale des fonctions logiques dans une machine électronique. C'est l'invention la plus importante de l'électronique moderne, après le transistor et le circuit intégré. Le premier fut le 4004, annoncé le 15 novembre 1971. Ce processeur fonctionnait sur 4 bits, c'est à dire qu'il était capable de traiter 4 chiffres Le fabricant d'ordinateurs centraux, IBM, décida de créer un ordinateur individuel qui fut commercialisé en 1981. C'était le PC (Personnel Computer). En 1987 IBM commercialise son PS/2. Son et vidéo sont gérés en standard par le système d'exploitation Windows 95 Windows98 intègre en standard la communication sur le réseau Internet. B - Les Générations d ordinateurs Génération Caractéristiques Génération zéro (1642-1945) C'est l'ère des calculateurs mécaniques. Première génération (1945-1955) Les calculateurs sont munis de tubes à vide Deuxième génération (1955-1965) Troisième génération (1965-1971) Les transistors marquent cette génération. Ils remplacent les tubes et permettent une miniaturisation des calculateurs qui possèdent des performances beaucoup plus élevées. Des micromodules microscopiques rassemblent sur quelques mm2 des circuits transistorisés complets. Ces circuits miniatures ou microprocesseurs possèdent deux niveaux d'intégration : soit LSI (Large Scale Integration) ou VLSI (Very Large Scale Integration) qui améliorent les capacités et la rapidité. Les avantages sont essentiellement un temps de conception et de mise au point réduit, un prix de revient inférieur, une plus grande surface d aptitude aux modifications, une meilleure fiabilité et un entretien plus facile. Cette génération permet l emploi de nouveaux langages simplifiés. 5
Révolution de la micro-informatique : Les puces ou circuits Quatrième génération (1971-...). intégrés contiennent plusieurs milliers de transistors. Une seule peut avoir la puissance de calcul d'un ordinateur moyen des années 60 qui occupait une pièce entière. La répartition des coût machine logiciel d'une organisation subit une énorme modification; en effet en 1970 elle était la suivante : matériel 50% logiciel 50%. En 1994, elle devient: matériel 5% logiciel 95%. Généralisation de la mémoire virtuelle, De la multiplication et du multitraitement. 6
I.3- ARCHITECTURE DES ORDINATEURS I.3.1- Codage de l information de l information : système binaire QU'EST CE QUE LE SYSTEME BINAIRE? Le microprocesseur et tous les composants qui l'entourent doivent traiter les nombres usuels (0, 1, 2...8, 9) dont la représentation au moyen d'états électriques est très complexe. C'est la raison pour laquelle les ordinateurs travaillent sur des nombres "binaires", et n'utilisent que les chiffres 1 ("allumé") et 0 («éteint»). Chaque 0 ou 1 d'un nombre binaire constitue un bit. C'est la plus petite unité envisageable. On dit toujours qu'on utilise en informatique l'arithmétique binaire parce que c'est la plus efficace. Cela veut dire qu'une information numérique peut être stockée en distinguant plusieurs valeurs d'un phénomène physique continu comme une tension ou une intensité. Avec la numération binaire, il suffit de savoir distinguer deux états, c'est en ce sens que c'est la méthode la plus fiable pour coder l'information numérique. Il faut, par exemple, 4 bits pour représenter un chiffre ordinaire tel que "8" (qui s'écrit 1000 en représentation binaire). Une lettre majuscule telle que "A" est codée 01000001. Un groupe de huit bits est appelé octet, chaque octet correspondant ainsi à un caractère. Les PC disposent de microprocesseurs très puissants qui peuvent manipuler des nombres de 32 bits (4 octets à la fois). Pour toutes les opérations portant sur des nombres plus importants, le microprocesseur doit travailler sur des portions réduites, puis reconstituer le résultat sous forme d'un nombre unique. Deux autres systèmes, l'octal (base 8) et le l hexadécimal (base 16) sont très souvent employés, car ils facilitent le dialogue entre informaticiens. Difficile en effet d'exprimer oralement une adresse mémoire avec les seuls 0 et 1 du binaire! 7
DÉCIMAL BINAIRE OCTAL HEXADÉCIMAL 0 0 0 0 1 01 1 1 2 10 2 2 3 11 3 3 4 100 4 4 5 101 5 5 6 110 6 6 7 111 7 7 8 1000 10 8 9 1001 11 9 10 1010 12 A 11 1011 13 B 12 1100 14 C 13 1101 15 D 14 1110 16 E 15 1111 17 F 16 10000 20 10 17 10001 21 11 I.3.2 Données non numériques Pour permettre la manipulation, l échange et le stockage de fichier texte, il faut les coder sous un format universel qui peut être reconnu par tous les ordinateurs. Le codage des caractères alphanumériques se fait par une table de correspondance propre à chaque code utilisé :! BCD (Binary Coded Decimal) : le caractère est codé sur 6 bits! ASCII (American Standard Code for Information Interchange) : le caractère est codé sur 7 bits! EBCDIC (Extended Binary Coded Decimal Internal Code) : le caractère est codé sur 8 bits I.3.3 Les unités de mesure Devant l'augmentation croissante des volumes de données mis en jeu, de nouvelles unités apparaissent pour caractériser les nouveaux supports de stockage. Aujourd'hui, un disque dur fait couramment une taille de 2 Go, la mémoire centrale 32 Mo et une disquette 1,44 Mo. 8
1 octet = 8 bits 1024 octets 1 Ko (Kilo-octets) 1 048 576 octets = 1024 Ko = 1 Mo (méga-octets) 1 073 741 824 octets = 1024 Mo = 1 Go (Giga-octets) 1 099 511 627 776 octets = 1024 Go = 1 To (Téra-octets) 1 125 899 906 842 624 octets = 1024 To = 1 Po (Péta-octets) 9