De l'homme-machine à la machine pensante Introduction A quoi s'intéresse l'intelligence artificielle? D'une part, cette discipline cherche à créer des machines intelligentes simulant nos processus de raisonnement et d'acquisition des connaissances. D'autre part, avec ses modèles mathématiques et informatiques, elle sert à étudier nos facultés mentales. Ses domaines d'application sont la démonstration automatique de théorèmes, le traitement du langage écrit et oral, la vision, la robotique, les jeux, les systèmes experts, etc. Elle remet en question l intelligence, la mémoire, la relation entre l esprit et la matière, l origine du langage, le raisonnement symbolique, le traitement de l information. L'IA (intelligence artificielle) pose des questions telles que : peut-il y avoir de la pensée sans expérience, de l esprit sans communication, de l intelligence sans vie? Les temps anciens De tous temps, l homme a imaginé une machine intelligente. Nous en trouvons déjà des traces dans l Egypte ancienne (800 av. J.-C.) où la statue du Dieu Amon faisait un signe à la mort d'un pharaon pour désigner son successeur (elle était en fait activée par des prêtres). Dans l Iliade, Homère décrit les automates du dieu forgeron Héphaïstos. Plus tard, au 1er siècle de notre ère, Héron l Ancien, décrit une sorte de machine à vapeur dans son traité intitulé "Automates". Au Moyen-âge, la science, la légende et l'alchimie se partagent l'étude de l'automate. Les scientifiques du 16 ème siècle font les premières tentatives de modélisation du corps humain en médecine. Les temps modernes C'est avec Descartes (et son homme-machine), Pascal et Leibniz que l'intelligence artificielle va vraiment évoluer. Mais le calculateur mécanique de ces deux derniers n'est pas encore programmable, il ne peut faire qu'une opération à la fois. Un des premiers dispositifs programmables semble être le métier à tisser de Joseph-Marie Jacquard en 1805. Celui-ci utilise déjà des cartes perforées. L'idée des cartes est reprise plus tard par Charles Babbage (1792-1871) pour sa machine analytique dont les pièces mécaniques manquent encore beaucoup de précision. IBM (autrefois "Tabulation machine compagny") est mandatée en 1891 pour gérer les données du recensement américain. Ce sont toujours des cartes perforées qui permettent d'entrer les données.
1900-1950 : précurseurs La deuxième guerre mondiale voit l'application du premier calculateur électronique. Il apparaît à trois endroits en même temps : en Allemagne à la construction aéronautique, aux Etats-Unis aux calculs des tables d'artillerie, et en Grande- Bretagne à décrypter les codes secrets allemands. Grâce aux commutateurs électroniques, aux tubes à vide et aux transistors on a gagné beaucoup de temps de calcul. C'est John Neumann (1903-1957), qui imagine en 1946 l'architecture des ordinateurs d'aujourd'hui : d'un côté une unité centrale opérant sur les données, de l'autre, la mémoire et le programme. Il a donné un nom à ce que Babbage appelait "l'entrepôt" : la mémoire. Juste après la deuxième guerre mondiale, l'étude des machines intelligentes regroupent plusieurs domaines : les réseaux de neurones artificiels, la théorie du contrôle, et le traitement des symboles par des ordinateurs numériques. Le mathématicien anglais Alan Turing propose en 1950 ce qui pourrait être le meilleur test pour l'intelligence humaine : une conversation avec une machine. Si le testeur ne peut pas distinguer un interlocuteur humain d'une machine, alors celle-ci présente de l'intelligence. Mais ce test soulève encore aujourd'hui beaucoup de controverses concernant son objectif, ses règles. (Exemple de test en ANNEXE) 1956 : naissance de l'intelligence artificielle La première génération de chercheurs en IA est représentée, entre autres, par Warren McCullough, et Walter Pitts qui cherchent à reproduire le réseau de neurones humain par des composants électriques (l'événement psychique minimal étant l'émission par une cellule nerveuse d'une impulsion "tout ou rien"). La manière dont l'interconnexion des cellules nerveuses peut, par une impulsion, exécuter des opérations logiques devient la base de la théorie connue sous le nom de "théorie des réseaux neuronaux formels". Mais c'est la deuxième génération de chercheurs en IA qui va faire naître officiellement cette discipline avec la conférence de Dartmouth en août 1956. C'est l'occasion pour les chercheurs (John McCarthy, Claude Shannon, Marvin Minsky, Allen Newell et Herbert Simon) de se rencontrer. Même si cette conférence a été peu concluante, il ressort l'idée que l'intelligence est la capacité de traiter des symboles. Newell et Simon travaillent déjà depuis quelques temps au premier programme d'ia : "The Logic theorist". Il réussit à démontrer 38 des 52 théorèmes du fameux "Principia mathematica" de Russel et Whitehead. La méthode appliquée à ce programme est heuristique : elle ne se base pas sur des algorithmes mais sur la recherche empirique de règles menant à des buts et sous-buts. (Schéma en ANNEXE) Cette méthode devient d'ailleurs une des caractéristiques de l'ia, elle a l'avantage de pouvoir résoudre des problèmes sans solutions algorithmiques ou dont les solutions algorithmiques sont trop compliquées pour les moyens informatiques (incapacité de surmonter le coût de la recherche de toutes les possibilités).
Le langage universel de programmation en IA est mis au point par McCarthy en 1957, il s'appelle LISP (List Processing). Son concepteur travaille au MIT (Massachuset Institute of Technology), un des trois principaux centres de recherche en IA avec Carnegie Mellon et Stanford. Ce langage de programmation est dit "évolué", c'est-à-dire que ces énoncés sont en anglais courant, et qu'une seule de ses instructions permet à la machine de faire plusieurs opérations. Un programme écrit en langage évolué tourne en deux temps : un "compilateur" traduit les énoncés en langage machine avant que celle-ci les exécute. Deux tendances se dessinent alors dans la recherche en l'ia : l'une qui cherche à comprendre les processus cognitifs humains en les simulant par une machine (nous parlons de systèmes adaptatifs), l'autre qui veut développer une intelligence fondée sur la machine (nous parlons cette fois de systèmes experts). Cette dernière tendance va supplanter la première jusqu'en 1982 où nous observons un retour aux systèmes adaptatifs. 60's : démarrage de la discipline Au début des années 60, les chercheurs réalisent que pour faire apprendre et comprendre quelque chose à un ordinateur, il faut qu'il puisse se représenter la connaissance. Mais l'apprentissage de la connaissance par la machine est alors trop complexe, il est remis à plus tard (voir plus bas dans les 70's et 80's). Les sixties font naître les systèmes experts : types de programmes informatiques visant à simuler un expert humain dans l'analyse, le diagnostique ou la prise de décision dans un domaine bien précis. Ils sont généralement composés d'un ensemble de règles (du type "Si, alors "), et d'une "coquille" comprenant une base de connaissances, un mécanisme de recherche et une interface utilisateur permettant le dialogue en langage naturel. Le premier système expert s'appelle "Dendral", il permet aux chimistes d'analyser la structure globale d'une molécule. Plus tard, "MYCIN" est construit pour aider le médecin à diagnostiquer les maladies infectieuses du sang. Une des grandes avancées permises par les systèmes experts est la souplesse qu'ils offrent dans l'ajout et la modification de règles. Un des sujets qui intéressent aussi les chercheurs en IA à cette époque est la compréhension du langage par l'ordinateur rendant possible le dialogue en langage naturel. Différentes méthodes sont mises à jour : l'une d'elles consiste à faire rechercher par la machine des "patrons", sortes de mots clés contenus dans un index. Les inconvénients de cette méthode sont multiples : on doit beaucoup transformer la phrase pour que l'ordinateur la comprenne, et celui-ci ne peut pas réduire les ambiguïtés. Une autre méthode se base sur le concept de "grammaire formelle" définie par Noam Chomsky. La grammaire et la syntaxe sont formulées dans un cadre mathématique où on ne fait référence ni au sens, ni au contenu. Mais cette méthode se révèle inapplicable au langage humain : pour preuve ce fameux exemple d'un aller-retour de traduction en russe "L'esprit est fort mais la chair est faible" devient "La vodka est bonne mais la viande est pourrie". Par la suite, d'autres techniques sont développées qui se basent, elles, sur des réseaux sémantiques. Mais leur difficulté est la faiblesse de l'espace mémoire des machines. Les
chercheurs s'arrêtent vers la fin de la décennie sur un échec dans leur tentative de traduction automatique 70's : maturation Un creux de la vague se fait sentir aux Etats-Unis et en Grande-Bretagne. Les philosophes se mettent à douter de l'ia : celle-ci se base sur les présupposés d'un monde physique impliquant que nos connaissances sont acquises par nos sens et sont ensuite traduites intérieurement. Certains obstacles à l'ia sont toujours présents aujourd'hui : le besoin de spécifier au programme toutes les conséquences d'une action, toutes les exceptions à la règle "Si, alors ", toutes les règles pour appliquer une règle. C'est pourtant pendant cette période que les systèmes experts se développent et que leur nombre croît. "MYCIN" est crée en 1974 (voir plus haut dans les 60's). On se rend compte que la représentation et le traitement des connaissances sont vitaux pour un système expert. Les chercheurs s'intéressent alors à la formalisation du savoir, et aux systèmes d'apprentissage. Il y a les essais d'analyse du langage de Roger Schank, la théorie des "cadres" de Marvin Minsky qui aidera, plus tard, à résoudre le problème du sens commun (voir plus bas dans les 80's). Douglas Lénat étudie, lui, l'apprentissage automatique. Le domaine de la vision des ordinateurs intéresse David Marr. La discipline s'institutionnalise : après la "Joint Conference on Artificial Intelligence" à Washington en 1969, la revue "Artificial Intelligence" naît en même temps que la première association "American Association for Artificial Intelligence" (AAAI) en 1970. L'IA a mûri, elle a acquis les attributs d'une discipline scientifique. 80's : entrée dans l'industrie La première partie des années quatre-vingt est caractérisée par le fait que l'ia entre dans l'industrie. C'est une envolée de la discipline, les chercheurs et les capitaux affluent. On se rend compte que de dupliquer et développer un programme coûte moins cher que de former de nouvelles personnes. La plupart des grandes compagnies (Campbell's, General Electric, Bell, General motors ) développent leurs propres programmes. En 1985, 150 sociétés consacrent à elles toutes un budget d'un milliard de dollars à cette activité. Le directeur de Du Pont dit faire une économie annuelle de 10 millions de dollars grâce à ses 100 systèmes experts. Un des facteurs renforçant l'engouement pour l'ia est la démystification d'une technologie qui n'est plus réservée qu'aux universités ou aux grosses entreprises. Mais cet enthousiasme est démesuré : la rapidité des machines nous fait croire qu'elles sont plus intelligentes. En fait, les techniques de programmation n'ont pas évolué depuis vingt ans. Au milieu des années quatre-vingt, l'utilisation intensive de ces nouvelles technologies fait ressortir leurs défauts. Les systèmes experts présentent un vice de forme qui est aujourd'hui une préoccupation importante pour les industriels : ils nécessitent une mise à jour
perpétuelle de leurs bases de connaissances. De plus, il est difficile de prévoir les effets qu'une nouvelle règle peut produire sur les autres : "l'opacité" est une propriété reconnue des systèmes experts. On remarque aussi la faiblesse du transfert de connaissances de l'homme à la machine : cela est dû au fait que nous ne peut pas réduire nos connaissances à un ensemble de règles. Cependant, la plus grande objection que l'on puisse faire à l'encontre des systèmes experts, c'est qu'ils ne comprennent pas ce sur quoi ils raisonnent. Ils traitent des symboles vides qui ne leur permettent pas de faire de jugement moral. Finalement, ils ne connaissent pas les limites de leur savoir, ne savent pas où trouver les informations qui leur manquent. Leur limite dans l'apprentissage de la connaissance, vient de leur faiblesse à établir des correspondances entre différentes classes d'objets : si "Tous les humains ont une mère humaine" et "Jean est un humain", l'ordinateur s'enlise dans ce type de raisonnement : "Jean a une mère humaine, la mère de Jean a une mère humaine, la mère de la mère de Jean a une mère humaine " La tendance de cette fin de décennie va vers la reprise. Les chercheurs sont maintenant plus réalistes quant à leurs créations. Ce qui est pour beaucoup dans cette reprise est l'intégration de systèmes experts à des produits plus classiques. Dans la recherche, la priorité va au sens commun : c'est-à-dire de permettre à l'ordinateur de communiquer en langage naturel, de voir, et de pouvoir s'adapter aux circonstances en se basant sur des exemples stockés en mémoire plutôt que sur des règles. Pour résoudre la question du sens commun, plusieurs solutions sont explorées. Il y a les chercheurs qui se fondent sur la logique, en particulier sur celle des "Principia mathematica" en y ajoutant des extensions. D'autres se fondent sur l'enregistrement d'exemples pouvant être utilisés dans la comparaison avec une situation qui se présente. Une des solutions les plus spectaculaires est celle du projet "Cyc". Le but de ses chercheurs est d'encoder dix millions de faits évidents, d'assertions élémentaires qui n'apparaissent dans aucun manuel (du type "rien ne peut être en deux endroits en même temps", "les animaux n'aiment pas souffrir"). En 2050, plus aucun ordinateur personnel n'en serait dépourvu. Moins empirique, est la démarche psychologique : c'est en étudiant le processus de la pensée que nous pouvons en reproduire des aspects. Si, jusque dans les années septante, les chercheurs étaient limités par le "hardware", en particulier par le manque de mémoire, depuis les années quatre-vingt, nous sommes confrontés à la question de mieux savoir l'exploiter. 90's : diversification Les tendances des années quatre-vingt-dix sont difficiles à décrire car l'ia comprend de plus en plus de domaines. Mais nous pouvons dégager trois grandes tendances : "l'ia théorique" s'attache à décrire par des modèles mathématiques le fonctionnement du raisonnement et l'acquisition des connaissances, "l'ia expérimentale" teste des idées nouvelles (concernant la mémoire, l'apprentissage) au moyen de systèmes informatiques, enfin, "l'ia appliquée" crée des systèmes pour les besoins de l'industrie ou des services.
Ce qui caractérise l'ia aujourd'hui est son interaction avec un grand nombre de disciplines scientifiques qui se présentent en deux groupes : les sciences "cognitives" avec les neurosciences, la psychologie, la linguistique, la sociologie, et les sciences "formelles" avec les mathématiques, la logique, la physique et l'informatique. Avenir Quels sont les scénarios possibles pour le futur? Michel Crevier en a proposé trois. Le pire, inspiré par fait que l'armée est la source des recherches sur l'ia (en particulier aux Etats-Unis), c'est celui où les ordinateurs prennent le contrôle de l'armement, mais où nous perdons le leur. Le deuxième, représente un autre type de pouvoir pris par la machine : la surveillance électronique. Le dernier de ses scénarios est positif : l'avènement de l'ia pourrait être comparable à celui de l'écriture, pourrait apporter autant de changements dans nos modes de pensée. Nous pouvons raisonnablement penser que l'ia va s'intégrer de plus en plus dans notre vie quotidienne, à tel point que nous ne pourrons peut-être plus nous en passer. Cela va, entre autres, nous obliger à évaluer la responsabilité de l'utilisation de machines telles que les systèmes experts. Pour Gérard Tisseau, plusieurs évolutions sont attendues. Parmi celles que nous retenons, il y a l'idée de l'intégration d'un système dans son environnement. C'est-àdire qu'un système devra pouvoir percevoir, communiquer et prendre la décision d'agir par lui-même. Il n'aura en outre pas de structure et de fonctions définitives, mais sera capable de s'adapter et d'évoluer. Conclusion Quelles sont les capacités de la machine comparées à celles du cerveau humain? Les machines ont déjà surpassé les capacités physiques du cerveau humain : par leur force, leur rapidité, leur résistance et leur précision. Contrairement à la machine, le cerveau humain est lié à des contraintes biologiques (croissance, reproduction, réparation, protoplasmes comme matériaux de transmission des impulsions), il présente une redondance dans ses circuits (qui le rendent être très volumineux). La machine bénéficie, elle, de l'expérience de l'évolution biologique. L'ordinateur est-il capable de conscience? Cette question n'est pas simple. D'une part, car il est impossible d'évaluer objectivement les états mentaux, d'autre part car la simulation a ses limites. Finalement, la conscience est la capacité de donner du sens aux symboles ce qui est précisément une des faiblesses de la machine. L'intelligence artificielle a contribué à mieux nous connaître, même si l'intelligence n'est pas la seule caractéristique de la nature humaine. Qui sait si elle ne nous montrera pas que notre esprit a une origine purement matérielle? W. Muller
ANNEXES I. Test de Turing Le dialogue suivant est la transcription d'un véritable test de Turing. Essayez de deviner si "" est un être humain ou une machine. Aimez-vous le printemps? Ca dépend de mon humeur. Combien font 11 et 11? 22. Et 512 + 512? Je n'ai jamais été doué en calcul mental. Ce n'est pas grave, essayez. Voyons, 1000 quelque chose. 1024 je pense. Récitez-moi un poème. La servante au grand cœur dont vous étiez jalouse Et qui dort son sommeil sous une humble pelouse Pourquoi ne remplacez-vous pas "au grand cœur" par "au grand air"? A mon avis ce serait plus joli. Je l'aime mieux tel quel. Pourquoi? Vous n'êtes pas sérieux "Au grand air" et "au grand cœur" ce n'est pas pareil. Alors remplacez "Et qui dort son sommeil" par "qui tristement sommeille" Vraiment, je l'aime mieux tel quel. Pourquoi? Le rythme du poème est meilleur.
Ce n'est pas mon avis. Vous aimez Baudelaire? Oui. Moi aussi. Pourquoi? Je trouve qu'il exprime des sentiments profonds qui correspondent souvent à ce que je peux éprouver. Et puis peut-être aussi que ça me rappelle la période où je l'ai lu pour la première fois quand j'étais ado. Vous aimez l'art? Oui. Vous peignez? Comme un pied. Je suis plus attiré par la musique. Vous jouez d'un instrument? Oui. Du piano. Jouez-nous un morceau. Je n'ai pas d'instrument. Solution : L' est une machine. L', qui a trouvé la bonne réponse, a donné la justification suivante. L' ne fait jamais appel à une espèce de "bon sens" ni à la vie quotidienne. Les réponses qu'elle donne ne nécessitent pas une vraie compréhension des questions. Elle repère les questions (elles se terminent par un point d'interrogation) et les ordres (le mode impératif). Enfin, dans l'interrogation sur le poème, elle refuse les substitutions proposées par l' avec des réponses passe-partout qui ne supposent pas une vraie compréhension du sens. Tiré de : Sciences et Avenir, no 622, décembre 1998
II. Recherche heuristique RECHERCHE SYSTEMATIQUE Avantages N'oublie pas de solution N'utilise pas deux fois la même Inconvénient Peut être long RECHERCHE ALEATOIRE Avantage Peut atteindre rapidement son but Inconvénient Peut utiliser deux fois la même solution RECHERCHE HEURISTIQUE Evalue à chaque carrefour la distance entre son point et son but et ses chances de l'atteindre le plus près possible. Peut rebrousser son chemin si c'est nécessaire