Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l ordinateur et linguistique cognitive Janvier 2008



Documents pareils
Intelligence Artificielle et Robotique

3-La théorie de Vygotsky Lev S. VYGOTSKY ( )

Partenaires: w w w. c o g m a s t e r. n e t

Les apports de l informatique. Aux autres disciplines

BABEL LEXIS : UN SYSTÈME ÉVOLUTIF PERMETTANT LA CRÉATION, LE STOCKAGE ET LA CONSULTATION D OBJETS HYPERMÉDIAS

LES CARTES À POINTS : POUR UNE MEILLEURE PERCEPTION

Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar

C est quoi un centre d apprentissage Les centres d apprentissage sont des lieux d exploration et de manipulation qui visent l acquisition de

LA PNL. Programmation Neuro Linguistique

Évaluation et implémentation des langages

Master Etudes françaises et francophones

LE PROBLÈME DE RECHERCHE ET LA PROBLÉMATIQUE

Problématique / Problématiser / Problématisation / Problème

Principe et règles d audit

Introduction. Le recrutement est un processus incontournable dans la vie de toute entreprise.

Etudier l informatique

Programme de la formation. Écrit : 72hdepréparation aux épreuves d admissibilité au CRPE

Les bonnes pratiques pour les travaux scolaires à la maison

Les stéréotypes sont aussi vieux que l'humanité et reflètent l'idée que nous nous faisons de ceux qui sont différents de nous.

Transformez votre relation au monde!

Qu est-ce qu une problématique?

La supervision en soins infirmiers

Apprentissage Automatique

FORMATION : POSTURE COACH, LES METIERS D ACCOMPAGNEMENT

NOM : Prénom : Date de naissance : Ecole : CM2 Palier 2

EXAMEN CRITIQUE D UN DOSSIER TECHNIQUE

ENSEIGNEMENT DES SCIENCES ET DE LA TECHNOLOGIE A L ECOLE PRIMAIRE : QUELLE DEMARCHE?

Syllabus du cours de musique. Maternelle. enseigné par Joël Chiasson

2. CONSTRUIRE LE CONCEPT DE. la dialectique enseigner / apprendre

ACTIVITÉS DE COMMUNICATION LANGAGIÈRE ET STRATÉGIES

Catherine Cudicio. La PNL. Communiquer autrement. Groupe Eyrolles, 2003, ISBN

Interférences lexicales entre deux langues étrangères: anglais et français

L'EPS à l'école primaire aucune modification des programmes

CRÉER UN COURS EN LIGNE

LE CADRE COMMUN DE REFERENCE LA CONVERGENCE DES DROITS 3 e forum franco-allemand

Le modèle standard, SPE (1/8)

Le développement cognitif selon Jean Piaget. Les stades du développement cognitif selon Piaget

Pas d installations ou d équipement particuliers.

N Contenu Dates. N Contenu Date 1 Dates 2

Organisation de dispositifs pour tous les apprenants : la question de l'évaluation inclusive

Plates-formes de téléformation et modèles pédagogiques

Comment apprend-on? 1 Le modèle transmissif

FORMATION CERTIFIANTE AU METIER DE COACH UNIQUE AU MAROC

FORCE DE VENTE : une approche commerciale efficace

Pour un principe matérialiste fort. Jean-Paul Baquiast

Attestation de maîtrise des connaissances et compétences au cours moyen deuxième année

LES REPRESENTATIONS DES NOMBRES

«L impact de l interculturel sur la négociation» construire des intérêts matériels ou des enjeux quantifiables

Système immunitaire artificiel

Le graphisme et l écriture, en lien avec les apprentissages en maternelle

Théorie des Jeux Et ses Applications

Une brève introduction aux Sciences Cognitives

Compétences de gestion et leadership transformationnel : les incontournables liés au nouveau contexte environnemental

LES INTERFACES HOMME-MACHINE

Formation certifiante au métier de coach scolaire

Annie Claude Sortant-Delanoë. L angoisse, nécessité logique entre jouissance et désir

eduscol Ressources pour la voie professionnelle Français Ressources pour les classes préparatoires au baccalauréat professionnel

Guide No.2 de la Recommandation Rec (2009).. du Comité des Ministres aux États membres sur la démocratie électronique

6 - La conscience est-elle un processus algorithmique?

La construction du temps et de. Construction du temps et de l'espace au cycle 2, F. Pollard, CPC Bièvre-Valloire

contemporaine Observation et explication en psychologie cognitive Théorie du traitement de l information et psychologie cognitive 40

Aperçu et raison d être du programme d études

LIMITED PREVIEW VERSION. Mini-guide de la. Par Dr. Richard Paul Et Dr. Linda Elder

Il y a trois types principaux d analyse des résultats : l analyse descriptive, l analyse explicative et l analyse compréhensive.

L apprentissage automatique

LES BASES DU COACHING SPORTIF

Une stratégie d enseignement de la pensée critique

Philosophie de l esprit L esprit des animaux non humains

PEUT- ON SE PASSER DE LA NOTION DE FINALITÉ?

L'ordinateur oblige à l'autonomie?

Congrés annuel de l AFSCET - Les représentations au crible de l'approche systémique - Moulin d Andé. Journées du 13 et 14 mai 2006

Le Crédit-bail mobilier dans les procédures collectives

S'intégrer à l'école maternelle: indicateurs affectifs et linguistiques pour des enfants allophones en classe ordinaire

ECVET GUIDE POUR LA MOBILITÉ

Avant de parler de projet commun, il est important de rappeler ce qu est un projet à travers quelques indicateurs :

Esprit critique et dérives psychologique

Compte-rendu de Hamma B., La préposition en français

Table des matières. Partie I La marque en idée Remerciements... XVII Avant-propos... XIX Introduction... 1

TECHNICIEN PNL - FORMULE INTENSIVE D ETE

Intérêt pour les personnes Club social. 5.5 Compromis Laisser-faire. Intérêt pour la tâche. Travail équipe.

Grandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test

S3CP. Socle commun de connaissances et de compétences professionnelles

MASTER LPL : LANGUE ET INFORMATIQUE (P)

Conclusions de la session 1. L informatique, une discipline à part entière! Culture, fondamentaux et usages

Cohésion d Equipe - Team Building

Délivrance de l information à la personne sur son état de santé

Méthode universitaire du commentaire de texte

CIES : Coaching des Individus, des Équipes et des Structures

sentée e et soutenue publiquement pour le Doctorat de l Universitl

Université de Lorraine Licence AES LIVRET DE STAGE LICENCE

isrs 7 Améliorer la performance Sécurité, Environnement et Opérationnelle

SOUTIEN INFORMATIQUE DEP 5229

L attitude : la nouvelle compétence désormais reconnue dans le sport

SOCLE COMMUN: LA CULTURE SCIENTIFIQUE ET TECHNOLOGIQUE. alain salvadori IA IPR Sciences de la vie et de la Terre ALAIN SALVADORI IA-IPR SVT

LE PLAISIR D APPRENDRE POUR APPRENDRE

Préparation d une maturité avec mention bilingue français-allemand ou français-anglais

I. LE CAS CHOISI PROBLEMATIQUE

M1if22 - Logiciels éducatifs Conception & rôle de l enseignant

FORMATION PROFESSIONNELLE DE SOPHROLOGIE DOSSIER D INSCRIPTION. Académie de Sophrologie de Bourgogne Franche-Comté - Ecole de Sophrologie de Dijon

Transcription:

«Métaphore de l ordinateur et linguistique cognitive» Thèse de doctorat sous la Direction de M. Jean PAMIÈS Université de Toulouse II Par Christiane NOTARI RÉSUMÉ La métaphore de l'ordinateur règne au cœur des sciences cognitives. Elle prend sa source dans la théorie mathématique de la calculabilité [thèses dites de Church et de Turing (1936), et démonstration de Turing (1937)], et assimile depuis l avènement de l ordinateur matériel, conçu par John von Neumann en 1945, l'esprit au logiciel, et le cerveau au matériel d'un ordinateur. L avènement de l ordinateur confirme tout un aréopage d éminents chercheurs dans l idée que pensée et calcul sont équivalents. Dans ce contexte, il est fait abstraction de la conscience, du libre arbitre, de l'intelligence, de l'imagination, de la créativité, des émotions, des sentiments, au profit de règles formelles manipulant des symboles vides de son et de sens. La théorie de la calculabilité est donc la source originale des sciences cognitives. L ordinateur, concrétisation matérielle de cette théorie (machine abstraite de Turing), voit le jour quelques années plus tard, et va permettre de corroborer et renforcer rétroactivement et durablement cette analogie entre pensée et calcul. Il est en effet la preuve tangible qu un calcul peut être mis en oeuvre par une machine, et apparaît alors comme la solution au vieux problème philosophique des rapports entre le corps et l esprit. Les sciences cognitives étant matérialistes, le cerveau va se trouver assimilé au matériel de l ordinateur, le lien étant ainsi établi entre l esprit calculateur (esprit-logiciel) et la matière qui le sous-tend (cerveau-matériel). L ordinateur devient l emblème de tous les tenants du paradigme computationnel. Dans ce contexte matérialiste, le cerveau est assimilé à un ordinateur numérique. Alan Turing, concepteur de la machine abstraite de Turing a largement contribué à promouvoir cette idée avec le fameux test de Turing 1, où un observateur extérieur est mis au défi de différencier cerveau et ordinateur, c est-à-dire les réponses faites par un être humain de celles faites par la machine. 1. Cf. Alan Turing (1950). Computing machinery and intelligence. Mind vol. LIX, N 236, 433-460. http://www.abelard.org/turpap/turpap/htm. 1

Le mot «métaphore» a une acception spécifique au sein de la linguistique cognitive. George Lakoff et Mark Johnson 1 (1980) ont émis l hypothèse que la métaphore n'est pas un simple fait de langage, une simple figure de style, mais un processus mental continuel, habituel et régulier, qui permet de raisonner et de comprendre. La métaphore opère au niveau conceptuel, par projection automatique et inconsciente d'un domaine source concret vers un domaine cible abstrait, et projette sur ce dernier tout ou partie de la logique du domaine source, c'est-à-dire tout ou partie des inférences, des déductions, des conclusions, qu'il implique. Le cerveau darwinien est donc imaginatif par essence, et pour atteindre l objectivité qui sied à tout travail scientifique, le chercheur doit lutter en permanence contre cette tendance naturelle et inconsciente du cerveau à bâtir des métaphores. La théorie de la métaphore conceptuelle conduit à remettre en cause le modèle chomskyen. En effet, la linguistique cognitive chomskyenne se situe clairement dans la mouvance du paradigme computationnel des sciences cognitives, et a pour clé de voûte l affirmation que la syntaxe est équivalente à un calcul, impliquant que le cerveau darwinien est formel par essence. Cette position est la conséquence des métaphores utilisées par Chomsky pour construire sa théorie du langage : d abord la métaphore de l automate, puis la métaphore de l ordinateur. Je m efforce de montrer dans cette thèse comment elles influencent toutes les deux sa théorie. Par souci de clarté et pour synthétiser plus de cinquante ans de travaux, j ai regroupé les différents états de la linguistique chomskyenne en trois phases essentielles : Première phase (1957-1981) : la grammaire générative et transformationnelle (Generative and Transformational Grammar) ; Deuxième phase (1981-1995) : la théorie des principes et des paramètres (Principles-and- Parameters Theory) ; Troisième phase (1995 à ce jour) : le Programme Minimaliste (The Minimalist Program). Chaque phase est influencée par une métaphore : La métaphore de l automate, utilisée de manière explicite, durant la première phase ; La métaphore de l ordinateur, utilisée de manière implicite, durant les deux dernières phases. 1. Cf. George Lakoff et Mark Johnson. Les métaphores de la vie quotidienne. Traduction française de Michel Defornel avec la collaboration de Jean-Jacques Lecercle. Paris : Les Editions de Minuit. 1985. Metaphors We Live By. Chicago: University of Chicago Press. 1980. 2

La transition entre les deux métaphores ne coïncide pas exactement avec la fin de la première phase et le début de la deuxième phase, telles qu elles sont délimitées ci-dessus. On peut estimer l entrée en vigueur de la métaphore de l ordinateur à partir de 1975 dans Reflections on Language, où Noam Chomsky renforce l hypothèse innéiste initiale, en affirmant désormais que le langage est un organe génétiquement déterminé, utilisant ainsi la métaphore du «programme» génétique, inspirée par l ordinateur. Noam Chomsky propose donc une théorie innéiste du langage et utilise, dans ses premiers travaux, la théorie des automates, issue de la théorie de la calculabilité, comme instrument de formalisation des langues naturelles. Le langage est mécanisé, traité comme les langages formels des logiciens et des informaticiens. Syntactic Structures (1957) avait pour but le développement d une grammaire formelle, c est-à-dire de proposer une description précise des règles pouvant générer toutes et rien que les phrases bien formées d une langue. Dès 1965, Noam Chomsky entame le tournant cognitif (cognitive turn) avec Aspects of the Theory of Syntax. Il donne une dimension psychologique et biologique à sa démarche. L hypothèse innéiste transforme sa théorie formelle initiale en une théorie cognitive de l esprit. C est de cette manière qu il ouvre la voie à la linguistique dite cognitive. Le mécanisme formel est «greffé» dans le cerveau biologique. Aspects of the Theory of Syntax introduit une deuxième métaphore, la métaphore de l ordinateur. La proposition «le langage est inné», implique la notion de «programme» génétique, s inspirant directement de la notion de programme informatique. Cette deuxième métaphore va rester latente jusqu en 1975 (Reflections on Language) où le langage est assimilé à un organe génétiquement déterminé : la Grammaire Universelle (Universal Grammar) qui donne une explication de l acquisition de la compétence linguistique. Sans ce «logiciel» héréditaire, les êtres humains ne pourraient pas parler et apprendre à parler. Cet organe mental est censé se développer comme un organe physique. Noam Chomsky parle de «maturation» de l organe linguistique. L enfant n apprend donc pas sa langue maternelle. La compétence (competence) est le fruit de la Grammaire Universelle innée, et grâce à elle, l enfant acquiert sans effort sa langue maternelle. La syntaxe est définie comme le domaine d investigation central de la faculté de langage. La théorie délimite d emblée un périmètre de recherche jugé adéquat. La sémantique, la phonologie, la pragmatique, sont reléguées dans des composants, modules ou interfaces interprétatifs. 3

Le plan de cette thèse est le suivant : Dans la première partie, je décris la genèse de la métaphore de l ordinateur, en présentant : En introduction générale, les principaux concepts permettant de clarifier le titre de cette thèse (entre autres, les paradigmes computationnel et connexioniste des sciences cognitives, illustrés respectivement par la métaphore de l ordinateur et celle du cerveau, puis une esquisse de ce qu est la linguistique cognitive en général, et la linguistique cognitive chomskyenne en particulier) ; Le cadre historique et les principaux paradigmes des sciences cognitives ; La théorie de la calculabilité (résultats de Kurt Gödel, Alonzo Church et Alan Turing) qui est la source mathématique de la métaphore de l automate et la métaphore de l ordinateur ; Les liens que cette théorie implique entre logique et machine, et entre esprit et machine ; La théorie de la métaphore conceptuelle (conceptual metaphor) de George Lakoff et Mark Johnson (1980, 1999) et de Mark Johnson (1987) ; La théorie de la fusion conceptuelle (conceptual blending) de Mark Turner (1996) et de Gilles Fauconnier et Mark Turner (2002). Dans la deuxième partie, je commence par un exposé critique des principales hypothèses de Noam Chomsky, en présentant les arguments majeurs qu il avance contre le béhaviorisme, le structuralisme et l empirisme. J oppose notamment à la notion d'innéité celle d épigenèse, et remets en cause une des prémisses fondamentale de l hypothèse innéiste, à savoir l'argument de la pauvreté du stimulus (argument from the poverty of the stimulus), d'où découle l'idée que la syntaxe ne pourrait pas être apprise par l'expérience. Je suggère qu'il est inutile de recourir au génome, si l'on veut bien envisager celle-ci non pas comme un ensemble de règles formelles, mais, à la manière de Ronald Langacker, comme un ensemble possédant schématiquement un contenu phonologique et sémantique. Dans ce contexte, la grammaire noyau (core grammar) se met en place de manière épigénétique, avec des contraintes biologiques et environnementales, comme les autres éléments linguistiques [lexique, idiomes et grammaire périphérique (periphery grammar)]. Lorsque l on supprime le cadre modulaire et mécaniste dans lequel elle est enserrée, à cause de la métaphore de l automate, puis de la métaphore de l ordinateur, cette partie de la grammaire (core grammar) est plus facile à apprendre que la grammaire périphérique (periphery grammar), puisqu'elle est plus régulière. Si l'enfant n'a pas besoin de module spécial pour acquérir les éléments complexes de sa langue maternelle, il peut s'en passer pour les éléments plus simples. Je mets ensuite en évidence la manière dont la linguistique chomskyenne est tout au long de son histoire influencée, d abord par la métaphore de l automate, puis par la métaphore de l ordinateur, en 4

assimilant de manière constante la syntaxe à un calcul, à un mécanisme qui manipule des symboles abstraits sans fondement perceptif ou conceptuel. Puisque Noam Chomsky est matérialiste, l automate mathématique, et plus tard le «logiciel» syntaxique (Grammaire Universelle), sont tous deux forcément mis en œuvre par le cerveau, la métaphore de l ordinateur s imposant d elle-même. Dans la troisième partie, je développe une série d arguments, mathématiques, linguistiques, psychologiques, biologiques, évolutionnistes, contre le paradigme computationnel du langage et de l esprit. En premier lieu, je présente les résultats mathématiques de Terence Langendoen et Paul Postal (1984) qui montrent que les langues naturelles ne sont pas des ensembles récursivement énumérables, et ceux de Paul Postal (2004) qui montrent que les lexiques des langues naturelles ne sont pas des ensembles finis d éléments. Ensuite je remets en cause la notion de syntaxe autonome, en opposant à la grammaire générative, les grammaires de constructions [Charles Fillmore, Paul Kay et Mary Kay O Connor (1988), Paul Kay et Charles Fillmore (1999), Adele Goldberg (1995, 2003), Ronald Langacker (1987, 1991), William Croft (2001), William Croft et Alan Cruse (2004)]. En effet, à partir de 1981, Noam Chomsky considère a contrario les constructions grammaticales comme des épiphénomènes, générés par un petit nombre de principes généraux et de paramètres spécifiques aux langues particulières. J'apporte des arguments pour mettre en évidence l'interdépendance des différents niveaux : phonologiques, sémantiques et syntaxiques. Une stricte dichotomie entre le lexique et la syntaxe n est pas étayée par l analyse du langage. L'idée que la syntaxe est équivalente à un calcul devrait produire des formes syntaxiques d une régularité sans faille. Or les exceptions existent partout, même pour les règles les plus générales. Toutes les langues présentent des particularités liées notamment au lexique, et donc la syntaxe est sujette à des influences sémantiques, phonologiques et aussi pragmatiques. Si l analyse de la langue montre que la syntaxe peut subir des influences, on se demande comment cela peut se produire dans le cadre théorique chomskyen, où cette dernière est totalement isolée et ne combine que des formes symboliques sans contenu phonologique ou sémantique. Je suggère que l hypothèse des «constructions» comme représentations cognitives adéquates pour rendre compte de l ensemble des faits de langage semble plus complète et plus compatible avec l analyse du langage, la manière dont un enfant apprend sa langue maternelle [Michael 5

Tomasello (1992, 2003), Michael Tomasello et al. (1997), E. Lieven, J. Pine et G. Baldwin (1997), E. Lieven, J. Pine et C. Rowland (1998)], et avec la biologie de l évolution, [Philip Lieberman (2004)]. Je remets en cause la notion d esprit désincarné, en proposant une cognition incarnée, où l esprit humain est décrit comme fondamentalement «littéraire» [Mark Turner (1996)], cette propriété découlant directement de la nature elle-même «littéraire» de la conscience humaine [Antonio Damasio (1999)]. Puis j examine les implications de la métaphore de l'ordinateur par rapport au fonctionnement du cerveau réel, notamment l'hypothèse de la modularité l'assimilant à un ensemble de systèmes spécialisés, dont chaque module est «programmé» génétiquement pour assurer une tâche cognitive précise. Je défends l'idée d'un esprit incarné dans son environnement physique et social [Merlin Donald (1993, 2002), Humberto Maturana et Francisco Varela (1998), Antonio Damasio (1994, 1999, 2003), Gerald Edelman (1992) Gerald Edelman et Giulio Tononi (2000)]. Les aptitudes cognitives de l'être humain procèdent de sa capacité à symboliser, de sa conscience étendue, de sa culture, et non pas uniquement de mécanismes inconscients, même si la connaissance consciente est nourrie par maintes routines inconscientes, émergeant de l action consciente de l organisme dans son environnement. J'oppose une vision intégrée de l'esprit face à une vision modulaire. La conscience semble être le pont qui unit la biologie et la psychologie, et qui confère au sujet son libre arbitre et sa capacité de connaître. Elle est un ensemble très complexe de processus dynamiques, le fruit le plus achevé de l'évolution. Elle est encore loin d'être élucidée, mais elle est fondamentale pour définir la nature humaine et la cognition. Je montre, à travers les travaux de Merlin Donald, pourquoi la conscience est primordiale pour expliquer la cognition et comment l esprit a évolué dans l histoire de l espèce, en passant par plusieurs stades (esprit épisodique, mimétique, mythique, théorique), chacun conservant la mémoire des étapes antérieures, et comment il est possible de passer d un cerveau de primate à celui de l homme actuel. Je présente les résultats des travaux de Francisco Varela, sur l unité de la conscience. Il montre comment cette unité se produit grâce à l activation synchrone de différentes parties du cerveau lors de l exécution d une tâche cognitive. Cette synchronisation fait émerger la conscience, permettant l accomplissement d une tâche transcendante qu aucune partie du cerveau ne peut effectuer isolément. 6

Je montre, à travers les travaux de Humberto Maturana et Francisco Varela, pourquoi le système nerveux est fondamental pour expliquer la conscience et la cognition. J expose leur concept d autopoïèse, qui permet d éliminer clairement tout amalgame entre intelligence naturelle et intelligence artificielle et les conséquences de la théorie autopoïétique concernant la connaissance humaine. Je présente la TSGN (la Théorie de la Sélection des Groupes Neuronaux) de Gerald Edelman et Giulio Tononi, qui propose une explication biologique de la conscience, et définit le cerveau comme un système sélectif, et la sélection comme un processus épigénétique. Je montre, avec les travaux d Antonio Damasio, comment la conscience n est pas un processus monolithique, mais se compose de deux strates superposées : la conscience noyau 1 (core consciousness), que nous partageons avec les autres espèces, sur laquelle s enracine la conscience étendue 2 (extended consciousness), proprement humaine, qui gouverne la faculté de langage. C est un phénomène hybride qui procède à la fois de la biologie et de la culture, de par la plasticité du cerveau et son long développement ex utero dans le cadre de l expérience consciente. La pensée symbolique linguistique, relevant de la conscience étendue, s articule sur une pensée en images non symbolique, relevant de la conscience noyau. Donc la faculté de langage n est pas indépendante des autres facultés cognitives. 1. «Conscience noyau» (core consciousness) selon la terminologie d Antonio Damasio, et «conscience primaire» (primary consciousness) selon la terminologie de Gerald Edelman. 2. «Conscience étendue» (extended consciousness) selon la terminologie d Antonio Damasio, et «conscience supérieure» (high-order consciousness) selon la terminologie de Gerald Edelman. 7

Enfin je montre que l idée d un organe syntaxique parfait, tel que présenté dans le Programme Minimaliste (The Minimalist Program), cadre mal avec la théorie et la biologie de l évolution [Philip Lieberman (2004)], et que si l hypothèse d une grammaire universelle est vraie, on devrait s attendre à des carences génétiques de certains principes ou paramètres privant certains individus de la capacité totale ou partielle de parler, ou d apprendre une langue particulière. Or cela ne se produit pas. On devrait s attendre également à un renforcement des paramètres de la langue maternelle au détriment d autres langues, pour faciliter l apprentissage des enfants. Or cela encore ne se produit pas. Un enfant tibétain, issu de populations parlant tibétain depuis des temps immémoriaux, apprendra l arabe ou le russe ou n importe quelle autre langue, si les circonstances obligent sa famille à émigrer dans un autre pays. Il parlera avec la même facilité sa langue maternelle et celle de son pays d adoption. En conclusion générale, je récapitule les idées clés de cette thèse, en espérant avoir dissipé l idée que l esprit humain fonctionne comme un ordinateur, et que le langage humain dépend d un organelogiciel inné. Les mécanismes syntaxiques se mettent en place lors de l épigenèse, dans le cadre de la conscience et de l expérience, et leur automatisation a lieu par le biais de l usage de la langue comme n importe quelle action motrice. Sans pratique régulière il n y a pas d automatisation. Nous en faisons d ailleurs le constat lors de l apprentissage d une deuxième langue. Si le calcul permet de simuler certains aspects de l esprit humain et du langage, cela ne signifie pas que ce dernier soit réductible à un mécanisme préprogrammé inconscient. Cette idée prend sa source dans la théorie mathématique de la calculabilité, notamment la machine de Turing (automate mathématique, mais aussi fondement théorique de l ordinateur), renforcée par la machine de von Neumann (version technologique de l ordinateur). Conclusion : Noam Chomsky fait de l intelligence artificielle Le paradoxe de la linguistique chomskyenne, est qu elle se veut branche de la psychologie et de la biologie tout en ignorant ces disciplines. Elle se veut matérialiste tout en ignorant la matière, ne s occupant que de la fonction logique de l esprit et occultant le substrat matériel. Noam Chomsky prétend faire une théorie de la connaissance, alors qu il ne fait que simuler certaines régularités syntaxiques avec des outils mathématiques, en postulant un automate, puis un logiciel, tous deux inconscients, en guise d explication. A son corps défendant, il fait donc de l intelligence artificielle, mais n explique rien quant au fonctionnement de l intelligence réelle et du langage. Le cerveau n est pas un ordinateur. Cette mauvaise métaphore occulte une de ses propriétés fondamentale : la conscience, qui donne accès à la connaissance. 8