MESURER LA RECHERCHE INTERDISCIPLINAIRE



Documents pareils
SOCLE COMMUN - La Compétence 3 Les principaux éléments de mathématiques et la culture scientifique et technologique

Manuel de recherche en sciences sociales

Position de l ASTEE sur l innovation en matière de services d eau et de déchets

Quels outils pour prévoir?

Objectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)

Métiers d études, recherche & développement dans l industrie

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Texte Agrégation limitée par diffusion interne

PASSEPORT INNOVATION Guide de présentation des demandes Janvier 2015

Le système d accréditation n est pas un système basé sur la conformité à la. de ce fait, il se différencie

PASSEPORT INNOVATION Guide de présentation des demandes Mai 2015

Synthèse «Le Plus Grand Produit»

Rapport d évaluation du master

LE CADRE COMMUN DE REFERENCE LA CONVERGENCE DES DROITS 3 e forum franco-allemand

Info-assurance Séance d information de l IASB du 19 mars 2015

Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie

Qu est-ce qu une problématique?

Table des matières CID CID CID CID CID

Master Etudes françaises et francophones

Format de l avis d efficience

Lecture critique et pratique de la médecine

Problématique / Problématiser / Problématisation / Problème

JEAN-LUC VIRUÉGA. Traçabilité. Outils, méthodes et pratiques. Éditions d Organisation, 2005 ISBN :

Degré de confiance pour les indicateurs de performance : degré de fiabilité du processus de production et écart significatif 1

Introduction à la méthodologie de la recherche

Relation entre deux variables : estimation de la corrélation linéaire

Cryptologie et physique quantique : Espoirs et menaces. Objectifs 2. distribué sous licence creative common détails sur

2 e partie de la composante majeure (8 points) Les questions prennent appui sur six documents A, B, C, D, E, F (voir pages suivantes).

O b s e r v a t o i r e E V A P M. Taxonomie R. Gras - développée

Entrepôt de données 1. Introduction

Présentation du programme. de physique-chimie. de Terminale S. applicable en septembre 2012

FONDEMENTS MATHÉMATIQUES 12 E ANNÉE. Mathématiques financières

GROUPE DE CONTACT DES DIRECTEURS

Comité permanent du droit des marques, des dessins et modèles industriels et des indications géographiques

Il y a trois types principaux d analyse des résultats : l analyse descriptive, l analyse explicative et l analyse compréhensive.

Qu est-ce qu un avis éthique pour le Comité d éthique de santé publique? sa structure, sa portée

Introduction à la relativité générale

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

Méthode universitaire du commentaire de texte

Tâche complexe produite par l académie de Clermont-Ferrand. Mai 2012 LE TIR A L ARC. (d après une idée du collège des Portes du Midi de Maurs)

MASTER 1 MANAGEMENT PUBLIC ENVIRONNEMENTAL CONTENU DES ENSEIGNEMENTS

sentée e et soutenue publiquement pour le Doctorat de l Universitl

LE ROLE DES INCITATIONS MONETAIRES DANS LA DEMANDE DE SOINS : UNE EVALUATION EMPIRIQUE.

Introduction au datamining

Modernisation et gestion de portefeuilles d applications bancaires

Le management des risques de l entreprise Cadre de Référence. Synthèse

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal

Rapport d'analyse des besoins

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

Item 169 : Évaluation thérapeutique et niveau de preuve

La satisfaction de fin d analyse : une rencontre particulière avec le réel*

Annexe au document intitulé Communication relative à certaines questions de politique concernant le Bureau de Procureur : renvois et communications

Ce que doit inclure un projet de mémoire ou de thèse

Les pratiques de simulation de crise: enquête auprès de quarante-trois grands établissements financiers

TABLEAU DE BORD : SYSTEME D INFORMATION ET OUTIL DE PILOTAGE DE LA PERFOMANCE

3-La théorie de Vygotsky Lev S. VYGOTSKY ( )

CONSEIL DE COORDIN AT I O N DU PROGRAM M E DE L ONUSID A

Photons, expériences de pensée et chat de Schrödinger: une promenade quantique

Organiser des groupes de travail en autonomie

quelles sont les spécificités du système de gouvernance des PME - PMI?

PRÉSENTATION DE FRANÇOIS-MARIE MONNET. Aucun moteur de recherche, interrogé sur le tableau attribué à Jérôme Bosch et intitulé «l escamoteur»

La fonction d audit interne garantit la correcte application des procédures en vigueur et la fiabilité des informations remontées par les filiales.

Eléments de présentation du projet de socle commun de connaissances, de compétences et de culture par le Conseil supérieur des programmes

Chapitre 1 : Introduction au contrôle de gestion. Marie Gies - Contrôle de gestion et gestion prévisionnelle - Chapitre 1

LIVRE BLANC Décembre 2014

Les indices à surplus constant

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

En route vers le succès avec une solution de BI intuitive destinée aux entreprises de taille moyenne

Production des Services d Assurance non-vie selon le SCN 2008

La construction du temps et de. Construction du temps et de l'espace au cycle 2, F. Pollard, CPC Bièvre-Valloire

# let rec concat l1 l2 = match l1 with [] -> l2 x::l 1 -> x::(concat l 1 l2);; val concat : a list -> a list -> a list = <fun>

Manuel d utilisation 26 juin Tâche à effectuer : écrire un algorithme 2

INTRODUCTION AUX TECHNOLOGIES D INGENIERIE DES DONNEES DIRIGEE PAR LES MODELES

Les apports de l informatique. Aux autres disciplines

Algorithme. Table des matières

Le cycle de traitement de la situation 1/2

«Identifier et définir le besoin en recrutement»

PRIME D UNE OPTION D ACHAT OU DE VENTE

repères pour agir et mettre en place un projet de consolidation des compétences de Base des Apprentis

UN PROJET SCIENTIFIQUE ET CULTUREL POUR LA SOCIÉTÉ DE LA CONNAISSANCE

Associations Dossiers pratiques

Université de Lorraine Licence AES LIVRET DE STAGE LICENCE

NORME INTERNATIONALE D AUDIT 330 REPONSES DE L AUDITEUR AUX RISQUES EVALUES

Le scoring est-il la nouvelle révolution du microcrédit?

Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence

ENSEIGNEMENT DES SCIENCES ET DE LA TECHNOLOGIE A L ECOLE PRIMAIRE : QUELLE DEMARCHE?

Classe de première L

Thème 2 : Cycle de vie des projets d innovation: ambigüité, incertitude, production de savoir et dynamisme

Ressources APIE. La comptabilisation des frais de R&D. de l immatériel. Pour agir. En bref. Agence du patrimoine immatériel de l État

Définition et exécution des mandats : analyse et recommandations aux fins de l examen des mandats

FICHE 9 TECHNIQUE DU CHANGEMENT LE PLUS SIGNIFICATIF

d évaluation Objectifs Processus d élaboration

Identification, évaluation et gestion des incidents

Stratégies gagnantes pour les prestataires de services : le cloud computing vu par les dirigeants Dossier à l attention des dirigeants

INF 1250 INTRODUCTION AUX BASES DE DONNÉES. Guide d étude

Consignes pour les travaux d actualité Premier quadrimestre

FD/YMC N Contacts IFOP : Frédéric Dabi / Yves-Marie Cann POUR

Assurance et prévention des catastrophes naturelles et technologiques

Transcription:

MESURER LA RECHERCHE INTERDISCIPLINAIRE Philippe JOURNEAU 1 phjourneau@discinnet.org,, Loïc TRON 1 ltron@discinnet.org Mots clefs : Veille scientifique et technologique, évaluation de la recherche, mesure de la recherche, réseaux, modélisation des connaissances, interdisciplinarité Keywords : Scientific and technical observation, knowledge management, research measurement, networking, innovation, knowledge modeling, interdisciplinary Palabras clave : Escudriñar científico y tecnológico, administración del conocimiento, formalización del conocimiento, reunir de información Résumé La recherche interdisciplinaire, catalyseur de la recherche appliquée, est difficilement mesurable via publication dans des revues soumises aux pairs puisque sortant par définition du cadre de la parité : l interdisciplinarité est a-paire ou impaire, y compris dans l apparition de nouvelles disciplines telles que les nanotechnologies, comme souligné par Schummer [1]. D ailleurs Rinia [2] note que «les études empiriques sur ce sujet l interdisciplinarité et plus spécifiquement sur la question de l évaluation de la recherche interdisciplinaire sont rares.» Cette recherche est pourtant prometteuse, aux frontières des paradigmes existants, chacun défendus par leurs pairs spécifiques, légitimement soucieux d en conserver durablement la cohérence. Mais alors les processus d évaluation actuels via les pairs, puis les citations, ne reflètent pas nécessairement la puissance prédictive des théories dans l expérience. En cela ils dérogent parfois significativement aux principes épistémologiques de Kuhn, puis d un Chaitin définissant [25] une théorie comme «un programme informatique servant à calculer des observations.» Pour approfondir et tester cette idée, et tenant compte des progrès de la simulation numérique en sciences [23] et des possibilités collaboratives via l internet, le modèle présenté dans le présent papier introduit une méthode d évaluation de la recherche, donc de scientométrie, radicalement innovante par rapport aux méthodes bibliométriques. Cette méthode Discinnet met en exergue la possibilité croissante de «comparer des calculs et prédictions d observations», en particulier dans des réseaux de chercheurs interdisciplinaires, via l Internet et la mise en commun d expérimentations. Ce faisant elle remontera vers la proposition à première vue radicale de Chaitin en se référant à l évolution de la notion de programme informatique, depuis quelques décennies, en théorie de la complexité. La notion d oracle, notamment d oracle sémantique, est en effet ici liée au rapport déductif/inductif établit par un auteur de théorie entre ses prédictions et vérifications expérimentales. La puissance du modèle Discinnet vient de la mise à jour régulière des progrès des résultats prédits. Il permet une accélération de la recherche par rapport au processus Pairs-Citations-Mesures des citations (PCM) dominant. En effet la comparaison de prédictions d observations, mesures expérimentales à valider de façon coopétitive avant le démarrage du processus PCM, à partir de protocoles expérimentaux comparables et partageables, devrait nourrir les évaluateurs, pairs ou impairs, avant sélection. Le présent papier conclut par une réflexion sur le réalisme de l objet de science découvert via ces différentes phases du processus, de théorie à expérience projetée où dialoguent programmation (P) et nuage d observables a priori aléatoires (NP). Proche du point de vue constructiviste de Ziegler [6] proposant qu «une théorie physique Φ constitue une entité ontologique à part entière : elle n existe pas moins que les points ou atomes..», cette perspective vise une épistémologie générale s appuyant sur une théorie FCP [11, 21] qui tient compte de l impact des progrès de la théorie de la complexité, déjà intégrés par Chaitin. 1 Respectivement Coordinateur de la Recherche et Coordinateur des Technologies, Discinnet Labs, 86 bis rue de la République, 92800 Puteaux

1 Introduction «On valorisait aussi la pluridisciplinarité et on en appelait à l émergence de recherches novatrices et à l investissement de champs d exploration nouveaux. En même temps, les débats ont mis l accent sur le fait que ces évolutions étaient incompatibles avec des évaluations fondées sur les seules publications dans les revues dites fondamentales» écrit Michel Berry [14] dans son chapitre IV «La recherche française entre audace et mimétisme» à propos des Assises nationales de la recherche de 1982, avant d observer que «les années 90 se sont caractérisées par un désenchantement envers la recherche, qui débouche maintenant sur une crise mimétique envers les Etats-Unis.» Appel à la réconcilier évaluations quantitative et qualitative? Sans doute déjà rappel des aléas de nouveaux champs de recherche expérimentale ballotés entre déduction boiteuse et induction aveugle. La méthode exposée dans le présent papier s intéresse ainsi au passage progressif et interactif d un qualitatif sémantique continu à un quantitatif mesuré expérimental discret, dans la constitution de la découverte scientifique, hors publication. La recherche scientifique est en effet évaluée via ces publications qui sont sa production, son output reconnu. Ce fait admis pourrait étonner puisque une recherche s éprouve plutôt, selon l épistémologie classique, par sa capacité prédictive, de façon répétitive, d effets quantifiés. En ce sens toute recherche ne se mesurera in fine qu à l aune ou au moins à l aide, donc à la mesure des technologies qui en découlent ou au moins l entérinent et en authentifient, plus que des pairs, la fécondité. Kuhn avait déjà mis l accent sur la réfutabilité, ce versant négatif, semble t il, de la prédictibilité. Il avait l avantage de proposer une première marche à la mesure de la difficulté : à défaut de donner déjà des résultats opérationnels en effets nouveaux, porteurs de futures technologies, son test commande d étriller une description formelle rigoureuse, sinon l interprétation, d une catégorie de phénomènes. Et cela via des expériences destinées à réfuter le modèle pour en éprouver les contours. C est alors l objectif et le protocole expérimental qui, à rebours, cernent l objet scientifique en cette enveloppe mouvante, avec la communauté qui s y reconnait, à égalité ou parité. Ils en limitent et déjà délimitent la zone de pertinence ou de prédominance FCP ( Fourfold Co-necessity ) : temporelle, formelle, dynamique et spatiale. La recherche de particules a défini ainsi sa communauté de physiciens comme celle des éléments atomiques avait, au début du 20 ème, circonscrit la sienne. Mais d expérience à objet d étude, et alors d objet phénoménologique à objet conceptuel, l objet scientifique dont est mesurée la recherche passe parfois de l idéal de fécondité à la pratique d un discours partagé. Cette réalité a pour cause principale la durée d épreuve d une découverte scientifique authentifiée, ayant franchi toutes les étapes jusqu à de nouvelles technologies ou à une cohérence plus vaste et solide, plus simple et plus puissante, mieux unificatrice. Cette durée est peut-être la seule qui n a pas diminué depuis le 20 ème siècle, comme le note Smolin [8]. Sa diminution est l objectif du processus Discinnet pour aider à accélérer la recherche. Un long chemin mène donc d une découverte encore intuition, oracle sémantique à exprimer jusqu à l expérience qui la réfute ou confirme comme forme théorique optimale parmi d autres, généralement par des changements successifs de types d acteurs, de théoriciens à expérimentalistes, de concepteurs à industriels. Les plus courts, intra-disciplinaires, passent d un modèle théorique à un autre sans changement d acteurs, donc effectivement entre pairs, avec souvent ratification ou rejet en moins d un an. Au motif d incohérences avec l existant théorique et/ou expérimental et parfois évitant une expérimentation coûteuse. Heureuses insistances pourtant qui ont su obtenir leurs tonnes de pechblende, satellites, temps de télescope ou de synchrotron, voire composants, alliages ou possibilités de calcul encore à inventer. On distinguera ici trois niveaux de progressions de la recherche scientifique vers la découverte à partir d une anticipation d effets maîtrisables dans un modèle expérimentable, puis de l expérimentation correspondante et enfin en déploiement technologique ou en confirmation ou réfutation de la théorie, rétroactivement. Il leur correspond trois unités de temps et de types de publication, d espace et de mesure de la recherche, et ainsi de procédés de communication sur la recherche. Cela va des plus immédiatement disciplinés, incontournables, denses, champs de recherche très pointus aux plus interdisciplinaires en passant par cette phase intermédiaire cruciale ou dialoguent prédiction, loi locale, et observation, série de mesures selon des unités simples ou souvent déjà composées.

Après un bref état de l art sur le sujet, le présent papier présente donc en section 2 le projet épistémologique appliqué de coalescence d ensembles de projets de recherche semblables. Suivi d une réflexion sur le réalisme des futures technologies déjà contenues dans chaque forme construite via ce procédé. Il s agit de participer à la question pratique de la mesure épistémologique via l un de ces instruments de mesure adaptés à la croissance des budgets de recherche mondiaux. Tout en s interrogeant sur la mesure et la comparabilité de leur efficacité compte tenu des détours, rebondissements et imprévisibilités qui semblent avoir, dans le passé, caractérisé les relations entre découvertes fondamentales, progrès de la ou des connaissances et applications technologiques. Rogers [9] mentionne ainsi une revue de littérature de Chompalov (1998) montrant une déficience des études sur les relations entre modèles énoncés et résultats des recherches. Il estime que ceci marque une insuffisance d intérêt pour les recherches collaboratives en tant qu arrangements orientés en vue d objectifs, alors qu il importe de «comprendre la relation entre les collaborations (scientifiques) et l efficacité ou la compétitivité dans la recherche.» Le processus ici présenté peut contribuer à y répondre. Revisitant la proposition de Chaitin [25] le présent projet s est focalisé sur le passage de projets de recherche exposés en langage naturel à la possibilité de leur présentation algorithmique, telle qu anticipée aussi par Epelboin [23]. Cette question du passage du niveau sémantique au formel programmable inclut le passage par un langage mathématique à juste titre consacré «langage de la nature» par Galilée. Ce qui implique transition d un «pouvoir du continu» à celui d un système de représentations discrètes finies pour des langages ou problèmes calculables. Comme rappelé par [40], «l ensemble de tous les sous-ensembles d un ensemble infini dénombrable est (infini) non-dénombrable» : l ensemble de toutes les phrases sur un alphabet est infini dénombrable. Donc la signification ou sémantique de tout un texte est indénombrable. On mesure a fortiori la difficulté des linguistes pour aboutir à la grammaire universelle présumée de langages naturels d ailleurs traduisibles, qui se révèlent déjà porteurs de cette capacité propre aux oracles sémantiques à partir du sens comme explicité en [11] et schématisé en figure 3. Sans même atteindre, pour des grammaires de langages formels, l étape d une représentation discrète finie, productrice du langage et récursive, donc algorithmique. Une telle transition est pourtant le projet scientifique et pour un chercheur son projet de recherche : il s agit pour lui de produire un discours pas seulement interprétatif, producteur de sens, mais aussi prédictif, capable de «calculer des observations» en un temps fini et alors récursif ou algorithmique. En théorie des langages formels ceci correspond au passage d un langage naturel ici appelé «de type -» aux langages formels de précision croissante que sont les langages formels, entièrement dérivables de grammaires et dits de type 0, 1 ( context sensitive ), 2 ( context-free ) ou 3 ( regular ), chaque niveau étant un sous-ensemble du précédent. Il se trouve que ces derniers, langages de type 3 ou représentables par des grammaires de type 3, sont équivalents à la classe des ensembles acceptés par des automates finis [40], formant une algèbre booléenne d ensembles comme résumé par (1) en section 4 et 5. Ces résultats de la théorie des langages y seront intégrés avec les hiérarchies de la théorie de la complexité et avec la proposition FCP en tenant compte de cette réalité qu est l étendue, res extensa entropique et inversement des oracles sémantiques, réciproquement capables de faire le sens en langage naturel, porteurs de négentropie maximale dans de nouvelles théories. Or l autre méthode de représentation finie de langage infini est recognizer et notamment automate, capable de vérifier ou reconnaître ce langage ou problème via prise de mesure. Ceci concerne un échantillon aléatoire au sens de Kolmogorov-Chaitin. Or il y a ambiguïté de cette mesure, qui définit l aléa maximal comme tel que la longueur de sa représentation minimale est la même que celle de sa description. Autrement dit il ne peut être généré. Il en est pourtant de même pour un oracle de même longueur, pourtant instantané, ce qui conforme son sens comme une bonne mesure, voire définition, du temps, comme exploité en sections 4 et 5. La confusion avec NP est récurrente puisque tous deux sont représentables comme chaînes. Il faut donc séparer les rôles conjoints du temps et inversement de l étendue pour mesurer NP, défini comme S par (2) et ses relations avec des oracles de tous niveaux selon (3), correspondant à une dimension temporelle puisque capables de répondre de façon instantanée à ce niveau de complexité, tout en posant le problème de l intersection puis de l intégration dans un plus grand sens. Autrement dit la réponse proposée par FCP à [39] réside précisément dans l impossibilité de se passer d oracle, donc de relativization : l absence d oracle négentropique ou temporel A, ou d étendue entropique et spatiale N, ou encore de changement spontané S (i.e. Non-déterministe NP) y est en effet exposé [41, 22] comme irréaliste.

De façon non moins indissociable ou co-nécessaire la mesure la plus primitive prend forme, d abord dans un distance et en complément dans un alphabet d unités de mesure à partir desquelles remontent par induction des lois d expérience vers des lois de plus haut niveau, requérant les oracles sans cesse plus puissants de (3) pour passer du niveau d attestation de validité (NP), ou certification, à celui de témoignage de véracité (P), prédictible. 2 Mesure de la recherche, une discipline encore jeune 2.1 Recherche disciplinaire et primat de la cohérence théorique Sans avoir pour objectif de le discuter ici, sauf dans l aperçu de la section 3.4, il faut rappeler cet objectif de la recherche fondamentale, via pratique d expérience, vers une cohérence formelle sans cesse croissante que traduisent les concepts de théorie unifiée, voire théorie de tout en physique et de façon connexe en chimie, biologie et SHS. Il reflète, paradoxalement, l accumulation explosive de modèles disciplinaires, chacun explicatifs de leurs expériences, résolutions, domaines d application. Ce rappel n est pas central au modèle, plutôt interdisciplinaire, développé dans le présent papier, mais en facilitera le positionnement par rapport aux systèmes de mesure de la recherche disciplinaire, qui n en sont pas exclus mais où, à l intérieur d un paradigme par définition reconnu, le test des pairs est possible. L'évaluation a priori par des pairs et a posteriori par les citations n implique pas corrélation de l une et de l autre. Les pairs peuvent privilégier la cohérence, la contribution au maintien et au développement du paradigme et de leur contribution à celui-ci tandis que les citations peuvent plébisciter la rupture ou des nouveautés. La nécessité d une rétroaction a justifié le développement de bibliométries, mesures de citations cependant presque toujours conditionnées à revue préalables par des pairs. Des processus plus complets et plus rapidement rétroactifs, seraient-ils envisageables? C est ce que propose Discinnet. B. Bozeman & J. Rogers [4] montrent sinon que les théories d'évaluation de la recherche par l'économie n'ont pourtant pas permis d'aboutir à des méthodes pratiques pertinentes. Ceci est en particulier dû à la difficulté de la mesure de la valeur ajoutée affectée à tel domaine scientifique, et ce, en regard des dépenses effectivement investies dans ce domaine. Il est particulièrement difficile de cerner et de délimiter tant les effets d'une connaissance scientifique que son coût. Notamment parce que la recherche fondamentale n'est pas organisée par projets, mais plus comme un continuum de production de connaissance, dont le papier est l unité de mesure. Ils proposent alors déjà une évaluation basée sur l'usage de résultats scientifiques, le churn model, prenant en compte deux fondamentaux, à savoir le capital social scientifique et technique, et le savoir collectif. Or, cette méthode demande d'analyser finement tous les usages partant d'une connaissance scientifique, ce qui pose le problème de l'exhaustivité, mais aussi de la difficulté à faire remonter la valeur de tel usage à tel progrès scientifique. Il est alors nécessaire de rester au niveau collectif, global. Une autre limitation vient de ce qu une telle évaluation n'est possible et a fortiori complète qu'a posteriori, quand il est possible de faire la liste et d'attribuer une valeur à des usages. Elle est donc par construction une mesure du passé. Enfin ces méthodes économiques ont été développées dans le but de donner des outils au management politique des programmes de recherche sur la base des valeurs sociales collectives générées. Des évolutions de ce modèle ont été développées, en particulier par B. Bozeman [5], mais restent dans le même esprit. J. Ekboir [6] reprend les limites de ces modèles basés sur l'analyse des impacts et des usages, et préconise diverses approches, portant notamment sur l'évaluation de la recherche collective à partir de corpus de règles ou «rules for generating, collecting and sharing information, financing procedures, intellectual property-rights regulations and availability of human and financial resources». Cet objectif se traduit en modèles, définissant ainsi des objets, autour desquels se développent des communautés scientifiques revenant vers l expérience mais le plus souvent, pour des raisons économiques, travaillant et évaluant la cohérence de nouvelles propositions théoriques

avec celui déjà éprouvé. Dans tous les cas on voit que les solutions étudiées autres que l évaluation par les pairs sont de type collectif à partir de règles générales alors que c est au contraire une approche microéconomique qui sera présentée dans le présent document. Pour conclure ce rappel sur les présupposés disciplinaires affirmés du processus allant de la revue par les pairs à de futures expériences, toujours interdisciplinaires, mais encore incertaines, c est bien d un décalage vers l aval expérimental du début du processus, mais alors avec la gestion du retour aux modèles disciplinaires ex post, qu il s agira dans la proposition de modèle et méthode de mesure de la recherche interdisciplinaire, exposé ci-après. 2.2 Mesure de la recherche interdisciplinaire, de l idéal de cohérence à l expérience réalisable «Even interdisciplinary or multidisciplinary efforts become institutionalized into emerging fields with disciplinary characteristics when they prove to be fertile research areas. So the fluidity of a research area without disciplinary trappings is only a temporary phenomenon écrit [9] parmi ses notes finales. Mais cette remarque atteint peut-être sa pertinence maximale dans ses deux conclusions : «they prove to be fertile» et «temporary phenomenon». Ce sont par exemple les nanotechnologies, la théorie de la complexité, les applications de la mécanique quantique selon quelques processus interdisciplinaires récents et encore largement en devenir mais déjà «prouvant être fertiles». Un phénomène n est-il pas toujours temporaire? C est pourtant lui qui nous intéresse et c est cette fertilité, à tester dans ces nouveaux phénomènes temporaires, en champs alors d autant plus dynamiques, que mesure le processus ici esquissé. Le fait que ces phénomènes transitoires soient associés par Rogers à l interdisciplinarité souligne tout l intérêt de viser des méthodes d évaluation et même de mesure spécifiques à ce type de recherche aux frontières des disciplines. La fertilité s y traduira, comme exposé ci-dessous et symétriquement, d une part en futures technologies vers l aval, dans l étendue et ses temps lents et d autre part en rétroaction sur des champs disciplinaires vers l amont inversement repoussés vers une sémantique sans cesse plus sophistiquée mais aussi fluctuante, un sens commun continu seul garantissant le maintien possible de leur cohérence, en contexte FCP. Le «phénomène temporaire» évoqué par Rogers, teste alors effectivement ces mouvements, changements d état et même de phase des disciplines elles-mêmes via l interdisciplinarité selon un processus de co-naissance [11], de sens partagé. Cette interdisciplinarité est modélisable comme vecteur(s) de changement et regroupements entre des disciplines, comme transformation vers de nouveaux champs via des nuages de projets de recherche similaires orientés, nouvelles formes dans une complexité disciplinaire croissante. Le modèle présenté dans la prochaine section tire précisément parti de son interaction propre avec les différentes équipes de recherche susceptible de s y positionner pour leur faciliter rétroactivement, à partir des transformations qui s y révèlent, l intérêt et la possibilité de collaborations interdisciplinaires. Que ce soit parce que de telles options y sont affichées, comme sur la figure 1, ou parce que la présence et le déplacement relatif d autres équipes ou d attentes exprimées selon d autres vecteurs, voire d autres dimensions, leur désignent des opportunités interdisciplinaires concrètes et porteuses. Au lieu d un cas typique de collaboration intra ou interuniversitaire, ou déjà entre universités, laboratoires voire industriels habitués à se reconnaître entre eux, il a pour objectif, une fois adapté lui-même en protocole expérimental pour la société des chercheurs, puis prototype et enfin processus inséré dans leur(s) communauté(s), d y participer à l émergence de ces «phénomènes temporaires» qui deviennent, en général de façon interdisciplinaire, futures technologies et symétriquement rétroagissent sur les modèles.

Un début de description de ce qui est entendu par ce «symétriquement» est élaboré en section 4 dans le cadre d une réflexion sur les différents statuts épistémiques discutés dans le présent papier : statut des communautés, des modèles, des phénomènes de leurs expérimentations par rapport aux phénomènes qui s y expérimentent. Donc statuts des formes prises par les nuages de points représentants ces expérimentations et les différentes classes de phénomènes qui s y entrechoquent et enfin de leurs débouchés industriels ou pour le progrès de la connaissance. Il y deviendra en effet envisageable de décrire un passage progressif à une réalité plus industrielle en passant à un niveau de complexité spatiale plus fort par opposition à la remontée principalement en niveau de complexité formelle plus élevée avec oracle de plus haut niveau et plus d instantanéité : la réalité industrielle enchevêtre dans la distance, en volume, des structures inversement plus lentes. 3 Modèle épistémologique proposé 3.1 Fondements du modèle Le modèle et processus Discinnet a pour objectif le positionnement relatif et la mesure statistique des prédictions de recherches portant sur des domaines scientifiques susceptibles de se croiser dans des mesures communes. Il semble en effet que cette capacité prédictive requerra un travail de plus en plus interdisciplinaire pour qu expérience et modélisation s intègrent, la vérification de cohérence étant renvoyée en informatique à une satisfiabilité conjointe. Quelques exemples sont mentionnés ci-dessous mais le processus de mesure Discinnet proposé se présente déjà comme suit : le processus distingue la description sémantique a puis formelle (étape b ) de celle du protocole expérimental (étape c ) avant transition éventuelle vers prototype, selon perspective et contexte applicatifs en réplication (étape d ) industrielle dans l étendue, donc en effets de série et vers des marchés, il propose pour cela aux équipes de recherche d isoler les unités de mesure voire de performance c'est-à-dire selon des «directions favorables» correspondant aux résultats attendus : fourchettes, ordres de grandeur, changements d état, tests binaires ou courbes pratiques anticipés comme significatifs, puis de décrire la composition, donc les composants disponibles, réalisables ou conditionnels, du protocole expérimental, et donc l économie du projet, et enfin d exposer des horizons de réalisation de l expérience sous condition, notamment, des ressources susdites. Ce qu affirme alors la proposition Discinnet c est la possibilité de comparer de façon anonyme des projets, sinon équipes de recherche, via un tel processus, de façon efficace, accéléré et même dans certains cas prédictif, par rapport aux autres systèmes de critères, notamment de publications ou de classements. L avantage du procédé Discinnet est de permettre une comparaison non pas entre établissements, ni même entre équipes intrinsèquement, mais entre projets de recherche interdisciplinaires finalisés par rapport à des expériences. Plus généralement, et notamment pour ce qui concerne la comparaison de différentes capacités prédictives de phénomènes naturels, le modèle opérationnel correspond à l hypothèse selon laquelle des théories sont optimales en fonction de besoins, en particulier expérimentaux, donnés. Et par exemple d échelle.

Dans une perspective qui peut sembler constructiviste, un élément central de ce que nous appelons «modèle Discinnet» repose sur les formes originales détectées et dessinées, rendues autonomes, vues comme construites lorsqu elles conduisent à de futurs procédés et alors qualifiables de «futures technologies». Autrement dit nous affirmons qu une «future technologie» est une forme nouvelle, ontologiquement autonome par rapport au statut existentiel de chacun des composants qui s y classent comme un nuage par rapport à chacune des gouttes d eau qu il contient et de même cette goutte par rapport aux molécules d eau qui y sont enveloppées. En d autres termes Discinnet affirme la possibilité, par la forme émergent du regroupement d expériences comparables et y prenant de la signification dans son évolution (condensation, accélération, trajectoire), de prédire et de contribuer à accélérer et maîtriser la future technologie qu est précisément cette formation. Ou bien, si l objectif de l observateur est davantage axé sur un projet idéaliste, la recherche de lois de la nature, par une sélection de critères de reconnaissance de forme différente, non pas une future technologie mais une future théorie plus efficace, et en particulier plus précise pour une zone observable donnée. 3.2 Présentation du modèle L épistémologie classique, a-disciplinaire ou générale, lie la puissance d un modèle, sa capacité d expliquer le réel, à son efficacité sur celui-ci, mesurée à l aune de la prédiction. Le prédire et l agir n ont pas pour autant le même statut : il est possible de prédire une mesure cosmologique ou la découverte d un fossile présentant certaines caractéristiques sans pouvoir cependant agir dessus. Ceci sépare les expériences susceptibles de déboucher sur des innovations de celles qui amélioreront notre compréhension du monde cum-prehendere, prise ensemble, en co-naissance, donc nécessairement sociale ou déjà notre interprétation de celui-ci. L efficacité d un modèle scientifique se teste sur un jeu d échelles de mesure et divers modèles peuvent donc se croiser selon des zones d unités communes : mètres, secondes, mètres/seconde, ampères, newtons, mais avec séparation claire des zones de mw, de W ou MW, de longueurs d onde du visible, de l X ou du γ, aux effets distincts. Le modèle épistémologique Discinnet de positionnement et son processus d accélération repose sur cette base d expériences comparables et partageables. Les résultats en mathématiques ont en général le statut de théorèmes sauf à n être encore que des conjectures. Les démonstrations sont formelles, dans un cadre conventionnel : Piaget souligne déjà ce fait en prenant l exemple de deux gouttes d eau qui, expérimentalement additionnées, n en font qu une. L addition définit alors les entiers en mathématiques à partir d une fonction «successeur». L expérience ne commence qu à partir des mathématiques appliquées dans les sciences dites expérimentales à commencer par la physique, où la simplicité, la systématicité, sont les plus fortes. L opposition entre langage naturel des sciences humaines et langage formel y est maximale, rendant l objectif du test de Turing sans doute lointain. Dans un domaine d ailleurs aussi formel, à première vue, que la théorie de l information, la difficulté d une séparation radicale avec les nombreuses disciplines de la physique transparaissent des évolutions récentes de la théorie de la complexité et des propositions épistémologiques exposent la valeur d une théorie comme indissociable d un choix de contexte, étymologiquement ce qui va avec le texte, donc le modèle. Un exemple couramment cité est celui du domaine de validité forte de la Mécanique Quantique (MQ) par rapport à celui de la Relativité Générale (RG) comme façon de relativiser la difficulté persistante de leur trouver une cohérence formelle commune, donc une communauté de pairs. Ce qui sépare la physique des extrêmes or c est celle des fondements en deux zones de cohérence possible : les physiciens se rangent ou vont de facto se trouver classés, selon les thèses qu ils soutiennent durablement, dans tel ou tel clan. Ce qui n empêche pas [8] de mettre en exergue un domaine de la physique comportant plus d écoles que de physiciens. Les exemples de Schummer [1] montrent qu une telle césure apparaît aussi bien dans un domaine classé d emblée comme interdisciplinaire, celui des nanotechnologies, selon la provenance culturelle, au sens de la communauté scientifique d origine, des chercheurs, par exemple plutôt physiciens ou plutôt chimistes mais on la trouverait de même entre théoriciens de l information, en informatique quantique, et physiciens dits de la matière, condensée ou non.

Ces modèles se retrouvent dans tout couplage de la forme et de l action : dans l équivalence d Einstein ou dans celle de de Broglie, dans l inséparabilité du dire et du faire creusée par Saussure, quand Feynman réussit à «exprimer directement la mécanique quantique à l aide de l Action» [16] ou quand Penrose se focalise sur le «U/R paradox» de l inséparabilité du processus formel U et de la réduction R dans la mesure. De la géométrie non-commutative, typique de l action aux processus complexes de la «technologie émergente des Processus Evénementiels Complexes» [7] ce sont les dynamiques systématiques, rétroactives, récursives et donc algorithmiques, voire alors cognitives essaims de particules, etc. qui doivent pouvoir être comparées en tant que technologies ou futures technologies et non plus principalement des modèles et des designs. Poussant alors aux limites les possibilités mêmes de brevetabilité. En conclusion de cette section Discinnet propose une méthode pour une intégration nettement plus poussée du processus scientifique, pour réussir l interdisciplinarité et en relativisant, dans cette perspective constructive, la séparation Russellienne, mais interdite par FCP, de causalités formelle et efficiente, qu on les désigne physiquement par U/R ou en Théorie de la Complexité (TC) par P vs. NP en les cantonnant alors en traitement en temps polynomial par rapport à une longueur d input. Or cette théorie établit la nécessité [39] d une «relativisation» incontournable de ce dilemme, quelque soit le langage ou problème traité, pour en résoudre pratiquement de façon polynomiale - l écart entre prédictif déterministe P et inductif non déterministe mais mesuré (vérifié) NP. Ceci impose de faire descendre l oracle sémantique, le chercheur, aux plus bas niveaux de description de l oracle contextuel pertinent pour l échange entre algorithme et ensemble de mesures considérés et à réconcilier, comme exposé en sections 4 et 5. 3.3 Représentations et positionnements des démarches scientifiques 3.3.1 Représentation interdisciplinaire «étroite», privilégiant la capacité prédictive relative des différents modèles appliqués selon différents contextes Dans la Figure 1 ci-dessous est proposé un modèle opérationnel, un instrument pour la mesure de la capacité prédictive relative de différents modèles selon des protocoles expérimentaux comparables. L exemple présenté a été notamment appliqué aux nombreuses expérimentations récentes de l effet Casimir. Le qualificatif performance s entend par une combinaison d unités de mesure et plages de valeurs y compris le cas échéant coûts et horizons de réalisation, voire duplication sur lesquelles deux expériences seront effectivement comparables. Toutefois deux expériences peuvent être comparables sur un grand nombre de mesure, telles que des unités et place de pertinence de ductilité, dureté, résistance, poids, matériaux mais radicalement distincts selon un ou plusieurs autres critères pertinents pour l observateur, comme par exemple le type de structure ou de procédé de préparation, rendant dans un certain contexte celui du choix de procédés incompatibles entre eux la comparaison peu pertinente.

Figure 1 : Comparaison de projets de recherche théoriques expérimentables selon leur degré d avancement expérimental Le modèle du «processus Discinnet» permet aux chercheurs de proposer et ainsi positionner en permanence leurs besoins, projets ou réalisations expérimentales sous différents statuts d édition provisoire (tel que working paper) et de déclaration d objectif de résultat, qu il s agisse d abord d un ordre de grandeur, seuil ou test de réalisabilité ou d une prédiction plus précise et plus pointue. Donc transcrit par Discinnet sous forme de patatoïde dans un hypercube de dimension quelconque mais dont seules deux, voire trois, seront facilement visualisables. Ainsi, dans la figure 1 ci-dessus, les camemberts pleins correspondent à l état de l art des meilleurs résultats expérimentaux publiés, les autres étant projetés ou prévus. C est le processus canonique de la recherche fondamentale ( basic ). L originalité de Discinnet consiste à demander alors aux équipes d extraire, développer et préciser selon une structuration ouverte mais rigoureuse, la proposition expérimentale seule apte à réfuter ou éprouver la proposition théorique, en échange de différents avantages. Il est loisible de penser que les auteurs et coauteurs seront d autant plus motivés à peaufiner leur soumission au processus Discinnet qu ils doivent attendre leur reconnaissance de l expérience, surtout s ils se situent à une frontière disciplinaire, en rupture, novation ou simplement en décalage avec le paradigme dominant chez les pairs. Il s agit déjà d une diversité de paris sur un avenir scientifique appliqué sur lequel vont se retrouver une diversité de projet de recherche comparables et dont la proximité proviendra d une proximité à la

fois qualitative proximité sémantique et quantitative. Cette dernière se traduira par des résultats proches pour des résolutions proches dans des espaces proches, c'est-à-dire des unités de mesure en partie partagées et des plages de recouvrement de mesure. Une objection à ce processus proviendrait du caractère non encore tranché, critiqué, éprouvé, notamment par les pairs, de ce qui n est encore que projet expérimental. Mais c est précisément là que Discinnet vise à permettre une interaction coopétitive de très haute fréquence, propice à avancées, tests, redirections voire retraits accélérés avant publication plutôt qu après. La figure 2 expose un exemple théorique comportant une vingtaine de projets de recherche, numérotés compte tenu de l anonymat garanti a priori, chaque équipe connaissant son propre numéro. Une proximité se traduit par au moins deux indices de mesure, voire de performance lorsqu interprétés vers un objectif partagés par tous les projets, dont certains peuvent par contre ne pas se retrouver ensemble selon d autres axes ou en tous cas d autres résolutions. La différence entre des deux correspond à l introduction de ce que Berry appelle «abrégé du bon» par rapport à l «abrégé du vrai». Une part notable des propositions théoriques, notamment dans les domaines les plus amont des sciences, mathématiques appliquées et physique, comportent des propositions expérimentales encore incertaines, voire impossibles, trop couteuses ou lointaines, voire difficiles à concevoir déjà. La conception d une expérience capable de tester un modèle y est d ailleurs souvent le premier et principal écueil de la théorie. Des calibrations ou des simulations, le cas échéant étalonnées à partir d expériences passées voisines, servent de premier cautionnement de la démarche. Elles y acquièrent ainsi une valeur heuristique certaine. Elles sont représentées sur la figure 2 par des quarts de camembert pour suggérer tout ce qu il reste à réaliser en vue de compléter l expérimentation. D autres travaux de recherche décrivent une expérience complètement, y compris le protocole expérimental, sans en dévoiler nécessairement les parties les plus sensibles mais déjà ouverts aux suggestions, marques d intérêt, lectures, critiques, indicateurs de valeur applicative potentielle. Capables de décrire un projet expérimental novateur, impliquant le cas échéant un design ou un procédé approprié original dont ils prédisent des résultats avantageux, plus précis ou plus puissants, ils indiquent une phase d attente de réalisation, entre budget et test proprement dit, voire en appellent aux expérimentalistes par le demi-camembert. Enfin les trois-quarts de camemberts signalent des expériences en cours, de premiers résultats en attente de confirmation, validation, réplication par d autres équipes, publication, discussion, voire dérivation ou réfutation ou encore interprétation et enfin applications. Ils doivent pouvoir s avancer dans le processus Discinnet vers la partie aval du niveau c en vue de se positionner de façon plus affirmée quant à leur apport futur aux modèles et technologies actuels. 3.3.2 Représentation interdisciplinaire et analyses appliquées à de futures technologies La présente section concerna l aval des représentations «Performance-Performance» typiques de la figure 1. Rappelons que celles-ci correspondent à la partie amont du niveau c dans l échelle de progression utilisée par Discinnet pour repérer les différentes étapes de progression linéaire allant d une proposition scientifique à son intégration dans la société, que ce soit rétroactivement parmi la hiérarchie des champs scientifiques ou via la diversité de ses impacts technologiques et, au-delà, économiques. Les niveaux a (abstract) et b correspondant aux formats ( templates ) habituels d un papier scientifique jugé éditable selon les canons scientifiques et euxmêmes divisibles en niveaux intermédiaires (papier de travail, pre-print, versions). L ensemble des trois niveaux (a, b, c) correspond selon notre gradation simplifiée à la partie scientifique tandis que le pôle économique correspond aux étapes (d, e, f) où d correspond à l analyse des coûts et e plutôt à celle de la valeur, donc liée aux marchés sachant qu une rétroaction de e sur d s imposera rapidement. Cette échelle n est pas développée dans le présent papier et fait l objet d autres types de présentations. Elle a été comparée à l échelle à 9 niveaux de la NASA [18], laquelle serait cependant plutôt à mettre en correspondance avec les étages b à d. Dans cette typologie [18] le niveau 1, «Basic principles observed and

reported» ne semble cependant pas recouvrir la diversité des représentations balayées par des papiers scientifiques, de niveau b, tandis que les niveaux 2 à 5 correspondent à un point de vue qui paraît plus sociologique que méthodologique quand aux différentes étapes qui se succèdent et interagissent à l intérieur du niveau c ici présenté. Ce sont en effet pour [18] les phases suivantes : «Technology concept and/or application formulated» en niveau 2, «Analytical and experimental critical function and/or characteristic proof-of-concept» en 3, «Component and/or breadboard validation in laboratory environment» en 4 et «Component and/or breadboard validation in relevant environment» en 5. La terminologie témoigne d un positionnement typique de centre de recherches Federal Lab aux Etats-Unis a priori positionné en intermédiaire entre recherche théorique et industrie. Ce sont par exemple en France le CEA, l INRIA, l INRA, l Institut d Optique, etc. et à l échelle européenne ou mondiale des centres de recherches ou grands équipements tels que le CERN, ITER, des télescopes ou réseaux d observatoires, satellites, stations orbitales. On peut alors se demander si un tel choix organisationnel ne suffit pas à répondre aux remarques de Berry depuis notre introduction et à définir le périmètre de ce niveau c correspondant à l étape expérimentale, donc aux moyens techniques dédiés, souvent coûteux, dont le temps d utilisation est affecté aux théoriciens de façon équivalente à l espace de revue disciplinaire par lequel ils auront dans un premier temps été triés. Cette logique d un tamisage (a, b) par les pairs d un journal spécialisé approprié parmi quelques dizaines de milliers, suivi dans une seconde étape d un temps de la «ressource machine» également évoquée par [14] et centrée en c, peut alors sembler optimale. Ceci suppose toutefois que l interdisciplinarité puisse être gérée quelque part entre les revues, disciplinaires et les instituts, les équipementés, si ce n est même les grands industriels, équipementiers notamment. Et de fait ces instituts ont appris à gérer pluridisciplinarité ou multidisciplinarité mais ils sont cependant eux-mêmes, par la force et la pesanteur, notamment financière, structurante, de cette «ressource machine», d abord focalisés sur l objet qu elle circonscrit et localise. Au risque de simplifier, elle concentre autour de l objet et du rayon d objectivité qu il induit ce que l objet formel, dans sa revue dédiée, concentre en recherche de cohérence formelle. Or c est bien du dialogue entre les deux qu il s agit et de la possibilité, au centre des préoccupations des industriels pour leurs projets d avenir et un rythme d innovations non bordé par des types d équipements déjà installés comme des chercheurs pour les leurs avec la liberté d imaginer d autres sortes d expérimentations projetées par d autres types de théories. Certes les instituts ont appris à déployer la gamme de leurs instruments tout comme les revues ne négligent pas forcément les idées novatrices, mais il se confirme ici que la rétroaction permanente de l expérience envers la raison pure requiert des espaces de couplage souple interdisciplinaires donc intermédiaires. Il en apparaît d ailleurs de façon croissante depuis quelques décennies, que ce soit les organisations éditoriales citées sur la figure 3 à titre d exemple ou des organisations et méthodes d évaluation et de liaison par et pour la recherche tels qu au cœur des débats actuels en France [19] comme ailleurs dans le monde. C est dans ce contexte que s inscrit le projet épistémologique expérimental, en l occurrence scientométrique, représenté en Figure 2.

Figure 2 : présentation d une coupe de positionnement relatif de projets de recherche expérimentables L exemple de la Figure 2 montre l évolution sur deux périodes (noir puis rouge) des prédictions d équipes de recherche numérotées de 1 à 18, selon deux axes à savoir performance ou performance/coût en ordonnée et horizon de la prédiction expérimentale en abscisse. On observe notamment une concentration du nuage autour d un barycentre dont le déplacement vers le haut est important en si peu de temps. Le diagnostic d une découverte potentielle, d un résultat, d un effet, d une possible rupture en train de se propager parmi les experts, peut être envisagé. Dans la figure 1 par contre chaque équipe de recherche, au plan mondial, concernée par la progression de son positionnement prédictif relatif aux autres, avait fourni les unités de mesure, indicateurs et fourchettes ou courbes de valeurs pour ces indicateurs. C était la phase amont de ce que nous avons appelé niveau c,

expérimental. Il comporte déjà, par la simple comparaison de ce qui apparaît comme bulles selon deux axes et patatoïdes selon d autres axes, une première invite à l interdisciplinarité par les axes nouveaux et les positionnements originaux de certains sous-groupes. Dans la figure 2 les équipes de recherche abordant la phase aval du niveau c sont capables de progresser vers un ou des objectifs d horizon de vérification expérimentale sous condition de ressources et le cas échéant sous condition de progrès scientifiques, et en complément technologiques. La plage de dates qui était sous-jacente dans la figure 1 puisqu un camembert complet correspondait à une expérience réalisée, quitte à être prise comme référence ou échantillon pour d autres, et un quart de camembert à une expérience elle-même encore bien hypothétique, le demi-camembert traduisant typiquement une recherche de partenariat interdisciplinaire, avec son implication amont-aval, en vue de la réalisation expérimentale. La méthode de positionnement relatif Discinnet ne se limite donc pas à l exposition, pourtant déjà utile, concentrée dans la figure 1, dont le réglage par un observateur, qui y exprime ses attentes, sa demande, est déjà une création expérimentale en soi. Elle devient via la figure 2 un processus de formation décrivant et accomplissant la trajectoire de futures technologies possibles. A «l existence d indicateurs synthétiques (qui) permet aux directions de mesurer la production de leurs chercheurs et de surveiller leurs instances d évaluation», telle que regrettée par Berry [14], elle ajoute ou même substitue des indicateurs et procédés analytiques et cinématiques de la prédiction ou promesse l antique prophétie adaptée à la répétitivité scientifique et à l innovation de ses résultats et à l actualisation permanente, selon une fréquence par exemple trimestrielle, de leur progression. La coalescence, la concentration, le déplacement, l accélération, l éclatement ou le regroupement et in fine la structuration et l évolution de cette formation, font apparaître une réalité statistique originale dans chaque perspective expérimentale et même applicative retenue par l observateur. Cette enveloppe, sa constance et sa consistance ainsi que celles de la trajectoire qu elle décrit sont susceptibles de prédire et même d annoncer une future réalisation et réalité scientifique et alors technologique indépendante de l essaim qui la constitue. Le schéma théorique de la figure 2 va plus loin puisqu il suggère, au-delà de la prolongation des trajectoires du barycentre du nuage, ou cluster, d expériences projetées, ou de quelque sous-groupe, l anticipation de leur croisement avec la courbe, a priori moins aventureuse, de l évolution performance/coût des technologies actuelles, présentes sur les marchés et compte tenu de leurs effets d expérience prévisibles. Il s agit donc de l annonce d une technologie de rupture. Au futur antérieur, lorsqu elle est encore au statut d invention, que le processus prétend effectuer en l actualisant comme explicité plus bas, au risque d affadir la distance a priori radicale entre découverte, universelle et invention, contingente. Au-delà de la comparaison, mesurer l émergence d une future technologie Les deux schémas génériques ci-dessus montrent la différence entre une comparaison d expériences en vue d un positionnement relatif multicritères lié à un observateur et un pronostic d émergence applicative dépendant de la reconnaissance de la valeur du protocole soit par une communauté scientifique suffisante, susceptible de la porter au sens de Kuhn et devenant alors une communauté de pairs, soit vers des utilisations, des marchés et dans ce cas dans un contexte interdisciplinaire. On peut en effet considérer alors qu une telle application se définit comme interdisciplinaire en ce sens qu elle n est pas restreinte à une communauté disciplinaire, laquelle se définirait comme justifiant d une économie reposant sur de seuls savoirs, via la communauté se reconnaissant dans ce savoir. C est dans le cas de l interdisciplinarité ainsi rattachée à une perspective industrielle, capable d imposer ce qu on pourrait qualifier de transparité, que le positionnement des efficacités selon différents horizons, cf. figure 2, se justifie le plus. C est aussi dans ce cas que les méthodes d analyses statistiques seront les plus pertinentes. En effet les comportements des équipes de recherche appliquées interdisciplinaires iront vers des arbitrages correspondant aux optima applicatifs

perçus, susceptibles de faire l objet de consensus. Les recherches non appliquées ou plutôt appliquées à faire progresser la connaissance de phénomènes dits naturels font également l objet de consensus on parle par exemple du «consensus ΛCDM» en cosmologie mais les indicateurs d horizons et de coûts ont peu de pertinence dans ces cas. 4 Du réalisme du nuage d expériences prédites à celui de futures technologies Cette affirmation semblera un premier abord incongrue et le statut «constructif et même constructiviste» clamé plus haut sera, en dépit de l insistance récente d un Ziegler [6] et plus ancienne de Feynman [16] citant notamment Wheeler, accueillies avec scepticisme. Sa réconciliation avec l universalisme naturel de la physique apparaîtra impossible sauf à être suffisamment convaincant dans [15] d une part et surtout à réussir par l expérimentation du processus modèle Discinnet, c'est-à-dire à prouver sur le long terme la précision répétitive, selon le degré de résolution choisi, de la relation entre modèle formel d une future technologie résultant de la coalescence révélée dans sa phase Discinnet avec sa réalisation industrielle ultérieure évoquée en section 6. Pourquoi insister sur cette affirmation dans un papier certes épistémologique mais a priori surtout dans son versant méthodologique, plutôt que philosophique? C est que la question du positionnement relatif de la découverte et de l invention ou de la loi de la nature par rapport à la nature de la loi, est un enjeu théorique, organisationnel et même politique national et international très actuel. Elle renvoie notamment au principe d équivalence kantien de l idéalisme transcendantal et du réalisme empirique, sans doute clé de voute au moins de sa première «Critique». Kant fait d ailleurs référence à Platon même s il accorde un primat à la «res extensa» Cartésienne par son seul théorème d existence d une telle réalité, plutôt un postulat après réexamens récent de son statut [11, 20]. Il ne s agit pas ici de réécrire l éternel débat du réalisme relatif de l idée et de l expérience mais d examiner avec lui la façon dont le processus Discinnet peut prétendre être lieu où les modèles théoriques prennent corps et renvoyer symétriquement à confirmation ou réfutation de ces modèles de façon rétroactive vers l amont d une part, annoncer activement de futures technologies vers l aval d autre part. Une piste dans cette direction a fait l objet de travaux précédents [21, 22] et en cours [15] utilisant notamment les progrès de la théorie de la complexité pour y rattacher ce débat philosophique sachant que cette théorie confronte, derrière la question d apparence technique de logique formelle «P vs. NP», via son problème de Turing sous-jacent, les statuts de la res extensa et de la réalité formelle. L examen synthétique de Ziegler a déjà été mentionné tandis que [21] puis [22] prétendent résoudre la différence de statut physique et aussi bien ontologique entre ces deux types de réalité. Pour en revenir à leur application dans le processus Discinnet exposé dans le présent papier, observons la différence entre un cas théorique tel que représenté sur la figure 1, celui qui s actualise sur la figure 2 et l exemple présenté sur la figure 4, exprimant une progression faite de rétroactions courtes et gérées par opposition aux cycles longs du processus appelé PCM (Pairs Citations Mesure) pourtant porteurs d une connaissance diffuse à ne pas sous-estimer. En figure 1 des modèles se confrontent avant tout sur des prédictions non encore expérimentés, susceptibles d être mesurées sur une grande diversité d axes et de plages de validité. Ils pourraient être chacun décrits avec l un de leurs axes différent de ceux de tous les autres ou n en être tous, selon certains axes pertinents pour leurs auteurs, qu au même stade d expérience encore à concevoir (quart de camembert). Cependant des regroupements selon certains axes et fonctions pertinents pour leurs observateurs ou pour leur communauté, telle que des industriels, peuvent y discerner certaines enveloppes ou formes communes.

A l autre bout du processus, c est à dire dans l exemple de la figure 4 et malgré ses limites dans le présent papier ce cas étant lui-même encore théorique ce qui était forme théorique est devenu forme pratique, en l occurrence des protocoles qui se comparent déjà entre eux comme procédés compétitifs. C'est-à-dire que ce qui était exposé comme effet théorique, dont les mesures résultent de simulations, est devenu effet particulier produit. Par exemple chacun des 33 cas représentés figure 4 est l une des ces instances technologiques, de ces particularités, telles que des particules. A partir du cadre introduit en [21], [22] et [15] a été proposé le canevas de représentation suivant : {n N ; L Σ(n) } L 0 (1) Où L correspond à un langage ou problème formel en théorie de la complexité [32, 33], Σ(n) signifie la complexité polynomiale Σ p n d ordre n [23]. {n N; S Σ(n )} S 0 (2) Où S n correspond à d n, n ou δ n, comme opérateur de différence discrète ou continue, donc de mesure ou tout simplement opérateur car comme résumé par Madore [25] un espace vectoriel «peut être défini comme dérivation de l algèbre C(V).» L exponentiation, ici mise en relation avec le produit vectoriel ( wedge ), implique un passage, selon la formule de Taylor, par l infini de la machine de Turing pour viser la dimension dite PSPACE, qui n est ainsi pas polynomiale (non-p). Les niveaux correspondant d espace-temps peuvent être déclinés de la même façon : {n N ; A Σ(n) } A 0 (3) {n N ; N Σ(n) } N 0 (4) Reprenant de nouveau le formalisme (A, L, S, N) suggéré dans [21] avec A pour l ensemble des dimensions de type temps et N pour le type espace dans une étude sur le concept de dimension en physique par exemple (τ, θ, δ, ρ) en coordonnées polaires mais la question du fondement de la physique de la théorie de la complexité reprend de l importance après des décennies formelles [31]. Ces notations provisoires ont ici pour objectif d évoquer, à titre encore de conjecture, l une des hypothèses intégrées dans le projet de recherche Discinnet et reposant sur des travaux de recherche préalables mais visant notamment à tester l hypothèse forte de Chaitin [26] sur les modèles théoriques en général : «une théorie peut être vue comme un programme informatique permettant de calculer des observations.» En effet il est courant en physique et même épistémologie de la physique, voire générale, au sens de philosophie des sciences, compte tenu de la place qu y occupent les sciences physiques, d adopter comme perspective de décrire formellement des phénomènes comme événements ponctuels dans l espace-temps. C est le caractère particulier de ce choix que [21] visait à questionner, sans que ceci signifie qu il faille pourtant souscrire a priori à l affirmation de Chaitin.

En effet le système de Turing correspond au choix très particulier d une seule linéarité spatiale, celle des cases aptes au déplacement de la machine d un cran vers la droit ou vers la gauche, dans une logique discrète même si cette machine comprend une hypothèse de longueur infinie : elle reste de cardinal ℵ 0. Tandis que le canevas exposé ci-dessus permet une échelle de complexité, mais aussi de dynamisme, jusqu au cardinal ℵ 1, voire plus si l on va vers l hypothèse du continu généralisé. On en déduit qu il n y a pas de différence ontologique radicale entre découverte et invention, tout en restant dans un cadre accueillant des perspectives aussi bien universalistes ou idéalistes, au sens du platonisme, que constructivistes ou déjà empiristes. Chaque perspective y correspond en effet à une combinaison parmi la multiplicité permise par le canevas exposé ci-dessus, les plus idéalistes étant des niveaux les plus élevés en forme, donc L Σ(n) avec n élevé, les plus évolutifs étant de S n plus importants. L application au positionnement épistémologique du processus Discinnet de ce canevas, déclaré réaliste, reflétant différents niveaux de qu on appelle la nature tout en en faisant partie, se présente alors comme suit : par rapport au projet de Chaitin, il s agit de se situer sur une échelle de complexité entre l univers discret envisagé par [27] et reflété par Turing, avec cependant sa longueur de bande infinie, et une réalité plus complexe à commencer par un U(1) déjà continu ou encore les divergences, certes typiquement non quantiques, éliminées par la renormalisation. C est ce qui amène Aaronson [31] à présenter sa propre réfutation de l affirmation de [34] sur la capacité d un système à base de bulles de savon, en l occurrence, à affirmer que «P = NP», allant ainsi dans le sens de Chaitin, voire de Zizzi, quand l inverse est ici suggéré : il doit être possible de trouver dans la nature les niveaux de complexité correspondant à la hiérarchie polynomiale [33]. Ce ne seraient alors plus les théories qui seraient vues comme programmes informatiques réduits à la puissance limitée de l ordinateur, machine de Turing pour calculer, difficilement, des observations, mais la complexité de la nature reflétée dans des types d ordinateurs de niveaux NP. L hypothèse de [15] relie cet N à la gamme S n, c'est-à-dire à des niveaux de différenciation allant de la différence discrète unitaire qu est le décalage d une case, existentiel, à des différences comportant des infinis, tels que l exponentiation, comme impliqué d ailleurs par la définition habituelle de NP, à savoir Σ p n+1 = NP^Σ p n, dans une série partant du niveau polynomial discret Σ p 0 =P et de NP = Σ p 1. Autrement dit le N du Non-deterministic est déjà impliqué par l exponentiation ^, impliquant ce niveau de prise de différence en faisant appel à cette échelle de dimension S du changement. Ce qui nécessite de sortir de la linéarité du traitement informatique de formes élémentaires, qu elles soient appelées bits ou qbits. Il restera à étudier la façon dont se font des changements de niveau de forme, en notant qu il ne nous semble pas permis d en manier plus de trois à la fois. Pour ce qui concerne le processus Discinnet et ce qui le conduit à vouloir tester l hypothèse de Chaitin il semble désormais envisageable de la compléter comme suit : «Une théorie peut être vue comme un programme informatique au sens élargi de tous les niveaux de complexité atteignables, selon une diversité d oracles, permettant de calculer des observations. Il est alors possible d affirmer que la théorie s y actualise ou réalise.» Ceci ne résoudra pas la question, qui semble de façon croissante au cœur des débats de la théorie de la complexité et plus largement des computer sciences, de l accessibilité physique de ces types d algorithmes et d ordinateurs. On en mesure toute la difficulté avec les projets d ordinateurs quantiques. Ainsi que celle d autres notions de cette théorie, comme celle de l oracle, qui semble nécessaire en théorie de la complexité pour obtenir pratiquement cette exponentiation et ainsi passer de Σ p n à Σ p n+1. C'est-à-dire l obtention pratique d une enveloppe, i.e. d un niveau de forme supérieur.

Or quel est cet oracle? Il correspond typiquement à l introduction, en sciences, d une nouvelle théorie dont seront déduites, par dérivation ou réduction vers des formes moins complexes et/ou par intégration avec d autres, diverses applications et protocoles de vérification expérimentale. Meeks [34] expose la différence de principe entre le rôle de l oracle A et celui de la machine de Turing non-déterministe dans son examen de P A = NP. Or c est bien le même A, dont le type a donc été inventé ou découvert par la théorie de la complexité dès 1975 (BGS, [39]), que nous associons physiquement au type de dimension A exposé page précédente tandis que N a été associé au type désigné par S, faculté de spontanéité supposée par la physique des particules et objectivée dans le processus OR de Penrose. En effet cet oracle, défini dans cette théorie par sa capacité à répondre instantanément à une question de la machine de Turing, donc connaissant par avance un ensemble de réponses préétablies au lieu de devoir les recalculer, a le rôle attendu d une théorie scientifique ou plus exactement d un auteur prédisant les résultats attendus d une expérience où celle-ci, dont il est l interprète, sera projetée. Et ce qui est en question dans «P vs. NP», donc au cœur de la théorie de l information et plus généralement des mathématiques appliquées, c est bien le stockage de réponses correspondant à des fonctions susceptibles d être continues. Oracle de capacité divergente comme le processus de l intégrale des chemins de Feynman s y est longuement confronté [16] avant «renormalisation» en physique : dire qu une «théorie est un programme informatique au sens élargi» c est donc introduire en épistémologie les artefacts du non-déterminisme (N ou S selon les formalismes utilisés) et de l oracle (A) introduits par la théorie de la complexité en théorie de l information y compris dans la diversité des oracles, par laquelle nous pouvons envisager de décliner celle des disciplines possibles. Ceci constituant le cœur d une réponse possible au problème P vs. NP en affirmant P NP et surtout en exposant, de façon résumée ci-dessus, la nature de leur différence la plus radicale : implication du type de dimension S sous-jacent au N non-déterministe de NP et conjointement du type de dimension A, potentiellement porteur de la capacité sémantique comme précisé dans [15], en fonction de la cardinalité considérée (permettant notamment l exponentiation), associés à une logique L pour la faire passer d un niveau polynomial à un niveau d ordre supérieur. Sachant que L est déjà associé à N, c'est-à-dire la dimension spatiale, dans la machine de Turing. Bien sûr dans la res extensa N Σ(n), c'est-à-dire dans le protocole réalisé puis dans sa réplication dans des prototypes et dans des séries, c'est-à-dire dans le passage de modèles formels à des modèles dessinés avec une ou plusieurs dimensions spatiales, longueurs, ces théories sembleront passer à un niveau de réalité supérieur, en fait simplement plus palpable. Notons d ailleurs que la quasi-totalité des problèmes industriels pratiques posés à la théorie de la complexité comme recherche d algorithmes efficaces à partir de réalités dites spatio-temporelles le cas typique étant le trajet optimal du voyageur de commerce ou du transporteur en logistique se répartissent entre Σ p 0 et Σ p 3. Ce qui n empêche pas une orientation spatiale de la hiérarchie de la complexité d être confrontée elle aussi au statut physique de l oracle [35]. Il est intéressant de noter que [39] dénoncent l hypothèse ROH où «les relations structurelles, valides dans presque tous les mondes oracles sont aussi valides dans le cas non relativisé c'est-à-dire le monde réel.» On n a d ailleurs pas vraiment développé dans le présent papier le rôle du temps et de ses différentes échelles de fin propres alors que ses cours sont centraux dans le processus Discinnet comme représenté sur la figure 2. L intégration des divers horizons et des finalités correspondantes est pourtant l une des clés du processus d expérimentation et de la diversité des objectifs qui en découlent, qu il s agisse de remonter dans les niveaux hiérarchiques formels pour ce qui concerne l idéal de connaissance, avec l objectif de l élever le plus possible, ou au contraire d intégrer le maximum de ces niveaux dans des expériences réalisées et répliquées, intégrées en économies, vers l aval, donc dans des niveaux hiérarchiques spatiaux et temporels (ces derniers intégrant notamment les marchés). A titre d exemple sur la figure 4 le temps ne figure plus pour ce qui concerne le stade de l expérimentation puisque toutes ont été réalisées : il ne ré-interviendrait que pour les stades avals de réplication, prenant alors en compte la question centrale des coûts. Par contre les différences de niveaux hiérarchiques formels ont déjà, à

ce stade expérimental et même applicatif, été écrasés au profit de différences spatiales, traduites par la référence surfacique pour tous les procédés décrits et même volumique, non représentée ici, pour une partie d entre eux. Finalement le présent papier soutient que le processus déductif allant de la théorie à l expérience correspond à la projection d un chercheur comme oracle sémantique dans une formulation mathématique correspondant formellement à ce même niveau de complexité infinie mais permettant un écrasement comme démontré par Ko [, via programmation informatique, en descendant vers les plus bas de complexité correspondant notamment aux processus physiques, voire chimiques, puis biologiques, que Discinnet vise à traiter. Pour un oracle de puissance limitée mais bien choisi, noté ci-dessus par A Σ(n), capable de relativiser une interprétation d un système de mesure de niveau de complexité n vers un niveau inférieur, c'est-à-dire formellement mieux prédictible, réduisant un niveau d aléa. 5 Position par rapport à la scientométrie PCM Après la présentation précédente il s agit maintenant de positionner le processus Discinnet par rapport au couplage habituel de «Revue par les Pairs» suivi d éventuelles reprises et Citations elles-mêmes ensuite comptabilisées et Mesurées comme évoqué ci-après sous l acronyme PCM pour Pairs-Citations-Mesure. «D une part, nombre d idées d avenir se trouvent aux interfaces des disciplines établies. Mais dans un système polarisé sur la quantification des publications, travailler sur une interface est une mauvaise stratégie : il n y a pas de revue pour consacrer de tels travaux à l égal de la reconnaissance que peuvent donner les revues établies» note Berry [14] alors que Smolin [8] voit la source de l effet pervers dans le fonctionnement du processus académique américain (entre autres), mais Berry décrit à ce propos plus loin [14] un couplage entre les deux. Il poursuit en notant qu «on parle souvent de décloisonnement entre la recherche et les autres acteurs sociaux. Or travailler en relation avec une demande fait souvent sortir des nomenclatures académiques, et on retombe sur l obstacle précédent. De plus de tels travaux sont peu ou prou appliqués, alors que les revues les mieux classées sont portées aux abstractions.» Il s agit donc de proposer une méthode non seulement favorisant la rencontre interdisciplinaire multidimensionnelle où puissent dialoguer précisément et comparativement du quantitatif et du qualitatif, comme illustré ci-dessus, mais bien de l élargir à la prise en compte possible, vers et depuis l aval, d interactions avec des demandes de façon symétriques aux rétroactions vers les modèles, donc vers l amont et vers les revues disciplinaires. C est ce que le processus Discinnet vise à assurer dans sa phase aval du niveau de positionnement expérimental relatif c comme figuré ci-dessous :

Echantillon de mesure aléatoire Figure 3 : comparaison entre un schéma PCM de contrôle disciplinaire a priori par les pairs avec rétroaction sémantique lente par rapport au processus Discinnet Sur la figure 3 est opposé ce qui pourrait être appelé long chemin de la connaissance, via le processus classique Pairs/lectorats Citations Mesure des citations. Le processus de publication, incontournable, vise une diffusion universelle sémantique, c'est-à-dire en langage naturel. Il a les inconvénients connus de la perte de ce qui est appelé lost science, des papiers soumis et rejetés voire par anticipation insoumis et de la durée et du caractère aléatoire du cheminement dans le lectorat. Le processus Discinnet vise une accélération reposant sur un échange des oracles AΣ(n) de niveau appropriés. Conceptualisé sur 2007-2008 à l aide de [11, 13], il va lui-même entrer dans une phase d expérimentation. Il faudra donc en décrire un protocole expérimental et trouver un échantillon d équipes de recherche prêtes à le tester comme outil de productivité professionnelle. La comparaison s arrête cependant là puisque le processus ici présenté vise des tests de lois de la nature. L expérimentation du processus Discinnet, et son éventuelle généralisation, suppose la motivation coopétitive des équipes de recherche, entre recherche de collaborations, typiquement théoricien-expérimentaliste, et un positionnement compétitif qui n est nouveau en science s il reste compétition de théories à valider plutôt que financière, ce qui n exclut cependant pas la seconde. La première se faisant classiquement sous la sanction des pairs sur leur communauté de chercheurs mais désormais avec irruption de processus tel que Discinnet. La figure 4 montre quelques exemples concrets, quoique chacun avec ses limites propres par rapport au projet Discinnet puisqu il s agit dans les deux cas de comparaison d après publications et non pas de projections compétitives des chercheurs eux-mêmes.

En effet chaque point y correspond alors à une expérience réalisée et sans doute publiée et non pas à ce qui est au cœur du projet Discinnet, à savoir des expériences projetées, voire simplement des résultats prédits, encore en attente de description expérimentale pour les éprouver. C est dans ce contexte seul que le processus Discinnet prend tout son sens, comme outil d abord destiné à permettre aux chercheurs, très en amont, de positionner les progrès anticipés de leurs recherches par rapport à d autres très en amont. Ce qui est d ailleurs l objectif du système de revue par les pairs, destiné à étriller les travaux avant même qu ils s avancent trop vers une expérimentation coûteuse. Mais dans le cas du processus Discinnet avec une possibilité de rétroaction rapide, précise et argumentée alors que les chercheurs peuvent se plaindre de n avoir que trop rarement, en cas de revue par les pairs, le luxe de corrections, commentaires ou réfutations préalables qu il seraient en droit d obtenir. Cet exemple de la Figure 4 est à ce titre à prendre avec d autant plus de précautions qu il correspond à un domaine relativement applicatif. A titre d exemple plus théorique mais non moins actuel on citerait en physique l effet Casimir en notant en particulier la divergence du nombre de publications qui le concerne depuis une dizaine d années par rapport à celui des publications sur le vide quantique, sur lequel il repose pourtant théoriquement. Figure 4 : A gauche exemple d application au cas des batteries à hydrogène à base microbiologique et à droite exemple tiré du rapport de l Institut d Optique, Palaiseau, 2004 [37]