Phénomènes de synchronisation/désynchronisation pour des modèles de. de réseaux de neurones structurés avec fragmentation

Documents pareils
3. Conditionnement P (B)

Quand le bruit est à l origine de comportements périodiques

Probabilités III Introduction à l évaluation d options

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Commun à tous les candidats

I. Polynômes de Tchebychev

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

3ème séance de Mécanique des fluides. Rappels sur les premières séances Aujourd hui : le modèle du fluide parfait. 2 Écoulements potentiels

Chapitre 2 Le problème de l unicité des solutions

Limites finies en un point

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

F411 - Courbes Paramétrées, Polaires

MATHS FINANCIERES. Projet OMEGA

Fonctions de plusieurs variables

Les correcteurs accorderont une importance particulière à la rigueur des raisonnements et aux représentations graphiques demandées.

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

CCP PSI Mathématiques 1 : un corrigé

Circuits RL et RC. Chapitre Inductance

3 Approximation de solutions d équations

Cours d Analyse. Fonctions de plusieurs variables

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Introduction à l analyse numérique : exemple du cloud computing

Finance, Navier-Stokes, et la calibration

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Correction de l examen de la première session


aux différences est appelé équation aux différences d ordre n en forme normale.

ÉVALUATION FORMATIVE. On considère le circuit électrique RC représenté ci-dessous où R et C sont des constantes strictement positives.

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies

Algorithmes pour la planification de mouvements en robotique non-holonome

Cours de Tests paramétriques

Chapitre 7. Circuits Magnétiques et Inductance. 7.1 Introduction Production d un champ magnétique

Programmes des classes préparatoires aux Grandes Ecoles

Le modèle de Black et Scholes

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII

Erreur statique. Chapitre Définition

La fonction exponentielle

14. Introduction aux files d attente

de calibration Master 2: Calibration de modèles: présentation et simulation d

Les atouts et faiblesses des caméras TEP dédiées, TEP corps entier, TEP-CT, TEMP pour la quantification

Table des matières. Introduction Générale 5

TP 7 : oscillateur de torsion

TEPZZ A_T EP A1 (19) (11) EP A1 (12) DEMANDE DE BREVET EUROPEEN. (51) Int Cl.: G07F 7/08 ( ) G06K 19/077 (2006.

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat S Liban juin 2007

Calcul intégral élémentaire en plusieurs variables

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Techniques de Lyapunov en contrôle quantique pour le couplage dipolaire et polarisabilité

Chap 4. La fonction exponentielle Terminale S. Lemme : Si est une fonction dérivable sur R telle que : = et 0! = 1 alors ne s annule pas sur R.

EXERCICE 4 (7 points ) (Commun à tous les candidats)

M1107 : Initiation à la mesure du signal. T_MesSig

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring

Chapitre 1 Régime transitoire dans les systèmes physiques

Continuité et dérivabilité d une fonction

Leçon 01 Exercices d'entraînement

Intégration et probabilités TD1 Espaces mesurés Corrigé

Suites numériques 3. 1 Convergence et limite d une suite

Théorème du point fixe - Théorème de l inversion locale

Correction du Baccalauréat S Amérique du Nord mai 2007

Professeur Eva PEBAY-PEYROULA

Compression Compression par dictionnaires

Texte Agrégation limitée par diffusion interne

Module 7: Chaînes de Markov à temps continu

Value at Risk. CNAM GFN 206 Gestion d actifs et des risques. Grégory Taillard. 27 février & 13 mars 20061

Chp. 4. Minimisation d une fonction d une variable

Amphi 3: Espaces complets - Applications linéaires continues

ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique

Plan. 5 Actualisation. 7 Investissement. 2 Calcul du taux d intérêt 3 Taux équivalent 4 Placement à versements fixes.

Relation entre deux variables : estimation de la corrélation linéaire

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

INTRODUCTION. 1 k 2. k=1

Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Intégration et probabilités TD1 Espaces mesurés

Rupture et plasticité

PRIME D UNE OPTION D ACHAT OU DE VENTE

Chapitre 5 : Flot maximal dans un graphe

Chapitre 6. Réactions nucléaires. 6.1 Généralités Définitions Lois de conservation

Optimisation des fonctions de plusieurs variables

Processus aléatoires avec application en finance

Polynômes à plusieurs variables. Résultant

Travaux dirigés d introduction aux Probabilités

Espérance conditionnelle

Neurologiques gq Centrales EMPR LE NORMANDY GRANVILLE

Image d un intervalle par une fonction continue

Les Conditions aux limites

Moments des variables aléatoires réelles

7. ECONOMIE 7.3. COMMERCE GESTIONNAIRE DE TRES PETITES ENTREPRISES

UNIVERSITE CENTRALE DE TUNIS

Analyse des Systèmes Asservis

Introduction à la théorie des files d'attente. Claude Chaudet

Équation de Langevin avec petites perturbations browniennes ou

Exercice 3 (5 points) A(x) = 1-e -0039' e- 0,039x A '() -'-,..--,-,--,------:-- X = (l_e-0,039x)2

CHAPITRE V. Théorie de l échantillonnage et de la quantification

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Suites numériques 4. 1 Autres recettes pour calculer les limites

Chapitre 4 Le deuxième principe de la thermodynamique

CARACTERISTIQUE D UNE DIODE ET POINT DE FONCTIONNEMENT

Transcription:

Phénomènes de synchronisation/désynchronisation pour des modèles de réseaux de neurones structurés avec fragmentation IJM, Université Paris-Diderot. 23 janvier 2014

Plan Introduction: motivations et présentation du modèle Introduction : motivations et présentation du modèle. Etude du cas sans fragmentation Modèle taille finie

Introduction Les neurones sont des cellules nerveuses excitables spécialisées dans la communication intercellulaire. En particulier les neurones assurent la réception des informations, des signaux en provenance de l environnement ou de l intérieur même du corps humain, le traitement des informations, la transmission d informations à d autres neurones ou bien aux cellules musculaires.

Introduction: motivations et pre sentation du mode le Mode le taille finie : cas sans fragmentations Introduction Formation de ve ritables re seaux apparition de phe nome nes de synchronisation de de charges de neurones plus ou moins rythme es avec une fre quence plus ou moins grande jouent un ro le important dans les fonctions motrices, perceptives et cognitives de l e tre humain. Khashayar Pakdaman, Benoı t Perthame, Delphine Salort Phe nome nes de synchronisation/de synchronisation pour des mode les de

Introduction Objectif Etudier d un point de vue théorique, via un nouveau modèle proposé par K. Pakdaman, les mécanismes sous-jacents aux phénomènes de synchronisation/désynchronisation de décharges de neurones en fonction de la force des interconnexions qui lient les neurones entre eux. Plusieurs modèles d EDP classiques existent afin d étudier les phénomènes de synchronisation 1. Le modèle de Wilson-Cowan : porte sur la proportion de neurones excitateurs et inhibiteurs qui déchargent au cours du temps; font intervenir des équations de type intégro-différentielles. 2. Le modèle Integrate and Fire : dynamique décrite à travers le potentiel de membrane des neurones (Brunel, Cáceres, Carillo, Hakim, Perthame, Delarue, Inglis, Rubenthale, Tanré, Dumont...). 3. Les modèles de Kuramoto : oscillateurs couplés entre eux ( Acebron, Bonilla, Bertini, Giacomin, Lucon, Pakdaman, Pellegrin, Perez, Ritort, Spigler...) 4. Le modèle cinétique type Fokker-Planck : dynamique décrite via le potentiel d action et la conductance des neurones (Cáceres, Carrillo, Tao, Rangan, Kovačič, Cai, Perthame, S)... Modèle étudié Dynamique des neurones décrite par le temps écoulé depuis leur dernière décharge. Modèle fait apparaître des équations structurées en âge avec fragmentation.

Modèle choisi Hypothèses sur le réseau Tous les neurones sont excitateurs Ils ont une activité spontanée: même sans stimulation extérieure, les neurones ont une activité qui persiste Les interconnexions entre les neurones sont supposées homogènes : à chaque temps t, tous les neurones sont soumis à la même amplitude de stimulation La dynamique des neurones est décrite via le temps écoulé depuis leur dernière décharge la longueur de leur période réfractaire qui peut varier en fonction de l amplitude de stimulation qu ils reçoivent.

Choix du modèle: Equation structurée en âge avec fragmentation Equation structurée en âge avec fragmentation n(s, t) n(s, t) + + + p(s, N(t))n(s, t) = K (s, u)p(u, N(t))n(u, t)du, t s 0 n(s = 0, t) = 0, + N(t) := p(s, N(t)) n(s, t)ds 0 n(s, t): densité de neurones au temps t telle que le temps écoulé depuis la dernière décharge est s. N(t) : flux de neurones qui déchargent au temps t identifié à l amplitude de stimulation globale p(s, u) permet de mesurer la proportion de neurones d âge s qui déchargent avec une amplitude de stimulation u. K (s, u): mesure positive permettant de donner la proportion de neurones ayant déchargé à l âge u et qui reviennent à l âge s. Equations avec fragmentation beaucoup étudiées: Calvez, Canizo, Caceres, Doumic, Gabriel, Laurençot, Lenuzza, Mischler, Mouthon, Perthame...

Equation sans terme de fragmentation Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Equation donnée par n(s, t) n(s, t) + + p(s, N(t))n(s, t) = 0, t s + n(0, t) = N(t), n 0 (s) 0 avec n 0 1 et n 0 (s) = 1; 0 + N(t) := n(s = 0, t) = p(s, N(t)) n(s, t)ds. 0 Conservation de la masse avec n(s, t) 1 Particularité Pour un choix particulier de p on peut sous certaines conditions se ramener à une équation à retard. Traiter simplement le cas des faibles interconnexions Construire explicitement des solutions périodiques dans le cas de fortes interconnexions.

Si Introduction: motivations et présentation du modèle Réduction à l étude d une équation à retard p(s, u) = I s σ(u), Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 on peut, sous certaines conditions sur σ se ramener à une équation à retard. Proposition Supposons que alors pour tout t 0, on a Si σ m < 1, alors d (σ(n(t)) 1, dt t N(t) + N(s)ds = 1. t σ(n(t)) Il existe un unique N tq (dès que n(s, t) 1) d dt (σ(n(t)) m N = n(s)ds, σ(n) 0 < N < 1, N Lipschitz.

Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Théorème Soit m < 1 avec σ m tel que σ(x) σ + < 1 m N, avec N < 1 l unique état stationnaire de notre équation. Alors, on a dσ(n(t)) < 1 et, avec une dt vitesse exponentielle de convergence lim N(t) = N. t +

Cas des fortes interconnexions Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Approche : Chercher des candidats N(t) qui sont T -périodique. Au lieu de regarder le problème non linéaire, on regarde l équation linéaire { n(s,t) t + n(s,t) s + p ( s, N(t) ) n(s, t) = 0, t R, s 0, n(s = 0, t) = N(t). La question de l existence de solutions périodiques se réduit à trouver des conditions sur N(t) tq le problème linéaire donne une solution pour le problème non linéaire i.e. N(t) = n(s, t)ds σ(n(t)) et n(s, t)ds = 1. 0

Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Théorème Soit σ( ) une fonction décroissante et supposons que la fonction T -périodique N satisfait d dt σ( N(t) ) σ(n(t)) 1, 1 = N(t) + N(t s)ds. 0 Alors, la solution n(s, t) de l équation linéaire est aussi solution de l équation non linéaire On sait trouver de nombreux exemples de solutions périodiques. On ne sait pas classifier l ensemble des σ donnant des solutions périodiques

Exemple Introduction: motivations et présentation du modèle Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Exemple le plus simple : Pour α > 0 on définit et on choisit 0 < Nm(α) := 1 2e α 1 2α σ(x) = α ln(x) + ln(np(α)) α < Np(α) := eα 2e α 1 < 1, sur [0, Nm(α)], sur [Nm(α), Np(α)], sur [Np(α), ).

Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0

Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0

Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0

Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0

Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0

Equation structurée en âge Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 n(s, t) t n(s, t) + + + p(s, N(t))n(s, t) = K (s, u)p(u, N(t))n(u, t)du, s 0 + n(s = 0, t) = 0, N(t) := p(s, N(t)) n(s, t)ds. 0 Hypothèses faites sur K On suppose que pour tout âge u, l ensemble des neurones qui déchargent à cet âge u reviennent tous à un âge antérieur u K (s, u)ds = 1 et K (s, u) 0 si u > s. 0 On suppose que la densité de neurones qui déchargent à l âge u et reviennent à un âge proche de u n est pas trop grand: il existe 0 θ < 1 tel que pour tout u 0, u u sk (s, u)ds θ. 0

Trois exemples typiques de choix de mesure K. Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 K (s, u) = δ s=0 : tous les neurones qui déchargent reviennent à l âge 0 quelque soit l âge où ils ont déchargé. C est le modèle le plus simple. K (s, u) = δ s=f (u) : lorsqu un neurone décharge à l âge u, il revient à un âge s fixé ne dépendant que de u et ceci quelque soit le neurone du réseau. Permet de tenir compte de la fatigue du seuil. K (s, u) non concentrée en un dirac : sur l ensemble des neurones qui déchargent à un certain âge u, tous ne reviennent pas au même âge s mais se répartissent sur toute une tranche d âge.

Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Cas des réseaux faiblement interconnectés (σ petit). Résultat. Lorsque les interconnexions sont suffisamment faibles, les neurones tendent vers un état totalement désynchronisé. Les états totalement désynchronisés correspondent aux états stationnaires de l équation structurée en âge convergence exponentielle en norme L 1 de la solution avec poids vers l état stationnaire si σ L et la période réfractaire sont assez petites. Idée de preuve. Si les interconnections sont suffisamment faibles, on a existence et unicité de l état stationnaire (Krein-Rutman) On montre la convergence exponentielle en norme L 1 de la solution avec poids vers l état stationnaire pour des réseaux sans interconnections (équation linéaire) Par perturbation, on en déduit convergence exponentielle pour des réseaux faiblement interconnectés.

Idée de la preuve. Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Plusieurs méthodes permettent d arriver à la convergence exponentielle vers un état stationnaire dans le cas d équations structurées avec fragmentations (voir par exemple Caniso, Caceres, Mischler). Difficultés. Noyau K qui est peu régulier La fonction p s annule Stratégie. Reprend celle de Laurençot et Perthame Montre d abord un résultat de convergence exponentielle pour x M(t, x) = (n(s, t) A(s))ds. 0 M(t, x) a l avantage de vérifier une équation dont l équation adjointe de l équation stationnaire associée a une valeur propre strictement négative avec un vecteur propre uniformément minoré. On utilise le fait que t M vérifie aussi la même équation que M, ce qui permet de réappliquer le résultat obtenu sur M pour t M et conclure que n converge exponentiellement vers A en norme L 1 avec poids.

Cas des réseaux plus fortement interconnectés. Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Dans le cas général avec fragmentation, on ne sait pas montrer l existence de solutions périodiques. Simulations numériques afin de comparer 2 noyaux K extrêmes : K (s, u) = δ s=0 et K (s, u) = δ s=u/2 Résultats Lorsque K (s, u) = δ s=0 : construction explicite d un très grand nombre de solutions périodiques mettant en évidence l apparition de synchronisations rythmées des décharges des neurones au sein du réseau. Ces solutions sont très instables par rapport au choix de la donnée initiale. Des simulations numériques montrent que ces solutions sont robustes par perturbation des paramètres (si on régularise p, si on rajoute un petit délai..). Lorsque K (s, u) = δ s=u/2 (résultats numériques) des simulations numériques montrent que si la période réfractaire est trop petite, alors la solution tend vers un état stationnaire. Si la période réfractaire est suffisamment grande, les solutions tendent vers une solution périodique qui semble stable.

Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0

Simulations lorsque K (s, u) = δ s=u/2 Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0

Simulations lorsque K (s, u) = δ s=0 Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0

Modèle taille finie. On prend pour amplitude de stimulation X telle que 1 a X (t) = X(t) + N(t). On suppose que l on a un nombre fini de neurones K. Description de la dynamique pour un neurone. On prend un neurone qui reçoit un signal d entrée X. Si le temps s écoulé depuis la dernière décharge est tel que s σ(x) alors p(s, X) = 0, sinon p(s, X) = 1. Si σ(x) > s, la probabilité de décharge du neurone est nulle, sinon elle est donnée par une loi exponentielle de paramètre 1.

Modèle taille finie Description de la dynamique pour un neurone. Tant qu il n y a pas de décharge de neurones X vérifie l équation Au moment de la décharge, au temps t 1 X(v) = X(0)e av. X(t 1 ) = X(0)e at 1 + a/k Pour trouver le temps t 1 On tire un qui vérifie une loi exponentielle de paramètre 1. Soit µ définie par u µ(u) = I [s(0)+v>σ(x(v))] dv. 0 On prend comme temps de décharge du neurone le temps t tel que µ(t) =.

Modèle taille finie

Modèle taille finie