Phénomènes de synchronisation/désynchronisation pour des modèles de réseaux de neurones structurés avec fragmentation IJM, Université Paris-Diderot. 23 janvier 2014
Plan Introduction: motivations et présentation du modèle Introduction : motivations et présentation du modèle. Etude du cas sans fragmentation Modèle taille finie
Introduction Les neurones sont des cellules nerveuses excitables spécialisées dans la communication intercellulaire. En particulier les neurones assurent la réception des informations, des signaux en provenance de l environnement ou de l intérieur même du corps humain, le traitement des informations, la transmission d informations à d autres neurones ou bien aux cellules musculaires.
Introduction: motivations et pre sentation du mode le Mode le taille finie : cas sans fragmentations Introduction Formation de ve ritables re seaux apparition de phe nome nes de synchronisation de de charges de neurones plus ou moins rythme es avec une fre quence plus ou moins grande jouent un ro le important dans les fonctions motrices, perceptives et cognitives de l e tre humain. Khashayar Pakdaman, Benoı t Perthame, Delphine Salort Phe nome nes de synchronisation/de synchronisation pour des mode les de
Introduction Objectif Etudier d un point de vue théorique, via un nouveau modèle proposé par K. Pakdaman, les mécanismes sous-jacents aux phénomènes de synchronisation/désynchronisation de décharges de neurones en fonction de la force des interconnexions qui lient les neurones entre eux. Plusieurs modèles d EDP classiques existent afin d étudier les phénomènes de synchronisation 1. Le modèle de Wilson-Cowan : porte sur la proportion de neurones excitateurs et inhibiteurs qui déchargent au cours du temps; font intervenir des équations de type intégro-différentielles. 2. Le modèle Integrate and Fire : dynamique décrite à travers le potentiel de membrane des neurones (Brunel, Cáceres, Carillo, Hakim, Perthame, Delarue, Inglis, Rubenthale, Tanré, Dumont...). 3. Les modèles de Kuramoto : oscillateurs couplés entre eux ( Acebron, Bonilla, Bertini, Giacomin, Lucon, Pakdaman, Pellegrin, Perez, Ritort, Spigler...) 4. Le modèle cinétique type Fokker-Planck : dynamique décrite via le potentiel d action et la conductance des neurones (Cáceres, Carrillo, Tao, Rangan, Kovačič, Cai, Perthame, S)... Modèle étudié Dynamique des neurones décrite par le temps écoulé depuis leur dernière décharge. Modèle fait apparaître des équations structurées en âge avec fragmentation.
Modèle choisi Hypothèses sur le réseau Tous les neurones sont excitateurs Ils ont une activité spontanée: même sans stimulation extérieure, les neurones ont une activité qui persiste Les interconnexions entre les neurones sont supposées homogènes : à chaque temps t, tous les neurones sont soumis à la même amplitude de stimulation La dynamique des neurones est décrite via le temps écoulé depuis leur dernière décharge la longueur de leur période réfractaire qui peut varier en fonction de l amplitude de stimulation qu ils reçoivent.
Choix du modèle: Equation structurée en âge avec fragmentation Equation structurée en âge avec fragmentation n(s, t) n(s, t) + + + p(s, N(t))n(s, t) = K (s, u)p(u, N(t))n(u, t)du, t s 0 n(s = 0, t) = 0, + N(t) := p(s, N(t)) n(s, t)ds 0 n(s, t): densité de neurones au temps t telle que le temps écoulé depuis la dernière décharge est s. N(t) : flux de neurones qui déchargent au temps t identifié à l amplitude de stimulation globale p(s, u) permet de mesurer la proportion de neurones d âge s qui déchargent avec une amplitude de stimulation u. K (s, u): mesure positive permettant de donner la proportion de neurones ayant déchargé à l âge u et qui reviennent à l âge s. Equations avec fragmentation beaucoup étudiées: Calvez, Canizo, Caceres, Doumic, Gabriel, Laurençot, Lenuzza, Mischler, Mouthon, Perthame...
Equation sans terme de fragmentation Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Equation donnée par n(s, t) n(s, t) + + p(s, N(t))n(s, t) = 0, t s + n(0, t) = N(t), n 0 (s) 0 avec n 0 1 et n 0 (s) = 1; 0 + N(t) := n(s = 0, t) = p(s, N(t)) n(s, t)ds. 0 Conservation de la masse avec n(s, t) 1 Particularité Pour un choix particulier de p on peut sous certaines conditions se ramener à une équation à retard. Traiter simplement le cas des faibles interconnexions Construire explicitement des solutions périodiques dans le cas de fortes interconnexions.
Si Introduction: motivations et présentation du modèle Réduction à l étude d une équation à retard p(s, u) = I s σ(u), Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 on peut, sous certaines conditions sur σ se ramener à une équation à retard. Proposition Supposons que alors pour tout t 0, on a Si σ m < 1, alors d (σ(n(t)) 1, dt t N(t) + N(s)ds = 1. t σ(n(t)) Il existe un unique N tq (dès que n(s, t) 1) d dt (σ(n(t)) m N = n(s)ds, σ(n) 0 < N < 1, N Lipschitz.
Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Théorème Soit m < 1 avec σ m tel que σ(x) σ + < 1 m N, avec N < 1 l unique état stationnaire de notre équation. Alors, on a dσ(n(t)) < 1 et, avec une dt vitesse exponentielle de convergence lim N(t) = N. t +
Cas des fortes interconnexions Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Approche : Chercher des candidats N(t) qui sont T -périodique. Au lieu de regarder le problème non linéaire, on regarde l équation linéaire { n(s,t) t + n(s,t) s + p ( s, N(t) ) n(s, t) = 0, t R, s 0, n(s = 0, t) = N(t). La question de l existence de solutions périodiques se réduit à trouver des conditions sur N(t) tq le problème linéaire donne une solution pour le problème non linéaire i.e. N(t) = n(s, t)ds σ(n(t)) et n(s, t)ds = 1. 0
Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Théorème Soit σ( ) une fonction décroissante et supposons que la fonction T -périodique N satisfait d dt σ( N(t) ) σ(n(t)) 1, 1 = N(t) + N(t s)ds. 0 Alors, la solution n(s, t) de l équation linéaire est aussi solution de l équation non linéaire On sait trouver de nombreux exemples de solutions périodiques. On ne sait pas classifier l ensemble des σ donnant des solutions périodiques
Exemple Introduction: motivations et présentation du modèle Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0 Exemple le plus simple : Pour α > 0 on définit et on choisit 0 < Nm(α) := 1 2e α 1 2α σ(x) = α ln(x) + ln(np(α)) α < Np(α) := eα 2e α 1 < 1, sur [0, Nm(α)], sur [Nm(α), Np(α)], sur [Np(α), ).
Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0
Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0
Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0
Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0
Simulations numériques. Cas des faibles interconnexions Cas avec fortes interconnexions Simulations numériques avec K = δ s=0
Equation structurée en âge Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 n(s, t) t n(s, t) + + + p(s, N(t))n(s, t) = K (s, u)p(u, N(t))n(u, t)du, s 0 + n(s = 0, t) = 0, N(t) := p(s, N(t)) n(s, t)ds. 0 Hypothèses faites sur K On suppose que pour tout âge u, l ensemble des neurones qui déchargent à cet âge u reviennent tous à un âge antérieur u K (s, u)ds = 1 et K (s, u) 0 si u > s. 0 On suppose que la densité de neurones qui déchargent à l âge u et reviennent à un âge proche de u n est pas trop grand: il existe 0 θ < 1 tel que pour tout u 0, u u sk (s, u)ds θ. 0
Trois exemples typiques de choix de mesure K. Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 K (s, u) = δ s=0 : tous les neurones qui déchargent reviennent à l âge 0 quelque soit l âge où ils ont déchargé. C est le modèle le plus simple. K (s, u) = δ s=f (u) : lorsqu un neurone décharge à l âge u, il revient à un âge s fixé ne dépendant que de u et ceci quelque soit le neurone du réseau. Permet de tenir compte de la fatigue du seuil. K (s, u) non concentrée en un dirac : sur l ensemble des neurones qui déchargent à un certain âge u, tous ne reviennent pas au même âge s mais se répartissent sur toute une tranche d âge.
Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Cas des réseaux faiblement interconnectés (σ petit). Résultat. Lorsque les interconnexions sont suffisamment faibles, les neurones tendent vers un état totalement désynchronisé. Les états totalement désynchronisés correspondent aux états stationnaires de l équation structurée en âge convergence exponentielle en norme L 1 de la solution avec poids vers l état stationnaire si σ L et la période réfractaire sont assez petites. Idée de preuve. Si les interconnections sont suffisamment faibles, on a existence et unicité de l état stationnaire (Krein-Rutman) On montre la convergence exponentielle en norme L 1 de la solution avec poids vers l état stationnaire pour des réseaux sans interconnections (équation linéaire) Par perturbation, on en déduit convergence exponentielle pour des réseaux faiblement interconnectés.
Idée de la preuve. Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Plusieurs méthodes permettent d arriver à la convergence exponentielle vers un état stationnaire dans le cas d équations structurées avec fragmentations (voir par exemple Caniso, Caceres, Mischler). Difficultés. Noyau K qui est peu régulier La fonction p s annule Stratégie. Reprend celle de Laurençot et Perthame Montre d abord un résultat de convergence exponentielle pour x M(t, x) = (n(s, t) A(s))ds. 0 M(t, x) a l avantage de vérifier une équation dont l équation adjointe de l équation stationnaire associée a une valeur propre strictement négative avec un vecteur propre uniformément minoré. On utilise le fait que t M vérifie aussi la même équation que M, ce qui permet de réappliquer le résultat obtenu sur M pour t M et conclure que n converge exponentiellement vers A en norme L 1 avec poids.
Cas des réseaux plus fortement interconnectés. Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Dans le cas général avec fragmentation, on ne sait pas montrer l existence de solutions périodiques. Simulations numériques afin de comparer 2 noyaux K extrêmes : K (s, u) = δ s=0 et K (s, u) = δ s=u/2 Résultats Lorsque K (s, u) = δ s=0 : construction explicite d un très grand nombre de solutions périodiques mettant en évidence l apparition de synchronisations rythmées des décharges des neurones au sein du réseau. Ces solutions sont très instables par rapport au choix de la donnée initiale. Des simulations numériques montrent que ces solutions sont robustes par perturbation des paramètres (si on régularise p, si on rajoute un petit délai..). Lorsque K (s, u) = δ s=u/2 (résultats numériques) des simulations numériques montrent que si la période réfractaire est trop petite, alors la solution tend vers un état stationnaire. Si la période réfractaire est suffisamment grande, les solutions tendent vers une solution périodique qui semble stable.
Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0 Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0
Simulations lorsque K (s, u) = δ s=u/2 Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0
Simulations lorsque K (s, u) = δ s=0 Cas des réseaux faiblement interconnectés (σ petit). Cas des réseaux plus fortement interconnectés. Comparaisons lorsque K (s, u) = δ s=u/2 et K (s, u) = δ s=0
Modèle taille finie. On prend pour amplitude de stimulation X telle que 1 a X (t) = X(t) + N(t). On suppose que l on a un nombre fini de neurones K. Description de la dynamique pour un neurone. On prend un neurone qui reçoit un signal d entrée X. Si le temps s écoulé depuis la dernière décharge est tel que s σ(x) alors p(s, X) = 0, sinon p(s, X) = 1. Si σ(x) > s, la probabilité de décharge du neurone est nulle, sinon elle est donnée par une loi exponentielle de paramètre 1.
Modèle taille finie Description de la dynamique pour un neurone. Tant qu il n y a pas de décharge de neurones X vérifie l équation Au moment de la décharge, au temps t 1 X(v) = X(0)e av. X(t 1 ) = X(0)e at 1 + a/k Pour trouver le temps t 1 On tire un qui vérifie une loi exponentielle de paramètre 1. Soit µ définie par u µ(u) = I [s(0)+v>σ(x(v))] dv. 0 On prend comme temps de décharge du neurone le temps t tel que µ(t) =.
Modèle taille finie
Modèle taille finie