Résumé du cours d Analyse Numérique du Professeur Marco Picasso jean-eloi.lombard@epfl.c 19 juillet 2007 Table des matières 1 Problèmes d interpolation 3 2 Dérivation Numérique 3 2.1 Dérivées numériques d ordre 1.................. 3 2.2 Dérivées numériques d ordre supérieur............. 5 3 Intégration Numérique 5 3.1 Généralités............................ 5 3.1.1 Formule du rectangle................... 7 3.1.2 Formule de Gauss-Legendre............... 7 3.1.3 Formule de Simpson................... 8 4 Décomposition de Colesky et LU 8 4.1 Décomposition LU........................ 8 4.1.1 Exemple.......................... 9 4.2 Décomposition LL T....................... 9 4.2.1 Exemple.......................... 10 5 Résolution de systèmes linéaires par des métodes itératives 10 5.1 But................................ 10 5.2 Métode.............................. 10 5.3 Métodes de Jacobi et de Gauss................ 11 5.3.1 Métode de Jacobi.................... 11 5.3.2 Métode de Gauss-Seidel................ 11 1
TABLE DES MATIÈRES 2 6 Équations non-linéaires 12 6.1 Métode de Newton-Rapson.................. 12 6.2 Systèmes non-linéaires...................... 12 7 Équations différentielles 13 7.1 Scémas d Euler......................... 14 7.1.1 Scéma d Euler progressif................ 14 7.1.2 Scéma d Euler rétrograde................ 15 8 Problèmes aux limites unidimensionnels 15 8.1 Métode des différences finies.................. 15 9 Problèmes paraboliques 16 9.1 Présentation du problème.................... 16 9.2 Discrétisation........................... 17 9.3 Intégration numérique...................... 17 9.3.1 Scéma d Euler progressif................ 17 9.3.2 Scéma d Euler rétrograde................ 17 9.4 Convergence............................ 18 10 Problèmes yperboliques 18 10.1 Équation de transport 1D et différence finie.......... 18 10.1.1 Présentation du problème................ 18 10.1.2 Discrétisation....................... 18 10.1.3 Approximation par la métode de différence finie décentrée 18 10.1.4 Condition de stabilité.................. 19 10.2 Équation des ondes 1D...................... 19 10.2.1 Discrétisation....................... 19 10.2.2 Résolution par la métode de différence finie centrée. 19 10.2.3 Stabilité.......................... 19 11 Problèmes de convection-diffusion 20 11.1 Discrétisation........................... 20 11.2 Scéma.............................. 20
1 PROBLÈMES D INTERPOLATION 3 1 Problèmes d interpolation Base de Lagrange La base de Lagrange est donnée par les polynômes : φ j (t) = n k = 0 k j t t k t j t k avec t j des valeurs distinctes données. Polynôme interpollant donné par : Le polynôme interpollant de la fonction f est p(t) = j f(t j )φ j (t) Teoreme 1.1 (Erreur maximale) Soit f une fonction (n+1) fois dérivable sur [a; b]. Si p n (le polynôme interpollant de f) est défini, alors : max f(t) p n(t) t [a;b] 1 2(n + 1) 2 Dérivation Numérique ( b a 2.1 Dérivées numériques d ordre 1 n ) n+1 max t [a;b] f (n+1) (t) Soit f C 1 : R R, x 0 R et > 0. On approxime f (x 0 ) par les trois opérateurs suivants : 1. f (x 0 ) f(x 0+) f(x 0 ) = f(x 0 ) 2. f (x 0 ) f(x 0) f(x 0 ) = f(x 0 ) 3. f (x 0 ) f(x 0+ 2 ) f(x 0 2 ) = δ f(x 0 ) Définition 2.1 (Opérateurs de différence première finie) Lorsque > 0 est donné, les opérateurs, et δ sont appelés opérateurs de différence première respectivement progressive, rétrograde et centrée. Teoreme 2.1 Les opérateurs de différence première, et δ sont linéaires.
2 DÉRIVATION NUMÉRIQUE 4 Teoreme 2.2 Si f C 2 : R R et si x 0 R est fixé et si 0 R + alors : f (x 0 ) f(x 0 + ) f(x 0 ) < C 0 Teoreme 2.3 Si f C 3 : R R, x 0 R fixé et 0 R + donné alors il existe C R + tel que : f (x 0 ) f(x 0 + 2 ) f(x 0 2 ) C2 0 Démonstration Supposons f C 3. Le développement limité de f autour de x 0 est donc donné par : ( f x 0 + ) = f(x 0 ) + 2 2 f (x 0 ) + f (x 0 ) 2 2! 4 + f (ξ) 3 (1) 3! 8 ( f x 0 ) = f(x 0 ) 2 2 f (x 0 ) + f (x 0 ) 2 2! 4 f (η) 3 (2) 3! 8 avec ξ ]x 0, x 0 + 2 [ et η ]x 0 2, x 0[. En soustrayant l équation 1 à l équation 2 et en divisant le résultat par, il vient : f (x 0 ) f(x 0 + 2 ) f(x 0 2 ) = f (ξ) + f (η) 2 2 24 et pour finir, il suffit de poser : C = 1 max f (x) 24 x ]x 0 2,x 0+ 2 [ Définition 2.2 (Erreurs de troncatures) f(x 0 ), f(x 0 ) et δ f(x 0 ) sont les formules de différences finies progressives, rétrogrades et centrées pour l approximation de f (x 0 ). Les différences f (x 0 ) f(x 0 + ) f(x 0 ) f (x 0 ) f(x 0) f(x 0 ) f (x 0 ) f(x 0 + 2 ) f(x 0 2 )
3 INTÉGRATION NUMÉRIQUE 5 sont les erreurs de troncatures. Les deux premières sont d ordre et on dit qu elles sont consistantes à l ordre 1 en, alors que la troisième est de l ordre 2 et consistante à l odre 2 en. Ainsi la formule de différences finies centrées est la plus précise. 2.2 Dérivées numériques d ordre supérieur Définition 2.3 (Opérateurs de différences m finies) Les opérateurs aux différences finies sont généralisés par les définitions récursives suivantes : m f = ( m 1 f) m f = ( m 1 f) δ m f = δ (δ m 1 f) Ainsi l opérateur de différence seconde centrée finie est donné par : δ 2 f(x) = f(x + ) 2f(x) + f(x ) et l approximation de la dérivée seconde est donnée par : f (x 0 ) δ2 f(x 0) 2 = f(x 0 + ) 2f(x 0 ) + f(x 0 ) 2 Teoreme 2.4 Soit m N, f C m+1 : R R, x 0 R et 0 R + alors il existe C R + tel que f m x 0 m f(x 0) m < C 0 f m x 0 m f(x 0) < C 0 m Teoreme 2.5 Soit m N, f C m+2 : R R, x 0 R et 0 R + alors il existe C R + tel que : f m x 0 δm f(x 0) < C2 0 m 3 Intégration Numérique 3.1 Généralités Définition 3.1 (Formule du Trapèze) Si g est une fonction continue sur [-1 ;1], la formule de quadrature M J(g) = ω j g(t j ) j=1
3 INTÉGRATION NUMÉRIQUE 6 est définie par la donnée de M points d intégrations t 1,..., t M et M réels ω 1,..., ω M appelés poids de la formule de quadrature. Définition 3.2 La formule de quadrature J(g) = M ω j g(t j ) j=1 pour calculer numériquement +1 1 p(t)dt est exacte pour les polynomes de degrés r 0 si J(p) = pour tout polynôme p de degré r tm t 1 p(t)dt Teoreme 3.1 Supposons : 1. J(g) = M j=1 ω jg(t j ) exacte pour des polynômes de degré r 2. f une fonction donnée sur [a; b] 3. L (f) la formule composite définie par L (f) = N 1 i=0 x i+1 x i 2 4. le pas d intégration. M ω j f j=1 5. f (r + 1) fois continuement dérivable sur [a; b] ( x i + (x ) i+1 x i )(t j + 1) 2 alors il existe une constante C indépendante de x i telle que b f(x)dx L (f) Cr+1 (3) a Teoreme 3.2 Soit t 1... t M, M points distincts de [ 1; 1] et soit φ 1,..., φ M la base de Lagrange de P M 1 associée à ces M points, alors J(g) = M ω j g(t j ) est exacte pour les polynômes de degré M 1 si et seulement si ω j = 1 1 j=1 φ j (t)dt j = 1,..., M (4)
3 INTÉGRATION NUMÉRIQUE 7 3.1.1 Formule du rectangle Définition 3.3 (Formule du rectangle) Formule à 1 point (t 1 = 0) J(g) = 2g(0) 3.1.2 Formule de Gauss-Legendre Définition 3.4 (Polynôme de Legendre) d M L M (t) = 1 2 M M! dt M (t2 1) M Proposition 3.1 Les M polynômes de Legendre forment une base ortogononale de P M. Proposition 3.2 L M a exactement M racines distinctes dans [ 1; 1]. Ces zéros sont appelés points de Gauss. Définition 3.5 (Formule de Gauss-Legendre) La formule J(g) = M ω j g(t j ) j=1 est la formule de Gauss-Legendre à M points si 1. les points d intégration t 1... t M sont les M solutions du polynôme de Legendre L M. 2. les poids ω j sont défini par : ω j = 1 1 φ j (t)dt j = 1,..., M ou φ 1,..., φ M est la base de Lagrange de P M 1 associé aux M points de Gauss. Proposition 3.3 La formule de Gauss-Legendre à M points est exacte pour les polynomes de degrés r = 2M 1.
4 DÉCOMPOSITION DE CHOLESKY ET LU 8 3.1.3 Formule de Simpson Définition 3.6 (Formule de Simpson) Formule à trois points t 1 = 1, t 2 = 0, t 3 = 1. La base de Lagrange associée à ces trois points est donnée par : φ 1 (t) = t2 t 2 d où, d après l équation 4 : φ 2 (t) = 1 t 2 φ 3 (t) = t2 + t 2 ω 1 = 1 1 φ 1 (t)dt = 1 3 ω 2 = 1 1 φ 2 (t)dt = 4 3 ω 3 = 1 1 φ 3 (t)dt = 1 3 la formule de Simpson s écrit donc : J(g) = 1 3 g( 1) + 4 3 g(0) + 1 3 g(1) Proposition 3.4 La formule est exacte pour des polynômes de degré 3. Proposition 3.5 L erreur est donnée par l équation 3 qui devient : b f(x)dx L (f) C4 a 4 Décomposition de Colesky et LU Définition 4.1 (Matrice régulière) Une matrice est dite régulière si et seulement si elle est inversible. Les deux termes sont équivalents. 4.1 Décomposition LU Teoreme 4.1 Si A est une N N matrice dont toutes les sous-matrices principales (les matrices carrées formée sur la diagonale) sont régulières, alors il existe une décomposition unique A = LU avec L un matrice Lower Triangular et U une matrice Upper Triangular avec que des 1 sur la diagonale. La matrice U est obtenue par l élimination de Gauss.
4 DÉCOMPOSITION DE CHOLESKY ET LU 9 4.1.1 Exemple Soit A Mat(3, 3, R) et cercons sa décomposition LU, on a donc : L = l 11 l 21 l 22 l 31 l 32 l 33 et U = 1 u 12 u 13 1 u 23 1 en effectuant le produit LU il vient : l 11 l 11 + u 12 l 11 u 13 LU = l 21 l 21 u 12 + l 22 l 21 u 13 + l 22 u 23 l 31 l 31 u 21 + l 32 l 31 u 13 + l 32 u 23 + l 33 puis il suffit d identifier avec la matrice A : a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 = 4.2 Décomposition LL T A = LU l 11 l 11 + u 12 l 11 u 13 l 21 l 21 u 12 + l 22 l 21 u 13 + l 22 u 23 l 31 l 31 u 21 + l 32 l 31 u 13 + l 32 u 23 + l 33 Définition 4.2 (Matrice symétrique définie positive) A M at(n, n, R) est dite symétrique définie positive si : 1. A = A T (A est symétrique) 2. y T Ay 0 pour tout y R n 3. y T Ay = 0 si et seulement si y = 0 pour tout y R n Soit A Mat(n, n, R) avec n N. Teoreme 4.2 Si A Mat(n, n, R) est symétrique définie positive alors toutes ses sous-matrices principales sont symétriques définies positives et sont donc régulière. Teoreme 4.3 (de Colesky) Si A est une matrice symétrique définie positive alors il existe une unique matrice triangulaire inférieure à valeurs diagonales positives, notée L, telle que LL T = A.
5 RÉSOLUTION DE SYSTÈMES LINÉAIRES PAR DES MÉTHODES ITÉRATIVES10 4.2.1 Exemple Soit A Mat(3, 3, R), cercons sa décomposition de Colesky. La matrice L à la forme : l 11 L = l 21 l 22 l 31 l 32 l 33 donc L T est donée par : L T = l 11 l 21 l 31 l 22 l 32 l 33 et le produit LL T est donné par : l 2 LL T 11 l 11 l 21 l 11 l 31 = l 21 l 11 l21 2 + l2 22 l 21 l 31 + l 22 l 32 l 11 l 31 l 31 l 21 + l 32 l 22 l31 2 + l2 32 + l2 33 il suffit ensuite d identifier termes à termes avec les éléments de A. 5 Résolution de systèmes linéaires par des métodes itératives 5.1 But Lorsqu il s agit de résoudre un système de N équations à N inconnues de la forme : A x = b (5) il faut utiliser des algoritmes (élimination de Gauss, décomposition LU, ou décomposition de Colesky si la matrice est symétrique définie positive) de complexité o(n 3 ). Il est donc intéressant d approximer les solutions de tels systèmes par des métodes itératives. 5.2 Métode Soit A, K, M Mat(N, N, R) telles que : A = K M (6)
5 RÉSOLUTION DE SYSTÈMES LINÉAIRES PAR DES MÉTHODES ITÉRATIVES11 avec K une matrice régulière, alors l équation 5 devient : x = K 1 M x + K 1 b De cette égalité nous construisons le scéma suivant : 1. coix arbitraire de x 0 2. ittération sur x n+1 = K 1 M x n + K 1 b 5.3 Métodes de Jacobi et de Gauss Soit D la diagonale de la matrice A, F les élèments au dessus de la diagonale et E ceux en dessous, alors : A = D E F 5.3.1 Métode de Jacobi Posons K = D et M = E + F, alors la matrice : J = K 1 M = D 1 (E + F ) est appelée la matrice de Jacobi. Ainsi le scéma devient : 1. coix arbitraire de x 0 2. ittération sur x n+1 = J x n + D 1 b Teoreme 5.1 (Condition de Convergence) Si A et 2D A sont des matrices symétriques définies positives alors la métode de Jacobi est convergente. 5.3.2 Métode de Gauss-Seidel Posons K = D E et M = F, ce qui donne la matrice de Gauss-Seidel définie par : et pour le scéma : 1. coix arbitraire de x 0 G = K 1 M = (D E) 1 F 2. ittération sur (D E) x n+1 = F x n + b Teoreme 5.2 (Condition de convergence) Si A est une matrice symétrique définie positive, alors la métode de Gauss-Seidel est convergente.
6 ÉQUATIONS NON-LINÉAIRES 12 6 Équations non-linéaires Pour cercer un zéro d une fonction f C 1 : R R il faut procéder au scéma numérique suivant : 1. localisation de x 0 solution grossière par une métode grapique 2. construction d une suite x n : N R telle que lim n x n = x avec x solution de f(x) = 0. 6.1 Métode de Newton-Rapson Soit f C 1 : R R admettant x comme solution vérifiant f ( x) 0. Supposons connu x 0 une approximation grossière de la solution x. La métode de Newton-Rapson est définie par la suite : x n+1 = x n f(x n) f (x n ) (7) Teoreme 6.1 Soit : 1. f C 2 : R R 2. x vérifiant f( x) = 0 et f ( x) 0. alors il existe ɛ R + et x 0 R tel que si x 0 x ɛ la suite donnée par la métode de Newton-Rapson 7 converge quadratiquement vers x. Teoreme 6.2 (Condition de convergence d une métode de point fixe) Soit g C 1 : R R et x un point fixe de g (soit g( x) = x). Si g ( x) < 1 Alors il existe ɛ > 0 tel que si x x 0 ɛ alors la suite : x n+1 = g(x n ) converge linéairement lorsque n. 6.2 Systèmes non-linéaires Soit N N et F : R N R N une fonction dont on cerce une solution, c est à dire un vecteur x solution vérifiant f( x solution ) = 0. L équation f( x) = 0 est donc un système non-linéaire (a priori) de N équations à N inconnues. En posant x = (x 1,..., x N ) l équation f( x) = 0 est équivalent à : f( x) = 0 f 1 ( x). f N ( x) = 0. 0
7 ÉQUATIONS DIFFÉRENTIELLES 13 en admettant f 1,..., f N C 1 il est possible de définir la matrice Jacobienne de f associée au point x R N par : f 1 (x) x 1... Df(x) =.. f N (x) x 1... f 1 (x) x N. f N (x) x N La métode de Newton-Rapson est ainsi généarlisée aux systèmes nonlinéaires par : x n+1 = x n Df( x n ) 1 f( x n ) Df( x n )( x n x n+1 ) = f( x n ) Proposition 6.1 Si la solution grossière x 0 est suffisament proce de la solution x solution alors la métode de Newton-Rapson généralisée au systèmes non-linéaire converge quadratiquement. Le scéma numérique donc donnée par : 1. construction du vecteur b = f( x n ) 2. construction de la matrice A = Df( x n ) pour la résolution d un système non-linéaire est 3. résolution du système A y = b (avec y = x n x n+1 ) par : (a) élimination de Gauss (b) décomposition (LU ou LL T ) (c) métode de Gauss-Seidel ou Jacobi 4. on pose x n+1 = x n y 7 Équations différentielles Soit f C 1 : (x, t) R R + R et u 0 R la valeur initiale. Nous cercons une fonction f C 1 : R + R qui satisfait : u(t) = f(u(t), t) t 0 u(0) = u 0 la recerce d une telle fonction est dite problème de Caucy.
7 ÉQUATIONS DIFFÉRENTIELLES 14 Teoreme 7.1 Soit : 1. f C 1 : R R 2. l : R R telle que pour tout x, y R et t R + (f(x, t) f(y, t)) (x y) l(t) x y 2 alors le probème de Caucy admet une solution globale unique. Teoreme 7.2 (Caucy-Lipscitz) Soit : 1. f C 1 : R R 2. L R, x, y R et t R + tel que f(x, t) f(y, t) L x y alors le problème de Caucy admet une solution globale unique. 7.1 Scémas d Euler Dans les deux cas, on approxime : u(t) = u(t n+1) u(t n ) t n+1 t n = u(t n+1) u(t n ) n 7.1.1 Scéma d Euler progressif Le scéma est défini par l approximation suivante du problème de Caucy : u n+1 u n n = f(u n, t n ) n = 0,..., n u 0 = u 0 ce scéma est explicite, c est-à dire qu il permet de calculer directement u n+1 en fonction de u n : u n+1 = u n + n f(u n, t n )
8 PROBLÈMES AUX LIMITES UNIDIMENSIONNELS 15 7.1.2 Scéma d Euler rétrograde Le scéma est défini par : u n+1 u n n = f(u n+1, t n+1 ) n = 0,..., n u 0 = u 0 Ce scéma est implicite car il n est pas possible de calculer directement u n+1 en fonction de u n car : u n+1 n f(u n+1, t n+1 ) = u n 8 Problèmes aux limites unidimensionnels Étant donné deux fonction f, c C 1 : [0; 1] R, on cerce une fonction u C 2 : [0; 1] R vérifiant : u (x) + c(x)u(x) = f(x) 0 < x < 1 u(0) = u(1) = 0 8.1 Métode des différences finies Soit N N le nombre de points de discrétisation et = 1 N+1 le pas d espace. On pose x j = j j = 1,..., N + 1 et on approxime u (x) par : u (x) = δ2 u(x) 2 + O( 2 ) u(x + ) 2u(x) + u(x ) = 2 + O( 2 ) Le problème est donc approximé par la métode de différence finie centrée : u j 1 + 2u j u j+1 2 + c(x j )u j = f(x j ) 1 j N (8) u 0 = u N+1 = 0 Si u est un vecteur de dimension N de composantes u 1,..., u n et si f est le vecteur de dimension N de composantes f(x 1 ),..., f(x n ) et si A est la
9 PROBLÈMES PARABOLIQUES 16 matrice tri-diagonale définie par : 2 + c 1 2 1 A = 1 1 2 + c 2 2 1. 2 1........... 1 1 2 + c n 2 avec c i = c(x i ) alors le problème 8 est équivalent à A u = f. Teoreme 8.1 On suppose : 1. c(x) 0, x [0; 1] 2. u C 4 alors il existe une constante C telle que : max u(x j) u j C 2 1 j N L erreur est donc 4 fois plus petite caque fois que l on double le nombre de points de discrétisation. 9 Problèmes paraboliques 9.1 Présentation du problème Soit : 1. un barreau métallique sur l intervalle [0; L] 2. soit w(x) la température au temps t 0 au point x. 3. soit f(x, t) la puissance par unité de longueur fournie au point x [0; L] au temps t > t 0. 4. ρ R + la densité volumique, c p R + la caleur spécifique et k R + la conductivité termique. 5. alors la température u(x, t) du barreau au point x à l instant t est donné par : ρc p u(x, t) t k 2 u(x, t) x 2 = f(x, t) x ]0; L[, t > 0 (9) u(0, t) = u(l, t) = 0 t > 0 u(x, 0) = w(x) x ]0; L[
9 PROBLÈMES PARABOLIQUES 17 9.2 Discrétisation Discrétisons l intervalle représentant le barreau en posant N N le nombre de points de discrétisation, = 1 N+1 le pas d espace et x i = i avec i = 0,..., N + 1. On a donc u(x, t) u i (t). En posant τ R + le pas de temps et n N on a t n = nτ donc u(t n ) u n. 9.3 Intégration numérique 9.3.1 Scéma d Euler progressif En utilisant le scéma d Euler progressif on a donc : u n+1 u n τ = A u n + f(nτ) n N u 0 = w ce qui, en explicitant u n+1 donne : avec et I la matrice identité. u n+1 = (I τa) u n + τ f(nτ) n N u 0 = w 2 1 A = k. 1..... 2...... 1 1 2 Proposition 9.1 (Condition de stabilité) Le pas temporel τ est limité par la condition de stabilité : τ 2 2k 9.3.2 Scéma d Euler rétrograde En utilisant le scéma d Euler rétrograde, le problème parabolique devient : ( u n+1 = (I τa) 1 u n + τf ) ((n + 1)τ) n N u 0 = w Contrairement au scéma progressif, le scéma rétrograde est stable pour tout pas de temps τ R +.
10 PROBLÈMES HYPERBOLIQUES 18 9.4 Convergence Les deux scémas sont d ordre 1 en temps et 2 en espace. L erreur commise est donc d ordre τ + 2. 10 Problèmes yperboliques 10.1 Équation de transport 1D et différence finie 10.1.1 Présentation du problème Soit f, c C 1 : R R + R. Nous cercons u : R R + vérifiant l équation : u(x, t) t 10.1.2 Discrétisation u(x, t) + c(x, t) = f(x, t) x x R, t > 0 u(x, 0) = w(x) x R Pour approximer le problème utilisons un pas spatial tel que x j = j j = ±1, ±2,... et un pas de temps τ, ce qui donne t n = nτ avec n = 0, 1,.... On a donc u(x, t) u n j. 10.1.3 Approximation par la métode de différence finie décentrée Le scéma numérique de la métode de différence finie décentrée est donnée par : ) ) u n+1 j u ((c n n j j )+ (u n j un j 1 ((c ) n j ) (u n j+1 un j ) + + = f(j, nτ) τ j = 0, ±1, ±2,... et n = 0, 1, 2,... avec : et { (c n j ) + c(j, nτ) si c(j, nτ) > 0 = 0 sinon { (c n j ) c(j, nτ) si c(j, nτ) < 0 = 0 sinon
10 PROBLÈMES HYPERBOLIQUES 19 10.1.4 Condition de stabilité La condition de stabilité sur τ et est donnée par : τ 1 sup x R,t>0 c(x, t) 10.2 Équation des ondes 1D Soit f C 0 : [0; 1] R + R, v, w : [0; 1] R et c R +. Nous cercons une fonction u : [0; 1] R + R telle que : 2 u(x, t) t 2 c 2 2 u(x, t) x 2 = f(x, t) x ]0; 1[, t > 0 u(0, t) = u(1, t) = 0 t 10.2.1 Discrétisation u(x, 0) = w(x) x ]0; 1[ u(x, 0) = v(x) t x ]0; 1[ Pour approximer le problème utilisons un pas spatial tel que x j = j j = ±1, ±2,... et un pas de temps τ, ce qui donne t n = nτ avec n = 0, 1,.... On a donc u(x, t) u n j. 10.2.2 Résolution par la métode de différence finie centrée Suite à une discrétisation en temps et en espace, l équation d onde devient : u n+1 j τ 10.2.3 Stabilité u n+1 = (2I τ 2 c 2 A) u n u n 1 + τ 2 f(nτ) (10) u n j u n 0 = u n N+1 = 0 u 0 = w(x) = v j (x) Teoreme 10.1 Le scéma 10 est stable si la condition suivante est satisfaite : τ c
11 PROBLÈMES DE CONVECTION-DIFFUSION 20 11 Problèmes de convection-diffusion Soit f, c C 0 : [0; 1] R et ɛ R +. Nous cercons une fonction u : [0; 1] R vérifiant : 11.1 Discrétisation ɛu (x) + c(x)u (x) = f(x) x ]0; 1[ (11) u(0) = u(1) = 0 Soit N N et = 1 N+1, on a alors x j = j avec j = 0, 1,..., N + 1 et u j u(x j ). 11.2 Scéma En posant α j [0; 1] il est possible d approcer : u (x j ) α j u j u j 1 + (1 α j ) u j+1 u j qui est une moyenne pondérée de la différence finie rétrograde et progressive. Utilisons donc le scéma numérique décentré suivant pour discrétiser 11 : ɛ 2u j u j+1 u j 1 2 + c(x ( ) j) α j (u j u j 1 ) + (1 α j )(u j+1 u j ) = f(x j ) j = 1,..., N u 0 = u N+1 = 0 De manière à obtenir la meilleur approximation il faut poser : Références α j = 1 2 + 1 2 cot c(x j) 2ɛ ɛ c(x j ) [1] Picasso : Analyse Numérique pour Ingénieurs Presses Polytecniques et Universitaires Romandes (2004)