Résumé du cours d Analyse Numérique du Professeur Marco Picasso

Documents pareils
Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Compte rendu des TP matlab

Résolution d équations non linéaires

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

EXERCICE 4 (7 points ) (Commun à tous les candidats)

3 Approximation de solutions d équations

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Chapitre 2 Le problème de l unicité des solutions

Amphi 3: Espaces complets - Applications linéaires continues

Cours d Analyse. Fonctions de plusieurs variables

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Chapitre 7 : Intégration sur un intervalle quelconque

Chp. 4. Minimisation d une fonction d une variable

Première partie. Introduction à la méthodes des différences finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Equations aux Dérivées Partielles

Continuité en un point

Théorème du point fixe - Théorème de l inversion locale

Fonctions de plusieurs variables. Sébastien Tordeux

Cours d analyse numérique SMI-S4

Continuité et dérivabilité d une fonction

Université du Burundi, Faculté des Sciences, Département de Mathématiques, B.P Bujumbura, Burundi.

Commun à tous les candidats

Équations non linéaires

RO04/TI07 - Optimisation non-linéaire

1 Introduction et modèle mathématique

MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Différentiabilité ; Fonctions de plusieurs variables réelles

IV- Equations, inéquations dans R, Systèmes d équations

I. Polynômes de Tchebychev

Analyse Numérique : SMA-SMI S4 Cours, exercices et examens

ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique

Dérivation : cours. Dérivation dans R

Simulation de variables aléatoires

Image d un intervalle par une fonction continue

Résolution de systèmes linéaires par des méthodes directes

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Initiation à la simulation numérique. Eléments d analyse numérique.

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Continuité d une fonction de plusieurs variables

Calcul différentiel. Chapitre Différentiabilité

Méthodes numériques et éléments de programmation

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Polynômes à plusieurs variables. Résultant

Développements limités, équivalents et calculs de limites

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

LES MÉTHODES DE POINT INTÉRIEUR 1

Calcul différentiel sur R n Première partie

MATHS FINANCIERES. Projet OMEGA

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Manuel de validation Fascicule v4.25 : Thermique transitoire des structures volumiques

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CCP PSI Mathématiques 1 : un corrigé

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Licence de Mathématiques 3

aux différences est appelé équation aux différences d ordre n en forme normale.

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

C1 : Fonctions de plusieurs variables

Limites finies en un point

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Fonctions de plusieurs variables

Intégrales doubles et triples - M

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Problème 1 : applications du plan affine

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Licence à distance Chapitre V : Equations différentielles. Méthodes numériques à un pas.

Partie 1 - Séquence 3 Original d une fonction

Suites numériques 4. 1 Autres recettes pour calculer les limites

Calcul fonctionnel holomorphe dans les algèbres de Banach

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Calcul Différentiel. I Fonctions différentiables 3

Fonctions holomorphes

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Dérivation CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Développements limités

Fonctions de plusieurs variables et applications pour l ingénieur

Optimisation des fonctions de plusieurs variables

Simulation numérique d un stockage de déchets nucléaires en site géologique profond

Systèmes de communications numériques 2

Chapitre VI Fonctions de plusieurs variables

Équations non linéaires

Programmes des classes préparatoires aux Grandes Ecoles

Corps des nombres complexes, J Paul Tsasa

Table des matières. Introduction Générale 5

Comparaison de fonctions Développements limités. Chapitre 10

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Chapitre 6. Fonction réelle d une variable réelle

Fonctions de plusieurs variables

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

3. Conditionnement P (B)

Les équations différentielles

Du Premier au Second Degré

Finance, Navier-Stokes, et la calibration

Master IMA - UMPC Paris 6 RDMM - Année Fiche de TP

Quelques contrôle de Première S

Transcription:

Résumé du cours d Analyse Numérique du Professeur Marco Picasso jean-eloi.lombard@epfl.c 19 juillet 2007 Table des matières 1 Problèmes d interpolation 3 2 Dérivation Numérique 3 2.1 Dérivées numériques d ordre 1.................. 3 2.2 Dérivées numériques d ordre supérieur............. 5 3 Intégration Numérique 5 3.1 Généralités............................ 5 3.1.1 Formule du rectangle................... 7 3.1.2 Formule de Gauss-Legendre............... 7 3.1.3 Formule de Simpson................... 8 4 Décomposition de Colesky et LU 8 4.1 Décomposition LU........................ 8 4.1.1 Exemple.......................... 9 4.2 Décomposition LL T....................... 9 4.2.1 Exemple.......................... 10 5 Résolution de systèmes linéaires par des métodes itératives 10 5.1 But................................ 10 5.2 Métode.............................. 10 5.3 Métodes de Jacobi et de Gauss................ 11 5.3.1 Métode de Jacobi.................... 11 5.3.2 Métode de Gauss-Seidel................ 11 1

TABLE DES MATIÈRES 2 6 Équations non-linéaires 12 6.1 Métode de Newton-Rapson.................. 12 6.2 Systèmes non-linéaires...................... 12 7 Équations différentielles 13 7.1 Scémas d Euler......................... 14 7.1.1 Scéma d Euler progressif................ 14 7.1.2 Scéma d Euler rétrograde................ 15 8 Problèmes aux limites unidimensionnels 15 8.1 Métode des différences finies.................. 15 9 Problèmes paraboliques 16 9.1 Présentation du problème.................... 16 9.2 Discrétisation........................... 17 9.3 Intégration numérique...................... 17 9.3.1 Scéma d Euler progressif................ 17 9.3.2 Scéma d Euler rétrograde................ 17 9.4 Convergence............................ 18 10 Problèmes yperboliques 18 10.1 Équation de transport 1D et différence finie.......... 18 10.1.1 Présentation du problème................ 18 10.1.2 Discrétisation....................... 18 10.1.3 Approximation par la métode de différence finie décentrée 18 10.1.4 Condition de stabilité.................. 19 10.2 Équation des ondes 1D...................... 19 10.2.1 Discrétisation....................... 19 10.2.2 Résolution par la métode de différence finie centrée. 19 10.2.3 Stabilité.......................... 19 11 Problèmes de convection-diffusion 20 11.1 Discrétisation........................... 20 11.2 Scéma.............................. 20

1 PROBLÈMES D INTERPOLATION 3 1 Problèmes d interpolation Base de Lagrange La base de Lagrange est donnée par les polynômes : φ j (t) = n k = 0 k j t t k t j t k avec t j des valeurs distinctes données. Polynôme interpollant donné par : Le polynôme interpollant de la fonction f est p(t) = j f(t j )φ j (t) Teoreme 1.1 (Erreur maximale) Soit f une fonction (n+1) fois dérivable sur [a; b]. Si p n (le polynôme interpollant de f) est défini, alors : max f(t) p n(t) t [a;b] 1 2(n + 1) 2 Dérivation Numérique ( b a 2.1 Dérivées numériques d ordre 1 n ) n+1 max t [a;b] f (n+1) (t) Soit f C 1 : R R, x 0 R et > 0. On approxime f (x 0 ) par les trois opérateurs suivants : 1. f (x 0 ) f(x 0+) f(x 0 ) = f(x 0 ) 2. f (x 0 ) f(x 0) f(x 0 ) = f(x 0 ) 3. f (x 0 ) f(x 0+ 2 ) f(x 0 2 ) = δ f(x 0 ) Définition 2.1 (Opérateurs de différence première finie) Lorsque > 0 est donné, les opérateurs, et δ sont appelés opérateurs de différence première respectivement progressive, rétrograde et centrée. Teoreme 2.1 Les opérateurs de différence première, et δ sont linéaires.

2 DÉRIVATION NUMÉRIQUE 4 Teoreme 2.2 Si f C 2 : R R et si x 0 R est fixé et si 0 R + alors : f (x 0 ) f(x 0 + ) f(x 0 ) < C 0 Teoreme 2.3 Si f C 3 : R R, x 0 R fixé et 0 R + donné alors il existe C R + tel que : f (x 0 ) f(x 0 + 2 ) f(x 0 2 ) C2 0 Démonstration Supposons f C 3. Le développement limité de f autour de x 0 est donc donné par : ( f x 0 + ) = f(x 0 ) + 2 2 f (x 0 ) + f (x 0 ) 2 2! 4 + f (ξ) 3 (1) 3! 8 ( f x 0 ) = f(x 0 ) 2 2 f (x 0 ) + f (x 0 ) 2 2! 4 f (η) 3 (2) 3! 8 avec ξ ]x 0, x 0 + 2 [ et η ]x 0 2, x 0[. En soustrayant l équation 1 à l équation 2 et en divisant le résultat par, il vient : f (x 0 ) f(x 0 + 2 ) f(x 0 2 ) = f (ξ) + f (η) 2 2 24 et pour finir, il suffit de poser : C = 1 max f (x) 24 x ]x 0 2,x 0+ 2 [ Définition 2.2 (Erreurs de troncatures) f(x 0 ), f(x 0 ) et δ f(x 0 ) sont les formules de différences finies progressives, rétrogrades et centrées pour l approximation de f (x 0 ). Les différences f (x 0 ) f(x 0 + ) f(x 0 ) f (x 0 ) f(x 0) f(x 0 ) f (x 0 ) f(x 0 + 2 ) f(x 0 2 )

3 INTÉGRATION NUMÉRIQUE 5 sont les erreurs de troncatures. Les deux premières sont d ordre et on dit qu elles sont consistantes à l ordre 1 en, alors que la troisième est de l ordre 2 et consistante à l odre 2 en. Ainsi la formule de différences finies centrées est la plus précise. 2.2 Dérivées numériques d ordre supérieur Définition 2.3 (Opérateurs de différences m finies) Les opérateurs aux différences finies sont généralisés par les définitions récursives suivantes : m f = ( m 1 f) m f = ( m 1 f) δ m f = δ (δ m 1 f) Ainsi l opérateur de différence seconde centrée finie est donné par : δ 2 f(x) = f(x + ) 2f(x) + f(x ) et l approximation de la dérivée seconde est donnée par : f (x 0 ) δ2 f(x 0) 2 = f(x 0 + ) 2f(x 0 ) + f(x 0 ) 2 Teoreme 2.4 Soit m N, f C m+1 : R R, x 0 R et 0 R + alors il existe C R + tel que f m x 0 m f(x 0) m < C 0 f m x 0 m f(x 0) < C 0 m Teoreme 2.5 Soit m N, f C m+2 : R R, x 0 R et 0 R + alors il existe C R + tel que : f m x 0 δm f(x 0) < C2 0 m 3 Intégration Numérique 3.1 Généralités Définition 3.1 (Formule du Trapèze) Si g est une fonction continue sur [-1 ;1], la formule de quadrature M J(g) = ω j g(t j ) j=1

3 INTÉGRATION NUMÉRIQUE 6 est définie par la donnée de M points d intégrations t 1,..., t M et M réels ω 1,..., ω M appelés poids de la formule de quadrature. Définition 3.2 La formule de quadrature J(g) = M ω j g(t j ) j=1 pour calculer numériquement +1 1 p(t)dt est exacte pour les polynomes de degrés r 0 si J(p) = pour tout polynôme p de degré r tm t 1 p(t)dt Teoreme 3.1 Supposons : 1. J(g) = M j=1 ω jg(t j ) exacte pour des polynômes de degré r 2. f une fonction donnée sur [a; b] 3. L (f) la formule composite définie par L (f) = N 1 i=0 x i+1 x i 2 4. le pas d intégration. M ω j f j=1 5. f (r + 1) fois continuement dérivable sur [a; b] ( x i + (x ) i+1 x i )(t j + 1) 2 alors il existe une constante C indépendante de x i telle que b f(x)dx L (f) Cr+1 (3) a Teoreme 3.2 Soit t 1... t M, M points distincts de [ 1; 1] et soit φ 1,..., φ M la base de Lagrange de P M 1 associée à ces M points, alors J(g) = M ω j g(t j ) est exacte pour les polynômes de degré M 1 si et seulement si ω j = 1 1 j=1 φ j (t)dt j = 1,..., M (4)

3 INTÉGRATION NUMÉRIQUE 7 3.1.1 Formule du rectangle Définition 3.3 (Formule du rectangle) Formule à 1 point (t 1 = 0) J(g) = 2g(0) 3.1.2 Formule de Gauss-Legendre Définition 3.4 (Polynôme de Legendre) d M L M (t) = 1 2 M M! dt M (t2 1) M Proposition 3.1 Les M polynômes de Legendre forment une base ortogononale de P M. Proposition 3.2 L M a exactement M racines distinctes dans [ 1; 1]. Ces zéros sont appelés points de Gauss. Définition 3.5 (Formule de Gauss-Legendre) La formule J(g) = M ω j g(t j ) j=1 est la formule de Gauss-Legendre à M points si 1. les points d intégration t 1... t M sont les M solutions du polynôme de Legendre L M. 2. les poids ω j sont défini par : ω j = 1 1 φ j (t)dt j = 1,..., M ou φ 1,..., φ M est la base de Lagrange de P M 1 associé aux M points de Gauss. Proposition 3.3 La formule de Gauss-Legendre à M points est exacte pour les polynomes de degrés r = 2M 1.

4 DÉCOMPOSITION DE CHOLESKY ET LU 8 3.1.3 Formule de Simpson Définition 3.6 (Formule de Simpson) Formule à trois points t 1 = 1, t 2 = 0, t 3 = 1. La base de Lagrange associée à ces trois points est donnée par : φ 1 (t) = t2 t 2 d où, d après l équation 4 : φ 2 (t) = 1 t 2 φ 3 (t) = t2 + t 2 ω 1 = 1 1 φ 1 (t)dt = 1 3 ω 2 = 1 1 φ 2 (t)dt = 4 3 ω 3 = 1 1 φ 3 (t)dt = 1 3 la formule de Simpson s écrit donc : J(g) = 1 3 g( 1) + 4 3 g(0) + 1 3 g(1) Proposition 3.4 La formule est exacte pour des polynômes de degré 3. Proposition 3.5 L erreur est donnée par l équation 3 qui devient : b f(x)dx L (f) C4 a 4 Décomposition de Colesky et LU Définition 4.1 (Matrice régulière) Une matrice est dite régulière si et seulement si elle est inversible. Les deux termes sont équivalents. 4.1 Décomposition LU Teoreme 4.1 Si A est une N N matrice dont toutes les sous-matrices principales (les matrices carrées formée sur la diagonale) sont régulières, alors il existe une décomposition unique A = LU avec L un matrice Lower Triangular et U une matrice Upper Triangular avec que des 1 sur la diagonale. La matrice U est obtenue par l élimination de Gauss.

4 DÉCOMPOSITION DE CHOLESKY ET LU 9 4.1.1 Exemple Soit A Mat(3, 3, R) et cercons sa décomposition LU, on a donc : L = l 11 l 21 l 22 l 31 l 32 l 33 et U = 1 u 12 u 13 1 u 23 1 en effectuant le produit LU il vient : l 11 l 11 + u 12 l 11 u 13 LU = l 21 l 21 u 12 + l 22 l 21 u 13 + l 22 u 23 l 31 l 31 u 21 + l 32 l 31 u 13 + l 32 u 23 + l 33 puis il suffit d identifier avec la matrice A : a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 = 4.2 Décomposition LL T A = LU l 11 l 11 + u 12 l 11 u 13 l 21 l 21 u 12 + l 22 l 21 u 13 + l 22 u 23 l 31 l 31 u 21 + l 32 l 31 u 13 + l 32 u 23 + l 33 Définition 4.2 (Matrice symétrique définie positive) A M at(n, n, R) est dite symétrique définie positive si : 1. A = A T (A est symétrique) 2. y T Ay 0 pour tout y R n 3. y T Ay = 0 si et seulement si y = 0 pour tout y R n Soit A Mat(n, n, R) avec n N. Teoreme 4.2 Si A Mat(n, n, R) est symétrique définie positive alors toutes ses sous-matrices principales sont symétriques définies positives et sont donc régulière. Teoreme 4.3 (de Colesky) Si A est une matrice symétrique définie positive alors il existe une unique matrice triangulaire inférieure à valeurs diagonales positives, notée L, telle que LL T = A.

5 RÉSOLUTION DE SYSTÈMES LINÉAIRES PAR DES MÉTHODES ITÉRATIVES10 4.2.1 Exemple Soit A Mat(3, 3, R), cercons sa décomposition de Colesky. La matrice L à la forme : l 11 L = l 21 l 22 l 31 l 32 l 33 donc L T est donée par : L T = l 11 l 21 l 31 l 22 l 32 l 33 et le produit LL T est donné par : l 2 LL T 11 l 11 l 21 l 11 l 31 = l 21 l 11 l21 2 + l2 22 l 21 l 31 + l 22 l 32 l 11 l 31 l 31 l 21 + l 32 l 22 l31 2 + l2 32 + l2 33 il suffit ensuite d identifier termes à termes avec les éléments de A. 5 Résolution de systèmes linéaires par des métodes itératives 5.1 But Lorsqu il s agit de résoudre un système de N équations à N inconnues de la forme : A x = b (5) il faut utiliser des algoritmes (élimination de Gauss, décomposition LU, ou décomposition de Colesky si la matrice est symétrique définie positive) de complexité o(n 3 ). Il est donc intéressant d approximer les solutions de tels systèmes par des métodes itératives. 5.2 Métode Soit A, K, M Mat(N, N, R) telles que : A = K M (6)

5 RÉSOLUTION DE SYSTÈMES LINÉAIRES PAR DES MÉTHODES ITÉRATIVES11 avec K une matrice régulière, alors l équation 5 devient : x = K 1 M x + K 1 b De cette égalité nous construisons le scéma suivant : 1. coix arbitraire de x 0 2. ittération sur x n+1 = K 1 M x n + K 1 b 5.3 Métodes de Jacobi et de Gauss Soit D la diagonale de la matrice A, F les élèments au dessus de la diagonale et E ceux en dessous, alors : A = D E F 5.3.1 Métode de Jacobi Posons K = D et M = E + F, alors la matrice : J = K 1 M = D 1 (E + F ) est appelée la matrice de Jacobi. Ainsi le scéma devient : 1. coix arbitraire de x 0 2. ittération sur x n+1 = J x n + D 1 b Teoreme 5.1 (Condition de Convergence) Si A et 2D A sont des matrices symétriques définies positives alors la métode de Jacobi est convergente. 5.3.2 Métode de Gauss-Seidel Posons K = D E et M = F, ce qui donne la matrice de Gauss-Seidel définie par : et pour le scéma : 1. coix arbitraire de x 0 G = K 1 M = (D E) 1 F 2. ittération sur (D E) x n+1 = F x n + b Teoreme 5.2 (Condition de convergence) Si A est une matrice symétrique définie positive, alors la métode de Gauss-Seidel est convergente.

6 ÉQUATIONS NON-LINÉAIRES 12 6 Équations non-linéaires Pour cercer un zéro d une fonction f C 1 : R R il faut procéder au scéma numérique suivant : 1. localisation de x 0 solution grossière par une métode grapique 2. construction d une suite x n : N R telle que lim n x n = x avec x solution de f(x) = 0. 6.1 Métode de Newton-Rapson Soit f C 1 : R R admettant x comme solution vérifiant f ( x) 0. Supposons connu x 0 une approximation grossière de la solution x. La métode de Newton-Rapson est définie par la suite : x n+1 = x n f(x n) f (x n ) (7) Teoreme 6.1 Soit : 1. f C 2 : R R 2. x vérifiant f( x) = 0 et f ( x) 0. alors il existe ɛ R + et x 0 R tel que si x 0 x ɛ la suite donnée par la métode de Newton-Rapson 7 converge quadratiquement vers x. Teoreme 6.2 (Condition de convergence d une métode de point fixe) Soit g C 1 : R R et x un point fixe de g (soit g( x) = x). Si g ( x) < 1 Alors il existe ɛ > 0 tel que si x x 0 ɛ alors la suite : x n+1 = g(x n ) converge linéairement lorsque n. 6.2 Systèmes non-linéaires Soit N N et F : R N R N une fonction dont on cerce une solution, c est à dire un vecteur x solution vérifiant f( x solution ) = 0. L équation f( x) = 0 est donc un système non-linéaire (a priori) de N équations à N inconnues. En posant x = (x 1,..., x N ) l équation f( x) = 0 est équivalent à : f( x) = 0 f 1 ( x). f N ( x) = 0. 0

7 ÉQUATIONS DIFFÉRENTIELLES 13 en admettant f 1,..., f N C 1 il est possible de définir la matrice Jacobienne de f associée au point x R N par : f 1 (x) x 1... Df(x) =.. f N (x) x 1... f 1 (x) x N. f N (x) x N La métode de Newton-Rapson est ainsi généarlisée aux systèmes nonlinéaires par : x n+1 = x n Df( x n ) 1 f( x n ) Df( x n )( x n x n+1 ) = f( x n ) Proposition 6.1 Si la solution grossière x 0 est suffisament proce de la solution x solution alors la métode de Newton-Rapson généralisée au systèmes non-linéaire converge quadratiquement. Le scéma numérique donc donnée par : 1. construction du vecteur b = f( x n ) 2. construction de la matrice A = Df( x n ) pour la résolution d un système non-linéaire est 3. résolution du système A y = b (avec y = x n x n+1 ) par : (a) élimination de Gauss (b) décomposition (LU ou LL T ) (c) métode de Gauss-Seidel ou Jacobi 4. on pose x n+1 = x n y 7 Équations différentielles Soit f C 1 : (x, t) R R + R et u 0 R la valeur initiale. Nous cercons une fonction f C 1 : R + R qui satisfait : u(t) = f(u(t), t) t 0 u(0) = u 0 la recerce d une telle fonction est dite problème de Caucy.

7 ÉQUATIONS DIFFÉRENTIELLES 14 Teoreme 7.1 Soit : 1. f C 1 : R R 2. l : R R telle que pour tout x, y R et t R + (f(x, t) f(y, t)) (x y) l(t) x y 2 alors le probème de Caucy admet une solution globale unique. Teoreme 7.2 (Caucy-Lipscitz) Soit : 1. f C 1 : R R 2. L R, x, y R et t R + tel que f(x, t) f(y, t) L x y alors le problème de Caucy admet une solution globale unique. 7.1 Scémas d Euler Dans les deux cas, on approxime : u(t) = u(t n+1) u(t n ) t n+1 t n = u(t n+1) u(t n ) n 7.1.1 Scéma d Euler progressif Le scéma est défini par l approximation suivante du problème de Caucy : u n+1 u n n = f(u n, t n ) n = 0,..., n u 0 = u 0 ce scéma est explicite, c est-à dire qu il permet de calculer directement u n+1 en fonction de u n : u n+1 = u n + n f(u n, t n )

8 PROBLÈMES AUX LIMITES UNIDIMENSIONNELS 15 7.1.2 Scéma d Euler rétrograde Le scéma est défini par : u n+1 u n n = f(u n+1, t n+1 ) n = 0,..., n u 0 = u 0 Ce scéma est implicite car il n est pas possible de calculer directement u n+1 en fonction de u n car : u n+1 n f(u n+1, t n+1 ) = u n 8 Problèmes aux limites unidimensionnels Étant donné deux fonction f, c C 1 : [0; 1] R, on cerce une fonction u C 2 : [0; 1] R vérifiant : u (x) + c(x)u(x) = f(x) 0 < x < 1 u(0) = u(1) = 0 8.1 Métode des différences finies Soit N N le nombre de points de discrétisation et = 1 N+1 le pas d espace. On pose x j = j j = 1,..., N + 1 et on approxime u (x) par : u (x) = δ2 u(x) 2 + O( 2 ) u(x + ) 2u(x) + u(x ) = 2 + O( 2 ) Le problème est donc approximé par la métode de différence finie centrée : u j 1 + 2u j u j+1 2 + c(x j )u j = f(x j ) 1 j N (8) u 0 = u N+1 = 0 Si u est un vecteur de dimension N de composantes u 1,..., u n et si f est le vecteur de dimension N de composantes f(x 1 ),..., f(x n ) et si A est la

9 PROBLÈMES PARABOLIQUES 16 matrice tri-diagonale définie par : 2 + c 1 2 1 A = 1 1 2 + c 2 2 1. 2 1........... 1 1 2 + c n 2 avec c i = c(x i ) alors le problème 8 est équivalent à A u = f. Teoreme 8.1 On suppose : 1. c(x) 0, x [0; 1] 2. u C 4 alors il existe une constante C telle que : max u(x j) u j C 2 1 j N L erreur est donc 4 fois plus petite caque fois que l on double le nombre de points de discrétisation. 9 Problèmes paraboliques 9.1 Présentation du problème Soit : 1. un barreau métallique sur l intervalle [0; L] 2. soit w(x) la température au temps t 0 au point x. 3. soit f(x, t) la puissance par unité de longueur fournie au point x [0; L] au temps t > t 0. 4. ρ R + la densité volumique, c p R + la caleur spécifique et k R + la conductivité termique. 5. alors la température u(x, t) du barreau au point x à l instant t est donné par : ρc p u(x, t) t k 2 u(x, t) x 2 = f(x, t) x ]0; L[, t > 0 (9) u(0, t) = u(l, t) = 0 t > 0 u(x, 0) = w(x) x ]0; L[

9 PROBLÈMES PARABOLIQUES 17 9.2 Discrétisation Discrétisons l intervalle représentant le barreau en posant N N le nombre de points de discrétisation, = 1 N+1 le pas d espace et x i = i avec i = 0,..., N + 1. On a donc u(x, t) u i (t). En posant τ R + le pas de temps et n N on a t n = nτ donc u(t n ) u n. 9.3 Intégration numérique 9.3.1 Scéma d Euler progressif En utilisant le scéma d Euler progressif on a donc : u n+1 u n τ = A u n + f(nτ) n N u 0 = w ce qui, en explicitant u n+1 donne : avec et I la matrice identité. u n+1 = (I τa) u n + τ f(nτ) n N u 0 = w 2 1 A = k. 1..... 2...... 1 1 2 Proposition 9.1 (Condition de stabilité) Le pas temporel τ est limité par la condition de stabilité : τ 2 2k 9.3.2 Scéma d Euler rétrograde En utilisant le scéma d Euler rétrograde, le problème parabolique devient : ( u n+1 = (I τa) 1 u n + τf ) ((n + 1)τ) n N u 0 = w Contrairement au scéma progressif, le scéma rétrograde est stable pour tout pas de temps τ R +.

10 PROBLÈMES HYPERBOLIQUES 18 9.4 Convergence Les deux scémas sont d ordre 1 en temps et 2 en espace. L erreur commise est donc d ordre τ + 2. 10 Problèmes yperboliques 10.1 Équation de transport 1D et différence finie 10.1.1 Présentation du problème Soit f, c C 1 : R R + R. Nous cercons u : R R + vérifiant l équation : u(x, t) t 10.1.2 Discrétisation u(x, t) + c(x, t) = f(x, t) x x R, t > 0 u(x, 0) = w(x) x R Pour approximer le problème utilisons un pas spatial tel que x j = j j = ±1, ±2,... et un pas de temps τ, ce qui donne t n = nτ avec n = 0, 1,.... On a donc u(x, t) u n j. 10.1.3 Approximation par la métode de différence finie décentrée Le scéma numérique de la métode de différence finie décentrée est donnée par : ) ) u n+1 j u ((c n n j j )+ (u n j un j 1 ((c ) n j ) (u n j+1 un j ) + + = f(j, nτ) τ j = 0, ±1, ±2,... et n = 0, 1, 2,... avec : et { (c n j ) + c(j, nτ) si c(j, nτ) > 0 = 0 sinon { (c n j ) c(j, nτ) si c(j, nτ) < 0 = 0 sinon

10 PROBLÈMES HYPERBOLIQUES 19 10.1.4 Condition de stabilité La condition de stabilité sur τ et est donnée par : τ 1 sup x R,t>0 c(x, t) 10.2 Équation des ondes 1D Soit f C 0 : [0; 1] R + R, v, w : [0; 1] R et c R +. Nous cercons une fonction u : [0; 1] R + R telle que : 2 u(x, t) t 2 c 2 2 u(x, t) x 2 = f(x, t) x ]0; 1[, t > 0 u(0, t) = u(1, t) = 0 t 10.2.1 Discrétisation u(x, 0) = w(x) x ]0; 1[ u(x, 0) = v(x) t x ]0; 1[ Pour approximer le problème utilisons un pas spatial tel que x j = j j = ±1, ±2,... et un pas de temps τ, ce qui donne t n = nτ avec n = 0, 1,.... On a donc u(x, t) u n j. 10.2.2 Résolution par la métode de différence finie centrée Suite à une discrétisation en temps et en espace, l équation d onde devient : u n+1 j τ 10.2.3 Stabilité u n+1 = (2I τ 2 c 2 A) u n u n 1 + τ 2 f(nτ) (10) u n j u n 0 = u n N+1 = 0 u 0 = w(x) = v j (x) Teoreme 10.1 Le scéma 10 est stable si la condition suivante est satisfaite : τ c

11 PROBLÈMES DE CONVECTION-DIFFUSION 20 11 Problèmes de convection-diffusion Soit f, c C 0 : [0; 1] R et ɛ R +. Nous cercons une fonction u : [0; 1] R vérifiant : 11.1 Discrétisation ɛu (x) + c(x)u (x) = f(x) x ]0; 1[ (11) u(0) = u(1) = 0 Soit N N et = 1 N+1, on a alors x j = j avec j = 0, 1,..., N + 1 et u j u(x j ). 11.2 Scéma En posant α j [0; 1] il est possible d approcer : u (x j ) α j u j u j 1 + (1 α j ) u j+1 u j qui est une moyenne pondérée de la différence finie rétrograde et progressive. Utilisons donc le scéma numérique décentré suivant pour discrétiser 11 : ɛ 2u j u j+1 u j 1 2 + c(x ( ) j) α j (u j u j 1 ) + (1 α j )(u j+1 u j ) = f(x j ) j = 1,..., N u 0 = u N+1 = 0 De manière à obtenir la meilleur approximation il faut poser : Références α j = 1 2 + 1 2 cot c(x j) 2ɛ ɛ c(x j ) [1] Picasso : Analyse Numérique pour Ingénieurs Presses Polytecniques et Universitaires Romandes (2004)