Cours d Analyse Numérique Matricielle et d Optimisation

Documents pareils
Cours d analyse numérique SMI-S4

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

4.2 Unités d enseignement du M1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

3 Approximation de solutions d équations

Résolution d équations non linéaires

TABLE DES MATIÈRES CHAPITRE I. Les quanta s invitent

Ce cours introduit l'électrodynamique classique. Les chapitres principaux sont :

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Table des matières. I Mise à niveau 11. Préface

1 Introduction et modèle mathématique

Chp. 4. Minimisation d une fonction d une variable

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. address: Nicolas.Thiery@u-psud.fr URL:

Master de Recherche première année. Programme de cours

Calculer avec Sage. Revision : 417 du 1 er juillet 2010

Master IMA - UMPC Paris 6 RDMM - Année Fiche de TP

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

RO04/TI07 - Optimisation non-linéaire

Programmation linéaire

ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab

Corps des nombres complexes, J Paul Tsasa

Programme de la classe de première année MPSI

Programmation linéaire

Catalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands.

de calibration Master 2: Calibration de modèles: présentation et simulation d

Algorithmes pour la planification de mouvements en robotique non-holonome

Calcul différentiel. Chapitre Différentiabilité

Programmation Linéaire - Cours 1

OM 1 Outils mathématiques : fonction de plusieurs variables

Optimisation, traitement d image et éclipse de Soleil

Fonctions de deux variables. Mai 2011

Équations non linéaires

Théorie et codage de l information

Cours de Mécanique du point matériel

Introduction. Mathématiques Quantiques Discrètes

Plan du cours : électricité 1

Introduction à MATLAB R

UNIVERSITE DES ANTILLES et DE LA GUYANE Campus de Fouillole BP Pointe-à-Pitre Cedex CONTRAT LE MASTER NOM DU DOMAINE STS

Résolution de systèmes linéaires par des méthodes directes

LES MÉTHODES DE POINT INTÉRIEUR 1

Sujet 4: Programmation stochastique propriétés de fonction de recours

Raisonnement par récurrence Suites numériques

IV- Equations, inéquations dans R, Systèmes d équations

Les algorithmes de base du graphisme


Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

MATHÉMATIQUES EN PREMIER CYCLE PRÉSENTATION DU PROGRAMME

Coup de Projecteur sur les Réseaux de Neurones

physicien diplômé EPFZ originaire de France présentée acceptée sur proposition Thèse no. 7178

Programmation linéaire et Optimisation. Didier Smets

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

Différentiabilité ; Fonctions de plusieurs variables réelles

FONCTIONS À CROISSANCE RÉGULIÈRE

Économetrie non paramétrique I. Estimation d une densité

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

ENREGISTREMENT COMPTABLE DE LA TVA

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Rapport d'analyse des besoins

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Quantification Scalaire et Prédictive

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

1 Complément sur la projection du nuage des individus

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

Modèles et Méthodes de Réservation

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Méthodes de Simulation

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie

Modélisation aléatoire en fiabilité des logiciels

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

Liste des notes techniques... xxi Liste des encadrés... xxiii Préface à l édition internationale... xxv Préface à l édition francophone...

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

NOTATIONS PRÉLIMINAIRES

Logique binaire. Aujourd'hui, l'algèbre de Boole trouve de nombreuses applications en informatique et dans la conception des circuits électroniques.

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Eléments de Théorie des Graphes et Programmation Linéaire

Optimisation Discrète

Limitations of the Playstation 3 for High Performance Cluster Computing

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Chapitre 2. Matrices

Section «Maturité fédérale» EXAMENS D'ADMISSION Session de février 2014 RÉCAPITULATIFS DES MATIÈRES EXAMINÉES. Formation visée

Etude de fonctions: procédure et exemple

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies

Mises en relief. Information supplémentaire relative au sujet traité. Souligne un point important à ne pas négliger.

Exercice : la frontière des portefeuilles optimaux sans actif certain

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

F411 - Courbes Paramétrées, Polaires

Cours 02 : Problème général de la programmation linéaire

STATIQUE GRAPHIQUE ET STATIQUE ANALYTIQUE

Ordonnancement robuste et décision dans l'incertain

Etude d un cas industriel : Optimisation de la modélisation de paramètre de production

Transcription:

Cours d Analyse Numérique Matricielle et d Optimisation Philippe Destuynder Calcul Scientifique CNAM Paris 292 rue saint Martin 75003 mél: destuynd@cnam.fr 30 janvier 2006 FIG. 1 Machine à calculer de Blaise Pascal

1 Table des matières I Introduction aux méthodes décrites dans ce cours 7 I.1 La résolution des systèmes linéaires..................... 7 I.2 Le calcul des valeurs propres des matrices.................. 9 I.3 L optimisation................................. 12 I.4 Le contrôle des systèmes linéaires...................... 15 II La méthode de Gauß et ses variantes 19 II.1 La factorisation de Gauß........................... 19 II.2 L algorithme de Gauß............................. 23 II.3 Pivotage et astuces de programmation.................... 23 II.4 Décompte des opérations........................... 24 II.5 Cas d une matrice symétrique définie positive................ 24 II.6 Possibilités de méthodes par blocs, aspects opérationnels.......... 26 II.7 Stockage des matrices creuses et bandes................... 27 II.7.1 Stokage en ligne de ciel....................... 27 II.7.2 Stokage Morse............................ 29 II.8 Vectorisation et parallélisation........................ 29 II.9 Conclusions.................................. 30 III Introduction à l analyse matricielle 31 III.1 Normes sur un espace vectoriel........................ 31 III.2 Convergence dans un espace vectoriel.................... 33 III.2.1 Exemples élémentaires de résultats d analyse vectorielle...... 33 III.3 Normes matricielles vectorielles et normes subordonnées.......... 34 III.4 Quelques propriétés de convergence des suites vectorielles et matricielles. 38 III.5 Robustesse et conditionnement des système linéaires............ 41

2 Table des matières IV Méthodes itératives de résolution des sytèmes linéaires 43 IV.1 La méthode de Jacobi............................. 43 IV.2 La méthode du point fixe........................... 44 IV.3 La méthode de relaxation de Gauß-Seidel.................. 46 IV.4 La méthode de surrelaxation......................... 46 V Calcul de valeurs et de vecteurs propres de matrices 49 V.1 La puissance itérée inverse avec shift..................... 49 V.1.1 Description de l algorithme élémentaire............... 50 V.1.2 Auto-ajustement de µ......................... 51 V.1.3 Calcul des autres valeurs et vecteurs propres............. 52 V.1.4 Cas d une matrice M de pondération................ 52 V.2 Itération sur un sous-espace.......................... 53 V.3 La méthode de Jacobi............................. 53 V.4 La méthode de Householder pour tridiagonaliser les matrices........ 53 V.5 La méthode de Lanczos............................ 53 V.6 La méthode de bissection de Givens..................... 53 V.7 La méthode de Françis pour des matrices arbitraires............. 54 V.8 Recherche du noyau d une matrice...................... 54 VI Introduction à l optimisation 55 VI.1 Position du problème............................. 55 VI.2 Equivalence entre le problème d optimisation et un système linéaire.... 56 VI.3 Cas d une matrice symétrique positive mais non définie........... 57 VI.3.1 Procédé de Schmidt pour orthogonalisé............... 57 VI.3.2 Construction d un algorithme de résolution du système linéaire lorsque A est singulière............................ 58 VI.4 L algorithme du gradient........................... 59 VI.5 Convergence de l algorithme du gradient................... 61 VI.5.1 Convergence du gradient à pas optimal............... 61 VI.5.2 Convergence du gradient à pas constant............... 62 VI.6 Le gradient conjugué............................. 63 VI.6.1 Description de l algorithme..................... 63 VI.6.2 Justification des conjuguaisons.................... 64 VI.7 Conclusion.................................. 65

Table des matières 3 VIIOptimisation de fonctions convexes 67 VII.1 Digest sur les fonctions convexes....................... 67 VII.2 Algorithme du gradient à pas constant pour minimiser une fonctionnelle convexe.................................... 71 VII.3 Algorithme de Newton............................ 72 VII.4 Conclusion.................................. 74 VIIIPrise en compte des contraintes linéaires en optimisation quadratique 75 VIII.1Existence et unicité d une solution...................... 75 VIII.2Caractérisation de la solution de VIII.1.................... 76 VIII.2.1Projection orthogonale sur Ker(B)................. 76 VIII.3Construction de la projection P K....................... 79 VIII.4Introduction de la dualité........................... 80 VIII.5Une interprétation du système dual..................... 81 VIII.5.1La méthode de Uzawa........................ 81 VIII.5.2La méthode de Uzawa régularisée.................. 82 VIII.5.3L algorithme de Arrow-Urwicz.................... 84 VIII.6La pénalisation................................ 86 VIII.7Conclusion.................................. 88 IX Un exemple d optimisation de fonctionnelles non différentiables 89 IX.1 Le problème initial.............................. 89 IX.2 Analyse du problème posé lorsque A est définie............... 90 IX.3 Régularisation du problème non dérivable.................. 93 IX.3.1 Calcul de la dérivée Gâteaux de J µ................. 93 IX.3.2 Analyse du problème d optimisation régularisé........... 95 IX.3.3 Etude de l équation de Euler du modèle régularisé......... 95 IX.4 Algorithme de résolution du type gradient.................. 97 IX.5 Une méthode de dualité........................... 99 IX.6 Conclusion.................................. 101 X Optimisation convexe 103 X.1 Existence et unicité de solution........................ 103 X.2 Caractérisation des solutions......................... 104 X.3 Projection sur le convexe K......................... 104 X.4 L algorithme du gradient projeté....................... 105

4 X.5 Introduction de la dualité........................... 106 X.5.1 Formalisme théorique........................ 106 X.5.2 Algorithme de Uzawa........................ 109 X.6 La méthode de pénalisation.......................... 110 X.7 Conclusion.................................. 110 XI Introduction au contrôle optimal 111 XI.1 Un problème modèle............................. 111 XI.2 Quelques résultats mathématiques utiles................... 113 XI.3 Calcul de la dérivée Gâteaux de J...................... 116 XI.4 Relation d optimalité............................. 116 XI.5 Méthodes de calcul du contrôle optimal................... 117 XI.5.1 Algorithme du gradient à pas constant................ 117 XI.5.2 Résolution par la méthode de Ricatti................. 117 XI.6 Passage à la limite lorsque ε 0....................... 118 XI.6.1 Une méthode asymptotique...................... 118 XI.6.2 Résultat de convergence....................... 122 XI.7 Résolution approchée du modèle de contrôle optimal............ 123 XI.8 Conclusions.................................. 124

5 Introduction Qu est-ce que l analyse numérique? Il y a un siècle, les mathématiciens travaillaient à trouver des solutions analytiques aux équations proposées par les physiciens et les mécaniciens. Parfois, la complexité de ces équations était telle, qu ils mirent beaucoup d énergie à simplifier ces modèles afin d en obtenir des plus simples pour lesquels les outils disponibles, en particulier l analyse complexe, pouvait fonctionner. Ces apports considérables ont constitués le fond de roulement de l ingénieur de bureau d étude. Cependant ils se sont vite révélés insuffisants et ce n est qu avec l apparition des premiers calculateurs au milieu du XX ème siècle, qu une autre voie beaucoup plus prometteuse et complémentaire, a vu le jour : c est l analyse numérique. Les premiers problèmes furent obtenus par discrétisation d équations aux dérivées partielles en utilisant la célèbre méthode des différences finies. Cela permit de se ramener à la résolution d un système matriciel. Très vite, les limites de cette méthode sont apparues principalement en raison des géométries complexes, des milieux hétérogènes et des conditions aux limites variées que l ingénieur souhaitait introduire dans ses modèles. L arrivée de la méthode des éléments finis a alors apporté une solution efficace et agréable à tous ces problèmes et a transformé tous les modèles d équations aux dérivées partielles de la physique en systèmes matriciels (linéaires ou non). L objet de ce cours est de donner les principales méthodes dont dispose le scientifique pour résoudre ces systèmes.