Méthodes de Décomposition de Domaine de Type Optimisation

Dimension: px
Commencer à balayer dès la page:

Download "Méthodes de Décomposition de Domaine de Type Optimisation"

Transcription

1 Méthodes de Décomposition de Domaine de Type Optimisation Jonas Koko LIMOS, Université Blaise Pascal CNRS FRE 2239 ISIMA, Campus des Cézeaux BP F63173 Aubière cedex, France 27 février 2007 Table des matières 1 Introduction 1 2 Problème Modèle 2 3 Méthode des multiplicateurs de Lagrange Sensibilité, gradient Algorithme Méthode des moindres carrés Adjoint, sensibilité et gradient Algorithme Discrétisation par éléments nis Le TP Lecture des maillages Stockage et assemblage des matrices Résolution des systèmes linéaires Parallélisation Introduction Les méthodes de décomposition de domaine ont connu un intérêt fulgurant des dernières années, en raison de leur implication évidente dans le calcul parallèle. Le principe est assez simple: on transforme un problème de grande taille en une suite de sous-problèmes découplés, de taille plus petite, qui peuvent être résolus en parallèle. L'ecacité des méthodes de décomposition de domaine est telle que même sur une architecture série, le gain de temps est considérable. 1

2 2 PROBLÈME MODÈLE 2 La littérature sur les méthodes de décomposition de domaine est trop énorme pour être citée ici de manière exhaustive. Le lecteur intéressé pourra consulter [5, 6]. Il existe une conférence annuelle sur les méthodes de décomposition de domaine et certains proceedings peuvent être télé-chargés gratuitement depuis Dans ce cours nous ne traitons que des méthodes de décomposition de domaine basées sur l'optimisation pour une raison assez simple: la convergence ne fait appel qu'à des notions de bases d'optimisation (convexité, coercivité). Ces méthodes on été introduites par [2] et on été largement reprises et améliorées depuis [1, 3, 4]. Les méthodes de décomposition de domaine basées sur l'optimisation sont des méthodes de type décomposition/coordination dont l'étape de coordination consiste à minimiser (ou maximiser) un critère. 2 Problème Modèle Soit Ω un domaine borné de R 2 de bord Γ. On considère le problème de Poisson u = f, dans Ω, (2.1) u = 0, sur Γ. (2.2) Le problème (2.1)-(2.2) admet une solution et une seule. Les méthodes de décomposition de domaine développées à partir du problème modèle (2.1)-(2.2) s'appliquent aussi, moyennant quelques modications mineures, aux problèmes suivants. Problème de Poisson généralisé: avec α 0 et ν > 0 des constantes. αu ν u = f, dans Ω, u = u D, sur Γ, Élasticité linéaire: Ω est un corps solide élastique bidimensionnel, de coecients de Lamé (réels strictement positifs) λ et µ. Le champ de déplacement u = (u 1, u 2 ), vérie σ(u) = f, dans Ω, u = u D, sur Γ, où σ est le tenseur des contraintes s'exerçant dans le solide avec ɛ(u) le tenseur des déformations σ(u) = λtr(ɛ(u))i 2 + 2µɛ(u), ɛ(u) = 1 2 ( u + ut ).

3 2 PROBLÈME MODÈLE 3 Introduisons l'espace vectoriel V = { v H 1 (Ω); v = 0 sur Γ }, et les notations a(u, v) = (f, v) = Ω Ω u v dx, fv dx. La formulation variationnelle du problème (2.1)-(2.2) est alors La fonctionnelle de l'énergie potentielle totale est u V ; a(u, v) = (f, v), v V. (2.3) J(v) = 1 a(v, v) (f, v), (2.4) 2 de sorte que (2.3) est l'équation d'euler-lagrange du problème de minimisation u V ; J(u) J(v), v V. (2.5) La fonctionnelle (2.4) étant convexe coercitive sur V, le problème de minimisation (2.5) (et donc l'équation variationnelle (2.3)) admet une solution unique. Partitionnons le domaine Ω en sous-domaines disjoints Ω 1 et Ω 2 comme illustré sur la Fig. 1. Notons Γ 12 l'interface entre les deux sous-domaines, i.e. Γ = Ω 1 Ω 2. La partition {Ω i } induit une partition {Γ i } sur Γ dénie par Γ 1 = Γ Ω 1, Γ 2 = Γ Ω 2. Ω 1 Γ 12 Ω 2 Fig. 1 Décomposition de Ω en deux sousdomaines disjoints Considérons les problèmes de Poisson découplés suivants (1 i 2) u i = f i, dans Ω i, (2.6) u i = 0, sur Γ i. (2.7)

4 2 PROBLÈME MODÈLE 4 On associe à (2.6)-(2.7), les conditions aux limites à l'interface Γ 12 u 1 = u 2, sur Γ 12, (2.8) u 1 = u 2, sur Γ 12, (2.9) n 1 n 2 où n i est la normale (unitaire) sortante à Ω i en Γ 12. La décomposition (2.6)-(2.9) est consistante, i.e. les problèmes (2.1)-(2.2) et (2.6)-(2.9) ont la même solution. Pour la suite on pose [u 12 ] = (u 1 u 2 ) Γ12, l'erreur de la solution à l'interface. Le principe des méthodes de décomposition de domaine est de résoudre itérativement (2.6)-(2.7) pour satisfaire (2.8)-(2.9) à la convergence. Dans le cas des méthodes de décomposition de domaine basées sur l'optimisation, les itérations se déroulent de manière à satisfaire un critère d'optimisation. Nous nous limitons ici aux méthodes de décomposition de domaine de type moindres carrés ou multiplicateurs de Lagrange. Dans la méthode des moindres carrés le critère à minimiser est la norme de l'erreur à l'interface [u 12 ]. Dans le cas de la méthode des multiplicateurs de Lagrange, c'est le multiplicateur de Lagrange associé à l'erreur à l'interface [u 12 ] qui est calculé à chaque itération. Pour la suite, nous introduisons les sous-espaces vectoriels V i = { v H 1 (Ω i ); v = 0 sur Γ i }, et les notations suivantes a i (v i, w i ) = (v i, w i ) Ωi = (v, w) Γ12 = v i w i dω; v i, w i V i (2.10) Ω i v i w i dω; v i, w i V i, Ω i vw dγ. S On pose u = (u 1, u 2 ) et V = V 1 V 2,. En tenant compte des notations ci-dessus, la fonctionnelle de l'énergie potentielle totale (2.4) devient J(v) = J 1 (v 1 ) + J 2 (v 2 ) où J i (v i ) = 1 2 a i(v i, v i ) (f i, v i ) Ωi, i = 1, 2.

5 3 MÉTHODE DES MULTIPLICATEURS DE LAGRANGE 5 3 Méthode des multiplicateurs de Lagrange Considérons le problème d'optimisation avec contrainte Trouver u = (u 1, u 2 ) V, tel que J 1 (u 1 ) + J 2 (u 2 ) J 1 (v 1 ) + J 2 (v 2 ), (v 1, v 2 ) V, (3.1) [u 12 ] = 0. (3.2) A priori, le problème (3.1)-(3.2) n'est pas équivalent à (2.1)-(2.2). En eet, il manque la condition sur la continuité des dérivées normales à travers Γ 12, i.e. (2.9). Cet obstacle sera levé en utilisant une méthode convenable pour résoudre (3.1)-(3.2). Introduisons le Lagrangien L du problème (3.1)-(3.2), déni sur V L 2 (Γ 12 ) par L(v, µ) = 2 J i (v i ) + (µ, [u 12 ]) Γ12, (3.3) i=1 où µ L 2 (S) est le multiplicateur de Lagrange associé à la contrainte (3.2). Grâce à la convexité, le problème d'optimisation (3.1)-(3.2) est équivalent au problème de point-selle ou encore (u, λ) V L 2 (Γ 12 ); L(u, µ) L(u, λ) L(v, λ), (v, µ) V L 2 (Γ 12 ) max min L(u, λ). λ L 2 (Γ 12 ) u V En annulant les dérivées de L par rapport à u et λ, on obtient les équations qui caractérisent le point-selle (u, λ) de L a i (u i, v i ) = (f i, v i ) Ωi ε ij (λ, v i ) Γ12, v i V i, i = 1, 2 (3.4) (µ, [u 12 ]) Γ12 = 0, µ L 2 (Γ 12 ), (3.5) où ε ij représente le signe du sous-domaine Ω i avec ε ji = ε ij, i, j = 1, 2. Dans notre cas ε 12 = 1 et ε 21 = 1. Le principal avantage des équations (3.4)-(3.5) est que, pour λ connu, l'équation (3.4) est découplée. De l'équation (3.4), on déduit que u i = f i dans Ω i, u i n i = ε ij λ sur Γ 12, de sorte que λ = u 1 n 1 = u 2 n 2.

6 3 MÉTHODE DES MULTIPLICATEURS DE LAGRANGE 6 Le multiplicateur de Lagrange λ assure donc la continuité des dérivées normales à travers Γ 12. Supposons que u = u(λ) soit solution du problème découplé u i (λ) V i ; a i (u i (λ), v) = (f i, v) Ωi ε ij (λ, v) Γ12, v V i, i = 1, 2. (3.6) En posant v = u i (λ) dans (3.6) et en remplaçant dans (3.3), on obtient la fonctionnelle duale J (λ) := L(u(λ), λ) = 1 2 a(u i (λ), u i (λ)) 2 Comme les formes bilinéaires a i sont fortement convexes, alors la fonctionnelle J est fortement concave. Le problème de maximisation i=1 λ L 2 (Γ 12 ); J (λ) J (µ), µ L 2 (Γ 12 ), (3.7) admet donc une solution unique. La méthode de décomposition de domaine proposée dans cette section est basée sur la résolution du problème (3.7) par une méthode itérative de type Uzawa λ k+1 = λ k + t k µ k, (3.8) où µ k est une direction de montée de J, i.e. et t k le pas de déplacement. J (λ k ) λ µ k > Sensibilité, gradient Remarquons d'abord que l'application λ u(λ) est linéaire et continue et on a u(λ + tµ) = u(λ) + tw, (3.9) où w = (w 1, w 2 ) V est solution du problème de sensibilité (découplé) En eet, Si w i est solution de w i V i ; a i (w i, v) = ε ij (µ, v) Γ12, v V i, i = 1, 2. (3.10) a i (u i (λ + tµ) u i (λ), v i ) = ε ij (tµ, v i ) Γ12, v i V i. (3.11) a i (w i, v i ) = ε ij (µ, v i ) Γ12, v i V i, alors u i (λ + tµ) u i (λ) = tw i par unicité de la solution de (3.11) (la forme a i est coercitive sur V i ). Connaissant la variation de u par rapport à λ, on peut calculer la dérivée directionnelle de J, dans la direction µ J (λ) λ µ = 2 a i (u i, w i ). (3.12) i=1

7 3 MÉTHODE DES MULTIPLICATEURS DE LAGRANGE 7 Comme la fonctionnelle J est continûment diérentiable, son gradient J (λ) existe et doit vérier J (λ) µ = ( J (λ), µ) S. (3.13) λ En posant v = u i dans (3.10), on a que c'est-à-dire a i (w i, u i ) = ε ij (µ, u i ) Γ12, v V i, i = 1, 2, 2 a(w i, u i ) = (µ, [u 12 ]) Γ12. (3.14) i=1 En remplaçant (3.14) dans (3.12) et en considérant (3.13), on déduit que γ := J (λ) = [u 12 ], λ L 2 (Γ 12 ), (3.15) avec u = (u 1, u 2 ) V solution de (3.6). Avec le gradient de J, on peut maintenant construire une direction de montée. Comme J est quadratique convexe, la meilleure direction est la direction du gradient conjugué. A chaque itération k, la direction de montée du gradient conjugué est donnée par β k = γk 2 L 2 (Γ 12 ) γ k 1 2, (3.16) L 2 (Γ 12 ) µ k = γ k + β k µ k 1. (3.17) Il ne nous reste plus qu'à calculer le pas t k pour compléter l'itération (3.8). Le pas de déplacement t k est calculé de façon à maximiser la fonction (réelle d'une variable réelle) φ dénie par φ(t) = J (λ k + tµ k ). Comme J est fortement concave, il sut de résoudre l'équation linéaire en t (φ est quadratique) φ (t) = 0, i.e. 0 = φ (t) = λ J (λ k + tµ k ) µ k = ( J (λ k + tµ k ), µ) Γ12. (3.18) En utilisant (3.9) dans (3.15), l'équation (3.18) devient ([u k 12] + t[w k 12], µ k ) Γ12 = 0. Un calcul direct donne t k = ([uk 12 ], µk ) Γ12 ([w k 12 ], µk ) Γ12. (3.19)

8 3 MÉTHODE DES MULTIPLICATEURS DE LAGRANGE Algorithme On remplace la condition de Dirichlet homogène (2.2) par u = u D, sur Γ et on dénit V D i = { v H 1 (Ω i ); v = u D sur Γ i }, V D = V D 1 V D 2. Avec tous les éléments ci-dessus, nous pouvons maintenant donné l'algorithme de décomposition de domaine utilisant les multiplicateurs de Lagrange. Algorithme DDM/ML Itération k = 0. Initialisation: λ 0 donné Calculer u 0 = (u 0 1, u0 2 ) VD solution de Gradient initial : γ 0 = [u 0 12 ] Direction initiale : µ 0 = γ 0 a i (u 0 i, v) = (f i, v) Ωi ε ij (λ 0, v) Γ12, v V i, i = 1, 2. Itération k 0. On suppose λ k, u k, γ k et µ k connus Sensibilité: Calculer w k = (w1 k, wk 2 ) V solution de Pas de déplacement: a i (w k i, v) = ε ij (µ k, v) Γ12, v V i, i = 1, 2 Mise à jour des inconnues: t k = ([uk 12 ], µk ) Γ12 ([w k 12 ], µk ) Γ12 λ k+1 = λ k + t k µ k u k+1 i = u k i + t kw k i, i = 1, 2 Gradient: γ k+1 = [u k+1 12 ] Direction du gradient conjugué: β k = γk+1 2 L 2 (Γ 12 ) γ k 2 L 2 (Γ 12 ) µ k+1 = γ k+1 + β k µ k

9 4 MÉTHODE DES MOINDRES CARRÉS 9 On itère jusqu'à ce que la norme du gradient ait susamment diminué, i.e. γ k L 2 (Γ 12 ) γ 0 L 2 (Γ 12 ) < ε. La parallélisation de la méthode est immédiate, car les sous-problèmes à résoudre à chaque itération sont complètement découplés. 4 Méthode des moindres carrés Considérons maintenant les équations de Poisson découplées suivantes, avec des conditions aux limites mixtes DirichletNeumann, pour i = 1, 2, u i = f dans Ω i, (4.1) u i = 0 sur Γ i, (4.2) u i n i = λ sur Γ 12, (4.3) où n i est la normale unitaire sortante en Γ 12. La formulation variationnelle de (4.1)-(4.3) est alors donnée par u i V i ; a i (u i, v i ) = (f i, v i ) Ωi + ε ij (λ, v i ) Γ12, v i V i, i = 1, 2. (4.4) Un couple (u 1, u 2 ) solution de (4.4), i.e. de (4.1)-(4.3), n'est pas forcément solution du problème d'origine (2.1)-(2.2). Comme u = (u 1, u 2 ) dépend de λ, on choisit donc λ de sorte que u 1 soit le plus proche possible de u 2 à l'interface S. Ce qui revient à choisir λ qui minimise la fonctionnelle F (λ) = 1 [u 12 ] 2 ds. (4.5) 2 Γ 12 Il est clair que la fonctionnelle F admet au moins un minimum, à savoir λ = u n 1 Γ12 = u n 2 Γ12, où u est solution de (2.1)-(2.2). En prenant u 1 = u Ω1 et u 2 = u Ω2, on a bien F (λ) = 0. Mais pour éviter les complications, on ne va choisir que les λ qui sont de norme raisonnable. Donc au lieu de (4.5), on va minimiser la fonctionnelle régularisée 1 F δ (λ) = 1 [u] 2 dγ + δ 2 2 λ 2 L 2 (Γ 12 ), (4.6) S où δ > 0 est le paramètre de régularisation. La coercivité de F δ est évidente, puisqu'on a F δ (λ) δ 2 λ 2 L 2 (Γ 12 ), λ L2 (Γ 12 ). 1 On peut se passer de la régularisation, la démonstration de la coercivité est dans ce cas plus technique

10 4 MÉTHODE DES MOINDRES CARRÉS 10 Grâce à la coercivité, on montre l'existence d'une solution du problème d'optimisation max F δ(λ). (4.7) λ L 2 (Γ 12 ) On montre aussi la convergence de la solution de (4.7) vers la solution de (2.1)-(2.2) lorsque δ 0. La méthode de décomposition de domaine présentée dans cette section est basée sur la résolution de (4.7) par une méthode itérative de descente où µ k est une direction de descente de F δ. 4.1 Adjoint, sensibilité et gradient λ k+1 = λ k + t k µ k, Commençons par remarquer que (4.7) est en fait un problème de minimisation avec contraintes car dans (4.6) le couple u = (u 1, u 2 ) est solution de (4.4), ou encore (4.1)-(4.3). Soit z = (z 1, z 2 ) les multiplicateurs de Lagrange associé aux contraintes (4.4). Le Lagrangien du problème avec contraintes (4.7) est dénie par L(λ, z) = F δ (λ) a 1 (u 1, z 1 ) + (f, z 1 ) Ω1 + (λ, z 1 ) S a 2 (u 2, λ 2 ) + (f, z 2 ) Ω2 (λ, z 2 ) S (4.8) Les conditions nécessaires d'optimalité du premier ordre nous disent qu'une solution du problème avec contraintes (4.7) est (avec les multiplicateurs z 1 et z 2 ) point stationnaire du Lagrangien. En annulant les dérivées directionnelles de L par rapport à z i, on obtient les contraintes (4.4). En annulant les dérivées directionnelles de L par rapport à u i, on obtient le problème adjoint (découplé) z i V i ; a i (z i, v i ) = ε ij ([u 12 ], v i ) Γ12, v i V i, i = 1, 2. (4.9) Le système adjoint (4.9) nous servira plus tard pour calculer le gradient de F δ. Notons que la fonctionnelle (4.6) est convexe et quadratique et que les contraintes sont linéaires. Donc avec un algorithme du gradient conjugué, on doit pouvoir espérer une convergence quadratique. L'application qui à λ associe u i (λ) solution de (4.4) est linéaire et u(λ + tµ) = u(λ) + tw où w = (w 1, w 2 ) est solution du problème de sensibilité (découplé) w i V i ; a i (w i, v i ) = ε ij (µ, v i ) Γ12, v V i, (4.10) La dérivée directionnelle de la fonctionnelle (4.6) est alors donnée par λ F δ(λ) µ = ([u 12 ], [w 12 ]) Γ12 + δ(λ, µ) Γ12, µ L 2 (Γ 12 ), (4.11)

11 4 MÉTHODE DES MOINDRES CARRÉS 11 où [w 12 ] = (w 1 w 2 ) Γ12. Rappelons que le vecteur gradient F δ (λ) doit vérier F δ (λ) λ En posant v i = z i dans (4.10), on obtient µ = ( F δ (λ), µ) Γ12. a i (w i, z i ) = ε ij (µ, z i ) Γ12, i = 1, 2. Ce qui donne, en additionnant les deux équations, où [z 12 ] = (z 1 z 2 ) Γ12. En posant v i = w i dans (4.9), on obtient En sommant ces deux équations, il vient que a 1 (w 1, z 1 ) + a 2 (w 2, z 2 ) = (µ, [z 12 ]) S, (4.12) a i (z i, w i ) = ε ij ([u 12 ], w i ) Γ12, i = 1, 2. a 1 (w 1, z 1 ) + a 2 (w 2, z 2 ) = ([u 12 ], [w 12 ]) Γ12. (4.13) Les formes bilinéaires a 1 et a 2 étant symétriques, (4.12) et (4.13) impliquent que ([u 12 ], [w 12 ]) Γ12 = (µ, [z 12 ]) Γ12, µ L 2 (Γ 12 ). (4.14) Substituant (4.14) dans (4.11), on obtient que D'où on conclut que λ F δ(λ) µ = ([z 12 ] + δλ, µ) Γ12, µ L 2 (Γ 12 ). (4.15) γ := F δ (λ) = [z 12 ] + δλ. (4.16) Comme F δ est quadratique, la direction de descente idéale est la direction du gradient conjugué. A chaque itération k, la direction de descente du gradient conjugué (de Fletcher- Reeves) est donnée par β k = γk+1 2 L 2 (Γ 12 ) γ k 2, L 2 (Γ 12 ) µ k+1 = γ k+1 + β k µ k. La valeur optimale pour le pas de déplacement t k est calculée en minimisant la fonction réelle à variable réelle φ(t) = F δ (λ k + tµ k ), t > 0. (4.17)

12 4 MÉTHODE DES MOINDRES CARRÉS 12 Comme F δ est quadratique, un minimum de (4.17) est l'unique solution de l'équation linéaire φ (t) = λ F δ(λ k + tµ k ) µ k = 0. (4.18) En utilisant (4.11), l'équation (4.18) se réduit à ] [([w 12], k [w12]) k Γ12 + δ(µ k, µ k ) Γ12 t + ([u k 12], [w12]) k Γ12 + δ(λ k, µ k ) Γ12 = 0. On déduit alors que le pas de déplacement optimal est t k = ([uk 12 ], [wk 12 ]) Γ 12 + δ(λ k, µ k ) Γ12 [w12 k ] 2 L 2 (Γ 12 ) +δ λk 2. (4.19) L 2 (Γ 12 ) 4.2 Algorithme Avec les résultats cidessus, nous pouvons maintenant présenter l'algorithme descente pour générer une suite minimisante de (4.6). Algorithme DDM/LS Itération k = 0. Initialisation: λ 0, δ > 0 Calculer u 0 = (u 0 1, u0 2 ) VD solution de a i (u 0 i, v i ) = (f i, v i ) Ωi + ε ij (λ 0, v i ) Γ12, v V i, i = 1, 2. Calculer z 0 = (z1 0, z0 2 ) V solution de Gradient initial : γ 0 = [z 0 12 ] + δλ0 a i (z 0 i, v i ) = ε ij ([u 0 12], v i ) Γ12, v i V i, i = 1, 2. Direction initiale : µ 0 = γ 0 Itération k 0. On suppose λ k, u k, z k γ k et µ k connus Sensibilité: Calculer w k = (w1 k, wk 2 ) V solution de Pas de déplacement: a i (w k i, v i ) = ε ij (µ k, v i ) Γ12, v V i, i = 1, 2. Mise à jour: λ k+1 = λ k + t k µ k u k+1 i = u k i + t kwi k, i = 1, 2. t k = ([uk 12 ], µk ) Γ12 + δ(λ k, µ k ) Γ12 [w12 k ] 2 L 2 (Γ 12 ) +δ µk L 2 (Γ 12 )

13 4 MÉTHODE DES MOINDRES CARRÉS 13 Gradient: Calculer z k = (z1 k, zk 2 ) V solution de γ k+1 = [z k+1 12 ] + δλk+1 a i (z k+1 i, v i ) = ε ij ([u k+1 12 ], v i) Γ12, v V i, i = 1, 2. Direction du gradient conjugué: β k = γk+1 2 L 2 (Γ 12 ) γ k 2 L 2 (Γ 12 ) µ k+1 = γ k+1 + β k µ k On itère jusqu'à ce que la norme du gradient ait susamment diminué, i.e. γ k L 2 (Γ 12 ) γ 0 L 2 (Γ 12 ) On remarque qu'à chaque itération, on résout deux problèmes découplés: le problème adjoint et le problème de sensibilité. La parallélisation de la méthode est donc évidente. 4.3 Discrétisation par éléments nis On ne s'intéresse ici qu'à la méthode des multiplicateurs de Lagrange. On suppose que chaque sous-domaines Ω i est de forme polygonale de sorte qu'il peu être entièrement triangulé. Soit T ih une triangulation de Ω i. On dénit les espaces d'éléments nis < ε. V ih = { v C 0 (Ω i ); v T P 1 (T ) T T ih ; v = 0 sur Γ i } Vi, i = 1, 2, où P 1 (T ) est l'espace des polynômes de degré 1 sur le triangle T. La triangulation T h = T 1h T 2h induit sur Γ 12 une décomposition en segments I h. O dénit alors l'espace d'éléments nis Λ h = { g h C 0 (Γ 12 ); g h I P 1 (I) I I h } L 2 (Γ 12 ). Soit {φ j } les fonctions de bases (globales), linéaires par morceaux, de V ih. Pour u ih V ih on a u ih = φ j (x)u j i, x Ω ih, j où u j i est la valeur de u ih au n ud j du maillage,.e. u j i = u ih(x j ). Pour la formulation algébrique des problèmes discrets, nous introduisons les notations u i = {u ih (x j )} j, g i = {(f i, φ j ) Ωi } j, λ = {λ h (x j )} j, b(λ) = {(λ h, φ j ) Γ12 } j,

14 4 MÉTHODE DES MOINDRES CARRÉS 14 où l'indice i fait référence au sous-domaine. En utilisant la méthode d'intégration des trapèzes à l'interface Γ 12, on obtient b(λ) = Fλ, où F est une matrice diagonale. La discrétisation des formes bilinéaires donne les matrices A i = (a i (φ j, φ k )) j,k, i = 1, 2. Après la prise en compte des conditions aux limites, les matrices A i seront dénies positives. On peut maintenant donner l'algorithme discret. Algorithme DDM/ML Itération k = 0. Initialisation: λ 0 donné Résoudre Gradient initial : γ 0 = [u 0 12 ] A 1 u 0 1 = f 1 Fλ 0, A 2 u 0 2 = f 2 + Fλ 0. Direction initiale : µ 0 = γ 0 Itération k 0. On suppose λ k, u k i, γk et µ k connus Sensibilité: Résoudre Pas de déplacement: A 1 w k 1 = Fµ k, A 2 w k 2 = Fµ k. Mise à jour: λ k+1 = λ k + t k µ k u k+1 i = u k i + t kwi k, i = 1, 2. Gradient: γ k+1 = [u k+1 12 ] Direction du gradient conjugué: β k = (γk+1 ) Fγ k+1 (γ k ) Fγ k µ k+1 = γ k+1 + β k µ k t k = [uk 12 ] Fµ k [w k 12 ] Fµ k.

15 5 LE TP 15 On arrête l'algorithme lorsque (γ k ) T Fγ k (γ 0 ) T Fγ 0 < On note que les matrices utilisées ne varient pas au cours des itérations. On pourra donc faire une factorisation de Choleski, une fois pour toutes, dans l'étape d'initialisation. Les résolutions suivantes se réduisent alors à des simples substitutions. 5 Le TP Soit à résoudre u = f, dans Ω, u = 0, sur Γ. On choisit le domaine Ω = [0, 2] [0, 1] et le second membre est f(x, y) = 2y cos x cos(πy/2) + π(x 2) sin x sin(πy/2) ( ) π y(x 2) sin x cos(πy/2), (x, y) Ω. En principe 2 f est choisie de telle sorte que la solution exacte du problème de Poisson soit u ex = (x 2)y sin x cos(πy/2). Les sous-domaines sont Ω 1 = [0, 1] [0, 1] et Ω 2 = [1, 2] [0, 1]. 5.1 Lecture des maillages Soit ns le nombre de noeuds du maillage, nt le nombre de triangles et ni le nombre de noeuds à l'interface des deux sous-domaines. Les coordonnées des noeuds du maillage sont stockées dans p(1:2,1:ns) et les noeuds des triangles dans t(1:3,1:nt). Un tableau auxiliaire ref(1:ns) contient les références des noeuds, i.e. si ref(i)==0 alors le noeud i est un noeud interne, sinon c'est un noeud du bord. Les segments consécutifs de l'interface sont stockés dans le vecteur itf(1:ni). Alors le bout de code suivant lit un maillage.msh (ici dans le chier sdm1_177.msh). open(unit=1,file='sdm1_177.msh',status='old',action='read') read(1,*) ns,nt,ni allocate(t(3,nt))! allocation tab connectivite allocate(ref(ns))! allocation tab ref des noeuds allocate(p(2,ns))! allocation tab coord. des noeuds do i=1,ns 2 i.e. modulo les erreurs de dérivation

16 5 LE TP 16 read(1,*) p(1,i),p(2,i),ref(i) end do do i=1,nt read(1,*) (t(k,i), k=1,3)! lecture sommets des triangles end do read(1,*) ni allocate(itf(ni)) read(1,*) (itf(i),i=1,ni) close(1) 5.2 Stockage et assemblage des matrices Les matrices utilisées sont stockées en ligne de ciel (skyline) pour économiser l'espacemémoire. Les sous-routines organisant le stockage ligne de ciel sont rassemblées dans le chier sklstore.f90 (module msb_sklstore). La sous-routine sklstore initialise le vecteur de stockage des demi-largeurs de bande (tableau lband(1:ns)) et le vecteur des positions des éléments diagonaux (idiag(1:ns)). La position du dernier élément diagonal (i.e. a nn pour une matrice d'ordre n) donne la taille du vecteur de stockage ligne de ciel. La fonction posij(i,j,idiag,lband) renvoie l'indice ij de l'élément a ij dans le vecteur de stockage ligne de ciel. L'assemblage des matrices du Laplacien est réalisé dans la sous-routine laplacemat, dans le chier laplacemat.f90 (module msb_laplacemat). 5.3 Résolution des systèmes linéaires Les matrices sont dénies positives. On utilise donc la factorisation de Choleski (A = RR T ). La factorisation et/ou la résolution sont eectuées dans la sous-routine Choleski dans le chier choleski.f90 (module msb_choleski). 5.4 Parallélisation La parallélisation avec la librairie MPI est la plus adaptée surtout pour la décomposition de domaine avec un nombre quelconque de sous-domaine. Chaque sous-domaine Ω i est alloué à un processeur avec la description standard d'un problème d'éléments nis pour un seul domaine. Chaque processeur assemble et factorise la matrice associée à son sousdomaine. L'interface Γ 12 est traité comme un bord spécial sous condition de Neumann. Pour chaque processeur, les opérations non locales sont celles qui font intervenir les sauts à l'interface, par exemple pour calculer γ k = [u k 12 ]. Pour cela il sut d'échanger les valeurs de u k i de part et d'autre de l'interface: chaque processeur envoie sa contribution au processeur en charge du domaine voisin et reçoit sa contribution avant de calculer le saut. Pour réaliser ces opérations de manière ecace, il convient d'utiliser les fonctionalités topologiques de MPI. En dimension deux, avec une décomposition de domaine de type cartésienne (i.e. sous forme de grille) on utilise la routine mpi_cart_create pour attribuer à chaque processeur

17 RÉFÉRENCES 17 des coordonnées (ip,jp) corespondant au sous-domaine de la grille à traiter. De sorte que chaque processeur de coordonnées (ip,jp) puisse connaître les processeurs en charge des domaines voisins, à savoir (ip-1,jp), (ip+1,jp), (ip,jp-1) et (ip,jp+1). Après, il sut d'organiser les échanges non bloquants, entre processeurs traitant des sous-domaines voisins, avec la routine mpi_sendrecv. Références [1] Du Q. An optimization based nonoverlapping domain decomposition algorithms and their convergence. SIAM J. Numer. Anal., 39(3): , [2] Glowinski R, Periaux J. and Vinh Dinh Q. Domain decomposition methods for nonlinear problems in uid dynamics. Research Report RR-147, INRIA, [3] Gunzburger M.D. and Lee H.K. An optimization based domain decomposition method for the navier-stokes equations. SIAM J. Numer. Anal., 37(5): , [4] Gunzburger M.D., Peterson J. and Kwon H. An optimization based domain decomposition method for partial dierential equations. Comp. Math. Appl., 37:7793, [5] Meurant G. Computer Solution of Large Systems. Studies in Mathematics and its Applications. North Holland, [6] Quarteroni A. and Valli A. Domain Decomposition Methods for Partial Dierential Equations. Oxford University Press, 1999.

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008) Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

NOTATIONS PRÉLIMINAIRES

NOTATIONS PRÉLIMINAIRES Pour le Jeudi 14 Octobre 2010 NOTATIONS Soit V un espace vectoriel réel ; l'espace vectoriel des endomorphismes de l'espace vectoriel V est désigné par L(V ). Soit f un endomorphisme de l'espace vectoriel

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

chapitre 4 Nombres de Catalan

chapitre 4 Nombres de Catalan chapitre 4 Nombres de Catalan I Dénitions Dénition 1 La suite de Catalan (C n ) n est la suite dénie par C 0 = 1 et, pour tout n N, C n+1 = C k C n k. Exemple 2 On trouve rapidement C 0 = 1, C 1 = 1, C

Plus en détail

1 Introduction et modèle mathématique

1 Introduction et modèle mathématique Optimisation parallèle et mathématiques financières Optimisation parallèle et mathématiques financières Pierre Spiteri 1 IRIT ENSEEIHT, UMR CNRS 5505 2 rue Charles Camichel, B.P. 7122 F-31 071 Toulouse,

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

Calculs et Certificats de Quantités d Intérêts Non Linéaires d un Mousqueton Cédric Bellis

Calculs et Certificats de Quantités d Intérêts Non Linéaires d un Mousqueton Cédric Bellis Ecole Normale Supérieure de Cachan Département de Génie Mécanique Rapport de Stage de M1 Mécanique et Ingéniérie des Systèmes Stage effectué du 10/04 au 27/08 Laboratori de Càlcul Numèric - Universitat

Plus en détail

Introduction à la méthode des éléments finis

Introduction à la méthode des éléments finis ÉCOLE NATIONALE SUPERIEURE DES MINES DE PARIS Introduction à la méthode des éléments finis Michel KERN 1 2004 2005 S3733 / S3735 1 Inria, Rocquencourt, BP 105, 78153 Le Chesnay, Michel.Kern@inria.fr 2

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Méthode des éléments-finis par l exemple

Méthode des éléments-finis par l exemple par l exemple Daniel Choï 1 LMNO Groupe Mécanique Modélisation Mathématique et Numérique Université de Caen, Bld Maréchal Juin, 14032 Caen Cedex, France Version Avril 2010 1. daniel.choi@unicaen.fr Ce

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Mathématique et Automatique : de la boucle ouverte à la boucle fermée Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Maitine.Bergounioux@labomath.univ-orleans.fr Plan 1. Un peu de

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

LE PROBLEME DU PLUS COURT CHEMIN

LE PROBLEME DU PLUS COURT CHEMIN LE PROBLEME DU PLUS COURT CHEMIN Dans cette leçon nous définissons le modèle de plus court chemin, présentons des exemples d'application et proposons un algorithme de résolution dans le cas où les longueurs

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Recherche dans un tableau

Recherche dans un tableau Chapitre 3 Recherche dans un tableau 3.1 Introduction 3.1.1 Tranche On appelle tranche de tableau, la donnée d'un tableau t et de deux indices a et b. On note cette tranche t.(a..b). Exemple 3.1 : 3 6

Plus en détail

La méthode des éléments finis et le contrôle des calculs

La méthode des éléments finis et le contrôle des calculs Table des matières Techniques Avancées en Calcul des Structures Cours d option La méthode des éléments finis et le contrôle des calculs J.-P. Pelle ENS - Cachan Master MIS Parcours TACS Année universitaire

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Compte rendu des TP matlab

Compte rendu des TP matlab Compte rendu des TP matlab Krell Stella, Minjeaud Sebastian 18 décembre 006 1 TP1, Discrétisation de problèmes elliptiques linéaires 1d Soient > 0, a R, b 0, c, d R et f C([0, 1], R). On cerce à approcer

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m 1 épartement de Physique, Université Laval, Québec Pierre Amiot, 1. La fonction delta et certaines de ses utilisations. Clientèle Ce texte est destiné aux physiciens, ingénieurs et autres scientifiques.

Plus en détail

Ordonnancement. N: nains de jardin. X: peinture extérieure. E: électricité T: toit. M: murs. F: fondations CHAPTER 1

Ordonnancement. N: nains de jardin. X: peinture extérieure. E: électricité T: toit. M: murs. F: fondations CHAPTER 1 CHAPTER 1 Ordonnancement 1.1. Étude de cas Ordonnancement de tâches avec contraintes de précédences 1.1.1. Exemple : construction d'une maison. Exercice. On veut construire une maison, ce qui consiste

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Théorèmes de Point Fixe et Applications 1

Théorèmes de Point Fixe et Applications 1 Théorèmes de Point Fixe et Applications 1 Victor Ginsburgh Université Libre de Bruxelles et CORE, Louvain-la-Neuve Janvier 1999 Published in C. Jessua, C. Labrousse et D. Vitry, eds., Dictionnaire des

Plus en détail

CHAPITRE 5. Stratégies Mixtes

CHAPITRE 5. Stratégies Mixtes CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,

Plus en détail

PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES

PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES Leçon 11 PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES Dans cette leçon, nous retrouvons le problème d ordonnancement déjà vu mais en ajoutant la prise en compte de contraintes portant sur les ressources.

Plus en détail

Chapitre 5 : Flot maximal dans un graphe

Chapitre 5 : Flot maximal dans un graphe Graphes et RO TELECOM Nancy A Chapitre 5 : Flot maximal dans un graphe J.-F. Scheid 1 Plan du chapitre I. Définitions 1 Graphe Graphe valué 3 Représentation d un graphe (matrice d incidence, matrice d

Plus en détail

Dérivées d ordres supérieurs. Application à l étude d extrema.

Dérivées d ordres supérieurs. Application à l étude d extrema. Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une

Plus en détail

Équations non linéaires

Équations non linéaires CHAPTER 1 Équations non linéaires On considère une partie U R d et une fonction f : U R d. On cherche à résoudre { x U 1..1) f x) = R d On distinguera les cas d = 1 et d > 1. 1.1. Dichotomie d = 1) 1.1.1.

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique

ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique 1 ANALYSE NUMERIQUE ET OPTIMISATION Une introduction à la modélisation mathématique et à la simulation numérique G. ALLAIRE 28 Janvier 2014 CHAPITRE I Analyse numérique: amphis 1 à 12. Optimisation: amphis

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

RO04/TI07 - Optimisation non-linéaire

RO04/TI07 - Optimisation non-linéaire RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Rupture et plasticité

Rupture et plasticité Rupture et plasticité Département de Mécanique, Ecole Polytechnique, 2009 2010 Département de Mécanique, Ecole Polytechnique, 2009 2010 25 novembre 2009 1 / 44 Rupture et plasticité : plan du cours Comportements

Plus en détail

CONTRÔLE ET ÉQUATIONS AUX DÉRIVÉES PARTIELLES. par. Jean-Pierre Puel

CONTRÔLE ET ÉQUATIONS AUX DÉRIVÉES PARTIELLES. par. Jean-Pierre Puel CONTRÔLE ET ÉQUATIONS AUX DÉRIVÉES PARTIELLES par Jean-Pierre Puel 1. Introduction Pourquoi équations aux dérivées partielles et pourquoi contrôle? Les équations aux dérivées partielles, associées à certaines

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

2. RAPPEL DES TECHNIQUES DE CALCUL DANS R

2. RAPPEL DES TECHNIQUES DE CALCUL DANS R 2. RAPPEL DES TECHNIQUES DE CALCUL DANS R Dans la mesure où les résultats de ce chapitre devraient normalement être bien connus, il n'est rappelé que les formules les plus intéressantes; les justications

Plus en détail

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques Université de Provence Topologie 2 Cours3. Applications continues et homéomorphismes 1 Rappel sur les images réciproques Soit une application f d un ensemble X vers un ensemble Y et soit une partie P de

Plus en détail

Chapitre 1. Une porte doit être ouverte et fermée. 1.1 Les enjeux de l'informatique quantique

Chapitre 1. Une porte doit être ouverte et fermée. 1.1 Les enjeux de l'informatique quantique Chapitre Une porte doit être ouverte et fermée Crois et tu comprendras ; la foi précède, l'intelligence suit. Saint Augustin. Les enjeux de l'informatique quantique La puissance de calcul des ordinateurs

Plus en détail

Baccalauréat L spécialité, Métropole et Réunion, 19 juin 2009 Corrigé.

Baccalauréat L spécialité, Métropole et Réunion, 19 juin 2009 Corrigé. Baccalauréat L spécialité, Métropole et Réunion, 19 juin 2009 Corrigé. L usage d une calculatrice est autorisé Durée : 3heures Deux annexes sont à rendre avec la copie. Exercice 1 5 points 1_ Soit f la

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

Fonctions de deux variables. Mai 2011

Fonctions de deux variables. Mai 2011 Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable Eo7 Fonctions de plusieurs variables Eercices de Jean-Louis Rouget Retrouver aussi cette fiche sur wwwmaths-francefr * très facile ** facile *** difficulté moenne **** difficile ***** très difficile I

Plus en détail

Retournement Temporel

Retournement Temporel Retournement Temporel Rédigé par: HENG Sokly Encadrés par: Bernard ROUSSELET & Stéphane JUNCA 2 juin 28 Remerciements Je tiens tout d'abord à remercier mes responsables de mémoire, M.Bernard ROUSSELET

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

aux différences est appelé équation aux différences d ordre n en forme normale.

aux différences est appelé équation aux différences d ordre n en forme normale. MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire

Plus en détail

Calcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane

Calcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane Calcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane Poteaux Adrien XLIM-DMI, UMR-CNRS 6172 Université de Limoges Soutenance de thèse 15 octobre

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Oscillations libres des systèmes à deux degrés de liberté

Oscillations libres des systèmes à deux degrés de liberté Chapitre 4 Oscillations libres des systèmes à deux degrés de liberté 4.1 Introduction Les systèmes qui nécessitent deux coordonnées indépendantes pour spécifier leurs positions sont appelés systèmes à

Plus en détail

Manipulateurs Pleinement Parallèles

Manipulateurs Pleinement Parallèles Séparation des Solutions aux Modèles Géométriques Direct et Inverse pour les Manipulateurs Pleinement Parallèles Chablat Damien, Wenger Philippe Institut de Recherche en Communications et Cybernétique

Plus en détail

Date : 18.11.2013 Tangram en carré page

Date : 18.11.2013 Tangram en carré page Date : 18.11.2013 Tangram en carré page Titre : Tangram en carré Numéro de la dernière page : 14 Degrés : 1 e 4 e du Collège Durée : 90 minutes Résumé : Le jeu de Tangram (appelé en chinois les sept planches

Plus en détail

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation Complexité Objectifs des calculs de complexité : - pouvoir prévoir le temps d'exécution d'un algorithme - pouvoir comparer deux algorithmes réalisant le même traitement Exemples : - si on lance le calcul

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Axiomatique de N, construction de Z

Axiomatique de N, construction de Z Axiomatique de N, construction de Z Table des matières 1 Axiomatique de N 2 1.1 Axiomatique ordinale.................................. 2 1.2 Propriété fondamentale : Le principe de récurrence.................

Plus en détail

LES MÉTHODES DE POINT INTÉRIEUR 1

LES MÉTHODES DE POINT INTÉRIEUR 1 Chapitre XIII LES MÉTHODES DE POINT INTÉRIEUR 1 XIII.1 Introduction Nous débutons par un rappel de la formulation standard d un problème d optimisation 2 linéaire et donnons un bref aperçu des différences

Plus en détail

I. Ensemble de définition d'une fonction

I. Ensemble de définition d'une fonction Chapitre 2 Généralités sur les fonctions Fonctions de références et fonctions associées Ce que dit le programme : Étude de fonctions Fonctions de référence x x et x x Connaître les variations de ces deux

Plus en détail

Première partie. Introduction à la méthodes des différences finies

Première partie. Introduction à la méthodes des différences finies Première partie Introduction à la méthodes des différences finies 5 7 Introduction Nous allons présenter dans cettte partie les idées de base de la méthode des différences finies qui est sans doute la

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Annexe 6. Notions d ordonnancement.

Annexe 6. Notions d ordonnancement. Annexe 6. Notions d ordonnancement. APP3 Optimisation Combinatoire: problèmes sur-contraints et ordonnancement. Mines-Nantes, option GIPAD, 2011-2012. Sophie.Demassey@mines-nantes.fr Résumé Ce document

Plus en détail

Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1

Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1 General Mathematics Vol. 18, No. 4 (2010), 85108 Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1 Faiza Belarbi, Amina Angelika Bouchentouf Résumé Nous étudions

Plus en détail

Angles orientés et trigonométrie

Angles orientés et trigonométrie Chapitre Angles orientés et trigonométrie Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Trigonométrie Cercle trigonométrique. Radian. Mesure d un angle orienté, mesure principale.

Plus en détail

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Programme de la classe de première année MPSI

Programme de la classe de première année MPSI Objectifs Programme de la classe de première année MPSI I - Introduction à l analyse L objectif de cette partie est d amener les étudiants vers des problèmes effectifs d analyse élémentaire, d introduire

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA ENSEA - ABIDJAN ENSAE - DAKAR ISSEA - YAOUNDÉ BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA CENTRE D APPUI AUX

Plus en détail

On ne peut pas entendre la forme d un tambour

On ne peut pas entendre la forme d un tambour On ne peut pas entendre la forme d un tambour Pierre Bérard Institut Fourier Laboratoire de Mathématiques Unité Mixte de Recherche 5582 CNRS UJF Université Joseph Fourier, Grenoble 1 Introduction 1.1 Position

Plus en détail

Chapitre VI - Méthodes de factorisation

Chapitre VI - Méthodes de factorisation Université Pierre et Marie Curie Cours de cryptographie MM067-2012/13 Alain Kraus Chapitre VI - Méthodes de factorisation Le problème de la factorisation des grands entiers est a priori très difficile.

Plus en détail

IV- Equations, inéquations dans R, Systèmes d équations

IV- Equations, inéquations dans R, Systèmes d équations IV- Equations, inéquations dans R, Systèmes d équations 1- Equation à une inconnue Une équation est une égalité contenant un nombre inconnu noté en général x et qui est appelé l inconnue. Résoudre l équation

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Les indices à surplus constant

Les indices à surplus constant Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté

Plus en détail