UNIVERSITÉ PARIS 6 - PIERRE ET MARIE CURIE THÈSE DE MÉCANIQUE. Pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ PIERRE ET MARIE CURIE



Documents pareils
T.P. FLUENT. Cours Mécanique des Fluides. 24 février 2006 NAZIH MARZOUQY

Formation à la C F D Computational Fluid Dynamics. Formation à la CFD, Ph Parnaudeau

Figure 3.1- Lancement du Gambit

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Continuité et dérivabilité d une fonction

CSMA e Colloque National en Calcul des Structures Mai 2013

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

10 leçon 2. Leçon n 2 : Contact entre deux solides. Frottement de glissement. Exemples. (PC ou 1 er CU)

Exercices Alternatifs. Une fonction continue mais dérivable nulle part

Exercices Alternatifs. Une fonction continue mais dérivable nulle part

Le turbo met les gaz. Les turbines en équation

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

DÉRIVÉES. I Nombre dérivé - Tangente. Exercice 01 (voir réponses et correction) ( voir animation )

Chapitre 2 Les ondes progressives périodiques

Intérêt du découpage en sous-bandes pour l analyse spectrale

Fonctions de plusieurs variables

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

SIMULATION HYBRIDE EN TEMPOREL D UNE CHAMBRE REVERBERANTE

ETUDE DE COMPATIBILITE DE LA ZONE DE RECOUVREMENT DES MODELES NUMERIQUES APPLICATION AUX ETUDES D IMPACT DES PROJETS D ENERGIES MARINES

Modélisation 3D par le modèle de turbulence k-ε standard de la position de la tête sur la force de résistance rencontrée par les nageurs.

Initiation à la Mécanique des Fluides. Mr. Zoubir HAMIDI

Sujet 1 : Diagnostique du Syndrome de l apnée du sommeil par des techniques d analyse discriminante.

ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique

Développements limités, équivalents et calculs de limites

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Profits et rendements maximum.

SIMULATION ORIENTEE EVENEMENTS DES MODELES HYBRIDES

NUMECA et son bureau d études NUMFLO, spécialisé dans la simulation numérique des effets du vent

Logistique, Transports

FctsAffines.nb 1. Mathématiques, 1-ère année Edition Fonctions affines

Transmission d informations sur le réseau électrique

Cours 9. Régimes du transistor MOS

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Texte Agrégation limitée par diffusion interne

Prédiction de couverture de champ radioélectrique pour les réseaux radiomobiles : L apport du Système d Information Géographique ArcInfo 8

ÉJECTEURS. CanmetÉNERGIE Juillet 2009

Introduction au maillage pour le calcul scientifique

Limites finies en un point

Calcul des pertes de pression et dimensionnement des conduits de ventilation

ANALYSE CATIA V5. 14/02/2011 Daniel Geffroy IUT GMP Le Mans

OM 1 Outils mathématiques : fonction de plusieurs variables

Introduction au datamining

Théories de champ moyen et convection à grande échelle

LA MESURE DE PRESSION PRINCIPE DE BASE

Quels outils pour prévoir?

Analyse de la dynamique d un lit fluidisé gaz-solide en interaction acoustique avec son système de ventilation : comparaison théorie/expérience.

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

CAP CAMION A ASSISTANCE PNEUMATIQUE

Modélisation et Simulation

Étude comparative de schémas numériques pour la modélisation de phénomènes diffusifs sur maillages multiéléments.

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

ETUDE COMPARATIVE DES MODELISATIONS NUMERIQUE ET PHYSIQUE DE DIFFERENTS OUVRAGES D EVACUATION DES CRUES

Chapitre 6. Fonction réelle d une variable réelle

Exprimer ce coefficient de proportionnalité sous forme de pourcentage : 3,5 %

LES CARTES À POINTS : POUR UNE MEILLEURE PERCEPTION

Cours IV Mise en orbite

Le transistor bipolaire

Les voies de l éco-conception

Exemple d application en CFD : Coefficient de traînée d un cylindre

Représentation des Nombres

Écoulements diphasiques DEVELOPPEMENT D UNE METHODE LEVEL SET POUR LE SUIVI D INTERFACES ET APPLICATIONS

Résolution de systèmes linéaires par des méthodes directes

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Grandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

SDLV120 - Absorption d'une onde de compression dans un barreau élastique

G.P. DNS02 Septembre Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3. Réfraction

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc)

Interaction Fluide-Structure pour les corps élancés

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

SIMULATION DU PROCÉDÉ DE FABRICATION DIRECTE DE PIÈCES THERMOPLASTIQUES PAR FUSION LASER DE POUDRE

UTILISATION DE GT-Suite EN THERMIQUE MOTEUR Exemple d utilisation

Théorème du point fixe - Théorème de l inversion locale

Annexe commune aux séries ES, L et S : boîtes et quantiles

F411 - Courbes Paramétrées, Polaires

SPÉCIALITÉ Sciences Mécaniques et Ingénierie (SMI)

Object Removal by Exemplar-Based Inpainting

Fiche de lecture du projet de fin d étude

La fonction exponentielle

Projet Optiperf : les ressources du calcul parallèle à destination des architectes navals

ÉTUDE DE L EFFICACITÉ DE GÉOGRILLES POUR PRÉVENIR L EFFONDREMENT LOCAL D UNE CHAUSSÉE

DÉVERSEMENT ÉLASTIQUE D UNE POUTRE À SECTION BI-SYMÉTRIQUE SOUMISE À DES MOMENTS D EXTRÉMITÉ ET UNE CHARGE RÉPARTIE OU CONCENTRÉE

Calculer avec Sage. Revision : 417 du 1 er juillet 2010

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Algèbre binaire et Circuits logiques ( )

Résonance Magnétique Nucléaire : RMN

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

FLUIDES EN ÉCOULEMENT Méthodes et modèles

Algorithmes pour la planification de mouvements en robotique non-holonome

Image d un intervalle par une fonction continue

Systèmes de transmission

Cours de Résistance des Matériaux (RDM)

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Equipement. électronique

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

Traitement bas-niveau

Transcription:

UNIVERSITÉ PARIS 6 - PIERRE ET MARIE CURIE THÈSE DE MÉCANIQUE Pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ PIERRE ET MARIE CURIE Simulation de l interaction entre chocs et couche cisaillée en écoulements confinés par des méthodes de multirésolution adaptatives présentée par Linda BENTALEB Document Porvisoire Directeurs de thèse : Christian TENAUD et Loc TA PHUOC, Chercheurs LIMSI-CNRS RAPPORTEURS : Jacques LIANDRAT : (LATP-EGIM, Marseille) rapporteur Christophe CORRE : (SINUMEF-ENSAM, Paris) rapporteur. Jury : Georges Gerolymos : (LEMFI, UPMC) Président Marie Postel : (LJLL, UPMC) eaminatrice Olivier Roussel : (ICTP, Université de Karlsruhe, Allemagne) invité Loc Ta Phuoc : (LIMSI-CNRS) Directeur de recherche Christian Tenaud : (LIMSI-CNRS) Chargé de recherche

Table des matières Résumé.............................................. 1 Nomenclature........................................... 1 1 Introduction 2 1.1 Motivations......................................... 2 1.2 État de l art......................................... 3 1.3 Présentation de l étude et objectifs............................. 6 2 Validation numérique 10 2.1 Cas 1D non visqueu.................................... 12 2.1.1 Tube à choc de Sod................................. 13 2.1.2 Tube à choc de La................................. 23 2.1.3 Test de Shu et Osher................................ 31 2.2 Cas tests 2D visqueu.................................... 45 2.2.1 Interaction entre un spot de température et un choc................ 46 2.2.2 Interaction entre un tourbillon et un choc..................... 61 2.3 Conclusion......................................... 69 3 Application 70 3.1 Tube à choc de Sod 2D................................... 70 3.1.1 Description..................................... 71 3.1.2 Étude et résultats.................................. 72 3.1.3 Conclusion..................................... 84 4 Conclusion et Perspectives 85 Annees.............................................. 89 A Ondelettes de Haar 90 B Ondelettes biorthogonales 93 C Eemples d ondelettes biorthogonales 94 Bibliographie........................................... 99 1

Chapitre 1 Introduction 1.1 Motivations On s intéresse dans cette étude à l application des méthodes de multirésolution adaptative au EDP hyperboliques et au équations de Navier-Stokes d un fluide compressible. L application des méthodes de simulation numérique sur ce type d écoulement est déjà très classique. Parmi les difficultés qui émergent lors de ces études, on a le développement de structures de tailles très différentes notamment les ondes de choc, et ce, en raison de la compressibilité du fluide et de la présence des termes non linéaires. Ces structures sont etrêmement fines et leur capture est à l origine de tout un développement de méthodes et de schémas qui leur sont dédiés. On citera ici les schémas à capture de chocs [12, 20, 22]. Une autre difficulté est que ces ondes de choc sont instationnaires et interagissent avec d autres structures de tailles beaucoup plus grandes. Ces interactions ne sont pas simples à étudier en raison de la grande variété de taille des structures et de la physique complee sousjacente. Donc, pour pouvoir étudier numériquement ce type d écoulement, on a besoin d un très grand nombre de points de calcul pour capturer les structures les plus fines, ce qui peut être très coûteu, surtout si l on considère des cas multidimensionnels. Or, avec les derniers progrès technologiques qui ont consisté à améliorer les performances des calculateurs [53], l etension des méthodes déjà eistantes à des cas d études de plus en plus complees est rendue possible. Toutefois, malgré le développement de ces moyens informatiques, le coût des calculs reste encore etrêmement onéreu en place mémoire et en temps CPU. Certaines limites de la simulation numérique classique semblent être atteintes. Par ailleurs, certaines modélisations sont de plus en plus demandeuses en ressources informatiques. D où l intérêt d étudier et d envisager d autres modélisations qui permettraient d économiser ces ressources. L émergence des méthodes adaptatives est une conséquence de ce souci permanent de vouloir gagner en performances informatiques. Parmi ces méthodes adaptatives, on citera les techniques de la multirésolution issues de la théorie des ondelettes. L étude présentée dans cette thèse s inscrit clairement dans une logique de réduction des ressources informatiques en appliquant ces techniques de la multirésolution adaptative sur des écoulements compressibles. En effet, une meilleure compréhension de la physique des écoulements supersoniques compressibles, et en particulier, une meilleure prise en compte des phénomènes d interaction entre les ondes de choc et les couches cisaillées (couches limites ou couches de mélange) est fondamentale. Ce type d interaction apparaît dans de nombreuses configurations en aérodynamique. En menant à bien ces simulations numériques, on espère en perspective, réaliser des applications industrielles en aval. 2

CHAPITRE 1. INTRODUCTION 3 1.2 État de l art Dans un écoulement compressible et instationnaire, le calcul de toutes les échelles caractéristiques qui coeistent serait prohibitif, d où l intérêt des approches adaptatives. Ces approches ont pour but d adapter l étude en fonction de la taille des structures physiques. Par cette démarche, on souhaite d une part, avoir un maillage adaptatif et dynamique qui permettrait de réduire les points de calculs dans les zones régulières, ce qui par conséquent réduirait les coûts globau. D autre part, on espère appliquer les schémas à capture de chocs qui eistent déjà, sur ce maillage adaptatif, sans perdre en précision ni en robustesse par rapport au approches sans adaptation. C est afin de répondre à ces eigences que d autres méthodes numériques dites adaptatives ont fait leur apparition, notamment dans les années 1970-1980 avec : Les méthodes MLAT (Multi Level Adaptive Techniques). Elles sont basées sur la combinaison des méthodes multigrilles et d une discrétisation adaptative. Le papier et le guide de Brandt [1, 2] constituent des références dans le domaine et où il epose cette méthodologie. Quant au méthodes multigrilles, les articles [55, 64, 65] constituent des références historiques. On peut citer aussi, le "Yellow Book" [69] apparut en 1982 qui est devenu très populaire. Dans ce livre, on y trouve des contributions très importantes sur le traitement fondamental des multigrilles dues à Stüben et Trottenberg, ainsi qu un développement général sur l état de l art théorique fait par Hackbusch. Les méthodes multidomaines sont des méthodes de résolution par partitions de domaines [30]. Elles ne sont pas forcément des méthodes adaptatives -au sens du maillage- mais leur souci majeur est de répondre à la même eigence : réduire le coût de calcul en temps de restitution. Ceci peut se faire en adaptant par eemple le modèle numérique au sous-domaine. La famille des méthodes AMR (Adaptive Mesh Refinement) appelée aussi "méthodes AMR de Berger-Oliger", dont le principe sera développé un peu plus en détails, car les objectifs de cette méthode (l adaptation de maillage) sont très proches des méthodes multirésolution. La transformation multiéchelle ou les méthodes multirésolution connues sous le nom de MRA (Multi-Resolution Analysis). L un des avantages de cette technique, contrairement au méthodes AMR, est que la transformation multiéchelle est réversible à tout moment. Un papier de Cohen [4] epose les différences entre les approches AMR et l approche multiéchelle (MRA). Les méthodes AMR permettent d utiliser des grilles structurées et hiérarchiques. Elles ont été développées en premier lieu par Berger et Oliger en 1984 [50] pour les EDP de type hyperbolique et avec des schémas en différences finies. L approche "grille adaptative" pour les systèmes de lois de conservation a été couronnée de succès pour la dynamique des gaz avec Berger et Collela [51] en deu dimensions. Le principe de l AMR consiste à découper le domaine de calcul en plusieurs blocs en partant d un maillage grossier. Chaque domaine peut être raffiné à la fois en temps et en espace suivant des indicateurs de régularité locau jusqu à atteindre la précision voulue. C est une procédure de génération dynamique de grilles. Une synchronisation des données est nécessaire entre les informations des différents niveau. Cette synchronisation se fait en communiquant les données à partir du niveau le plus fin car celles-ci sont plus précises, vers le niveau grossier le plus proche. Ceci permet aussi d ajuster la solution numérique au

CHAPITRE 1. INTRODUCTION 4 niveau des cellules grossières qui bordent les zones fines. Ce processus est appelé "reflu". La construction des différentes grilles est basée sur un critère d estimation de l erreur. Ce critère est spécifié par l utilisateur et indique les zones où une résolution supérieure est nécessaire. Les cellules concernées sont marquées et le critère est appliqué. L estimation de cette erreur peut être faite de plusieurs façons. On peut utiliser des détecteurs de forts gradients sur certaines variables ou encore fier un paramètre, en imposant par eemple un niveau de grille maimum. La façon même de construire un critère de raffinement est toujours une question ouverte pour beaucoup d applications. On citera aussi les travau de Bell, Berger, Saltzman et Welcome qui en 1991 ont étendu la méthode en trois dimensions [44]. Plus récemment, les méthodes AMR ont été étendues et appliquées à d autres classes de problèmes [52], par eemple : l équation d Helmholtz, le système des lois de conservation hyperboliques gouvernant la dynamique des gaz non visqueu et les équations de Navier-Stokes compressibles et incompressibles. Toutes ces différentes approches contribuent à optimiser les temps CPU ou les temps de restitution. Néanmoins, le nombre d opérations effectuées est encore très élevé et de meilleures optimisations sont encore possibles, notamment au niveau de la place mémoire. Pour cela, on a choisi une approche fondée sur la théorie des ondelettes qui permet à la fois de réduire les points de maillage au minimum et de ne garder en mémoire que les informations utiles. Cette approche est la multirésolution basée sur l analyse par ondelettes. Cette méthode est inspirée des travau de traitement de l image [66]. Lorsque l analyse multirésolution (MRA) est appliquée à la dynamique des fluides compressibles, elle est connue sous le nom des "techniques multiéchelles appliquées au lois de conservation". Ce sont les travau pionniers d Harten qui vers la fin des années 1980 ont grandement contribué à l application des techniques multiéchelles à la dynamique des fluides et plus spécifiquement au lois de conservation hyperboliques [10, 11, 37]. Il a initialement utilisé la théorie des ondelettes dyadiques non pas dans le but de raffiner et d adapter le maillage, mais plutôt pour accélérer son calcul. En effet, on sait d une part que les équations hyperboliques peuvent développer à temps fini des singularités telles que des ondes de choc ou des discontinuités de contact et que celles-ci restent très localisées spatialement et peuvent se propager à vitesse finie. D autre part, des schémas de haute précision coûteu sont nécessaires pour pouvoir capturer ces structures. Donc, pour accélérer le calcul, Harten n a voulu faire appel à ce type de schémas coûteu que lorsque cela était nécessaire. Pour ce faire, l étude de la régularité locale de l écoulement grâce au ondelettes permet de détecter les zones à fortes singularités. Une fois les irrégularités détectées, on peut appliquer les schémas à capture de chocs uniquement prés des singularités [11, 37, 60]. Ailleurs, c est-à-dire dans les régions régulières de l écoulement, une etrapolation simple et précise à partir des valeurs sur un niveau de grille plus grossier suffit pour évaluer les flu numériques. Ceci revient à faire une commutation (switch) entre des schémas onéreu et des etrapolations peu coûteuses. L accélération du calcul peut atteindre un facteur de 5 selon le cas test considéré [11]. En fait, dans la démarche d Harten, la solution discrétisée évolue en temps sur toutes les grilles y compris sur la grille la plus fine. Avec cette procédure, on obtient une discrétisation et un calcul hybrides et adaptatifs sur des grilles régulières. L inconvénient de cette approche est que le nombre d opérations ou la compleité du calcul est toujours proportionnelle au nombre de cellules de la grille la plus fine. On voit bien que même si l etension à des problèmes hyperboliques multidimensionnels est possible sur des grilles cartésiennes [14, 24, 60], sur des éléments de surface curvilignes [18, 68], sur des maillages triangulaires [7, 33, 46, 60], sur des maillages non-structurés [61] ; la croissance de la compleité du calcul constitue un sévère désavantage.

CHAPITRE 1. INTRODUCTION 5 C est pourquoi, plus récemment, une approche complètement adaptative a été présentée et étudiée [7, 17]. En effet, ce que l on entend ici par multirésolution complètement adaptative, ce n est plus en terme de schéma mais plutôt en terme de maillage. C est une autre stratégie d adaptation. Dans cette approche, tout le potentiel que peut offrir la multirésolution est eploité. À savoir : étudier la régularité locale comme celle qui est faite dans la méthode d Harten, se servir des indicateurs de régularité non pas pour faire une commutation de schémas -bien que cela reste encore possible- mais plutôt pour déterminer les zones à raffiner et à déraffiner. Ceci revient à avoir une concentration de points de calcul uniquement autour des singularités, et ce, afin de réduire la place mémoire et le temps de calcul. La MRA est basée sur l analyse par ondelettes car elle permet d étudier la régularité locale d une fonction contrairement à l analyse de Fourier. Ce choi se justifie par le fait que l analyse de Fourier est plutôt adaptée à la résolution des problèmes linéaires. Plus généralement, elle permet d étudier le contenu fréquentiel et la régularité globale d une fonction [43]. L analyse de Fourier ne dit pas tout sur l information que peut contenir un signal. Cet outil mathématique est donc inadaptés au signau qui changent brusquement comme c est la cas des EDP étudiées dans cette thèse. Quant à la décomposition en ondelettes, elle permet de dépasser ces limites [38]. Les ondelettes ont été introduites en premier lieu par Haar en 1909 [9]. Plus tard, Gabor dans les années 1940 propose une représentation temps-fréquence originale [26]. C est une analyse de Fourier avec une même fonction fenêtre, modulée spatialement par une fonction sinusoïdale. Il arrive avec cette technique au limites de l analyse de Fourier. Dans les années 1980, Morlet et Grossmann se sont inspirés des travau de Gabor et ont introduit une analyse par ondelettes qui permet d analyser efficacement des signau qui combinent des phénomènes à des échelles très différentes [41, 56]. Vers la fin des années 1980, Cohen, Daubechies et Fauveau ont construit d autres types d ondelettes [5, 6, 39]. On cite par eemple : les ondelettes continues, splines, à support compact, etc.... Meyer, Dubuc et Deslauriers entre 1980-1990 ont travaillé sur les ondelettes orthogonales et biorthogonales [35, 49, 70]. On voit que plusieurs familles et types d ondelettes avec des propriétés variées ont été découvertes et appliquées à un très large panel de domaines. On a donc plusieurs types de multirésolution suivant la famille d ondelette utilisée, qui elle même dépend du domaine ou du problème traité. La famille des ondelettes utilisées pour cette étude et leurs propriétés -et par conséquent la multirésolution qui en découle- seront aussi développées au cours du chapitre??. Un des aspects essentiels lors de l application de la multirésolution est l estimation de l erreur d approimation [54]. Ceci est lié au problème de contrôle d adaptation. En effet, le concept adaptatif est basé soit sur un indicateur d erreur, soit sur un estimateur de l erreur. Dans le premier cas, la grille est remaillée suivant un indicateur local comme le gradient des quantités physiques par eemple. On a ainsi un contrôle sur le raffinement et le déraffinement, mais on n a pas d information sur l approimation de l erreur et donc pas de contrôle sur elle. Or cela n a été fait que dans le cas scalaire. Dans le second cas, le but est d équilibrer l erreur à l aide d une tolérance et un nombre de points maimum fiés. Mais cette dernière façon de faire n est possible qu en théorie. Ces deu concepts sont basés sur des estimations a posteriori. La littérature abonde en matière de références sur l étude des estimations a posteriori sur les équations hyperboliques [15, 16, 19, 27, 31, 32, 42, 67]. Or, le critère de raffinement de la multirésolution utilisée dans le cadre de cette thèse, se fait à l aide d une estimation a priori de l erreur [7, 8, 16, 54, 67]. Le traitement de ce point sera abordé dans la section suivante de ce chapitre d introduction.

CHAPITRE 1. INTRODUCTION 6 1.3 Présentation de l étude et objectifs Cette présente étude se base dans un premier temps sur l adaptation d un code hérité et dans un second temps sur son eploitation. Le code de multirésolution est nommé CARMEN. Il a été initialement développé par O. Roussel et A. Tsigulin [62], pour l étude des écoulements incompressibles et notamment pour traiter des problèmes de combustion modélisés par des équations paraboliques. On adaptera ce code afin de travailler sur des écoulements compressibles, supersoniques et instationnaires. La géométrie est simple et le maillage est cartésien. On limitera l étude à des cas tests académiques en une et deu dimensions et à faible nombre de Reynolds. Cette restriction est une étape nécessaire afin de valider dans un premier temps le code de calcul et les algorithmes liés à la structure arborescente et à la multirésolution sous les hypothèses et les conditions citées ci-dessus. Ce travail représente aussi une étude préliminaire de validation. Ce sont les lois de conservation hyperboliques multidimensionnels qui sont au cœur de l étude menée au cours de cette thèse. Ces équation seront eplicitées dans la première partie du chapitre??. En effet, les écoulements décrits par les équations hyperboliques peuvent développer des singularités telles que des discontinuités de contact ou des ondes de choc qui se propagent à vitesse finie. Dans certaines configurations concrètes en aérodynamique interne ou eterne, ces singularités interagissent avec des zones cisaillées. Tout en restant dans le cadre des hypothèses des milieu continus, on constate qu à cause du développement de ces singularités à de très petites échelles caractéristiques -de l ordre de quelques libres parcours moyens- et de la présence de perturbations à plus grandes échelles, une très large gamme d échelles caractéristiques coeistent. De plus, ces singularités sont convectées, ce qui donne lieu à des écoulements instationnaires, qui peuvent se compleifier très vite (déformation des chocs, phénomène de recirculation, amplification de certaines perturbations,...). Or, si l on veut capturer toutes ces structures, des plus régulières au plus singulières, on doit avoir un maillage etrêmement fin. Or, il est bien évident qu avoir un maillage en plusieurs dimensions, uniformément fin et dense est parfois très difficile, étant donné les coûts de calculs prohibitifs que cela nécessiteraient, y compris sur les super-calculateurs les plus performants. Donc, un concept de calcul beaucoup plus optimisé est nécessaire pour une meilleure simulation, et in fine une meilleure compréhension de la physique sousjacente. Une des optimisations possibles à apporter se situe au niveau du maillage. En effet, on souhaiterais travailler sur un maillage plus sophistiqué qui devrait s adapter et se (re)générer dynamiquement en suivant l avancement de la solution. Ainsi, on améliorerait la qualité de capture de singularités. Ceci mérite que l on développe plus en détails certaines notions qui en découlent : La première notion est celle du concept adaptatif. En effet, comme cela a été évoqué dans l état de l art, plusieurs stratégies d adaptation eistent. Des stratégies d adaptation en terme de schémas, de discrétisations ou d opérateurs sont possibles. Dans le cadre de cette étude, étant donné que des structures etrêmement fines eistent et sont très bien localisées en espace, une optimisation au niveau du maillage est possible en concentrant des points de calcul autour de ces structures et en mettant beaucoup moins dans les zones régulières. Ceci revient à faire une adaptation par raffinement/déraffinement de maillage suivant la régularité de la solution. Le but est donc d étudier la régularité locale de la solution à l aide des techniques multiéchelles adaptées au EDP hyperboliques. L analyse par ondelettes permet d avoir un maillage dyadique. Ce qui implique aussi une succes-

CHAPITRE 1. INTRODUCTION 7 sion de grilles emboîtées, des plus grossières au plus fines. La solution étudiée est discrétisée sur plusieurs niveau de résolution. À l aide d un critère de seuillage basé sur cette analyse par ondelettes, choisi a priori par l utilisateur et appelé ici valeur de tolérance ε, on détecte les zones à raffiner. Ces zones correspondent en fait au voisinages des discontinuités. Quant au déraffinements, ils s opèrent là où la solution est régulière, qui par ailleurs représente la majeure partie du domaine de calcul. Cette procédure de déraffinement implique des suppressions de cellules (ou de mailles) de la mémoire. Lorsque la solution évolue en temps, des créations de cellules s opèrent. On obtient ainsi une grille hybride. L adaptation du maillage permet ainsi de gagner de la place mémoire puisque la valeur de tolérance ε choisie est censée distinguer les cellules ne contenant aucune information significative des autres cellules. Ainsi, les mailles qui ne contiennent pas d informations jugées pertinentes seront réellement effacées de la mémoire pour ne garder que les informations utiles pour le calcul des flu numériques. On peut aussi voir cela comme une compression de données dont le tau serait calculé par rapport au données du maillage complet. La deuième notion est la génération dynamique de maillage. En effet, les écoulements étudiés sont fortement instationnaires. Par conséquent, il faut avoir une stratégie de prédiction. Le maillage devrait être mis à jour à chaque itération en temps pour suivre la régularité de la solution. L étude de la régularité de la solution à partir d une analyse par ondelettes est présentée au chapitre??. Toutefois, pour que cela soit possible, la nature de l algorithme et des données est assez particulière. Pour l algorithme, des procédures récursives sont plus que nécessaires, puisque les traitements locau sont identiques pour toutes les cellules du maillage. Quant au structures de données, elles sont plus complees que les structures utilisées très classiquement, à savoir les tableau. Car pour pouvoir supprimer et créer des cellules à chaque fois que cela est souhaitable, une structure dynamique en mémoire est indispensable. Dans cette thèse, une structure en arbre a été choisie [62, 63]. En effet, étant donné que le maillage est dyadique et que les cellules sont emboîtées, la structure en arbre parait être un choi naturel. Avec ce type de structure de données, l allocation de la mémoire est très optimisée. Quant à l accès à un élément de l arbre, il se fait grâce à une procédure de recherche qui est elle aussi optimisée. Évidemment, l implémentation de ce type d algorithme est plus complee qu un algorithme classique utilisant des tableau. Un autre choi aurait été possible, comme l a fait Müller dans ces travau [54]. Ce choi consiste à prendre comme structure de données des tables de hachage. Mais celle-ci a aussi ses contraintes et suppose des choi a priori, notamment estimer le tau de compression espéré et donc définir la taille de la mémoire à occuper. Par rapport à une structure en arbre, les tables de hachage permettent un accès plus simple et rapide à un élément donné, mais la place mémoire occupée n est pas optimale. Il est à noter que ces structures de données dynamiques sont gérées essentiellement par des pointeurs et des procédures récursives, et que dans un premier temps le gain en temps CPU n est pas évident. Car justement cette gestion est très coûteuse. Pour que cela soit rentable une bonne compression des données serait un bon indicateur. Parmi les objectifs de ces stratégies de raffinement, on espère pouvoir améliorer la localisation et la capture du choc. On a évoqué la nécessité d utiliser des schémas à capture de chocs. Dans un écoulement transsonique ou supersonique où ce type de singularité eiste en même temps que de petites perturbations ; il faut veiller lors de l application de ces schémas à ne pas introduire trop de viscosité numérique ou artificielle. En effet, les schémas à capture de chocs sont intrinsèquement diffusifs et c est précisément

CHAPITRE 1. INTRODUCTION 8 cette propriété qui est eploitée pour capturer les singularités. Le raffinement permettra de limiter les débordements éventuels de cette diffusion numérique. On rappelle que de nombreu schémas de haute précision eistent déjà [12, 20, 21, 22] et qu ils sont en général très coûteu. Il ne s agit pas dans cette thèse de redéfinir ces schémas mais plutôt de les appliquer sur une grille hybride tout en gardant une précision équivalente à celle qu on a sur la grille la plus fine et régulière. En d autres termes, on ne veut pas perdre en précision. Cette application est d ailleurs l une des originalités de ce travail de thèse. Or, parmi les problèmes qui se posent au moment de l application des schémas sur une structure dynamique, on a celui de la conservation des flu au interfaces des mailles. Pour cela, l évaluation des flu doit être judicieuse et ne doit pas introduire d erreur supplémentaire. Plusieurs stratégies sont possibles. Elles sont toutes étudiées et discutées dans le livre de Müller [54]. Une des stratégies consiste à tout reconstruire jusqu au niveau le plus fin, mais cela parait peu efficace, surtout lorsque l on aborde des problèmes multidimensionnels où la compleité du calcul croît très rapidement. La deuième stratégie consiste à reconstruire localement quelques cellules autour du flu qu on veut évaluer, afin de reconstruire le support du schéma, ainsi, la grille est localement uniforme et la conservativité est assurée. Une dernière stratégie est envisagée et qui paraît la plus efficace. Elle consiste à ne pas reconstruire localement. C est l approche non-structurée. Les flu sont évalués directement à partir des valeurs moyennes de la grille hybride. Pour cette étude de thèse, le choi est imposé par le code CARMEN et c est la deuième stratégie qui a été privilégiée. On travaillera donc sur un maillage localement uniforme. Ce point sera détaillé au cours du chapitre??. Afin d étudier ces méthodes numériques de façon complète, on testera essentiellement deu types de schémas à capture de chocs. Ces schémas eplicites seront implémentés dans le code CARMEN et ils seront couplés à la structure arborescente déjà eistante. Le premier schéma est à discrétisation découplée en temps et en espace. La discrétisation en espace est faite avec un schéma ENO (Essentially Non Oscillatory) très classique d ordre 3, associé à un schéma temporel de type Runge-Kutta d ordre 2. Le second schéma est de type OS (One Step) d ordre 3, où la discrétisation est couplée en temps et en espace. L application de cette dernière famille de schémas constitue une des originalités de ce travail de thèse. On profitera aussi pour tester un troisième schéma à discrétisation spatio-temporelle couplée et déjà implémenté par O. Roussel dans le code CARMEN. Ce schéma est de type MacCormack d ordre 4 en espace et 2 en temps. Ce qui convient de rappeler à ce niveau, c est le but recherché par toutes ces applications. On sait bien qu en appliquant un schéma numérique, quel qu il soit, on introduira une erreur de discrétisation. Il s ajoutera à cela : l erreur de perturbation. Cette dernière est issue de l approche multirésolution. La somme de ces deu types d erreur constitue l erreur totale commise. Cette décomposition est en réalité reprise du livre de Müller [54]. Le rappel théorique sur l epression de toutes ces composantes de l erreur totale est fait dans la dernière partie du chapitre??. L évolution de chaque composante sera étudiée et analysée dans les chapitres 2 et 3. Par ailleurs, on a vu précédemment qu afin d obtenir un maillage hybride, on doit appliquer une opération de seuillage qui éliminerait toutes les cellules qui ne contiendraient pas d informations "pertinentes". C est essentiellement le choi de ce seuil de tolérance ε qui détermine le tau d erreur de perturbation

CHAPITRE 1. INTRODUCTION 9 commis. Or, plus on seuille (plus la valeur de ε est grande), plus on gagnera en coûts de calcul, mais plus on perdra en précision de la solution et inversement. Il faut donc, à travers le "bon choi de ε", trouver un compromis entre une précision globale acceptable de la solution et des gains en performances informatiques raisonnables afin que le calcul reste rentable. Une autre approche originale de ce travail de thèse consistera à comparer les performances informatiques et la précision de chaque approimation numérique. Par la suite, on couplera ces différents schémas afin de les étudier et d etraire la stratégie la plus optimale. Ce manuscrit sera articulé principalement autour de quatre parties : Présentation de tous les schémas de discrétisation étudiés sur un maillage cartésien classique au cours du chapitre??. Ces schémas seront couplés à une méthode de multirésolution adaptative. Définition de l analyse par ondelettes et présentation de la MRA pour les écoulements compressibles dans le chapitre?? de ce manuscrit, tous les aspects techniques de génération de maillages adaptatifs seront eplicités. On donnera la définition des différents opérateurs correspondant à la MRA. On décrira soigneusement la structure en arbre qui a été choisi pour traiter cette approche. Les résultats de ce couplage seront étudiés dans le chapitre 2 à travers quelques cas test académiques Euler en une dimension. Ces analyses seront étendues au cas bidimensionnels de Navier- Stokes. Tous les cas test considérés dans ce chapitre seront à écoulements libres. Un des objectifs de la MRA est la réduction des ressources informatiques. Ce gain est forcément associé à une perte de précision de la solution. Le but de ces analyses est donc de voir si un compromis entre ces deu aspects eiste ou pas. Est-il possible de définir une valeur optimale de ε?. Le chapitre 3, sera consacré à une application faite sur un cas bidimensionnel Navier-Stokes en présence de parois. Ce cas test se veu plus eigeant en temps CPU et en place mémoire. On testera avec cet eemple, les conclusions tirées des validations faites au cours du chapitre précédent.

Chapitre 2 Validation numérique La validation de l approche multirésolution d ordre 3 établie à partir d une structure en arbre est étudiée dans ce chapitre. À travers des cas tests très classiques, on souhaite par la même occasion effectuer quelques études. L un des intérêts de la multirésolution -et qui a déjà été mentionné au cours chapitre??- est d optimiser les ressources informatiques. Une des optimisations est obtenue en appliquant l opérateur de seuillage (seuillage de Harten), afin de supprimer des mailles jugées inutiles. Le pri à payer lors de ces suppressions est la perte en précision de la solution restituée. Il est évident qu il eiste une différence en termes de précision et de coûts de calcul entre la solution calculée sur la grille la plus fine et sur une grille hybride. Toute la difficulté est de trouver la bonne valeur de tolérance ε qui détermine le niveau de seuillage!. Car on le verra, ce gain dépend complètement du niveau de résolution et de la valeur de tolérance choisie. Donc la question qui se pose naturellement est : où se trouve le compromis entre la perte en précision et le gain en performances informatiques? On imagine bien que le but étant par la suite de valider cela en prenant un cas quelconque mais a priori très coûteu et d appliquer cette valeur trouvée de ε (cf. chapitre 3). On rappelle que le seuillage (en norme L 1 ) utilisé ici est le seuillage d Harten (??) et il consiste à prendre : ε j = 2 D(j J) ε (2.1) Le calcul des détails est basé sur le maimum de la norme du vecteur des quantités conservatives. Par conséquent, ce sont ces détails qui sont comparés à la valeur du seuil de tolérance ε j. Ce dernier s adapte à l échelle j. Les valeurs généralement prises de ε (et non pas de ε j ) sont très petites. Dans cette validation, on fera varier ε classiquement de 10 6 à 10 1 sur plusieurs niveau de résolution. Pour chaque cas d étude, on testera dans un premier temps les performances de chaque schéma implémenté dans le code. Les calculs effectués sur une grille totalement adaptative seront comparés à ceu d une grille complète. Ensuite, une autre optimisation est possible. Elle consiste à appliquer une combinaison de schémas. Elle peut être faite de plusieurs façons. Ici, on réserve l application d un schéma coûteu uniquement au voisinages des discontinuités sur l échelle maimale J, qu on combine avec un schéma plus classique et beaucoup moins onéreu sur le reste du domaine de calcul et à des échelles j < J. La validation numérique sera effectuée à l aide des différentes familles de schémas présentées brièvement au chapitre précédent. On appliquera la meilleure combinaison possible, selon la précision des approimations numériques. Par cette démarche, on veut déterminer les performances et les limites d utilisation de l approche multirésolution adaptative. On rappelle que les approimations numériques utilisées sont d une part les schémas 10

CHAPITRE 2. VALIDATION NUMÉRIQUE 11 OSMP3 et MacCormack4-2, et d autre part le schéma ENO3 couplé à un schéma temporel Runge-Kutta d ordre 2. Étant donné qu en général on se contente d une multirésolution d ordre 3, il n est pas nécessaire d avoir des schémas de plus haute précision. Car, comme on l a déjà mentionné en annee??, la précision globale des calculs est limitée par la précision du schéma de référence sur la grille la plus fine. De plus, il semblerait que pour une multirésolution d ordre supérieur à 3, les coûts de calcul seraient relativement inintéressants. Ce point reste discutable. On note par ailleurs que l etension de ces schémas d un cas scalaire à un système vectoriel (problème de Riemann), ainsi que le passage d un problème à une dimension au multidimensionnel, réduit leur précision globale à l ordre 2. Dans ce cas, une multirésolution d ordre 3 suffit. Les profils de référence sont soit des solutions eactes données semi-analytiquement ; soit des solutions convergées calculées avec des schémas d ordres supérieurs à ceu testé et avec un maillage plus dense et régulier. On comparera ces profils au solutions données à différentes échelles par les deu configurations, c est-à-dire, avec des maillages complets et des maillages adaptatifs. Comme on l a déjà mentionné plus haut, on fera une étude paramétrique en faisant varier le seuil de tolérance ε de la structure multiéchelle de 10 6 à 10 1 pour chaque échelle étudiée. Les performances de la multirésolution seront résumées dans des tableau et comparées avec l approche sans multirésolution (grille complète). On mesurera le tau de compression CPU et le tau de compression en place mémoire utilisée. Ceci permettra par la suite de sélectionner la valeur optimale de ε qui définit "le bon compromis" pour chaque cas d étude. On définit le tau de compression CPU comme étant le temps CPU que prend le calcul avec une grille adaptative par rapport au temps CPU d une grille complète. Quant à la mémoire utilisée, elle représente la place mémoire occupée par la structure en arbre, par rapport à la place mémoire occupée par la grille complète. On commencera pour l étude des performances par prendre comme seuil de tolérance : ε = 0. Ceci revient à prendre la structure en arbre complète. Le fait de prendre cette valeur permet, à titre indicatif, de voir ce que coûte, en réalité, la multirésolution avec une structure arborescente sans seuillage et donc sans suppression réelle de la mémoire des cellules dont le détail est nul. Une fois cette étude paramétrique faite, et la solution correspondant au ε optimal choisie, on effectuera dans la seconde partie de l étude de validation une analyse de l erreur. On commence par rappeler que l erreur totale e J (??) se décompose en deu parties : l erreur de discrétisation τ J (??) introduite par le schéma de référence et l erreur de perturbation π J (??) introduite par l opération de seuillage. On sait d emblée qu il n est pas aisé de calculer des erreurs lorsque des discontinuités eistent dans l écoulement étudié et que très probablement l erreur commise sera dominée par son estimation au voisinages de ces singularités. Néanmoins, pour effectuer cette analyse : On tracera pour chaque cas test et chaque schéma numérique l évolution des performances informatiques (CPU et place mémoire) en fonction de l erreur de perturbation π J calculée en norme L 1. Ceci permettra d étudier la perte de précision en fonction du seuil de tolérance ε pour une échelle donnée J. On vérifiera au passage, si son évolution suit bien une loi linéaire en ε, comme le prédit Harten. On tracera l évolution de l erreur totale e J calculée en norme L 1 en fonction de ε. On évaluera l erreur de discrétisation τ J en norme L 1.

CHAPITRE 2. VALIDATION NUMÉRIQUE 12 Toutes ces évaluations auront pour but d essayer de retrouver la valeur optimale de ε. Une dernière évaluation aura pour but de prouver la rentabilité de la multirésolution adaptative. Pour cela, pour chaque schéma, on choisit une échelle J sur laquelle tous les tau de compression CPU seront rapportés en fonction de l erreur totale et cela pour tous les ε étudiés. Ces résultats seront comparés au calculs de l erreur fait sur les grilles complètes J, J 1 et J 2. Étudier l erreur sur une grille complète J, revient à calculer l erreur de discrétisation τ J. Cela permettra de comparer et d analyser la perte de précision des deu approches : multirésolution et grille complète et de comparer leur rentabilité en fonction de ε. Cette étude pourra aussi valider le choi du ε optimal trouvé au préalable. Lorsque l on parle d échelle j à la dimension d espace D, le nombre de points correspondants est de 2 jd au maimum pour un grille complète. On rappelle que J représente l échelle la plus grande et donc le maillage le plus fin. Pour le calcul des différents types d erreurs, on travaillera toujours sur des solutions ayant le même nombre de points. Par eemple, pour comparer une solution multirésolution (MR) avec une solution de référence ou avec une solution sur une grille complète (GC), on aura d une part à reconstruire la solution MR jusqu au niveau le plus fin J grâce à l opérateur de prédiction (??), jusqu à atteindre 2 jd points. D autre part, s il s agit de solutions de référence, elles seront -si possible- recalculées avec 2 jd points. S il s agit d une solution sur une grille complète (GC), alors on s assurera aussi d avoir 2 jd points. Cette reconstruction est nécessaire pour l étude de l erreur. Ces études sont toujours faites en norme L 1. Par ailleurs, afin de voir ce que coûte chaque point de calcul, on a introduit l opération suivante : "temps CPU en seconde /nombre de pas de temps nombre de points du maillage". Cette opération désigne la "puissance de calcul" qui apparaît dans tous les tableau récapitulatifs ci-dessous. On note que dans tous les calculs effectués, le pas de temps est constant. Par conséquent, la valeur du CFL donnée est une valeur initiale. Elle sera amenée à être modifiée au cours du calcul. 2.1 Cas 1D non visqueu On commence ici par valider les cas non visqueu à partir des équations d Euler (??). On a choisi de présenter trois cas test académiques : Le tube à choc de Sod, qui est un test incontournable. On souhaite par ce cas d école vérifier que les schémas utilisés dans une approche multirésolution arrivent à bien capturer l onde de choc et la discontinuité de contact qui s y développent. Le tube à choc de La, qui représente une variante ou un cas plus sévère que le cas test de Sod. Le test choc-turbulence de Shu et Osher. L étude de ce test est intéressante dans la mesure où on a une génération de multi-structures suite à un fort couplage non linéaire. À travers cette étude préliminaire de cas test 1D non visqueu, on va étudier le comportement des différents schémas sur une structure en arbre et sous des conditions très variées en terme de maillage et d erreur. Cette démarche est nécessaire afin de valider l approche adaptative avant de l étendre à des problèmes académiques multidimensionnels incluant de la turbulence, puis à des cas encore plus réalistes. Pour cela, le test de Shu Osher est un très bon candidat.

CHAPITRE 2. VALIDATION NUMÉRIQUE 13 2.1.1 Tube à choc de Sod Description : Le premier cas test 1D étudié ici est celui du tube à choc de Sod [34]. Initialement, il s agit d un tube, qui contient deu gaz au repos séparés par un diaphragme dont on donnera ci-dessous les conditions initiales. Après rupture de la membrane, des ondes de détente (à gauche), une onde de choc et une discontinuité de contact (à droite) se propagent. Le domaine spatial est normalisé à l intervalle [- 1,1]. On visualise les solutions au temps sans dimension de t = 0.4. Les calculs sont effectués avec un CF L = 0.25. Les conditions au limites sont de type Neumann. Les conditions initiales sont : { ρ = 1, u = 0, p = 1 si < 0. Étude et résultats : ρ = 0.125, u = 0, p = 0.1 si > 0. Afin de donner une première idée de ce que coûte en temps réel la multirésolution pour ce premier cas test, on fait varier le seuil de tolérance ε de la structure arborescente sur deu niveau de résolution. On résume par la suite les performances du schéma OSMP3 à l échelle 8 et 9 dans des tableau. Voir les TAB.(2.1) et TAB.(2.2). Ces performances en multirésolution (MR) sont comparées à celles de la grille complète (GC), qui représente la référence en termes de coûts. Pour un calcul effectué sur une grille fine, les coûts sont fiés à 100% puisqu ils représentent la référence de comparaison. On voit sur ces mêmes tableau que pour ε = 0, la structure en arbre devient plus onéreuse. Le surcoût en temps CPU est dû à la structure dynamique elle-même et à la gestion d un arbre plein par des pointeurs et des procédures récursives. Quant à la mémoire utilisée, toujours dans la cas d un arbre plein et qui est à 200%, elle s eplique par le fait qu en une dimension et à un certain niveau d échelle J, on a : j=j 2 j = 2 J+1 1 points dans l arbre j=0 Étant donné que la place mémoire occupée par la grille fine est la référence et contient 2 J points ; alors le tau d occupation en mémoire d un arbre plein est de : %mémoire = 100 2J+1 1 2 J Ce rapport tend vers 200% en une dimension lorsque l échelle tend vers l infini. La puissance de calcul indique le coût de chaque configuration. L arbre plein (ε = 0) est la configuration la plus coûteuse. Elle n est représentée ici qu à titre indicatif. Pour les deu niveau de résolution et ecepté pour ε = 0, l approche grille fine est bien la plus onéreuse. Cette puissance de calcul diminue avec la multirésolution et avec l augmentation de l échelle. Tout ceci est confirmé par l analyse des performances en temps CPU et en place mémoire occupée. À l échelle 8, par eemple, la multirésolution est rentable en terme de compression CPU quelque soit la valeur de ε prise entre 10 6 et 10 1. En revanche, la place mémoire occupée par le calcul ne commence à être intéressante qu à partir de ε = 10 2. Alors

CHAPITRE 2. VALIDATION NUMÉRIQUE 14 ε Temps CPU (s) Compression CPU Compression Mémoire Puissance de calcul GC 8.39 100% 100% 1.348701e-04 0 10.98 128.36% 200% 1.765046e-04 10 6 5.97 71.08% 112.92% 9.596836e-05 10 5 5.95 70.84% 110.95% 9.564686e-05 MR 10 4 5.79 67.69% 109.07% 9.307445e-05 10 3 5.48 65.25% 105.20% 8.809156e-05 10 2 4.99 58.33% 96.56% 8.021476e-05 10 1 3.36 40.00% 66.86% 5.401234e-05 TAB. 2.1 Sod, échelle = 8, 243 Itérations, t = 1.65 10 3, schéma OSMP3 ε Temps CPU (s) Compression CPU Compression Mémoire Puissance de calcul GC 32.87 100% 100% 1.323695e-04 0 44.84 133.75% 200% 1.805734e-04 10 6 19.86 59.24% 91.70% 7.997744e-05 10 5 18.92 56.43% 88.09% 7.619201e-05 MR 10 4 17.16 50.25% 80.57% 6.910438e-05 10 3 15.23 44.60% 72.82% 6.133215e-05 10 2 13.22 39.43% 63.66% 5.323775e-05 10 1 8.70 26.44% 42.99% 3.503543e-05 TAB. 2.2 Sod, échelle = 9, 485 Itérations, t = 8.25 10 4, schéma OSMP3

CHAPITRE 2. VALIDATION NUMÉRIQUE 15 qu à l échelle 9, le gain (très relatif) en performance est immédiat -surtout quant au tau de compression CPU- pour toutes les valeurs de tolérance différente de 0. À partir de ces deu tableau, on représente quelques courbes en choisissant l échelle à 9 et ε = 10 3. On précise que ce choi a été fait d une part après avoir analysé graphiquement toutes les solutions MR et d autre part en analysant les performances informatiques du TAB.(2.2). On estime que pour ce ε, un tau de compression CPU de 44% et une place mémoire utilisée à 72% sont des gains intéressants. On a résumé les performances correspondantes à ce point de fonctionnement pour les autres schémas dans TAB.(2.3). On remarquera sur ce tableau que la combinaison de schémas MacCormack4+OSMP3 est l option la plus rentable. Schémas Temps CPU (s) Compression CPU Compression Mémoire Puissance de calcul OSMP3 15.23 44.60% 72.82% 6.133215e-05 MacCormack4/OSMP3 12.19 36.36% 73.79% 4.908988e-05 ENO3 12.56 50.57% 75.00% 5.057989e-05 TAB. 2.3 Sod, échelle = 9, ε = 10 3, 485 Itérations, t = 8.25 10 4 Avec une première analyse visuelle, on pourrait dire que la solution donnée par la multirésolution FIG.(2.1)-b correspond presque parfaitement à la solution donnée par la grille régulière à l échelle 9, FIG.(2.1)-a. En effet, comparée à la solution eacte, la discontinuité de contact située à [0.3, 0.4] est la structure la plus difficile à capturer même à une échelle supérieure. Quant au choc qui se trouve autour de [0.5, 0.6], il est évidemment mieu représenté, FIG.(2.1)-c. Mais là encore, qualitativement, aucune différence n est observée entre les deu approches. Donc, avec des coûts moindres par rapport à la grille complète, TAB.(2.2), la multirésolution restitue a priori la même solution. Sur la même figure (voir FIG.(2.1)-d-e-f), la structure en arbre a été représentée à différentes valeurs du seuil de tolérance : ε = 10 3, 10 2 et 10 1 où l on peut constater la concentration de points de calcul autour des forts gradients. On note que plus ε est petit, plus les points seront denses autour des discontinuités (??) et (??). Ceci signifie que la procédure d élagage est de moins en moins appelée et l on choisit par conséquent de garder plus d informations. On rappelle que ε est fié en général par l utilisateur. La pertinence de ce choi est abordée à travers l étude de l erreur et par la qualité de solution restituée après le seuillage. Il faut donc faire très attention puisque cette analyse a priori ne nous donne aucune information quantitative sur la qualité de la solution. Dans ce cas précis, les solutions données à l échelle 10 par eemple ne sont que sensiblement meilleures par rapport à celles données au échelles inférieures, à un seuil de tolérance donné. Un compromis est donc à faire entre le temps de calcul en absolu et la qualité de la solution. C est partant de ce constat et des tableau TAB.(2.1) et TAB.(2.2), qu on a sélectionné la solution à l échelle 9 avec un ε = 10 3 pour les visualisations de la FIG.(2.1). Étude et analyse de l erreur Étant donné qu on ne constate pas visuellement les différences entre les différents profils, on calcule l erreur de perturbation π J n définie par (??). On rappelle que ce terme représente la différence entre un profil calculé avec un schéma donné sur une grille complète, comparé à un profil calculé par la multirésolution à un seuil de tolérance donné.

CHAPITRE 2. VALIDATION NUMÉRIQUE 16 (a) Grille complète (b) Grille adaptative avec ε = 10 3 1.1 1 sol eacte GC 1.1 1 sol eacte MR 0.9 0.9 0.8 0.8 0.7 0.7 rho 0.6 rho 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 1 0.5 0 0.5 1 0.1 1 0.5 0 0.5 1 (c) Zoom sur la discontinuité de contact et le choc (d) Structure en arbre 0.45 0.4 sol eacte GC MR 10 9 ε=10 3 0.35 8 rho 0.3 0.25 Echelle 7 0.2 6 0.15 5 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 4 1 0.5 0 0.5 1 (e) Structure en arbre (f) Structure en arbre 9 ε=10 2 9 ε=10 1 8 8 7 7 Echelle Echelle 6 6 5 5 4 1 0.5 0 0.5 1 4 1 0.5 0 0.5 1 FIG. 2.1 Distribution de masse volumique du cas test de Sod, échelle=9, t=0.4, CFL=0.25, schéma OSMP3

CHAPITRE 2. VALIDATION NUMÉRIQUE 17 (a) Echelle=8 (b) Echelle=9 0.01 0.001 ε=10 1 OSMP3 MacCormack4 OSMP3 ENO3 0.01 0.001 ε=10 1 OSMP3 MacCormack4 OSMP3 ENO3 Log(Erreur L1)/grille complète 1e 04 1e 05 1e 06 1e 07 ε=10 2 ε=10 3 ε=10 4 Log(Erreur L1)/grille complète 1e 04 1e 05 1e 06 1e 07 ε=10 2 ε=10 3 ε=10 4 ε=10 5 1e 08 ε=10 5 ε=10 6 1e 09 20 30 40 50 60 70 80 90 % Compression CPU 1e 08 ε=10 6 1e 09 10 20 30 40 50 60 70 % Compression CPU FIG. 2.2 Erreurs de perturbation π 8 et π 9 calculées en norme L1 : erreur de la multirésolution par rapport à la solution sur grille complète pour ε variant de 10 6 à 10 1, Sod La FIG.(2.2) montre comment varie l erreur de perturbation π 8 n (FIG.(2.2)-a) et π 9 n (FIG.(2.2)-b) calculées en norme L1 en fonction du tau de compression CPU et pour diverses valeurs de ε et ce pour plusieurs schémas. On retrouve ici les schémas OSMP3, ENO3 mais aussi la combinaison de schémas entre l approche OS avec le schéma MacCormack4. Toujours sur la FIG.(2.2), quelque soit le schéma, on retrouve évidemment le tau d erreur le plus faible correspondant à ε = 10 6. La compression CPU correspondante définit aussi le coût de la multirésolution par rapport à l approche grille complète. Pour les autres valeurs de ε, on remarque d une part que quelque soit l échelle, le gain global est important dès ε = 10 4. Ceci est essentiellement dû au fait que pour le tube à choc de Sod, les zones régulières dominent le domaine de calcul. D autre part, en comparant ces mêmes courbes à des niveau de résolution différents : (FIG.(2.2)-a pour l échelle 8 et FIG.(2.2)-b pour l échelle 9), on voit que la multirésolution est plus rentable lorsque l échelle est plus importante. On note aussi qu au niveau 9, l erreur varie de façons moins abrupte à partir de ε = 10 3, comparée à l échelle 8. Ceci s eplique par le fait qu à une échelle supérieure, l évaluation des flu numériques est relativement plus précise et que l erreur introduite par la procédure de seuillage est moins importante. La dégradation de la solution est donc plus linéaire à cette échelle. Par ailleurs, la référence de comparaison pour la courbe (MR) en OSMP3 par eemple, est bien la grille complète en OSMP3 et ainsi de suite pour chaque courbe. Ce qui signifie que la référence n est pas la même, puisque le schéma est différent. Par conséquent, on ne peut conclure sur cette figure sur la précision ou la qualité d un schéma en le comparant au autres. En revanche, on peut conclure sur le coût de chacun en remarquant qu effectivement le ENO3 est relativement plus coûteu par rapport au autres à une précision donnée, FIG.(2.2). C est la raison pour laquelle on n a pas de combinaison OSMP3+ENO3. En effet, le schéma ENO3 est plus diffusif que le schéma OSMP3 et donc moins précis FIG.(2.3), ce qui dissuade de l utilisation de la combinaison MacCormack4+ENO3, puisqu au mieu, on retrouvera des profils aussi précis que ceu donnés par le ENO3.

CHAPITRE 2. VALIDATION NUMÉRIQUE 18 (a) Zoom sur la discontinuité de contact (b) Zoom sur le choc 0.44 0.42 0.4 sol eacte OSMP3 MacCormack4 OSMP3 ENO3 0.28 0.26 0.24 sol eacte OSMP3 MacCormack4 OSMP3 ENO3 rho 0.38 0.36 0.34 0.32 rho 0.22 0.2 0.18 0.3 0.16 0.28 0.14 0.26 0.3 0.32 0.34 0.36 0.38 0.4 0.42 0.12 0.65 0.66 0.67 0.68 0.69 0.7 0.71 0.72 0.73 0.74 0.75 (c) Zoom sur la partie gauche de la zone de détente (d) Zoom sur la partie droite de la zone de détente 1.02 1 0.98 0.96 sol eacte OSMP3 MacCormack4 OSMP3 ENO3 0.5 0.49 0.48 sol eacte OSMP3 MacCormack4 OSMP3 ENO3 0.94 0.47 rho 0.92 0.9 rho 0.46 0.88 0.45 0.86 0.84 0.82 0.44 0.43 0.8 0.55 0.5 0.45 0.4 0.35 0.42 0.1 0.08 0.06 0.04 0.02 0 0.02 0.04 FIG. 2.3 Agrandissements du profil de masse volumique à l échelle=9 et ɛ = 10 3, t=0.4, CFL=0.25, Sod

CHAPITRE 2. VALIDATION NUMÉRIQUE 19 On a aussi voulu voir comment évoluait l erreur de perturbation π J en fonction du seuil de tolérance ε. On peut constater après le calcul de la pente sur la FIG.(2.4), que l évolution de cette erreur obéit à une loi quasi-linéaire et que celle-ci est presque la même pour tous les schémas étudiés. Cette loi est la suivante : π 9 n L1= ε 0.92 10 1.7 (2.2) Alors que la théorie prédit une évolution linéaire (??), [60, 7]. On conclut sur ce cas test que ce résultat sur la loi d évolution de π 9 n est très proche de la théorie. L estimation stricte de l erreur de perturbation π 9 est en réalité plus difficile à faire. Car cela reviendrait à estimer l erreur de discrétisation sur un maillage hybride où plusieurs niveau d approimation coeistent. Or, ce que l on a appelé jusqu ici "erreur de discrétisation", c est la différence entre la grille complète (et non hybride) et la solution de référence calculée sur une grille tout aussi complète. Donc, les résultats qu on a sur la FIG.(2.4) ne représentent qu une idée approimative de ce que peut valoir cette erreur de perturbation. En revanche, on peut estimer l erreur totale e 9 τ 9 + π 9 qu on voit croître avec ε de manière très prévisible, voir FIG.(2.5)-a. La perte de précision du schéma MacCormack4+OSMP3 induit une erreur totale encore plus importante. 0.01 0.001 L1 erreur/grille complète 1e 04 1e 05 1e 06 1e 07 1e 08 OSMP3 MacCormack4 OSMP3 ENO3 Loi Sod échelle 9 1e 09 1e 06 1e 05 1e 04 0.001 0.01 0.1 1 ε FIG. 2.4 Loi d évolution de l erreur de perturbation π 9 n, Sod Maintenant qu on a donné des estimations quantitatives de l erreur de perturbation πn 9, on doit compléter cette étude par une estimation de l erreur de discrétisation τn 9. On rappelle que cette dernière est l erreur commise entre la solution donnée par la grille fine par rapport à la solution eacte (??). Sur la FIG.(2.5)-a on distingue deu paliers. Le premier palier représente l erreur de discrétisation commise par le schéma ENO : τ eno. Elle est la plus importante avec : τeno 9 = 1.59 10 3. Quant au second palier, il donne cette même erreur pour les schémas OSMP3 et la combinaison MacCormack4+OSMP3 : τ os où τosmp 9 = 8.08 10 4. On rappelle que la référence en grille complète concernant la combinaison MacCormack4+OSMP3 est bien le schéma OSMP3. Au delà de ces paliers, on peut voir la croissance des erreurs totales : e 9 os πos 9 + τos 9