Évolution d un solveur Navier-Stokes massivement parallèle pour l'étude du déferlement des vagues



Documents pareils
Rapport 2014 et demande pour Portage de Méso-NH sur Machines Massivement Parallèles du GENCI Projet 2015 : GENCI GEN1605 & CALMIP-P0121

Infrastructure de calcul du CRRI

PRACE Appels à projets : mode d emploi. Virginie MAHDI, responsable projets de GENCI

Retour d expérience, portage de code Promes dans le cadre de l appel à projets CAPS-GENCI

SIGAMM/CRIMSON COMMISSION UTILISATEUR du 05/12/2014

Limitations of the Playstation 3 for High Performance Cluster Computing

Architecture des ordinateurs

HPC by OVH.COM. Le bon calcul pour l innovation OVH.COM

L ingénierie numérique libre et CAELinux: passé, présent et avenir

Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales

Le supercalculateur Tera 100 Premier supercalculateur pétaflopique européen

Infrastructures Parallèles de Calcul

La maison de la simulation

Figure 3.1- Lancement du Gambit

ETUDE COMPARATIVE DES MODELISATIONS NUMERIQUE ET PHYSIQUE DE DIFFERENTS OUVRAGES D EVACUATION DES CRUES

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle

Projet Optiperf : les ressources du calcul parallèle à destination des architectes navals

INITIATIVE HPC-PME Calcul haute performance pour les PME

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux

Calcul Haute Performance & Données

Happy birthday ZSet High performance computing dans ZSet

Visite de presse. Le supercalculateur Tera - 10

Multiprogrammation parallèle générique des méthodes de décomposition de domaine

Tests de SlipStream sur les plateformes et : vers la. Vers la fédération du Cloud computing

NUMECA et son bureau d études NUMFLO, spécialisé dans la simulation numérique des effets du vent

Les mésocentres HPC àportée de clic des utilisateurs industriels

WN/CMGC/08/98. Enjeu et problématique du portage d'arpege-nemo sur calculateurs super-scalaires. Eric Maisonnave

MAIDESC - KO 21 Novembre 2013 Etienne Wey Alexandre Boilley

Diagrammes de Package, de déploiement et de composants UML

Formation à la C F D Computational Fluid Dynamics. Formation à la CFD, Ph Parnaudeau

Leçon 1 : Les principaux composants d un ordinateur

Introduction à la Visualisation Scientifique

Toulouse 27 et 28 mars 2013

Intérêt des codes FEC pour le stockage distribué Le projet ANR FEC4Cloud et la solution RozoFS

Big Data et Graphes : Quelques pistes de recherche

Initiation au HPC - Généralités

LIVRET D INFORMATION. Livret d information des utilisateurs des ressources GENCI dans les centres nationaux

ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab

Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing

Masses de données et calcul : à l IRIT. 8 octobre 2013

Compte rendu des utilisations du calculateur TITAN au LACy

Montrouge, le 9 février Centre national d équipement nucléaire (CNEN) EDF 97 avenue Pierre Brossolette MONTROUGE

1 Description générale de VISFIELD

Projet ANR. Bruno Capra - OXAND. 04/06/2015 CEOS.fr - Journée de restitution (Paris) B. CAPRA

Présentation du module Base de données spatio-temporelles

Choisir le bon ordinateur. et la bonne imprimante en avec. Les prix bas, la confiance en plus

T.P. FLUENT. Cours Mécanique des Fluides. 24 février 2006 NAZIH MARZOUQY

T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5

Projet IGGI. Infrastructure pour Grappe, Grille et Intranet. Fabrice Dupros. CASCIMODOT - Novembre Systèmes et Technologies de l Information

Gestion de clusters de calcul avec Rocks

Retours d expériences et perspectives sur les aspects énergétiques

Big Data et Graphes : Quelques pistes de recherche

Évaluation et implémentation des langages

AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES

EDITION 2009 DOCUMENT DE SOUMISSION B. REaching Petascale for advanced fluid-structure transient DYNamics

Rapport du projet CFD 2010

Cerea. Centre d enseignement et de recherche en environnement atmosphérique

Utilisation du Cloud StratusLab dans le cadre d application astroparticule à l APC

Chapitre 7: Dynamique des fluides

Introduire un nouveau type de maille ou un nouvel élément de référence

Journée Scientifique Onera

Portage d applications sur le Cloud IaaS Portage d application

PC Check & Tuning 2010 Optimisez et accélérez rapidement et simplement les performances de votre PC!

Introduction au datamining

Le calcul intensif chez PSA Peugeot Citroën. TERATEC 28 juin 2011

Rapport d activité. Mathieu Souchaud Juin 2007

Quantification d incertitude et Tendances en HPC

SPÉCIALITÉ Sciences Mécaniques et Ingénierie (SMI)

Programmation C. Apprendre à développer des programmes simples dans le langage C

4. Utilisation d un SGBD : le langage SQL. 5. Normalisation

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Rencontre sur la thématique du Calcul Haute Performance - 13 juin Better Match, Faster Innovation

FUSION PAR CONFINEMENT MAGNÉTIQUE

Protection des données avec les solutions de stockage NETGEAR

UNIVERSITÉ D ORLÉANS ÉCOLE DOCTORALE MIPTIS MATHÉMATIQUES, INFORMATIQUE, PHYSIQUE THÉORIQUE ET INGÉNIEURIE DES SYSTÈMES. THÈSE présentée par :

Ordinateur portable Latitude E5410

ÉJECTEURS. CanmetÉNERGIE Juillet 2009

Journée Utiliateurs Nouvelles du Pôle ID (Informatique) Pierre Neyron, LIG/CNRS

«Les projets collaboratifs pour les nuls»

Hiérarchie matériel dans le monde informatique. Architecture d ordinateur : introduction. Hiérarchie matériel dans le monde informatique

SERVEUR CALLEO APPLICATION R269M

Technologie de déduplication de Barracuda Backup. Livre blanc

Guide d installation

Etude d architecture de consolidation et virtualisation

l'atelier Scientifique

SIMULATION NUMERIQUE DU FLUX D AIR EN BLOC OPÉRATOIRE

Etude numérique et expérimentale du processus de recompression le long d un éjecteur supersonique

Eric Bertrand 08/11/06 Maître de conférence 1

Installation et configuration du CWAS dans une architecture à 2 pare-feux

libérez votre innovation avec l extreme computing CEA/Philippe Stroppa

Eléments d architecture des machines parallèles et distribuées

Caractéristiques techniques

Informatique industrielle A Systèmes temps-réel J.F.Peyre. Partie I : Introduction

Autonomie et fragilités de la recherche académique Financements sur projet et reconfigurations du travail scientifique

Poste de travail d enregistreur vidéo en réseau

«clustering» et «load balancing» avec Zope et ZEO

Objectifs du cours Modélisation de la Turbulence M2 - EE

SERVEUR LYNX CALLEO DATACENTER 2460

Transcription:

Évolution d un solveur Navier-Stokes massivement parallèle pour l'étude du déferlement des vagues Stéphane Glockner, Pierre Lubin, I2M UMR 52 95 glockner@ipb.fr p.lubin@i2m.u-bordeaux1.fr

Introduction Objectif Présenter l évolution d'un code de calcul pour des simulations 3D à caractère environnemental, dans un contexte de calcul intensif, des calculateurs régionaux aux supercalculateurs européens. Recours au calcul intensif. Pourquoi? - Ecoulements turbulents, au large spectre d'échelles spatio-temporelles - Plus fines structures de l'ordre du 1/10 mm - Instrumentation compliquée - Rôle de l entraînement de l'air crucial - Identification incomplète des structures aérées et turbulentes Plan Les phénomènes physiques Thétis Calcul parallèle I/O Visualisation Application au déferlement Perspectives

Le déferlement plongeant se produit en plusieurs étapes. Retournement de l onde sur elle-même Éjection d un jet Impact du jet sur la face avant de la vague Génération d un jet secondaire (splash-up) Entraînement de l air dans l eau Génération de turbulence Plusieurs types de macro-structures cohérentes sont observées dans les vagues déferlantes Zhang and Sunamura (1994)

Le 13 septembre 2009... Un mail et... Lien Youtube Structures tourbillonnaires inhabituelles complètement 3D Tubes d air dans la direction de l écoulement principal Ces filaments s étirent et connectent le splash-up et la poche principale d air Aucune étude académique expérimentale ou numérique

Thétis - contexte Développé à l'i2m depuis 20 ans (http://thetis.enscbp.fr). Code à triple usage Recherche Industrie Enseignement Environnement multiple Du PC au supercalculateur S'appuie sur la structure pyramidale du calcul intensif Linux et Windows Plusieurs compilateurs (Intel, GNU, PGI) Plusieurs librairies MPI (OpenMPI, MPT, intel, Bull) Documenté, interfacé Contexte de vérification / validation Outil d'une équipe +100 ACL depuis 5 ans s'appuyant sur Thétis Projets région Aquitaine (2007, 2012), ANR (2+2), PE (2), coll. institutionnelles et industrielles (ARCELOR, SNECMA, CEA,etc.), projet Lascaux Et au-delà, exemples d'utilisation passés ou présents : SIAME, LEMTA, IMFT, ICMCB, LOMC, P', LTN, GEPEA, etc.

Thétis - équations / méthodes Navier-Stokes incompressible, modèle 1-fluide, LES Reconstruction de l'interface air/eau par VOF-PLIC Couplage vitesse/pression Étape de prédiction : éq. vectorielle Étape de correction : éq. d'helmholtz à coeff. variable Maillages structurés par blocs, volumes finis, ordre 2 Solveurs Étape de prédiction : BiCG, préconditionnement Jacobi diagonal (Thétis) Étape de correction : CG, préconditionnement Multigrille (Hypre)

À partir de 2005 Calcul Parallèle historique / objectifs / moyens démocratisation des clusters et explosion des moyens de calcul (en 2007 CINES-jade) développement de la version parallèle Objectifs réduire le temps de calcul vrai jusqu'à un certain point augmenter la taille des problèmes Moyens : s'appuyer sur la structure pyramidale des ressources Cluster de laboratoire projets région Aquitaine Mesocentre (Avakas) MCIA GENCI (Jade, Titane, Curie) quelques Mh CPU / an PRACE (Curie) Preparatory Access PA2012 Regular call 2013 (13 Mh CPU)

Calcul Parallèle approche choisie, évolution Plusieurs possibilités : OpenMP, MPI, GPU Objectif principal est d'augmenter la qualité des simulations de problèmes multiéchelles par l'augmentation du maillage augmentation de la mémoire utilisée nécessité de répartir la mémoire sur plusieurs nœuds EDP, dépendance spatiale de la solution MPI (échanges explicites de messages entre nœuds) Du PC au supercalculateur Stratégie payante, code de production sur qq dizaines de millions de points Extension récente à 10 9 points (PRACE), mais : Problèmes connexes de transferts de données / stockage / visualisation Les algorithmes/développements/codes prennent du retard sur la puissance de calcul disponible Augmentation des cœurs dans le nœud MPI / OpenMP (// isme de boucle)

Calcul Parallèle stratégie de développement Thétis = Résolution d'edp Structure du code, modèles, schémas I2M Partitionnement du domaine Répartir la charge Minimiser les communications Discrétisation Échanges MPI I/O Solveurs I2M + Hypre BiCGStab + Jacobi I2M (produits mat-vec, produits scalaires) CG + préconditionnement Multigrille Hypre (Livermore) Scalabilité forte : nombre de points du maillage total constant, on augmente le nombre de cœurs attente d'une réduction linéaire du temps de calcul avec le nombre de cœurs Scalabilité faible : nombre de point constant par cœur, on augmente le nombre de cœurs et donc la taille globale du problème attente d'un temps de calcul constant ou linéaire

Calcul Parallèle - performances Avakas (MCIA) : nœuds Intel Westmere à 12 cœurs, 3 168 cœurs Curie (TGCC) : nœud Intel Sandy Bridge à 16 cœurs, 80 640 cœurs

I/O - performances POSIX 10 millions de points, 400Mo de données, OK par 1 processeur, mais inélégant Au delà, besoin d'écriture // POSIX : 1 fichier / processus MPI, des milliers de fichiers à visualiser, logiciel de visualisation adéquat MPI IO : 1 seul fichier pour tous les processus, librairies spécialisées au dessus de MPI IO, HDF5, netcdf, etc. Perfomances I/O POSIX p cœurs ; chaque cœur écrit N Mo données dans un fichier séparé en Ti s Débit soutenu agrégé max_sar = somme(n/ti) min_sar = N.p / max(ti)

Transferts de données / Visualisation Simulation de 86 millions de points sur 576 cœurs (Avakas) 1 To 60-80Mo/s 4h de transfert Simulation de 600 millions de points sur 4096 cœurs (Curie) 8 To 30-40Mo/s (plusieurs scp en //) 62h de transfert au mieux Stockage (plusieurs dizaines de To le temps du traitement, de l écriture des publications) Post-traitement // local (Paraview) Post-traitement à distance Tout visualiser? Visualisation exploratoire Visualisation sélective

Le déferlement d une onde sinusoïdale instable est contrôlée par deux paramètres Ea u L Domaine périodique H Cambrure initiale Paramètre de dispersion L d L Description du spectre continu des types de déferlement On s intéresse : Déferlement plongeant Identification et caractérisation des filaments de vortex aérés Mécanismes de création des filaments

Visualisation animation 1 Identification des filaments Simulation de 86 millions de points sur Avakas (MCIA) 576 processeurs ; + 100 000 fichiers.vts visualisation avec Paraview sur 16 cœurs ; convert, montage, mencoder Lien video

Visualisation animation 2 Isolation d un filament Visualisation exploratoire, difficile en raison du caractère chaotique de l écoulement et de sa forte aération Isolation d un filament pour étudier le mécanisme de génération Lien video

Intérêt du calcul intensif, de l utilisation de la structure pyramidale des moyens Simulation du déferlement 2004, 500 000 points, séquentiel, 2 mois Lien video Rouleau principal local + mesocentre Filaments, niveau grossier mesocentre / GENCI Filaments, niveau fin PRACE

Visualisation animation 2 Nécessité d augmenter la résolution en maillage Domaines plus grands Capter les filaments les plus fins qui se désagrègent Toutes les structure turbulentes sont-elles aérées? Simulation de 655 millions de points sur Curie, 4 096 processeurs ; + 1 000 000 fichiers.vts Lien video

Conclusion - Perspectives Évolution d'un outil de calcul, du PC aux calculateurs européens Tout doit être parallèle : calcul, IO, transferts, stockage, visualisation Constante adaptation aux évolutions matérielles (many cores, ) Evolution des méthodes numériques (s adapter aux machines, aux solveurs disponibles, traitement de l interface air/eau) Apport du calcul intensif pour une meilleure description et compréhension du déferlement Vers l'expérimentation numérique 3D pour l'environnement (Déferlement des vagues, Mascaret, Tsunami) écoulements turbulents, au large spectre d'échelles spatio-temporelles recours nécessaire au calcul intensif approche Navier-Stokes 3D de plus en plus réaliste Objectifs Comprendre/expliquer/prédire/anticiper ces phénomènes Alimenter finement les modèles 2D à plus grande échelle (côte, mer, océan)