Le projet MECAGRID Herve.Guillard@sophia.inria.fr - Projet SMASH 1
GRID COMPUTING 1. Grilles de calcul : plusieurs grands sites de calcul // reliés par des réseaux spécialisés, modèles de calcul : divers. (a) Couplage de codes (2 rarement plus) : échange de données de temps en temps entre des phases de calculs relativement longues ex : ARC COUPLAGE (b) Application parallèle : grille vue comme un supercalculateur virtuel en aggrégeant toutes les ressources disponibles au sein d une certaine communauté 2. Applications de type peer-to-peer / calcul global : des codes indépendants utilisent des machines inoccupées pour résoudre des problèmes de grande taille, modèle de calcul : parallélisme massif, peu de communication entre sites. ex : SETI@home 2
MECAGRID Projet Pluridisciplinaire durée 3 ans, T0 = 10 octobre 2002 Partenaires Centre de mise en Forme des Matériaux, Ecole des mines de Paris Projet Smash, Inria Sophia et de l IUSTI Marseille Projet Opale, Inria Sophia, Grenoble Moyens humains Olivier Basset, Doctorant, Algorithme de couplage entre codes Compressible et Incompressible, Ecole des mines. XXX, Ingénieur expert, CDD sur 2 ans, Inria Sophia, Installation et développement du Middleware, assistance aux utilisateurs. XXX, Post-Doc Application et tests en calcul parallèle, Marseille. 3
MECAGRID : OBJECTIFS Batir une grille de calcul régionale à partir de grappes de PC Grille dédiée à des applications en mécanique des fluides Simulation numérique multi-matériaux : Interfaces liquide-gaz, Formation de mousses, passage micromacro 4
EXEMPLE : FORMATION DE MOUSSE. 5
LES MACHINES CEMEF - SOPHIA Grappe de PC assemblé par Alineos 32 bi- processeurs Pentium III (1GHz) / Linux Red Hat 7.1 2 reseaux d interconnection : Myrinet 2 gigabit + Fast Ethernet 100 Megabit full-duplex environnement de programmation parallèle MPI (MPICH 1.2..8 Argonne Myrinet ) (MPICH 1.2.2 fast ethernet) Gestionnaire de batch OPEN PBS Compilateur Portland, f90, f77, C, C++ 6
LES MACHINES INRIA - SOPHIA 16 bi-xeon @ 2Ghz + 19 PC bipro Pentium III @ 933 Mhz + 14 bipro Pentium III @ 500 Mhz/ Linux Red Hat 2.4.17 Fast-Ethernet Network 100 Mb/s full-duplex. environnement de programmation parallèle : PVM Version 3.4.2 et MPICH version 1.2.4 et LAM/MPI version 6.5.4 Gestionnaire de batch LSF Compilateur Portland, f90, f77, C, C++ 7
LES MACHINES IUSTI - MARSEILLE Grappe de PC assemblé par Alineos 1 serveur + 32 P IV mono-processeurs à 2 GigaHz (512 Koctets de cache, 512 MegaOctets de RDRAM) Linux Red Hat 7.2 Noyau 2.4.17 Fast-Ethernet Network 100 Mb/s full-duplex. environnement de programmation parallèle : MPI-CH 1.2.3 Gestionnaire de Batch OpenPBS Compilateur INTEL f77, f90, C, C++ 8
LES LOGICIELS Codes de suivi d interfaces entre milieux compressibles : codes Fortran parallélisés MPI. Volumes finis sur maillages non-structurés, tétraèdres en 3D Solveurs de Riemann Implicite : Systèmes linéaires, matrice très creuses mais par blocs Code de remplissage de moule REM3D dédié à l injection de polymères codes C++ et Fortran parallélisés MPI. Eléments finis sur maillages non-structurés, tétraèdres en 3D Implicite : Systèmes linéaires de type Stokes, matrice très creuses mais par blocs Middleware 9
REALISATIONS Problèmes mono-modèles Etude de la problématique du couplage multiphysique Modèles de programmation sur la grille 10
Problèmes mono-modèles M0 - M6 Outils d administration de la grille Choix du middleware Globus + MPI A la main + MPI M6 - M18 Tests et applications à des problèmes monofluide M 18 - Mxx Validation et tests applicatifs par des utilisateurs 11
Problématique du couplage M0 - M24 Mise au point d un algorithme de couplage incompressible-compressible Implémentation Dialogue avec les codes existants M24 - M36 Validation et tests d application sur des calculs d intefaces entre milieux compressibles et incompressibles. 12
Modèles de programmation sur la grille M6 - M 18 Adaptation des codes aux contraintes de la grille Solveurs linéaires DDM M 18 - M 36 Tests sur les modèles de calcul Expériences 13