Les produits d'observation développés à DSO/CEP Météo-France DSO/CEP Atelier fusion de données 18 octobre 2011
Plan de la présentation La fusion de données à la Direction des Systèmes d'observation Les données utilisées Contraintes de production Méthodes mises en œuvre Validation des produits Intérêt des produits de fusion de données
La fusion de données à la DSO (1/2) Demande accrue en information spatialisée : Permet généralement de fournir une information en tout point d'un domaine Études climatologiques, contrôle de modèles Dans un contexte d'optimisation des réseaux d'observation Mise en valeur de l'existant Limitation de l'installation de nouveau matériel parfois onéreux Incitation à utiliser l'information spatialisée résultant de la fusion de données
La fusion de données à la DSO (2/2) Les produits suivants ont été développés : mention de l'activité convective dans les METAR automatiques (MACMA) analyse horaire des précipitations (ANTILOPE) analyse des chutes de neige en cours et de la tenue de la neige au sol (VISON) analyse du risque de brume et brouillard (CARIBOU) analyse de la visibilité (CERVUS) D'autres sont en cours d'élaboration : réanalyse des lames d'eau sur la période 1997-2006 analyse de la couverture nuageuse
Les données utilisées Observations in situ (mesures de différents paramètres «au sol») Données télédétectées (satellites, radar, impacts de foudre) Données «modèle» Données géographiques
Hétérogénéité des données utilisées De part leur nature : météorologique ou géographique D'un point de vue spatial et temporel observations ponctuelles vs données spatialisées mesures effectuées sur des durées et à des fréquences potentiellement différentes D'un point de vue des traitements données brutes ou quasi brutes (mesures de capteurs au sol) produits déjà élaborés (images satellite ou radar, analyse modèle) Exemple : précipitations Lame d'eau radar Donnée spatiale et élaborée, ayant déjà subi des traitements, toutes les 5 minutes Pluviomètres Mesure ponctuelle et brute, effectuée au mieux toutes les 6 minutes
Contraintes de production Production généralement orientée «prévisionnistes» la production doit se faire en «temps réel» la mise à disposition du produit doit être relativement rapide la fréquence de production demandée peut être infra-horaire (par ex. 15 min) ces contraintes fortes peuvent influer sur le choix de la méthode retenue Disponibilité et qualité des données en entrée un nombre minimal de données en entrée peut être nécessaire contrainte sur le délai de mise à disposition et sur la fréquence de production les données ne sont généralement pas contrôlées en «temps réel» il peut être nécessaire d'implémenter des contrôles dans les produits Production différée (réanalyse, reconstitution d'une archive) une production type «réanalyse» n'a pas de contraintes fortes liées aux temps de production et de mise à disposition, et les données peuvent être mieux contrôlées les produits «temps réel» peuvent être recalculés à partir de données archivées éventuellement contrôlées a posteriori (expertise humaine, contrôle automatique)
Exemple de contraintes pour ANTILOPE Dans l'idéal, les exigences des prévisionnistes sont : une production en «temps réel» une mise à disposition rapide fréquence de production la plus élevée possible (par ex. 5 min) Mais on a les contraintes supplémentaires suivantes : Les données radar et pluviométriques sont resp. à fréquence 5 et 6 minutes si on veut faire «propre», production au mieux toutes les 30 minutes Les données pluviométriques 6 minutes ne sont pour la plupart pas accessibles rapidement (pas avant l'heure ronde suivante) la production toutes les 30 minutes perd de son intérêt dans une optique «temps réel» Les données pluviométriques horaires doivent être en nombre «suffisant» extraction des données pluviométriques à H+12 min Les temps de calcul sont relativement faibles, pas de contrainte à ce niveau-là Résultat : un produit horaire disponible vers H+13 min dans ce cas, la fréquence et la disponibilité des données d'entrée sont plus contraignantes que les exigences des utilisateurs
Méthodes mises en œuvre Des méthodes qui peuvent être de natures différentes si on a des observations directes du phénomène à estimer et en quantité suffisante, une méthode de spatialisation (krigeage ou autre) peut convenir selon le degré du lien entre les données d'entrée et le paramètre à estimer pour estimer des précipitations, on utilise données pluviométriques et radar qui fournissent déjà directement une estimation des précipitations pour estimer le brouillard ou la neige, on fait appel à des relations supposées entre le phénomène et différentes données d'entrée de par leur complexité simple croisement d'informations (MACMA, CARIBOU) méthode (géo)statistique (ANTILOPE, CERVUS, VISON)
Croisement d'informations : CARIBOU On croise des informations déjà spatialisées
Méthodes (géo)statistiques Méthode géostatistique si densité suffisante en observation krigeage ordinaire des précipitations stratiformes dans ANTILOPE la réanalyse des lames d'eau ou VISON ont recours au krigeage avec dérive externe pour utiliser des relations avec des champs auxiliaires (radar, altitude, ) difficultés à mélanger des données de types différents (champs continu/variable binaire comme par exemple champs de température et observations de neige) transformation des données Méthode statistique si densité insuffisante en observation Le faible nombre d'observations de visibilité a conduit à envisager la régression linéaire multiple dans l'élaboration de CERVUS on cherche une relation entre les quelques visibilités observées et différentes données spatialisées (de type météorologique ou géographique), laquelle peut être appliquée en tout point du domaine
ANTILOPE : krigeage ordinaire Dans ANTILOPE, on cherche notamment à estimer les pluies stratiformes On dispose des données pluviométriques et des cellules convectives extraites des images radar Le nombre de données étant jugé suffisant, on spatialise les données pluviométriques stratiformes 1. on retire la partie convective des précipitations (estimée à partir des images radar) 2. on spatialise par krigeage ordinaire, méthode d'interpolation linéaire sans biais et de variance minimale ; les poids vont ici dépendre des valeurs prises par le variogramme et non directement de la distance entre les points comme pour une interpolation «classique» Pour les pluies RR, le variogramme à une distance h est défini par la demi moyenne des carrés des différences de RR sur les points espacés de h h = 1 RR x RR y 2 2 x y =h
RÉANALYSE DES LAMES D'EAU : krigeage avec dérive externe Dans deux étapes de la réanalyse il est fait recours au krigeage avec dérive externe On dispose d'une première estimation de la lame d'eau, spatialisée et sans manque (dans l'idéal une lame d'eau purement radar), et de données pluviométriques L 'idée est de corriger cette estimation «radar» à l'aide des données pluviométriques, on spatialise pour cela les données pluviométriques par krigeage avec dérive externe, en prenant l'estimation radar comme variable externe : sur un voisinage du point à calculer, on détermine une relation linéaire entre les cumuls pluviométriques RRpluvio et l'estimation radar RRradar, laquelle est appliquée en tout point pour obtenir une pluie de référence RR0 : RR0 = a * RRradar + b on spatialise les résidus (écarts RR pluvio RR0) par krigeage ordinaire on ajoute le résultat de la spatialisation à l'estimation initiale
CERVUS: régression linéaire multiple Dans CERVUS, la première étape consiste à estimer une visibilité spatialisée On dispose d'observations de visibilité en nombre insuffisant Pour palier ce problème, on cherche par régression linéaire multiple une relation liant les visibilités observées à différents paramètres déjà disponibles en tout point : météorologiques : classification nuageuse, humidité, pression, vent, température,... géographiques : altitude, composantes principales du relief, nature du sol, On applique cette relation en tout point pour obtenir une visibilité spatialisée Pour coller au plus près des observations disponibles, on effectue une interpolation des résidus (écarts observation régression) en fonction de l'inverse de la distance
Validation des produits Étape importante à réaliser avant production opérationnelle mise en place de protocoles de validation en collaboration avec les utilisateurs finaux (prévisionnistes, bureaux d'études...) Validation subjective par les premiers «testeurs» mise en place d'une maquette web pour accéder aux données validation systématique ou plus souvent épisodique l'analyse des retours sur quelques mois peut conduire à quelques ajustements Validation objective validation plus systématique calcul de scores statistiques à partir de données de validation indépendantes Qualification du produit invalidation possible sur certaines zones (mer, montagnes) ajout d'un code de qualité accompagnant les données information donnée sous forme probabiliste
Avantages / inconvénients Avantages / Intérêts taux de disponibilité élevé du fait de l'utilisation de différentes sources d'information confrontation des différentes données permettant d'avoir une confiance accrue qualification de la validité du produit avec éventuellement un code de qualité Inconvénients / Danger délais de mise à disposition parfois trop longs pour des utilisations «immédiates» ajouts possibles d'artefacts inhérents aux méthodes employées (lissage, ) forte dépendance aux données d'entrée, il y a notamment un danger si un produit est trop dépendant d'une donnée d'entrée qui venait à manquer, temporairement ou définitivement
MACMA Mention de l'activité Convective dans les METAR AUTO - Signalisation des codes ou TCU et TS ou VCTS - Production toutes les 5 min en métropole - Phase de test en cours en Outre-Mer (sans la foudre) FOUDRE R A D A R Impact 0-8 km Impact 8-16 km Impact 16-30 km Pas d impact Donnée manquante R 41 dbz TS VCTS // 33 R <41 dbz TS VCTS TCU TCU // R < 33 dbz et moins de 25 % de données manquantes TS VCTS R < 33 dbz et plus de 25% de données manquantes TS VCTS // /// /// //
ANTILOPE La partie stratiforme est obtenue par krigeage des valeurs pluviométriques de grande échelle. La partie convective est obtenue par détection de cellules sur les images radar, et est corrigée à l'aide des cumuls convectifs des pluviomètres situés sous ces cellules. Lame d'eau radar Réseau pluviométrique Lame d'eau ANTILOPE = + Partie convective Partie stratiforme
VISON + Radar + Analyse de T2m + Observations au sol (temps présent, état du sol, T2m, Tsol, T+10cm) Classification nuageuse MSG VISualisation de l'observation de la Neige => Fournit toutes les 15 min une analyse de : = - la probabilité de chute de neige - la probabilité de tenue de la neige au sol
CARIBOU classification nuageuse MSG CArtographie du RIsque de Brume ou brouillard + analyses d'humidité à 2m => Analyse horaire du risque de brume et brouillard, sur la France métropolitaine, estimé qualitativement : risque nul, faible, moyen, fort ou non estimé + analyse de vent à 10m + dernière lame d'eau radar 5 min Le 31/12/2009 à 00TU
CERVUS CartographiE probabiliste de la Visibilité par seuils => Pour corriger les limites de CARIBOU (pas de quantification de la visibilité, et présence fréquente de zones de risque non estimé), analyse horaire de la visibilité, sur la France métropolitaine, mise à disposition sous deux formes : - cartes de probabilité d'occurrence de visibilités inférieures à un seuil donné (200, 600, 1000, 1500, 5000 et 8000 m), destinées aux prévisionnistes - cartes de déciles de la visibilité, quel que soit le phénomène concerné (demande SYMPOSIUM2) DONNÉES MÉTÉOROLOGIQUES Visibilités observées Classification nuageuse MSG Analyses (pression, humidité, vent, température) Lame d'eau radar Seuil : 200m = Seuil : 1000m DONNÉES GÉOGRAPHIQUES + Altitude Composantes principales du relief Composition et occupation du sol Élévation solaire Distance à l'eau Seuil : 5000m