OUTILS DE PREVISION DE LA VITESSE DE VENT : APPLICATION A LA CARACTERISATION ET A L OPTIMISATION DES CENTRALES EOLIENNES POUR L'INTEGRATION DANS LES RESEAUX ELECTRIQUES A MADAGASCAR. Andramahtasoa Bernard Andramparany, Ravelomanampy Donat Hervé, Randramanantany Zely Arvelo, Phllpe Lauret. Laboratore de Thermodynamque, Thermque et Combuston (LTTC), Faculté des Scences Unversté d Antananarvo. Résumé Face aux problèmes énergétques à Madagascar, l'énerge éolenne est parm les sources endogènes les plus prometteuses sur le lttorale Nord et EST de l le. Cependant, la promoton de cette source nécesste la connassance de sa potentalté, mas dans la plupart des cas, elles ne sont pas dsponbles à cause de l nexstence des statons de mesure. Ans, nous proposons dans cet artcle des technques de prévson non-lnéares de la vtesse de vent afn de l ntégrer dans le Réseau Interconnecté (RI) exstant sur l le. Parm ces technques, nous avons chos le modèle Neurologque Artfcel Bayesen (NN) et le Processus Gaussen (GP) qu sont en partculer prédomnant dans le domane de prévsons. Mots-clés: Prévson de la vtesse de vent, Réseaux neurologques bayesens, Processus Gaussen. 1- Introducton Face aux problèmes énergétques à Madagascar, l'énerge éolenne est parm les sources endogènes les plus prometteuses sur le lttorale Nord et EST de l le. En effet, cette source couplée aux réseaux nterconnectés pourrat subvenr d une part, aux besons en matère d énerges de toute la côte Est, et d autre part, à attendre un objectf de la promoton des énerges renouvelables sur l le. Cependant, la promoton de cette source nécesste la connassance de sa potentalté, mas dans la plupart des cas, elles ne sont pas dsponbles à cause de l nexstence des statons de mesure. Ans, nous proposons dans cet artcle des technques de prévson non-lnéares de la vtesse de vent afn de l ntégrer dans le Réseau Interconnecté (RI) exstant sur l le. Parm ces technques, l'utlsaton du modèle Neurologque Artfcel Bayesen (NN) et du Processus Gaussen (GP) ([1], [2]). Nous avons développé un arrangement à court terme adaptatf de prévson de la vtesse qu emploe les NNs et le GP comme prédcateur. Ces méthodes de prévson permet, à n'mporte quel temps donné t, pour trouver une évaluaton de la vtesse à V(t + t), avec l'étape de prévson (c, en jours pour des données journalères) et t est un nombre enter. Pour les résultats, à ttre d llustraton, nous présentons la prévson en dsposant les données rassemblées dans la zone d Antananarvo couvrant l année 2003 à 2005 et consttuante une base de données de 1096 jours (Données IOGA). 2- Contexte de l étude Les réseaux neurologques sont les modèles non lnéares utlsés pour la régresson [3]. Cependant, comme ndqué par ([4], [5], les NNs sont des modèles flexbles mas concevor un NN pour une applcaton partculère est lon d être facle. En effet, les NNs peuvent
rapprocher n'mporte quelle foncton contnue à une exacttude arbtrare, s le nombre de neurones cachés est suffsant [6]. Dans cet artcle, nous proposons d'abord une approche neurologque en employant la technque classque et l nférence bayesenne. MacKay [7] a développé la Méthode bayesenne pour les NNs offrant des avantages sgnfcatfs par rapport à l apprentssage classque [8]. Cependant, beaucoup d'approxmatons dovent être fates dans l approche bayesenne. Récproquement, les GPs [9] sont des méthodes pussantes pour la régresson où la plupart des calculs sont analytquement fasable. 3- Réseau Neurologque (NN) 3-1- Réseau classque La forme la plus populare des NNs est la structure multcouche de Perceptron (MLP). Le MLP se compose d'une couche d'entrée, une ou pluseurs couches cachées et une couche de sorte. La couche d'entrée recuelle tous les vecteurs x des entrées du modèle tands que la couche de sorte rapporte celu de y. Dans notre cas, y est la sorte qu correspond la prévson de la vtesse de vent du jour suvant. Fg. 1. MLP avec des entrées x, des neurones cachées h et la sorte y qu est la prévson de la vtesse de vent du jour suvant. Tous les neurones d'une couche donnée, sauf ceux de la dernère couche, émettent une connexon vers chaque neurone de la couche en aval. Les neurones des couches cachées sont caractérsés par la foncton d'actvaton qu est généralement une foncton tangente hyperbolque : f ( x) ( e x e Par conséquent, Avec x entrées et h neurones cachés, la sorte lnéare y s exprme à travers l équaton : y f ( ) y( x, w) x ) /( e x e Où le paramètre v appelé "potentel", lé au bas w 0 par la relaton : w 0 h j1 Les paramètres du NN (dont les pods w ) sont estmés pendant une phase appelée phase j d apprentssage. La deuxème phase, appelée la phase de généralsaton, consste en évaluant la capacté du NN de généralser, c'est-à-dre, donnez les prévsons correctes quand elle est confrontée avec de nouveaux exemples d'entrée. d 1 w j x x )
Nous tenons à fare remarquer que pendant l'apprentssage s le modèle est trop complexe, cela peut engendrer des mauvases prédctons : le «surapprentssage». L'approche bayesenne offre des avantages sur ce contrôle de complexté. 3-2- L approche Bayesenne L'approche bayesenne consste à détermner la dstrbuton de probablté (pdf). Ce pdf représente les degrés de croyance prs par les dfférentes valeurs de pods. L estmaton des paramètres neuronaux par nférence bayesenne consste à détermner la dstrbuton de probablté à posteror, à partr de la dstrbuton de probablté à pror et de la foncton de vrasemblance [8] par l'utlsaton de la règle de Bayes : P( a b) P( b a) P( a) / P( b) Ans, les méthodes bayesenne rapportent une dstrbuton complète pour les paramètres du NN. Dans cette étude, l'nférence bayesenne est basée sur les paramètres représentés dans le Tableau 1. Tableau 1 : Inférence bayesenne (NN) Lbellé Formulaton Remarques Données n * * * n D x, t et * Apprentssage ( n D x, 1 t 1 échantllons) et test ( n* t y( x; w) échantllons) Modèle c.-à-d. sut la dstrbuton de Gauss Nous supposons que les y 2 cble est donné par une moyenne zéro et varance certane foncton détermnste du vecteur x d'entrées avec le brut gaussen supplémentare Foncton de vrasemblan ce Foncton à pror Foncton à posteror Prédctons Pusque nous avons chos un brut gaussen, la foncton de vrasemblance est auss gaussenne. Règle de Bayes Fates les prévsons pour le test en fasant la moyenne de toutes les valeurs de pods par leur probablté postéreure.
Il est mportant de noter que dans un contexte de multparamètres tel que les NNs (la dmenson des pods est grande), l'évaluaton des pods ne peut pas être analytquement exécutée. MacKay [7] a proposé l'approxmaton appelée le cadre d'évdence afn de surmonter ce problème. 4- Processus gaussen Beaucoup de chercheurs se rendaent compte que les réseaux neurologques n'étaent pas auss facles aux réseaux neurologques applquez dans la pratque, en rason des nombreuses décsons qu ont dû être prses: quelle archtecture, quelle foncton d actvaton, etc. GPs sont des développements relatvement récents pour les modèles non lnéares [9]. GPs sont ben convenus à la régresson et à l'approxmaton proposé par MacKay [7] qu peuvent être fat analytquement. Un processus gaussen est une généralsaton de la dstrbuton gaussenne de probablté [9]. Une dstrbuton gaussenne est ndquée par une moyenne µ et la matrce de covarance : De même, un GP est entèrement ndqué par une foncton moyenne m(x) et la matrce de covarance : Le Tableau 2 donne une vue d'ensemble sur les formulatons des calculs : Tableau 2 : Formulaton GPs Lbellé Formulaton Remarques Données et Apprentssage et Test Prédctons Prédcton de la dstrbuton gaussenne pour le test. Matrce de s l y a échantllons d apprentssage et test. covarance représente la matrce de covarance x. 5- Résultats Pour évaluer la performance des modèles, des exécutons ont été évalués en rapportant leurs erreurs MAE et RMSE. Nous avons repart les valeurs n=731 jours, qu ont été employées pour l apprentssage des modèles. Le reste des données ont été employés pour le test (n = 365 échantllons). Le Tableau 3 énumère l'exécuton des modèles obtenus sur les ensembles d apprentssage et de test avec horzon t = 1. On peut vor, l'ajustement est bon sur l apprentssage et sur le test pour le modèle classque avec 10 neurones cachés (lgne 1 du Tableau 3). Nous avons prs la même structure de NN en employant l'approche bayesenne.
Tableau 3 : Résultats Modèle RMSE MAE RMSE MAE CPU Apprentssage Apprentssage Test (m/s) Test (m/s) Temps (s) (m/s) (m/s) Classque NN 0.2364 0.1881 0.2678 0.2188 1.77 Bayes NN 0.1870 0.1542 0.2119 0.1722 7.16 GP 0.1874 0.1544 0.2107 0.1711 111.63 Le Tableau 3 (lgne 2) montre clarement l'améloraton apportée par la méthode bayesenne. Cependant, l'approche exge plus de performance CPU pour le cadre évdence qu a beson de plus d'tératons pour trouver la complexté optmale. Le GP (lgne 3 du Tableau 3) mène encore à une exécuton plus amélorée en test, même s l nécesste plus de performance CPU. Les Fg. 2.1 et 2.2 montrent les prévsons du modèle GP sur l'ensemble de test (avec vue large). Fg. 2.1 Prévsons du modèle GP. La lgne solde ndque une évaluaton de la moyenne de y Avec l ntervalle de confance 95%. Fg. 2.2 Drote de régresson en apprentssage et en test du modèle GP. Ans, nous avons chos le melleurs modèle, le GP pour mener successvement l étude sur les horzons t = 3 et t = 6. Les Fg. 3.1 et 3.2 montrent les performances des prévsons sur ces horzons.
Fg. 3.1 Prévsons du modèle GP avec les horzons t = 3. (RMSE = 0.3523 et MAE = 0.2852). Fg. 3.2 Prévsons du modèle GP avec les horzons t = 6. (RMSE = 0.4291 et MAE = 0.3470). Ans, les modèles peuvent prévor jusqu à un certanes valeurs de t. Ic, avec t = 3 (Fg. 3.1), le GP arrve à ajuster les données mesurées. 6- Concluson Dans ce traval, nous avons proposé tros modèles pour la prévson de la vtesse de vent. On a montré que, à la dfférence des technques classque de NN, la méthode bayesenne peut trater tout à fat effcacement le modèle plus complexe (et donc évter le problème de surapprentssage). L'nconvénent prncpal du NN bayesen provent du fat que beaucoup d'approxmatons dovent être fates afn d'évaluer numérquement les ntégrales au nveau des paramètres de pods. Récproquement, GPs offre un autre pont de vue en rendant les calculs des approxmatons de Mackay [7] fasable analytquement. Les travaux futurs seront consacrés à la concepton des modèles robustes avec des données horares de l le.
Références [1] Ruddy Blonbou, Stéphane Monjoly, Rudy Calf. Advanced tools for wnd power ntegraton nto electrcal networks Geoscences and Energy Research Laboratory, French West-Indes and Guyana Unversty, Guadeloupe, France, ruddy.blonbou@unv-ag.fr. [2] Phlppe Lauret, Matheu Davd, Dder Calogne. Nonlnear Models for Short-tme Load Forecastng ICAEE 2011. [3] Bshop, CM. Neural networks for pattern recognton. s.l. : Oxford Unversty Press, 1995. [4] Hppert HS, Pedrera CE, Souza RC. Neural networks for short-term load forecastng: a revew and evaluaton. IEEE transactons on power systems 2001;16:45-55. [5] Zhang G, Patuwo BE, Hu MY. Forecastng wth neural networks. Internatonal journal of forecastng 1998;14:35-62. [6] Hornk K, Stnchcombe M, Whte H. Multlayer feedforward networks are unversal approxmators. Neural Networks 1989;2:359-366. [7] MacKay DJC. A practcal Bayesan framework for back-propagaton networks. Neural computaton 1992;4: 448-472. [8] Lauret P et al.. Bayesan neural network approach to short tme load forecastng. Energy Converson and Management, 2008;49:1156-1166. [9] Rasmussen CE, Wllams C. Gaussan Processes for Machne Learnng. MIT Press; 2006.