Analyse d un système de freinage récupératif d un véhicule électrique Par Mohamed Amine Bey, Gabriel Georges, Pascal Jacq, Doha Hadouni, Roxane Duroux, Erwan Scornet, Encadré par Alexis Simonnet
1 Compréhension du sujet 2 Cas I 3 Cas II
Plan Compréhension du sujet Cas I Cas II 1 Compréhension du sujet 2 Cas I 3 Cas II
Problématiques ADACCESS Optimiser les solutions pour des situations et des styles de conduites très variés Modéliser le courant de la batterie en fonction du comportement du conducteur
Objectifs 1 Modèle comportemental macroscopique du freinage récupératif d un véhicule électrique 2 Déterminer les variables impliquées dans le processus du récupération de l énergie (194 variables)
Quelques images pour comprendre la difficulté du problème
Compréhension du sujet Cas I Cas II Oublions le temps!
Régression Linéaire On cherche à estimer le courant de la batterie en fonction des 4 variables précédentes en supposant une relation linéaire de la forme Courant_batt =α 0 + α 1 Pedale_accel + α 2 Pedale_frein Coefficient R 2 : + α 3 Vitesse + α 4 Charge_batt + Bruit. R 2 = 1 Erreur quadratique Var(Courant_batt). Autrement dit, plus R 2 est proche de 1, plus le modèle linéaire est adapté au jeu de données.
Régression Linéaire Sans prise en compte de la temporalité Apprentissage 50%: R 2 = 0.90 Test: R 2 = 0.61
Régression Linéaire - Prise en compte de la temporalité Prise en compte des variables au temps précédent Apprentissage 50%: R 2 = 0.92 Test: R 2 = 0.71
Régression Linéaire - Prise en compte de la temporalité Prise en compte des variables sur 10 temps précédent Apprentissage 50%: R 2 = 0.995 Test: R 2 = 0.991
Sélection de variables et ACP Objectif de l Analyse en Composantes Principales (ACP) Trouver des axes (des combinaisons linéaires des variables) qui représentent au mieux la diversité (ou variance) de l ensemble des variables.
Sélection de variables et ACP Objectif de l Analyse en Composantes Principales (ACP) Trouver des axes (des combinaisons linéaires des variables) qui représentent au mieux la diversité (ou variance) de l ensemble des variables. Comment choisir le nombre d axes? On a essentiellement 2 manières de faire.
Sélection de variables et ACP Objectif de l Analyse en Composantes Principales (ACP) Trouver des axes (des combinaisons linéaires des variables) qui représentent au mieux la diversité (ou variance) de l ensemble des variables. Comment choisir le nombre d axes? On a essentiellement 2 manières de faire. Pour obtenir une représentation graphique facilement lisible, on choisit exactement 2 axes.
Sélection de variables et ACP Objectif de l Analyse en Composantes Principales (ACP) Trouver des axes (des combinaisons linéaires des variables) qui représentent au mieux la diversité (ou variance) de l ensemble des variables. Comment choisir le nombre d axes? On a essentiellement 2 manières de faire. Pour obtenir une représentation graphique facilement lisible, on choisit exactement 2 axes. On choisit les axes correspondants à des valeurs propres supérieures à 1 pour avoir une bonne représentation de l ensemble des variables.
Sélection de variables et ACP Objectif de l Analyse en Composantes Principales (ACP) Trouver des axes (des combinaisons linéaires des variables) qui représentent au mieux la diversité (ou variance) de l ensemble des variables. Comment choisir le nombre d axes? On a essentiellement 2 manières de faire. Pour obtenir une représentation graphique facilement lisible, on choisit exactement 2 axes. On choisit les axes correspondants à des valeurs propres supérieures à 1 pour avoir une bonne représentation de l ensemble des variables. Pour le modèle réduit, on a 2 valeurs propres supérieures à 1. la représentation en 2D résume bien l information des 4 variables.
Résultat de l ACP ACP sur le modèle réduit 2nde Composante Principale 1.0 0.5 0.0 0.5 1.0 Courant_Batt Pedale_Accel Vitesse Charge_Batt Pedale_Frein 1.0 0.5 0.0 0.5 1.0 1ère Composante principale
Sélection de variable On utilise une méthode de sélection de variable pas à pas (RFE): on part du modèle avec toutes les variables on élimine progressivement les variables on choisit le meilleur modèle parmi ceux construits (ici 4 modèles)
Sélection de variable On utilise une méthode de sélection de variable pas à pas (RFE): on part du modèle avec toutes les variables on élimine progressivement les variables on choisit le meilleur modèle parmi ceux construits (ici 4 modèles) Les variables sélectionnées par ordre d importance sont : la pédale d accélération, la pédale de frein, la vitesse, la charge de la batterie.
Sélection de variable On utilise une méthode de sélection de variable pas à pas (RFE): on part du modèle avec toutes les variables on élimine progressivement les variables on choisit le meilleur modèle parmi ceux construits (ici 4 modèles) Les variables sélectionnées par ordre d importance sont : la pédale d accélération, la pédale de frein, la vitesse, la charge de la batterie.
Régression Linéaire Régression linéaire sur les 195 variables Apprentissage: R 2 = 0.9139 Test: R 2 = 0.9133
Résultat de l ACP ACP sur le modèle complet 2nde Composante Principale 1.0 0.5 0.0 0.5 1.0 V44 V59 V58 V99 V55 V18 V123 V105 V113 V40 V38 V15 V51 V53 V122 V107 V87 V95 V91 V98 V92 V94 V104 V110 V111 V116 V109 V108 V112 V117 V115 V114 V96 V121 Courant_Batt V14 V17 V106 V125 V3 V35 V37 V9V6 V89 V118 V120 V119 V144 V190 V193 V130 V157 V126 V153 V145 V148 V146 V147 V155 V62 V124 V192 V74 V67 V43 V56 V57 V8 V22 V45 V63 V68 V69 V71 V77 V76 V79 V83 V4 V60 V75 V84 V127 V172 V154 V143 V85 V61 V156 V78 V129 V128 V21 V25 V167 V64 V139V72 V41 V47 V80 V102 V171 V169 V168 V173 V138 V174 V170 V137 V103 V100 V162 V163 V101 V131 V165 V166 V49 V136V81 V82 V2 V135 V86 V132 V134 V133 V149 V152V140 V150 V151 V141 V164 V5 V142 V191 V20 V34 V27 V32 V31 V29 V30 V26 V33 V36 V48 V23 V24 V28 V7 V50 V19 V65 V66 V42 V39 V73 V97 V46 V90 V160 V159 V158 V184 V185 V186 V187 V188 V70V189 V93 V183 V88 V161 V175 V176 V52 V13 V54 V177 V178 V179 V180 V182 V181 1.0 0.5 0.0 0.5 1.0 1ère Composante principale
Résultat de l ACP 2nde Composante Principale 1.0 0.5 0.0 0.5 1.0 ACP sur le modèle complet V44 V59 V58 V99 V55 V18 V123 V105 V113 V40 V38 V15 V51 V53 V122 V107 V87 V95 V91 V98 V92 V94 V104 V110 V111 V116 V109 V108 V112 V117 V115 V114 V96 V121 Courant_Batt V14 V17 V106 V125 V3 V35 V37 V9V6 V89 V118 V120 V119 V144 V190 V193 V130 V157 V126 V153 V145 V148 V146 V147 V155 V62 V124 V192 V74 V67 V43 V56 V57 V8 V22 V45 V63 V68 V69 V71 V77 V76 V79 V83 V4 V60 V75 V84 V127 V172 V154 V143 V85 V61 V156 V78 V129 V128 V21 V25 V167 V64 V139V72 V41 V47 V80 V102 V171 V169 V168 V173 V138 V174 V170 V137 V103 V100 V162 V163 V101 V131 V165 V166 V49 V136V81 V82 V2 V135 V86 V132 V134 V133 V149 V152V140 V150 V151 V141 V164 V5 V142 V191 V20 V34 V27 V32 V31 V29 V30 V26 V33 V36 V48 V23 V24 V28 V7 V50 V19 V65 V66 V42 V39 V73 V97 V46 V90 V160 V159 V158 V184 V185 V186 V187 V188 V70V189 V93 V183 V88 V161 V175 V176 V52 V13 V54 V177 V178 V179 V180 V182 V181 Problème : La variable d intérêt est mal représentée. l ACP classique ne permet pas de sélectionner les variables significatives pour la prédiction de Courant_Batt. 1.0 0.5 0.0 0.5 1.0 1ère Composante principale
Résultat de l ACP 2nde Composante Principale 1.0 0.5 0.0 0.5 1.0 ACP sur le modèle complet V44 V59 V58 V99 V55 V18 V123 V105 V113 V40 V38 V15 V51 V53 V122 V107 V87 V95 V91 V98 V92 V94 V104 V110 V111 V116 V109 V108 V112 V117 V115 V114 V96 V121 Courant_Batt V14 V17 V106 V125 V3 V35 V37 V9V6 V89 V118 V120 V119 V144 V190 V193 V130 V157 V126 V153 V145 V148 V146 V147 V155 V62 V124 V192 V74 V67 V43 V56 V57 V8 V22 V45 V63 V68 V69 V71 V77 V76 V79 V83 V4 V60 V75 V84 V127 V172 V154 V143 V85 V61 V156 V78 V129 V128 V21 V25 V167 V64 V139V72 V41 V47 V80 V102 V171 V169 V168 V173 V138 V174 V170 V137 V103 V100 V162 V163 V101 V131 V165 V166 V49 V136V81 V82 V2 V135 V86 V132 V134 V133 V149 V152V140 V150 V151 V141 V164 V5 V142 V191 V20 V34 V27 V32 V31 V29 V30 V26 V33 V36 V48 1.0 0.5 0.0 0.5 1.0 1ère Composante principale V23 V24 V28 V7 V50 V19 V65 V66 V42 V39 V73 V97 V46 V90 V160 V159 V158 V184 V185 V186 V187 V188 V70V189 V93 V183 V88 V161 V175 V176 V52 V13 V54 V177 V178 V179 V180 V182 V181 Problème : La variable d intérêt est mal représentée. l ACP classique ne permet pas de sélectionner les variables significatives pour la prédiction de Courant_Batt. Remarque : on a en fait 17 valeurs propres supérieures à 1, ce qui explique que beaucoup de variables soient mal représentées.
Forêts aléatoires Autre méthode de régression : les forêts aléatoires. Algorithme très performant même si les variables sont nombreuses N impose pas la forme de la fonction de régression (méthode non paramétrique)
Sélection de variables avec les forêts aléatoires On utilise cet algorithme pour sélectionner les variables pertinentes : Le forêt classe les variables selon leur importance (critère calculé par la forêt) À la première itération, les 20% de variables les moins pertinentes sont enlevées du modèle On itère jusqu à ce qu il ne reste plus aucune variable.
Résultat de la sélection de variables 30 25 RMSE (Cross Validation) 20 15 10 5 0 50 100 150 200 Variables Numéro des variables sélectionnées : 18, 58, 59, 55, 81, 9, 132, 142, 82
Une ACP à noyau (KPCA) Objectifs Être conforté dans la sélection de variables donnée par les forêts aléatoires.
Une ACP à noyau (KPCA) Objectifs Être conforté dans la sélection de variables donnée par les forêts aléatoires. Avoir une ACP qui sépare mieux les variables.
Une ACP à noyau (KPCA) Objectifs Être conforté dans la sélection de variables donnée par les forêts aléatoires. Avoir une ACP qui sépare mieux les variables. Moyen utilisé Une ACP non linéaire. Ici une ACP à noyau gaussien : le noyau gaussien répond au 2ème objectif.
Résultat d une KPCA KPCA à noyau gaussien sur le modèle complet 2nde Composante Principale 0 2 4 6 8 10 12 V35 V37 Courant_Batt V100 V101 V102 V103 V104 V105 V106 V107 V108 V109 V110 V111 V112 V113 V114 V115 V116 V117 V118 V119 V120 V121 V122 V123 V124 V125 V126 V127 V128 V129 V130 V131 V132 V133 V134 V135 V136 V137 V138 V139 V140 V141 V142 V143 V144 V145 V146 V147 V148 V149 V150 V151 V152 V153 V154 V155 V156 V157 V158 V159 V160 V161 V162 V163 V164 V165 V166 V167 V168 V169 V170 V171 V172 V173 V174 V175 V176 V177 V178 V179 V180 V181 V182 V183 V184 V185 V186 V187 V188 V189 V191 V192 V193 V190 V23 V24 V20 V21 V22 V25 V26 V27 V28 V29 V30 V31 V32 V33 V34 V36 V39 V41 V43 V44 V45 V46 V47 V48 V49 V50 V51 V52 V54 V55 V56 V57 V58 V59 V60 V61 V62 V63 V64 V65 V66 V67 V68 V69 V70 V71 V72 V73 V74 V75 V76 V77 V78 V79 V80 V81 V82 V83 V84 V85 V86 V87 V88 V89 V90 V91 V92 V93 V94 V95 V96 V97 V98 V99 V42 V10 V40V11 V38 V53 V15 0 2 4 6 8 10 1ère Composante Principale
Résultat d une KPCA KPCA à noyau gaussien sur le modèle complet 2nde Composante Principale 0 2 4 6 8 10 12 V35 V37 Courant_Batt V100 V101 V102 V103 V104 V105 V106 V107 V108 V109 V110 V111 V112 V113 V114 V115 V116 V117 V118 V119 V120 V121 V122 V123 V124 V125 V126 V127 V128 V129 V130 V131 V132 V133 V134 V135 V136 V137 V138 V139 V140 V141 V142 V143 V144 V145 V146 V147 V148 V149 V150 V151 V152 V153 V154 V155 V156 V157 V158 V159 V160 V161 V162 V163 V164 V165 V166 V167 V168 V169 V170 V171 V172 V173 V174 V175 V176 V177 V178 V179 V180 V181 V182 V183 V184 V185 V186 V187 V188 V189 V191 V192 V193 V190 V23 V24 V20 V21 V22 V25 V26 V27 V28 V29 V30 V31 V32 V33 V34 V36 V39 V41 V43 V44 V45 V46 V47 V48 V49 V50 V51 V52 V54 V55 V56 V57 V58 V59 V60 V61 V62 V63 V64 V65 V66 V67 V68 V69 V70 V71 V72 V73 V74 V75 V76 V77 V78 V79 V80 V81 V82 V83 V84 V85 V86 V87 V88 V89 V90 V91 V92 V93 V94 V95 V96 V97 V98 V99 V42 V10 V40V11 V38 V53 V15 on sépare bien les variables. 0 2 4 6 8 10 1ère Composante Principale
Résultat d une KPCA KPCA à noyau gaussien sur le modèle complet 2nde Composante Principale 0 2 4 6 8 10 12 V35 V37 Courant_Batt V100 V101 V102 V103 V104 V105 V106 V107 V108 V109 V110 V111 V112 V113 V114 V115 V116 V117 V118 V119 V120 V121 V122 V123 V124 V125 V126 V127 V128 V129 V130 V131 V132 V133 V134 V135 V136 V137 V138 V139 V140 V141 V142 V143 V144 V145 V146 V147 V148 V149 V150 V151 V152 V153 V154 V155 V156 V157 V158 V159 V160 V161 V162 V163 V164 V165 V166 V167 V168 V169 V170 V171 V172 V173 V174 V175 V176 V177 V178 V179 V180 V181 V182 V183 V184 V185 V186 V187 V188 V189 V191 V192 V193 V190 V23 V24 V20 V21 V22 V25 V26 V27 V28 V29 V30 V31 V32 V33 V34 V36 V39 V41 V43 V44 V45 V46 V47 V48 V49 V50 V51 V52 V54 V55 V56 V57 V58 V59 V60 V61 V62 V63 V64 V65 V66 V67 V68 V69 V70 V71 V72 V73 V74 V75 V76 V77 V78 V79 V80 V81 V82 V83 V84 V85 V86 V87 V88 V89 V90 V91 V92 V93 V94 V95 V96 V97 V98 V99 V42 V10 V40V11 V38 V53 V15 on sépare bien les variables. Mais pour un trop petit nombre. 0 2 4 6 8 10 1ère Composante Principale
Résultat d une KPCA KPCA à noyau gaussien sur le modèle complet 2nde Composante Principale 0 2 4 6 8 10 12 V35 V37 Courant_Batt V100 V101 V102 V103 V104 V105 V106 V107 V108 V109 V110 V111 V112 V113 V114 V115 V116 V117 V118 V119 V120 V121 V122 V123 V124 V125 V126 V127 V128 V129 V130 V131 V132 V133 V134 V135 V136 V137 V138 V139 V140 V141 V142 V143 V144 V145 V146 V147 V148 V149 V150 V151 V152 V153 V154 V155 V156 V157 V158 V159 V160 V161 V162 V163 V164 V165 V166 V167 V168 V169 V170 V171 V172 V173 V174 V175 V176 V177 V178 V179 V180 V181 V182 V183 V184 V185 V186 V187 V188 V189 V191 V192 V193 V190 V23 V24 V20 V21 V22 V25 V26 V27 V28 V29 V30 V31 V32 V33 V34 V36 V39 V41 V43 V44 V45 V46 V47 V48 V49 V50 V51 V52 V54 V55 V56 V57 V58 V59 V60 V61 V62 V63 V64 V65 V66 V67 V68 V69 V70 V71 V72 V73 V74 V75 V76 V77 V78 V79 V80 V81 V82 V83 V84 V85 V86 V87 V88 V89 V90 V91 V92 V93 V94 V95 V96 V97 V98 V99 V42 V10 V40V11 V38 V53 V15 on sépare bien les variables. Mais pour un trop petit nombre. on effectue des KPCAs successives jusqu à obtenir au maximum 10 variables. 0 2 4 6 8 10 1ère Composante Principale
Successions de KPCA KPCAs à noyau gaussien successives sur le modèle complet 2nde Composante Principale 2 1 0 1 2 V26 Courant_Batt V193 V52 V21 V18 V28 V190 V42 V31 2 1 0 1 1ère Composante Principale
Successions de KPCA KPCAs à noyau gaussien successives sur le modèle complet 2nde Composante Principale 2 1 0 1 2 V26 Courant_Batt V193 V52 V21 V18 V28 V190 V42 V31 Il reste les variables "V18", "V21", "V26", "V28", "V31", "V42", "V52", "V190". 2 1 0 1 1ère Composante Principale
Merci pour votre attention!