avec Multivariate Adaptative Regression Splines Bernard CLÉMENT, PhD Copyright Génistat Conseils Inc., 2014, Montréal, Canada



Documents pareils
Data mining II. Modélisation Statistique & Apprentissage

Coup de Projecteur sur les Réseaux de Neurones

Exemple PLS avec SAS

Introduction au datamining

Grégoire de Lassence. Copyright 2006, SAS Institute Inc. All rights reserved.

Approche par groupe de gènes pour les données longitudinales d expression génique avec une application dans un essai vaccinal contre le VIH

Une introduction. Lionel RIOU FRANÇA. Septembre 2008

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

SAS ENTERPRISE MINER POUR L'ACTUAIRE

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Techniques du Data Mining pour la prédiction de faillite des entreprises et la gestion du risque de crédit

Spécificités, Applications et Outils

La classification automatique de données quantitatives

Introduction aux Statistiques et à l utilisation du logiciel R

Exercices M1 SES Ana Fermin ( fermin.perso.math.cnrs.fr/ ) 14 Avril 2015

LES MODELES DE SCORE

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre Palaiseau

TABLE DES MATIERES. C Exercices complémentaires 42

Analyse de grandes bases de données en santé

Évaluation de la régression bornée

Modèles pour données répétées

données en connaissance et en actions?

Introduction à l approche bootstrap

Etude des propriétés empiriques du lasso par simulations

Data Mining. Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Introduction au Data-Mining

Exemples d application

D Expert en Finance et Investissements

Méthodes d apprentissage statistique «Machine Learning»

Arbres binaires de décision

ESIEA PARIS

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p.

L'intelligence d'affaires: la statistique dans nos vies de consommateurs

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining.

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Filtrage stochastique non linéaire par la théorie de représentation des martingales

ANALYSE STATISTIQUE PRÉDICTIVE

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Introduction au Data-Mining

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Big Data et Graphes : Quelques pistes de recherche

4.2 Unités d enseignement du M1

5255 Av. Decelles, suite 2030 Montréal (Québec) H3T 2B1 T: F:

Le data mining et l assurance Mai Charles Dugas Président Marianne Lalonde Directrice, développement des affaires

Introduction au Data Mining et à l apprentissage statistique

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Régression linéaire. Nicolas Turenne INRA

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

Apprentissage statistique dans les graphes et les réseaux sociaux

MODELE A CORRECTION D ERREUR ET APPLICATIONS

BIG Data et R: opportunités et perspectives

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Chapitre 4 : Régression linéaire

PREPROCESSING PAR LISSAGE LOESS POUR ACP LISSEE

1 Modélisation d être mauvais payeur

Apprentissage Statistique :

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

NON-LINEARITE ET RESEAUX NEURONAUX

Capital économique en assurance vie : utilisation des «replicating portfolios»

Méthodes de Simulation

Apprentissage non paramétrique en régression

INTRODUCTION AU DATA MINING

Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données

Annexe 6. Notions d ordonnancement.

Chapitre 3. Les distributions à deux variables

STATISTIQUES. UE Modélisation pour la biologie

Université de Montréal. par Sylvain Pannetier Lebeuf

Introduction aux outils BI de SQL Server Fouille de données avec SQL Server Analysis Services (SSAS)

Des solutions de data mining pour résoudre des problèmes d estimation du risque 12 juin 2009 Association des Statisticiennes et Statisticiens du

Lire ; Compter ; Tester... avec R

Données longitudinales et modèles de survie

Optimisation des ressources des produits automobile première

Logiciel XLSTAT version rue Damrémont PARIS

Principe de symétrisation pour la construction d un test adaptatif

Philippe BESSE*, Hélène MILHEM*, Olivier MESTRE*,**, Anne DUFOUR***, Vincent-Henri PEUCH*** Résumé

BIG DATA en Sciences et Industries de l Environnement

Big Data et Graphes : Quelques pistes de recherche

Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE. 24/12/2006 Stéphane Tufféry - Data Mining -

Séance 11 : Typologies

Détection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones

Théorie Financière 4E 4. Evaluation d actions et td d entreprises

Mesure et gestion des risques d assurance

Renforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.

Gestion de Portefeuille. Mesures de Performance Ajustées du Risque

Conception d un lecteur de musique intelligent basé sur l apprentissage automatique.

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

4 Exemples de problèmes MapReduce incrémentaux

Un exemple de régression logistique sous

un environnement économique et politique

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

Data Mining et Statistique

Analyse de la variance Comparaison de plusieurs moyennes

La Recherche du Point Optimum de Fonctionnement d un Générateur Photovoltaïque en Utilisant les Réseaux NEURO-FLOUS

BASE DE DONNÉES DES ASPECTS SOCIOÉCONOMIQUES EN MÉDITERRANÉE OCCIDENTALE

ACP Voitures 1- Méthode

Publications, ressources, liens, logiciels,

IBM SPSS Regression 21

Transcription:

avec Multivariate Adaptative Regression Splines Bernard CLÉMENT, PhD 1

Data Mining DÉFINITIONS du DATA MINING fouille de données, extraction de connaissances KDD = Knowledge Data Discovery est un nouveau champ d application à l interface de la statistique et des technologies de l information (bases de données, intelligence artificielle, apprentissage,etc.) U.M.Fayyad, G.Piatetski-Shapiro «the nontrivial process of identifying valid, novel, potentially useful, and ultimately understandable patterns in data» D.J.Hand «the discovery of interesting, unexpected, or valuable structures in large data sets» 2

TABLE des MATIÈRES Data Mining = forage (fouille) des données Partie 1 Partie 2 INTRODUCTION MARS : Multivariate Adaptative Regression Splines Partie 3 ANN : Artificial Neural Network Partie 4 CRT : Classification and Regression Tree Partie 5 RF : Random Forest Partie 6 AM : Autres Méthodes 3

MÉTHODES & OUTILS REGRESSION Linéaire Logistique Multinomiale Généralisée MARS Multivariate Adaptive Regression Splines ANN Artificial Neural Netwoork réseau de neurones CRT Classification Regression Tree arbres de décision autres ACP, PLS, Bootstrap, Forêts aléatoires, SVM, règles d association 4

MARS INTRODUCTION à Multivariate Adaptative Regression Splines Régression Multiple Ordinaire (RMO): défis & difficultés Régression Régularisée (RR) Régression Spline Adaptative (MARS) Exemples 5

Data Mining : défis problèmes difficultés Préparation des données, valeurs manquantes, Choix des variables (X, Y) Transformations / codages Détection interactions Grandes quantité de données Complexité inconnue des relations Connaissance externe 6

Régression Ordinaire (RO) : DIFFICULTÉS Moindres carrés: minimise Erreur Quadratique Moyenne (MSE) MSE = (yy ii yy ii ) 22 y i valeurs observées y i valeurs prédites Manque de robustesse instabilité données aberrantes Sur ajustement avec les données d apprentissage celles qui servent à estimer les paramètres du modèle Instabilité en présence de la multicolinéarité Difficultés avec les transformations et codage des prédicteurs X Solution unique n existe pas avec des milliers de variables X «curse of dimensionality» Solution ne tient pas compte de contraintes sur les coefficients exemple: on veut des coefficients positifs 7

Régression Ordinaire RO minimiser MSE Régression Régularisée + λ minimiser complexité modèle Régression Régularisée RR MSE + λ β k RR Ridge norme L2 coefficients Lasso norme L1 coefficients Comptage norme L0 plus petit sous ensemble k paramètre d élasticité k = 0 ou 1 ou 2 λ paramètre de régularisation λ = 0 Moindres Carrés Ordinaire 0 < λ < compromis à choisir λ = cas limite avec coefficients = 0 8

processus General Path Seeker = GPS 0 1 2 3 solution variable variable variables variables RO λ = ajout ajout ajout.. λ = 0 var var var Stratégie de sélection des variables http://www.salford-systems.com contrôle sélection variables k k = 2 - Régression Ridge : minimise carrés - norme L2 k = 1 - Régression Lasso: minimise valeurs absolues - norme L1 k = 0 - Régression pas à pas (stepwise) usuelle norme L0 9

Regression Ordinaire (RO) versus GPS RO suite de modèles linéaires modèles 1-variables / modèles 2-variables / modèles 3-variables variables retenues (critère): X1, X2, X3, variables ignorées X4 X5, GPS suite de modèles coefficients variables modèles 1-variables / modèles 2-variables / sur ensemble d apprentissage sélection variables et optimisation sur ensemble test RO et GPS : incapable découvrir structure locale données présence nœuds naturels 10

nouvelle approche : RÉGRESSION MARS Développement d algorithmes itératif (adaptatifs) non-linéaire qui construisent la fonction localement sur les données Utilisation de splines (fonction définie par morceaux avec des polynômes ) d ordre 1 avec nœuds optimaux à déterminer noeud 11

RÉGRESSION MARS Développée par Jerome Friedman (1991) Applicable en régression (Y continue) et classification (Y catégorique) Peut traiter - variables X explicatives continues ou catégoriques - données manquantes - fonctions hautement non linéaires - interactions de tout ordre Performance aussi bonne / meilleure que les réseaux de neuronnes mais beaucoup plus facile à comprendre Aucune hypothèse a priori sur relation Y = f(x 1, X 2,,X p ) Construction d une fonction avec une série de coefficients β et les fonctions de base h m h m = 12

RÉGRESSION MARS h m = t : nœud optimalement déterminés h m fonctions (t-x)+ (x-t)+ de type bâtons de hockey 13

RÉGRESSION MARS Partition de l espace X en régions avec chacune leurs équations / classification Algorithme itératif adaptatif détermine des régression linéaires par morceaux Variables les plus importantes et leurs interactions sont déterminées Exhibe un haut degré de flexibilité. Mais possibilité de sur ajustement Méthodes pour éviter SUR AJUSTEMENT : émondage (pruning) contrôle du nombre de fonctions de base Modèle MARS optimal : résultat de 2 phases - phase 1 : construction du modèle en ajoutant des fonctions de base effets principaux, nœuds, interactions - phase 2 : élimination des fonctions qui contribuent peu 14

RÉGRESSION MARS GVC Generalized Cross Validation error : mesure la qualité d ajustement N : nombre d observations d : degré de liberté effectif = nombre de fonctions de base c: pénalité d ajout de fonction de base valeur recommandée entre 2 et 3 Recommandations Maximum fonctions de base Augmenter le degré des interactions Émondage («prune» ) 15

MARS : Exemple 1 données financières Financial data of 40 UK companies 1983 J. Jobson, Applied Multivariate Data Analysis, vol 1, Regression and Experimental Design, Springer-Verlag 1991 Y_RETCAP X1_WCFTCL X2_WCFTDT Return on capital employed Ratio of working capital flow to total current liabilities Ratio of working capital flow to total debt X3_GEARRAT Gearing ratio (debt-equity ratio) X4_LOGSALE X5_LOGASST X6_NFATAST X7_CAPINT X8_FATTOT X9_INVTAST X10_PAYOUT X11_QUIKRAT X12_CURRAT Log to base 10 of total sales Log to base 10 of total assets Ratio of net fixed assets to total assets Capital intensity (ratio of total sales to total assets) Gross sixed assets to total assets Ratio of total inventories to total assets Payout ratio Quick ratio Current ratio Copyright Génistat Conseils Inc. Montréal, Canada, 2014 22

MARS : Exemple 1 données financières Y RETCAP WCFTCL WCFTD T GEARRAT LOG SALE LOG ASST NFATAST CAPINT FATTOT INVTAST PAYOUT QUIKRAT CURRAT 1 0,26 0,25 0,25 0,46 4,11 4,30 0,10 0,64 0,12 0,74 0,07 0,18 1,53 2 0,57 0,33 0,33 0,00 4,25 4,00 0,12 1,79 0,15 0,27 0,30 1,26 1,73 3 0,09 0,50 0,20 0,24 4,44 4,88 0,94 0,36 0,97 0,01 0,57 0,39 0,44.............. 40 0,13 0,30 0,20 0,23 4,54 4,37 0,32 1,49 0,46 0,28 0,58 1,47 2,49 Means Std.Dev. WCFTCL 0,257 0,312 WCFTDT 0,226 0,271 GEARRAT 0,305 0,229 LOGSALE 4,343 1,012 LOGASST 4,370 0,573 NFATAST 0,337 0,193 CAPINT 1,529 0,831 FATTOT 0,523 0,278 INVTAST 0,414 0,922 PAYOUT 0,482 0,734 QUIKRAT 1,190 2,035 CURRAT 1,810 1,948 Y_RETCAP 0,143 0,135 14 12 10 8 6 4 2 0-2 Box Plot of multiple variables Financial data-40obs.sta in Financial-40obs.stw 29v*40c Median; Box: 25%-75%; Whisker: Non-Outlier Range Median 25%-75% Non-Outlier Range Outliers Extremes Y_RETCAP WCFTDT LOGSALE NFATAST FATTOT PAYOUT CURRAT Copyright Génistat Conseils Inc. Montréal, Canada, 2013 17

MARS : Exemple 1 données financières Exemple: données financières de 40 entreprises 12 variables explicatives Summary of best subsets; variable(s): Y_RETCAP Max R square and standardized regression coefficients for each sub model R squ are No. of - Effects WCF TCL WCF TDT GEA RRA T LOG SAL E LOGA SST NFAT AST CAPI NT FAT TOT INVT AST PAY OUT QUIK RAT CUR RAT 0,775 12 0,42 0,72-0,01 0,84-0,35-0,54-0,06-0,23 0,00-0,09 1,07-1,76 0,775 11 0,42 0,72-0,01 0,84-0,35-0,54-0,06-0,23-0,09 1,07-1,76 0,9 0,8 R 2 Max R 2 vs nombre de variables 0,775 10 0,42 0,74 0,84-0,35-0,54-0,06-0,23-0,09 1,06-1,76 0,7 0,773 9 0,43 0,71 0,76-0,29-0,52-0,23-0,09 0,93-1,64 0,6 0,766 8 1,22 0,75-0,25-0,51-0,25-0,08 0,84-1,67 0,760 7 1,23 0,74-0,24-0,53-0,23 0,92-1,76 0,747 6 1,21 0,71-0,19-0,73 1,02-1,85 0,732 5 1,21 0,51-0,73 0,68-1,63 0,721 4 1,23 0,46-0,68-1,00 0,615 3 1,04-0,61-0,99 0,341 2 1,01-0,95 0,106 1 0,32 R square 0,5 0,4 0,3 0,2 0,1 0,0 0 2 4 6 8 10 12 14 nombre de variables WCF LOG NFAT CUR TDT SALE AST RAT Copyright Génistat Conseils Inc. Montréal, Canada, 2014 18

MARS : Exemple 1 données financières Regression Summary for Dependent Variable: Y_RETCAP R = 0,88 R² = 0,775 Adjusted R ² = 0,675 F(12,27) = 7,7355 Beta Std.Err. - of Beta B Std.Err. - of B t(27) p-level Intercept 0,230 0,135 1,706 0,0995 WCFTCL 0,422 0,471 0,183 0,204 0,897 0,3775 WCFTDT 0,720 0,615 0,358 0,306 1,170 0,2522 Analysis of Variance Sums of - Squares df DV: Y_RETCAP Mean - Squares F p-level Regress. 0,5486 12 0,0457 7,73 0,00001 Residual 0,1596 27 0,0059 Total 0,7082 GEARRAT -0,011 0,128-0,007 0,075-0,088 0,9305 LOGSALE 0,845 0,282 0,112 0,038 2,991 0,0059 LOGASST -0,346 0,198-0,081 0,047-1,749 0,0916 NFATAST -0,545 0,204-0,380 0,142-2,672 0,0126 CAPINT -0,062 0,148-0,010 0,024-0,418 0,6790 FATTOT -0,227 0,186-0,110 0,090-1,217 0,2343 INVTAST 0,001 0,097 0,000 0,014 0,010 0,9922 PAYOUT -0,093 0,100-0,017 0,018-0,938 0,3568 QUIKRAT 1,072 0,749 0,071 0,050 1,431 0,1639 CURRAT -1,764 0,683-0,122 0,047-2,584 0,0155 4 variables importantes pour expliquer Y_RETCAP LOGSALE - LOGASST NFATAST - CURRAT coefficients de régression en variables centrées-réduites coefficients de régression R² = 0,775 Adjusted R² = 0,675 Copyright Génistat Conseils Inc. Montréal, Canada, 2014 19

MARS : Exemple 1 données financières méthode MARS 20

MARS : Exemple 1 données financières Régression MARS 21

MARS : Exemple 1 données financières Régression MARS Model specifications Independents Dependents Number of terms Number of basis functions Order of interactions Penalty Threshold GCV error Prune Regression statistics Mean (observed) Standard deviation (observed) Mean (predicted) Standard deviation (predicted) Mean (residual) Standard deviation (residual) R-square R-square adjusted Model Summary Value 12 1 9 12 2 2,000000 0,000500 0,005721 Yes Regression statistics Y_RETCAP 0,142750 0,134755 0,142750 0,127353-0,000000 0,044046 0,893164 0,861113 Dependents WCFTCL WCFTDT GEARRAT LOGSALE LOGASST NFAT AST CAPINT FATT OT INVT AST PAYOUT QUIKRAT CURRAT Number of References to Each Predictor Number of times each predictor is used References (to Basis Functions) 0 3 1 0 0 0 1 4 2 1 0 0 R-square = 0,89 R-square ajusted = 0,86 meilleur modèle avec sélection variables R-square = 0,77 (12 var) / = 0,74 (6 var) R-square ajusted = 0,67 (12 var) 22

MARS : Exemple 1 données financières Régression MARS Y_RETCAP = 1,61467455597378e-001 + 1,09830689920240e+000*max(0; WCFTDT-2,00000000000000e-001) - 8,85189400626038e-001*max(0; 2,00000000000000e-001-WCFTDT) + 3,95394205024779e-001*max(0; 5,00000000000000e-001-FATTOT) - 6,86221641809597e-001*max(0; 1,65000000000000e+000-CAPINT)*max(0; 5,00000000000000e-001-FATTOT) - 1,65400960342744e+000*max(0; 3,50000000000000e-001- GEARRAT)*max(0; FATTOT-5,00000000000000e-001) - 4,27901294646320e+000*max(0; WCFTDT- 2,00000000000000e-001)*max(0; 2,90000000000000e-001-INVTAST) + 2,11780184468778e+000*max(0; 5,00000000000000e-001-FATTOT)*max(0; 3,30000000000000e-001-INVTAST) + 1,40994840889384e- 001*max(0; 4,60000000000000e-001-PAYOUT) Y_RETCAP = 0,161 + 1,098*max(0; WCFTDT - 0,2) - 0,885*max(0; 0,2 - WCFTDT) + 0,395*max(0; 0,5 - FATTOT) + 0,140*max(0; 0,46 - PAYOUT) - 0,686*max(0; 1,65 - CAPINT)*max(0; 0,5 - FATTOT) - 1,654*max(0; 0,35 - GEARRAT)*max(0; FATTOT 0,5) - 4,279*max(0; WCFTDT 0,2)*max(0; 029 - INVTAST) + 2,118*max(0; 0,5 - FATTOT)*max(0; 0,33 - INVTAST) 23

MARS : Exemple 1 données financières Régression MARS Coefficients, knots and basis functions Intercept Term.1 Term.2 Term.3 Term.4 Term.5 Term.6 Term.7 Term.8 Coefficients, knots and basis functions Intercept Term.1 Term.2 Term.3 Term.4 Term.5 Term.6 Term.7 Term.8 Model coefficients NOTE: Highlighted cells indicate basis functions of type max(0, independent-knot), otherwise max(0, knot-independent) Coefficients Y_RETCAP WCFTCL WCFTDT GEARRAT 0,16147 1,09831 0,200000-0,88519 0,200000 0,39539-0,68622-1,65401 0,350000-4,27901 0,200000 2,11780 0,14099 LOGSALE LOGASST NFATAST Model coefficients NOTE: Highlighted cells indicate basis functions of type max(0, independent-knot), otherwise max(0, knot-independent) CAPINT FATTOT INVTAST 0,500000 1,650000 0,500000 0,500000 0,290000 0,500000 0,330000 PAYOUT 0,460000 QUIKRAT CURRAT 24

MARS : Exemple 1 données financières Régression MARS Y_RETCAP (Obs.) 2D Scatter Plot of WCFTDT vs. Y_RETCAP (Obs.) (Financial data-40obs in Exemples Data Mining.stw) 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0-0,1-0,2-0,3-0,6-0,4-0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 WCFTDT Y_RETCAP (Obs.) 2D Scatter Plot of GEARRAT vs. Y_RETCAP (Obs.) (Financial data-40obs in Exemples Data Mining.stw) 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0-0,1-0,2-0,3-0,1 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 GEARRAT Y_RETCAP (Obs.) 2D Scatter Plot of PAYOUT vs. Y_RETCAP (Obs.) (Financial data-40obs in Exemples Data Mining.stw) 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0-0,1-0,2-0,3-0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 PAYOUT 2D Scatter Plot of CAPINT vs. Y_RETCAP (Obs.) (Financial data-40obs in Exemples Data Mining. stw) 0,7 0,6 0,5 2D Scatter Plot of FATTOT vs. Y_RETCAP (Obs.) (Financial data-40obs in Exemples Data Mining. stw) 0,7 0,6 0,5 2D Scatter Plot of INVTAST vs. Y_RETCAP (Obs.) (Financial data-40obs in Exemples Data Mining.stw) 0,7 0,6 0,5 0,4 0,4 0,4 Y_RETCAP (Obs.) 0,3 0,2 0,1 0,0 Y_RETCAP (Obs.) 0,3 0,2 0,1 0,0 Y_RETCAP (Obs.) 0,3 0,2 0,1 0,0-0,1-0,1-0,1-0,2-0,2-0,2-0,3-0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0-0,3-0,2-0,1 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3-0,3-1,0-0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 6,0 6,5 7,0 CAPINT FATTOT INVTAST 25

X0 = County Y = PT_POOR = Percent of families below poverty level X1 = POP_CHANGE = Population change (1960-1970) X2 = N_EMPLD = No. of persons employed in agriculture X3 = TAX_RATE = Residential and farm property tax rate X4 = PT_PHONE = Percent residences with telephones X5 = PT_RURAL = Percent rural population X6 = AGE = Median age MARS : Exemple 2 prédicteur pauvreté id X0 Y X1 X2 X3 X4 X5 X6 1 Benton 19,0 13,7 400 1,09 82 74,8 33,5 2 Cannon 26,2-0,8 710 1,01 66 100,0 32,8......... 30 Weakley 20,5 19,0 1630 0,68 83 72,1 30,4 26

MARS : Exemple 2 prédicteur pauvreté 27

Model Summary Value Independents 6 Dependents 1 Number of terms Number of basis functions Order of interactions Penalty 2,0000 Threshold 0,00050 GCV error 13,5429 Prune 5 6 2 Yes MARS : Exemple 2 prédicteur pauvreté Model coefficients NOTE: Highlighted cells indicate basis functions of type max(0, independent-knot), otherwise max(0, knot-independent) Interce pt Coefficients PT_POOR 20,2819 POP CHNG Term.1-0,25678 7,1000 - N_EMPLD - TAX RATE - PT PHONE Term.2 0,00183 1070,0 75,00 Term.3 1,07462 0,400 75,00 - PT RURAL AGE Term.4 0,16003 71,20 28

Regression statistics PT_POOR Mean (observed) 23,01000 Standard deviation (observed) 6,42658 Mean (predicted) 23,01000 Standard deviation (predicted) 5,86822 Mean (residual) -0,00000 Standard deviation (residual) 2,62009 R-square 0,83378 R-square adjusted 0,79916 PT_POOR = 2,02819296499116e+001-2,56780388292518e-001* MARS Exemple 2 prédicteur pauvreté max(0; POP_CHNG-7,10000000000000e+000) + 1,83090026675797e-003 *max(0; N_EMPLD-1,07000000000000e+003) *max(0; 7,50000000000000e+001-PT_PHONE) + 1,07462185377171e+000 *max(0; TAX_RATE-4,00000000000000e-001) *max(0; 7,50000000000000e+001-PT_PHONE) + 1,60029686783812e-001 *max(0; PT_RURAL-7,12000000000000e+001) PT_POOR = 20,28-0,257 * max(0; POP_CHNG-7,1) + 0,0018 * max(0; N_EMPLD-1070) * max(0; 75-PT_PHONE) + 1,07 * max(0; TAX_RATE-0,4) * max(0; 75-PT_PHONE) + 0,1 * max(0; PT_RURAL-71,2) 29

2D Scatter Plot of PT_PHONE vs. PT_POOR (Obs.) (Poverty.sta in Exemples Data Mining.stw) 44 PT_POOR (Obs.) 42 Haywood 40 38 Jackson 36 34 32 Johnson McNairy Trousdale 30 Cumberland Wayne 28 Morgan Cannon 26 Houston Lawrence Hawkins 24 22 DeKalb Dyer Greene Henry Weakley Unicoi 20 Sevier Humphreys Benton Madison Carrol Montgomery Gibson 18 Maury Shelby 16 Cheatheam Marshall 14 Sullivan 12 10 40 45 50 55 60 65 70 75 80 85 90 95 PT_PHONE PT_POOR (Obs.) MARS Exemple 2 prédicteur pauvreté 2D Scatter Plot of TAX_RATE vs. PT_POOR (Obs.) (Poverty.sta in Exemples Data Mining.stw) 44 42 Haywood 40 Jackson 38 36 34 32 McNairy Trousdale 30 Cumberland Johnson Wayne 28 Morgan Cannon 26 Houston Lawrence Hawkins 24 22 DeKalb Dyer Greene Henry Weakley Humphreys 20 Madison Unicoi Sevier Gibson Carrol Montgomery 18 Maury Shelby Benton 16 Marshall Cheatheam 14 Sullivan 12 10 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 TAX_RATE 30

MARS Exemple 2 prédicteur pauvreté 31

CONCLUSION méthode MARS est démontrée (milliers d articles depuis 1991) supérieure à presque toutes les méthodes de modélisation incluant les réseaux de neurones a été appliquée dans tous les domaines: économie, assurances, sciences de la vie, robuste vis-à-vis des données aberrantes permet de modéliser les données non linéaires 32

33

Sites Internet http://www.kdnuggets.com/ http://www.ccsu.edu/datamining/ http://www.math.ccsu.edu/dm/dm%20resources.htm http://www.dmreview.com http://www.scd.ucar.edu/hps/groups/dm/dm.html http://www.infogoal.com/dmc/dmcdwh.htm http://www.salford-systems.com 34