Fiche méthodologie #2 Les théories de l économie spatiale Cette rubrique présente des notes et documents publiés par Philippe Latour, enseignant au Master Géomarketing et stratégies territoriales des entreprises et des institutions publiques. Vous pouvez retrouver ces publications, ainsi que d'autres thèmes, développés sur le site www.spatialist.fr ainsi que dans l'ouvrage "Géomarketing : Principes, méthodes et applications" Le géomarketing est une application spécifique de l économie spatiale. Les recherches effectuées dans cette dernière discipline reposent sur le principe général selon lequel les distances et l organisation des phénomènes dans l espace géographique exercent une véritable influence sur l économie : parcourir une distance a un coût, implique une mise en œuvre technologique et, par conséquent, produit un effet économique mesurable. Le marketing intervient là où s arrête l économique et s intéresse à l incidence du coût sur le comportement du consommateur. Le coût étant bien entendu constitué de tous les facteurs constitutifs du produit appelé marketing mix : produit, communication, distribution, prix. La motivation du consommateur vient en complément de la mesure du coût économique et suppose que l on sache cibler de quels individus il s agit afin d optimiser les coûts du mix. Or la démographie et la sociologie géographique montrent clairement que la distribution spatiale des individus présente, entre autres indices significatifs, une typologie liée à leur localisation dans l espace. Grâce aux outils développés dans le cadre de la recherche en économie spatiale, nous constatons que l observation peut encore progresser en mesurant les comportements qui distinguent les individus : mobilité, classes relatives à l attractivité, typologie des zones d habitat, etc. Le géomarketing va donc naturellement s intéresser aux questions sensibles de l identité, de l écologie, des comportements, en résumé, à ce qui fait la réalité du consommateur. Le comportement des individus dans l espace Le géomarketing peut être défini comme étant l analyse du comportement des individus économiques dans l espace. De nombreuses disciplines analysent le comportement des individus ; le géomarketing
se focalise sur l aspect économique des attitudes des personnes, des ménages ou des entreprises. Par ailleurs l espace peut s analyser sous quatre principaux aspects : - Géographique - Economique - Démographique - Sociologique Le comportement des individus est intimement lié à son appartenance à chaque particularité de ces quatre grandes catégories. Comme aucun individu n appartient de façon absolue, strictement aux mêmes espaces, on ne peut que conclure qu il n existe pas deux individus qui aient un comportement absolument identique. Outre ces aspects d appartenance, il faut bien entendu tenir compte de l historique de chaque individu, son patrimoine génétique, ses attitudes apprises... Tout ceci fait que nous ne pouvons conclure que l analyse du comportement global d un individu est extrêmement complexe de par la diversité que l on doit rencontrer. Toutefois à fins d analyse nous devons admettre les postulats logiques suivants : 1. Il existe un lien rationnel entre l individu et l espace dans lequel il se situe. 2. Chaque individu pris au hasard dans un espace donné a une propension à se comporter comme n importe quel autre individu du même espace. 3. Les conditions de comportement dans l espace ne sont pas illimitées : - l espace environnant l individu est d une nature et pas d une autre, - le comportement de l individu se matérialise dans un espace connu et dont l élasticité est limitée. 4. Les analyses de comportement effectuées en géomarketing se rapportent non pas au comportement en général, mais à une attitude particulière vis-à-vis d un produit, d un service bien identifiés et qui répondent à des motivations précises. Les principales théories économiques qui ont abordé l économie spatiale reposent sur deux modes de considérations de l espace : - La distance - La configuration spatiale des phénomènes. Les théories liées à la distance Von Thünen Les premières tentatives de développement de théories dans le domaine de l analyse économique avec référence à l espace géographique sont le fait de Von Thünen, (L ETAT ISOLE, vers 1830) gentilhomme prussien qui étudie les localisations des principaux types de cultures autour des centres urbains. Il raisonne en zones concentriques centrées sur le marché (la ville), utilisant la notion de
distance comme discriminant principal du type de culture pratiquée, du plus au moins périssable, du plus onéreux au plus facile à transporter, du plus intensif au plus extensif. Parallèlement, il développe les notions de coût lié aux distances, coût du transport, mais aussi du terrain vis à vis du rapport obtenu (Voir fig). D abord développée dans un espace indifférencié, Von Thünen fait ensuite évoluer sa théorie en prenant en compte les obstacles géographiques, la fertilité des sols Les études de Von Thünen sont encore considérées aujourd hui comme la référence en matière de développement rural; on peut lui appliquer les concepts développés ultérieurement par Schumpeter sur l influence de l innovation, dont l impact se bornera à faire fluctuer la position des zones concentriques dans le cadre d un processus qui touchera plus rapidement les zones proches du centre urbain, mais s étendra progressivement aux endroits les plus éloignés de façon amortie. Au début du 20 ème siècle, Alfred Weber, économiste allemand, transpose l analyse à l industrie. Il étudie les facteurs qui déterminent l implantation des sites de production et fait intervenir quatre séries de paramètres principaux : les matières premières, les coûts salariaux, le transport (concept de la Tonne/Km) et les débouchés. L objectif consistait à développer une optimisation économique de l implantation des moyens de production, tenant compte de la multiplicité possible des sources d approvisionnement en matières premières, des moyens de transport et finalement des débouchés. Hotelling La loi de Hotelling (HOTELLING H. (1929) Stability in Competition, The Economic Journal, Vol. 39, p 41-57) permet de prendre conscience des interactions concurrentielles entre points de vente. A partir d une répartition homogène de clients le long d un segment AB, comment déterminer l emplacement optimal de deux points de vente de même type gérés par deux responsables qui prennent leur décision sans se consulter. Par principe, les clients fréquenteront le magasin le plus proche et les responsables chercheront à maximiser leur nombre de clients. Si les responsables s entendaient pour se partager le marché, les deux magasins seraient placés au tiers et au deux tiers du segment xy et donc à équidistance l un de l autre. Dans ce cas, chaque magasin aurait 50% du marché. Mais, si chaque manager ignore la décision de son concurrent, ils chercheront à s installer au milieu du segment pour chercher à attirer le plus de clients possibles. Ainsi, Hotelling met en évidence les interactions qui existent entre concurrents sur un marché et qui conditionnent le choix des localisations commerciales. Mais, cette théorie appelée aussi principe de différenciation minimale explique également la tendance des magasins à se regrouper, selon le déroulement du schéma cidessus.
Les modèles gravitaires Au début du XX ème siècle, les économistes américains Stewart, Pareto et Wilson ont eu l idée de la notion d attractivité des villes et des centres commerciaux et ont intuitivement fait le rapprochement avec la loi de gravitation universelle de Newton. En 1931, W.J.Reilly, économiste également américain, établissait un modèle dérivé de cette loi (Voit fig.). Ce modèle, appliqué au commerce de détail, a postulé que la population d une zone I localisée entre deux pôles urbains A et B sera attirée par chacun de ces pôles proportionnellement à leur taille et en proportion inverse de la distance entre la zone I et les pôles urbains A et B (REILLY W. J. (1931) The Law of Retail Gravitation, W. Reilly ed, 285 Madison Ave, New York, NY): Où : Va et Vb: Proportion des ventes réalisées en A et B auprès des habitants de la zone I, Pa et Pb: population des pôles urbains A et B, Da et Db: distance entre la zone intermédiaire I et les pôles urbains A et B, α: coefficient positif mesurant l'importance du facteur population sur le niveau des ventes, β: coefficient positif mesurant l'impact de la distance entre clients et point de vente jouant sur le niveau des ventes. L économiste américain P.D.Converse (CONVERSE P.D. (1949) New Laws of Retail Gravitation, Journal of Marketing 14, p.379-384) a déterminé que cette loi semblait pratiquement vérifiée sur un certain nombre de centres urbains avec α et β égaux respectivement à 1 et à 2, ce qui correspond précisément à l énoncé de la loi de la gravité universelle, soit : Toutefois, dans la pratique de la mesure d attraction d un point de vente, on se rendra compte que le coefficient β peut prendre des valeurs comprises entre 1 et 2, selon l environnement étudié et le type d activité. Pour délimiter la frontière de la zone de chalandise de deux aires de marché éloignées, les populations des pôles urbains A et B, Va et Vb, sont remplacées par un indicateur du potentiel de chaque zone. Le point de rupture de l'attractivité commerciale issue du pôle urbain A et du pôle B est alors indiqué par son abscisse X à partir du pôle A.
Parallèlement à ces travaux, W.Christaller (1933), économiste allemand, établit un lien entre le coût de la distance. Si le prix d un produit augmente d un supplément de coût lié à la distance à parcourir pour l acheter, la quantité vendue diminuera plus on s éloignera du point de vente. Sur des bases de raisonnement similaires, G.K. Zipf, scientifique de Harvard (1949) a émis le principe de la loi du moindre effort. En 1954, L.W. Elwood a proposé de remplacer la notion de distance par celle de temps de conduite, ce qui ne surprendra pas les lecteurs qui ont une vision des notions d espace en Amérique du Nord. En outre Elwood a procédé à l application du raisonnement en zones urbaine, alors que les approches précédentes considéraient les seuls comportements interurbains. En 1963, D. Huff (Huff, David L., A probabilistic analysis of shopping center trade areas, Land economics, 1963) fait évoluer le modèle de Reilly en introduisant la notion de probabilité qu un acheteur fréquente un centre parmi X, son choix étant fait en proportion de l utilité qu il attribue à ce centre et en proportion inverse de la distance à une certaine puissance. Dix ans plus tard, Nakanishi et Cooper développent le modèle MCI (Multiplicative Competitive Interaction) dans lequel la taille (ou le "poids") du centre devient la résultante d une accumulation de facteurs qui vont du nombre de places de parking ou de caisses à l image que les consommateurs ont de la marque distributeur ou des produits proposés, ou encore à la qualité de l accueil et à l ambiance du point de vente. Dans cette approche la difficulté consiste à évaluer ces composantes souvent qualitatives de façon autrement qu intuitive et à déterminer des hiérarchies d importance entre elles. Le modèle MNL (Multinomial Logit) qui découle des travaux de R.Luce sur le comportement des consommateurs, considère que les choix sont indépendants et les fonctions "utilités" correspondantes non corrélées. Le Nested Multinomial Logit repose sur le principe que le consommateur a établi une hiérarchie de préférences et que son choix reposera sur la connaissance (plus ou moins parfaite) des offres auxquelles il est confronté. Les modèles de localisation La principale difficulté en localisation de l offre est qu il est illusoire de ne raisonner que sur un seul point de vente. L activité commerciale est constituée de réseaux de points de vente de toutes tailles dont le mix marketing (prix, qualité ) est très divers. Trois approches principales relèvent des modèles de localisation dont la démarche générale repose sur les travaux de A.Weber: La localisation allocation Ce modèle consiste à déterminer quelles sont les localisations de l offre qui minimisent le total des
distances entre tous les points de demande et tous les points d offre possibles, en ayant la possibilité de pondérer aussi bien la demande que l offre. Cette pondération fait intervenir les arguments économiques qui peuvent être déterminants dans les choix, comme le pouvoir d achat des consommateurs et leur typologie ou les coûts d implantation d un magasin. La difficulté de mise en œuvre tient au volume des traitements mathématiques nécessaire et on se reportera aux travaux de J.Baray qui intègrent l usage de techniques physiques de filtrage et d algorithmes de calcul de type génétique ou de logique floue. Parallèlement à cette approche dite du P-médian, en existe une autre, dite du P-centré qui minimisera la distance maximum entre les points d offre et de demande. Ce dernier modèle sera appliqué pour localiser des services d intérêt public (centres de secours, hopitaux ). Multiloc Le multiple store location decision (1982 D.D. Achabal) utilise les principes du modèle MCI, il cherche à maximiser le profit attendu en fonction des probabilités de choix des consommateurs, du potentiel de la zone étudiée, des coûts d implantation et de fonctionnement et du nombre de points de vente. Comme le modèle de Localisation allocation, nous nous trouvons en situation d analyse combinatoire dont la résolution passe par l utilisation d algorithmes (par exemple celui de Teitz & Bart utilisé pour les agences bancaires). L analyse de protefeuille Dérivé de l analyse financière et utilisé par les grands cabinets (Boston Consulting Gp, Mc Kinsey ) l analyse matricielle de portefeuille consiste à comparer l attractivité d une zone et la pression concurrentielle. La configuration spatiale des phénomènes La distinction que nous faisons ici sur la considération de l espace entre distance et configuration des phénomènes est uniquement destinée à faciliter l approche logique de la discipline par des non spécialistes. En effet, non seulement il n existe pas d antagonisme entre ces deux modes, mais souvent ils se complètent et nous retrouvons en général les mêmes intervenants. La difficulté du raisonnement en économie spatiale présente deux facettes : 1 l appréhension des territoires que l on étudie et le mode de segmentation de l espace 2 le mode d agrégation des données et leur affectation aux segments déterminés Le tout devant se faire avec des méthodes aptes à révéler des informations utiles et fiables. La loi du moindre effort (de l analyste, cette fois) encouragée par la conception fonctionnelle des S.I.G. en mode objet, fait que, pour représenter un phénomène, la plupart des géomaticiens vont affecter une valeur (de population, de consommation, de revenu.) à un niveau de découpage territorial proposé par la cartographie disponible dans son système (commune, Iris, Ilot ). Cette affectation brutale, que l on peut qualifier, au mieux, de «coloriage de carte» produit des résultats qui ne peuvent qu être fondamentalement faux. Autrefois, les cartographes en géographie humaine avaient résolu une partie du problème en produisant des cartes de densités. La méthode la plus fiable pour affecter des valeurs à des localisations consiste à lier la valeur à un point de l espace repéré par sa localisation X,Y (chiffre d affaires d un point de vente, consommation d un client ). Toutefois il est clair qu il est impossible de représenter sur une carte de France la consommation, par exemple, de chacun des abonnés au téléphone ; en outre beaucoup de données statistiques ne sont disponibles qu au niveau de territoires qui ne peuvent pas être ramenés à des points (Iris, communes, cantons ) et dont le découpage résulte de considérations historiques variées. L économiste allemand, August Lösch, établit le fondement de l analyse spatiale en stipulant que l espace doit être découpé en secteurs homogènes qui puissent être comparables entre eux. Initialement, il utilise des cercles qui représentent la zone de chalandise au centre de laquelle le producteur ou le distributeur vont tenter de s implanter. La juxtaposition de ces cercles (figurant la
concurrence) le conduit, finalement, à opter pour la structure hexagonale dont la géométrie permet, en outre, une couverture exhaustive de l espace, sans intersections. L hexagone, quelle que soit sa taille devient le support géographique de référence des données économiques. A noter que les seules autres structures géométriques qui permettent de découper l espace en entités homogènes sont le carré et le triangle. Ces travaux constituent la base même des théories de l analyse spatiale couramment utilisées dans les recherches ultérieures de Léontief, Moses, Isard... W.Appelbaum, économiste américain, s en est largement inspiré pour préconiser l Analyse de Grille en 1966. Les places centrales Parallèlement et indépendamment, W.Christaller et G.K.Zipf ont effectué des travaux vers 1930-40 sur l organisation des réseaux urbains en Allemagne du sud, zone qui, rappelons le, est peu différentiée sur le plan géographique ; ces travaux les ont conduits à énoncer la théorie des places centrales. Sans distinguer les apports respectifs de ces deux scientifiques, nous rappellerons les conclusions de la théorie qui repose sur 2 grands principes : la spécialisation et la hiérarchisation. Chaque centre urbain possède des spécialités économiques ou administratives et peut se classer visà-vis de ses voisins par sa taille de population. Les observations faites sur le terrain ont conduit à remarquer une organisation géométrique relativement simple des centres (ainsi d ailleurs que des points de vente) en hexagones emboîtés (voir figure ci-dessous). Chaque petit centre (ou point de vente) se positionne aux sommets d hexagones (en noir) de façon totalement régulière dans l espace et est soumis à l influence directe d un centre de niveau hiérarchique supérieur. Les centres de niveau 2 s organisent de la même façon (hexagones en rouge) et ainsi de suite. Cette disposition s applique au principe de marché, une autre est destinée à l organisation des transports où les points sont localisés au milieu des cotés des hexagones, ce qui, tout en détériorant légèrement l accessibilité réduit notablement la taille des infrastructures de desserte. Enfin le principe
d administration enferme les centres dans les hexagones puisque chaque centre est rattaché à un centre de niveau supérieur sans pouvoir mettre les autres en concurrence. A ces trois principes correspond une évaluation de potentiel du centre de niveau +1 calculée sur base des dépendances illustrée par un coefficient respectif de 3, 4 et 7. (Un centre a un potentiel égal à 3 fois celui du centre de niveau inférieur dans le principe de marché et ainsi de suite ). Sur la théorie des places centrales s est greffée une constatation tout à fait simpliste de Pareto qui a donnée naissance à la loi Rang - Taille. Cette loi établit qu une ville de rang R a une population sensiblement égale à celle de la principale ville d un pays divisée par la valeur de rang : Popi = Pop 1 / R i k, ainsi une ville de rang 4 d un pays où la première ville a 4 M. hab. doit avoir une population d environ 1 M. hab. Le paramètre k varie entre 0,7 et 1,3 en fonction des pays et des époques considérées. La théorie des places centrales doit être considérée comme un modèle simplificateur de l organisation du territoire. Sa validité se heurte à 3 aspects principaux de la réalité, d abord le fait que l espace géographique n est pas indifférencié (il existe de nombreuses barrières de toutes natures), ensuite l apparition de très grands pôles commerciaux modifie le comportement d achat (regroupements en particulier), enfin l activité des villes ne se limite pas à la seule satisfaction des populations qui y habitent (par exemple Toulouse possède une activité en aéronautique qui dépasse très largement les besoins des toulousains). La carte ci-dessous montre que dans des zones géographiquement peu différentiées (région de Troyes) la théorie des places centrales peut s appliquer de façon relativement satisfaisante. Les études réalisées en France dans le cadre de la décentralisation ont conduit le Commissariat Général du Plan à construire un schéma d armature urbaine dans lequel la classification repose sur la quantification de 13 critères au niveau national et de 20 au niveau régional (portant sur l équipement urbain et les zones d influence). Ceci a permis d établir un classement hiérarchique des villes en 19 niveaux (sans aucun lien de dépendance) dont les 14 premiers (hors Paris, puisqu il s agit de décentralisation) sont représentés avec en rappel une boule qui indique leur classe de population. (Voir fig. ci-dessous).
Le développement des régions urbaines, de type mégalopoles, modifie sensiblement l analyse dans la mesure où l environnement rural est absorbé par le développement des villes selon des axes particuliers que révèle la carte ci-contre de densité des populations. Le développement des régions urbaines, de type mégalopoles, modifie sensiblement l analyse dans la mesure où l environnement rural est absorbé par le développement des villes selon des axes particuliers que révèle la carte ci-contre de densité des populations. Cette notion de densité est particulièrement intéressante, car plusieurs auteurs ont démontré la relation qui existe entre la taille de l agglomération et sa densité ainsi que la relation inverse entre la densité et la distance au centre de la ville : formule de décroissance exponentielle de Colin Clark (Voir fig. ci-dessous), reprise par Maxwell-Boltzmann qui substitue la notion de temps à celle de distance.
Les phénomènes spatiaux Dès les années 20 les sociologues de l école de Chicago ont développé des travaux qui se sont concrétisés avec le modèle qualitatif de Burgess visant à étudier l évolution dans l espace de groupes sociaux d immigrants. Trente ans plus tard les études menées sur la ségrégation (aux Etats-Unis) sont devenues beaucoup plus quantitatives et se sont attachées à la description de répartitions de populations sur bases de divers indices, élaborés également par des géographes, qui permettent de caractériser la distribution d un phénomène dans l espace. De ces travaux émergent 5 grandes catégories d indices que nous illustrerons par des exemples opposés (les experts en mathématiques pourront trouver leur formulation en se référant aux auteurs : - Agrégation : Duncan 1964 - Concentration : White 1983 - Centralisation : Duncan & Duncan 1965 - Pénétration : Bell 1954 - Distribution : Gini & Thiel 1972 Les études sur la distribution de Gini et Thiel ont amené le développement des notions d Entropie, fondées sur les principes thermodynamiques du théorème de Carnot, qui mesurent le degré de désordre d une distribution.
Sachant par ailleurs que des zones territoriales adjacentes ont des configurations relativement comparables et que les caractéristiques d une zone exerceront nécessairement une influence sur celles des zones contiguës, Geary et Moran ont développé la notion d autocorrélation spatiale. L indice de Moran : phénomène étudié. fournit un degré d autocorrélation lié à l entropie du Les notions d autocorrélation ont été approfondies par L.Anselin (université d Illinois) qui a développé un logiciel (Geoda) dont une version bêta peut être téléchargée sur son site et qui possède des fonctions intéressantes dans ce domaine. Enfin, signalons l approche intéressante en ACP hiérarchique ascendante avec prise en compte des matrices de contiguïté. L utilisation des algorithmes développés en data mining dans le cadre des analyses quantitatives multivariées doit pouvoir apporter des solutions intéressantes à condition, bien entendu de respecter les méthodes spécifiques de l analyse spatiale. En particulier un approfondissement des réseaux neuronaux de Kohonen (biologiste finlandais) doit apporter des solutions très intéressantes qui sont déjà utilisées dans les approches de segmentation de données. L intérêt particulier de la méthode de Kohonen est que chaque neurone est en compétition avec les neurones adjacents soit sous forme de grille (8 voisins) ou sous forme hexagonale (6 voisins, voir fig. ci-dessous).
Chaque neurone reçoit une excitation ou une inhibition (on pourrait dire une influence en analyse spatiale) de la part d un neurone voisin en fonction de la distance qui les sépare. En conclusion (provisoire) de ce tour d horizon rapide des travaux disponibles en économie spatiale dont le géomarketing peut (et doit) s inspirer, nous pouvons affirmer que des pistes intéressantes sont ouvertes ; malheureusement les relations entre spécialistes du marketing, universitaires et éditeurs de solutions sont depuis toujours indigentes et ne permettent pas d espérer voir apparaître autant d outils fiables d aide à la décision en géomarketing que l on en rencontre, par exemple, en Data Mining.