L'art du marketing TABLE Chapitre 1... 4 Le marketing de demain... 4 Changer les règles du jeu... 6 Education du consommateur... 6 - La perception de la marque... 7 - Les préférences pour la marque... 8 La prise de décision... 8 Avantage concurrentiel... 9 - Les avantages du pionnier... 9 Différenciation des produits...10 Les facteurs de réussite de la pub télévisée...10 Y-a-t-il des règles?...11 L'expérience de Frito-Lay...13 Tester encore et encore...14 De l'importance de la perception de valeur par le client...15 Sentir le marché...15 Améliorer la performance...16 Les défis des dirigeants...17 La percée anglaise de Daewoo...18 Comment évaluer le marketing?...19 Résumé...23 Résumé...23 Bien choisir ses marchés à l'étranger...23 Comment une entreprise de télécoms a fait ses choix...26 Ce que la demande latente n'est pas...27 Estimer l'accessibilité...27 Résumé...28 Chapitre 2...29 Les «4 D» d'un bon positionnement...29 Résumé...33 Eviter le «D» du déclin...34 Accroître la fiabilité des prévisions...36 Résumé...42 Jongler avec les segments de marché...43 Des techniques qui se sophistiquent...46 Résumé...47 De la conquête du linéaire au «category management»...48 L'indispensable éthique dans la panoplie du marketing...51 Résumé...56 Résumé...62 Chapitre 3...62 Instaurer des relations durables...62 Défendre les relations avec la clientèle...67 Résumé...68 La fixation des prix : un art autant qu'une science...68 Résumé...75 Comment estimer la sensibilité au prix...75 Résumé...76 La stratégie concurrentielle à l'ère de l'informatique...76 Conseils aux entreprises...82 Les règles du jeu concurrentiel...83 Résumé...87 Ententes sur les prix : les mécanismes...87 Chapitre 4...93 Les marques face au défi du temps...93
La nouvelle donne du consommateur postmoderne...96 Les frontières traditionnelles s'effacent... 100 Les stratégies de marque et le comportement des consommateurs... 101 Quand Kellog's joue la carte de la santé... 107 Check-list à l'intention des professionnels du marketing... 108 Extension de gamme : des enjeux pour l'image... 108 Le produit au-delà de la marque... 113 Acte d'achat et trop-plein d'informations... 118 Les défis pour les professionnels du marketing de la distribution... 123 Chapitre 5... 123 La vente et la gestion du capital clients... 123 Créer une force de vente digne de ce nom... 125 Vous êtes-vous déjà trouvé dans l'une de ces situations?... 130 Avez-vous déjà observé l'un de ces phénomènes?... 130 Ces affirmations vous semblent-elles familières?... 130 La fidélité à la marque à travers les situations d'achat... 130 La force d'une base de données bien gérée... 133 Vers l'industrialisation de la vente et de la relation clients... 138 Réussir une fusion de forces de vente... 141 Quelques conseils pour réussir une fusion de forces de vente... 146 Le marketing pris en faute... 147 Quelle solution pour les services marketing?... 150 Chapitre 6... 151 Comprendre ses clients à l'aide du data mining... 151 Enjeux et constitution d'un data warehouse... 154 Les effets de la publicité ambiante... 156 La promotion des ventes : un outil puissant et diversifié... 159 Les tests publicitaires au banc d'essai... 163 Comment élaborer un test efficace... 167 L'européanisation des forces de vente... 168 Stratégies de prix : conjuguer l'instant et la durée... 171 Chapitre 7... 174 Les dividendes du pionnier... 174 Pourquoi être le premier sur le marché?... 180 Les choix stratégiques des suiveurs... 181 Accélérer le décollage des nouvelles technologies... 186 Évaluer la demande pour des produits innovants... 192 La gestion des marchés critiques... 196 Internet : fidéliser à travers l'apprentissage... 198 Chapitre 8... 205 Gestion du capital clients et distribution... 205 Obstacles à la mise en oeuvre... 207 Le category management, nouvelle science de la distribution... 208 Les sources d'information... 214 Différenciez vos prix!... 214 Les MDD, menace pour les marques nationales... 217 L'avenir... 222 Les règles d'or du service à la clientèle... 222 Les avantages stratégiques de la vente directe... 227 Chapitre 9... 233 Business to business : jouer la différence... 233 Un processus graduel... 238 Les conseils, ces maîtres méconnus du marketing... 238 Les futurs vainqueurs... 244 Surinformation et nouveaux marchands de données... 244 Comment Icom exploite la puissance des données... 250 Le prix de l'information... 251 Les idées reçues de l'industrie du cinéma... 256
Le marketing public : une histoire de principes... 259 Chapitre 10... 265 Les nouveaux défis de la grande distribution... 265 Les challenges du marketing des secteurs technologiques... 270 Le «business model»... 275 Un art nouveau pour l'assurance de demain... 276 Le luxe, un secteur pas comme les autres... 278 Le marketing relationnel dans le secteur du luxe... 281 Les spécificités des activités culturelles... 285 Le marketing international à l'épreuve de la géopolitique... 290 Chapitre 11... 294 Retournement de tendances... 294 Créer de la valeur pour le consommateur avec Internet... 298 Les nouveaux intermédiaires dans une économie en réseau... 300 Une nouvelle dimension avec les médias numériques... 306 Nouveaux schémas d'entreprise et commerce électronique... 312 High-touch sur le Net... 318 Le rôle majeur de la réduction des coûts... 321 Les communautés virtuelles, une mine d'opportunités... 322 Trois générations de sites bancaires... 326 Le manifeste du cyberconsommateur... 327 Chapitre 12... 327 Trouver le bon mix à l'international... 327 Entrer sur un marché étranger quand on est une PME... 333 Concevoir une organisation véritablement globale... 341 Modèle d'achat de produits étrangers fondé sur un sentiment d'animosité.. 348 Boycotts des entreprises : comment réagir?... 349 Pourquoi les marchés ne convergeront pas... 352 Les limites de la standardisation des stratégies... 358 La hiérarchie physioéconomique... 359
Chapitre 1 Le marketing de demain Rapidité et adaptabilité seront les maîtres mots du marketing du prochain millénaire. L'information, diffuse et en temps réel, permettra aux sociétés d'anticiper les besoins des clients et les évolutions du marché mondial pour mieux se jouer de la concurrence. PHILIP KOTLER Je suis heureux d'avoir été invité à rédiger l'introduction à cet ensemble d'articles sur les grandes tendances, actuelles et futures, du marketing. Je reste convaincu que, correctement interprété et mis en oeuvre, le marketing joue toujours un rôle fondamental dans l'adaptabilité et la rentabilité de l'entreprise. Les marchés évoluent à une vitesse effrénée ; les frontières entre les secteurs d'activité s'estompent ; et les sociétés doivent plus que jamais faire preuve d'intelligence et de rapidité vis-à-vis de leurs clients, de leurs concurrents, de leurs distributeurs et de leurs produits. Elles découvrent aujourd'hui que Peter Drucker avait été un visionnaire en disant que le client est au coeur de l'entreprise. J'en profiterai donc pour vous présenter le fruit de mes réflexions sur les grandes orientations du marketing au prochain millénaire. Pour ce faire, permettezmoi d'effectuer ce que j'appellerai «un retour en arrière dans le futur». Imaginez que nous sommes en 2005. Comment se présente le marché? - Le commerce électronique a supprimé en grande partie le rôle d'intermédiaire joué par les grossistes et les détaillants. On peut désormais tout acheter sans se déplacer. Internet permet d'avoir accès aux images et aux caractéristiques des produits, de choisir parmi les vendeurs ceux qui proposent le meilleur prix et les conditions les plus intéressantes, de cliquer sur sa commande et de la régler via le même réseau. - - Les catalogues aux coûts d'impression élevés ont disparu. Les transactions business-to- business sur Internet augmentent plus vite que les achats en ligne des particuliers. Dans les sociétés, les acheteurs effectuent leurs transactions courantes sur Internet soit en affichant leurs demandes et en attendant les offres, soit tout simplement en surfant sur les sites Web inscrits dans leur fichier «signets». - - Le commerce en magasin a sérieusement diminué. Pour faire face à ce problème, les distributeurs les plus entreprenants créent de nouveaux espaces et organisent des événements. De plus en plus de librairies, épiceries et magasins de prêt-à-porter comprennent désormais une cafétéria, invitent des conférenciers, présentent des spectacles. A l'évidence, ces magasins vendent un savoir-faire plutôt qu'un assortiment de produits. - - La plupart des sociétés ont développé leur propre base de données riche en informations sur les préférences et les attentes individuelles de leurs clients. Et les utilisent pour «personnaliser» leurs offres. La tendance est à la création de «plates-formes de produits» en ligne pour permettre aux clients d'adapter ces derniers en fonction de leurs exigences personnelles. Ainsi, la plupart des entreprises dans les secteurs automobile, informatique, électroménager ou agroalimentaire invitent les clients à visiter leurs pages Web et à participer à la conception de l'offre (produit, service, système et programme) en répondant à divers choix possibles sur un questionnaire. Le produit personnalisé est ensuite affiché à l'écran.
- Les sociétés améliorent leurs relations avec leurs clients en imaginant toujours de nouveaux moyens d'aller au-delà de leurs attentes. Par conséquent, recruter de nouveaux clients devient toujours plus difficile et l'enjeu principal est de trouver des solutions pour vendre plus aux clients existants. Ces entreprises s'évertuent à augmenter leur «part de client» et non plus leur part de marché. Elles tirent désormais de leur «data warehouse» les informations sur leur marché et leurs clients et appliquent de nouvelles techniques de «data mining» plus performantes. - Elles ont finalement réussi à convaincre leurs services de comptabilité de leur communiquer les chiffres réels sur la rentabilité par client, par produit, par circuit de distribution, et créent à partir de là des programmes de récompense et de stimulation pour leurs clients les plus fidèles. - - Elles ne s'inscrivent plus dans une perspective de transaction, mais de fidélisation. Beaucoup ont glissé vers une approche bâtie sur la durée de l'achat, ce qui les amène, par exemple, à proposer un produit consommé de façon habituelle, disons le café, à un prix unitaire inférieur en contrepartie de la régularité des commandes. De fait, l'existence d'un contrat à long terme leur permet de réduire leur profit sur chaque vente. - - La plupart d'entre elles sous-traitent plus de 60 % de leurs activités et certaines 100 %. On en arrive à des sociétés virtuelles avec très peu d'actifs et, de ce fait, des taux de rentabilité exceptionnels. Les sous-traitants connaissent un essor fulgurant. Les fabricants d'équipements, par exemple, préfèrent s'adresser systématiquement aux mêmes fournisseurs dans le cadre d'un partenariat pour la conception et la livraison des principaux composants dont ils ont besoin (comme les systèmes de freins, les sièges dans l'automobile). La plupart des entreprises contemporaines ont tissé des réseaux et s'appuient sur des alliances. - La force de vente sur le terrain est composée de franchisés et non plus de salariés. Munis par leur société des tout derniers outils d'automatisation des ventes, ils peuvent créer des présentations multimédias individualisées et personnaliser leurs offres et leurs contrats. La plupart des clients ne souhaitent plus recevoir les représentants dans leurs bureaux. On voit donc s'instaurer un système de vente plus personnel via les médias électroniques qui permettent aux vendeurs et aux clients de se rencontrer en temps réel sur leur écran d'ordinateur. Les vendeurs se déplacent de moins en moins et le nombre des compagnies aériennes s'amenuise. Le secret du bon vendeur est d'être bien informé, fiable, cordial et à l'écoute de ses clients. - L'existence de plus de 500 chaînes de TV entraîne une sérieuse diminution de la publicité de masse sur ce média. Le nombre des journaux et des magazines imprimés a nettement chuté. En revanche, les annonceurs atteignent mieux leurs cibles par la publicité sur les magazines spécialisés en ligne ou dans les newsgroups. - - Les sociétés n'arrivent plus à conserver leurs avantages concurrentiels (au-delà des brevets, des copyrights, de la supériorité de leurs emplacements, de leurs informations exclusives, etc.). Leurs rivaux sont très prompts à les imiter grâce aux procédures de «benchmarking», d'ingénierie à rebours et de tests aléatoires. Par conséquent, la seule solution pour garder l'avantage sur ses concurrents, c'est d'apprendre plus vite qu'eux et d'évoluer plus vite qu'eux. Revenons-en au présent. Un marketing toujours en phase avec votre marché : telle est la stratégie qui vous permettra de réussir. Les sociétés les plus performantes commercialisent déjà leurs produits comme si elles étaient en 2005.
Changer les règles du jeu Le marketing a évolué. Si la satisfaction du client reste la base, on considère aujourd'hui que ses préférences sont le fruit d'un apprentissage. Il ne s'agit donc plus seulement de «se laisser guider par le marché», mais aussi de «guider le marché». GREGORY S. CARPENTER Face à une concurrence acharnée et à des consommateurs de plus en plus «sophistiqués», les entreprises tentent de se rapprocher de leurs clients et de se «laisser guider par le marché». Des géants comme General Electric dans l'industrie et Unilever dans les produits de grande consommation ou des entreprises à forte croissance comme 3Com instaurent ou reprennent le dialogue avec leurs consommateurs. Ces sociétés passent au crible les études de marché, saisissent toutes les nouvelles idées pour améliorer leurs produits, intensifient leurs relations avec leurs clients et se restructurent pour accélérer leur processus de mise sur le marché. Pour reprendre la définition classique du marketing, leur objectif est de «satisfaire le client». Bien que les avantages pour les consommateurs soient colossaux, l'engouement pour ce concept a eu des conséquences que l'on n'avait pas prévues. En effet, la concurrence s'adresse aux mêmes clients, analyse des études de marché similaires, voire les mêmes, interroge les mêmes sources d'idées et se compare aux mêmes sociétés. Par conséquent, tout le monde aborde le marché dans la même perspective, avec des produits de grande qualité certes, mais sans caractère distinctif. Cette absence de différenciation pose un sérieux défi au marketing, contraint aujourd'hui de se remettre en question. Le marketing s'articule habituellement autour de la demande du client. On part du principe que le consommateur sait ce qu'il veut. Cependant, on voit apparaître aujourd'hui un nouveau concept qui défie ce raisonnement et se fonde sur l'idée que, au moins au départ, le client ignore ce qu'il veut et l'apprend progressivement. Pour le marketing classique, les règles du jeu sont définies par la façon dont les clients perçoivent, évaluent et choisissent les marques, et ces règles sont respectées par tous les concurrents. En revanche, si l'on part de la théorie qu'il faut apprendre au consommateur ce qu'il veut, ses perceptions et ses préférences découlent directement de ce processus d'apprentissage. De ce fait, les règles du jeu évoluent - dans une certaine mesure - en fonction de ce que les sociétés enseignent à leurs clients. Motorola, Nokia et Ericsson en sont un excellent exemple. Ces sociétés «façonnent» les perceptions des acheteurs de téléphones mobiles de même que leurs préférences en termes de produits et de critères de sélection. Dans la conception du marketing, les stratégies de marque jouent un rôle essentiel. Aujourd'hui, le marketing semble être à la fois une question d'apprentissage (identifier les connaissances actuelles des clients et leur méthode d'apprentissage) et d'enseignement (influencer ce processus d'apprentissage). En d'autres termes, c'est l'art de «se laisser guider par le marché» et de «guider le marché». Education du consommateur Cette éducation du consommateur repose sur les objectifs qui le motivent. Toute personne, physique ou morale, poursuit un but («avoir l'air plus jeune» pour un individu ou «être numéro un» pour une société, par exemple). Ces personnes s'adressent aux marques pour satisfaire leurs attentes. A priori, cette démarche ne présente pas de difficulté : quand on cherche un moyen de transport, on choisit une voiture et, quand on veut s'habiller, on achète des vêtements. Mais, au fil du temps, les objectifs associés à ces catégories de produits et aux marques se multiplient. On passe d'une série d'objectifs à vocation fonctionnelle à un éventail plus complexe conjuguant l'émotionnel et le fonctionnel. L'essor des nouveaux 4x4, dans l'automobile, en est une excellente illustration. Certes, ils ont une fonctionnalité réelle pour leur propriétaire : un transport sûr et fiable quelle
que soit la météo. Pourtant, ils satisfont aussi d'autres buts moins évidents, mais tout aussi importants. Pour l'individu anonyme à bout de nerfs, le 4x4 apporte un sentiment d'indépendance, d'originalité et d'aventure. Les propriétaires ont donc appris, en achetant leur 4x4, à satisfaire des finalités qui ne sont pas liées par essence à un véhicule familial. Le consommateur apprend ainsi à créer des liens entre les marques et ses objectifs et, dans une même catégorie de produits, les objectifs associés varient d'une marque à l'autre. Pour reprendre l'exemple des 4x4, Mercedes-Benz est synonyme de sécurité et de prestige ; Range Rover incarne le véhicule d'une personne raffinée et fidèle à la tradition ; et Lexus conjugue sérénité, modernité et élégance. Ces relations marques-objectifs se tissent au fil du temps. Parfois, elles naissent par inadvertance. C'est bien la popularité de Harley-Davidson auprès des clubs de motards qui lui a permis d'attacher à sa marque l'esprit rebelle et le look «mauvais garçon». Quoi qu'il en soit, indépendamment de la façon dont ils se nouent, ces liens sont le résultat fondamental d'un apprentissage. Cette approche a des répercussions significatives sur le plan concurrentiel. D'après la conception classique du marketing, le client ne se réfère qu'à une seule dimension pour comparer les marques, ce qui simplifie le rapprochement. En jargon économique, on dit qu'il ne poursuit qu'un seul but à vocation utilitaire. Mais aujourd'hui, on constate que les acheteurs visent une pluralité d'objectifs et que, à l'intérieur d'une même catégorie de produits, certaines marques sont associées à de multiples objectifs de façon unique. Avec ses nouveaux breaks V70, par exemple, Volvo a réussi à créer une relation entre sa marque et deux objectifs : la responsabilité de parent et le plaisir de conduire. Comment? En plaçant un moteur hautes performances dans un modèle familial et en estompant ainsi la frontière traditionnelle entre la voiture de sport et le véhicule de père de famille. En réunissant ces deux objectifs, sans oublier la sécurité, qualité depuis longtemps associée à sa marque, Volvo offre une valeur ajoutée inégalée. Des liens de cette nature, fondés sur la stratégie et appris par le consommateur, expliquent que les produits similaires soient disqualifiés par comparaison. - La perception de la marque Au départ, la perception de la marque n'existe pas. Toutes les marques, à un certain stade, sont nouvelles pour nous et, par conséquent, nos perceptions sont le résultat d'un apprentissage. En outre, elles possèdent une série de propriétés importantes. En premier lieu, le consommateur n'appréhende pas de la même manière toutes les marques dans une même catégorie de produits. Coca-Cola et Jaguar sont bien plus évocateurs que des noms comme Cott ou Mitsubishi. La richesse des associations générées par la marque facilite sa mémorisation, influence nos sentiments à son égard (comme la confiance) et joue sur notre sensibilité au prix. Qui est prêt à payer le prix fort pour une marque que l'on connaît peu? En second lieu, même des marques qui génèrent les mêmes associations peuvent être perçues différemment en fonction de la richesse et de l'intensité de leurs évocations. Regardez Levi's et Lee. Tous deux fabriquent des jeans solides évoquant l'ouest américain, avec des coupes et des prix similaires. Pourtant, Levi's est mieux perçu par le consommateur. Cette différence résulte à l'évidence de sa stratégie de marque, car on n'arrive pas au monde avec une meilleure perception de Coca-Cola ou de Levi's! La perception de la marque joue fortement sur le concept de marketing et la nature de la concurrence. A partir du moment où les consommateurs savent ce qu'ils veulent, ils définissent eux-mêmes les critères de perception auxquels toutes les marques devront obéir. Bien évidemment, les marques Mercedes et Lexus seront appréhendées différemment sur la base de ces critères et l'une pourra être considérée comme supérieure à l'autre. Il n'en demeure pas moins qu'elles sont toutes deux évaluées dans les mêmes dimensions. L'objectif de la stratégie, dans ce cas, est de découvrir le critère de perception établi et d'y répondre.
A l'inverse, si la perception du consommateur est le fruit d'un apprentissage et que celui-ci est basé sur la stratégie de marque, alors le marketing a un tout autre objectif : influencer l'évolution de la perception de la marque de façon à ce qu'elle ne puisse être imitée, et créer de vraies inégalités entre la marque et ses concurrents en termes de richesse évocatrice. - Les préférences pour la marque Le consommateur apprend que les produits, indépendamment de leur catégorie, remplissent différents objectifs. Pour en avoir la preuve, il suffit d'examiner un marché au cours de son existence. A l'origine, le consommateur n'a aucune idée de la valeur du produit ni aucun moyen d'évaluer les autres marques. En général, il va en essayer plusieurs pour voir celles qu'il préfère. Cette expérience déclenchera chez lui le processus de déduction suivant : «Quelles sont les caractéristiques des produits que j'aime et de ceux que je n'aime pas?» Les différences évidentes entre les marques ou les attributs des produits sont censées «expliquer» ses préférences et notre consommateur peut en conclure qu'il aime mieux telle marque ou telle série d'attributs. S'il préfère un café à d'autres, il s'imaginera que c'est en raison de sa torréfaction ou du mélange de grains. En réalité, il est impossible de déterminer avec précision ce qui est à l'origine de sa satisfaction. Dans de nombreuses situations (huiles de moteur, batteries, etc.), l'expérience d'achat reste extrêmement ambiguë. Quoi qu'il en soit, notre acheteur élabore une théorie «naïve» qui consiste à lier sa satisfaction aux attributs de la marque, une approche renforcée par la publicité et la répétition des achats. Dans cette situation, des préférences se créent, qui évoluent ensuite en fonction de l'interaction entre l'expérience de l'acheteur et la stratégie de la marque. Tout ceci suggère que la satisfaction du client est liée à son expérience d'achat et que la stratégie de marque a un rôle à jouer dans l'évolution de ses préférences et peut avoir un impact à long terme. Le cas de la Vaseline, cette graisse minérale issue de la distillation du pétrole, en est une excellente illustration. Lancée en 1880, elle avait été présentée par la publicité de l'époque comme un cicatrisant d'une pureté inégalée. Les produits cicatrisants proposés alors par les concurrents étaient basés sur des dérivés du goudron de houille. En essayant le gel translucide Vaseline, les consommateurs ont appris qu'il s'agissait d'une préparation efficace pour la cicatrisation des blessures et en ont déduit que l'efficacité de cette graisse minérale était liée à sa pureté et à sa translucidité. Les essais consécutifs et la publicité ont confirmé cet état de fait et le consommateur s'est mis à privilégier l'attribut de translucidité sur ce marché. Une préférence qui se vérifie encore aujourd'hui après plus d'un siècle. La prise de décision Le consommateur apprend également à choisir ses marques. L'approche classique du marketing veut qu'il envisage toutes les possibilités et analyse les différences - en faisant les compromis nécessaires - avant d'opter finalement pour la marque qui maximalise ses intérêts personnels. De manière plus ou moins implicite, ce modèle de prise de décision reste encore un fondement de la théorie marketing. De nombreuses techniques d'études de marché, par exemple, sont bâties sur ce principe. Selon ce modèle, l'acheteur est supposé n'obéir qu'à une seule stratégie : optimiser son intérêt en envisageant toutes les solutions possibles, sous toutes les facettes, dans toutes les circonstances. En réalité, la prise de décision varie en fonction de la situation et de nos besoins et elle est fondée sur tout un répertoire de règles. Il est évident que l'on n'achète pas des piles électriques comme on achète des jeans ou une voiture. L'utilisation de piles n'est pas très instructive. Par conséquent, on tendra à privilégier les marques que l'on a déjà utilisées et on évitera les produits moins chers pour éviter les risques. Dans le cas des jeans, on comparera peut-être les autres marques à Levi's, mais on ne les comparera pas entre elles. Enfin, si l'on
achète une voiture, on tendra à éliminer les marques qui ne nous donnent pas un minimum de satisfaction sur certains critères (qualité, sécurité, économies d'énergie par exemple) et on choisira parmi celles qui restent en fonction d'une autre dimension (ligne, prix). Les règles décisionnelles apprises par le consommateur sont influencées par les stratégies poursuivies par la marque. Si toutes les marques lui offrent une valeur identique pour des objectifs similaires (magnétoscopes, par exemple) et que la comparaison est facile, il analysera exhaustivement toutes les offres. Dans des situations plus complexes, il risque d'adopter une stratégie qui lui simplifie la vie. Ainsi, dans un marché encombré de marques avec des structures d'objectifs sophistiquées (comme pour les shampooings), la comparaison devient plus difficile et il sera tenté d'appliquer des règles plus simples comme acheter le produit en promotion ou celui recommandé par un ami. Avantage concurrentiel Cette éducation du consommateur se répercute sur la nature de la concurrence et des avantages concurrentiels. Si l'on apprend au consommateur ce qu'il veut, la concurrence devient davantage une rivalité sur l'évolution future des perceptions, des préférences et des décisions sur un marché qu'une course effrénée pour répondre aux attentes des clients. C'est une bataille sur les règles du jeu. Les deux cas ci-dessous illustrent bien ce propos. - Les avantages du pionnier Dans de nombreux marchés, on constate que les pionniers gardent longtemps leur position de leader dans leur catégorie de produits, parfois même pendant des dizaines d'années. Tel est le cas de marques comme Wreagley (chewing-gum), Gerber (aliments pour bébé) et Kleenex (mouchoirs en papier), qui détiennent toujours la première place sur leurs marchés respectifs malgré le nombre de concurrents arrivés ultérieurement. D'après la conception classique du marketing, ceci est dû au fait qu'ils ont préempté la «meilleure position» et que les possibilités laissées aux suivants sont moins alléchantes. Le concept d'apprentissage, lui, repose sur une théorie totalement différente. En réalité, le pionnier se lance dans une catégorie de produits mal définie. Les acheteurs ne savent pas à quelles caractéristiques rattacher les marques, ni comment évaluer leurs différences, ni quelle stratégie d'achat adopter. Toutes les règles du jeu sont donc à établir. Le pionnier joue un rôle essentiel dans cette définition du marché. Il construit les premiers liens entre la marque et les objectifs, définit la valeur de référence dans sa catégorie de produits et génère des associations. De ce fait, il est souvent assimilé à sa catégorie de produits. Il suffit de penser à Kleenex ou Xerox. Ces marques nous viennent plus rapidement à l'esprit que les autres et sont plus rassurantes. Le consommateur garde une perception beaucoup plus nette du pionnier, généralement considéré comme la «référence» sur le marché. C'est la marque que les acheteurs essaient en premier ou le plus souvent. Toutes les autres sont comparées à elle et souffrent de la comparaison. S'attaquer à une telle marque est décourageant. Si le nouvel adversaire essaie d'adopter un positionnement proche de celui du pionnier pour répondre à la demande des consommateurs, il sera inévitablement comparé au pionnier et, faute d'avoir la richesse évocatrice de ce dernier, il sera éclipsé. A l'inverse, s'il décide d'opter pour un positionnement éloigné, il en pâtira également, car, bien qu'il se différencie du pionnier, son image sera brouillée. Il reste moins évocateur et n'exerce pas autant d'influence sur le processus de décision. L'avantage du pionnier tient non seulement au fait qu'il a été le premier à jouer le jeu et qu'il le joue mieux que les autres, mais aussi qu'il a défini les règles du jeu. Le défi pour ceux qui veulent pénétrer le marché n'est pas de jouer mieux, mais de changer les règles, comme le fait Gillette avec ses innovations
technologiques sur le rasage et Starbucks avec son innovation stratégique sur le marché américain du café. Différenciation des produits L'éducation du consommateur ne se limite pas aux marchés émergents. Il suffit d'analyser les conséquences de la différenciation des produits dans les marchés arrivés à maturité. Le marketing classique considère que la différenciation des produits est une question de découverte : il s'agit pour la marque de trouver une nouvelle dimension adéquate et recherchée qui n'aurait pas été satisfaite jusque-là. Cette approche suppose que le consommateur attache de l'importance à certains aspects d'un produit qui auraient été tout simplement ignorés. Par conséquent, dès que tous les attributs utiles d'un produit sont découverts, la différenciation n'est plus envisageable. A l'inverse, le concept d'éducation montre qu'en tout état de cause, la différenciation reste possible tant que l'on peut apporter une nouvelle dimension au produit que les acheteurs apprendront à juger intéressante. Cet attribut n'a pas besoin d'être pertinent, ni utile, ni sensé aux yeux du consommateur. Il peut même n'avoir aucun rapport avec le produit! Cette stratégie de «différenciation non signifiante» est aujourd'hui largement répandue. Alberto Culver, par exemple, a différencié son shampooing Natural Silk en y ajoutant des protéines de soie et a communiqué sur le thème de «la soie en bouteille». Ceci n'a pas empêché un porte-parole de la société de déclarer au magazine «Brand Week» que la soie «n'avait aucun effet sur les cheveux». Comment un attribut inutile peut-il servir de base à la différenciation? D'abord parce que la marque qui y est associée fait preuve d'originalité et séduit. Devant une étagère remplie de shampooings, l'oeil du consommateur risque d'être attiré par la promesse de Natural Silk qui contient de la vraie soie. Ce moment d'attention suffit pour qu'il en déduise que le produit est utile. Un essai satisfaisant le conduira à la même conclusion. L'acheteur en arrive à croire que la soie explique l'efficacité du shampooing. De plus, un attribut non signifiant a aussi l'avantage de simplifier les choix. Cette évolution du concept de marketing montre que la théorie fondamentale selon laquelle on peut dominer le marché en donnant satisfaction au client n'a pas changé. Ce qui a évolué, c'est la façon de le faire. Aujourd'hui, les sociétés connaissent de mieux en mieux leurs clients. Elles apprennent à identifier les objectifs qu'ils poursuivent et à créer des relations fortes entre ces objectifs et leurs marques. La différence entre une bonne et une grande entreprise, c'est que la première offre à ses clients ce qu'ils veulent et que la seconde crée des marchés auxquels le consommateur n'avait peut-être même pas pensé, guide leur évolution et en retire des avantages concurrentiels encore jamais vus. Les facteurs de réussite de la pub télévisée Les multinationales déboursent des milliards de dollars en publicité à la télévision. Or la plus grosse partie de cet argent est dépensée en pure perte. Comment évaluer l'efficacité des dépenses en publicité? LEONARD LODISH Le géant de la distribution John Wanamaker a un jour déclaré : «Je sais que la moitié de mes opérations publicitaires est inefficiente. Le problème, c'est que je ne sais pas de quelle moitié il s'agit.» La citation est également attribuée à lord Lever, mais, quelle que soit sa paternité, cette petite phrase est révélatrice. Les multinationales déboursent des milliards de dollars en publicité télévisée dans l'espoir que cela leur permettra de faire décoller leurs ventes. Or, la plus grosse partie de cet argent est dépensée en pure perte. Le problème des publicitaires est
le même depuis toujours, et il est antérieur à l'invention de la télévision : comment déterminer l'efficacité réelle des dépenses en publicité? La publicité représente le plus gros poste de dépense dans les budgets de marketing des entreprises de biens de consommation. C'est également le premier poste à être réduit lorsque les recettes ou les bénéfices chutent. Or, lorsque des coupes sont effectuées, elles sont rarement accompagnées d'informations précises sur l'efficacité de chaque partie du plan publicitaire global. Une étude détaillée permettrait sans doute de constater que certains spots sont inefficaces, alors que d'autres ont un impact moyen et qu'une infime minorité porte réellement ses fruits. Il est paradoxal de constater que, malgré les sommes considérables investies en publicité, pratiquement tous les autres aspects du marketing mix font régulièrement l'objet d'un examen minutieux, précis et digne de confiance. Une raison de ce paradoxe tient au fait qu'il est difficile de mesurer à la fois l'impact à court et à long terme de la publicité. Ce qui est encore plus vrai de la publicité télévisée. Y-a-t-il des règles? Dans beaucoup d'entreprises, on accepte les yeux fermés certaines «règles» en matière de publicité télévisée, alors qu'un grand nombre d'entre elles reposent sur des fondements plus ou moins fallacieux. Ainsi, la plupart des sociétés pensent que les hypothèses suivantes sont forcément vraies : - Pour augmenter sa part de marché, la «fréquence d'antenne» des pages publicitaires doit être supérieure à la part de marché du moment. - Chaque personne doit avoir vu le message au moins trois fois pour que la publicité ait un véritable impact. - Il vaut mieux plus de pages publicitaires que pas assez. - La publicité à la télévision met longtemps à produire son effet. Il n'est pas obligatoire de prendre ces règles pour argent comptant. Il existe des méthodes fiables pour évaluer l'efficacité de la publicité et elles démontrent que ce genre de certitude doit être revu avec soin au cas par cas. Entre la fin des années 80 et le début des années 90, avec quelques collègues, j'ai voulu mettre à l'épreuve certaines perceptions communément acquises en matière de pages publicitaires sur des produits de consommation. Nous nous sommes livrés à une analyse indépendante de la fameuse base de données Behaviorscan. Il s'agit d'un panel de consommateurs regroupant 3.000 foyers représentatifs et répartis géographiquement sur six marchés dispersés. Les achats au supermarché de chaque foyer sont enregistrés afin de mesurer de manière précise les comportements d'achat. Les foyers étudiés reçoivent toutes leurs émissions télévisées par câble, la publicité pouvant leur être envoyée ou retirée en fonction de l'objet ciblé. Cette méthode a permis de réaliser de nombreuses expériences scrupuleusement contrôlées pour tester les variables publicitaires. Nous nous sommes aperçus que certains facteurs faisaient grimper les ventes, alors que d'autres non. Ainsi, accroître ses dépenses de publicité par rapport à la concurrence n'aboutit pas nécessairement à une augmentation des ventes. Cela ne veut pas dire que la publicité à la télévision ne sert à rien. Nous avons constaté que les publicités qui portaient leurs fruits permettaient d'atteindre des effets de volumes considérables, avec une augmentation des ventes de 18 % en moyenne. L'impact de ces publicités s'est révélé étonnement rapide, en général dans les six mois, et a perduré souvent pendant plus de deux ans. Pour autant, un grand nombre de supposées règles d'or en matière de publicité télévisée sont fausses, ce qui montre qu'il faut les tester sans relâche pour savoir précisément ce qui fonctionne. Nous nous sommes penchés sur quatre facteurs qui semblent avoir une incidence sur la publicité : la place de la marque et les conditions relatives à chaque catégorie de produits sur le marché ; les stratégies et objectifs d'entreprise sous-jacents à la publicité ; l'usage des supports (où et quand les pages publicitaires sont diffusées), et les mesures liées à la qualité du contenu des annonces.
Notre analyse a été structurée de manière à nous permettre d'isoler parmi les différents facteurs ceux qui avaient un impact positif sur les ventes. Par exemple, pour nos tests sur le contenu, nous avons séparé les foyers en deux groupes et les avons soumis à la même exposition quantitativement (le même nombre de diffusions) mais non qualitativement (le contenu des pages publicitaires était différent), alors que pour nos tests d'intensité de diffusion, les deux groupes ont été exposés au même contenu rédactionnel mais à une intensité de diffusion différente (dans ce contexte, «l'intensité» fait référence au nombre et à la fréquence des diffusions). Nous avons analysé séparément les nouveaux produits et les produits bien établis puisque chacune de ces catégories nécessite une stratégie publicitaire différente. Par cette démarche, nous voulions avant tout savoir pourquoi certaines formes de publicité influent sur les ventes et d'autres non. Nous avons examiné les changements en volume de ventes et en pourcentage de parts de marché. Nous avons étudié certaines marques qui avaient recours aux pages publicitaires sur une période d'un an en mesurant leurs ventes chaque semaine. Notre échantillon était constitué de biens de consommation courants, peu chers et fréquemment achetés. Voici les résultats de nos recherches : - Les marques moins connues et petites réussissent mieux que les grandes à faire bouger les choses en augmentant l'intensité de diffusion des pages de publicité. Parmi les produits bien établis, ce sont les marques moins bien implantées qui ont le mieux réagi à la publicité. - - Les plans médias traditionnels de diffusion intermittente (dans lesquels une page publicitaire apparaît pendant quelques semaines, suivies d'une interruption) sont peu propices à faire monter les ventes. Modifier le plan médias en augmentant de manière sensible le nombre de passages d'un spot, semble être plus efficace qu'une diffusion intermittente. Nos travaux laissent à penser que plus la taille des catégories augmente, plus un nouvel intervenant est à même de faire grimper ses ventes. Dans ce cas, la publicité a plus de chances d'attirer les consommateurs indécis. - - Il est préférable de concentrer la publicité plutôt que de l'étaler dans le temps. Ce constat est très net pour les nouveaux produits. Il est important que les vendeurs fassent la promotion de leurs produits le plus tôt possible pour encourager les consommateurs à les essayer. - - Les effets ont tendance à être plus marqués lorsque le message publicitaire vise un changement plutôt qu'un renforcement d'attitude. Il en va de même lorsque la stratégie de contenu rédactionnel vient d'être modifiée. Il est important que les acheteurs aient le message bien en tête. D'après nos recherches, effectuer des changements constants comporte plus d'avantages que de risques. Pour justifier la diffusion de publicités à la télévision, les contenus rédactionnels devraient être changés souvent et régulièrement. L'immobilisme est extrêmement dangereux, car il provoque ennui et autosatisfaction chez les consommateurs. C'est un point essentiel pour les marques les plus grandes et les mieux implantées. - - Les marques en pleine ascension ou sur des créneaux où les opportunités d'achat sont nombreuses sont davantage susceptibles d'améliorer leurs ventes grâce à une intensité accrue de diffusion publicitaire. - - Dans le cas des marques bien enracinées, nous n'avons pas constaté une forte corrélation entre les méthodes standard de mémorisation et de persuasion et l'impact sur les ventes des annonces du moment. Nos travaux montrent qu'il est préférable de tester la publicité une fois les spots lancés plutôt que de se fier à des enquêtes préalables de reconnaissance, ou de faire les deux. Les nouvelles marques ou les extensions de gammes semblent être plus sensibles à des plans publicitaires différents que les produits bien implantés. Nos recherches
mettent l'accent sur l'importance de l'intensité de diffusion et du «prime time» pour les nouveaux produits : une campagne de publicité à la télévision menée en période de grande écoute s'accompagne d'une augmentation de ventes plus sensible s'il s'agit de nouveaux produits. L'expérience de Frito-Lay Frito-Lay, un groupe américain spécialisé en gâteaux apéritifs, a décidé de mettre nos recherches en application dans sa stratégie publicitaire pour une de ses catégories de produits. Il s'agissait de définir les grandes orientations en matière de publicité télévisée et de dégager des priorités d'action pour les campagnes à venir. Pour cette expérience menée chez Frito-Lay dans la seconde moitié des années 90, on a mis en oeuvre le système Behaviorscan afin de tester l'efficacité de la publicité à la télévision toutes marques confondues. A la base, l'étude portait sur des foyers divisés en deux groupes, «avec pub» ou «sans pub», et chaque publicité d'une marque donnée était testée dans au moins deux marchés différents sur une période de plus de douze mois. Pour chaque marque, les plans médias étaient ceux précédemment approuvés par la direction dans le cadre du budget annuel et n'avaient pas fait l'objet de modifications en cours d'année. Les foyers étudiés étaient soumis aux conditions «avec pub» ou «sans pub» en vertu d'une méthodologie d'appariement : ils étaient regroupés en fonction d'un certain nombre de caractéristiques d'achat, parmi lesquelles la catégorie et le taux de pénétration de la marque, et le rythme d'achats. Une fois que des paires étaient identifiées dans chacun des marchés, un des éléments de la paire était soumis de manière aléatoire aux conditions «avec pub», alors que l'autre était assujetti aux conditions «sans pub». Pour les foyers du groupe «sans pub», les publicités de la marque étudiée étaient remplacées par des pages publicitaires de service public. Dans le cadre de cette expérience, les autres supports publicitaires représentant un pourcentage infime du marketing mix comme la radio et l'affichage n'ont pas été pris en compte. Les opérations promotionnelles n'ont pas été comptabilisées non plus. Après quatre années de tests, la société a constaté que 57 % de ses pages publicitaires étaient à l'origine d'une augmentation considérable du volume d'achat dans les foyers exposés à la publicité de la marque par rapport aux foyers «sans publicité». Les publicités étaient divisées en un groupe «nouveauté» et un groupe «de base» : «nouveauté» si le contenu du film vantait une innovation importante comme une extension de gamme, une nouvelle marque ou une nouvelle caractéristique ; «de base» si le film mettait l'accent sur les attributs connus d'une marque bien implantée. Il s'avère que 88 % des spots de la catégorie «nouveauté» ont contribué à gonfler le volume des ventes de manière significative. Frito-Lay a observé une différence importante entre les résultats obtenus par les grandes marques et ceux des petites marques. Parmi les grandes marques, seules 27 % ont révélé une augmentation de volume sensible alors que le chiffre frôle les 90 % pour les petites marques. Autrement dit, il est plus facile de faire virer de bord un petit bateau qu'un gros. Essayer d'attirer l'attention sur un produit réputé est toujours difficile, même avec une publicité originale, intelligente et récente. On s'est aperçu chez Frito-Lay que lorsqu'une publicité avait un effet positif, il se manifestait presque toujours dans les six premiers mois. D'ailleurs, dans tous les cas à l'exception d'un seul, cet effet a été constaté dans les trois premiers mois. L'autre grande conclusion était que l'augmentation moyenne des volumes grâce à une publicité efficace tournait autour de 15 %, ce qui est loin d'être négligeable. Pour Frito-Lay, l'innovation et la taille de la marque sont des paramètres essentiels pour différencier publicité efficace et publicité inefficace. Cette société a aussi compris l'importance de tester les «petites» marques par rapport aux «grandes» sans ajouter d'éléments nouveaux dans ses messages pour savoir quelles
publicités marchaient. En moyenne, seulement 13 % des spots télévisés pour des «grandes» marques ont permis d'accroître les ventes. Mais si ces 13 % permettent une augmentation moyenne de 15 % du chiffre d'affaires brut et un accroissement des marges globales, le jeu en vaut certainement la chandelle. Par exemple, si nous déboursons 9 millions de dollars en nouvelles publicités qui font grimper les ventes de 15 % sur un chiffre d'affaires de 300 millions, les recettes auront été majorées de 45 millions. Si notre marge brute marginale est de 40 %, cela dégage 18 millions et, après déduction des frais de publicité, 9 millions nets. Le fait de tester plusieurs campagnes pour trouver la meilleure est certainement compliqué, mais vaut tout de même la peine au vu des 9 millions de bénéfice brut escomptés. L'une des nombreuses leçons de l'expérience de Frito-Lay est que, une fois identifié le spot le plus efficace, il est fort probable qu'on continue à en ressentir le bénéfice à long terme. Dans le cadre d'une étude de suivi, nous nous sommes aperçus que si la publicité marche à court terme, elle a, à long terme, une incidence qui multiplie approximativement par deux l'impact à court terme. En outre, si la publicité à la télévision ne fonctionne pas à court terme, elle ne fonctionnera pas à long terme non plus. Le seul moyen de savoir si les spots marchent consiste à les tester en permanence. Sachant qu'une bonne batterie de tests coûte quelques centaines de milliers de dollars, alors qu'un spot peut valoir des millions, il est logiquement préférable d'intégrer les tests dans les stratégies publicitaires. Frito-Lay a dégagé trois principes de sa recherche : - Les petites marques ne doivent pas rechercher l'innovation à tout prix dans leurs publicités. - La publicité pour les grandes marques a peu d'incidence sur les ventes si elle ne contient pas de nouveauté. - Les effets de la publicité - quand il y en a - se font sentir rapidement et ont tendance à s'inscrire dans la durée. Il peut être judicieux pour les managers de décider d'un roulement entre supports publicitaires pour les marques clefs en fonction des nouveautés disponibles et de la performance de la marque l'année précédente. Tester encore et encore Malgré tout, les informations de notre étude initiale n'expliquent que dans moins de la moitié des cas pourquoi les changements d'intensité publicitaire induisent des effets positifs sur les ventes. Mais au moins, si les dirigeants ont conscience de cette incertitude, ils peuvent faire avec. Nous avons remarqué que dans 61 % des cas, la publicité ne répondait pas à une intensité de diffusion différente. Il serait logique de faire des tests pour savoir si la campagne en cours fonctionne. Si la réponse est négative, il est encore plus facile d'en conclure que des changements sont nécessaires. Un dirigeant devrait toujours prendre en compte les effets progressifs d'une campagne publicitaire sur un cas réel. Un manager prudent devrait choisir pour faire ses expérimentations certains «marchés de pointe» pour lesquels il réduira, voire éliminera les pages publicitaires à la télévision. Si, après une période de six à douze mois, aucune diminution des ventes n'est enregistrée dans son créneau expérimental où l'intensité publicitaire est faible, il pourra sans risquer de se tromper réduire la fréquence de passage des spots dans l'ensemble de son marché publicitaire. Les tests peuvent également être mis à profit par les vendeurs, qui souvent soulignent l'importance des budgets de publicité lorsqu'ils essaient de persuader les distributeurs que la demande des consommateurs justifierait plus d'espace en rayon pour leurs produits. Ils pourront faire valoir les résultats de tests pour convaincre des distributeurs hésitants. Il existe de multiples facettes à la problématique de l'influence de la publicité sur les ventes qui semblent varier en fonction des marques, de la concurrence, des stratégies de contenu rédactionnel ou de supports. La clef du succès, c'est de
tester sans relâche. On gagne en confiance quand on aborde sa stratégie publicitaire en remettant en cause toutes les hypothèses sur lesquelles elle est fondée, car on sait alors véritablement si elle fonctionne ou non. Toute forme de publicité n'est pas forcément efficace mais, au moins, on pourra moduler le constat d'impuissance de Wanamaker en disant : «Je sais que la moitié de mes pages publicitaires ne fonctionne pas, mais au moins je sais de quelle moitié il s'agit.» De l'importance de la perception de valeur par le client Les entreprises orientées marché tendent avant tout à créer de la valeur pour le client. Elles mettent ainsi l'accent sur l'ouverture vers l'extérieur, la connaissance précise du marché, les relations de proximité avec le consommateur et la volonté de l'emporter sur la concurrence. PATRICK BARWISE ET SEAN MEEHAN L'«orientation marché» désigne une culture d'entreprise pour laquelle l'objectif principal est de l'emporter sur la concurrence en développant la perception de valeur par le client, c'est-à-dire l'appréciation qu'aura le client de l'ensemble des avantages retirés d'un produit ou d'un service par rapport au coût total représenté par son prix d'achat ou sa jouissance. Même s'ils ont généralement d'autres priorités, les consommateurs ont pratiquement tous en tête une notion implicite du «bon» rapport qualité-prix. Après comparaison des différentes offres disponibles, le client choisira celle dont il pense qu'elle lui en donne pour son argent. La valeur est bien ici une notion relative puisqu'elle résulte d'une comparaison avec l'offre de la concurrence. Dans une entreprise centrée sur le marché, la création de valeur pour le client est la notion clef, celle qui va déterminer les orientations en termes de marchés et de produits ou de services. Cette notion sous-tend les décisions de rachats et d'investissements d'envergure mais également le choix des personnes à recruter, ainsi que leurs objectifs et les systèmes de gratification ou de promotion applicables. En pratique, ce degré de priorité absolue donnée au client reste exceptionnel et ne doit pas être confondu avec la vague «écoute du client» qui est l'un des lieux communs des rapports annuels, conférences et autres réunions du personnel. Il ne faut pas non plus confondre l'orientation marché avec l'«orientation marketing», qui désigne le rôle prépondérant du département marketing. Ce dernier est souvent considéré comme le principal correspondant du client, mais il ne doit pas être perçu comme un «détenteur» des valeurs de l'entreprise, sous peine de se voir opposer une certaine hostilité, voire un rejet radical, de la part des autres départements. Le département marketing peut jouer un rôle clef en tirant parti des dynamiques du marché et en les faisant connaître à l'ensemble de l'entreprise. Mais cela n'en fait nullement la fonction dominante. La tendance actuelle dans les entreprises orientées marché est la mise en place d'organisations matricielles centrées sur les processus de création de valeur pour le client et constituées d'équipes plurifonctionnelles soutenues par l'ensemble des fonctions traditionnelles. Sentir le marché La capacité d'une entreprise à développer la perception de valeur par le client dépend avant tout de ses aptitudes à sentir le marché. Autrement dit, son aptitude à comprendre les besoins et les désirs actuels et à venir du client, les capacités, l'offre et les stratégies de la concurrence ainsi que les évolutions technologiques, sociales et démographiques qui vont former le marché et le paysage concurrentiel de demain. Pour mieux comprendre le client, les entreprises ont le plus souvent recours à trois outils : - Les études et analyses de marché
Selon l'esomar (European Society for Opinion and Marketing Research), les dépenses externes, à l'échelle mondiale, consacrées par les entreprises aux études de marché ont pratiquement doublé entre 1990 et 1996 pour atteindre environ 7 milliards de dollars par an. En interne, l'analyse des données client (relevé des achats ou programme de fidélisation, par exemple) a progressé encore plus rapidement. - Les programmes de rencontre des cadres supérieurs avec les clients L'établissement d'un contact direct entre les cadres dirigeants et les clients est une pratique établie de longue date par les grandes entreprises du secteur du business-to-business. Aujourd'hui, il est devenu tout aussi normal de voir les dirigeants d'entreprises de biens et services rencontrer l'utilisateur final afin de discuter de leurs propres performances et de celles de la concurrence. Les programmes les plus achevés mettent en contact les cadres supérieurs toutes fonctions confondues avec les grands comptes et les clients dans des réunions tout à fait formelles et non pas des cocktails ou autres événements sociaux. - La veille concurrentielle Le suivi de la concurrence est constitué de trois niveaux successifs : déterminer et définir, interpréter et enfin prévoir. Déterminer et définir le profil du concurrent n'a rien d'inhabituel. En effet, cela apparaît généralement dans le rapport trimestriel ou annuel de la direction du marketing. Une simple synthèse de données élémentaires comme la taille de l'entreprise, ses objectifs, les lancements de produits, les grandes réussites peut, si elle est présentée intelligemment, fournir des informations révélatrices. Interpréter suppose d'examiner très précisément ce qui s'est passé et pourquoi. Les entreprises passent généralement à cette analyse de second ordre lorsqu'elles connaissent un échec inattendu sur une commande cruciale ou se retrouvent confrontées à un nouveau produit ou à une innovation intéressante. Elles ne peuvent donc plus se contenter de constater ce que fait le concurrent, il leur faut approfondir l'analyse. Ainsi, il est fortement recommandé de surveiller et de signaler tout élément surprenant ou inhabituel dans l'activité du concurrent. Il faut éplucher les campagnes publicitaires du concurrent (la forme autant que le support choisis) afin d'en déterminer la stratégie sous-jacente. Comme en période de guerre, les entreprises font appel aux photographies aériennes et aux plans d'urbanisme pour tout savoir des usines de leur concurrent ; elles surveillent les entrées et sorties pour connaître l'organisation du travail, et leurs équipes scientifiques déterminent la composition des produits de leur rival. Toutes ces informations combinées à celles normalement disponibles vont faciliter la compréhension de l'organisation de l'entreprise concurrente, de son potentiel, voire de son «plan de bataille». Enfin, prédire. C'est l'objectif des acteurs les plus avancés. Le cabinet américain Advanced Competitive Strategies, par exemple, utilise des équipes constituées de représentants de plusieurs fonctions des entreprises clientes qui jouent le rôle des concurrents et, avec l'aide de modélisations informatiques du marché, vont simuler les actions et les réactions des acteurs clefs de leur marché. Ces «écoles de guerre» améliorent la perception du marché qu'ont les dirigeants en les obligeant à formuler de façon explicite et à justifier leurs affirmations quant aux compétences, aux ressources et aux intentions de la concurrence. Améliorer la performance Disposer d'une bonne perception du marché est nécessaire mais pas suffisant pour être orienté marché. Sous les auspices du Marketing Science Institute de Cambridge, Massachusetts (Etats-Unis), un volume croissant d'études suggère qu'une vision du marché plus détaillée et largement partagée est le meilleur moyen de disposer d'un réel potentiel en termes de création de valeur pour le client et donc de meilleurs résultats pour l'entreprise. Par conséquent, il est essentiel de faire la différence entre les entreprises réellement orientées marché et celles qui
s'intéressent à cet aspect des choses uniquement parce que c'est la mode ou que cela passe pour être la bonne méthode de travail. George Day, professeur de marketing à la Wharton School, définit quatre «dimensions en interaction» qui facilitent la concentration sur le marché : les valeurs, la capacité à sentir le marché et établir une relation de proximité avec le client, les processus de réflexion et de décision stratégique, la cohérence des structures et des systèmes (voir la figure page IX). Cet ensemble en interaction constitue le point de départ de la construction de la création de valeur pour le client. Le système de valeurs du management influence fortement la capacité des trois autres dimensions à créer de la valeur pour le client. Les composantes essentielles d'un système de valeurs orienté marché sont la souplesse, l'acceptation du risque, l'esprit d'entreprise et l'adoption d'un système de références externes. Selon nos recherches auprès de plus de 400 firmes britanniques, les entreprises qui adhèrent à ces principes affichent généralement de meilleurs résultats car la création de valeur pour le client est la base de toutes leurs actions. Les activités centrées sur la connaissance du marché forment l'un des leviers majeurs pour transformer ces principes en un avantage compétitif. Une autre source de création de valeur pour le client décrite par M. Day concerne la relation de proximité avec le client. Dans le cas des services businessto- business, la plupart des cabinets de conseil identifient des responsables de compte dont le rôle est de travailler en équipe avec le client. Parmi les entreprises de biens d'équipement, les meilleurs testent leur matériel (pour un prix modique ou gratuitement) chez le client, l'expérience opérationnelle du matériel assurant la rentabilité de l'opération. L'objectif est ici de réduire les coûts internes et de partager avec le client la valeur ainsi créée. Les processus de réflexion et de décision stratégique d'une entreprise orientée marché se caractérisent par une ouverture vers l'extérieur, une connaissance précise du marché enrichie par des contacts avec le client et un désir ardent de l'emporter sur la concurrence. Le président doit jouer un rôle actif et faire participer nombres d'acteurs au sein de l'entreprise. De plus, le processus est continu et dynamique, ce n'est en aucun cas un événement ponctuel. Les sceptiques diront sans doute que l'orientation marché signifie simplement que le client en obtient plus pour un peu moins, mais la vérité est plus complexe. Les entreprises orientées marché savent faire la différence, parmi leurs clients, entre ceux qui valorisent leurs offres et les autres, ces derniers étant destructeurs de valeur pour l'entreprise - et pour les autres clients. Une entreprise orientée marché doit savoir sélectionner ses clients et se débarrasser de ceux destructeurs de valeur. Les défis des dirigeants - Comment expliquer le succès de votre entreprise? Pensez-vous vraiment que le moteur principal de votre réussite soit votre capacité à créer de la valeur pour le client? Sinon, quel est-il? Prenez un organigramme et examinez le processus de fonctionnement. Discutez avec vos collègues de ce qui vous semble vraiment important. Essayez de convaincre les réfractaires et ne vous préoccupez pas des conseils qui suivent tant que cette question n'est pas résolue. - Maîtrisez-vous la dynamique qui influence la perception de valeur par votre client? Sachez utiliser pleinement les outils vous permettant de sentir le marché et d'établir une relation de proximité avec le client, afin d'améliorer sans cesse votre compréhension du marché. Vous serez ainsi armé pour affronter le mode de pensée en vigueur dans votre entreprise. Présentez précisément vos points de vue sur les clients et les concurrents. Vous pourrez alors mettre en évidence les divergences de vues qui doivent être résolues si vous voulez pouvoir optimiser votre capacité à générer de la valeur. Demandez-vous :
- Si vous mettez à profit tous les contacts que vous-même, votre personnel et vos fournisseurs entretenez tant avec les clients qu'avec la concurrence, pour en tirer des enseignements ; - Comment vous employez cette ressource. Faites-vous analyser systématiquement ces informations et ajustez-vous constamment votre appréciation du marché? Diffusez-vous l'information? - Saurez-vous renouveler votre système de fonctionnement pour mieux répondre aux besoins du marché? La rançon du succès, ce sont les imitations et l'érosion de votre avantage compétitif. La réaction habituelle consiste à tirer un peu plus sur la corde, par exemple en conservant l'essentiel de la structure mais en cherchant à améliorer la rapidité de réaction, à augmenter la qualité ou à accroître la productivité. Mais cela n'est pas suffisant. Ce qu'il faut, c'est identifier les percées stratégiques et non simplement se baser sur un processus d'amélioration continu, se fixer les standards qu'il serait nécessaire d'atteindre si vous deviez pénétrer le marché aujourd'hui. - Etes-vous prêt à donner l'exemple? Vous ne pouvez pas aller contre ou créer une culture d'entreprise, mais vous pouvez vous faire l'avocat des valeurs et des convictions qui vous semblent adéquates. Ainsi, lord Colin Marshall a martelé le thème du «client d'abord» après la privatisation de British Airways, avec le résultat impressionnant que l'on sait. marqueur La percée anglaise de Daewoo Daewoo est entré sur le marché automobile britannique au printemps 1995 avec une reconnaissance de la marque pratiquement nulle, un produit sans aucun attrait sur le plan technique et un pays d'origine pas très «à la mode» (la Corée). Avec une quarantaine de marques, le marché était saturé. Moins de la moitié de ces marques disposaient d'une part de marché supérieure à 1 % ; Ford, Vauxhall et Rover accaparaient la moitié des ventes de voitures neuves ; les bons vendeurs étaient liés par contrat d'exclusivité à des grands constructeurs et, enfin, la plupart des entreprises appliquaient une politique «Achetez britannique» ou «Achetez européen» pour leur propre flotte qui représente près de la moitié des achats de véhicules. A l'époque de l'arrivée de Daewoo, aucun nouvel arrivant sur le marché automobile britannique n'avait franchi la barre fatidique du 1 % de part de marché depuis que les statistiques sont recueillies (c'est-à-dire le milieu des années 70). Pourtant, le groupe coréen a réussi cet exploit en moins d'un an, et cela grâce à la priorité donnée au client. Daewoo avait compris que, sur ce marché, sa cible privilégiée serait les automobilistes cherchant avant tout une voiture capable de les emmener du point A au point B de façon fiable et bon marché. Les études avaient montré que la plupart des automobilistes hésitent à entrer chez un concessionnaire car ils sont intimidés, trouvent les vendeurs trop insistants et considèrent qu'ils sont encore moins bien traités une fois la vente réalisée. En outre, les enquêtes de Daewoo ont établi que, dans son segment cible, 84 % des automobilistes considéraient que l'attitude du vendeur à leur égard était au moins aussi importante que l'intérêt que pouvait représenter la voiture pour eux. Le constructeur coréen a développé une offre en conséquence, basée sur quatre piliers : - La vente directe : les commissions des concessionnaires sont économisées, ce qui permet au constructeur d'être plus généreux quant à l'équipement proposé. - Des points de vente accueillants : Daewoo a conçu son réseau de vente comme une chaîne de magasins ordinaires, avec des terminaux interactifs proposant des informations sur les produits, où les clients se voient proposer un café et disposent
d'une garderie pour les enfants. Les vendeurs perçoivent un salaire fixe et aucun marchandage n'est autorisé. - L'esprit libre : le prix comprend 3 ans de garantie complète, 3 ans d'assistance, 3 ans d'entretien gratuit, une garantie anticorrosion pour 6 ans et une clause «satisfait ou remboursé» valable 30 jours. - Le service : pour l'entretien, Daewoo vient chercher et reconduit votre voiture, et vous prête un véhicule pour la durée de l'immobilisation. Les concurrents de Daewoo n'avaient pas su, ou pas voulu, intervenir pour répondre au mécontentement évident des clients. Cette attitude a ouvert une brèche dans laquelle le groupe coréen a su s'installer en proposant un service à valeur ajoutée pour le client. Au fur et à mesure du lancement de ses nouveaux modèles, Daewoo a ensuite su maintenir sa différence tout en améliorant sa gamme sur le plan technique. Comment évaluer le marketing? Si les responsables du marketing ne disent pas clairement comment il faudrait évaluer les performances du marketing, d'autres appliqueront leurs propres critères. TIM AMBLER ET FLORA KOKKINAKI Les professionnels britanniques du marketing sont plutôt mal vus de leurs collègues. Selon une étude menée outre-manche par Chris Radford, de Synesis, les autres départements de l'entreprise se considèrent deux fois plus efficaces que le département marketing en termes de décisions stratégiques, de solutions créatives et, d'une manière générale, de qualité du travail. Mais comment peuvent-ils arriver à de telles certitudes - comment mesurent-ils le marketing? Nous avons analysé les méthodes actuellement en vigueur pour juger de l'efficacité du marketing. Notre enquête a concerné 531 cadres supérieurs du marketing et responsables financiers par l'intermédiaire d'un questionnaire établi à partir de 44 entretiens préalables. Ces responsables étaient-ils satisfaits des méthodes d'évaluation du marketing? La réponse des directeurs de marketing tend légèrement vers la négative (3,97 en moyenne sur une échelle de 7) tandis que leurs collègues financiers sont un peu plus nombreux à se déclarer satisfaits (4,28), sans doute parce que les principaux critères d'évaluation restent financiers. Nous nous proposons d'examiner ici les principaux facteurs expliquant ces résultats et notamment : les améliorations souhaitées par les personnes interrogées quant aux méthodes utilisées ; les systèmes de mesure en vigueur ; les points de référence et la définition du «capital-marque» (la marque comme actif capital). Nos entretiens avec les directeurs de marketing et les responsables financiers d'une même entreprise ne confirment en rien les divergences d'opinions sur lesquelles aurait parié le cynique, bien au contraire. Les directeurs marketing comme les responsables financiers reconnaissent leurs aptitudes réciproques et estiment partager les mêmes problèmes. Les améliorations souhaitées concernent (classées selon la fréquence des citations) : plus d'informations sur les résultats des campagnes, des lancements et des promotions ; des informations plus régulières et données de façon plus rapide ; des prévisions et modélisation ; davantage d'informations financières (mentionné surtout par les interlocuteurs du département finance) ; une meilleure information client. La différence majeure, c'est que les hommes de chiffre donnent la priorité à
l'évaluation financière interne des résultats, tandis que les responsables marketing demandent plutôt des éléments d'évaluation autres que financiers comme la satisfaction du client. Si les succès du marketing sont évalués à partir de plusieurs critères, il semble clair qu'un trop grand poids est accordé à l'aspect financier. Dans leur livre «Marketing Accountability : Improving Business Performance» (1997), Robert Shaw (professeur invité à la Cranfield Business School) et Laura Mazur suggèrent que l'insatisfaction des responsables des autres secteurs face au marketing serait due au fait que les directeurs du marketing n'accordent généralement à l'évaluation qu'un rôle accessoire et s'en déchargent sur le département financier, qui essaie de s'acquitter au mieux de cette mission. Toutefois, les responsables marketing ont raison de donner la priorité à l'obtention de résultats plutôt qu'aux problèmes d'évaluation - marquer des points est en effet plus important que les additionner. Il leur revient cependant de veiller à ce que l'efficacité du marketing fasse l'objet d'une évaluation adéquate. Et s'ils n'établissent pas des règles d'évaluation à partir de critères précis, ils ne devront pas s'étonner de recevoir des jugements défavorables car formulés à partir d'autres critères. Sans parler du risque de voir leur crédibilité - et celle du marketing dans son ensemble - amoindrie. Les directeurs du marketing doivent être beaucoup plus précis quant à leurs objectifs et doivent améliorer leur présentation des résultats obtenus. Les méthodes actuelles La façon dont le marketing est perçu influence ses modes d'évaluation. Nous n'avons donné jusqu'ici que l'image du marketing telle qu'elle est perçue par les personnes interrogées pour notre étude, c'est-à-dire celle d'un département distinct au sein de l'entreprise. Or le mot marketing revêt deux significations : au sens large, il désigne l'ensemble des efforts déployés par l'entreprise pour s'imposer sur le marché ; au sens restreint, il désigne l'activité du département marketing. La plupart des participants ne font pas la différence entre la politique générale et les objectifs spécifiques relevant du marketing. Au cours des entretiens, nous avons demandé : «Comment votre entreprise s'y prend-elle pour évaluer le marketing au sens large du terme, c'est-à-dire les résultats obtenus?» Les réponses se répartissent en huit catégories comme indiqué dans la première colonne du tableau (lire page IX). Les deux dernières colonnes fournissent des bases de comparaison par catégorie en divisant les totaux par le nombre de réponses. Nous avons utilisé ces catégories pour établir le questionnaire, mais nous avons exclu les simulations économétriques, qui sont davantage une méthodologie qu'un système de mesure à proprement parler. Nous avons également exclu le comportement des salariés et les mesures internes comme les résultats d'une ligne de fabrication qui se trouvent à la frontière entre marketing et ensemble des résultats. Quant à l'«efficacité de la campagne», nous n'avons pas tenu compte de la durée de celle-ci - un trimestre, un semestre, une année, ou toute autre durée. Nous avons donc décidé que la formule «efficacité de la campagne» englobait la durée et la quantité : l'importance attribuée par les directeurs étant proportionnelle à la durée considérée, ce n'était donc pas un critère pertinent. Nous avons réparti les mesures concernant le client-utilisateur final en deux catégories : «le concret», c'est-à-dire les achats, les parts de marché et les prix ; et «l'abstrait» (la psychologie), c'est-à-dire la notoriété, l'appréciation et la satisfaction. Les critères de mesures ainsi établis sont indiqués dans la première colonne de la figure 1, tandis que la deuxième colonne donne la fréquence avec laquelle les dirigeants utilisent ces mesures selon les personnes interrogées, responsables marketing et financiers. Il semble que les entreprises s'intéressent surtout à l'évaluation financière de leur
succès sur le plan du marketing, plutôt qu'aux clients et à la concurrence. Or, cette façon de voir les choses est parfaitement indiquée pour évaluer le fonctionnement de l'entreprise, mais pas pour mesurer la performance du marketing, qui implique d'accorder davantage d'attention au client. Néanmoins, on observe un intérêt grandissant pour tout ce qui concerne les données client, notamment la satisfaction exprimée, et on s'y réfère plus souvent. Beaucoup d'entreprises commencent ainsi à s'y intéresser de près tout en se rendant compte que la satisfaction n'est pas un critère très fiable en soi et qu'il doit absolument être associé à plusieurs autres éléments de mesure. Point de référence Le succès est toujours relatif plutôt qu'absolu. Son évaluation implique des comparaisons internes et externes. Le point de référence le plus largement cité par les personnes interrogées était un budget établi pour le plan marketing. Ainsi, pour 12 personnes (27 %), respecter le plan établi était «tout ce qui compte» et, pour 29 (66 %), c'est «un point essentiel». Pour confirmer cette approche, la définition du plan représente l'essentiel ou la totalité de l'activité marketing (pour 56 et 22 % des personnes interrogées, respectivement). Les entreprises utilisent généralement une combinaison de systèmes pour établir leurs budgets de plans marketing (voir figure 2). La méthode la plus courante est celle dite «à la tâche» : les activités marketing nécessaires pour atteindre les objectifs sont détaillées puis chiffrées. Ainsi, on a tendance à s'éloigner de la méthode «évolutionniste» - une méthode darwinienne d'adaptation du programme de l'année précédente - pour s'orienter plutôt vers un programme par activités requises. Les dirigeants procèdent généralement aux ajustements éventuels des chiffres «définitifs» du budget. Nous ignorons dans quel sens se fait cet ajustement, mais nous supposons le plus souvent qu'il y a une révision à la baisse afin d'améliorer le bénéfice immédiat en réduisant l'investissement marketing. «Contractuel» fait référence à un budget marketing déterminé par contrat ou par des tiers. «Page blanche» se réfère à un budget calculé ou modélisé à partir de la valeur actualisée nette. Cela suppose de partir théoriquement de zéro et de justifier chaque dépense, c'est-à-dire que l'on calcule l'impact financier des décisions. Le «capital marketing» Il n'y a pas de consensus sur la définition du mot «marque» dans la littérature. Certains auteurs intègrent le(s) produit(s) sous-jacent(s) dans la «marque», d'autres pas, tandis que d'autres passent sans prévenir d'une définition à l'autre. Mais il est très important, pour l'évaluation d'une marque comme Smirnoff par exemple, de savoir si le volume des bénéfices doit se calculer tout compris ou se limiter au surplus de bénéfice dû à la reconnaissance de la marque, au-delà du bénéfice que fait Diageo (propriétaire de la marque) sur la vodka. Le consensus est encore moins évident concernant le capital marketing, que certaines entreprises appellent «capital-marque», d'autres «réputation», «puissance de la marque», «santé de la marque» ou «identité de l'entreprise». Le capital marketing est essentiel pour l'évaluation des résultats du marketing pour une raison très simple : les activités de marketing d'une période financière donnée apparaissent dans le résultat net d'autres périodes. Pour en rendre compte - au sens large -, il faut évaluer l'état du capital marketing au début et à la fin de chaque période. Nous pourrions résumer cela en disant que
la performance du marketing est égale aux résultats à court terme corrigés des variations du capital-marque. Si la performance est supposée augmenter les bénéfices, alors «résultats à court terme» signifie chiffre d'affaires moins coûts. C'est pourquoi tant d'entreprises cherchent à attribuer une valeur financière à leur marque. Tous les termes de l'équation pourraient alors être exprimés en montants financiers. Il existe toutefois un certain nombre de réserves concernant l'utilisation d'une évaluation de la marque en tant que capital-marque : - Un seul chiffre pour rendre compte de l'état de santé de quoi que ce soit est une bien piètre représentation de la réalité. - Les procédés d'évaluation de la marque donnent des mesures solides mais inexactes. Celles-ci conviennent pour l'achat, la vente et le bilan, mais sont inopérantes pour le suivi mensuel des activités de marketing. En outre, leur variabilité doit plus à des facteurs extérieurs comme les taux d'intérêt qu'aux activités du marketing. - Il existe diverses méthodes d'évaluation de la marque, mais toutes souffrent peu ou prou d'une défaillance technique. La plus appréciée implique la valeur actualisée nette. C'est-à-dire qu'elle prend en compte non seulement la valeur actuelle, mais aussi aujourd'hui les activités marketing futures. Nous en concluons que l'évaluation de la marque est une composante utile pour l'estimation du capital-marque, mais elle n'est rien de plus. Une entreprise devrait se poser très sérieusement la question des critères de mesures - combien et lesquels - nécessaires au suivi de la santé d'une marque. Ces critères devraient être sensibles et à même d'anticiper l'avenir. Concrètement, des mesures sont bien relevées, mais elles ne sont généralement pas perçues comme un élément de l'ensemble capital-marque. 38 % des entreprises de notre étude n'ont même pas de mot pour décrire leur capital marketing. La figure 3 donne la liste des termes les plus courants. Les pourcentages ont été calculés par rapport aux 331 personnes qui en emploient un ; les termes utilisés par moins de 1 % des participants n'ont pas été retenus et certains participants n'ont pas précisé le mot qu'ils emploient. Comme certaines entreprises utilisent plusieurs termes, le total utilisateurs et nonutilisateurs dépasse 100 %. Les agences de publicité qui ont identifié l'importance du capital marketing cherchent à diversifier leurs offres par la création de néologismes. Ainsi, la société de consultants Brandhouse à Londres utilise «Brand Soul». Young & Rubicam a déposé «BrandAsset» et Leo Burnett a déposé «Consumer Brand Equity» pour désigner la valeur financière de la part représentée par le client dans ce capital. Outre le fait que cette appropriation de mots du langage n'est certainement pas très constructive, ces agences ne font qu'ajouter à la confusion. Ce capital ne saurait être assimilé à son évaluation. L'avantage pris par les agences est clair, mais cela n'aide en rien les responsables du marketing qui ont besoin d'un langage commun, surtout avec les non-spécialistes. Nous proposons «capital-marque» comme terme générique pour désigner l'actif non réalisé créé par le marketing et pas encore converti en bénéfices dans le résultat de l'entreprise. Conclusion Si les responsables du marketing ne disent pas clairement comment il faudrait évaluer les performances du marketing, d'autres appliqueront leurs propres critères. C'est pourquoi on assiste actuellement à une évaluation des marques et à une tentative de mesurer les résultats produits par le marketing en termes purement financiers. Mais si l'argent est bien le langage des affaires, il peut
s'avérer plus néfaste concernant une activité qui ne peut être complètement mesurée par lui seul. Les techniques évolueront peut-être, mais, aujourd'hui, il est clair qu'elles sont insuffisantes. Les méthodologies d'évaluation des marques, notamment, sont défaillantes tant dans leur concept que dans leur forme. Le fait que le problème soit posé est une bonne chose. Certains responsables du marketing jugeront la valeur interne de la marque en fonction de l'augmentation éventuelle de leurs budgets. Pour citer imparfaitement Stephen Leacock, le rôle du plan marketing est de mettre l'intelligence du directeur financier en sommeil assez longtemps pour obtenir de lui l'argent nécessaire. Les directeurs du marketing doivent donc choisir entre cette vision strictement financière, manifestement insuffisante, ou tenter de convaincre leurs collègues d'utiliser une grille d'évaluation plus diversifiée. Il ne s'agit pas de remettre en cause la valeur actionnariale et la valeur ajoutée économique, mais d'attirer l'attention des directeurs du marketing pour les inciter à envisager d'autres critères de bonne pratique et à les «vendre» à leurs collègues. Résumé L'orientation marché est la clef du succès pour une société. Une entreprise orientée marché a pour motivation principale, dans toutes ses activités, de développer la perception de valeur par le client. Pour atteindre ce résultat, elle doit, d'une part, être capable de sentir ce qui se passe sur le marché - pour cela, elle dispose d'outils comme les études de marché, les rencontres entre les dirigeants et les clients et la veille concurrentielle - et, d'autre part, avoir une culture d'entreprise intégrant flexibilité et esprit d'entreprise, afin de transformer cette connaissance du marché en gain de performance. Résumé Comme toute fonction de l'entreprise, le marketing doit être évalué. Mais comment procéder à cette évaluation? Selon Tim Ambler et Flora Kokkinaki, les décideurs s'en remettent trop souvent aux indicateurs financiers. Si les responsables marketing souhaitent donner plus de poids à d'autres critères, comme la satisfaction du client, il leur appartient d'y oeuvrer. Bien choisir ses marchés à l'étranger Une entreprise doit sélectionner en priorité les pays où la demande latente est forte et où l'accessibilité est bonne. PHILIP M. PARKER Imaginez que votre entreprise dispose de 3 milliards de dollars et que votre conseil d'administration vous demande d'investir cette somme prudemment. Sachant que votre marché est proche de la saturation, vous avez le choix entre placer cet argent auprès d'une banque, ou chercher à tirer profit des compétences de votre entreprise et étendre vos activités à des régions du monde où la croissance est plus forte. Voilà le choix devant lequel a été placée une entreprise de télécommunications européenne. Qu'a-t-elle décidé? De se tourner vers l'international, et rapidement. Mais avec un choix de 230 pays, il était primordial de recourir à un processus de sélection rationnel pour que le conseil d'administration donne son feu vert. Plusieurs facteurs ont contribué à accélérer le processus de mondialisation : la
déréglementation, la progression de la démocratie, l'omniprésence de l'information, les privatisations, la globalisation de la chaîne de valeur, les progrès réalisés en matière d'infrastructures et la réduction d'obstacles protectionnistes à l'entrée de produits étrangers. On peut généralement définir trois étapes pour caractériser le processus de planification stratégique internationale. D'abord, il faut explorer l'environnement commercial mondial et faire une présélection de pays prioritaires. Cette phase consiste à étudier non seulement le potentiel d'un marché dans un pays aujourd'hui, mais aussi la demande latente à long terme qui permettra de réaliser les ventes de demain. La deuxième étape est généralement de nature opérationnelle et se compose d'analyses détaillées au sein d'un pays donné. La troisième passe par la conception des meilleurs plans d'entrée possibles et l'examen d'approches qui peuvent être rationalisées à l'échelle régionale ou mondiale. Cet article se propose d'aider les dirigeants à réaliser la première phase. La manière la plus efficace pour définir un ordre de priorités des marchés est d'aborder chaque pays sous au moins deux angles principaux, eux-mêmes composites de multiples facteurs auxquels les stratèges en planification ont recours depuis longtemps. Le plus grand défi posé par cette démarche est de choisir les critères les plus importants pour les planificateurs internationaux. Les deux mesures les plus importantes sont la «demande latente» et l'«accessibilité au marché». La priorité numéro un revient aux pays où la demande latente est forte et où l'accessibilité relative est bonne, c'est-à-dire ceux où, comparativement, votre entreprise pourra s'implanter facilement. Il y a toute une palette qui va des pays à forte priorité à ceux où la demande latente et l'accessibilité sont faibles. La figure 1 montre deux scénarios différents. A gauche, l'entreprise met l'accent sur le potentiel représenté par un marché donné alors qu'à droite, la société cherche avant tout à éviter les solutions coûteuses et les marchés difficiles. Dans cet article, nous partons du principe que le lecteur vient d'une entreprise «générique», c'est-à-dire qui n'est ni régie exclusivement par le marché, ni par les coûts. Les planificateurs doivent donc moduler les paramètres en fonction des facteurs propres à leur entreprise et susceptibles de modifier l'ordre de priorités (par exemple, une société canadienne jugera que le Canada est plus accessible qu'une société allemande). Globalisation Pour comprendre ce qu'est la demande latente, il convient de caractériser le processus de globalisation. Comme on le voit sur la figure 2, la demande est souvent donnée dans son ensemble par un chiffre d'affaires mondial. Or, cette courbe globale cache deux mécanismes sous-jacents qui sont fondamentalement différents. Le premier est un processus d'adoption spécifique à chaque pays («largeur d'adoption» ou «adoption horizontale»). Le second processus fait appel à une formule de vente propre au pays après adoption («profondeur d'adoption» ou «adoption verticale»). Le processus horizontal, décrit à la figure 3, consiste en l'adoption séquentielle cumulative d'un produit ou d'un service dans tous les pays du monde. Une poignée de pays constituera le noyau des «innovateurs», suivis par les «pays à adoption rapide». Les derniers pays dans lesquels le produit est vendu sont les «retardataires». Certains pays n'adopteront peut-être jamais un produit (par exemple, les chasse-neige en Jamaïque). La figure 4 établit la distinction entre un «produit de stature planétaire» et un «produit de stature non planétaire». Le processus horizontal est un indicateur permettant de savoir où la demande est susceptible de se manifester le plus tôt. Pour de nombreux produits et services, ce sont les grands pays riches qui
constituent généralement le groupe des innovateurs et des pays à adoption rapide, alors que les petits pays pauvres sont des lanternes rouges. Pour de nombreuses catégories de produits, le processus horizontal est engagé depuis plus d'un siècle, alors que pour des innovations plus récentes, il ne fait que commencer. Une fois qu'un pays commence à vendre un produit, le second processus peut être lancé parallèlement : il s'agit du processus vertical. Ce système permet au planificateur de savoir quel est le niveau de ventes dans un pays donné après la première adoption du produit. Il convient de noter qu'un pays à adoption rapide peut très bien connaître un développement lent, alors qu'un pays dit retardataire peut bénéficier d'un développement en flèche. Il n'existe pas de relation de cause à effet entre le moment où un pays adopte un produit et la rapidité de prise des ventes ultérieurement. Pour voir cet aspect de la demande de plus près, il est préférable de décomposer les ventes en deux catégories : les premiers achats et les achats de répétition. La figure 5 décrit la courbe des premiers achats. Avec la maturation du cycle de vie d'un produit, un pourcentage croissant du marché adopte le produit pour la première fois. Si cette phase d'essai est couronnée de succès, des achats de répétition suivront ; sinon, le produit est voué à disparaître. Demande à long terme La demande à long terme est fonction de deux sous-ensembles de facteurs : le premier dépend de la stature du pays ou de son profil socioprofessionnel. Le second, décrit à la figure 6, correspond au plafond de la demande, c'est-à-dire le pourcentage du marché considéré susceptible d'adopter le produit à long terme, ou du moins à l'horizon du planning du dirigeant. Les figures 7 et 8 font ressortir l'importance de ces composants. La figure 7 est une représentation classique de la demande pour une catégorie fictive de produits destinés à la Suède et à la Thaïlande. En Thaïlande, la demande existe depuis trois ans alors qu'en Suède, elle est apparue il y a cinq ans. Pour une meilleure comparaison des résultats, la demande pour chacun des deux pays est exprimée en taux de pénétration par habitant. Ce type de mesure convient tout à fait au secteur des télécommunications où l'on vend et où l'on achète des licences en fixant les prix sur une base «par habitant». Cette méthode, qui consiste à comparer la demande entre pays, est aussi fréquemment utilisée dans la presse économique : l'idée est que les marchés caractérisés par un fort taux de pénétration verront leur croissance freinée à l'avenir, alors que les pays où la pénétration est faible pourront compter sur un taux de croissance plus élevé. En vertu de cette méthode, le graphique nous apprend que la Suède est un marché plus mature que la Thaïlande. Un décideur à l'international pourra en conclure que la Thaïlande constitue le marché le plus prometteur et le plus intéressant, tandis que la Suède, en tant que marché mature, ne mérite pas qu'on y investisse davantage. D'ailleurs, dans de nombreux secteurs, n'observe-t-on pas une migration importante de ressources jusqu'ici engagées dans des marchés développés vers les marchés sous-développés? Eh bien non, justement! Ce type d'analyse comparée de marchés peut se révéler trompeur. Les dirigeants doivent bien admettre que tous les pays ne sont pas égaux et que les calculs simplistes (du type «taux de pénétration par habitant») ne tiennent pas compte de différences fondamentales entre nations. Il est évident que tous les Thaïlandais ne feront pas partie, même à l'horizon du planificateur, du marché cible potentiel. Pour de nombreuses catégories de produits, on peut exclure, sans risquer de se tromper, les jeunes enfants et les familles travaillant dans l'agriculture, qui sont
peu enclines à disposer de revenus suffisants. La stature du pays et ses catégories socioprofessionnelles que le plafond de la demande seront sujets à de larges fluctuations dans le temps. De même, le plafond de la demande connaîtra de grandes variations d'une catégorie ou d'un secteur à l'autre. L'aspect primordial à prendre en compte pour déterminer le plafond de la demande est d'apparier les pays en fonction des catégories/secteurs. Ce faisant, le décideur retombera sur les courbes de la figure 8 et constatera alors que la Thaïlande, lorsque l'on exclut les petits exploitants agricoles, a pratiquement saturé son potentiel local, alors que la Suède (peut-être à cause d'une fiscalité très lourde ou d'une mauvaise stratégie marketing de la part d'un monopole d'etat), est loin d'avoir épuisé ses capacités. Le même principe s'applique autant aux produits et services industriels qu'à ceux de consommation. L'avantage de pouvoir moduler le plafond de la demande est que, pour certaines catégories de produits, des petits pays (par exemple la Belgique) auront un potentiel latent supérieur à celui des grands pays (comme l'inde) qui paraissent a priori plus porteurs. Une fois que les profils socioprofessionnels et les plafonds sont définis et projetés à l'horizon de planification, il reste au décideur à voir quel niveau de revenu il peut espérer obtenir de chaque acheteur. En ajoutant les premiers achats aux achats de répétition, il obtient la courbe totale de cycle de vie du produit pour le secteur qui l'intéresse. A long terme, la demande latente d'un pays ou d'un secteur se rapproche d'un coefficient d'achat de répétition (qui peut varier d'un pays à l'autre). A partir du moment où le coefficient est connu, que le profil socioprofessionnel et le plafond ont été déterminés, il est possible de projeter les ventes à long terme. A tout moment, la demande latente dans un marché donné correspond au produit de ces trois facteurs ; à l'inverse, le coefficient d'achats de répétition correspond au taux moyen de consommation latente par consommateur cible. Le coefficient baisse au fur et à mesure que la catégorie de produit décline du fait de chocs externes. La relation entre les facteurs est montrée à la figure 9 et perdure au stade mature. Chaque cas est fonction d'un certain nombre de facteurs propres à un pays donné. La question essentielle que doit se poser le dirigeant est de savoir si le taux de consommation converge dans le temps entre les différents pays ou si elle est stationnaire en équilibre (maturité), tout en étant différente entre pays. Dans le secteur des biens de consommation, par exemple, la question pourrait être de savoir si la consommation d'alcool par adulte va finalement converger d'un pays à l'autre. Comment une entreprise de télécoms a fait ses choix Au début de l'article, nous évoquions une société européenne de télécommunications disposant de 3 milliards de dollars à investir. Qu'a-t-elle finalement décidé? Dans sa première estimation, l'entreprise a dressé une liste de marchés prioritaires en faisant inconsciemment appel à la méthode de pénétration «par habitant» pour rechercher le stade de maturité des pays. Des chasseurs de licence ont été envoyés de par le monde : ils se sont rendus au Vietnam, au Ghana, en Irlande, à Hong Kong, au Népal, en Inde et en Hongrie. Très vite, le conseil d'administration a montré sa réticence à investir dans des marchés trop éloignés. Il s'est avéré qu'en vérifiant les marchés cibles, le marché intérieur et celui de nombreux pays voisins étaient loin de la maturité, alors que beaucoup de pays dits «émergents» étaient sur le point, eux, d'y arriver. La méthode consistant à rapporter au nombre d'habitants s'est révélée être une mesure de pénétration absurde. De surcroît, la société disposait d'un meilleur accès
aux marchés limitrophes qu'à ceux plus lointains d'asie. Forts de ce constat, les dirigeants ont décidé de démanteler le groupe de chasseurs de licence et d'investir plus massivement dans leur zone géographique. Ce que la demande latente n'est pas - La demande latente ne correspond pas à une estimation du niveau de ventes dans un marché donné, mais plutôt à son potentiel stratégique à long terme. Dans les pays où l'implantation s'est faite au meilleur moment et où le marché s'inscrit dans un cadre concurrentiel, la demande latente s'approchera du niveau actuel des ventes. Or, dans bien des pays, il existe des facteurs d'inertie qui entravent la réalisation de cet objectif. Par exemple, la Corée du Nord dispose d'une demande latente élevée, mais son contexte économique et politique a jusqu'à présent empêché la réalisation de ce potentiel. - La demande latente n'est pas égale au total des ventes réalisées par les entreprises d'un secteur donné. Les estimations en matière de demande latente divergent souvent des estimations nationales car elles ne tiennent pas compte du volume des ventes à l'exportation réalisé par des entreprises implantées dans ce pays. La demande latente n'est que l'expression de la consommation intérieure. Par exemple, si on fait la somme des ventes réalisées par tous les fournisseurs américains, le total sera peut-être supérieur à la demande latente pour l'ensemble des Etats-Unis. Certaines de ces ventes correspondront à la consolidation des opérations étrangères, à des ventes à des entités étrangères, à des exportations ou des réexportations. La demande latente est une estimation «lissée». Elle ne prend pas en compte tous les foyers de demande locale qui apparaîtront d'une année sur l'autre du fait d'un cycle de commande important. - Enfin, la demande latente n'est pas spécifique à l'entreprise. La demande latente totale est estimée pour toutes les entreprises qui s'intéressent à un pays donné. Estimer l'accessibilité La demande latente n'est qu'une facette de la médaille. Un pays peut, de prime abord, sembler éminemment intéressant grâce à une demande latente élevée, mais beaucoup moins, à la réflexion, lorsqu'on se rend compte des difficultés matérielles que pose la desserte de ce marché potentiel. L'accessibilité d'un même pays variera toujours d'une entreprise à l'autre. Il faut, au minimum, étudier les quatre aspects suivants : - démographique (concentration de la demande). Les facteurs démographiques primordiaux permettent aux dirigeants d'évaluer le degré de concentration de la demande dans un pays donné. La concentration de la demande correspond à la facilité avec laquelle on peut desservir un pays globalement, plutôt que par régions. Pour mesurer la concentration, on peut aussi étudier le nombre de grandes villes (de plus de 750.000 habitants) et la taille de la plus grande agglomération divisée par la population totale du pays. La Chine, les Etats-Unis et l'allemagne donnent des résultats médiocres sur cette base et sont généralement considérés comme des pays difficiles à couvrir (du point de vue de la distribution et des ventes). D'ailleurs, dans le cas de la Chine, ce handicap oblige un grand nombre d'entreprises à effectuer des estimations de potentiel par ville et à étudier la Chine non pas en tant que pays, mais en tant que région composée d'un grand nombre de sous-ensembles de villes-etats.
- économique (développement et ouverture). Les facteurs économiques ont tendance à compenser une demande peu concentrée. Les pays à niveaux de revenus plus élevés disposent généralement de meilleures infrastructures et d'un meilleur réseau de communications qui leur permet de répondre efficacement à une demande dispersée. C'est à la capacité des entreprises étrangères à desservir un marché donné que l'on mesure le degré d'ouverture de ce marché. En règle générale, les petits pays qui ne disposent pas de législation protectionniste sont très enclins à accueillir des sociétés étrangères, alors que des pays de taille plus importante ayant des prédispositions au protectionnisme (comme le Japon) le sont généralement moins. Dans certains pays où les barrières d'entrée sont basses, les acheteurs ont malgré tout tendance à préférer les producteurs nationaux et, dans ce cas, le degré d'ouverture est faible. - culturel (hétérogénéité). La culture est souvent une entrave aux stratégies de pénétration marketing et opérationnelle, surtout dans les pays où les cultures sont hétérogènes. Il est utile de connaître les deux éléments suivants : la taille du groupe représentatif de la langue la plus parlée, et celle du groupe représentatif de la religion principale (dans les deux cas, par rapport à la population totale). En général, plus ces groupes sont importants, plus il est facile d'aborder le marché convoité. - politique (structure totalitaire, stable, divisée). Enfin, les contraintes politiques constituent parfois un facteur pouvant simplifier ou entraver l'accès à un marché. Par exemple, le fait qu'une entreprise soit américaine ou française peut être un facteur déterminant quant il s'agit d'évaluer la facilité d'accès à un pays comme l'iran. Un pouvoir politique concentré peut constituer une entrave à l'approche d'un pays, surtout dans le cas de régimes totalitaires qui sont plus réfractaires aux méthodes du libre-échange. Pour mesurer cette contrainte de manière objective, il est utile de connaître le nombre de partis politiques et la taille du groupe le plus influent au gouvernement. Les facteurs décrits plus hauts, parmi de nombreux autres qui sont propres à l'entreprise et au secteur en question, sont alors regroupés en vue d'une notation globale. La facilité d'accès peut être évaluée soit en tant que critère «spécifique à l'entreprise», soit en tant que concept générique indépendamment de toute spécificité. Certaines entreprises peuvent jouir de niveaux d'accessibilité élevés dans certains pays pour des raisons historiques (par exemple des sociétés françaises en Afrique francophone). Les mesures fournies pour une entreprise générique ne prennent en compte aucun avantage ou désavantage particulier à aborder un pays qui découlerait des compétences de base de l'entreprise en question. Une société finit toujours par inclure ces avantages lorsqu'elle finalise ses estimations. Enfin, les mesures d'accessibilité sont difficiles à prévoir. Ce sont surtout les changements politiques qui rendent ce type d'évaluations plus arbitraires, alors que les évaluations de la demande latente, étant de nature stratégique, sont pour leur part moins sujettes au changement. Résumé Quand une entreprise dispose des moyens de pénétrer les marchés étrangers, comment choisir celui où s'implanter? D'après Philip M. Parker, il faut étudier les possibilités sous deux angles : la demande latente et l'accessibilité au marché. La demande latente est fonction de la taille du pays, du pourcentage de la population susceptible d'adopter le produit et du taux probable de répétition d'achat. A cette aune, il est évident que des marchés «matures» dans les pays industrialisés ont un plus grand potentiel que ceux des économies émergentes, ce qui est
contradictoire avec la méthode statistique grossière de «pénétration par habitant» souvent utilisée pour caractériser les marchés. Mais, même lorsque la demande latente est forte, les problèmes d'accès (imputables à une évolution démographique défavorable, un faible niveau de développement économique, une fragmentation culturelle ou des contraintes politiques) sont tels que le jeu n'en vaut pas forcément la chandelle. Chapitre 2 Les «4 D» d'un bon positionnement Un produit mal positionné, aussi excellent soit-il, risque de rester dans les rayons. Quatre règles fondamentales aident les responsables du marketing à faire les bons choix. ALICE M. TYBOUT ET BRIAN STERNTHAL Lorsque l'on s'est rendu compte, dans les années 90, que les consommateurs avaient de plus en plus d'informations à traiter et moins de temps pour le faire, on a vu apparaître quantité de machines électroniques de poche prêtes à les aider dans cette tâche. La première à sortir fut le Newton d'apple, un bloc-notes et organiseur capable de reconnaître l'écriture et donc de mémoriser numériquement des notes manuscrites. Ses ventes furent plutôt décevantes, ce qui fut attribué davantage aux mauvaises performances de la fonction de reconnaissance d'écriture qu'à un manque d'opportunité sur le marché. Ceci ne suffit pas à décourager la concurrence, comme devaient le prouver des lancements ultérieurs. En 1994, on vit apparaître l'envoy de Motorola, une machine qui comportait un agenda-calendrier, un carnet d'adresses, une fonction tableur et un accès à Internet. Son originalité tenait au fait qu'il pouvait envoyer des télécopies et du courrier électronique via un modem intégré sans connexion filaire. A l'instar du Newton, les ventes de l'envoy suscitèrent une telle déconvenue qu'il fut retiré du marché. Au moment où l'envoy disparaissait, Robotics lança sur le marché son Palm Pilot, un organiseur de poche numérique à un prix très inférieur à celui du Newton ou de l'envoy. Au bout d'un an, les ventes atteignaient le million d'unités, soit la moitié du marché, et le Palm Pilot pouvait se targuer d'être l'appareil le plus rapidement adopté de toute l'histoire de l'informatique. Comment expliquer un tel succès? Essentiellement par les positionnements respectifs des marques. Un bon positionnement affilie clairement la marque à une catégorie de produits que le consommateur identifie immédiatement, tout en la différenciant des autres produits à l'intérieur de cette même catégorie. Mais, pour que son succès ne s'arrête pas là, la marque doit également être clairement rattachée aux objectifs de l'acheteur. Quatre règles doivent être respectées pour trouver le bon positionnement : définir clairement ce qu'est la marque ; la différencier nettement des produits similaires de la même catégorie ; développer intelligemment sa relation avec les objectifs du consommateur et défendre avec méthode son positionnement face aux réactions de la concurrence et à l'évolution des exigences des clients. C'est ce que nous avons appelé les «4 D» du positionnement. Par rapport à la concurrence
Les approches traditionnelles du positionnement s'articulent autour de la définition et de la différenciation de la marque, qui déterminent la relation entre le produit et ses concurrents. Définir la marque consiste à indiquer au consommateur les caractéristiques communes (ou points de conformité) qu'elle possède avec d'autres. La différenciation a ensuite pour objet d'identifier le point de différence qui lui permettra de s'imposer en offrant un bénéfice essentiel aux yeux du consommateur. La figure 1 ci-dessous illustre l'ensemble de ces décisions. Pour les marques bien installées, l'appartenance à une catégorie de produits est généralement évidente et ne soulève aucun débat. Tout le monde sait que Coca- Cola est un soda et que les Kellogg's Corn Flakes sont des céréales pour le petit déjeuner. Cependant, quand on lance un nouveau produit sur le marché, on a parfois le choix entre plusieurs catégories et, donc, plusieurs bases de différenciation. Prenons l'exemple de Slice aux Etats-Unis. Il s'agit d'une boisson gazeuse qui contient du vrai jus de fruit et qui est vendue en canettes dans les distributeurs automatiques. La première solution consiste à classer Slice dans la catégorie des jus de fruit et à utiliser son mode de distribution pratique comme élément de différenciation. L'autre possibilité est de le présenter comme une boisson gazeuse et de le distinguer par son contenu (du vrai jus de fruit). Tout dépend si les chances de réussite sont plus importantes dans l'une ou l'autre catégorie. Si l'on reprend l'exemple de Motorola, un des enjeux concernant le positionnement de l'envoy était la définition de la catégorie dans laquelle il rivaliserait. Le fabricant avait décidé de le classer dans celle des assistants personnels numériques, mais le consommateur ne le percevait pas comme tel et tentait de le rattacher à celle des ordinateurs portables, des organiseurs, des téléphones mobiles ou des pagers. L'Envoy ne présentait pas suffisamment de points de conformité pour être assimilé à l'une de ces catégories. Le consommateur ne voyait donc pas très bien ce que cet appareil pourrait remplacer dans sa serviette et n'adhérait donc pas à la proposition de dépenser plus de 5.000 francs et de souscrire à un abonnement à un réseau radiotéléphonique pour le seul plaisir de transmettre des télécopies et des messages électroniques sans fil. A partir du moment où le produit n'est pas clairement rattaché à une catégorie déterminée, la différenciation n'a plus de sens. En revanche, le positionnement du Palm Pilot dans la catégorie des organiseurs numériques était crédible parce qu'il offrait le bénéfice lié à cette catégorie, qui est l'organisation pratique des données personnelles. Parallèlement, il se différenciait des autres organiseurs par sa facilité d'emploi, et notamment par la possibilité pour l'utilisateur de synchroniser les données avec son PC ou son portable. Le Palm Pilot ne se contentait pas de remplacer une secrétaire ou un organiseur traditionnels, il avait d'autres avantages. Pour définir une marque dans une catégorie de produits, on se fonde généralement sur la similarité des caractéristiques physiques. Cette ressemblance n'est pourtant pas indispensable. Une marque peut très bien appartenir à une catégorie de produits en l'absence d'attributs physiques comparables, sous réserve qu'elle offre le bénéfice principal associé à cette catégorie. Si le Palm Pilot est perçu comme une alternative à une secrétaire, c'est parce qu'il organise le travail comme le ferait une bonne secrétaire. Une fois que la marque a défini sa position, elle doit se différencier des autres, c'est-à-dire tenter de dominer ses concurrents sur un bénéfice important pour le consommateur. La marque la plus forte est celle qui affiche une différence sur
l'avantage primordial qui incite le consommateur à acheter dans cette catégorie de produits. En règle générale, le numéro un dans une catégorie de produits revendique ce bénéfice premier - qu'il offre ou non un avantage -, et défend sa position par d'importants investissements publicitaires, une distribution intensive ou le recours à d'autres supports de marketing mix. Le Palm Pilot, par exemple, affirme sa supériorité dans l'organisation de l'information et la lessive Tide revendique un plus grand pouvoir de lavage. Généralement, les marques moins connues voulant s'implanter dans une catégorie de produits revendiquent le bénéfice inhérent à cette catégorie pour indiquer leur appartenance et choisissent un attribut secondaire comme élément différenciateur. Ainsi, IBM met en exergue sa technologie avancée comme point de différence tandis que le fabricant de portables WinBook se targue d'offrir une technologie de pointe à un prix plus bas. Quelle que soit la base de la différenciation, la marque doit aussi donner au consommateur une bonne raison de croire qu'elle possède effectivement ce bénéfice. Ingersoll se positionne comme un fabricant de meuleuses de qualité supérieure parce que c'est la seule grande société dans le secteur des outils coupants à se spécialiser dans ce type de produit. De la même manière, le jus d'orange Tropicana affirme avoir un meilleur goût parce qu'il n'utilise que des oranges soigneusement sélectionnées. Dans certains cas, le fondement de la différenciation peut être l'image (qui utilise la marque et à quelle occasion). Les parfums, par exemple, se fondent sur l'image pour formuler leur promesse. Le positionnement par rapport à la concurrence explicite donc ce à quoi la marque peut se comparer et pourquoi elle est préférable à d'autres. Néanmoins, la marque se suffit rarement à elle-même pour se maintenir. Seul un positionnement plus approfondi, établissant des relations avec les valeurs et les objectifs du consommateur, lui permettra d'avoir un avantage concurrentiel durable. Par rapport aux objectifs Un positionnement par rapport aux objectifs consiste à développer et à approfondir le positionnement concurrentiel. Son cadre de référence n'est plus la catégorie de produits, mais les valeurs et les objectifs du consommateur. En effet, en allant plus loin, on peut utiliser un bénéfice induit par l'attribut de la marque comme fondement pour le positionnement suivant. Ce bénéfice implicite permet de suggérer au consommateur de nouveaux avantages plus abstraits. En réalité, chacune des déductions ainsi effectuées peut se comparer aux barreaux d'une échelle («ladder» en anglais), qui devient plus abstraite et plus générale au fur et à mesure que l'on monte. Ceci explique que les Américains aient baptisé «laddering» cette technique de progression des objectifs. Au stade ultime, le laddering aboutit à un bénéfice très abstrait qui représente l'essence de la marque et correspond aux objectifs du consommateur. La publicité de McDonald's illustre parfaitement cette évolution du positionnement. McDonald's est parti de la propreté de ses restaurants et du bon goût de ses produits pour progresser vers le positionnement de lieu idéal pour les enfants, puis de lieu reconnu et apprécié par tous. Ces positionnements sont le fondement d'une des publicités de McDonald's aux Etats-Unis, axée sur l'essence même de la marque. Dans le film, un jeune homme a un rendez-vous sur le pas de sa porte avec une inconnue. Il essaie immédiatement de la séduire en lui expliquant qui il est et qui il n'est pas. Il la prévient qu'il n'est ni docteur, ni avocat, ni banquier, ni expert-comptable, mais vendeur dans un magasin de disques. Il lui annonce qu'il
ne l'invitera certainement pas à dîner dans une brasserie, un drugstore ou une trattoria, qu'il ne l'emmènera ni au théâtre, ni à l'opéra et qu'ils n'iront ni écouter une symphonie, ni voir un ballet. En revanche, il lui propose un cinéma et un McDonald's. Les points de complémentarité entre la marque et les préoccupations du jeune homme, sa voiture et ses distractions favorites montrent que McDonald's est par essence une marque sans prétention destinée à tout un chacun. On retrouve probablement là le point de parité entre la marque et l'objectif du consommateur qui est d'apprécier un repas sans prétention. Ce positionnement est schématisé dans la figure 2. Plusieurs aspects du positionnement bâti sur les objectifs méritent d'être clarifiés. En effet, une marque peut très bien revendiquer un bénéfice abstrait résumant toute son essence sans avoir parcouru tous les échelons du laddering. Néanmoins, cette technique a l'intérêt de renforcer la crédibilité des promesses abstraites de la marque. De la même manière, il n'est pas absolument nécessaire que la marque soit associée à d'autres objets incarnant son essence, bien que cette approche soit hautement représentative de la façon dont les consommateurs la perçoivent. On peut très bien suggérer l'essence de la marque au consommateur en lui présentant plusieurs de ses facettes pour qu'il comprenne parfaitement sa nature. Enfin, il arrive que des sociétés emploient un positionnement fondé sur l'essence de la catégorie de produits plutôt que sur celle de la marque. Cette approche est basée sur la connaissance des objectifs du consommateur dans sa façon d'utiliser la catégorie de produits en général plutôt qu'une marque particulière. Regardez la publicité de Lee qui montre toutes les contorsions qu'il faut faire pour entrer dans un jean. Même les femmes les plus minces se battent pour enfiler le leur, sans oublier ce jeune homme svelte qui chante et dont la voix monte de plusieurs octaves après qu'il a réussi à remonter sa fermeture Eclair. Ces images ne montrent nullement que les jeans Lee contribuent à résoudre le problème des consommateurs. Néanmoins, la description amusante de l'expérience vécue avec les jeans en général et la connaissance implicite des objectifs des consommateurs renforcent leur préférence pour la marque. Toutes choses étant égales par ailleurs, les consommateurs en déduisent que, si une marque comprend aussi bien leurs problèmes et leurs objectifs, elle ne peut que leur offrir une solution séduisante. Plus les sociétés adhèrent à ce type de positionnement, plus les études de marché sur la façon dont les produits s'intègrent à notre vie quotidienne foisonnent. Dans certains cas, elles consistent à procéder à des «fouilles archéologiques» dans les placards de la ménagère et, dans d'autres, à s'assimiler à «la tribu» par l'observation de ses rites de consommation. Ces études ont donné des résultats intéressants. Ainsi, Kraft a découvert que si les femmes débordées trouvent encore du temps pour cuisiner pour leurs amis et leur famille aujourd'hui, ce n'est plus pour les mêmes raisons. Elles songent moins à prouver aux autres leurs talents de parfaites maîtresses de maison qu'à se divertir. Le positionnement du fromage Velveeta n'est donc plus de faire plaisir aux autres, mais de s'amuser en recevant les autres. Une parfaite connaissance des objectifs du consommateur permet aussi d'inverser le processus de laddering. Au lieu de partir des attributs de la marque et de progresser vers les objectifs du consommateur, on peut démarrer des valeurs du consommateur et redescendre vers les bénéfices de la marque. Intégrer les perspectives de positionnement Les concepts sous-jacents au positionnement fondé sur la concurrence ou les objectifs se résument, pour une marque qui s'adresse à un segment particulier du marché, à une proposition en termes de valeur (V) exprimée comme suit :
(FORMULE) Cette proposition est une définition plus conceptuelle que mathématique et sert surtout d'outil de comparaison. Elle permet aux professionnels du marketing, par exemple, d'examiner les valeurs respectives des marques qui s'adressent à une cible similaire ou d'analyser la valeur d'une marque dans tous les segments, soit à un moment précis, soit dans la durée. La différenciation en termes de bénéfices est illustrée par la performance moyenne obtenue sur un critère particulier et la variance par rapport à cette moyenne. L'Infiniti J30 de Nissan, par exemple, met en exergue le bénéfice de la qualité, d'une part, parce qu'il obtient de meilleurs scores en termes de style, de confort et de performance du moteur dans sa catégorie et, d'autre part, parce que les perceptions du consommateur vis-à-vis du J30 sont invariantes. Le numérateur de cette proposition tient également compte des bénéfices psychologiques. Ils résultent du développement de la relation entre la marque et un objectif important aux yeux du consommateur. En matière d'automobile, il peut s'agir du sentiment de sécurité, de prestige, etc. Par conséquent, le numérateur intègre à la fois les bénéfices fonctionnels et les objectifs plus abstraits servis par la marque. Le dénominateur, lui, reflète les coûts d'acquisition des bénéfices définis au numérateur. Ceux-ci englobent le prix d'achat et le temps lié à l'acquisition et à l'utilisation d'un produit. Depuis une dizaine d'années, le temps de travail augmente au détriment de celui réservé aux loisirs. Il en résulte une pénurie de temps : les consommateurs sentent qu'ils n'arrivent plus à assumer tout ce qu'ils doivent faire. Pour répondre à cette situation, ils adoptent dans la majorité des cas un comportement «multitâche». Ils téléphonent ou mangent en conduisant et font de l'exercice physique en allant au bureau. Cet état de fait permet aux marques de répondre à des objectifs plus larges que ceux strictement liés à la nature de leur catégorie. Prenons l'exemple de Virgin Atlantic Airways. Cette compagnie aérienne satisfait les demandes fondamentales des hommes d'affaires qui voyagent. Elle les conduit autour du monde en respectant les horaires prévus, dans des conditions confortables et à des prix intéressants. Ce qui fait sa particularité, c'est d'avoir su transformer les vols en moments de distraction. Les passagers peuvent en effet se rencontrer dans un salon à bord de l'appareil et profiter de toute une gamme de services tels que les massages. Virgin Atlantic Airways satisfait ainsi simultanément plusieurs de leurs attentes. Résumé Un produit mal positionné, aussi excellent soit-il, risque de rester dans les rayons. Pour Alice Tybout et Brian Sternthal, le positionnement se résume à quatre règles fondamentales : il faut définir clairement la marque à l'intérieur d'une catégorie de produits ; la différencier nettement des autres produits de sa catégorie pour le marché visé ; développer la connaissance du bénéfice de la marque par le consommateur pour qu'il établisse la relation avec ses propres objectifs ; enfin, défendre le positionnement de la marque dans le temps. A l'instar des autres éléments du marketing, le positionnement est un art et les
professionnels qui appliqueront les «4 D» augmenteront leurs chances de réussite. Eviter le «D» du déclin Même si les principes du positionnement sont parfaitement compris, il existe encore toute une série d'obstacles susceptibles d'entraver leur mise en oeuvre. * Le choix des objectifs Quand on veut pénétrer dans une catégorie de produits où il existe déjà des marques bien implantées, toute la difficulté est de trouver un point de différenciation viable. Il arrive souvent que la supériorité revendiquée par le nouvel arrivant ne soit pas importante pour le consommateur. Ainsi, plusieurs marques d'analgésiques ont constaté que les consommateurs n'adhéraient pas à leur promesse d'effet durable ou de posologie moins contraignante. En règle générale, la priorité du consommateur est un soulagement immédiat plutôt que durable. De plus, la longévité de l'effet laisse supposer que l'action sera lente, ce qui est l'inverse du but recherché. Un autre type de problème se pose lorsqu'un bénéfice sur lequel une société s'appuie est important aux yeux de consommateurs qui ne sont justement pas ceux qui déterminent le choix de la marque. Par exemple, plusieurs marques de céréales se sont positionnées au cours des vingt dernières années comme des aliments à haute valeur nutritionnelle pour les enfants. Or, cet élément différenciateur s'adresse aux acheteurs de la catégorie de produits tandis que la demande est prescrite par les enfants dont le premier intérêt est le goût et non la nutrition. La solution pour contourner le problème consiste à revendiquer plusieurs bénéfices en espérant que chacun y trouvera son compte. Cette approche sert d'ailleurs de compromis lorsqu'il y a des divergences de stratégies. Cependant, elle n'est pas sans risque car plusieurs promesses peuvent s'annihiler. Les consommateurs sont sceptiques, par exemple, face aux produits qui se targuent d'allier haute qualité et prix bas. La diversité des avantages revendiqués risque en outre de créer une confusion dans l'esprit du consommateur qui n'arrive plus à définir la nature du produit, comme nous l'avons vu dans le cas de l'envoy. Le succès du Palm Pilot était dû dans une certaine mesure au fait que Robotics avait parfaitement compris qu'en termes d'avantages, qui peut le plus peut le moins. De façon plus générale, un positionnement articulé sur plusieurs bénéfices invite le consommateur à déterminer lui-même le positionnement de la marque. Or, il n'optera pas forcément pour celui qui est le plus favorable à la marque. Enfin, un bénéfice peut manquer de force à cause de la nature de la catégorie de produits à laquelle il se rattache. Si l'on prend le cas des boissons, le goût est généralement l'élément le plus important et les grandes marques revendiquent leur supériorité dans ce domaine. En revanche, pour les boissons énergétiques, le bénéfice primordial attendu est un effet revigorant. Ainsi, malgré les tests montrant que All Sport avait meilleur goût que Gatorade, la marque s'est demandé si elle pouvait exploiter ce bénéfice comme élément différenciateur étant donné qu'il n'est pas déterminant dans sa catégorie de produits. Avec une telle particularité, All Sports courait le risque d'être assimilé à une boisson ordinaire et non à une boisson énergétique. * Une défense organisée Une fois qu'un positionnement est adopté, il faut ensuite le maintenir au goût du
jour. Les céréales Grape Nuts, par exemple, se sont positionnées depuis leur lancement au début du siècle comme un produit pour une alimentation saine. Ce positionnement n'a pas changé et son succès repose sur sa capacité à actualiser sa promesse. Le maintien d'un bénéfice dans le temps fait souvent obstacle à l'entrée de nouveaux adversaires sur le marché. Duracell, par exemple, défend le positionnement longue durée de ses piles à l'aide de pages publicitaires présentant un lapin mécanique continuant de fonctionner alors que tous les autres jouets alimentés par des piles de marques concurrentes se sont arrêtés. Quand Eveready a repris à son compte le positionnement de longévité de Duracell et a, de plus, parodié la publicité utilisée par Duracell depuis des années, c'est la part de marché de Duracell qui a augmenté et non celle d'eveready. Dans l'esprit des consommateurs, les piles longue durée restaient assimilées à Duracell. Bien qu'un positionnement bien établi dans le temps constitue un véritable obstacle à la pénétration du marché par d'autres, les sociétés ont souvent tendance à l'abandonner pour répondre à des changements mineurs intervenus dans la demande des consommateurs ou pour générer du volume supplémentaire pour leur marque. Ainsi, quand les consommateurs se mirent soudain à désapprouver le sucre dans les céréales de leurs enfants, plusieurs marques durent changer leur nom qui incluait le mot «sucre». Ce faisant, elles s'éloignèrent de leur capital et, comme l'on peut s'en douter, virent leurs ventes s'effondrer. Dans un autre registre, une marque de barres diététiques que les consommateurs achetaient essentiellement comme substitut de repas eut l'idée d'augmenter son chiffre d'affaires en se présentant comme un en-cas. Ce changement eut pour effet de dérouter les consommateurs qui se demandaient comment un produit pouvait servir à la fois d'en-cas et de substitut de repas et un concurrent profita de cette confusion pour revendiquer sa qualité de substitut de repas. En modifiant leur positionnement, ces barres ont supprimé leur principale occasion de consommation, laissant l'acheteur perplexe sur la quantité convenable pour un en-cas (sachant que la marque recommandait deux barres par repas). A l'instar de la phase finale dans un jeu d'échecs, la défense du positionnement de la marque exige de la concentration, de la réflexion et des nerfs d'acier. A défaut, on risque d'avoir une mauvaise surprise : un cinquième «D», pour déclin. Plus les sociétés adhèrent à ce type de positionnement, plus les études de marché sur la façon dont les produits s'intègrent à notre vie quotidienne foisonnent. Dans certains cas, elles consistent à procéder à des «fouilles archéologiques» dans les placards de la ménagère et, dans d'autres, à s'assimiler à «la tribu» par l'observation de ses rites de consommation. Ces études ont donné des résultats intéressants. Ainsi, Kraft a découvert que si les femmes débordées trouvent encore du temps pour cuisiner pour leurs amis et leur famille aujourd'hui, ce n'est plus pour les mêmes raisons. Elles songent moins à prouver aux autres leurs talents de parfaites maîtresses de maison qu'à se divertir. Le positionnement du fromage Velveeta n'est donc plus de faire plaisir aux autres, mais de s'amuser en recevant les autres. Une parfaite connaissance des objectifs du consommateur permet aussi d'inverser le processus de laddering. Au lieu de partir des attributs de la marque et de progresser vers les objectifs du consommateur, on peut démarrer des valeurs du consommateur et redescendre vers les bénéfices de la marque. Bien intégrer ces concepts Les concepts sous-jacents au positionnement fondé sur la concurrence ou les objectifs se résument, pour une marque qui s'adresse à un segment particulier du marché, à une proposition en termes de valeur (V) exprimée comme suit :
Cette proposition est une définition plus conceptuelle que mathématique et sert surtout d'outil de comparaison. Elle permet notamment aux professionnels du marketing d'examiner les valeurs respectives des marques qui s'adressent à une cible similaire ou d'analyser la valeur d'une marque dans tous les segments, soit à un moment précis, soit dans la durée. La différenciation en termes de bénéfices est illustrée par la performance moyenne obtenue sur un critère particulier et la variance par rapport à cette moyenne. L'Infiniti J30 de Nissan, par exemple, met en exergue le bénéfice de la qualité, d'une part, parce qu'il obtient de meilleurs scores en matière de style, de confort et de performance du moteur dans sa catégorie et, d'autre part, parce que les perceptions du consommateur vis-à-vis du J30 sont invariantes. Le numérateur de cette proposition tient également compte des bénéfices psychologiques. Ils résultent du développement de la relation entre la marque et un objectif important aux yeux du consommateur. En matière d'automobile, il peut s'agir du sentiment de sécurité, de prestige, etc. Par conséquent, le numérateur intègre à la fois les bénéfices fonctionnels et les objectifs plus abstraits servis par la marque. Le dénominateur, lui, reflète les coûts d'acquisition des bénéfices définis au numérateur. Ceux-ci englobent le prix d'achat et le temps lié à l'acquisition et à l'utilisation d'un produit. Depuis une dizaine d'années, le temps de travail augmente au détriment de celui réservé aux loisirs. Il en résulte une pénurie de temps : les consommateurs sentent qu'ils n'arrivent plus à assumer tout ce qu'ils doivent faire. Pour répondre à cette situation, ils adoptent dans la majorité des cas un comportement «multitâche». Ils téléphonent ou mangent en conduisant et font de l'exercice physique en allant au bureau. Cet état de fait permet aux marques de répondre à des objectifs plus larges que ceux strictement liés à la nature de leur catégorie. Prenons l'exemple de Virgin Atlantic Airways. Cette compagnie aérienne a voulu satisfaire les demandes fondamentales des hommes d'affaires qui voyagent. Elle les conduit autour du monde en respectant les horaires prévus, dans des conditions confortables et à des prix intéressants. Ce qui fait sa particularité, c'est d'avoir su transformer les vols en moments de distraction. Les passagers peuvent en effet se rencontrer dans un salon à bord de l'appareil et profiter de toute une gamme de services tels que les massages. Virgin Atlantic Airways satisfait ainsi simultanément plusieurs de leurs attentes. Accroître la fiabilité des prévisions L'analyse des méthodes empiriques utilisables a permis aux chercheurs de dégager des principes essentiels pour améliorer les prévisions. J. SCOTT ARMSTRONG Les problèmes de prévision sont monnaie courante en marketing : la Coccinelle de Volkswagen sera-t-elle un succès? Le palais des congrès de Philadelphie sera-t-il rentable? Comment notre principal concurrent va-t-il réagir si nous augmentons le prix de notre produit de 10 %? Et si nous réduisions la publicité de 20 %? Quelle est la valeur d'une firme en fonction de ses bénéfices futurs? Les entreprises doivent anticiper la demande des produits ou des services qu'elles offrent. Elles doivent également prévoir les mesures importantes qui seront prises par leurs concurrents, leurs fournisseurs, ou l'etat. Ces décisions, tout comme la
politique de l'entreprise, vont avoir une incidence sur les coûts et les parts de marché. Or, ce sont les parts de marché et les prévisions qui permettent à une entreprise de pronostiquer ses ventes. Les erreurs de prévision peuvent avoir des conséquences néfastes et aboutir, par exemple, à une surcapacité, à une sous-capacité, à des excédents de stock ou à des invendus. S'il est impossible de les éliminer totalement, on peut toutefois accroître la fiabilité des prévisions en appliquant quelques principes reconnus. Issus de la recherche, ceux-ci indiquent quelles méthodes utiliser et précisent les conditions de leur utilisation optimale. Malheureusement, peu de sociétés y ont recours, préférant se fier à leur intuition. Lorsque je demande à des professionnels ce qui pourrait les convaincre d'essayer une nouvelle méthode de prévision, ils me répondent souvent qu'ils veulent savoir quelle méthode a déjà fait ses preuves. Au cours des vingt dernières années, de nombreux chercheurs ont comparé la fiabilité de différentes méthodes en situations réelles. En 1979, Spyros Makridakis, professeur à l'insead, a lancé une étude comparative devenue la référence en la matière et connue plus tard sous le nom de «M-Competition Studies». La quatrième étude de la série est actuellement en cours et regroupe 3.003 données historiques, économiques, démographiques et commerciales. Comme lors des précédentes études, des chercheurs et des spécialistes de la prévision commerciale ont été invités à soumettre leurs prévisions pour chaque donnée. Un arbitre juge ensuite de la fiabilité de la méthode employée, l'objectif étant de déterminer les méthodes qui s'appliquent le mieux à tel ou tel type de données. En 1996, avec trente-neuf autres chercheurs, j'ai lancé un projet visant à examiner les conclusions de ces recherches empiriques. Nous voulions les traduire en principes qui permettraient aux professionnels de choisir la méthode la plus adaptée à leur contexte. La tâche s'est avérée bien plus ardue que prévu, notamment parce que les conditions n'avaient pas été définies avec suffisamment de soin, mais nous avons tout de même progressé de façon significative. Les méthodes Certaines méthodes s'appliquent au traitement des informations faisant appel au jugement, d'autres aux données statistiques. On peut les classer ainsi : - JUGEMENT : Intentions Jeux de rôles Analyse conjointe Opinion d'experts Analogies Appel à l'intuition - STATISTIQUES : - Extrapolation - Prévision à base de règles - Systèmes experts - Modèles économétriques - - Les études d'intentions consistent en des sondages sur les comportements potentiels dans une situation donnée, comme, par exemple, les réactions face à un nouveau Coca. Elles sont particulièrement utiles pour prévoir les ventes de nouveaux produits, mais peuvent aussi aider aux prévisions sur les produits existants. Le fait d'avoir un rôle à jouer peut avoir une forte influence sur le comportement : on peut ainsi demander à quelqu'un de jouer un rôle. Par exemple, «Coca-Cola vous plaît tel qu'il est. Vous apprenez que votre marque préférée va être retirée du marché, et vous
retrouvez vos amis qui sont tous des consommateurs fidèles de Coca-Cola. Comment réagissez-vous?» Si vous voulez savoir quels sont les facteurs qui jouent sur les intentions d'achat, des méthodes telles que l'analyse de régression vous permettent d'établir une corrélation entre certaines caractéristiques du nouveau produit et les intentions déclarées. On pourrait ainsi soumettre à des consommateurs potentiels vingt avant-projets différents pour un nouveau produit et les interroger sur leurs intentions d'achat pour chacun. Cette méthode, que l'on appelle analyse conjointe, est communément utilisée. On peut demander à des experts de prévoir les réactions des consommateurs dans une situation donnée, notamment lorsqu'ils ont l'expérience de cas similaires. Par exemple, connaissent-ils une situation susceptible d'être rapprochée du lancement d'un nouveau Coca? Il est aussi possible de mettre au point un modèle d'expert. Plusieurs experts sont invités à faire des prévisions pour chaque version possible du produit. La démarche s'apparente à un système expert et est baptisée «appel à l'intuition» («judgmental boot- strapping»). Peu coûteuse, elle présente des avantages considérables lorsqu'on doit faire de nombreuses prévisions faisant appel au jugement, en matière de recrutement par exemple. Les Dallas Cowboys y ont eu recours pour la sélection de leurs joueurs. L'extrapolation se fonde sur les résultats antérieurs d'une série pour prévoir les données futures. On peut de cette façon, sur la base du nombre de litres de Coca-Cola vendus aux Etats-Unis au cours des cinquante dernières années, extrapoler les ventes à venir. C'est la méthode de prévision la plus utilisée pour la gestion de la production et des stocks. Mais elle ne tient pas compte des informations détenues par les dirigeants, lacune qui conduit à de graves erreurs, notamment quand des changements sont prévus, comme le lancement d'un nouveau Coca-Cola. Ce défaut disparaît avec la prévision à base de règles, une sorte de système expert qui tient compte des connaissances des dirigeants en les intégrant aux extrapolations. Cette méthode permet d'évaluer les prévisions obtenues grâce aux extrapolations classiques en utilisant à la fois les connaissances des dirigeants et l'historique de données. Les systèmes experts sont tout à fait adaptés aux données autres que les données historiques. Supposons que l'on veuille obtenir des prévisions de vente pour plusieurs articles d'un catalogue de vente par correspondance : la formalisation des règles définies par un expert élimine le coût de la répétition des pronostics et améliore la cohérence. Le recours aux experts les plus compétents dans le domaine concerné (ceux qui ont fait les prévisions les plus justes dans la vente par correspondance) garantit une précision accrue par rapport aux résultats qu'obtiendrait l'expert lambda. Pourquoi ne pas utiliser la somme des informations disponibles, et confier à un modèle statistique tel que la régression le soin de déterminer les facteurs importants? Les chercheurs essaient de mettre fin à la quadrature du cercle depuis des décennies, tandis que les progrès en matériel informatique et en logiciels ont contribué à l'avènement de méthodes toujours plus sophistiquées. Les innombrables études théoriques issues de la recherche n'ont donné pour l'instant que des résultats décevants en matière de prévision. Deux règles d'or en ressortent : il ne faut pas élaborer de modèle sur la seule base de l'information disponible, et ne jamais utiliser l'analyse de régression pas-à-pas («stepwise regression»).
Les modèles économétriques les plus efficaces reposent essentiellement sur des théories plus anciennes. Ils font appel à des estimations de corrélations tirées de recherches antérieures et intégrent - en principe - les informations détenues par les décideurs. La simplicité doit être le maître mot. Pour en juger, il suffit d'appliquer un autre principe de base : si malgré des efforts certains, vous ne comprenez pas complètement le modèle prévisionnel, ne l'utilisez pas. Les modèles économétriques sont l'outil le plus sophistiqué pour l'intégration des informations relevant à la fois du jugement et des données statistiques. En outre, ils permettent d'établir des pronostics en fonction de stratégies différentes, et prévoient ce qui peut se passer si, par exemple, Coca-Cola mène une politique de prix bas à long terme. Les principes Le nombre de principes est tel que nous ne pouvons en donner que quelques exemples. Mais ils sont présentés dans leur intégralité dans notre «Forecasting Principles Project», et les informations sont consultables sur www.marketing.wharton.uppen.edu/forecast, (A VERIFIER) qui est également lié à d'autres sites sur le même sujet, comme celui du International Institute of Forecasters. Certains des principes vont à l'encontre d'idées largement répandues : - Si l'on dispose des prévisions établies par un individu (sur les ventes d'un article de VPC par exemple) et de l'information qu'il a utilisée, on peut faire des prévisions plus précises que cette personne. Tout le monde pense qu'il y a des exceptions à cette règle, mais les chercheurs n'en ont pas trouvées. - Le critère de sélection du meilleur modèle ne doit pas être sa pertinence historique. - En dépit de mises en garde, on tend à accorder aux prévisions une confiance excessive. D'autres principes apparemment évidents sont souvent oubliés, comme celui qui recommande d'utiliser un historique long dans l'élaboration d'un modèle de prévision. La prévision ciblée («focus forecasting»), qui est pourtant l'une des méthodes les plus utilisées en marketing, ne le respecte pas, et ses résultats sont donc peu fiables. Un autre principe veut que l'on veille à l'indépendance des prévisions d'un sujet par rapport à celles d'un autre lorsque le comportement examiné n'entraîne aucune interaction. Or les focus groupes vont totalement à l'encontre de ce principe et les prévisions qui en émanent sont rarement justes. Une autre règle veut que l'on tienne compte de l'avis des décideurs. La plupart des méthodes d'extrapolation y dérogent, et c'est encore plus grave lorsque les tendances annoncées par les données sont contraires à ce à quoi s'attendent les dirigeants. Le choix de la méthode est fonction des conditions : si les informations sont insuffisantes, les modèles fondés sur le jugement s'imposent ; dans le cas contraire, on peut utiliser les méthodes statistiques, et il est souvent possible de panacher les deux.
- La prévision faisant appel au jugement En général, la manière la plus simple et la plus directe de procéder consiste à demander à un expert de se prononcer sur l'avenir. La méthode est particulièrement indiquée lorsque l'on dispose de peu de données, pour le lancement de nouveaux produits par exemple. Comment prévoir les ventes de films à la carte, l'avenir des achats par Internet, ou le lancement d'un nouveau jouet? Les prévisions des experts reposent sur quelques fondements clés : - L'objet de la prévision doit être structuré de manière à tirer le meilleur parti des connaissances de l'expert. Pour cela, il peut être nécessaire de le subdiviser en une série de questions à résoudre. - Le problème doit être formulé par écrit et libellé de manière compréhensible. - D'autres formulations doivent être proposées par écrit. - Le nombre d'experts doit être au minimum de cinq, mais ne doit pas excéder vingt. - Il faut veiller à ce que les experts ne reçoivent aucune incitation de nature à compromettre leur objectivité. - Chaque expert devra être invité à proposer sa propre prévision. - Il est préférable de choisir des experts aux profils différents. - Les experts doivent être choisis en fonction de leur connaissance du domaine (bien qu'un niveau élevé d'expertise ne soit pas indispensable). - Chaque expert doit pouvoir réviser son jugement en fonction des informations fournies par ses homologues. - La procédure Delphi, une méthode à base d'études d'experts indépendants en plusieurs phases, reprend tous ces principes. Hormis le nombre d'experts, les règles énoncées dans cette liste peuvent paraître évidentes. Pourtant, les focus groupes dérogent au principe de la formulation écrite des problèmes ; c'est d'ailleurs une raison supplémentaire pour ne pas les utiliser comme méthode prévisionnelle. Le recours aux experts montre, contrairement à ce que l'on pourrait croire, que leur niveau d'expertise n'a pas besoin d'être élevé. Pour des prévisions portant sur la situation économique, un professeur d'université peut être tout aussi compétent que l'expert le plus cher. Autre constat déprimant : les étudiants peuvent prévoir les changements presque aussi bien que leurs enseignants. Certaines prévisions impliquent l'intervention d'autres décideurs : la négociation d'un contrat fournisseur-distributeur, les décisions du gouvernement en matière de tarifs douaniers ou de réglementations, les accords avec les syndicats. Si le même type de décisions externes intervient régulièrement, l'expert devrait être en mesure de prévoir les conséquences des décisions qui vont être prises. En revanche, en cas de conflit entre les personnes ou organisations en présence, les jeux de rôle sont conseillés. Les rôles sont attribués et les acteurs invités à représenter les parties en situation de conflit. Si la méthode semble avoir fait ses preuves dans les domaines juridique et militaire, elle semble moins probante dans le monde des affaires. Mais la recherche dans ce domaine a déjà permis des progrès importants en matière de fiabilité comparé à des démarches plus classiques. Prenons l'exemple
d'une étude devant déterminer si un fabricant d'électroménager parviendrait à convaincre une chaîne de supermarchés d'adopter un plan de vente de ses produits. Seuls 3 % des experts pensaient que le supermarché serait intéressé, les autres jugeant le plan peu réaliste. Or, lors des jeux de rôle, les décideurs l'acceptaient dans 75 % des cas, et le plan de vente fut effectivement adopté par le supermarché. Autre conseil : en matière de prévision, ne vous aventurez pas trop loin d'un terrain familier. Si vous prévoyez de grands changements, il peut être utile de sonder les intéressés sur leurs réactions, en utilisant des études d'intention. Supposons que vous ayez conçu un nouveau produit, et que vous souhaitiez en prévoir les ventes. Vous pourriez décrire le produit et interroger des consommateurs sur leurs intentions d'achat éventuelles. Les méthodes classiques appliquées dans les sondages sont essentielles pour les études d'intention d'achat. La conception ou le prix d'un produit que l'on s'apprête à lancer sont des éléments qui peuvent varier. Ce type de variables peut alors être intégré à une méthode formalisée visant à évaluer la valeur des différents éléments du design(avant-projet? conception?). L'analyse conjointe fait partie de ces outils ; elle consiste à proposer jusqu'à vingt designs(avant-projet?) différents du produit selon les priorités. Cette méthode est coûteuse parce qu'elle exige l'identification et le recueil de données auprès de nombreux consommateurs potentiels. L'appel à l'intuition («judgmental bootstrapping»), qui soumet à l'avis d'experts les différents designs(avant-projets?) du produit, est une autre méthode possible. Comme pour les études, le nombre d'experts varie entre cinq et vingt. La prévision des ventes sur un nouveau produit peut alors faire jouer non seulement les paramètres de conception, mais aussi d'autres composantes du marketing-mix, comme la publicité ou la distribution, ce qui est impossible avec l'analyse conjointe. - Prévision statistique Les entreprises disposent souvent de nombreuses données sur les ventes de leurs produits. Elles peuvent s'en servir pour des extrapolations, stratégie particulièrement indiquée lorsque les décideurs ont peu d'informations sur le contexte. L'éventail de méthodes d'extrapolation étant assez large, le principe le plus utile consiste sans doute à (la meilleure procédure est peutêtre de???) tirer des prévisions d'un ensemble de modèles valables d'extrapolation et d'en faire ensuite une moyenne. Lorsque les décideurs ont suffisamment d'informations sur la situation, les prévisions à base de règles sont plus appropriées. Cette méthode reprend les principes les plus récents en matière de prévision sur des données historiques, et tient compte des informations émanant des décideurs, notamment sur les tendances. L'un des principes de base - hélas souvent oublié par de nombreux analystes - repose sur l'utilisation des connaissances acquises. Si l'on dispose de connaissances empiriques sur la relation entre plusieurs variables, il convient de les traduire en modèle économétrique. Pour prévoir les ventes de Coca-Cola, par exemple, il faudrait tirer parti des informations existantes sur les revenus et l'élasticité des prix. Utiliser les prévisions Certains principes dépendent de l'utilisation des prévisions. Le fait d'avoir recours à des prévisions crée ainsi souvent un excès de confiance. Les
dirigeants de Ford étaient convaincus que la Ford Edsel se vendrait très bien, contrairement aux analystes extérieurs, plus sceptiques. L'excès de confiance peut être tempéré par l'application de certains principes, par exemple en demandant aux experts d'expliquer par écrit toutes les raisons pour lesquelles les prévisions peuvent être fausses. Une évaluation plus réaliste en découle, même si elle ne suffit pas à résoudre le problème. On peut aussi évaluer la confiance que l'on peut accorder aux prévisions en faisant appel à des experts qui n'ont rien à perdre ni à gagner de leurs prévisions. Il est souvent important d'évaluer des modèles alternatifs dans une situation donnée. Pour le faire correctement, il faut respecter certains principes (comme utiliser la méthode actuelle comme repère) et prendre certaines précautions : inutile d'utiliser l'erreur médiane au carré pour évaluer les autres modèles. Les managers ont trop tendance à se laisser influencer par les scénarios ou par les «histoires» qu'on leur présente. Ces scénarios persuadent le lecteur que les événements décrits ont de grandes chances de se produire, même lorsque la probabilité est infime. Ils sont utiles pour attirer l'attention sur certains points et étudier un plan d'urgence, mais il faut se garder de les employer pour les prévisions. Il arrive que les experts aient déjà fait tout le travail à votre place. Un portefeuille d'actions sélectionné par un expert sera tout aussi rentable qu'un portefeuille choisi par une fléchette envoyée au hasard sur la page de la cote. Mais dans le cas de la fléchette, les prévisions (spéculations du marché) sont préparées par un grand nombre d'experts objectifs. Un dernier conseil : si vous voyez le terme de «focus», pensez «confusion de consommateurs» et prévisions floues. Conclusion L'analyse des méthodes les plus adaptées à telle ou telle situation a permis aux chercheurs de dégager des informations essentielles pour améliorer les prévisions. Ces connaissances sont désormais traduites en principes. Bien des chercheurs seraient prêts à améliorer les prévisions d'une entreprise sans demander d'honoraires fixes ; un faible pourcentage des économies réalisées serait déjà une excellente source de revenus, car les principes issus de la recherche conduisent à des prévisions sensiblement plus justes. Résumé La prévision est l'une des préoccupations majeures des responsables du marketing. De nombreuses méthodes sont à leur disposition, mais lesquelles appliquer et dans quelle situation? Jusqu'où peut-on faire confiance aux résultats? Bien des entreprises se fient à leur intuition pour répondre à ces questions et commettent, d'après Scott Armstrong, une erreur coûteuse. Des principes issus de la recherche orientent le choix de la méthode et de l'utilisation des résultats. Si certains d'entre eux sont anti-intuitifs, d'autres relèvent du simple bon sens. Les sociétés qui se donnent la peine de les utiliser feront de meilleures prévisions, et donc plus de bénéfices.
Jongler avec les segments de marché Les responsables du marketing doivent bien connaître leurs clients et notamment les arbitrages que font les consommateurs au moment d'un achat. Pour ce faire, la segmentation du marché et l'analyse conjointe se révèlent utiles. PAUL E. GREEN ET ABBA M. KRIEGER Supposons que vous êtes le directeur d'une chaîne hôtelière à succès ; que vous avez des hôtels dans le monde entier et que vous cherchez de nouveaux créneaux. Vous vous demandez s'il existe une demande pour un nouveau concept d'hôtels sur une niche que votre entreprise n'occupe pas encore : un hôtel pour hommes d'affaires ou pour touristes attentifs à leur portefeuille par exemple. Puis une foule de questions vous submerge : quels seraient les options et les équipements les plus à même de vous assurer le positionnement le plus compétitif? Quelle est la meilleure stratégie d'implantation? La meilleure politique de tarification? A quoi les nouveaux hôtels doivent-ils ressembler pour qu'ils se démarquent clairement des autres? Quels sont les services à proposer en sus de la simple chambre pour la nuit? Et d'ailleurs, pour la chambre elle-même, quels sont les services qui priment, et comment arbitrer entre un service particulier et son prix (par exemple, si le prix à la nuit est moins élevé, il faudra peut-être supprimer la télévision par câble)? Quels sont les clients que nous pourrons gagner à nos concurrents, et dans quelle mesure n'allons-nous pas cannibaliser nos propres activités? Comment formuler nos messages promotionnels? Avons-nous pleinement confiance en nos segments de marché et en notre stratégie globale? Telles étaient les questions que se posait la direction de la chaîne hôtelière Marriott au début des années 80, à l'époque où elle pensait déceler de nouveaux créneaux. Son étude d'opportunité a conduit la chaîne à mettre en place une stratégie tournée vers le marché et orientée client. Le résultat parle de lui-même : la chaîne Courtyard qui a été alors créée compte aujourd'hui plus de 300 hôtels, dégage un chiffre d'affaires de plus de 1 milliard de dollars et emploie plus de 15.000 personnes. Les décisions de Marriott ont reposé sur la segmentation du marché et l'analyse conjointe, deux méthodes largement répandues, mais qui ne sont pas toujours appréciées à leur juste valeur, notamment parmi les hauts responsables d'autres entreprises. La segmentation La segmentation est l'art et la science de diviser les populations ou les objets en groupes distincts. L'idéal est que chaque groupe se différencie des autres et que tous soient représentés. Les individus sont plus ou moins similaires dans chaque groupe, et, à l'inverse, ils se démarquent clairement de ceux des autres sousensembles. La segmentation peut être utilisée pour repérer des niches, éliminer les concurrents ou jeter les bases d'un nouveau produit. Les segments peuvent être définis en fonction de plusieurs caractéristiques. Ils peuvent être composés d'individus, de foyers, d'entreprises, de codes postaux ou de villes. Ils peuvent aussi être établis d'après les comportements des consommateurs et sont alors constitués de marques, de catégories de produits données, de conditions d'utilisation, de profils d'utilisateurs types, d'avantages, de besoins, de problèmes à résoudre ou des caractéristiques des produits. La difficulté pour les entreprises consiste évidemment à segmenter de la manière la plus pertinente. Il ne suffit pas en effet de constituer des ensembles d'individus ou
d'objets uniquement en fonction des similitudes qui les rapprochent. A quoi servirait-il ainsi de regrouper, par exemple, tous les lecteurs des «Echos» ou tous les anciens élèves de la Wharton School? Le groupe doit être affiné, ce qui prend beaucoup de temps. Le degré de finesse dans la définition d'un groupe est fonction du montant des ressources que l'entreprise doit consacrer à cette tâche et à la conception du produit ou des services qui s'y rattachent. Pour être pertinents, les groupes doivent réagir différemment aux décisions prises par l'entreprise : le prix d'un produit, sa qualité, les méthodes de promotion ou de distribution suscitent des réactions particulières d'un groupe à l'autre. C'est l'analyse de ces comportements qui permettra d'adapter plus précisément la conception, le prix, la publicité ou la distribution. L'examen minutieux de ces «tranches» de marché ne doit pas faire oublier le prix à consentir pour atteindre chaque segment et mettre en oeuvre le plan formulé. Sonder l'opinion de tous les lecteurs des «Echos» sur la base d'un échantillon représentatif est tâche aisée ; mais si l'on segmente le groupe pour sélectionner les femmes âgées de 35 à 50 ans, occupant des postes à responsabilité dans des entreprises multinationales dont le chiffre d'affaires dépasse 5 milliards d'euros, notre approche du marché s'affine considérablement. Ainsi, la conception de produits ou de services et la définition de segments de marché sont les deux facettes de la même activité. D'un côté, pour un segment donné, il s'agit de concevoir le produit optimal, au meilleur prix, distribué dans les meilleures conditions, ainsi que le message et la stratégie publicitaires adéquats. De l'autre, pour un produit donné, il s'agit de trouver les segments les plus attractifs et de définir les plans marketing appropriés. Voici les éléments dont il faut tenir compte pour la segmentation du marché : - caractéristiques démographiques et socio-économiques ; - personnalité et mode de vie ; - utilisation et achat du produit ; - besoins ; - attitude à l'égard du produit et de sa consommation ; - avantages recherchés ; - comportement et attitude liés au marketing ; - réaction aux variables de marketing. Une méthode très répandue de segmentation du marché consiste à prendre en compte les besoins des acheteurs. Dans le cas d'une lessive, par exemple, les acheteurs peuvent vouloir : - qu'on n'en mette pas partout ; - qu'elle n'ait pas de parfum ; - qu'elle lave plus blanc ; - qu'on n'ait pas besoin de s'approvisionner trop souvent.
Tous ces besoins sont distincts, mais ils peuvent être combinés de différentes façons. Ainsi, on peut comparer son produit par rapport aux lessives concurrentes pour voir dans quelle mesure il répond à ces besoins et le fruit de nos analyses peut nous amener à : - créer une lessive liquide ; - créer une lessive sans parfum ; - créer une lessive avec Javel incorporée ; - proposer la lessive dans un conditionnement plus grand. Mais on peut aussi décider de ne rien faire si l'on ne peut satisfaire aucun des besoins des consommateurs de manière rentable. La manière dont on définit les segments et dont on utilise les données qui en émanent est une décision de première importance. Pour que les segments soient efficaces, il faut pouvoir en mesurer la taille et le pouvoir d'achat de manière sûre. Ils doivent être rentables et on doit être en mesure de les satisfaire. Enfin, et c'est le plus important, les segments doivent être définis de manière à ce que l'on puisse mener ensuite des stratégies pour les attirer et les fidéliser. Les informations recueillies auprès des différents segments élargissent l'éventail des choix possibles. L'entreprise doit déterminer si le coût des changements demandés par les segments peut être au minimum compensé par la hausse attendue du chiffre d'affaires et des bénéfices. Elle doit également définir la meilleure stratégie, qu'il s'agisse d'élargir la gamme de produits, d'éliminer ou de repositionner les offres existantes. La complexité est d'autant plus grande que ces analyses portent sur un monde qui n'est pas statique. La concurrence peut très bien avoir accès au même type de données et introduire des changements sur le marché au même moment. Quant aux réactions obtenues auprès de nos segments, elles ne sont que des opinions exprimées à un moment donné et sont donc susceptibles de changer. L'analyse conjointe L'analyse conjointe est un outil sophistiqué de mise en oeuvre de stratégies de segmentation du marché. Utilisée par la plupart des sociétés de Fortune 500, elle mesure les arbitrages des consommateurs lors d'un achat. On l'emploie essentiellement pour le développement de nouveaux produits, le repositionnement d'anciens produits et la fixation des prix. Revenons à notre lessive : le consommateur peut être prêt à payer un peu plus cher pour une lessive qui ne sente pas le savon tout en lavant plus blanc. L'avantage de l'analyse conjointe est qu'elle ne se contente pas d'expliquer ce que le consommateur apprécie dans un produit donné, mais qu'elle nous aide aussi à comprendre les raisons pour lesquelles il privilégie une marque ou préfère un fournisseur à un autre. Le principal intérêt de l'analyse conjointe est de décrire les produits et les services par une gradation de caractéristiques. L'acheteur attache plus ou moins d'importance aux niveaux de ces différentes caractéristiques, et porte ensuite son choix sur le produit qui offre la plus forte valeur totale, en additionnant tous les éléments d'appréciation positifs. Les différentes caractéristiques n'ayant pas toutes la même valeur aux yeux des consommateurs, les arbitrages varient. Ainsi, un client peut préférer la Javel incorporée à l'absence de parfum, tandis qu'un autre privilégiera une lessive qui lave plus blanc à une
lessive liquide. Le succès de cette méthode peut être attribué à quatre raisons principales : - L'analyse conjointe se fonde sur la mesure des préférences de l'acheteur en fonction des caractéristiques d'un produit (prix, qualité, etc.) et des avantages qu'il pense tirer de ces caractéristiques ; - C'est une technique de mesure basée sur la micro-analyse, les préférences pour les niveaux de caractéristiques étant mesurés au plan individuel ; - Les études conjointes s'accompagnent souvent d'un recueil d'informations générales sur les personnes sondées, qu'on peut ensuite relier aux divers éléments d'appréciation ; - Même les études les plus rudimentaires comprennent souvent une phase de simulation de choix de l'acheteur, au cours de laquelle le sondeur peut introduire de nouveaux profils de produits et voir qui choisit le vôtre et qui choisit celui de vos concurrents. Une fois que l'entreprise a recueilli les informations sur les besoins des acheteurs, elle doit prévoir les réactions éventuelles des clients potentiels aux changements, ainsi que celles - tout aussi importantes - de ses concurrents. Le succès d'une analyse conjointe passe par l'examen préalable du marché concurrentiel et par la définition de caractéristiques produit-service assignées à différents niveaux. Pour ce faire, on a souvent recours aux réunions de consommateurs, aux entretiens et à l'expertise en interne. La tâche se complique lorsque l'on se trouve, par exemple, face à neuf caractéristiques subdivisées elles-mêmes en trois ou quatre niveaux distincts. Les combinaisons se comptent alors par milliers : un cauchemar pour le chercheur en marketing. L'analyse conjointe peut employer des techniques de conception statistique pour sélectionner un nombre restreint de profils à partir duquel l'utilisateur peut prévoir les résultats de milliers de combinaisons qui n'ont pas été testées sur le terrain. Au terme du processus de sélection et d'application des modèles, les résultats sont doubles : on dégage d'une part les profils des produits et la rentabilité prévue pour chaque entreprise, et d'autre part une description de chaque acheteur qui choisit un profil de produit donné dans un large éventail de possibilités. Des techniques qui se sophistiquent La segmentation de marché et le positionnement des produits ont connu plusieurs changements récents : - L'élargissement croissant des critères de segmentation vers des données «moins exactes», telles que les attitudes et les besoins. C'est le cas pour le marketing grand public comme pour le marketing business-to-business. - La conscience accrue du lien étroit qui existe entre les critères de segmentation et l'objectif qu'on lui a assigné. Les clients d'une banque peuvent, par exemple, être segmentés selon le profil de leurs comptes, leur attitude face au risque, ou en fonction de variables socio-économiques. Le choix de chaque type de segmentation correspond à un objectif distinct : «cross-selling» (ventes croisées), préparation de message publicitaire, ou choix des médias utilisés.
- La tendance à «laisser les données parler d'elles-mêmes», c'est-à-dire à définir des segments en fonction de schémas repérés soit lors de sondages, soit dans les données de l'entreprise. Les méthodes dites de «data mining» sont devenues bien plus polyvalentes au cours des dix dernières années. - L'utilisation accrue de méthodes de segmentation «hybrides». Un brasseur pourra par exemple segmenter d'abord les consommateurs en fonction de leur marque préférée, puis, au sein de chaque groupe associé à une marque, affiner la segmentation en fonction de similitudes dans l'acte de consommation, comme les circonstances dans lesquelles les consommateurs boivent de la bière. - Le renforcement des liens entre la segmentation et le développement de nouveaux produits. Les modèles informatiques, en utilisant des informations sur les choix des caractéristiques par les consommateurs, sont aujourd'hui en mesure de trouver les meilleurs segments pour un produit donné ou, à l'inverse, le profil de produit le plus adapté à un segment donné du marché. - Le nombre croissant de modèles informatiques (fondés sur des données conjointes) capables de définir les caractéristiques optimales à ajouter à une gamme, et donc les produits qui représentent le meilleur compromis entre le risque de cannibalisation des produits existants et l'attrait des produits concurrents. - L'apparition de modèles dynamiques produit-segment qui tiennent compte d'une riposte éventuelle de la concurrence. Ces modèles analysent la vulnérabilité d'une entreprise aux réactions de ses concurrents à court terme et sélectionnent les combinaisons produit-segment susceptibles de mieux résister aux contre-offensives. - L'élaboration de méthodes de reconnaissance de schémas et de typologies de consommateurs qui, tout en sélectionnant des segments en fonction de données, respectent les contraintes fixées par la direction sur la taille minimum des segments et ses priorités sur des variables typologiques données. - Le développement de segmentations souples qui permettent au décideur d'assouplir une typologie fondée uniquement sur les besoins des acheteurs (en déplaçant un petit nombre d'individus d'un groupe à l'autre) ; l'objectif peut être d'accroître la prévisibilité d'une variable qui dépend d'un critère extérieur, comme, par exemple, la rentabilité d'un foyer pour une société qui propose des fonds communs de placement. Les dernières recherches en matière de positionnement de produit et de segmentation du marché se sont pour l'essentiel adaptées à la croissance du secteur des services et, partant, aux besoins accrus en termes de satisfaction et de fidélisation des clients. La segmentation et l'analyse conjointe sont tout aussi applicables aux services qu'elles le sont aux produits. Résumé Toute entreprise souhaite vendre ses produits ou ses services à un nombre plus important de clients. Mais aucune ne peut se permettre d'inonder le marché avec un nombre infini de variantes. Au contraire, elle doit proposer à chaque fois une offre ciblée. Dans cet article, Paul Green et Abba Krieger décrivent les deux techniques mises en oeuvre par les entreprises à cette fin : la segmentation du marché et l'analyse conjointe. La première est l'art de définir des groupes d'une manière qui soit utile pour les spécialistes du marketing ; tandis que la seconde permet d'optimiser les produits qui seront proposés à différents segments. Les auteurs évoquent, enfin, les dernières innovations en la matière.
De la conquête du linéaire au «category management» La concurrence entre produits est d'autant plus forte que les marques de distributeur se dotent progressivement d'un contenu marketing puissant et répondent à des intérêts stratégiques spécifiques. ANNE-SOPHIE BAYLE-TOURTOULOU L'assortiment constitue un enjeu majeur dans la relation entre l'industrie et le commerce. Si, pendant longtemps, les distributeurs se sont confinés à leur rôle de commerçants de grandes marques, il n'en est plus de même aujourd'hui où les linéaires des grandes surfaces se composent de marques nationales, de marques de distributeur et de premiers prix. Cette augmentation des types de produits offerts, couplée à un linéaire dont la législation freine l'expansion (en France, la loi Raffarin de 1996), contribue à renforcer la concurrence entre les différents acteurs. Cette quête de part de marché linéaire traduit encore l'asymétrie des relations entre fabricants et distributeurs, ces derniers demeurant possesseurs de l'espace de vente des produits de grande consommation. Mais, au-delà de considérations purement spatiales, le développement des marques de distributeur est source d'enjeux marketing nouveaux dont l'importance, combinée aux frontières fort évolutives de ce type de marques, joue sur les relations entre fabricants et distributeurs. La MDD, réalité plurielle Le vocable généraliste de marque de distributeur (MDD) masque en fait une réalité autrement plus complexe, faite de produits de différentes générations aux promesses marketing sans cesse enrichies. Trois générations successives ont ainsi vu le jour, rendant la concurrence avec les marques nationales plus effective et directe. Malgré quelques ancêtres datant du début du siècle, la première génération de MDD naît véritablement en 1976, année où Carrefour lance grâce à une grande campagne d'affichage ses fameux «Produits libres». Trois questions aux tonalités fort consuméristes ouvrirent cette campagne : - «On fait croire qu'un produit est meilleur simplement parce qu'il est plus cher. C'est ça la liberté?» - «On fait croire qu'un produit est meilleur simplement parce qu'il a un nom. C'est ça la liberté?» - «On fait croire qu'un produit est meilleur simplement parce qu'il a un beau paquet. C'est ça la liberté?» Deux jours plus tard, la réponse arrivait, cinglante : «Voici les Produits libres. Sans nom. Aussi bons. Moins chers. Chez Carrefour», et, avec elle, l'avènement des produits drapeaux (1), produits basiques, dépouillés, à la qualité équivalente selon les distributeurs, inférieure selon les fabricants, à celle des marques nationales. La deuxième génération de MDD apparaît au milieu des années 80 après que les distributeurs ont lancé des produits génériques vendus sans marques et positionnés comme des premiers prix. Pour éviter la confusion entre produits drapeaux et
produits génériques, née de la ressemblance de leurs packagings, les distributeurs décident alors de valoriser et d'engager le nom de leur enseigne sur leurs produits : c'est la naissance des marques d'enseigne qui demeurent, malgré tout, pour la plupart d'entre elles, de simples copies des marques nationales. L'enrichissement marketing des MDD de la deuxième génération s'effectuera à la fin des années 80 lors de l'arrivée des hard-discounters allemands en France. Avec la résurgence, dans les linéaires des grandes surfaces, des produits premiers prix pour contrer l'offensive allemande, les MDD se trouvent déboutées de leur positionnement économique initial : avec un prix de vente supérieur de 15 à 20 % à celui des premiers prix, elles ne peuvent en effet plus décemment revendiquer l'argument du meilleur prix. C'est le début d'une lente révolution marketing pour les MDD qui se fonde sur la recherche d'une qualité croissante pour donner toute sa valeur au positionnement du meilleur rapport qualité-prix qu'elles ont adopté. Cette option stratégique a ouvert la voie, dans certaines catégories de produits et pour certaines enseignes, au développement des MDD de la troisième génération. A la différence des marques d'enseigne classiques dont l'existence est légitimée par les marques nationales face auxquelles elles se veulent des substituts économiques intelligents, les MDD de la troisième génération ont pour ambition de se doter d'un statut de marque à part entière sans réel faire-valoir extérieur. Empruntes d'un contenu marketing fort et véhiculant des promesses percutantes (le bio, le terroir, l'exotisme...) qui dépassent le simple rapport qualité-prix, ces MDD attaquent des cibles haut de gamme ainsi que des marchés innovants jusque-là laissés aux seules marques nationales. La concurrence entre ces deux types de marques s'en trouve profondément bouleversée : d'indirecte, car axée sur des segments de marché distincts, elle devient frontale ; d'éloignée, car jouant sur des concepts-produits différents, elle devient prégnante puisqu'elle se nourrit de part et d'autre du même esprit marketing, fait de segmentation, de ciblage, de positionnement différenciateur et de valeur ajoutée. L'importance du marketing dans la gestion des MDD de la décennie 90 s'observe ainsi sur pratiquement tous les éléments de leur mix : les produits véhiculés par cette troisième génération se caractérisent par une amélioration importante de leur qualité, des packagings soignés, ainsi que par un élargissement et une segmentation grandissante de leur offre. Cette dernière ne se limite en effet plus aux seuls marchés à forte rotation et faible technicité, mais propose des produits haut de gamme ou fortement innovants tels les gammes «Reflets de France» (produits du terroir) ou «Destinations Saveurs» (produits exotiques) de Continent, les produits d'épicerie fine «Escapades Gourmandes» de Carrefour, la gamme «Carrefour Bio» ou encore la marque «Casino Palmarès», spécifiquement consacrée à des produits innovants, exclusifs et de qualité. Pour accompagner ces mutations, les distributeurs ont recours à de nombreuses opérations de communication et de promotion. 14 % du chiffre d'affaires des MDD en alimentaire est ainsi réalisé en promotion contre une moyenne, tous produits confondus, de 16 % (IRI-Secodip, 1997). En termes de prix, les nouvelles MDD haut de gamme, bien que présentant à l'évidence des prix de vente plus élevés, n'en demeurent pas moins - tout comme leurs homologues moyen de gamme - moins chères d'environ 15 à 20 % que les marques nationales des segments haut de gamme auxquels elles appartiennent. Des intérêts stratégiques Cette évolution des MDD qui totalisent aujourd'hui une part de marché en valeur de 18 % traduit encore l'importance des intérêts stratégiques qu'elles ont su représenter tant, bien évidemment, pour les distributeurs que, paradoxalement, aussi pour les fabricants.
* Pour les distributeurs : rentabilité et fidélisation Au travers de leurs MDD, les distributeurs poursuivent deux objectifs majeurs : accroître leur marge et fidéliser leurs consommateurs. Le premier objectif assigné aux MDD fut en effet d'accroître la marge des distributeurs, fortement érodée par la politique de prix agressifs pratiqués sur les marques nationales. Une grande majorité d'entre elles sont de fait utilisées comme des produits d'appel et vendues à marge nulle (voire négatives avant l'application en France de la loi Galland, en 1997). Les MDD, ne souffrant d'aucune comparaison possible entre enseignes de par leur spécificité, échappent à cette logique du prix le plus bas et permettent par conséquent de bénéficier de marges supérieures. Ces dernières s'obtiennent surtout par des coûts de fabrication et de commercialisation moindres, caractéristiques des MDD des première et deuxième générations. A cet objectif de marge s'est bientôt adjoint un objectif de fidélisation de la clientèle qui constitue aujourd'hui l'une des préoccupations majeures des distributeurs. Alors qu'il fréquentait en moyenne 2,7 magasins en 1987, le consommateur d'aujourd'hui partage son panier entre 3,3 points de vente (source : Sofres). Parmi les outils et services de fidélisation, la MDD apparaît comme un atout important car elle est source potentielle de «différenciation positive» : elle ne se trouve, par définition, que dans les magasins d'une même enseigne. Elle peut donc contribuer, contrairement aux marques nationales et aux premiers prix référencés dans toutes les surfaces, à une différenciation de l'offre des enseignes. Si les consommateurs valorisent cette différenciation, la MDD peut devenir un élément déterminant dans le choix du magasin, et ce d'autant plus probablement qu'elle couvre, à l'instar des labels précités Reflets de France ou Escapades Gourmandes, une large palette de produits et peut par conséquent représenter une part non négligeable du panier du consommateur. Des comportements de fidélité accrue à l'enseigne par les acheteurs de ces labels exclusifs que l'étude Référenseignes de Secodip a mis en évidence. Cet objectif de fidélisation trouve plus particulièrement écho dans les MDD de la troisième génération, garanties de qualité et de promesses marketing fortes pour les consommateurs. * Pour les fabricants : rentabilisation de l'outil industriel, contrôle de la concurrence et débouché commercial Le développement des MDD, aussi paradoxal que cela puisse paraître, présente des intérêts non négligeables pour l'industrie. Ceux-ci résident dans la sous-traitance par les distributeurs de leur production à certains fabricants de marques nationales. Les intérêts dégagés sont de plusieurs natures. Grâce à cette sous-traitance, les fabricants peuvent escompter : - une diminution des coûts de production pour leurs propres marques. Par la fabrication de MDD, les industriels peuvent espérer une réduction des coûts inhérents à la fabrication de leurs propres marques par un transfert partiel des coûts fixes aux MDD et des conditions d'achat de matières premières plus favorables (2) ; - un moyen pour exploiter les segments d'entrée de gamme et donc contrôler la concurrence. Grâce aux MDD, les industriels sont en mesure de toucher les segments d'entrée de gamme qui échappent traditionnellement à leurs marques nationales. En étant les maîtres d'oeuvre des MDD, les industriels se dotent de facto d'un meilleur contrôle de la concurrence. Contrairement aux fabricants non producteurs de MDD, ils sont plus à même de limiter la concurrence frontale entre ces deux types de marques et donc les risques de cannibalisation ;
- une source de motivation à l'innovation pour leurs propres marques. Pour éviter les risques de cannibalisation, potentiellement très dangereux pour leurs marques nationales, les fabricants vont souhaiter accroître les différences entre les deux types de produits. L'innovation va être la clef de voûte de cette différenciation, d'ailleurs partiellement financée par les gains de coûts réalisés grâce à la production de MDD ; - un élément de rééquilibrage des rapports de force avec la distribution. La production de MDD offre un moyen de rééquilibrer la relation traditionnelle entre les fabricants et les distributeurs ; une plus grande dépendance entre les deux parties peut se créer, favorisant l'émergence d'un partenariat bilatéralement profitable. Emergence du «category management» La rationalisation actuelle des assortiments par le biais du «category management» est une autre manifestation d'un partenariat possible entre l'industrie et le commerce. Face à l'augmentation des nouveaux produits, qu'ils soient de fabricants ou de distributeurs, les grandes surfaces ont entamé une refonte de leur assortiment pour une meilleure visibilité et rentabilité de leur linéaire. Afin d'assurer une bonne concordance entre l'offre et la demande, la structure actuelle faite de marques nationales, de marques de distributeur et de premiers prix semble s'imposer. Les marques nationales restent aujourd'hui incontournables comme en témoignent leur capacité à défidéliser un consommateur de son point de vente en leur absence. Inversement, les marques de distributeur, par les enjeux stratégiques qu'elles revêtent pour la distribution, constituent une réalité grandissante que les fabricants ont déjà intégrée. L'objectif est dès lors d'atteindre le bon équilibre entre ces différents produits, objectif qui nécessite les connaissances spécifiques, propres à chaque intervenant du marché. Si les distributeurs bénéficient d'une bonne connaissance de leur zone de chalandise, les fabricants excellent dans leur expertise de la catégorie de produits dont ils sont spécialistes. La mise en commun de ces savoirs respectifs, par le biais notamment de bases de données, est au centre du «category management» dont l'une des missions est la définition d'assortiments appropriés, propres à satisfaire les besoins des consommateurs. La démarche s'effectue entre un distributeur et un fabricant, appelé «category captain», qui cherchent ensemble, conscients des réalités précitées, à définir le meilleur assortiment possible pour la catégorie de produits. * (1) Terme unificateur utilisé par la presse professionnelle de l'époque pour désigner les «Produits libres» de Carrefour, les «Produits blancs» de Continent, les «Produits familiaux» de Mammouth, les «Produits orange» de feu Euromarché, les «Produits simples» de Cora, etc. (2) Notons que certains fabricants de petites marques ont trouvé dans la production de MDD une véritable planche de salut, leurs marques propres étant vouées tôt ou tard à mourir, compte tenu des rationalisations en cours dans l'assortiment de nombreuses enseignes. L'indispensable éthique dans la panoplie du marketing Les professionnels du marketing sont confrontés à de nombreuses questions éthiques lorsqu'ils prennent leurs décisions. Si, bien souvent, la vigilance et le bon sens suffisent, ils doivent parfois recourir au test de souveraineté du consommateur, voire à la philosophie. JILL G. KLEIN ET N. CRAIG SMITH
Pour beaucoup, «l'éthique du marketing» est un oxymore. Et les spécialistes du marketing arrivent généralement en bas du palmarès dans les études menées sur la déontologie professionnelle. Cette image négative provient des fréquents rapports faits par les médias sur les conduites illégales ou moralement contestables du marketing, qui est, en outre, toujours assimilé à du mercantilisme. Elle s'explique également par la visibilité des activités de marketing. En qualité de consommateur, nous sommes en effet tous en contact avec le marketing et donc davantage exposés aux dérives qui se produisent dans ce type d'activités. Quoi qu'il en soit, les professionnels du marketing sont confrontés à de nombreuses questions éthiques. En effet, leurs décisions peuvent se répercuter sur la sécurité des produits, la véracité de la publicité, l'équité des prix et le juste comportement vis-à-vis des distributeurs. Les problèmes éthiques se posent peut-être même plus fréquemment aux responsables du marketing qu'aux autres managers de l'entreprise, parce que leur rôle est de «chevaucher les frontières» : ils ont affaire à de multiples parties, souvent extérieures à la société, qui sont susceptibles d'avoir des intérêts opposés. C'est d'autant plus vrai à l'heure du «marketing relationnel». Le fait que le marketing risque plus souvent qu'à son tour d'être confronté à des problèmes éthiques ne veut pas dire pour autant qu'il ne soit pas moral. Cela étant dit, c'est un point sur lequel les professionnels du marketing doivent être vigilants quand ils prennent leurs décisions. Gestion des problèmes Il n'est pas rare que les directeurs du marketing ne prêtent pas assez attention à leurs obligations morales - sauf quand il est trop tard : ils n'en mesurent pas totalement l'importance ou croient que l'éthique n'est pas une question à prendre en considération (c'est le mythe de l'amoralité du monde des affaires). L'idée selon laquelle les entreprises n'ont pas à se soucier des valeurs morales lorsqu'elles prennent des décisions résulte d'une vision étriquée de l'activité économique, qui semblerait suggérer que les directeurs ne peuvent et ne doivent décider qu'en fonction de critères financiers comme la rentabilité. Or, en pratique, les décisions ne sont jamais neutres et les valeurs morales sont indispensables au bon fonctionnement de l'entreprise. En effet, la plupart des relations d'affaires exigent la confiance. Et quel serait l'intérêt de la publicité si presque tous les annonceurs mentaient? L'autre faille du mythe de l'amoralité du monde des affaires est l'idée fausse de l'existence d'une frontière entre nos vies professionnelle et privée. On ne peut prétendre mener une existence honnête que si cette attitude s'étend à l'activité professionnelle. Bien des questions éthiques sont soulevées parce qu'on n'a pas prêté une attention suffisante à la déontologie du marketing. Il faudrait donc qu'il y ait, au départ, une «sensibilité éthique», c'est-à-dire une prise de conscience par les dirigeants de leurs obligations morales dans leur prise de décision et des éventuels problèmes éthiques que celle-ci risque de générer. Le code déontologique de l'american Marketing Association, par exemple, stipule que les professionnels du secteur sont tenus de se conformer à la règle de base de la déontologie, à savoir ne pas nuire à autrui et offrir des produits et services sûrs et conformes à l'usage pour lesquels ils ont été faits. Les professionnels du marketing ayant affaire à de multiples protagonistes, ils devraient savoir que leurs obligations vis-à-vis des uns et des autres peuvent être
conflictuelles. Par exemple, les incitations offertes aux distributeurs pourraient les pousser à vendre des produits inadaptés aux consommateurs. S'ils sont sensibilisés à ces questions, la plupart des cadres évitent les actions moralement contestables en se référant à leur propre notion du bien et du mal. Souvent, ils agissent de manière intuitive : celui qui sent que l'exagération des mérites d'un produit n'est pas honnête évitera de lui-même toute réclame discutable. Dans des situations plus complexes, les décideurs ont recours à des maximes comme la sacro-sainte règle : «Ne faites pas aux autres ce que vous ne voudriez pas qu'on vous fasse.» Cependant, celles-ci ne sont pas aussi utiles qu'on le croit ni de grand secours dans bien des situations délicates auxquelles sont confrontés les professionnels du marketing. La plupart des problèmes éthiques en marketing résultent d'un conflit entre une société et ses clients. Dans cette situation, les professionnels du marketing ont des obligations vis-à-vis de leur propre société qui sont contradictoires avec celles qu'ils ont envers les clients. Ainsi, un vendeur est-il tenu de donner aux clients des informations négatives comme une rupture de stock ou le lancement imminent d'un produit plus performant? Certains vous répondront que ceci fait partie des risques de l'acheteur. Cependant, cet argument suffit de moins en moins à expliquer les pratiques contraires à l'éthique et s'est souvent retourné contre la société qui essaie de justifier son comportement sur un tel raisonnement. On a proposé que les professionnels du marketing soient tenus de veiller à ce que les consommateurs puissent faire un choix en toute connaissance de cause. C'est ce que l'on a baptisé le «test de souveraineté du consommateur» (le TSC, voir tableau page suivante). Selon le TSC, les professionnels du marketing peuvent évaluer leurs décisions sur la base de trois critères : la capacité de jugement du consommateur, la quantité suffisante d'informations et la possibilité de choix. Le TSC est évidemment fonction de conditions spécifiques à chaque situation. Néanmoins, dans l'exemple précédemment choisi, il montre que le marketing est contraire à l'éthique parce qu'il enfreint le critère de l'information. En effet, le fait pour le vendeur de ne pas divulguer une rupture de stock ou le lancement d'un nouveau produit est moralement contestable si le client s'attend à être livré dans les délais ou à acheter le produit le plus performant de la société. Quant au marketing sur le tabac, il transgresse deux des critères du TSC, voire les trois. Les études montrent, en effet, que la plupart des gens commencent à fumer à l'adolescence (atteinte à la capacité de jugement du consommateur) et qu'ils ont beaucoup de difficultés à arrêter à cause de l'accoutumance créée par la nicotine (atteinte au choix). Les consommateurs dans les pays développés sont généralement bien informés des dangers du tabac pour la santé (ce qui explique qu'ils essaient d'arrêter de fumer à l'âge adulte), mais ce n'est pas le cas dans les pays en voie de développement qui sont de plus en plus la cible des campagnes marketing sur le tabac (atteinte à l'information du consommateur). Le TSC est un moyen pratique d'examiner les problèmes éthiques provenant de la relation entre une société et ses clients. Il est bien adapté au marketing des produits de grande consommation et aux cas où, historiquement, les risques de l'acheteur étaient invoqués pour justifier des pratiques de marketing douteuses. Mais les questions d'éthique qui peuvent surgir impliquent parfois d'autres protagonistes. Par conséquent, l'éthique du marketing exige que les professionnels fassent une «analyse des protagonistes», c'est-à-dire qu'ils considèrent les répercussions de leurs décisions non seulement sur les consommateurs, mais aussi sur les autres parties concernées. Cette analyse peut révéler plusieurs obligations conflictuelles. Par exemple, un professionnel du marketing peut être amené à mettre en balance la préférence des consommateurs pour une lessive efficace et les
dangers environnementaux résultant des phosphates qu'elle contient. Comme ces problèmes sont de plus en plus insolubles, il peut devenir nécessaire de s'appuyer sur un raisonnement éthique éclairé par la philosophie morale. Les deux théories prédominantes de la philosophie morale qui permettent de mieux comprendre les problèmes éthiques sont le conséquentialisme et la déontologie. En termes simples, le conséquentialisme exige que les professionnels du marketing vérifient l'absence de malignité des conséquences de leurs actions. Si ce type de réflexion prédomine dans les affaires, c'est surtout parce qu'il s'apparente aux calculs coût-bénéfices. En revanche, la déontologie requiert de l'homme de marketing qu'il examine si sa décision est juste en soi, indépendamment de ses conséquences. Cette analyse repose sur les devoirs et les obligations. Pour reprendre notre exemple, l'analyse déontologique du marketing pour le tabac révèlerait qu'il est contraire à l'éthique à cause de l'obligation de ne pas nuire à autrui. Les arguments liés au plaisir de fumer pour le consommateur n'entrent pas en ligne de compte. Dans le domaine de l'éthique appliquée - ce qui est le cas des affaires - le raisonnement est souvent éclairé par de multiples théories de philosophie morale. Néanmoins, quand ces théories sont conflictuelles (comme dans le cas présent), l'argument décisif démontrant la supériorité de l'analyse basée sur l'une plutôt que sur l'autre reste encore à trouver. Les études marketing Les études sont une activité essentielle du marketing et elles ont aussi leur part de problèmes en termes d'éthique. L'analyse des protagonistes constitue une méthode utile pour les comprendre. Ces protagonistes sont, en l'occurrence, les chargés d'études, les participants et le client de l'étude. Les principales difficultés morales surgissent pour les chargés d'études quand l'intégrité de leur recherche est menacée : par exemple, dans le cas où un directeur de marque fait pression sur un chargé d'études en interne pour qu'il interprète les données dans un sens favorable à sa stratégie de marque. Des problèmes se rencontrent également quand les clients invitent les instituts de sondage à leur faire une offre. Ces offres sont-elles sollicitées en toute bonne foi ou certains cabinets sont-ils interrogés alors que le client a déjà choisi son fournisseur et qu'il se contente d'appliquer les procédures d'achat interne à l'entreprise? La société a-t-elle réellement l'intention de sous-traiter le projet à l'extérieur? N'essaie-t-elle pas tout simplement de s'emparer des idées de chargés d'études plus expérimentés? Les problèmes les plus délicats sont ceux qui impliquent les participants aux études. En effet, il plus difficile d'appliquer le TSC quand il s'agit d'établir les obligations des chargés d'études envers ces participants, même si ceux-ci sont aussi les consommateurs des produits de la société. Les personnes interrogées, qui participent souvent gratuitement à une étude, ont un certain nombre de droits, notamment le droit d'être informées sur l'étude, le droit de choisir d'y participer, le droit au respect de la vie privée, le droit à la sécurité et le droit d'être traitées avec égard. Parmi les codes déontologiques qui reconnaissent ces droits figurent ceux de la Marketing Research Society en Grande-Bretagne et du Council of American Survey Research Organizations (Casro) aux Etats-Unis. Malgré l'existence de ces codes déontologiques, certains chargés d'études se livrent à des pratiques moralement contestables. C'est d'ailleurs l'une des causes de la baisse des taux de participation aux études (tout comme l'impossibilité pratique, la
pression accrue en termes de temps et la montée du télémarketing). Le Casro estime que le taux de refus se situe aujourd'hui autour de 35-38 % et ne cesse de croître. Certaines sources l'évaluent même à 60 %! Dans le cadre de notre recherche, nous avons mené des enquêtes à la fois auprès des chargés d'études et des participants. Au cours de l'une d'elles réalisée aux Etats-Unis, 128 professionnels des études ont identifié des pratiques que les participants jugeaient déplaisantes, choquantes et contraires à l'éthique. Parmi celles-ci, citons : les ventes déguisées sous le vocable d'études («sugging»), les mensonges sur la longueur de l'enquête, le dérangement (appel au moment du dîner), les difficultés imposées au participant (enquêtes mal rédigées), les interviews excessivement longues, le non-respect de la vie privée (appel de numéros sur liste rouge), le manque d'égard vis-à-vis des personnes interrogées et l'observation ou l'enregistrement des participants à leur insu. Plus du quart des professionnels interrogés ont indiqué que certaines de ces pratiques étaient inévitables, souvent pour des raisons économiques. A titre d'exemple, les appels à des heures peu commodes sont considérés comme nécessaires car ce sont les seuls moments où les gens peuvent être contactés. Au cours d'une autre enquête menée dans un centre commercial aux Etats-Unis, 110 participants ont été invités à décrire l'expérience qu'ils avaient vécue lors d'une étude de marché récente. Un tiers d'entre eux ont affirmé en avoir gardé au moins une impression négative et plus du quart l'ont décrite comme contraire à l'éthique ou choquante. Si les problèmes identifiés par les professionnels et les participants se recoupent, les premiers semblent sous-estimer l'embarras provoqué par les questions sur la vie privée des personnes (comme le montant des revenus). Dans notre recherche, nous avons essayé de trouver les moyens qui permettraient aux professionnels du marketing de mieux gérer les problèmes éthiques les plus importants. Certaines pratiques, manifestement contraires à la morale, sont à bannir : Rien ne peut justifier par exemple la violation de la promesse de confidentialité ni le non-paiement de la somme prévue en contrepartie de la participation à l'étude. Cependant, d'autres soulèvent des dilemmes : Obtenir un consentement éclairé des participants impose souvent de leur révéler le but ou le nom de la société qui a commandé l'étude. Or ceci risque d'influencer leurs réponses et de porter atteinte à l'obligation du chargé d'études vis-à-vis de son client. Nous avons remarqué que, dans de telles situations, certaines mesure permettent d'améliorer l'évaluation de l'étude par les participants. On peut ainsi les avertir de l'impossibilité de leur communiquer à l'avance tous les renseignements sur l'étude et leur fournir un complément d'informations par la suite. Il est essentiel de veiller à l'éthique du marketing parce qu'il est de notre devoir à tous de mener une existence conforme à la morale. Ce devoir s'applique aussi bien à notre vie professionnelle que privée. De plus, les professionnels du marketing savent que l'éthique est une condition de la réussite dans les affaires. En analysant le secteur des études de marché, nous avons pu constater que le fait de traiter les participants avec respect les encourageait à renouveler l'expérience par la suite. Cette approche est donc un moyen de conserver une ressource qui se raréfie. Dans une optique plus large, les conduites contraires à l'éthique ont souvent des conséquences négatives : mauvaise publicité, mauvaise image de la société, baisse du moral des salariés, boycottage des consommateurs et même sanctions légales. A l'inverse, un comportement déontologique contribue à renforcer l'image de la
société, à accroître le moral de ses effectifs et à favoriser la répétition des achats. Alors, que choisissez-vous? Résumé L'apparition dans les linéaires des grandes surfaces, au côté des marques nationales, de marques de distributeur et premiers prix a contribué à faire de l'assortiment l'un des enjeux majeurs dans la relation entre l'industrie et le commerce. La concurrence entre produits est d'autant plus forte que les marques de distributeur se dotent progressivement d'un contenu marketing puissant et répondent à des intérêts stratégiques spécifiques. La nécessaire rationalisation des assortiments plaide cependant pour une mise en commun des savoirs respectifs au travers de démarches liées à l'émergence du «category management». La culture asiatique et le consommateur mondialisé Marché incontournable pour les entreprises occidentales, l'asie fait rarement l'objet d'une stratégie de marketing spécifique, et ce en dépit de différences culturelles profondes. La modernisation y prend alors la forme d'une occidentalisation. HELLMUT SCHÜTTE Depuis quelques décennies maintenant, l'asie est devenue, dans bien des secteurs, l'un des marchés les plus dynamiques du monde. Ce continent représente près de la moitié de la population de la planète et une part significative de l'économie mondiale malgré la crise économique qu'il traverse. C'est pourquoi rares sont les entreprises internationales qui peuvent se permettre d'ignorer la place prépondérante du marché asiatique, en dépit de la crise actuelle touchant certains pays de cette zone. On peut donc s'étonner de la quasi-inexistence de travaux présentant une théorie du marketing spécifique à l'asie. La plupart des professionnels y appliquent des concepts manifestement élaborés dans une perspective occidentale, et donc principalement américaine. Cette perspective présume que les consommateurs sont animés des mêmes besoins et désirs dans le monde entier et que leur comportement sera le même partout. Cette interprétation n'est que la suite logique de la tendance à la mondialisation des marchés et de la concurrence. Pourtant, l'attitude du consommateur étant fortement influencée par sa culture, et la culture asiatique étant nettement différente de la culture occidentale, on peut s'interroger sur l'existence même d'un consommateur type en Asie. Les liens culturels sont profonds et l'existence de goûts, d'habitudes et de coutumes différents explique que les consommateurs ne seront pas attirés partout par les mêmes produits, les mêmes messages publicitaires, le même emballage ou la même présentation. La naissance du produit global, il faut le rappeler, n'est pas la conséquence d'une préférence exprimée par le consommateur à l'échelle de la planète. Le consommateur n'a rien demandé de tel, au contraire, le produit global lui est bien imposé par des entreprises cherchant toujours à réduire leurs coûts par le biais de la standardisation.
L'immense succès des produits de luxe occidentaux auprès des hauts revenus et des jeunes en Asie n'est donc nullement la preuve de leur adhésion à la mondialisation. Ils peuvent désirer les mêmes articles pour des motifs bien différents. Les sacs Louis Vuitton, par exemple, sont sans doute achetés davantage pour des raisons d'image, vu l'importance donnée au regard des autres, que par goût personnel. Le cognac Rémy-Martin ou le bordeaux Lafitte ne sont peut-être pas choisis par les consommateurs parce qu'ils les préfèrent aux boissons locales, mais parce que la pression de leurs pairs le leur impose. On peut donc s'assurer une solide assise sur des bases différentes de celles utilisées en Occident qui nécessitent une autre approche marketing. Autrement dit, une approche conçue tout spécialement pour la culture asiatique sera peut-être moins convaincante en termes de standardisation et de mondialisation, mais plus efficace en termes de satisfaction du consommateur, générant ainsi plus de bénéfices. La culture asiatique La culture influence profondément la façon dont les individus se perçoivent, perçoivent les limites imposées par la société et la place qu'ils y occupent. Ces perceptions sont souvent intériorisées au point qu'il est difficile de les exprimer clairement, mais elles se révèlent dans les comportements et notamment à travers les modes de consommation. C'est l'une des façons pour les individus d'exprimer leur personnalité et leurs aspirations. Si l'asie est plus hétérogène, sur le plan culturel, que l'europe, l'importance accordée à l'harmonie sociale est un facteur prépondérant et unificateur commun à toutes les sociétés. Les sociétés asiatiques sont fondamentalement collectivistes, c'est-à-dire que les droits de l'individu sont subordonnés à ceux du groupe, un mode de fonctionnement considéré nécessaire au maintien de l'ordre social. Ce mode de pensée, enraciné dans le confucianisme, le bouddhisme et l'islam, contraste fortement avec l'individualisme occidental. La différence est considérable et ses conséquences sur le comportement du consommateur sont énormes. Alors que la tendance pour les Asiatiques est de clarifier leur place dans la société et leurs relations humaines, les Occidentaux s'identifient plus en termes de spécificité ou d'accomplissement personnel. Bien entendu, toutes les sociétés étaient, à l'origine, plus collectivistes qu'individualistes en raison de l'interdépendance inhérente aux communautés agraires. L'individualisme est désormais considéré comme une composante naturelle des sociétés dites modernes. Mais cette conception est remise en question par les cultures asiatiques. Le Japon, pays industrialisé, moderne selon tous les critères possibles, est toujours fortement collectiviste. De même, la Corée du Sud, Hong Kong, Singapour et Taiwan sont des sociétés modernes qui conservent de profondes orientations nettement collectivistes. Cette tendance collectiviste de l'asie s'exprime de maintes façons, dont certaines sont présentées ci-après. - L'appartenance L'accent est mis sur l'appartenance à un groupe, ce qui implique l'identification d'un individu avec un objectif collectif. Il faut absolument être accepté par ses semblables et l'angoisse du rejet, de l'exclusion, est intense, suscitant un besoin presque maladif de toujours faire partie du groupe à la mode.
Ainsi, les désirs individuels passent au second plan, l'appartenance étant la satisfaction suprême. La puissance de ce sentiment d'appartenance est un point d'ancrage de l'identité qui exige la loyauté de l'individu envers le groupe. - La réciprocité Les règles de la réciprocité ainsi que leur conception sont beaucoup plus formalisées et puissantes qu'en Occident. Elles sont le reflet de l'importance accordée aux relations humaines et aux liens sociaux dans une culture collectiviste et confirment l'insertion de l'individu dans le groupe. L'échange de cadeaux est considéré comme le moyen le plus direct et le plus visible de cultiver le «guanxi» (en Chine), de remplir le «on» ou d'honorer le «giri» (au Japon). La façon dont une personne respecte et applique les règles complexes de l'échange de cadeaux est un élément essentiel dans l'appréciation de la position sociale de cette personne. - L'amour-propre Les différences culturelles apparaissent aussi dans l'appréciation de ses propres capacités, ou de leur absence, et l'amour-propre sera donc plus ou moins présent. L'éducation américaine, par exemple, tente d'inculquer aux étudiants une haute estime de soi afin de stimuler désir de réussite et confiance en soi. Les enfants sont encouragés à s'affirmer et à faire preuve d'assurance. L'éducation des enfants asiatiques, au contraire, met l'accent sur la modestie et la discrétion, considérées comme la meilleure façon de cultiver l'esprit. Cela ne veut pas dire que les Asiatiques n'ont pas d'amour-propre, mais plutôt qu'ils n'estiment pas devoir se considérer d'emblée plus méritants que les autres. - La conformité au groupe En Asie, la pression qui se fait sur l'individu pour le plier aux normes du groupe est beaucoup plus forte que dans les sociétés individualistes. Le désir de se distinguer, élément essentiel dans la culture occidentale et le comportement des consommateurs, existe aussi en Asie. Toutefois, il suppose une différence en tant que membre d'un groupe par rapport à un autre groupe, tout en respectant les normes individuelles de son groupe. Un consommateur asiatique qui se marginalise sera considéré comme un étranger incapable de s'intégrer au groupe. - Le statut Dans le contexte fortement hiérarchisé des sociétés asiatiques, les individus ont fortement conscience de leur place au sein du groupe, de l'institution ou de la société dans son ensemble, et de leur attitude, de leur tenue vestimentaire et du discours correspondant à leur statut. Ils sont extrêmement regardants sur la nécessité de garder leur dignité, de ne pas perdre la face et de ne pas la faire perdre aux autres. On attache une grande attention au choix des produits, dont le prix, la marque et la présentation doivent correspondre à son propre statut social. Quant à l'apparence personnelle, la couleur, la matière et le style des vêtements, ils doivent correspondre à la position sociale que définit l'âge, le sexe, la profession, etc. Ainsi, au Japon, le kimono d'une femme mariée aura des couleurs beaucoup moins marquées que celui d'une célibataire. - La diffusion du produit
Pour la plupart des cultures asiatiques, il faut éviter l'incertitude ; en conséquence, le consommateur fera preuve d'une forte identification des marques, d'une grande fidélité, et il attachera plus d'importance à la qualité, faisant largement appel aux groupes et aux leaders d'opinion. On fera plus volontiers ses courses en groupe et les produits nouveaux sont moins vite acceptés. Pendant que les consommateurs du monde entier sont attentifs aux risques monétaires, fonctionnels, physiques et sociaux, les Asiatiques ont tendance à attacher une plus grande importance aux risques sociaux que les Occidentaux. La théorie occidentale classique de la diffusion répartit les consommateurs en plusieurs catégories selon la rapidité avec laquelle ils adoptent un produit nouveau. Les catégories citées le plus souvent sont au nombre de cinq : innovateurs, premiers adeptes, majorité précoce, majorité tardive et retardataires. La répartition de ces catégories dessine généralement une courbe régulière en cloche (cf. Fig. 1a/1). Cependant, bien peu de consommateurs asiatiques sont prêts à courir le risque social de se ranger dans la catégorie des innovateurs en étant les premiers à essayer un produit nouveau. Mais le désagrément d'être à la traîne les pousse néanmoins à suivre s'ils pensent que les autres ont essayé le produit. Les premiers acheteurs ouvrent donc la voie en limitant le risque perçu par les suiveurs qui se dépêchent alors de leur emboîter le pas. Cela implique donc une proportion nettement plus faible d'innovateurs et de retardataires parmi les consommateurs asiatiques, avec une courbe de distribution plus raide (cf. Fig. 1b-2). Cette courbe n'est plus symétrique comme celle concernant le consommateur occidental : la partie gauche est plus longue, marquant l'hésitation à essayer le nouveau produit et la partie droite de la courbe redescend brutalement, lorsque que les consommateurs sont prêts à changer de marque dès lors que leur groupe de référence a changé. Pouvoir utiliser ce phénomène d'identification représente donc un outil très puissant pour étendre les essais de produits nouveaux par une première vague de consommateurs. - Engouement Instillé dès l'enfance, renforcé par le système éducatif et confirmé par la pression de ses pairs, le désir de conformité est à l'origine des engouements successifs en Asie. Une fois l'aversion pour le risque surmontée, la vitesse de diffusion est ahurissante, notamment au Japon, ou le cycle de vie des produits peut être extrêmement court. Dans ce pays, l'engouement est en effet facilité par l'existence d'une population homogène et de médias efficaces, centralisés et très largement diffusés. Tout le monde semble, à tout moment, lire, regarder, commenter ou faire les mêmes choses. Cet engouement ne concerne pas seulement la diffusion rapide d'une culture matérielle ou de gadgets tel que le célèbre tamagochi (petit animal de compagnie éléctronique), il s'applique également aux comportements, et notamment au langage. Ainsi de nouveaux mots - un mélange de japonais et d'anglais le plus souvent - semblent être nés la veille et adopté par tous le lendemain. - Consommation ostentatoire L'importance accordée à la reconnaissance sociale fait des Asiatiques les consommateurs probablement les plus attentifs à leur image. L'importance du statut impose en effet de projeter la «bonne» image, qui correspond généralement aux produits haut de gamme et prestigieux.
L'acceptation sociale de cette consommation ostentatoire en Asie correspond au respect indiscuté de la hiérarchie. Les différences de degré hiérarchique et de pouvoir doivent être perceptibles. Le comportement ostentatoire des consommateurs est donc lié à l'affirmation d'un statut. Ces consommateurs asiatiques si attentifs à l'image qu'ils projettent dépenseront sans compter pour des marques haut de gamme comme BMW ou Mercedes-Benz, le meilleur whisky écossais ou le meilleur cognac français. C'est pourquoi Mercedes- Benz occupe sa plus grande part de marché sur les marchés asiatiques, et le groupe de produits de luxe français LVMH vend plus de la moitié de ses produits aux consommateurs asiatiques. Les temps ont changé avec les troubles économiques que connaissent le Japon depuis le début de la décennie et les autres pays asiatiques depuis l'automne 1997. Il ne faut pas en conclure pour autant que les marques ont perdu leur attrait pour le consommateur asiatique. Le besoin de reconnaissance est en effet très profond. On sait d'expérience pour le Japon, et on le constate actuellement pour l'asie du Sud-Est, que la demande pour les produits de luxe ne disparaît pas, elle devient seulement beaucoup plus sélective. Motivation et besoins La comparaison entre les éléments caractéristiques de la culture asiatique avec ceux de la culture européenne permet de mieux comprendre les motivations qui sous-tendent les décisions de consommation. Les deux questions clefs sont : * quels besoins les consommateurs cherchent-t-ils à satisfaire? * pourquoi choisissent-ils de les satisfaire comme ils le font? Il y a plusieurs années, le psychologue Abraham Maslow a proposé une échelle à cinq degrés de «hiérarchie des besoins», un moyen de comprendre les motivations aujourd'hui largement accepté. Chaque degré de l'échelle correspond à un certain type de besoin, classé par ordre d'importance croissante : besoins psychologiques, sécurité, appartenance, prestige et enfin, affirmation de soi (cf. Fig. 2-3). Ce classement, proposé à l'origine comme une grille explicative du développement personnel, fournit aussi une méthode utile pour expliquer les besoins et les motivations des consommateurs. Le comportement individuel est en effet motivé par les besoins insatisfaits. Une fois le besoin du plus bas niveau satisfait, le consommateur sera motivé par un autre besoin et ainsi de suite. Aucun besoin n'étant jamais complètement satisfait, l'insatisfaction génère sans cesse de nouveaux besoins. L'échelle de Maslow paraît particulièrement bien adaptée à la culture occidentale, notamment concernant l'affirmation de soi classée tout en haut. Pour le consommateur asiatique, en revanche, on peut s'interroger sur la définition, voire l'existence même, de tels besoins. Les Asiatiques, comme tout le monde, cherchent d'abord à satisfaire les besoins vitaux, se nourrir et se protéger. Il n'y aura donc guère de changements quant aux besoins physiques. Mais on peut discuter de l'existence, pour un consommateur asiatique, de l'affirmation de soi comme besoin individuel. Il l'exprimera plus probablement comme un besoin social, manifestant le désir d'améliorer son image et sa position par une contribution à la société.
Pour les cultures collectivistes d'asie, l'idée que les besoins personnels se trouvent tout en haut de l'échelle ne serait guère acceptable et serait même plutôt mal vue. L'importance accordée par les cultures occidentales à l'indépendance, l'autonomie et la liberté individuelle n'a en effet aucune équivalence dans les cultures asiatiques. Dans ce contexte, le plus haut degré de satisfaction ne provient pas d'actes dirigés sur sa propre personne mais des réactions des autres envers l'individu. En conséquence, une échelle des besoins plus précisément adaptée au contexte asiatique devrait supprimer ce besoin individuel d'affirmation de soi et le remplacer par la complexité et l'importance des besoins sociaux. Les besoins dits sociaux, d'appartenance et de prestige, seront alors répartis en trois niveaux : intégration, admiration et statut. L'intégration est l'acceptation d'un individu dans un groupe. Cette acceptation est naturelle au sein de la famille mais pour la plupart des autres groupes, il faut démontrer certaines qualifications au préalable. En termes de comportement de consommateurs, le besoin d'intégration va encourager la conformité avec les normes du groupe. Une fois l'intégration acquise, l'individu va rechercher l'admiration des membres du groupe. C'est un besoin de niveau supérieur qui nécessite des efforts, l'admiration ne se gagnant que par des actes suscitant le respect d'autrui. Ensuite, l'individu recherchera le statut produit par l'estime de la société dans son ensemble. La satisfaction de ce besoin nécessite le regard extérieur, tandis que la satisfaction du besoin d'admiration se produit à un niveau plus intime. Le statut est le besoin qui se rapproche le plus du besoin de prestige des Occidentaux et il se manifeste par une consommation ostentatoire. Modernisation ou occidentalisation? Aujourd'hui, lorsqu'on parle de culture mondiale du consommateur, c'est à dire de l'adoration commune au monde entier de certaines marques, d'acteurs et de vedettes de la chanson, on évoque généralement l'omniprésence de la culture occidentale. Les entreprises occidentales qui lancent des produits en Asie pourraient donc se dire qu'à la longue, les consommateurs asiatiques vont se mettre à ressembler aux consommateurs occidentaux. Par conséquent, il suffirait d'être patient pour voir les stratégies marketing conçues dans les pays occidentaux devenir parfaitement utilisables en Asie. Mais les apparences sont trompeuses et les gourous du marketing auraient tort de prendre leurs désirs pour des réalités. Ce que les pays asiatiques expérimentent n'est pas l'«occidentalisation» ni la «mondialisation» mais bien la «modernisation». La modernisation peut-être confondue avec l'occidentalisation car elle se manifeste par une mutation sociale originaire d'occident. Mais une véritable occidentalisation suppose une assimilation des pays non-occidentaux aux pays occidentaux. Cela ne saurait être le cas de l'asie qui, avant toute modernisation, possède ses propres cultures profondément enracinées, et qui influencent fortement l'éducation et le comportement de ses populations. Pour elles, en effet, un siècle de modernisation ne saurait effacer une culture millénaire. La forte consommation de biens occidentaux est toujours présentée comme un argument de poids en faveur de cette perte des valeurs asiatiques du fait d'une occidentalisation évidente. Mais cette consommation si visible n'est-elle pas la preuve qu'il s'agit de situations d'exception et non d'une norme? Même l'implantation de McDonald et des pizzas Domino's en Asie, 98 % des restaurants en Asie servent de la cuisine locale. En Indonésie, le lancement du teh
botol (thé en bouteille) s'est fait au détriment des ventes de Coke et de Pepsi et la consommation de kretek, cigarettes à la girofle, ou biddies, n'a pas décliné du tout malgré le succès du cow-boy Marlboro. Il se pourrait donc bien que «le consommateur mondialisé» ne soit finalement pas si répandu en Asie. Résumé L'Asie est un marché essentiel pour les entreprises internationales. Mais quelle stratégie marketing faut-il déployer pour conquérir ce marché? Le succès commercial des produits occidentaux démontre-t-il l'existence de consommateurs mondialisés, auxquels on pourrait donc appliquer les stratégies occidentales? Pour l'auteur, la réponse est non : malgré la mondialisation, les cultures locales marquent toujours fortement les comportements des consommateurs. Si le consommateur occidental cherche à signifier son individualité, le consommateur asiatique, au contraire, souhaite se situer au sein d'un groupe social. Voyons comment se manifestent ces différences et pourquoi les responsables marketing ne peuvent se permettre d'en ignorer l'importance. Chapitre 3 Instaurer des relations durables Les clients fidèles sont aussi les plus rentables. Les stratégies visant à instaurer des relations durables avec eux sont donc source d'un avantage concurrentiel majeur. GEORGE S. DAY Au fur et à mesure de la maturation des marchés, les avantages concurrentiels s'amoindrissent ou disparaissent. Tandis que les sociétés concurrentes cherchent à combler leur retard par rapport au leader du marché, les possibilités de choix des consommateurs se multiplient. Ces derniers réagissent à l'homogénéisation des alternatives en faisant davantage attention aux prix et en devenant moins fidèles. Ce scénario est courant, mais pas inévitable. Le défi qui se pose aux entreprises est de trouver comment combattre l'uniformisation et regagner un avantage que les clients sauront apprécier. La solution repose de plus en plus sur des stratégies fondées sur la réactivité au client qui essaient d'instaurer des relations étroites avec la clientèle rentable. Ces stratégies visent à créer de la valeur en proposant, en plus de l'offre habituelle, un meilleur service, des mesures d'incitation, ou en recourant à des interactions personnalisées, en tenant compte de la valeur potentielle de chaque client au cours de sa vie. Les sociétés qui disposent de stratégies fondées sur les réactions des clients se ressemblent sur bien des points. Elles visent à satisfaire différemment le client, en lui accordant la plus grande attention possible. Les compagnies aériennes, par exemple, ont élaboré différents programmes pour leurs meilleurs clients en prévoyant des numéros de téléphone particuliers pour leurs réservations et en leur accordant une priorité à l'embarquement, des possibilités d'enregistrement rapide et d'autres avantages afin de récompenser leur fidélité. Les décisions reposent sur des informations très fines sur les clients. Les bases de données extraient des informations fondamentales des systèmes d'exploitation
internes (tels que les systèmes de transaction des revendeurs) et les combinent aux informations descriptives provenant de sources externes. Cela permet une gestion des bases de données et des campagnes de «micromarketing». La mentalité du «faites comme vous l'entendez» prédomine. Cela va des messages personnalisés destinés aux micro-segments - telle la présentation du magazine «Parents» aux Etats-Unis qui est adaptée en fonction de l'âge des enfants de l'acheteur - à Nordstrom qui autorise ses employés à passer en revue les gammes de tout le magasin pour combiner différents articles d'habillement afin de répondre aux demandes des clients. Les processus internes sont flexibles et facilitent les adaptations des méthodes de fabrication et de livraison des produits ou des services. Les mesures et les incitations sont harmonisées de manière à donner la priorité à la fidélisation. De telles stratégies sont beaucoup plus simples à concevoir et à mettre en oeuvre dans les sociétés qui, par leur culture, ont toujours privilégié l'institution de relations fortes avec leurs clients ou qui ne sont pas handicapées par un lourd passé de pratiques ancestrales. En revanche, les managers qui ont évolué dans un environnement plus traditionnel seront plus difficiles à convaincre : le marketingproduit peut se sentir menacé du fait de la perte de pouvoir des chefs de produits face aux responsables de la segmentation ; la publicité peut se sentir en perte de vitesse face à des campagnes de micromarketing visant des centaines de segments ; le département informatique peut prétendre que les systèmes en place ne permettent pas de s'adapter à la saisie des données ; et le service financier peut être sceptique vis-à-vis des efforts faits pour apprécier la valeur potentielle que représentent les clients leur vie durant. De telles stratégies sont difficiles à mettre en oeuvre. Mais, lorsqu'elles sont parfaitement élaborées, elles sont la source d'un avantage concurrentiel majeur que les sociétés concurrentes ont bien du mal à imiter ou à dépasser. Une stratégie fondée sur la réactivité au client doit, pour réussir : * donner une plus grande valeur au client en personnalisant l'interaction ; * démontrer la fiabilité des produits ou des services ; * resserrer les liens avec les clients ; * exiger une coordination des moyens en jeu. A l'inverse, si la stratégie ne répond pas à ces critères, les résultats risquent d'être décevants. C'est le cas notamment de programmes qui sous l'apparence d'actions de micromarketing s'appliquent à des segments restreints ou à des extensions de gammes de produits visant à offrir une plus grande variété à des marchés fragmentés. Mais, trop souvent, il ne s'agit que de simples efforts de commercialisation de masse traditionnels, un peu corrigés, qui accablent les consommateurs sous une multitude de produits, de messages et de demandes de renseignements personnels. Ces stratégies sont souvent mal conçues. Le cas de clients dits «privilégiés» d'une banque qui avaient reçu des propositions de taux spéciaux pour des cartes de crédit habituellement réservées aux nouveaux clients en est une bonne illustration. Beaucoup d'argent a été gaspillé pour des avantages à court terme sous forme de cadeaux ou de remises forfaitaires accordés à des clients fidèles. Si ces cadeaux ou remises sont agréables à recevoir, ils ne consolident pas pour autant les relations. De nombreux programmes qui récompensent les hommes d'affaires ou les clients les plus fidèles se sont également révélés décevants. Souvent mis en place à la hâte pour répondre à un concurrent, ils n'ont pas eu d'impact visible sur le marché,
mais ont été sources de frais supplémentaires non négligeables. Début 1995, il n'existait aucun programme de fidélisation sur le marché des produits d'épicerie en Grande-Bretagne (à l'exception des systèmes de timbres des coopératives). Lorsque Tesco lança le sien, toutes les sociétés lui emboîtèrent le pas. Si Tesco retira immédiatement un profit en terme d'image de cette opération, puisqu'il était le premier à le faire, les avantages accordés aux clients devinrent un fardeau coûteux : à partir du moment où toutes les sociétés disposent d'un programme de fidélisation, les clients peuvent cumuler leur crédit auprès de n'importe quel magasin y adhérant et aucun changement n'est enregistré du point de vue de la fidélité. Accroître la valeur La différence entre un comportement répétitif et la fidélité réside dans le fait que le premier se monnaie tandis que la fidélité se gagne. Cela explique pourquoi les cadeaux et autres avantages forfaitaires ont peu d'impact dans le temps - ils ne sont pas utiles à la valeur de la marque et ne permettent ni une réalisation de bénéfices supplémentaires, ni une diminution des coûts par rapport aux concurrents. Les relations qui procurent de la valeur aux clients requièrent une certaine forme d'interaction personnalisée. Elles reposent sur la reconnaissance que toute relation est différente, s'appuient sur une communication à double sens et doivent se poursuivre au fil du temps. Certains hôtels, comme le Ritz-Carlton, créent des relations en recueillant et en conservant des informations sur les préférences et les intérêts de leurs clients, de manière à ne pas avoir à poser les mêmes questions à chaque fois qu'ils reviennent. Les bons vendeurs d'assurance-vie, quant à eux, savent depuis longtemps qu'ils doivent personnaliser leurs relations en restant en contact avec leurs clients, en anticipant les événements de leur vie familiale et en restant très disponibles. La valeur procurée au client est souvent le fruit d'une collaboration qui, en alliant conseils et encouragements, vise à aider un client à faire face à une situation délicate. Choisir des fleurs qui plairont à une personne et conviendront à une occasion donnée, qui ne se faneront pas trop vite et qui ne coûteront pas trop cher, est une de ces situations délicates. Une solution peut être de trouver un fleuriste à qui vous ferez confiance et qui vous conseillera. Mais cela implique un déplacement, vous n'êtes pas certain qu'il aura les fleurs qui conviendront et, en raison de problèmes de distribution, les fleurs pourront avoir mis plus d'une semaine avant d'arriver chez le fleuriste. La société américaine Calyx & Corolla a conçu une nouvelle méthode de marketing direct qui permet aux grossistes d'envoyer des compositions florales aux clients par l'intermédiaire de Federal Express un jour après que les fleurs ont été cueillies. Pour que les clients fassent de nouveau appel à ses services, la société offre différentes prestations qui rendent les achats de fleurs plus faciles, satisfaisants et attrayants. La solution a consisté à éditer un catalogue et à mettre en place un standard téléphonique doté d'un personnel compétent. La société a appris à son personnel à poser avec tact les questions qui aident les clients à dire ce qu'ils veulent sans qu'ils aient l'impression d'être jugés. Démontrer la fiabilité Une fois que les moyens capables de garantir une offre nettement supérieure sont opérationnels, un système efficace de relations peut être mis en place. Ce n'est que lorsqu'un client est pleinement satisfait que les efforts faits pour démontrer la fiabilité des produits ou des services et pour resserrer les liens avec une société
commencent à porter leurs fruits et à avoir un retour sur investissement. En fait, si vous ne parvenez pas à fournir des produits ou des services qui répondent à vos promesses fondamentales de fiabilité, ces efforts risquent d'aller à l'encontre du but recherché. Xerox a suivi ce cheminement pour redevenir le numéro un du marché des photocopieurs. Au milieu des années 80, la société avait cédé du terrain à Canon et à d'autres concurrents japonais. Son redressement exigeait un engagement fort en matière de gestion de la qualité totale, une évaluation rigoureuse des résultats des concurrents, un programme de satisfaction des clients prévoyant de nouvelles méthodes de quantification et la constitution d'équipes opérationnelles sur le terrain. Les départements des ventes, des services et des réparations ont assumé une responsabilité collective face aux problèmes des clients, opérant là un revirement complet : auparavant, les vendeurs considéraient leur tâche terminée dès qu'une machine était vendue et aucune communication ne passait entre les services régionaux et les réparateurs. Ces efforts ont porté leurs fruits puisque la satisfaction des clients s'est constamment améliorée et que Xerox a cessé de perdre des parts de marché. La société s'est alors retrouvée dans une situation où elle pouvait renforcer ses liens avec les clients. La première étape a consisté à démontrer aux clients que la société avait une totale confiance en ses photocopieurs leur fiabilité permettait donc d'offrir à ses clients des garanties hors du commun. L'entreprise a choisi une garantie «sans aucune question» en vertu de laquelle les clients pouvaient décider de rendre le photocopieur en échange d'une machine aux performances équivalentes. La solution consistait à donner une liberté de choix au client plutôt que de proposer un remplacement à la seule discrétion de la société qui était le type de garantie offert par les concurrents. Lorsqu'elles sont correctement utilisées, les garanties renforcent la confiance en démontrant qu'une société veut vraiment jouer franc jeu avec ses clients. Elles maintiennent en outre la pression sur toute l'organisation, qui est tenue d'améliorer sans cesse les performances des machines afin d'éviter les coûts et les litiges dus à des remboursements et des remplacements fréquents. Les garanties peuvent également exercer une pression très forte sur les concurrents qui ne satisfont pas aux conditions. Xerox a gagné 4,5 points de parts de marché lorsqu'il a lancé sa garantie de performance car aucun de ses concurrents ne disposait de couverture en matière de services et ne pouvait, par conséquent, offrir de prestation équivalente. Comme l'une des conditions de la garantie prévoyait que la maintenance des photocopieurs devait être effectuée par Xerox, cela a permis de faire immédiatement obstacle aux efforts des sociétés de services concurrentes travaillant à bas prix qui se chargeaient de ces opérations lucratives. Des communications ouvertes, fréquentes et personnalisées constituent des moyens efficaces pour renforcer la confiance des clients. Cela est particulièrement important dans le cas de services à long terme, tels que les assurancesautomobiles ou sur la vie. Beaucoup de clients ne font pas confiance à leurs compagnies d'assurances parce qu'ils n'entendent parler d'elles que lorsqu'ils reçoivent leurs appels de primes. C'est alors qu'ils se rendent compte que les tarifs ont augmenté, généralement sans explication. Lorsqu'ils ont besoin du service pour lequel ils ont souscrit une police - après un accident, par exemple -, l'assureur semble enclin à vouloir la résilier ou à en augmenter le tarif. Les souscripteurs d'assurances-vie sont encore plus sur la sellette. En raison de
leurs fréquents changements d'affectations, les agents d'assurances ont de fortes chances de perdre leur point de contact initial. Pour instaurer un climat de confiance, certaines sociétés envoient des courriers individuels dans lesquels elles expliquent le système des prestations, décrivent la situation en cours et font des propositions afin d'inciter leurs clients à modifier leur couverture pour la rendre plus performante. Elles postulent que les clients n'ont ni l'envie, ni la capacité de déchiffrer des polices d'assurance confuses. Il en résulte que, lors du renouvellement ou de la modification de la police, l'assuré est beaucoup plus enclin à garder son assureur. Resserrer les liens Dès que les relations reposent sur des bases solides de valeur ajoutée et de confiance, il est temps de resserrer les liens. L'objectif consiste à faire en sorte que le client ait intérêt à rester fidèle et qu'il lui soit plus difficile de s'adresser à un concurrent. Les mesures visant à fidéliser les clients sont extrêmement variées, allant des programmes de fidélisation, tels que ceux de compagnies aériennes, à l'adhésion à des clubs. Nintendo, la société japonaise productrice de jeux vidéo, a ainsi créé le Club Nintendo qui compte deux millions de membres. En échange d'une cotisation annuelle, ils reçoivent un magazine leur révélant des astuces pour gagner, des présentations de nouveaux jeux et des informations diverses. Ils bénéficient en outre d'un droit d'accès à la ligne d'assistance en cas de problèmes ou de questions. Ces mesures d'incitation sont efficaces lorsqu'elles renforcent la valeur fondamentale, mais s'il s'agit simplement d'une réponse du style «moi aussi» aux agissements des concurrents, elles deviennent alors un fardeau supplémentaire. Leur principale fonction est d'éviter que des parts de marché soient perdues du fait d'un désavantage par rapport aux autres. Une autre mesure d'incitation efficace est le système qui offre des points supplémentaires pour chaque dépense effectuée, de sorte que chaque nouvel achat devient plus intéressant. Ce système incite le client à ne pas s'adresser à un concurrent puisque le coût d'opportunité est trop élevé. Le principe consiste ici à augmenter les frais de substitution de l'acheteur. Des liens étroits sont instaurés lorsque la réponse aux besoins des clients passe par le système de livraison. Le réseau de liens financiers, systémiques et même sociaux qui en résulte gêne énormément l'arrivée de nouveaux concurrents. Federal Express, par exemple, utilise cette méthode pour entretenir des relations étroites avec ses clients. La société a placé des systèmes informatisés d'expédition et de facturation dans les bureaux de ses gros clients. Ce système de «powership» permet d'indiquer le poids exact de chaque colis, de combiner les poids des colis par destination, d'obtenir des remises sur volumes et même d'imprimer les adresses sur les étiquettes. Il présente un autre avantage pour le client puisque celui-ci peut suivre le cheminement des colis et analyser les frais d'expédition. Plus les clients se familiarisent avec ce système, moins ils ont de chances d'être attirés par les méthodes des concurrents. Coordonner les moyens L'achèvement - et le commencement - de la mise en oeuvre d'un système efficace de relations implique une stimulation et un renforcement des moyens sous-jacents. Plus un programme donne de bons résultats, plus les risques d'imitation sont grands. D'aucuns prétendront que les avantages tirés des relations établies avec les consommateurs ne peuvent durer.
La meilleure parade consiste à rester toujours en tête en apprenant et en innovant, et à faire en sorte qu'il soit de plus en plus difficile pour les concurrents de trouver la recette gagnante. Le programme de défense doit tenir compte de tous les moyens en jeu. Le fait que les clients fidèles soient plus rentables est l'une des raisons qui poussent les sociétés à établir d'étroites relations avec eux. Il est en effet plus facile et moins onéreux de leur fournir des services. Parce qu'ils connaissent bien les produits et les services, ils posent peu de questions, ils risquent moins de faire des erreurs, et ils ont adapté leur comportement de manière à simplifier leurs relations avec les fournisseurs. Ils ont tendance à acheter davantage au fil du temps, soit parce qu'ils découvrent d'autres produits de la gamme, soit parce qu'ils préfèrent dépenser plus d'argent au profit de leur source préférée d'approvisionnement. Ils deviennent moins sensibles aux prix et peuvent même accepter de payer un supplément. Au fur et à mesure que les relations se consolident, ils sont moins vulnérables aux sollicitations des concurrents et sont même prêts à payer davantage. Les acheteurs fidèles sont plus enclins, enfin, à vanter les mérites d'un produit à d'autres acheteurs, qui auront des chances à leur tour de devenir de bons clients. Cela permet de réduire les frais élevés qu'implique le démarchage de nouveaux clients. Ce n'est pas nouveau de dire que certains clients sont plus intéressants que d'autres, ou que les frais engagés pour attirer de nouveaux clients sont bien supérieurs (jusqu'à cinq fois) à ceux engagés pour conserver les clients existants. Ce qui a attiré l'attention des dirigeants, en revanche, ce sont les études montrant l'impact des actions de fidélisation sur le profit. Une étude portant sur 100 sociétés issues d'une vingtaine de secteurs industriels a démontré que les entreprises peuvent améliorer leur rentabilité de 25 à 85 % chaque fois qu'elles réduisent de 5 % le taux de défection de leurs clients, en le faisant passer, par exemple, de 20 % à 15 % par an. Ce qui démontre qu'un avantage concurrentiel peut être récompensé par une rentabilité accrue. * Défendre les relations avec la clientèle * Engager toute la société - les esprits et les coeurs Aucune société ne peut durer si sa culture n'est pas partagée en interne. Il faut bien comprendre que toute interaction joue un rôle déterminant - c'est ce que Jan Carlson, de SAS Airlines, appelait le «million d'instants de vérité» qui détermine une réussite. Pour accroître la valeur de cette constatation, toutes les fonctions doivent faire partie du programme. Le programme Hertz # 1 Club Gold aux Etats-Unis n'aurait pas remporté autant de succès si la société ne s'était pas entièrement consacrée à modifier les procédures et les réseaux afin d'éviter aux clients d'attendre au guichet, en prévoyant des tableaux d'affichage sur lesquels figurent les noms des clients, le véhicule qui leur est attribué et ses clefs. * Renforcer l'harmonisation au sein de la société Un potentiel résulte d'une interaction complexe de plusieurs éléments et sa solidité est celle du maillon le plus faible. Chaque élément doit être examiné soigneusement afin d'être amélioré. Le système des commissions, par exemple, a pour effet d'inciter les vendeurs à rechercher de nouveaux clients ou à sélectionner soigneusement les prospects en tenant compte des chances qu'ils ont de s'adresser à un concurrent.
De nombreuses sociétés ne paient plus de commissions pour les nouveaux clients qui restent moins de douze mois. * Faire de l'acquisition des connaissances une priorité Il est toujours possible de s'améliorer. Les sociétés dignes de ce nom ne sont jamais satisfaites. Elles procèdent à des essais préliminaires et utilisent des «laboratoires» pour tester de nouvelles méthodes et approfondir leurs connaissances sur la véritable valeur que représentent leurs clients cibles. Pour exploiter ces connaissances, il est nécessaire que les personnes clefs travaillent suffisamment longtemps au sein d'une équipe pour que leur travail ait véritablement des répercussions. Des relations solides requièrent une continuité, tant à l'intérieur qu'à l'extérieur d'une société. * Mettre à jour et conserver les bases de données et les archives Dès qu'une base de données est créée, elle est déjà obsolète - stocker ne serait-ce que des informations sur les 20 % de foyers américains qui déménagent tous les ans relève de l'épreuve de force. Or, si ce travail n'est pas fait correctement, le programme deviendra rapidement inutilisable. Les sociétés qui entretiennent de bonnes relations avec leurs clients se trouvent dans la meilleure position possible puisque leurs clients ont tout intérêt à rester en contact avec elles. Résumé Une clientèle fidèle est un atout précieux, surtout sur des marchés matures. Il n'est donc pas surprenant que de nombreuses sociétés adoptent des stratégies fondées sur la réactivité au consommateur. Ces stratégies se mettent en place grâce à des informations détaillées sur la clientèle permettant de créer pour elle des produits ou des services sur mesure. L'objectif consiste à s'assurer que les clients les plus précieux reçoivent le meilleur traitement qui soit. Dans cet article, George Day expose les éléments de ces stratégies : l'excellence des produits ou des services est essentielle ; une fois ce prérequis assuré, des interactions personnalisées avec les clients, des initiatives visant à instaurer un capital confiance dans les produits ou les services et des mesures de fidélisation des clients peuvent être mises en oeuvre. Trop souvent, malheureusement, les sociétés s'appuient sur une personnalisation inadaptée ou sur de pâles imitations. La fixation des prix : un art autant qu'une science Déterminer les coûts de production, situer son entreprise face à la concurrence, définir les attentes des clients... il faut de tout cela et un peu plus pour élaborer une stratégie cohérente de prix. LAKSHMAN KRISHNAMURTHI Trouver le bon prix de vente d'un bien ou d'un service est l'une des tâches les plus ardues pour l'entreprise. Les études de marketing peuvent être utilisées, avec plus ou moins de succès, pour déterminer les caractéristiques souhaitées par les clients, et leur importance relative. Mais dès que l'on demande aux clients ce qu'ils seraient prêts à débourser pour le bien ou le service, l'exercice devient plus
épineux. Cet article explorera d'abord le rôle stratégique du prix, puis étudiera les différents facteurs qui l'influencent. Une attention particulière sera ensuite apportée aux avantages perçus par le client, qui jouent un rôle clef dans la détermination du prix. Un rôle stratégique Dans la fixation du prix d'un bien ou d'un service, les éléments macro-déterminants essentiels sont : la situation de l'entreprise par rapport à sa concurrence, les objectifs stratégiques établis pour le produit ou la ligne de produits, et l'avancement du cycle de vie de ce même produit (voir figure 1). Si votre objectif stratégique prioritaire est la rentabilité plutôt que l'augmentation de vos parts de marché, votre politique de prix sera peu agressive, et vous rechercherez des créneaux sur lesquels les consommateurs sont prêts à payer votre prix plutôt que de baisser celui-ci pour essayer d'attirer un segment de marché plus large. Dans le cadre de marchés ultracompétitifs, il est peu réaliste d'espérer pouvoir jouer sur les deux tableaux (rentabilité et parts de marché). Sur le marché des navigateurs du Web, Microsoft fournit gratuitement son produit Internet Explorer, une stratégie imbattable pour développer ses parts de marché. Netscape, qui auparavant vendait son propre navigateur, en est réduit pour sa survie à le céder gracieusement. Il faut, bien entendu, tenir compte des objectifs à moyen et à long terme ainsi que des avantages obtenus sur les ventes croisées de produits. Si, en donnant gratuitement un produit, vous fidélisez vos clients pour leur proposer à l'avenir d'autres produits, ce manque à gagner à court terme peut déboucher, à l'arrivée, sur une mine d'or. Votre but principal est-il de satisfaire vos clients? Considérez-vous que ce sont les consommateurs satisfaits qui, en fin de compte, vous apporteront rentabilité et parts de marché? Dans ce cas, votre politique de prix doit tendre à fidéliser la clientèle sur le long terme et compter sur des bénéfices à une plus longue échéance. L'avancement du cycle de vie du produit a aussi un impact sur le prix. Lors des phases de lancement et de montée en puissance du produit, les prix ont tendance à être élevés, car la demande est forte et les concurrents peu nombreux. Lorsque le produit entame les phases de croissance lente et de maturité, le prix est de plus en plus soumis à de fortes pressions de la concurrence. Qui est votre client? Si vous ne pouvez pas répondre clairement à cette question, vous ne pourrez pas élaborer une stratégie cohérente de prix. Les bases du marketing consistent à savoir qui vous recherchez (segmentation et ciblage), comment vous le recherchez (positionnement) et quels outils vous allez employer dans cette quête (marketing mix, qui comprend la fixation du prix). La figure 2 décrit les éléments clefs de toute élaboration de stratégie. Les facteurs d'influence * Filières de distribution Les canaux de distribution jouent un rôle quand plusieurs entreprises d'un même secteur empruntent différentes filières pour contacter le client final. Par exemple, Dell vend ses ordinateurs directement à ses clients, alors que Compaq vend en direct mais aussi par le biais d'intermédiaires. A efficacité et prix de vente égaux,
Dell fera plus de bénéfice sur chaque machine vendue, car Compaq aura dû rétribuer ses intermédiaires. Dell n'est pas soumis aux contraintes de la distribution de détail et n'a donc pas besoin de fixer ses prix aussi agressivement que Compaq. * Réglementation Selon le secteur d'activité, la réglementation peut être ou non un facteur déterminant. Dans certains pays, elle influence le prix de vente, en obligeant par exemple à un certain rendement. * Coûts Les coûts variables de production déterminent le prix plancher d'un produit. La seule limite au prix plafond est ce que le client est prêt à payer. Prenons l'exemple suivant : un fabricant de jeans vend 50.000 pantalons à 10 dollars l'unité. La capacité de l'usine de fabrication est de 80.000 pantalons. Le coût total de fabrication s'élève à 350.000 dollars, dont 100.000 dollars de coûts fixes de production, et 50.000 dollars de coûts fixes de vente. L'entreprise reçoit une commande supplémentaire de 20.000 jeans à 6,50 dollars l'unité, un prix inférieur au coût unitaire de fabrication qui est de 7 dollars le pantalon. Cette commande doit-elle être acceptée? D'un point de vue purement financier, elle devrait l'être. En effet, le coût variable de fabrication de la nouvelle commande n'est que de 5 dollars le jean (250.000 dollars/50.000 dollars) ; ainsi, chaque pantalon contribue aux bénéfices à concurrence de 1,50 dollar, pour une contribution totale de 30.000 dollars. L'entreprise ne supporte pas de coûts fixes supplémentaires, puisqu'il lui reste une capacité de fabrication de 30.000 jeans, et que la nouvelle commande n'est que de 20.000 unités. Trois types de coûts doivent être pris en compte : - le coût variable de fabrication des produits, qui est ici de 5 dollars l'unité ; - le coût d'absorption, qui représente les coûts variables de fabrication auxquels on rajoute les coûts fixes de fabrication ; les coûts fixes dans notre exemple étant de 2 dollars l'unité, le coût d'absorption est de 7 dollars le pantalon. - le coût global ou coût global en distribution, qui représente le coût d'absorption plus les coûts fixes de vente ; le coût fixe de vente étant de 1 dollar par unité, le coût global du jean s'élève à 8 dollars l'unité. Si les coûts fixes totaux sont alloués à l'unité, ils changeront en fonction des volumes. Il vaut mieux traiter les coûts fixes comme un coût forfaitaire, et les soustraire de la contribution totale pour calculer la rentabilité finale plutôt que de les allouer à l'unité. Le but de ce simple exemple est de montrer que les coûts fixes n'ont pas à rentrer en ligne de compte dans la fixation d'un prix, si l'opération se fait dans le cadre d'une fabrication déjà en cours, avec des capacités et des équipements encore disponibles. Une maximisation de la contribution est la seule façon d'amortir au mieux les coûts fixes. Si vous avez le choix entre produire A ou B, et que A offre une contribution totale supérieure à B, il vous faut d'autorité choisir de fabriquer A, en tout cas du point de vue financier. Pour en revenir à nos jeans, il convient d'étudier les conséquences de la fabrication
de la commande supplémentaire. Que se passera-t-il si le premier client, qui achète les jeans à 10 dollars l'unité, apprend qu'une autre personne ne les a payés que 6,50 dollars pièce? Le fabricant de jeans doit donc s'assurer qu'il n'existe aucun recoupement entre son premier marché et le deuxième commanditaire. Pour ce faire, il peut vendre ses jeans à l'étranger, ou exiger que la commande spéciale soit vendue sous une marque différente, ou encore envisager de modifier légèrement la coupe des jeans pour son nouveau client. Si vous êtes un fabricant dont les coûts sont faibles, devez-vous pour autant vendre vos produits à bas prix? Non! Les coûts relèvent de la sphère interne, les prix du monde extérieur. Les prix que vous allez fixer dépendent de ceux de la concurrence, et de la valeur que vos clients accordent à votre produit. * Valeur client Etudions le marché des ordinateurs personnels, qui peut être divisé entre les créneaux suivants : entreprises, professions libérales, PME-PMI, administrations, armées, éducation, informatique scientifique et foyers. Le prix est-il la motivation principale d'achat dans ces différents segments? Non, sans doute. Tout client veut en avoir pour son argent, certes, mais il ne recherche pas pour autant les plus bas prix du marché. Il ne faut pas confondre valeur et prix. Dans ce cas, comment définir la valeur? La valeur est propre à chacun. Une personne peut accorder une très grande valeur à un coupé Mazda, alors qu'une autre peut n'y être absolument pas sensible. La valeur est relative, elle n'entraîne aucun absolu, et c'est ce qui fait de la fixation des prix un art autant qu'une science. La valeur est dérivée des avantages économiques, fonctionnels et psychologiques fournis par le produit. Les avantages économiques sont motivés par le prix et par l'augmentation escomptée de la productivité. Les avantages fonctionnels sont obtenus par les caractéristiques du produit. Les avantages psychologiques comprennent par exemple la satisfaction, le confort, la sécurité, la tranquillité d'esprit, le contrôle, la puissance, etc. Imaginons que la Sécurité sociale décide d'acheter 500 ordinateurs. Le prix jouera sans doute un rôle clef dans la décision d'achat. En tant que fabricant d'ordinateurs, vous pourriez essayer de leur vendre en supplément un lecteur de CD-ROM, à un prix imbattable. Mais il est certain que la Sécurité sociale rejettera cette offre car, pour elle, le lecteur CD-ROM n'a aucune valeur. En revanche, ce même lecteur de CD-ROM pourrait être vendu au prix fort, une fois intégré dans un ordinateur multimédia destiné au segment familial. Ce créneau est pourtant très sensible au prix, mais la valeur perçue du lecteur de CD-ROM est bien plus grande que son prix. Il est difficile de savoir ce qui a de la valeur pour les clients. Si votre produit doit en remplacer un autre déjà utilisé par vos clients, une analyse de la valeur à l'utilisation peut démontrer les avantages supplémentaires attendus du nouveau produit, qui peuvent ensuite être chiffrés. Le prix du produit actuellement utilisé sert de référence. Le bénéfice net reflète la différence entre les nouveaux avantages obtenus et les coûts supplémentaires induits par l'utilisation du produit (coûts de formation, par exemple) ; une fois ajouté au prix de référence, ce bénéfice net détermine la valeur du nouveau produit. S'il est astucieux, le responsable du marketing se doit de reverser une partie des avantages excédentaires au client, et de fixer pour ce produit un prix inférieur à sa valeur. En combinant les tests beta (où l'on met le produit à disposition d'utilisateurs préalablement sélectionnés pour qu'ils l'essaient) et les analyses de la
valeur à l'utilisation, la valeur pour le client et le prix de vente peuvent être correctement estimés. Xerox, par exemple, a eu recours à près de 20 sites beta lors du lancement de son chargeur de papier «Docutech Production», qui a ensuite connu un grand succès. En ce qui concerne les produits innovants, il est essentiel de réaliser des essais et d'éduquer la clientèle, afin de lui faire comprendre ce que ce produit peut apporter. Mais, même après que le client a accordé une valeur au produit, la fixation du prix de vente reste un exercice délicat. A l'inverse des produits existants qui servent de référence, les nouveaux produits satisfont des besoins que les clients étaient incapables d'exprimer seuls. * Concurrence Nul n'est immunisé contre la concurrence, du moins à long terme. L'impact de la concurrence sur vos propres prix dépend des facteurs suivants : - Quel capital constitue votre marque? Vos clients vous sont-ils fidèles? - Vos produits peuvent-ils être facilement substitués? - Quel est le degré de concentration de votre marché? Si vous êtes leader sur votre marché, vous êtes moins vulnérable à une guerre des prix. Compaq est moins sensible que Gateway à la concurrence sur les prix, par exemple. Ceci signifie que l'élasticité des prix entre les deux marques est asymétrique. Néanmoins, quelle que soit l'asymétrie, plus l'indice d'élasticité croisée est élevé, et plus le produit est banalisé. Quand les entreprises de tête, que ce soient le leader ou ses prétendants immédiats, cassent les prix, ce sont les petites entreprises du marché qui souffrent le plus. Leur stratégie du «moi aussi» n'est fondée que sur un avantage de prix, qui peut être sapé quand les leaders baissent leurs prix. Les «petits» doivent alors encore baisser leurs prix, mais leur latitude est faible, étant donné l'étroitesse de leurs marges. Tout n'est pas perdu pour autant, car l'art de l'exercice porte sur la différenciation. L'entreprise peut être incapable de se différencier sur le produit de base, mais parvenir à se distinguer sur une offre étoffée. De meilleurs délais, des livraisons fiables, un support et des services au client personnalisés peuvent faire la différence. Sur le marché des imprimantes laser, Hewlett-Packard possède 60 % de parts de marché et ses imprimantes sont légèrement plus chères que leurs concurrentes. Ceci est possible grâce au capital que constitue sa marque. Bien entendu, la puissance de HP n'est pas fortuite, et s'est bâtie à coups d'investissements considérables. HP a dépensé une fortune en marketing pour développer sa marque Laserjet. Le capital de cette marque l'isole des guerres des prix déclenchées par ses concurrents. En innovant constamment, et en étendant sa gamme de manière à couvrir tous les segments de prix, HP s'est taillé la part du lion sur le marché des imprimantes. Compaq, qui a si bien réussi sur le marché des ordinateurs personnels, a quitté le marché des imprimantes après deux ans de présence seulement, dès qu'il s'est rendu compte qu'il lui serait impossible d'arracher la moindre part de marché à HP. Hewlett Packard est devenu la norme technique et psychologique du marché des
imprimantes laser. Lorsqu'un client achète une imprimante HP, la valeur qu'il tire de l'avantage psychologique que lui confère cette machine est supérieure au coût supplémentaire qu'il a dû payer par rapport à une imprimante concurrente. Les avantages fondés sur l'innovation ont tendance à s'effriter rapidement. Mais, bien entretenu, un avantage psychologique peut perdurer. Le capital de la marque permet l'asymétrie des élasticités croisées et procure un avantage certain. En revanche, lorsque la valeur perçue est relative, les différences de prix pèsent sur la décision d'achat. Le client ne choisit pas un produit dans le vide. Tout responsable marketing intelligent doit établir une différenciation, véritable ou uniquement perçue, pour rendre les comparaisons entre produits plus difficiles. Il doit aussi rechercher les segments de marché qui accordent encore de la valeur à ces caractéristiques de différenciation. Les marques de distributeurs et les produits génériques, placés à côté des produits de grande marque dans les rayons des supermarchés américains, sont toujours moins chers mais se vendent pourtant moins bien, dans la quasi-totalité des catégories de produits. Prenons l'exemple des antalgiques vendus sans ordonnance : l'aspirine générique se vend moins bien que l'aspirine de Bayer, les ventes de paracétamol générique sont infimes par rapport à celles du Tylenol, et ainsi de suite. Les clients ne suivent pas aveuglément la marque. Mais le coût psychologique d'une erreur éventuelle étant plus important que la différence de prix, ils préfèrent faire confiance à la marque. De tels exemples, où les perceptions (la psychologie?) jouent un grand rôle, ne se retrouvent pas uniquement dans les supermarchés. Les perceptions entrent aussi en jeu dans le monde de l'entreprise, lors de la décision d'achat de mainframes, de grosses photocopieuses, ou du choix d'un cabinet de conseil, par exemple. Dans tous les cas, surtout quand les enjeux financiers sont conséquents, le client hésite à choisir le vendeur ou le fournisseur le moins cher du marché. Les économies pécuniaires relèvent de l'avantage économique, qui n'est qu'un seul des trois avantages participant à la création de valeur. Les recherches effectuées par Xerox parmi ses clients de photocopieurs d'entreprise ont montré que les grands comptes, du type Fortune 500, accordaient plus d'importance à la fiabilité et à la facilité d'utilisation qu'au prix dans leurs décisions d'achat d'équipement ; pour les achats de services, les critères de décision portaient principalement sur l'expertise technique et la garantie d'un délai de réaction rapide, bien plus que sur le simple prix. En revanche, pour les contrats passés avec des administrations ou les services de l'éducation, le prix faisait toujours la différence. Ceci ne veut pas dire que le prix n'a aucune importance pour les entreprises de type Fortune 500. Mais, un fabricant de photocopieurs qui propose un prix cassé, en sacrifiant sur les fonctionnalités et le service, risque de perdre le marché au profit d'une offre plus étoffée, même si cette dernière est plus chère. Qu'en est-il de la rentabilité? Etant donné le segment de marché ciblé, il faut rester dans la même fourchette de prix que vos concurrents. Au début des années 90, IBM en a fait la douloureuse expérience avec ses PC dont les prix dépassaient nettement ceux du marché. Il faut aussi savoir différencier son produit : par le biais de la distribution, comme Dell l'a si bien réussi, ou en offrant des fonctionnalités étendues, comme Xerox
avec ses photocopieurs numériques. On peut aussi se distinguer en cassant les prix, à l'instar de Southwest Airlines aux Etats Unis, ou de Virgin au Royaume Uni. Oo encore imposer sa différence par sa notoriété et son ubiquité, comme Nike. La prestation de services ultra-personalisés peut aussi se révéler efficace, comme l'ont démontré plusieurs opticiens indépendants, et ce malgré des prix de vente plus élevés que ceux de leurs puissants concurrents propriétaires de chaînes de magasin. Et la liste n'est pas exhaustive. L'essentiel est de faire quelque chose! Comment estimer la sensibilité au prix Pour évaluer la réaction des clients à un changement de prix, il faut d'abord avoir une idée de leur sensibilité au prix. Plus les clients attachent de la valeur au produit, moins ils sont sensibles à son prix. Il existe différentes manières de mesurer la sensibilité au prix. Avant de lancer un nouveau produit ou service, on peut employer différentes méthodes : faire appel au bon sens ; utiliser un produit analogue, et ajuster le résultat obtenu en fonction des singularités du nouveau produit ; faire intervenir des panels de consommateurs à qui on décrit le concept, voire on montre un prototype ; réaliser des études de marché décrivant le produit ; effectuer une analyse conjointe, au cours de laquelle différentes versions du produit sont hypothétiquement créées et les réactions des clients observées. Les essais limités ou les tests beta sont aussi possibles. Des méthodes statistiques comme l'analyse de régression peuvent se révéler utiles dans le cas de produits ou services existants pour lesquels des données factuelles sont disponibles. Lors de recherches effectuées avec un collègue, nous avons démontré que l'intensification de la publicité, ciblée non pas sur les prix mais sur l'ambiance générale du produit, peut réduire la sensibilité du client au prix. Bien sûr, le coût de ce genre de publicité doit être rapporté au chiffre d'affaires supplémentaire attendu de la hausse du prix. D'autres études nous ont montré que si les clients fidèles à une marque le restent même en cas de hausse des prix, ils ont en revanche tendance à réduire les quantités achetées. Ceci signifie que les clients ne sont pas très sensibles au prix quand il s'agit de choisir un produit, mais qu'en revanche ils y sont très sensibles pour déterminer la quantité d'achat. Voici une manière d'estimer la sensibilité de vos prix. Demandez aux chefs de produits de votre entreprise d'évaluer les conséquences sur les ventes d'une modification de x % des prix de vente (à la hausse ou à la baisse, en incrémentant x d'une façon ou d'une autre, par exemple de 2 %, 4 % etc. Jusqu'à 10 %). Essayez d'obtenir des réponses de différentes sources pour chaque produit. Demandez qu'elles soient justifiées. Si vous avez plusieurs produits, il serait instructif de comparer l'élasticité estimée des prix entre produits afin (. Ceci vous permettrait ensuite) de relier ensuite les caractéristiques des produits aux différentes fluctuations de leur élasticité. Par exemple, l'élasticité des prix risque d'être plus grande sur les marchés très concurrentiels s'il existe de nombreux substituts, si les dépenses relatives en marketing sont basses et si le client diversifie souvent ses dépenses. Si vos marchés sont géographiquement séparés ou relativement enclavés, vous pourriez même essayer de réaliser une expérience sur une zone représentative pour mieux comprendre la réactivité au changement de prix. La fixation des prix est un art aussi bien qu'une science. La théorie vous permettra
d'en mieux comprendre le côté scientifique, mais seule la pratique vous changera en un véritable artiste. Résumé L'un des exercices les plus périlleux du marketing est la fixation du prix de vente. Dans cet article, Lakshman Krishnamurthi décrit les nombreux facteurs que doit prendre en compte tout responsable du marketing et dont l'équilibrage savant relève autant de l'art que de la science. Bien entendu, les coûts doivent être amortis, même si la stratégie globale de l'entreprise demande parfois que ceci ne se fasse qu'à long terme. Microsoft, par exemple, a gratuitement mis à disposition son logiciel «Internet Explorer» en vue de développer sa part de marché. Le juste prix dépend aussi de la valeur que les clients allouent au produit. Plus cette valeur est élevée, moins le client est sensible aux variations de prix. Cette valeur, quant à elle, dépend de la perception des avantages économiques, fonctionnels et psychologiques offerts par le produit, qui sont particulièrement difficiles à évaluer dans le cas de nouveautés. Comment estimer la sensibilité au prix Pour évaluer la réaction des clients à un changement de prix, il faut avoir une idée de leur sensibilité au prix. Plus les clients attachent de la valeur au produit, moins ils sont sensibles à son prix. Il existe différentes manières de mesurer la sensibilité au prix. Avant de lancer un nouveau produit ou service, on peut employer différentes méthodes : faire appel au bon sens ; utiliser un produit analogue, et ajuster le résultat obtenu en fonction des singularités du nouveau produit ; faire intervenir des panels de consommateurs à qui on décrit le concept, voire on montre un prototype ; réaliser des études de marché décrivant le produit ; effectuer une analyse conjointe, au cours de laquelle différentes versions du produit sont hypothétiquement créées et les réactions des clients observées. Les essais limités ou les tests beta sont aussi possibles. Des méthodes statistiques comme l'analyse de régression peuvent se révéler utiles dans le cas de produits ou services existants pour lesquels des données factuelles sont disponibles. Lors de recherches effectuées avec un collègue, nous avons démontré que l'intensification de la publicité, ciblée non pas sur les prix mais sur l'ambiance générale du produit, peut réduire la sensibilité du client au prix. Bien sûr, le coût de ce genre de publicité doit être rapporté au chiffre d'affaires supplémentaire attendu de la hausse du prix. D'autres études nous ont montré que si les clients fidèles à une marque le restent même en cas de hausse des prix, ils ont en revanche tendance à réduire les quantités achetées. Ceci signifie que les clients ne sont pas très sensibles au prix quand il s'agit de choisir un produit, mais qu'en revanche ils y sont très sensibles pour déterminer la quantité d'achat. Voici une manière d'estimer la sensibilité de vos prix. Demandez aux chefs de produits de votre entreprise d'évaluer les conséquences sur les ventes d'une modification de x % des prix de vente (à la hausse ou à la baisse, en incrémentant x d'une façon ou d'une autre, par exemple de 2 %, 4 %, etc., jusqu'à 10 %).
Essayez d'obtenir des réponses de différentes sources pour chaque produit. Demandez qu'elles soient justifiées. Si vous avez plusieurs produits, il serait instructif de comparer l'élasticité estimée des prix entre produits, ce qui vous permettrait ensuite de relier les caractéristiques des produits aux différentes fluctuations de leur élasticité. Par exemple, l'élasticité des prix risque d'être plus grande sur les marchés très concurrentiels s'il existe de nombreux substituts, si les dépenses relatives en marketing sont basses et si le client diversifie souvent ses dépenses. Si vos marchés sont géographiquement séparés ou relativement enclavés, vous pourriez même essayer de réaliser une expérience sur une zone représentative pour mieux comprendre la réactivité au changement de prix. La fixation des prix est un art aussi bien qu'une science. La théorie vous permettra d'en mieux comprendre le côté scientifique, mais seule la pratique fera de vous un véritable artiste. Résumé L'informatique transforme le mode de fonctionnement des marchés. Les fondements de l'ère industrielle s'effritent et tendent à disparaître. Dans cet article, Arvind Sahay examine les conséquences de ce phénomène sur la stratégie concurrentielle. Il affirme que la facilité du transfert d'information - pour les entreprises, pour les consommateurs, bref pour tous les acteurs du marché - signifie que ces derniers seront dotés d'une plus grande «connectivité». Les frontières de l'entreprise deviennent plus perméables. La nécessité d'une stratégie de partenariat bien pensée va s'accroître au fur et à mesure que les réseaux stratégiques deviendront la meilleure façon d'être compétitif. La vitesse des flux d'information permettra aux acteurs d'orienter le marché plus qu'auparavant ; mais les marchés électroniques risquent de se comporter de manière extrêmement imprévisible. La stratégie concurrentielle à l'ère de l'informatique Les anciennes règles du jeu de l'ère industrielle se sont modifiées avec l'avènement de l'informatique. Quelles sont les conséquences de ce phénomène sur la stratégie concurrentielle des entreprises? ARVIND SAHAY L'objectif de toute stratégie concurrentielle est d'obtenir un avantage sur le marché. L'avantage concurrentiel se compose de deux éléments : d'une part, une valeur supérieure pour le client et, d'autre part, un coût relatif moindre. Une entreprise est capable de fournir une valeur client supérieure lorsqu'elle satisfait les exigences du client mieux que ses concurrents. Les outils créateurs de valeur comprennent la tarification, la communication et la qualité de la livraison. La question essentielle est : pourquoi la stratégie concurrentielle des marchés électroniques serait-elle différente de celle de tous les marchés «normaux» ou «physiques»? Prenons le cas de la fixation des prix. Pendant l'ère agraire, la plupart des coûts d'un producteur étaient variables. Les coûts fixes étaient faibles (pour les artisans), voire négligeables (pour les propriétaires terriens). A l'ère industrielle, une estimation rapide permet d'affirmer que 40 à 60 % des coûts étaient fixes, le reste étant variable. Ceci explique l'apparition du célèbre modèle des prix marginaux, où le prix est égal au coût marginal.
A l'époque de l'informatique, pratiquement tous les coûts sont fixes, comme c'est le cas pour les logiciels et les puces de semi-conducteurs. Le coût marginal de production d'une unité supplémentaire est alors très bas, parfois même négligeable. Les entreprises peuvent-elles continuer à utiliser la notion de coût marginal ou tout autre système de détermination des prix variables fondé sur les coûts alors que le coût de chaque unité supplémentaire est proche de zéro? Un modèle tel que celui mis en oeuvre par Netscape ne serait-il pas plus pertinent? Ce dernier ne fournit pas uniquement son browser (logiciel de navigation), mais également le code source de celui-ci. Les éditeurs de logiciels indépendants et les utilisateurs sont ainsi en mesure d'ajouter des applications au browser pour accroître sa valeur et, indirectement, la valeur du progiciel proposé par Netscape sur le marché. Ce type d'approche des prix ne correspond pas aux modèles de détermination des prix conçus pour l'époque industrielle. Sommes-nous donc passés à l'âge de l'information? En 1995, les produits liés à l'information fabriqués aux Etats-Unis, tels que les logiciels et le matériel informatique, les produits de télécommunications, ou liés à Internet, ont dépassé en valeur les biens issus ou associés au secteur de l'automobile, produit phare de l'ère industrielle du XXe siècle. Un autre exemple : jusqu'aux années 70, lorsqu'une société lançait un produit, elle faisait appel à la télévision, à la radio, aux panneaux publicitaires, à la presse et/ou aux Salons professionnels pour le faire connaître. Au fil du temps, ces messages suscitaient et maintenaient l'intérêt du consommateur. Aujourd'hui, une entreprise peut communiquer en temps réel avec ses clients et livrer des produits et services sur mesure avec des délais très courts. Dell, par exemple, fournit des ordinateurs sur commande dans un délai de deux jours pour les clients qui les demandent à travers une publicité en ligne sur PointCast. Et Toyota livre des voitures sur commande en 14 jours. L'ensemble du processus de sensibilisation, d'intérêt, d'essai et d'achat peut se faire dans un laps de temps très court. Dans le même temps, les consommateurs accèdent à davantage d'informations qu'auparavant sur les biens et les services en concurrence. Comment une entreprise fait-elle face à ses concurrents dans un monde où les anciennes règles du jeu se modifient et tendent à disparaître? Le marché électronique Les deux exemples ci-dessus montrent combien la concurrence entre entreprises a évolué et indiquent combien la stratégie concurrentielle sur les marchés électroniques risque de s'éloigner de celle des marchés «industriels». Les entreprises sont de plus en plus en concurrence sur des marchés fondés sur l'information et l'électronique. Un marché électronique regroupe des fabricants, des acheteurs, des intermédiaires ainsi que des fournisseurs d'infrastructure électronique. Ensemble, ils créent un support électronique au sein duquel les producteurs et les acheteurs effectuent des transactions. Les utilisateurs accèdent au support électronique par le biais de nouveaux systèmes multimédias interactifs. Ces systèmes de communication audiovisuels fonctionnent dans les deux sens et en temps réel, et facilitent l'accès à des informations stockées sur des ordinateurs, permettant ainsi aux utilisateurs et aux entreprises de : primo, fournir et accéder aux données de façon interactive, secondo, communiquer sur le support et, tertio, effectuer des échanges en temps réel. Les sociétés commencent à utiliser les nouveaux médias pour une gamme très large d'activités : le développement de produits ; la collecte d'informations auprès des
clients ; l'échange d'informations avec les clients, les fournisseurs et les fabricants de produits complémentaires ; la promotion, la publicité et la distribution de biens et services ; et enfin les transactions. Les nouveaux acteurs font largement appel à ces nouveaux médias pour concurrencer les entreprises existantes qui s'appuient davantage sur les médias classiques. Les experts voient dans les nouveaux médias et les marchés électroniques une opportunité autant qu'une menace. Ces évolutions diminuent les coûts pour les entreprises, qui répercutent la baisse sur les prix au client. Les marchés boursiers commencent à reconnaître cette évolution en valorisant à des niveaux inégalés les entreprises qui en sont le symbole. Par exemple, le Tobin's Q (le ratio entre la capitalisation boursière d'une entreprise et la valeur comptable de ses actifs) est proche de 1 pour des organisations telles que General Motors et ATT ; il était de 6,5 pour WorldCom en novembre 1997 et d'environ 15 pour Microsoft. Les marchés financiers récompensent aujourd'hui les entreprises qu'ils estiment capables d'obtenir de bonnes performances à l'avenir, plutôt que celles qui ont actuellement de bons résultats financiers. Evolutions de la concurrence Les entreprises en concurrence sur les marchés électroniques assistent à des évolutions dans trois domaines : sur le marché même, au sein de leurs propres organisations et dans leurs tactiques. * Evolutions du marché L'émergence du marché électronique a eu pour première conséquence d'obliger les entreprises à sortir de leur isolement : désormais, elles ne peuvent plus opérer seules. Des produits de tous types utilisent un nombre croissant de technologies et rares sont les sociétés qui les possèdent toutes. Même les produits à très faible valeur technologique tels que les céréales de petit déjeuner commencent à intégrer des puces sur les emballages, permettant d'une part de diminuer le prix au fur et à mesure que le produit se rapproche de sa date de péremption et, d'autre part, de mettre à jour les stocks du détaillant. Cette procédure exige une collaboration entre fabricants de céréales, fabricants de puces et détaillants. L'information (concernant la date de péremption) devient du même coup une composante explicite de l'offre produit. Un fabricant de céréales ne pourra plus se contenter de livrer un lot au détaillant et s'en tenir là. Dans les années 80, la division Pampers de Procter & Gamble a conclu un partenariat stratégique avec la chaîne de supermarchés Wal-Mart qui vend un nombre considérable de ses couches jetables. Wal-Mart s'est engagé à transmettre à Procter & Gamble les chiffres des ventes quotidiennes de Pampers de chacun de ses 2.000 points de vente. Grâce à ces données, Procter & Gamble peut réassortir les magasins Wal-Mart sans que ces derniers aient besoin d'agir. Résultat : Pampers a pratiquement doublé ses rotations de stock pour atteindre la centaine au cours de la première année et Wal-Mart a pu faire des économies sur ses coûts de stockage et de personnel - ce qui constitue une parfaite illustration d'une intégration informatique des données des points de vente et de celles des systèmes de production et de logistique. Si cet exemple décrit une tendance qui va se généraliser dans tous les secteurs de l'économie, quelles en sont les conséquences? 1. Les frontières entre les entreprises deviennent plus floues. Cisco Systems, Dell, Sainsburys, Asda et Yoko-Itado sont d'autres exemples de cette perméabilité croissante entre entreprises.
2. La nature des transactions avec les clients est en pleine évolution. A l'ère industrielle : - les entreprises vendaient un produit et percevaient en contrepartie de l'argent ; - les entreprises détenaient pratiquement toute l'information au cours de l'échange. Le déséquilibre résultant en termes d'information rendait le vendeur plus puissant ; - les sociétés «diffusaient» des messages à un large public d'acheteurs. Les pages publicitaires au cours de la diffusion de la finale du Super Bowl aux Etats-Unis en sont l'exemple type. Cette façon de communiquer avec le public semble avoir atteint ses limites dans les économies développées ; - les transactions s'effectuaient aux heures ouvrables dans les centres commerciaux, où l'acheteur se rendait en personne. Pour acheter une action, un investisseur devait appeler un agent, qui ensuite achetait le titre uniquement pendant les séances de Bourse. Aujourd'hui, certaines entreprises étoffent leurs produits en offrant des fonctionnalités complémentaires et des informations sur ces fonctionnalités et services. Elles tentent d'avoir un échange affectif avec leurs clients en exploitant les nouveaux multimédias interactifs. Lorsque CDnow vend un enregistrement, l'entreprise obtient un profil détaillé de son client qu'elle utilise ensuite pour le sensibiliser aux dernières sorties musicales correspondant à son type de musique préféré. Anticiper sur les souhaits du client permet d'augmenter les affinités entre le consommateur et le fournisseur de service. L'accès à l'information est plus symétrique, comme le prouve le changement de comportement des concessionnaires automobiles depuis l'apparition d'auto-by-tel sur Internet. Auto-By-Tel rassemble les données de concessionnaires situés au quatre coins des Etats-Unis et propose aux éventuels acheteurs de voitures des prix qui sont en moyenne 10 à 15 % plus bas que ceux de leurs concessionnaires les plus proches. Auto-By-Tel diminue ainsi les coûts de recherche pour le consommateur et lui permet de faire des comparaisons qui étaient impossibles auparavant. Les clients ne marchandent plus avec les concessionnaires, ce sont ces derniers qui font des offres concurrentielles aux clients pour obtenir la vente. Autre différence avec l'ère industrielle, les consommateurs peuvent maintenant utiliser des filtres pour choisir les messages publicitaires qu'ils souhaitent recevoir. Les abonnés de PointCast, par exemple, reçoivent uniquement des messages correspondant à leurs chaînes. En France, les abonnés au téléphone vont pouvoir choisir d'écouter une publicité de 15 secondes en échange d'un appel local gratuit, ou encore faire un appel local pour un prix dérisoire. La tendance est de rétribuer le client pour qu'il regarde une publicité. Les transactions ont lieu partout et à n'importe quelle heure. Un consommateur peut retirer de l'argent à tout moment. Et, à terme, les investisseurs pourront acheter et vendre des titres sur le Nasdaq n'importe quand, qu'ils se trouvent à Austin, au Texas, à New Delhi ou à Londres. Le tableau 1 illustre les évolutions des transactions entre l'ère industrielle et l'ère informatique, entre le marché «physique» et le marché électronique. 3. La concurrence se dématérialise. Barnes & Noble, le libraire, a été dépassé par Amazon.com pendant deux ans avant de mettre sur pied son propre site en ligne.
Des stratégies de ce type, développées par de nouvelles entreprises qui exploitent les spécificités des marchés électroniques, sont mises en oeuvre dans d'autres secteurs où les sociétés existantes utilisent des méthodes non électroniques. Ces entreprises sont particulièrement vulnérables car, bien que leurs méthodes soient rentables, les nouveaux médias offrent, eux, des avantages encore inconnus et difficiles à quantifier. * Evolutions au sein des organisations 1. L'information est accessible à tous en temps réel au sein de l'entreprise (même si l'accès est encore très souvent limité aux seules personnes autorisées). Son utilisation est, par contre, une tout autre question. Ainsi, au lieu de monter par la division marketing pour ensuite redescendre par la voie hiérarchique dans les différentes artères de l'organisation, les informations concernant les clients et les fournisseurs circulent horizontalement. De même, les informations de production arrivent aussi au marketing et à la finance. 2. En théorie, on devrait pouvoir accéder à l'information à tous les niveaux et non uniquement au sommet de l'organisation. C'est déjà le cas dans des entreprises telles que Procter & Gamble, Dell et Cisco Systems. Des informations plus nombreuses et de meilleure qualité sont désormais disponibles à la périphérie des entreprises où se connectent les clients, les fournisseurs, et les fournisseurs de services complémentaires. Un représentant de Dell qui rend visite à un client détient ainsi des informations en temps réel sur les derniers achats de ce client, quand ils ont été effectués, son historique en termes de maintenance, la production actuelle de Dell et ses prévisions technologiques, etc. 3. Au fur et à mesure que s'accroît la richesse d'information, il en va de même pour les liens au sein de l'organisation et ceux entre l'entreprise et ses clients, ses fournisseurs, ses concurrents ainsi que ses fournisseurs de services complémentaires. Ce phénomène permet de réduire les coûts et d'être plus efficace. Les entreprises innovantes ont su rapidement exploiter les atouts qu'apportent cette grande «connectivité». Le fabricant italien de vêtements Benetton a remplacé les informations provenant des stocks par une collecte quotidienne des données sur les ventes faites partout dans le monde. Grâce à ce système, les décisions de fabrication se fondent non pas sur des stocks constitués des mois à l'avance, mais plutôt sur les achats. Ce nouveau système a permis d'obtenir un retour d'information direct du consommateur au fabricant, et d'éviter le retard dû au transfert d'informations par les détaillants et les grossistes. Outre les économies de coûts de stockage, de transport et de référencement, les nouvelles connexions fournissent de meilleurs renseignements sur les goûts des clients. * Changements dans les tactiques 1. Une panoplie technologique incomplète, des frontières entre entreprises plus floues et une connectivité accrue, autant de raisons pour que les sociétés prennent au sérieux les décisions en matière de partenariat. Ces décisions sont en train de devenir un élément clef de la compétitivité de l'entreprise. D'ailleurs, la concurrence ne se fait pas uniquement entre entreprises, mais plutôt entre groupes économiques ou réseaux d'organisations. Pour se couvrir, certaines entreprises choisiront de se rattacher à plusieurs réseaux. Pour concurrencer les groupes adverses plus efficacement, une entreprise devra fidéliser ses partenaires importants et/ou de long terme en faisant payer cher toute velléité de changement de réseaux.
De nombreux partenariats porteront sur le court terme. Les organisations doivent estimer la durée de chaque partenariat potentiel afin d'éviter que ces alliances se transforment en fardeaux. Quant aux partenariats temporaires, les entreprises doivent être capables de se séparer en bons termes, notamment lorsqu'un partenariat futur peut être envisagé avec le partenaire dont on se sépare. La réputation de l'entreprise en tant que partenaire devient alors un élément clef pour attirer de nouveaux alliés et un moyen d'apporter aux consommateurs un ensemble d'avantages supérieurs à celui de la concurrence. De telles évolutions signifient qu'une analyse standard des cinq forces (préconisée par Michael Porter) est alors insuffisante. Les clients, les fournisseurs et les fabricants de produits complémentaires peuvent changer de rôle dans de ce bal du partenariat. Qu'en estil si une société porte plus d'une casquette? Les organisations qui opèrent sur les marchés électroniques devront également réfléchir à une question connexe : si une entreprise fait partie d'un réseau économique, a-t-elle intérêt à participer à l'accroissement du «gâteau» commun générateur de revenus (la base utilisateur-consommateur final, l'utilisation du produit vendu, etc.) et, par ce biais, augmenter ses recettes provenant de sa part constante du gâteau? Ou bien l'organisation doit-elle augmenter sa part du gâteau au détriment des autres partenaires du réseau économique? Qui plus est, quelle est la position de l'entreprise au sein du réseau eu égard à ses partenaires, ses fournisseurs et ses clients? 2. Un accès plus large à l'information signifie que la stratégie concurrentielle des organisations doit maintenant partir de l'hypothèse que l'information est symétrique. Ce qui implique des marchés libérés d'une grande partie des frictions. De tels marchés entraînent une accélération des processus concurrentiels. Les produits sont livrés plus rapidement, l'information sur les produits circule plus vite, le retour d'information sur les produits se fait plus rapidement - parfois sans que le client en soit conscient -, les nouveaux entrants sont capables de jauger les barrières à l'entrée dans un laps de temps extrêmement court, les réactions concurrentielles et les contre-réactions sont quasi instantanées. Il en résulte qu'il n'existera plus d'avantage concurrentiel figé. Les études de marché telles que nous les connaissons aujourd'hui pour les produits de grande consommation vont disparaître. Cette tendance est déjà visible dans les secteurs des logiciels et de l'automobile, où les entreprises travaillent avec les fournisseurs et les consommateurs pour développer des produits. Au mieux, les entreprises auront un avantage temporaire et devront passer à d'autres sources d'avantages au fur et à mesure que la concurrence les rattrape. Ainsi, il leur faudra constamment surveiller le marché et leurs propres ressources afin d'identifier le prochain avantage concurrentiel potentiel. 3. Grâce aux flux d'informations plus rapides et aux retours d'informations accélérés qui en découlent, les entreprises ont davantage l'occasion d'orienter le marché. Dell ne construit pas uniquement à la commande. Il utilise également les circuits mis en place avec ses clients pour les sensibiliser aux dernières évolutions technologiques. En outre, il développe souvent des produits en exploitant des données fournies par ces mêmes clients. Le groupe est donc capable non seulement de réagir à l'environnement dans lequel il opère, mais aussi de le modifier. Des études récentes suggèrent qu'il est possible de «tirer le marché» en utilisant, par exemple, les licences technologiques sur les marchés du matériel informatique et des logiciels ainsi que celui des télécommunications.
Auparavant, seuls des géants tels que General Motors ou Nestlé avaient les moyens d'influencer la configuration du marché. Désormais, une start-up comme Junglee - fondée en 1996 - a le potentiel, selon de nombreux analystes, de modifier la structure du marché en ligne. Junglee développe des logiciels qui seront capables d'effectuer des recherches d'information intelligentes à partir de n'importe quelle base de données électronique. Les consommateurs pourront alors passer des requêtes booléennes sur HotBot.com aux requêtes en langage naturel. Un produit de ce type multiplie les avantages potentiels des nouveaux médias interactifs pour le consommateur. Le seul inconvénient est qu'au démarrage un marché électronique a des contours relativement flous. Cette incertitude résulte de la connectivité accrue interentreprises, entre entreprises et individus, et entre individus. En principe, une plus grande connectivité entraînerait davantage de discontinuités sur le marché du fait même des propriétés émergentes des systèmes adaptatifs. Un système adaptatif se compose d'«agents» indépendants capables de prendre des décisions sur la base de quelques règles. Ces agents sont soit des personnes, soit des coupecircuits, ou encore des instructions de ventes, de l'adn, bref toute entité dont les décisions sont définies en termes de règles. L'organisation est un rassemblement de personnes, un «super-agent» doté de son propre ensemble de connexions internes. Puisqu'elles sont reliées, les actions d'un des agents influencent les choix d'un autre. Des simulations portant sur un grand nombre d'agents reliés entre eux montrent qu'ils se comportent souvent de façon imprévisible. Les caractéristiques de systèmes de ce type sont le produit du comportement des entreprises et individus connectés. Souvent, ces propriétés émergentes sont «non linéaires», en d'autres termes elles sont volatiles, tout comme les places financières. C'est pourquoi les organisations devront à la fois s'adapter au marché tout en le façonnant. Elles auront besoin de trouver le juste équilibre entre évoluer avec le marché et influencer l'orientation de cette évolution afin de fournir une valeur supérieure aux clients. * Conseils aux entreprises Le tableau 2 résume les différences de concurrence entre l'ère industrielle et celle des marchés électroniques. Voici quelques lignes directrices pour les entreprises : * Identifiez clairement le réseau économique auquel votre entreprise appartient et quel est le rôle de votre organisation au sein de ce réseau. Déterminez si l'objectif de votre société est d'accroître le gâteau du réseau auquel elle appartient ou d'augmenter sa propre part. Développez des stratégies marketing adaptées à votre objectif. * Préparez une stratégie de partenariat, sinon votre entreprise conclura des alliances avec les mauvais partenaires. * Attirez les autres acteurs de votre réseau économique avec des retours d'information toujours plus serrés et augmentez leurs coûts de retrait. * Innovez afin de trouver le prochain avantage concurrentiel avant que la concurrence ne vous ait rattrapé sur votre avantage actuel.
* Sachez que si l'analyse des cinq forces est encore utile, les marchés électroniques sont dynamiques et non statiques : les fournisseurs peuvent devenir des clients et des concurrents et vice-versa, ce qui peut compliquer la donne. Les règles du jeu concurrentiel Il ne suffit pas d'anticiper la réaction des consommateurs à une action marketing. Le succès dépend dans une large mesure du comportement des concurrents. WILLIAM P. PUTSIS Une grande partie des études effectuées sur le marketing depuis les vingt dernières années a été consacrée à la compréhension des mécanismes de ventes. Nous connaissons bien le fonctionnement des promotions et leurs répercussions sur le chiffre d'affaires : les chercheurs ont mesuré la réaction des consommateurs aux modifications de prix dans de nombreuses catégories de produits. Néanmoins, du point de vue du management, comprendre les conséquences des actions commerciales sur les ventes ne suffit plus. Il est essentiel aujourd'hui d'anticiper et d'appréhender l'impact des décisions des entreprises rivales pour pouvoir prendre une décision informée sur le marketing mix : si Procter & Gamble décide de réduire le prix de ses produits dans une catégorie donnée, les conséquences sur les ventes, les parts de marché et les bénéfices ne dépendront pas uniquement des réactions des consommateurs, mais aussi de celles des concurrents. Aux Etats-Unis, Nabisco a ainsi récemment baissé le prix de ses céréales Post pour petit déjeuner, ce qui lui a permis, dans un premier temps, d'accroître ses parts de marché de 16 à 20 %. En réaction, Kellogg's a annoncé une baisse générale de 20 % de ses prix pour tous ses produits, à la suite de la perte de parts de marché de toutes ses grandes marques. General Mills et Quaker Oats ont riposté en baissant aussi leurs prix. En fin de compte, la part de marché de Nabisco n'a que très peu augmenté, la réaction des consommateurs étant au final beaucoup moins perceptible que si les concurrents n'avaient pas réagi. Par conséquent, une caractéristique essentielle de la concurrence est l'interdépendance de toutes les entreprises du marché. Le résultat d'une action marketing menée par une société dépend dans une grande mesure de la réaction de ses concurrents. Les recherches théoriques sur la concurrence utilisent généralement la théorie du jeu pour déterminer le comportement probable des entreprises et les conséquences possibles sur les marchés. Alors que les hypothèses théoriques énoncées sur le comportement probable des entreprises sont souvent raisonnables, on manque de preuves empiriques sur les interactions concurrentielles se produisant véritablement sur le marché. Les rares études empiriques existantes suggèrent que le type d'interaction commerciale varie considérablement selon les catégories de produits concernés et les instruments du marketing mix. Cet article s'attache à décrire les techniques utilisées pour mesurer empiriquement les comportements concurrentiels et à résumer les informations disponibles sur les types d'interactions commerciales. Lors d'études précédentes, quatre méthodes ont été employées pour mesurer les réactions concurrentielles intervenant entre les acteurs du marché : l'estimation de la fonction de réaction, la méthode des menus, les modèles de variation
conjecturelle et l'étude chronologique de la réaction de cause à effet. * L'estimation de la fonction de réaction part d'une modélisation mathématique de la demande et du comportement de l'entreprise. La fonction représentant la réaction optimale de l'entreprise, appelée «fonction de réaction», est tirée de ces modèles, et décrit à partir d'hypothèses diverses les meilleures réactions possibles que l'entreprise peut opposer aux changements dans l'activité marketing de ses concurrents. Des techniques statistiques sont ensuite utilisées pour estimer simultanément la réactivité de l'entreprise et la demande des consommateurs pour ses produits. * L'approche par menu part de l'hypothèse qu'un certain type de comportement caractérise le jeu concurrentiel entre entreprises. Les équilibres de marchés sont ensuite dérivés selon différentes hypothèses de comportement (par exemple : «indépendant» ou «suiveur»). En se fondant sur des tests d'hypothèses relativement sophistiqués, l'objectif est d'évaluer statistiquement le type de comportement qui s'accorde le mieux avec les données observées. Le nom couramment utilisé d'«approche par menu» s'explique par le menu de comportements concurrentiels éventuels à partir duquel les chercheurs déduisent celui qui correspond le plus étroitement aux données collectées. *En revanche, les modèles de variations conjecturelles traitent le comportement de l'entreprise comme un unique paramètre à estimer. Plutôt que de supposer qu'il existe différents comportements et de calculer lequel se calque le mieux sur les données (comme dans l'approche par menu), l'exercice ici consiste à estimer la variation «conjecturelle» ou paramètre de «comportement». Par exemple, si les deux entreprises d'un duopole ont un paramètre de comportement estimé à zéro, on en déduit que leur comportement sera indépendant : ce zéro implique qu'aucune des deux ne réagira aux actions de sa rivale. Par contre, si l'une des entreprises a un paramètre de comportement supérieur à zéro alors que l'autre conserve son paramètre de zéro, on peut déduire une relation leader-suiveur. L'avantage de cette méthode est qu'elle ne prend pas comme hypothèse de départ un type d'interaction commerciale bien spécifique, mais qu'elle utilise les données disponibles pour la décrire. *L'étude chronologique de la réaction de cause à effet emploie des données séquentielles pour déduire les relations de cause à effet intervenant dans la réaction concurrentielle. L'intuition de départ est simple : si l'entreprise B réagit à un changement de la politique de marketing de l'entreprise A, la réaction de B sera observée en fonction de l'action de A. Cette séquence semblerait impliquer que A est leader et B suiveur. Cette méthode se révèle très utile pour confirmer des relations leader-suiveur perçues par le biais des autres approches citées ci-dessus. *Types d'interactions De précédentes recherches ont essayé de classer ou de catégoriser le jeu de la concurrence selon trois grands schémas. Tout d'abord, comme nous l'avons déjà mentionné, le comportement indépendant implique une absence totale de réactivité aux actions de la concurrence. Ensuite, le comportement coopératif suppose que les entreprises agissent de façon coordonnée. Enfin, le comportement concurrentiel présume que les entreprises maximalisent leurs propres bénéfices, en concurrençant toute action de leurs rivales. Ces interactions ne sont pas toujours faciles à déduire des données collectées sur le marché : alors que des augmentations simultanées de prix laissent présager un comportement coopératif, des baisses parallèles peuvent, elles, indiquer un comportement de «représailles».
Récemment, un nouvel ensemble d'interactions, comprenant trois schémas de comportement symétrique et trois schémas de comportement asymétrique, a été élaboré. Nous commencerons par les formes symétriques. Les promotions coopératives impliquent des décisions commerciales coordonnées : si une entreprise augmente l'intensité de ses actions de promotion, l'autre réduit les siennes pour ne pas la gêner. Les campagnes de promotions alternées de Coca- Cola et de Pepsi sont une bonne illustration de ce genre de comportement. En revanche, les promotions non coopératives supposent que toute augmentation (ou réduction) de l'intensité des promotions d'une entreprise sera contrée par une augmentation (ou réduction) des actions de promotion de sa rivale. Exemple type : deux entreprises qui se battent à coup de bons de réduction pour les mêmes parts de marché des ventes de fin d'année. Le dernier comportement symétrique est celui où les deux concurrents font preuve d'une égale indifférence face aux actions de l'autre. Ce type de comportement indépendant se retrouve sur les marchés où la demande est peu substituable. Etant donné le manque de réaction aux promotions des uns et des autres, la relation de concurrence est peu marquée. Le comportement concurrentiel peut aussi être asymétrique. Les deux schémas principaux du comportement asymétrique sont le «leader-suiveur» et le «dominant-marginal». Le comportement leader-suiveur (connu aussi sous le nom de «Stackelberg») intervient lorsqu'une des entreprises (le suiveur) réagit aux actions de l'autre, alors que celle-ci (le leader) n'agit pas réciproquement. On considère souvent par exemple que les marques de distributeur choisissent de suivre les grandes marques nationales dans leurs actions de marketing. Dans le cadre de la relation dominant-marginal, les stratégies de concurrence des deux entreprises empruntent des directions opposées. Une entreprise décidera de fonctionner en collaboration alors que l'autre s'y refusera. Par exemple, une entreprise plus faible ou «marginale» peut ne pas avoir envie d'affronter directement l'entreprise dominante du marché et donc s'accommoder des actions commerciales de son puissant rival. En revanche, l'entreprise dominante peut agressivement défendre ses parts de marché, et adopter une démarche de noncollaboration. En gardant à l'esprit cette panoplie de comportements concurrentiels possibles, il est possible de brosser le tableau complet des réactions à la promotion. Si une entreprise décide une action de promotion, les interactions possibles entre comportement concurrentiel et demande sont décrites à la figure 1. Du côté du consommateur, la demande va être influencée par la substitution entre catégories, la possibilité de stocker le produit en promotion en vue d'une utilisation ultérieure, ou par l'importance même que revêt le produit dans le panier de la ménagère. De plus, les entreprises rivales risquent de réagir selon l'un des schémas présentés ci-dessus. Ce n'est qu'une fois les réactions de l'offre et de la demande combinées que l'on sera à même de dresser un tableau complet du comportement du marché. L'essentiel, dans cet exercice, est donc de pouvoir séparément identifier et estimer ces variables. Recherches actuelles
Que savons-nous aujourd'hui de la nature du jeu de la concurrence entre entreprises? Les études les plus récentes suggèrent des variations importantes selon les catégories et les instruments du marketing mix. Par exemple, la publicité sur le tabac est plutôt coopérative, contrairement à la fixation normale des prix (c'est-à-dire hors réductions ponctuelles) sur le marché des boissons gazeuses. Quant au marché des détergents, la détermination des prix y obéit plutôt à des règles «leader-suiveur». Dans le cadre d'une récente étude détaillée sur les relations commerciales, nous nous sommes penchés sur les interactions entre marques de distributeur et marques nationales, en examinant 58 catégories de produits d'épicerie. Selon l'usage dans ce type d'étude, nous nous sommes appuyés sur les données obtenues par scanner aux caisses des supermarchés américains. Nous nous sommes concentrés, pour chaque catégorie, sur quatre variables du marketing mix : le prix habituel, la baisse ponctuelle du prix, la publicité et la position en rayon. En utilisant le modèle de variations conjecturelles, nous avons catégorisé chaque variable selon les cinq schémas de jeu de la concurrence décrits ci-dessus. La figure 2 résume nos conclusions, qui révèlent des différences importantes en matière d'interactions concurrentielles selon les catégories et les instruments de promotion. Ces résultats concordent d'ailleurs avec les conclusions d'autres études. S'agissant des marques de distributeur et des marques nationales, nos résultats suggèrent que le leadership d'une marque nationale représente le schéma de concurrence le plus courant pour chacune des variables du marketing mix. Néanmoins, ce type de comportement s'applique à 19 des 58 catégories étudiées, alors que le leadership de prix des marques de distributeur concerne trois catégories : le lait, les légumes surgelés et le pain frais. Il n'est pas étonnant qu'un grand nombre de catégories (16) soit caractérisé par une non-collaboration en matière de prix. Sur l'ensemble des quatre variables du marketing mix, le leadership des marques nationales était la forme d'interaction la plus courante (69 cas), suivi du comportement d'indépendance (42), puis des interactions de non-collaboration (40), du schéma «dominant-marginal» (37), des interactions coopératives (27) et du leadership des marques de distributeur (17). Bien que cette caractérisation soit déjà très détaillée, elle ne représente que le commencement d'un travail qui vise à comprendre en profondeur les véritables relations concurrentielles entre entreprises d'un même marché. Nous n'avons encore que peu de données empiriques des différents schémas possibles entre entreprises au vu de l'étendue des secteurs à étudier et de la gamme des circonstances possibles. Conclusion Il n'existe pas de schéma unique décrivant la concurrence entre entreprises, pour quelque secteur d'activité et quelque contexte que ce soit. Le schéma d'interaction est souvent complexe, avec de grandes variations entre instruments au sein d'une même catégorie. La plupart des études empiriques effectuées à ce jour suggèrent que la rivalité entre concurrents ne fonctionne pas de façon symétrique, et que les actions sur le marketing mix ne nécessitent pas toutes une réaction uniforme. Le jeu de la concurrence au sein d'une catégorie semble donc dépendre d'un ensemble de variables. Comme nous l'avons souligné dans la figure 1, les facteurs influençant la demande, la structure du marché et du secteur industriel, la «personnalité» de l'entreprise et les caractéristiques de la catégorie se combinent de façon complexe pour déterminer le comportement stratégique. En outre, chaque instrument du marketing mix peut être utilisé comme outil stratégique dans des
buts différents, ce qui semble impliquer que les entreprises peuvent très bien adopter des positions concurrentielles différentes pour chaque instrument. Peu de recherches ont été effectuées pour expliquer le comportement des entreprises. Quand la collaboration se révèle-t-elle être la meilleure politique? Quelles sont les circonstances qui favorisent l'indépendance? Les dirigeants doivent prendre en compte les orientations et l'ampleur des réactions des concurrents lorsqu'ils évaluent l'impact éventuel d'une modification de l'une des variables de leur marketing mix. Et l'information dont ils ont besoin pour ce faire commence à peine à émerger des recherches en cours.* Résumé Lorsqu'ils décident de leur marketing mix, les responsables du marketing doivent prendre en compte non seulement la réaction attendue des consommateurs, mais aussi celle de leurs concurrents. L'impact d'une baisse de prix, par exemple, peut être réduit si le rival emboîte le pas. Dans cet article, William Putsis décrit les différentes techniques permettant d'étudier le jeu de la concurrence sur le marché. Des études récentes indiquent que les stratégies de concurrence des entreprises varient considérablement selon les catégories de produit et les éléments du marketing mix. Une entreprise ayant une stratégie d'indépendance en matière de promotion, par exemple, pourra suivre les décisions d'un concurrent en matière de fixation des prix. Mais ce comportement pourrait très bien ne pas s'appliquer à une autre catégorie de produit. Ententes sur les prix : les mécanismes Admises ou sévèrement sanctionnées, selon les pays, les ententes sur les prix entre sociétés, à l'instar des cartels, sont monnaie courante. Elles obéissent à des règles bien précises. PHILIP PARKER Question : dans lesquels des 192 pays du monde les lois anticollusion, antitrust ou celles relatives aux ententes illégales sur les prix sont-elles vraiment appliquées? Réponse : «dans aucun». À l'exception de six en fonction de la majorité au pouvoir : l'australie, le Canada, la Nouvelle-Zélande, le Royaume-Uni, les Etats- Unis et «Bruxelles». Je dis «majorité au pouvoir» car, aux Etats-Unis par exemple, l'applicabilité de ces lois varie souvent en fonction de la tendance politique de l'administration, républicaine ou démocrate, qui procède aux nominations à la Federal Trade Commission (Direction de la concurrence et des prix) ou à d'autres organismes de réglementation. Vu que très peu de pays ont ou appliquent une législation antitrust, pourquoi si peu de manuels de gestion traitent-ils de la collusion? La réponse réside probablement dans le fait que la plupart des manuels sont écrits pour le marché nord-américain par des universitaires nord-américains. Un dirigeant d'entreprise dans ces pays risque la prison s'il conclut un accord collusoire avec un concurrent et peut même encourir des sanctions pénales s'il s'avère qu'il a agit de connivence avec une société non américaine dans un pays où la collusion est une pratique courante (par exemple, la Suisse). Les avocats aux Etats-Unis participent souvent à des discussions portant sur la planification stratégique ou la fixation des prix et recommandent vivement aux participants de ne pas utiliser des expressions du genre «dominer le marché» ou «éliminer la concurrence» par crainte que ces mots ne puissent se retourner contre la société lors d'un procès pour violation des lois antitrust. La même
précaution est prise dans les couloirs des écoles de commerce nord-américaines bien pensantes. Si le «Wall Street Journal» publiait un jour un article sur un professeur d'une grande école de commerce enseignant à ses élèves comment fixer les prix avec les concurrents, la carrière de ce professeur serait probablement écourtée. Dans la mesure où la collusion n'est pas répréhensible dans la plupart des pays, il n'y a pas toujours d'équivalent parfait de ce terme, du moins avec la même valeur péjorative qu'en anglais et en français. Demandez, par exemple, à un Allemand une expression équivalente, il va hésiter un peu et finira par vous dire le mot «arrangement» ou «entente». En fait, l'allemagne a élaboré une législation sur la concurrence, mais elle est ignorée (ou rendue inefficace) par les pratiques commerciales en vigueur ou les échappatoires mises en oeuvre. Certes, le mot «collusion» existe aussi en français. Mais, pour les Français, il ne signifie pas fixer les prix en accord avec un concurrent, et risquer une peine de prison, comme l'entendent les Anglais. Le «collusion» anglais est plutôt traduit par le mot «connivence». Un terme qui s'applique à différentes situations, dont, notamment, celle d'un homme qui, ayant une liaison, essaie de la cacher à son épouse tout en sachant que d'autres personnes sont au courant. Au lieu de parler d'«entente illégale sur les prix», les Français diront plutôt que les concurrents «se mettent d'accord» sur les prix. Les Suisses, en règle générale, ne savent pas que leur pays s'est récemment doté d'une législation antitrust, de même qu'ils ignorent que ce genre de lois existe dans d'autres pays. Lorsqu'on leur dit que leur pays a permis à des sociétés de «se consulter sur les prix», ils trouvent ça tout à fait normal. Comment peut-il y avoir une telle divergence de points de vue parmi les pays capitalistes démocratiques? La plupart des pays, en particulier ceux en développement, manquent d'institutions juridiques et judiciaires pour faire appliquer les lois «anticollusion». Beaucoup, par ailleurs, n'ont pas jugé bon de suivre l'exemple anglo-américain. Si de nombreux anglo-américains critiquent désormais ouvertement les lois antitrust en vigueur qu'ils jugent inefficaces ou inapplicables, le sujet a rarement été abordé en Europe (si ce n'est à Bruxelles, au sein des institutions de l'union européenne). Même en France, où le capitalisme est considéré par bon nombre de personnes comme un mal indispensable, il n'y a jamais eu de lame de fond capable d'entraîner la promulgation d'une véritable législation anticollusion. Des raisons historiques aident à comprendre cette divergence. Les Américains ont longtemps pensé que «ce qui est bon pour le consommateur est bon pour le pays», tandis que dans bien des pays européens et asiatiques, le «consumérisme» est dominé par le «sociétisme», c'est-à-dire que «ce qui est bon pour la société est bon pour le pays». La concurrence, en revanche, est fondamentalement mauvaise pour l'entreprise. Parmi les nombreuses leçons que nous avons tirées de nos études microéconomiques, la plus décourageante pour les sociétés est de savoir qu'à long terme elles disparaîtront inévitablement. La réalisation de bénéfices favorise l'apparition de concurrents, ce qui entraîne une réduction des bénéfices (méthode des coûts marginaux). A long terme, les entreprises réalisent de moins en moins de profit, voire plus du tout, et leur survie est en cause. Les salaires sont revus à la baisse, comme les effectifs. Dans la plupart des modèles économiques de concurrence, l'optimalisation conjointe parmi les concurrents aboutit à une augmentation des bénéfices et à un affaiblissement de la concurrence.
Les lois sur les associations professionnelles aux Etats-Unis empêchent, en règle générale, les réunions privées de plusieurs concurrents, et les statistiques sectorielles font partie des archives nationales. Essayez, en revanche, d'appeler une association professionnelle en Allemagne et demandez-lui des statistiques détaillées sur un secteur industriel, vous aurez de la chance si vous obtenez une liste de membres (à moins, bien évidemment, que vous n'en fassiez partie). Les «4 C» de la collusion Les entreprises, en théorie, ne peuvent pas sur un plan stratégique s'entendre. Le «dilemme des prisonniers» nous éclaire sur ce point. Dans ce dilemme - un exemple célèbre de la théorie des jeux -, deux suspects sont interrogés séparément par la police. Tous deux savent que s'ils ne disent rien, ils seront l'un et l'autre condamnés à un an de prison. S'ils reconnaissent leurs méfaits, ils seront emprisonnés pendant cinq ans, et si l'un avoue quelque chose et que l'autre se tait, celui qui avoue sera libéré alors que l'autre sera emprisonné pendant sept ans. La meilleure stratégie, sur un plan collectif, est de ne rien dire, puisque le temps d'emprisonnement sera réduit. Pour chaque individu, toutefois, il est logique d'avouer dans l'espoir d'être libéré immédiatement ou, du moins, d'éviter sept ans d'emprisonnement. C'est pourquoi les deux avouent, obtenant le plus mauvais résultat : dix ans de prison au total. De la même manière, la collusion à long terme devrait disparaître puisque les protagonistes devraient être tentés de tricher. Or de nombreuses sociétés se sont entendues secrètement à long terme. Mais alors, comment font-elles? En me basant sur une étude de 7.000 cas de collusion enregistrés au cours des cinq dernières années dans des secteurs très différents les uns des autres, je me suis rendu compte que quatre facteurs étaient nécessaires pour réaliser une collusion : les «4 C» (voir la figure). Il s'agit de la communication, des contraintes, de la coordination et de la confusion. Ces facteurs sont gérés en utilisant les «faciliteurs», représentés par la lettre «F» sur la figure, qui permettent que les «4 C» survivent à long terme, c'est-à-dire que les entreprises puissent stratégiquement s'entendre en secret. L'objectif final pour les partenaires d'une collusion est de créer un cartel secret. Un cartel est un accord connu du public, conclu entre des sociétés vendant des produits de remplacement (par exemple, l'opep). Un cartel secret équivaut à la même chose, mais le public ignore son existence ; même dans les pays où il n'existe pas de loi antitrust, il ne serait pas souhaitable, pour des raisons évidentes, que les consommateurs ou même les employés aient connaissance de l'existence d'une telle entente. A moins que les «complices» ne gèrent correctement les «4 C» en dosant savamment les «F», le cartel disparaîtra et il en résultera probablement des guerres de prix, de recherche et développement ou de marketing. Le schéma des «4 C» peut apparaître comme un modèle de remplacement de celui de la stratégie concurrentielle qui suppose que les concurrents sont des protagonistes indépendants (comme le modèle des cinq forces concurrentielles de Michael Porter). Il ne présente rien de vraiment original. Les études sur l'économie de l'organisation industrielle recoupent déjà beaucoup des conclusions de mon étude. Le schéma relie simplement ces idées entre elles de manière à expliquer la réussite ou l'échec des cas que j'ai examinés. La communication
Pour s'entendre efficacement, les sociétés doivent se transmettre des informations. Si elles ne communiquent pas, le cartel s'effondrera. Dans la plupart des pays, communiquer est facile - il suffit à un directeur de téléphoner à un «concurrent» ou de le rencontrer dans son bureau ou dans un lieu plus discret, un hôtel, un restaurant en ville, un club de loisirs à la campagne. Les firmes ont également utilisé de nombreux autres moyens de communication, moins évidents, parfois avec succès. Ils consistent notamment à annoncer des politiques tarifaires sur des réseaux en ligne - c'est ainsi que les compagnies aériennes américaines se sont fait prendre ; elles utilisaient à ces fins leur système de réservation -, à informer les clients par les moyens de radiodiffusion d'opérations à prix «satisfait ou remboursé» - ce qui permet de fixer le plancher des prix -, à organiser des manifestations professionnelles conjointes, des colloques, des groupes de travail et des réunions professionnelles. Quelles sont les informations que les entreprises se transmettent? Le deuxième «C» devient alors essentiel. Les contraintes Examinons le problème suivant d'optimalisation auquel sont confrontées les sociétés d'un cartel secret. FORMULE Chaque société perçoit à sa manière ce problème classique de la maximalisation des bénéfices. Chacune a son horizon de temps, T, son taux de remise, r, ses coûts fixes et sa conception de la fonction vente qui peut être influencée par plusieurs facteurs (prix, publicité, actions des concurrents, lancement de nouveaux produits, distribution, etc.). Pour qu'un cartel survive, il est essentiel que tous les protagonistes perçoivent cette fonction de la même manière. Prenons le cas où le potentiel réel de ventes sur un marché donné est de 500 millions d'euros. La société A estime, à juste titre, que le potentiel des ventes est de 500 millions d'euros, tandis que la société B l'estime à 900 millions au moins. Chacune des deux sociétés commence avec une part de marché de 50 %. La société B sera tentée, à tort, d'opter pour une politique de marketing agressive de manière à accroître son revenu total afin d'absorber une partie de la demande soi-disant excédentaire. En agissant de la sorte, elle empiétera sur la part de marché de la société A qui pourra contre-attaquer, et ceci provoquera l'effritement du cartel secret. Plusieurs «Faciliteurs» aident les concurrents à percevoir de la même manière les contraintes du marché. Il s'agit de la formation d'associations professionnelles, de l'organisation de groupes de travail, de colloques, de stages de formation en entreprise et d'autres forums ouverts à tous les protagonistes d'un même secteur industriel. Ces «faciliteurs» permettent de discuter des antécédents et des perspectives industrielles futures et, même dans certains cas, de publier des données ou d'en faire bénéficier les membres du cartel. L'objectif consiste essentiellement à ne pas garder secrètes toutes les données de marketing et les informations sur les coûts ; les «partenaires» doivent au contraire s'échanger suffisamment de données pour que tous les membres du cartel puissent correctement évaluer les contraintes du marché.
Dans certains cas, il y a partage des informations sur les clients et les ventes, en utilisant éventuellement des éléments communs (forces de vente, agences de publicité, etc.). Dans d'autres cas, des tiers fournissent des informations sur les contraintes, entre autres, les vendeurs de données qui recueillent des informations sur les prix, les volumes de vente et les expéditions pour les revendre à un secteur industriel. Lorsque les voies de communication sont ouvertes et que les contraintes du marché sont comprises de la même manière, les protagonistes peuvent coordonner leur comportement. La coordination La coordination des activités de recherche et développement, la distribution, la production, le positionnement ou même la fixation des prix peuvent aider les entreprises à se partager le marché, à empêcher l'arrivée de nouveaux concurrents ou à obtenir des prix pour les membres du cartel malgré la multitude de fournisseurs. Un bon exemple nous est donné par les deux sociétés productrices de soda impliquées dans la célèbre affaire «Cola Payola» qui utilisaient des revendeurs au détail pour coordonner leurs prix afin d'empêcher l'arrivée d'un troisième concurrent. La marque A était en promotion dans les magasins de détail du 1er janvier au 23 février ; la marque B était en promotion du 24 février au 16 avril ; la marque A était en promotion du 17 avril au 4 mai, et ainsi de suite. Etant donné que les revendeurs ne faisaient la promotion que d'une seule marque à la fois, il n'était strictement pas possible au cours de l'année de faire la promotion d'une troisième marque. Dans cet exemple, le calendrier est le «faciliteur» Il existe d'autres «faciliteurs» comme la nomination d'administrateurs intervenant dans plusieurs sociétés concurrentes d'un même secteur. Une détention croisée d'actions facilite également la coordination. Ceci implique que la société A et la société B détiennent toutes deux des actions de la société C. Ces ententes sont souvent appelées «coentreprises» ou «consortiums». La direction de la société C aide les sociétés A et B à coordonner leur stratégie de marché. J'ai montré avec Lars Roller comment la détention croisée d'actions pouvait exister et même donner d'excellents résultats sur les marchés où la collusion est un délit. Notre exemple était celui des services de téléphonie cellulaire aux Etats-Unis. Enfin pour parvenir à une coordination optimale, les sociétés ont besoin de confusion, le quatrième «C». La confusion La confusion requiert que les consommateurs, les employés, les organismes de réglementation et les éventuels concurrents ne comprennent pas parfaitement le fonctionnement du cartel (sinon il ne serait pas secret). Ceci implique, en règle générale, une utilisation sophistiquée des signaux périphériques. Un des systèmes les plus courants de coordination, la collusion collective, génère ce genre de signaux. Ce système (qui ressemble aux systèmes dango propres au secteur du bâtiment au Japon) fonctionne de la manière suivante. Imaginez un cartel secret de sept entreprises du secteur chimique, par exemple. Toutes vendent à des clients de la côte pacifique. Il s'agit d'un cas d'organisation portant sur plusieurs marchés. Les mêmes sociétés se font concurrence à différents endroits. La société A, suisse, organise une réunion de cadres supérieurs des sept sociétés
dans une suite d'un hôtel à Singapour. Le groupe décide d'augmenter les prix dans toute la région à des niveaux monopolistiques en raison d'une modification de l'élasticité de la demande ou des coûts marginaux. La société A propose d'augmenter ses prix en Indonésie tandis que les autres sociétés décident de ne pas modifier leurs prix pour le moment. Il est bien évident que la part de marché de la société A diminuera en Indonésie et que ses clients seront déconcertés ; en revanche, les autres firmes gagneront des parts de marché. Que dira la société A à ses clients pour justifier l'augmentation des prix? Le scénario classique repose sur les coûts. La société A dira, par exemple, qu'une grande partie de sa production repose sur les importations pétrolières en dollar. La hausse du dollar par rapport au franc suisse a entraîné une augmentation de ses coûts. Ou, si le cours du dollar a baissé, elle pourra prétendre que ses frais généraux sont comptabilisés en francs suisses et que la récente dépréciation du franc suisse a entraîné une majoration de ses prix à l'exportation. Que le cours du dollar monte ou baisse, la société A invoque une augmentation de ses coûts. L'aspect «collectif» de cette stratégie vient du fait que les autres concurrents utilisent le même stratagème dans les autres pays de la côte pacifique ; chaque concurrent joue à son tour le rôle du «méchant» qui doit augmenter ses prix. Bien évidemment, quel que soit le pays, les autres concurrents seront également touchés par ce choc des coûts et ils devront, eux aussi, augmenter leurs prix quelques mois plus tard. Tous les concurrents finiront par augmenter leurs prix dans l'ensemble des pays de la côte Pacifique. Mais comme aucun de ces pays ne surveille les stratégies de prix dans la région, chaque pays croira que la hausse des prix est un événement exceptionnel et indépendant. Les entreprises jouent ce jeu en Afrique, en Amérique latine, en Europe et dans les autres pays du monde. A chaque fois, il y a une explication plausible, un facteur qui donne à penser que la hausse des prix est justifiée alors qu'elle est le fruit d'une décision d'un cartel secret. Sur les marchés de détail, en ce qui concerne les produits de marque de distributeur, le facteur est souvent la différence de prix entre les marques nationales et les marques de distributeur ; les prix sont néanmoins coordonnés entre les marques soi-disant concurrentes de manière à faire une discrimination monopolistique (les revendeurs qui vendent l'une des marques concurrentes intériorisent la concurrence entre tous les protagonistes). L'illusion de la collusion Grâce à la mise en place des quatre «C», plusieurs entreprises sont parvenues à donner l'illusion qu'il n'y avait pas de collusion dans leur secteur depuis longtemps. Elles y sont si bien parvenues que les habitants des pays où il n'existe pas de lois sur les ententes illégales sur les prix ne se rendent pas toujours compte que la fixation des prix est un phénomène quotidien pour la plupart des produits qu'ils achètent. Ce type de collusion existe t-il aux Etats-Unis ou au Royaume-Uni? Bien sûr. La seule chose c'est que tous les protagonistes doivent être extrêmement prudents s'ils veulent ne pas se faire prendre. Les affaires retentissantes examinées par le Ministère de la Justice américain ou la Federal Trade Commission se sont souvent avérées utiles pour les sociétés américaines adeptes de la collusion : elles ont permis de jeter le trouble dans
l'esprit du grand public qui a commencé à se persuader que les cartels secrets n'existaient pas aux Etats-Unis et que les hausses de prix étaient, par conséquent, dues aux forces concurrentielles du marché. Il est relativement simple d'obtenir des renseignements sur des accords collusoires. Une conversation fortuite dans un bar avec un cadre suffit généralement. Sinon, des milliers de cas sont cités dans la presse professionnelle (F&S Information Access, Lexis-Nexus, BPO-ABI et Reuters Business Briefs font tous mention d'affaires de ce genre). En ce qui concerne les lois ou les pratiques nationales, la Economist Intelligence Unit publie des comptes-rendus dans ses dossiers intitulés Investment, Licencing and Trade et le Groupe Icon publie (par l'intermédiaire de ses services en ligne Dialog's Profound) une étude annuelle sur les pratiques antitrust internationales. * Chapitre 4 Les marques face au défi du temps La gestion moderne de la marque passe par un marketing dual. Les responsables du marketing doivent certes viser à la satisfaction des clients actuels, mais aussi chercher à les fidéliser et séduire les futurs clients potentiels. JEAN-NOËL KAPFERER Dans la plupart des sociétés, les portefeuilles de marques comportent des marques récentes et d'autres plus anciennes, pour ne pas dire de vieilles marques. Si ces dernières n'«excitent» en général pas les directions du marketing et les jeunes managers, elles n'en représentent pas moins des tonnages souvent très importants et des profits en conséquence. Une marque comme Ricoré est par exemple en France une des marques les plus rentables de Nestlé France. Pourtant, c'est une marque locale très ancienne. Certaines marques très anciennes semblent toujours actuelles et d'autres plus récentes paraissent dater. Comment expliquer les premières et les secondes? Toute la difficulté réside dans l'équilibre entre l'identité et le changement : c'est le paradoxe de la marque. Le paradoxe de la marque Qu'est-ce qu'une marque, fondamentalement, si ce n'est le repère d'une ou de plusieurs qualités. Pour acquérir ce statut de repère, de contrat, il faut une constance dans le temps : savoir rester intangible sur la proposition de base faite par la marque. Or, en même temps, le marché ne cesse d'évoluer. De nouveaux entrants fixent de nouveaux standards sur ce que la qualité veut dire. De nouveaux styles de vie émergent, négligés dans un premier temps par les acteurs principaux du marché avant que ces derniers ne se rendent compte qu'ils ont raté le coche. Rossignol et Salomon, symboles de l'olympisme et de la compétition, n'ont ainsi pas perçu tout de suite que les tribus de jeunes snowboarders accoutrés bizarrement préfiguraient une révolution dans le monde de la glisse, en opposition aux valeurs traditionnelles qu'ils représentaient depuis cinquante ans. De nouveaux circuits de distribution ou d'accès aux consommateurs bousculent les traditionnelles chaînes de valeurs et font surgir de nulle part des leaders jusque-là inconnus comme Dell ou Amazon. Il y a donc une nécessité de décider en permanence de ce qui est intangible dans la marque et de ce qui peut, voire doit, changer. Cela conduit souvent à des
révisions déchirantes mal vécues lorsque les créateurs précédents sont encore présents dans l'entreprise. Dangers de la pensée unique Le plus grand défi des marques est de continuer à acquérir de nouveaux consommateurs. A une période où la pensée unique semble sévir en marketing, on ne parle plus que de fidélisation, de retenir les clients, de «life-long customervalue». Certes, c'est important. Mais A. Ehrenberg a montré que le taux de fidélisation d'une marque était corrélé à son taux de pénétration. Il est difficile d'accroître l'un sans l'autre. L'avenir d'une marque consiste bien à satisfaire ses clients actuels, mais aussi, en permanence, à en séduire de nouveaux. Le problème est que, chez ces nouvelles générations, la marque en question, au mieux, ne représente rien, au pire, représente le passé. Le terrain est donc soit indifférent, soit hostile. Le fossé générationnel Peu de variables sont aussi segmentantes que l'âge. Chaque tranche d'âge a une unité façonnée par le fait qu'elle a vécu les mêmes événements historiques, les mêmes joies. Elle est liée par les mêmes préoccupations. Or, la transmission des us et coutumes se fait de plus en plus par ses pairs et non par sa famille. La conséquence est que, désormais, c'est aux marques elles-mêmes d'assurer l'apprentissage transgénérationnel. Mais il est délicat d'avoir été consommé par ses aînés : chaque génération se crée ses propres marques. Il y a donc une nécessité vitale d'un marketing dual. Pour un marketing dual Trop souvent, dans l'entreprise, est posée la question suivante : doit-on augmenter notre implication auprès des clients actuels ou investir sur des cibles et des générations nouvelles? Aujourd'hui, cette interrogation n'a plus de sens. Les consommateurs actuels sont notre source de profit immédiat. Mais il faut dans le même temps les fidéliser et travailler sur les futurs clients potentiels. L'heure n'est plus au «ou», mais au «et». Or, dans l'entreprise, bien des forces s'opposent à ce marketing dual. Il est fréquent qu'en interne, les moindres difficultés rencontrées sur les cibles de renouvellement de clientèle soient attribuées à la marque elle-même, à son inadéquation face à ces nouveaux segments. Mais ce diagnostic tient plus de la logique du bouc émissaire que de l'analyse réelle. N'est-ce pas plutôt un problème de produit inadapté aux attentes inédites et dérangeantes de ces nouveaux prospects? A force de vénérer le produit présent, on ne se prépare pas pour l'avenir. Yoplait a démontré sa modernité en lançant Zap en France et aux Etats- Unis auprès des générations qui ne veulent plus de cuillères. Smirnoff, le premier, a compris que les nouveaux buveurs de vodka ne voulaient plus boire leur vodka dans un verre, d'où la création de Smirnoff Mule, un pre-mix original qui se boit à la bouteille, comme la bière. Les forces de vente contribuent parfois à l'inertie. Il est vrai que la prospection des nouvelles générations dans leurs lieux de prédilection expose à un accueil froid, pour ne pas dire hostile. Cela tranche avec le bon climat relationnel ou l'impression de bien se connaître ressentie dans les canaux habituels. C'est ainsi qu'il a fallu de l'énergie et du courage à la force de vente de Ricard lorsqu'il lui fut demandé de pénétrer les clubs disco, les bars à thème, tous acquis aux alcools anglo-saxons ou aux bières tex-mex. Dix ans après, les faits sont là. Loin d'être perçu comme une
marque d'hier, exotique, provençale, Ricard est désormais pris au sérieux dans tous les lieux faiseurs de mode. Car la marque a su animer ces réseaux avec ses valeurs propres. Entre-temps elle avait recruté, formé, motivé et donné des moyens à une nouvelle force de vente, bien plus jeune, à même de rapprocher la marque de cette cible, au sens propre comme au figuré. Une démarche permanente La démarche de Ricard est intéressante en ce qu'elle fut pro-active. Prévoyant un risque de voir l'âge moyen de ses consommateurs s'élever, la marque a pris l'initiative de bâtir de nouvelles fondations chez de nouveaux consommateurs. Mais la plupart des marques réagissent bien tard, lorsque l'analyse fine des données révèle que l'on ne recrute plus de nouveaux clients, que l'on vend de plus en plus aux mêmes. Dans ce dernier cas, la révision doit être encore plus déchirante. Ainsi, Mercedes a constaté que sa clientèle vieillissait. Même les possesseurs du petit modèle, la Classe C, avaient en moyenne plus de 50 ans. Pour profondément modifier la tendance et prendre pied chez les 35-40 ans, Mercedes a abandonné un trait d'image jusqu'alors indissociable de la marque : le luxe. La marque a cherché à se doter de nouveaux attributs qui lui faisaient défaut auprès des automobilistes moins âgés : l'empathie, l'hédonisme et la solidarité. Cela s'est traduit par le lancement d'une offre très diversifiée, loin du monolithique tricorps automobile, avec un petit roadster, un 4 x 4 et un monospace (la fameuse Classe A). Autant de signes que la marque écoutait désormais le marché et ses nouvelles façons de vivre. D'autres marques se déclinent pour s'adapter à la segmentation par âge : Armani a créé Emporio Armani, Boss lancé Hugo... Créer de nouveaux prototypes L'exemple de Mercedes enseigne que, pour se rajeunir, la marque doit créer de nouveaux prototypes. Le concept de «prototype» ne renvoie pas à la notion technicienne d'un avant-modèle. Elle repose sur une des avancées récentes de la compréhension des consommateurs. Au coeur de la représentation qu'ils se font de ces ensembles flous appelés les marques, dont les frontières ne cessent de reculer (Danone signe désormais des biscuits et de l'eau minérale), il y a le prototype, c'est-à-dire un produit qui résume, qui porte cette représentation. Le consommateur ne peut définir ce qu'est Danone, mais il peut en tout cas en donner un exemple typique. La Classe A a pour vocation de devenir le nouveau prototype de la marque, celui qui portera ses traits nouveaux auprès des cibles de renouvellement. Comme on le voit, l'innovation du produit est la condition nécessaire du rajeunissement de la marque. Fond de marque et front de marque La gestion moderne de la marque impose de ne pas s'enfermer dans une conception monolithique du fond de marque, de son essence et de ses traits dits intangibles. S'il est nécessaire d'établir une forte cohérence dans le temps grâce aux chartes d'identité de marque, il n'en demeure pas moins que la marque, pour rester excitante, doit surprendre. C'est la fonction de ces fronts de marques, ces têtes de pont inattendues visant à éviter une vision trop figée de ce qu'est la marque et de ce qu'elle n'est pas. Michelin pourrait par exemple lancer une ligne de pneus en couleur : il faut en effet refuser l'enfermement dans une pensée qui voudrait que le
sérieux des produits et de la marque ne puisse pas s'accomoder d'une certaine joie de vivre. Le danger de cet outil de gestion qu'est le fond de marque est qu'il ne se soucie que du noyau central de la marque. Or la marque évolue par ses frontières, sa périphérie. Sans une incursion dans la séduction à travers les lignes de rouge à lèvres, la marque Nivea aurait-elle maintenu sa pertinence, son attrait vis-à-vis de la nouvelle femme européenne, même si l'essentiel de son offre reste focalisée sur le soin? Audace de la communication On ne saurait rajeunir la marque sans toucher à ses signes, à son expression publicitaire. En particulier lorsque l'on veut envoyer des signaux nets au marché. La difficulté du marketing dual est exacerbée lorsqu'il s'agit de la publicité. On craint trop que la séduction des nouvelles clientèles ne hérisse les clients qui constituent le capital de la marque. Or l'expérience montre qu'il y a plus de réticences dans l'entreprise qu'au sein des clients eux-mêmes. N'oublions pas que la marque doit gérer le reflet de sa clientèle. Le reflet est l'idée que l'on se fait des clients de la marque. Par exemple, on a l'idée que le buveur type de Coca-Cola est un jeune. C'est le reflet. En effet, Coca-Cola est bu par toutes les tranches de la société. Il est même le soft-drink le plus vendu chez les seniors, une catégorie dont le poids démographique ira croissant. Le rôle de la publicité est de valoriser la clientèle : la marque est une source de valeurs ajoutées. C'est pourquoi, lorsqu'on pré-teste des campagnes qui ne leur sont pas destinées auprès des clients actuels d'une marque, ceux-ci se révèlent plus ouverts qu'on ne l'imagine. Le fait que leur marque devienne transgénérationnelle prouve sa pertinence, sa capacité à ne pas inscrire son porteur dans un temps passé. La nouvelle donne du consommateur postmoderne Depuis 1945, les attentes du consommateur n'ont cessé d'évoluer, modifiant la nature et la finalité des marques elle-mêmes. Aujourd'hui, pour réussir, celles-ci doivent relever un défi : répondre simultanément à plusieurs de leurs objectifs, y compris les plus contradictoires. GREGORY S. CARPENTER ET ALICE M. TYBOUT Aujourd'hui, les marques subissent une pression sans précédent. A partir du moment où les produits de même catégorie offrent des fonctions équivalentes et où les cycles de développement des nouveaux produits sont de plus en plus courts, les innovations fonctionnelles peuvent être très rapidement imitées. Parallèlement, la réduction des marges dans de nombreuses lignes de produits a incité certaines sociétés à sortir des frontières traditionnelles du marché. Il est donc extrêmement difficile de savoir qui seront les futurs concurrents et comment ils se comporteront. Alors que de nouveaux circuits de distribution voient le jour, ce n'est plus, au sein des réseaux traditionnels, le fabricant qui mène le jeu, mais le distributeur. Et ce en raison de la concentration qui s'opère dans le secteur de la distribution et du développement des marques de distributeur (ou marques propres) qui représentent aujourd'hui jusqu'à 70 % des ventes dans certaines catégories de produits. Dans ce contexte, il n'est pas étonnant que des marques aussi reconnues que Coca- Cola, McDonald's et Levi's luttent pour maintenir leur position de leader. Pour certains observateurs, ces changements marquent la fin de l'ère des grandes marques. Un point de vue un peu simpliste, compte tenu du fait qu'un grand nombre de
marques continuent de prospérer. Les fabricants de montres suisses en sont une excellente illustration. Si les entreprises japonaises comme Seiko, Citizen et d'autres proposent des montres de grande précision à des prix toujours plus bas, globalement les consommateurs dépensent davantage pour les montres suisses que pour toutes les autres réunies. De la même manière, on trouve sur le marché d'innombrables stylos de bonne qualité à un prix abordable. Pourtant, la dernière collection Edson lancée par Waterman comprend un stylo à bille à 400 dollars et un stylo-plume à 700 dollars, tous deux couronnés de succès. Le rôle de Häagen-Dazs dans la croissance du secteur des glaces alimentaires haut de gamme est lui aussi significatif. Enfin, le 4x4 Lexus de Toyota se vend bien malgré un prix de 60.000 dollars (350.000 francs) et la présence de modèles concurrents attractifs à moitié prix. La réussite de ces marques reflète un constat qui se vérifie chaque jour un peu plus : comme les consommateurs et la concurrence ont fondamentalement évolué, les marques doivent en faire autant. La plupart de celles qui connaissent des difficultés aujourd'hui datent de la génération précédente, d'une époque où les attentes des consommateurs étaient tout autres et où la concurrence obéissait à des règles très différentes. Pour les acheteurs post-modernes, le temps où l'on achetait une marque pour le plaisir d'en acheter une est révolu. Aujourd'hui, la marque est devenue un moyen d'arriver à ses fins. Trois générations de marques En tant qu'acheteurs, nous cherchons à atteindre les objectifs qui ont de l'importance à nos yeux. Pour y arriver, la marque est une garantie. Mais le rôle des marques à cet égard a changé, de même que nos attentes. Voici les grandes étapes de cette évolution. * Les marques classiques Après la Seconde Guerre mondiale, les consommateurs se sont davantage intéressés à leur vie personnelle. De nombreux facteurs comme la production en série et la télévision ont facilité le développement des marques de grande consommation. Le concept général de marque fut un succès parce que compatible avec des objectifs largement partagés en ce temps-là. Les notions de réussite et d'appartenance étaient primordiales pour les consommateurs. Or les produits de marque étaient le signe que l'on avait les moyens de s'offrir des produits réputés pour leur haute qualité ; ils simplifiaient la décision d'achat et donnaient le sentiment d'appartenir à une communauté. C'était l'époque des marques classiques qui promettaient à l'acheteur de remplir un objectif unique défini essentiellement par la fonction du produit lui-même. En achetant Omo ou Ariel, les ménagères étaient sûres qu'elles atteindraient leur but, à savoir un linge plus propre. De la même manière, aller manger chez McDonald's garantissait un repas sans risque de mauvaise surprise. Les lessives servaient à laver le linge, et les lessives de marque rivalisaient pour offrir le linge le plus blanc. Les chaînes de fast-food permettaient de satisfaire son appétit sans se compliquer la vie ; les meilleures d'entre elles également, mais avec encore plus de régularité et de rapidité. * Les marques contemporaines Une fois leurs besoins fonctionnels satisfaits, les consommateurs ont recherché des objectifs supplémentaires. Si tous comptaient sur leur lessive pour laver leur linge, certains privilégiaient celles qui se voulaient plus efficaces, et d'autres celles qui
se montraient plus respectueuses de l'environnement. Face à cette attitude, les directeurs de marque ont segmenté le marché en fonction des bénéfices recherchés par les consommateurs. Une démarche qui a abouti au lancement de marques contemporaines prospères. Ces marques, plus complètes que celles dites classiques, sont bâties autour de la fonctionnalité et des bénéfices qui y sont associés. C'est le cas des voitures Volvo. Elles assurent bien évidemment le transport de passagers, première fonction d'un véhicule. Mais la marque Volvo n'est pas uniquement associée à la notion de moyen de transport fiable. Elle représente précisément la voiture recherchée par le segment de consommateurs qui font de leur sécurité personnelle et de celle de leur famille leur priorité. Cette assimilation de la marque Volvo à l'objectif de sécurité personnelle a été soigneusement tissée au fil des ans. Volvo a communiqué sur les barres en acier trempé équipant le toit et les portes de ses véhicules pour protéger le conducteur et ses passagers. La ligne carrée de ses modèles favorisait d'ailleurs l'association à cette idée de sécurité. Le constructeur a également diffusé des spots publicitaires montrant des personnes sortant indemnes d'une collision et affirmant avoir eu la vie sauve grâce à leur Volvo. Par conséquent, les individus qui ont pour objectif premier la sécurité sont attirés par les Volvo, tout comme le sont par les BMW ceux qui privilégient le standing et la haute performance. Il en va de même pour Apple. Le célèbre fabricant informatique a adopté l'approche contemporaine pour développer sa marque et a effectivement défié IBM sur le marché pendant de nombreuses années. Loin de se polariser sur la puissance informatique, le point fort d'ibm, Apple a choisi la convivialité. Un bénéfice en phase avec la volonté d'indépendance et de réussite des consommateurs. Les marques néo-contemporaines Le consommateur néo-contemporain pose un sérieux défi aux marques classiques et contemporaines. Ainsi, les ventes de Volvo aux Etats-Unis ont souffert car les dispositifs de sécurité sont maintenant installés en série sur la plupart des véhicules. Apple se bat pour rallier les consommateurs qui ont succombé à la domination de Microsoft pour des raisons de commodité (intégration de systèmes avancés et quantité de logiciels disponibles, par exemple). Si certaines sociétés telles que Gillette continuent à croître en élevant sans cesse la performance de leurs produits sur un bénéfice spécifique (raser toujours plus près, par exemple), il est évident que l'approche de la marque contemporaine n'est plus une garantie de succès auprès de ce nouveau type de consommateurs. Pour eux, la marque doit permettre d'atteindre un éventail d'objectifs extrêmement vaste, bien plus large qu'avant. Cette pluralité reflète en partie la multiplicité des rôles joués actuellement par les acteurs néo-contemporains : les parents qui exercent une activité professionnelle assument une double fonction, les pères étant plus actifs au sein de leur famille et les mères poursuivant des carrières de plus en plus remplies ; la réduction des effectifs a contraint de nombreuses sociétés à «en faire plus avec moins», en supprimant des postes mais non les tâches à effectuer ; et les spécialistes sont remplacés par des généralistes. Certains objectifs sont intemporels : réussite, santé, amour, appartenance à une communauté, stimulation intellectuelle, spiritualité, reconnaissance, liberté et responsabilité. D'autres reflètent les bouleversements actuels : statut social, confort et réduction du stress. L'une des caractéristiques frappantes chez le consommateur néo-contemporain, c'est sa volonté de se tourner vers les marques pour satisfaire plusieurs de ces finalités. A titre d'exemple, une marque d'eau
minérale comme Evian répond, dans une certaine mesure, aux attentes sur le plan du standing, de la frugalité, de l'appartenance sociale et de l'individualité. Cependant, la poursuite simultanée de multiples objectifs crée des tensions et des conflits. Les jeunes mères, par exemple, souhaitent s'occuper de la santé et de la sécurité de leur famille, tout en cherchant à satisfaire leur propre besoin d'expression et de stimulation, qui est contradictoire. De la même manière, les cadres veulent réussir et être reconnus, mais les actions au service de ces objectifs nuisent aux autres buts qu'ils poursuivent comme la qualité des relations avec leur famille. Un autre facteur complique encore la situation : la pénurie de temps. Le sentiment de courir après le temps fait que nous négligeons souvent l'essentiel. Les moments réservés à la famille, aux amis, à l'exercice physique et aux loisirs se raréfient. Face à cela, nous réagissons tous différemment. Certains arrivent à intégrer plusieurs objectifs simultanément ou tentent de le faire. Ainsi, tel homme d'affaires regardera son fils jouer au football en continuant à travailler avec son téléphone portable, tandis qu'un autre partira en voyage d'affaires en emmenant sa famille pour profiter des «instants privilégiés» entre deux réunions. Le développement des marques néo-contemporaines L'émergence du consommateur néo-contemporain ouvre la porte au développement de marques qui répondent à cette pluralité d'objectifs. La marque, auparavant au service de buts fonctionnels spécifiques, est devenue l'assistante du consommateur dans la gestion de ses objectifs. Cette nouvelle mentalité engendre de nouvelles stratégies de création de marque. Les trois décrites ci-dessous semblent donner de bons résultats. Satisfaire plusieurs attentes Les consommateurs ayant des visées toujours plus nombreuses, les marques peuvent leur apporter une solution en satisfaisant simultanément plusieurs de leurs attentes. Ceci explique le prodigieux essor de produits comme les téléphones mobiles et les ordinateurs portables qui transforment le temps «perdu» en temps «utile» et la prolifération des récepteurs de messages qui permettent aux individus de se consacrer entièrement à leur activité professionnelle tout en restant relié à leur famille ou vice-versa. Néanmoins, jusqu'à ce jour, les réponses à la pénurie de temps ont généré des produits à forte croissance plutôt que de grandes marques. Pourtant, dans des marchés moins axés sur la technologie, certaines marques ont fait un triomphe en apportant une réponse à une multiplicité d'objectifs. Preuve en est le succès des stylos haut de gamme de Waterman que nous évoquions plus haut. La promesse de Waterman ne s'arrête pas à l'objectif généralement associé aux produits de luxe, à savoir le statut social. Bien évidemment, le prix élevé de ce stylo véhicule l'idée de standing et d'appartenance à une élite marquée par le succès, mais l'achat n'est pas vu uniquement sous un angle personnel. Le stylo possède en plus une qualité intemporelle, qui lui permet d'être transmis de génération en génération. Concilier des objectifs opposés La seconde stratégie, bien illustrée par la marque Dockers de Levi's, consiste à concilier des attentes apparemment contradictoires. Levi's a encouragé certaines sociétés à mettre en oeuvre le concept des «casual Fridays», qui permet aux salariés de laisser leur costume au portemanteau le vendredi et d'avoir une tenue vestimentaire plus décontractée à l'approche du week-end. La motivation derrière
cette stratégie ne trompe personne : inciter les hommes à mettre ce jour-là les Dockers qu'ils réservent normalement aux week-ends afin d'augmenter les ventes de ce modèle de pantalon. Cette stratégie, qui aurait été vouée à l'échec il y a dix ans, a marché. Pourquoi? parce que les employeurs ont reconnu que les heures de travail prolongées qu'ils exigeaient de leurs salariés étaient en contradiction avec les buts personnels poursuivis par ces derniers. Le fait de porter des vêtements plus décontractés au bureau était donc un moyen d'estomper la ligne séparant le travail et les loisirs et d'intégrer l'ensemble de ces objectifs. De la même manière, le grand distributeur américain Sears a réussi à se repositionner parce qu'il a su reconnaître qu'au moment de Noël, les femmes étaient en proie à des conflits d'objectifs et à des tensions liées à la dualité de leur rôle. D'une part, Noël est l'occasion idéale de remplir toutes les aspirations liées à la famille et aux amis ; d'autre part, offrir à ces êtres chers le cadeau rêvé, un repas de fête et tout ce qui va de pair exige un temps considérable. Le résultat? la femme consacre en réalité trop peu de temps aux siens avec le sentiment de déception et d'épuisement qui en résulte. En proposant un large choix de produits, Sears s'est positionné comme le magasin capable de faire économiser aux femmes un temps précieux en leur évitant de courir toutes les boutiques. Il permet donc à ses clientes de résoudre leurs conflits. Le message à retenir est qu'il est possible de développer des marques en aidant le consommateur à remplir des objectifs contradictoires. Satisfaire des aspirations refoulées Aujourd'hui, la pénurie de temps incite les consommateurs à s'orienter vers la sécurité financière, la responsabilité sociale et l'acceptation sociale au détriment d'aspirations plus intimes et plus personnelles. Or, les marques peuvent tisser des liens extrêmement profonds et solides avec les consommateurs en satisfaisant jusqu'au bout ces objectifs négligés. Le succès de Harley Davidson auprès des cadres en est une excellente démonstration. Pendant la semaine, ceux-ci enfouissent leurs désirs d'individualité et de liberté pour remplir leurs objectifs professionnels et leurs responsabilités. Ils se comportent en parfaits conformistes. Le week-end, ceux que les Américains qualifient parfois de «Rolex riders», retrouvent leur négligence et leur esprit rebelle en roulant en Harley Davidson. Ce comportement d'achat guidé par la satisfaction d'une aspiration refoulée est encore stimulé par les extensions astucieuses de la marque. En effet, une panoplie complète allant du blouson de cuir noir clouté jusqu'aux tatouages à coller parachève la transformation provisoire du cadre bien convenable en Hell's Angel. Les parents, qui refoulent leurs aspirations personnelles parce que leur rôle exige qu'ils se préoccupent des autres, sont séduits par les marques qui répondent à ce type d'attentes. Ainsi, c'est bien le désir d'aventure et d'autonomie qui est à l'origine de la montée en flèche des ventes de 4x4 comme les Jeeps fabriquées par Chrysler ou les Land Rover. Ces véhicules apportent une touche d'aventure dans la banalité quotidienne. Les frontières traditionnelles s'effacent Les consommateurs postmodernes, pressés par le temps, sont sensibles aux marques qui leur facilitent la gestion de leurs objectifs. Ils recherchent celles qui
leur permettent de poursuivre simultanément de multiples objectifs, et, de leur côté, les marques évoluent pour refléter cette nouvelle réalité. Volvo, par exemple, élargit aujourd'hui son positionnement traditionnellement orienté sur la sécurité pour répondre aux besoins d'individualisme et d'expression personnelle des individus. Les Volvo, nous dit-on, assurent non seulement la sécurité physique de l'individu, mais elles contribuent aussi à son bien-être psychologique en lui permettant de s'échapper dans des territoires lointains encore préservés. Les consommateurs sont également séduits par les marques qui leur offrent des expériences «extrêmes» pour compenser un objectif important qu'ils tendent à négliger. Ainsi, les marques qui évoquent la satisfaction d'envies ou de petits plaisirs personnels, comme les glaces Häagen-Dazs et le café Starbucks, se portent bien. Néanmoins, cette focalisation sur les objectifs pose des défis spécifiques aux directeurs de marque. Quand les achats sont davantage guidés par des finalités abstraites que par les propriétés fonctionnelles des produits, la nature de la concurrence devient très difficile à comprendre, et elle risque de changer - parfois beaucoup trop vite. Par concurrent, on entend toute marque rivale en mesure de satisfaire à un certain nombre d'objectifs identiques. Cette situation constitue à la fois une opportunité et une menace. Une opportunité parce que la définition plus large du marché augmente les perspectives pour la marque. Ainsi, Waterman peut espérer que ses stylos séduiront des consommateurs qui, sinon, auraient acheté de la joaillerie ou des objets d'art. De plus, notre définition suppose également que les extensions de lignes soient guidées par le lien entre la marque et les objectifs du consommateur plutôt que par la similarité des caractéristiques produits. Les vêtements en cuir, par exemple, n'ont pas grand-chose en commun avec les motos, mais le nom de Harley-Davidson sur ces deux types de produits a une signification pour le consommateur. À l'inverse, la concurrence entre les catégories de produits élargit la panoplie des rivaux et accroît les incertitudes sur leur comportement. Waterman, par exemple, risque d'avoir une moins bonne compréhension des statégies économiques susceptibles d'être mises en oeuvre par les joailliers et les marchands d'art que ne pourraient l'avoir d'autres fabricants de stylos. La théorie selon laquelle les directeurs de marque doivent concentrer leur attention sur les objectifs sous-jacents durables des consommateurs plutôt que sur les caractéristiques concrètes des produits qu'ils commercialisent n'est pas nouvelle. Elle est au coeur même du concept de marketing. Ce qui est nouveau, c'est que la nature des marques, à l'instar de ceux qui les consomment, change de façon fondamentale. Le consommateur postmoderne joue de multiples rôles et a toute une variété d'objectifs, mais très peu de temps pour les gérer. Quand des marques sont menacées par des changements, celles qui relèvent le défi sont largement récompensées parce que les consommateurs ont plus que jamais besoin d'elles. Les stratégies de marque et le comportement des consommateurs Douze secondes s'écoulent entre le moment où un consommateur s'approche du rayon et celui où il met l'article dans son panier. Quels sont les facteurs qui ont présidé à son choix? BARBARA E. KAHN Le consommateur qui fait ses courses et décide d'acquérir un article dans une certaine catégorie de produits est confronté au choix d'une marque. Il arrive qu'il choisisse simultanément la marque et la catégorie de produits et que sa liste de courses indique «Omo» à la place de «lessive», par exemple. Mais c'est rarement le cas. Quand le choix de la marque intervient plus tard, le consommateur procède par étapes : il commence par envisager plusieurs marques qui lui semblent acceptables
sur la base de critères relativement simples, puis il en sélectionne une généralement après une analyse plus approfondie. L'observation de comportements d'achats révèle qu'il s'écoule environ 12 secondes entre le moment où un acheteur s'approche d'un linéaire et celui où il met l'article dans son chariot, et qu'il n'envisage en moyenne que 1,2 marque. La rapidité avec laquelle il se décide laisse donc penser que son choix est fondé sur sa mémoire. En fait, le consommateur connaît les différentes possibilités qui s'offrent à lui avant même d'entrer dans le magasin, notamment grâce à la publicité qui lui procure des informations sur les produits. Cependant, le mode d'acquisition des informations peut être influencé par la façon dont le consommateur définit ses besoins. Il peut par exemple les classer par catégories de produits comme «fruit» ou «ketchup». Ces modèles de classification dits «naturels» s'opposent aux modèles «occasionnels» adoptés spontanément pour des circonstances spéciales, comme «de quoi préparer un dîner mexicain» ou «ce qu'il faut emporter pour un pique-nique». Dans ses achats en vue d'une occasion particulière, le consommateur tend à ne plus se fier autant à sa mémoire et à se laisser davantage séduire par les promotions spéciales en magasin - sauf s'il a une grande expérience de l'occasion en question. Tandis qu'il se fiera plus à sa mémoire et moins aux promotions quand il achètera des produits relevant du modèle de classification naturelle. La différence entre les deux situations est encore plus prononcée s'il est pressé. Les facteurs d'influence Le consommateur étant plus sensible aux promotions en magasin pour les produits appartenant aux catégories occasionnelles, les supermarchés ont commencé à organiser certains de leurs rayons en fonction de ces catégories, en créant par exemple une allée de «produits italiens» ou en réalisant des étalages exceptionnels pour certaines circonstances comme le 14 Juillet. Cependant, même dans les catégories naturelles ou traditionnelles, la présentation des produits sur les rayons joue sur la façon dont les consommateurs intègrent l'information et décident ou non d'envisager une marque particulière. La plupart des supermarchés regroupent les produits par marques : au rayon des yaourts, tous les arômes de Danone sont regroupés, suivis de ceux de Yoplait et ainsi de suite. Ce type d'organisation incite le consommateur à choisir d'abord la marque, puis le parfum au sein de cette marque. Mais les yaourts peuvent aussi être rangés par types d'arôme. Dans ce cas, l'acheteur sélectionnera d'abord le parfum qu'il désire avant de choisir une marque. Le premier type d'implantation linéaire va inciter le consommateur à conserver la même marque s'il achète plusieurs produits alors que le second type d'implantation l'amènera à consommer plusieurs marques différentes. La comparaison des méthodes de merchandising pour la viande aux Etats-Unis, en Australie et au Japon est une autre illustration de ce phénomène. Aux Etats-Unis, la viande est généralement rangée par animaux (poulet, boeuf, agneau, etc.), puis par morceaux. En Australie et au Japon en revanche, le rayon viande est organisé en fonction de l'usage ou du type de préparation (micro-ondes, grill, cocotte, etc.) et l'étiquetage est plus descriptif. On pourra ainsi trouver du «rôti de boeuf aux aromates. Cuisson : 10 min». En outre, des recettes figurent sur l'emballage ou sont proposées à côté du produit. Cette technique de merchandising a l'avantage d'offrir au consommateur un choix de viande plus important pour un type de cuisson donné et entraîne une plus grande diversification des achats. L'extension de gamme Le caractère familier de la marque joue un rôle sur l'attention que lui prête le
consommateur. Celui-ci tend à remarquer d'abord les marques qu'il connaît et à les inclure dans son éventail de choix. Les marques ainsi retenues en priorité ont tendance à occulter les autres, et ce d'autant plus quand le client est pressé. Le nom de la marque est donc un élément clef de la décision d'achat. Une marque possède un bon capital quand les consommateurs adhèrent plus volontiers aux opérations marketing destinées à la promouvoir qu'aux mêmes opérations en faveur d'un produit générique ou d'un produit sans marque. Cet impact de la marque sur les achats explique que la plupart des sociétés réalisent des investissements publicitaires massifs pour développer sa notoriété. Et, lorsqu'elle possède un nom réputé, la tentation est grande de l'étendre à d'autres produits. Cette approche peut réussir et même renforcer la puissance de la marque originale en clarifiant l'activité de la société. Mais elle n'est pas sans danger. Elle peut en effet altérer les bénéfices associés au produit original de la marque. Le risque est d'étendre la marque à un produit qui ne répond pas aux mêmes attentes que le produit initial. Carnation, par exemple, voulait étendre sa marque Friskies à un nouvel aliment contraceptif canin qui devait être baptisé «Lady Friskies» ; la société y a renoncé parce que les tests effectués ont montré que celui-ci aurait des répercussions négatives sur les ventes des premiers aliments pour chiens. De la même manière, une marque étendue à un trop grand nombre de produits risque non seulement de se diluer, mais aussi de désorienter le consommateur si les nouveaux produits véhiculent des valeurs ou un concept différents de ceux induits par les produits originaux. Trois paramètres sont à respecter pour garantir une extension efficace de la marque. Le nouveau produit doit rester dans le territoire de la marque. Choisir le nom de Kodak pour une nouvelle marque de glaces, par exemple, n'aurait aucun sens. Ensuite, il faut que le produit soit au moins comparable, et de préférence supérieur, aux autres produits de la catégorie. Apposer un nom de marque connu sur une pâle imitation ne suffit pas à convaincre le consommateur de l'essayer. Enfin, les bénéfices transférés par la marque au nouveau produit doivent correspondre aux attentes liées à la catégorie de produits. Ainsi, la société Campbell, réputée pour ses soupes, s'est rendu compte qu'elle n'avait aucun intérêt à apposer son nom sur une nouvelle sauce pour spaghettis, des tests ayant montré que les consommateurs imaginaient cette sauce parfaitement liquide comme un potage. Le co-branding Le co-branding, que l'on peut définir comme un partenariat autour de nouveaux produits, est une tendance de plus en plus en vogue dans les supermarchés. Quand deux grandes marques décident de s'associer, elles peuvent espérer intensifier leur impact. Les accords de co-branding varient. Mais, en règle générale, les partenaires partagent les coûts de recherche et développement, les frais de référencement de la distribution et les budgets de publicité et de promotion. Il existe différents niveaux de partenariat. Certains sont occasionnels comme lorsque Disney a fait la promotion du «Roi Lion» en autorisant Nestlé à imprimer des scènes de son film sur ses tablettes de chocolat. D'autres sont limités dans le temps comme la promotion de la moutarde Grey Poupon dans la publicité pour les sandwichs Subway aux Etats-Unis. D'autres encore consistent pour les partenaires à associer leurs ingrédients respectifs comme le beurre de cacahuètes Skippy dans les cookies Delicious ou les Pop Tarts de Kellogg's garnies de fruits Smucker aux Etats-Unis.
Le co-branding, à l'instar de l'extension de gamme, présente à la fois des intérêts et des risques. Les consommateurs s'attendent à ce que le produit allie les avantages respectifs des deux marques de façon évidente, ce qui est potentiellement un argument de vente très fort. De plus, le mariage de marques peut reculer les frontières du marché. Imaginons que Pizzeria Uno décide d'augmenter la vente de ses produits en créant une nouvelle pizza pour le petit déjeuner. Elle pourrait signer un accord avec Kellogg's pour la baptiser «Eggo Pizza by Pizzeria Uno». En capitalisant sur le nom de marque Eggo qui est associé aux Etats-Unis aux gaufres consommées au petit déjeuner, Pizzeria Uno arriverait peut-être plus facilement à convaincre les consommateurs de la goûter! Par contre, si le co-branding échoue, la réputation de la marque originale risque d'en pâtir. Cette approche a un autre inconvénient : elle risque de susciter une certaine confusion dans l'esprit des consommateurs. Si les deux marques ont une image différente, ces derniers n'arriveront pas à comprendre leur lien. Enfin, il ne faut pas oublier le risque de surexposition toujours présent. Les marques de distributeur Les marques de distributeur (MDD), ou marques propres, sont les marques appartenant aux détaillants. La plupart des chaînes de magasins possèdent différents niveaux de marque. Si l'on prend l'exemple de Safeway, ses marques Bel- Air, Town House et Lucern rivalisent avec les produits haut de gamme tandis que Marigold et Gardenside se positionnent surtout sur les prix. Ces marques peuvent être exclusives au distributeur - comme Ann Page qui appartient au distributeur nord-américain A&P - ou fabriquées par un tiers - comme le fait Loblaws -, la marque n'est dans ce cas pas explicitement liée au nom du distributeur. Elles se distinguent des marques génériques, qui désignent des produits sans nom, présentés souvent dans des emballages quelconques en noir et blanc. Lancées au début des années 70, ces marques génériques n'ont jamais constitué une véritable menace pour les marques nationales car elles étaient perçues par les consommateurs comme des produits de qualité inférieure avec un emballage médiocre. En revanche, les MDD ont remporté beaucoup plus de succès. En règle générale, les MDD sont plus rentables pour le distributeur car leur taux de marge excède de 20 à 30 % celui des marques nationales. De plus, elles contribuent à fidéliser les clients : tout le monde peut commercialiser des produits Procter & Gamble, mais seul A&P peut vendre ses propres marques. Enfin, les MDD sont les seules que l'on retrouve partout dans le magasin sur de multiples catégories de produits. Elles bénéficient souvent d'un emplacement privilégié en linéaire, et la distribution dans tous les points de vente de la chaîne est garantie. Les marques de distributeur sont de plus en plus populaires aux Etats-Unis, où elles ont généré 14 % du chiffre d'affaires total des supermarchés sur ces dix dernières années et 18 % des ventes unitaires. En Europe, elles ont parcouru encore plus de chemin : elles représentent aujourd'hui 32 % des ventes en supermarché en Grande-Bretagne et 24 % en France. De la même façon, elles atteignent 25 % des ventes au Canada où la marque de cookies aux pépites de chocolat la plus vendue y est, par exemple, celle du distributeur Loblaws : President's Choice. Si la part de marché des marques de distributeur est plus élevée en Europe et au Canada qu'aux États-Unis, c'est notamment en raison du caractère national des grandes chaînes de supermarchés européennes et canadiennes. En France et en Grande-Bretagne, les cinq premières chaînes représentent en effet respectivement 65 % et 62 % des ventes de produits d'épicerie et, au Canada, Loblaws contrôle à
lui seul 27 % du secteur de la distribution en supermarché. En revanche, la concentration est moins forte aux États-Unis. Les cinq premières chaînes américaines représentent moins de 20 % de la distribution en supermarché, qui constitue là-bas un secteur plus régional, dominé par de nombreuses chaînes de taille moyenne. Le marché américain comporte également un plus grand nombre de marques nationales et des gammes de produits plus larges (en termes de tailles, conditionnement, variétés, etc.). Enfin, il est beaucoup plus vaste que les marchés européens, ce qui permet aux fabricants de bénéficier d'économies d'échelle au niveau de la production et de la publicité. Ces données montrent que la concurrence entre fabricants est plus intense aux États-Unis qu'en France, en Grande-Bretagne ou au Canada, et que les chaînes de distribution y sont aussi plus faibles sur un plan individuel. On peut en déduire que la croissance des marques de distributeur, bien qu'elle soit importante, restera moins forte aux États-Unis. Par contre, si les supermarchés commencent à tomber entre les mains de «mass merchandisers» tels que Wal-Mart, le marché américain pourrait à terme commencer à ressembler à celui de l'europe. En dépit du succès des marques de distributeur et de leurs prix moins élevés, les consommateurs américains continuent à leur préférer les marques nationales. Cependant, les performances des marques de distributeur diffèrent fortement selon les catégories de produits. En 1989, par exemple, elles représentaient 65 % des ventes de haricots verts et haricots beurre surgelés, mais seulement 1,1 % des ventes de déodorants corporels. Dans certaines catégories, leur part a grimpé prodigieusement, comme sur le marché des couches jetables où elles sont passées de 21 % à 31 % en l'espace de deux ans seulement (1991 à 1993). Plusieurs études ont essayé d'identifier les facteurs contribuant au succès des marques de distributeur dans une catégorie de produits. L'une d'elles, basée sur des données magasins agrégées pour 180 catégories, montre que leur réussite est toujours liée à deux facteurs : le niveau de qualité attribué à ces marques par les consommateurs et le niveau d'activité des distributeurs et des fabricants. Les marques de distributeur semblent plus performantes dans les catégories où leur qualité est objectivement meilleure et relativement constante. Cette étude aboutit à une autre conclusion intéressante : le prix avantageux des marques de distributeur par rapport aux marques nationales n'est pas un élément significatif pour le consommateur, pas plus que l'intensité de l'activité promotionnelle. Le succès des marques de distributeur est également lié aux aspects logistiques. En effet, les distributeurs devant assurer la promotion, l'étiquetage et la production de ces marques, il est évident qu'ils seront moins tentés de prendre en charge ces coûts supplémentaires dans les catégories de produits où les prévisions de rentabilité sont plus faibles. Ils auront tendance à développer leurs marques uniquement dans les grandes catégories de produits offrant un fort potentiel de profit. La présence des fabricants de marque nationale entre aussi en ligne de compte : dans les catégories de produits où ceux-ci soutiennent leurs marques à grands renforts de publicité et où il existe une forte compétition sur les prix, les chances de succès pour les marques de distributeur sont faibles. Par contre, en cas de rivalité sur les prix entre marques nationales et marques de distributeur, ces dernières auront probablement l'avantage. Une expérience réalisée auprès de 1.500 consommateurs a permis de mettre en évidence l'une des raisons pour lesquelles les marques nationales conservent leur
supériorité sur les MDD : le consommateur a tendance à évaluer la marque sur des signes externes (tels que le prix, le nom et l'emballage) et non sur ses caractéristiques intrinsèques (comme les ingrédients ou le goût). Dans cette expérience, les consommateurs devaient tester différents produits identifiés comme des articles de marque nationale ou de marque de distributeur. Ce qu'ils ignoraient, c'est que la moitié des produits de marque de distributeur avaient été étiquetés comme des marques nationales et vice versa. Les résultats ont montré sans équivoque que les consommateurs attribuaient une qualité inférieure aux produits de marque de distributeur, même lorsqu'il s'agissait en réalité de produits de marque nationale déguisés et inversement. Il résulte de cette expérience que les choix sont effectués sur la base de critères externes. Parce que les marques de distributeur ont des prix plus bas et n'ont pas le statut de marques nationales, les consommateurs en déduisent qu'elles sont de qualité inférieure. Cette étude révèle en outre que les consommateurs sont globalement plus intéressés par la qualité que par le rapport qualité-prix. Par conséquent, les marques de distributeur pourraient renforcer leurs performances si elles se positionnaient sur la qualité plutôt que sur le prix, et elles sont aujourd'hui en mesure de le faire. Pour les avoir plusieurs fois testées et comparées à d'autres marques, le magazine «Consumer Reports» a ainsi constaté que les MDD étaient de qualité comparable, si ce n'est supérieure. Et de nombreux supermarchés tentent aujourd'hui de capitaliser sur la haute qualité de certaines de leurs marques. Dans un supermarché du New Jersey, par exemple, les clients sont invités à goûter les marques nationales et les marques du magasin : ce qui s'est révélé un excellent moyen de les convertir. Les informations sur la marque En plus du nom de marque, le consommateur a besoin d'autres informations pour faire son choix. Il s'est parfois déjà renseigné sur les caractéristiques de la marque via la publicité, le bouche-à-oreille ou son expérience directe. Il peut aussi s'informer directement sur le point de vente. La législation américaine a normalisé la présentation de certaines informations. Dans les années 70, les distributeurs ont ainsi commencé à indiquer le prix unitaire des articles. Et depuis 1990, les fabricants tendent à standardiser la présentation des informations nutritionnelles sur leurs produits. En effet, en l'absence d'étiquetage standard, ce sont les consommateurs qui doivent interpréter euxmêmes ces données pour se faire un jugement. Une démarche qui prend du temps, exige des efforts, ce qui explique qu'elle soit dissuasive si le consommateur n'y voit pas un intérêt personnel évident. Le prix unitaire doit, en principe, figurer sur l'étagère sous chaque produit. Pourtant, cette information est souvent difficile à exploiter : les produits ne sont pas toujours placés directement au-dessus de la bonne étiquette et, même quand ils le sont, il n'est pas aisé pour le consommateur de garder en mémoire les prix de toutes les marques qui l'intéressent avant d'opérer son choix. Le prix serait une information beaucoup plus utilisée dans le choix de la marque si les choses étaient rendues plus simples pour le consommateur. Par exemple, si les prix de toutes les marques d'une même catégorie de produits étaient regroupés au même endroit et classés par ordre croissant. Cependant, les distributeurs ne souhaitent pas toujours faciliter le choix du consommateur. En effet, si l'information sur les prix était parfaitement transparente, les produits à plus forte marge se porteraient certainement moins bien. On constate en revanche que lorsque la comparaison des prix joue à l'avantage du distributeur ou qu'il essaie de convaincre le consommateur de l'intérêt de sa marque, l'information sur les prix est alors véhiculée de façon plus systématique : la marque de distributeur est généralement
placée à la droite de la marque nationale concurrente et la différence de prix est nettement soulignée. Une autre étude a montré que le simple affichage des informations nutritionnelles était de nature à influencer le comportement d'achat. Partant du postulat que les consommateurs cherchent à réduire leur consommation de sucre et évitent donc d'acheter des céréales qui en contiennent, les responsables de l'étude avaient affiché des informations sur la teneur en sucre des céréales directement dans l'allée réservée à ce produit. Ces informations étaient indiquées à la fois par liste alphabétique et par importance de taux de sucre. La teneur moyenne en sucre de toutes les marques de céréales vendues avant, pendant et après l'affichage de l'information, ainsi que la part de marché respective des céréales pauvres et riches en sucre ont été mesurés. Les résultats sont éloquents : pendant toute la durée de l'affichage, les consommateurs ont acheté les céréales les moins sucrées. Mais, le plus surprenant, c'est qu'ils sont ensuite revenus à leurs anciennes habitudes. Par conséquent, l'information n'a eu une influence sur eux que lorsqu'elle était sous leurs yeux au moment de l'achat. Quand Kellog's joue la carte de la santé En octobre 1984, Kellogg's a lancé aux Etats-Unis, en collaboration avec le National Cancer Institute, une campagne publicitaire pour indiquer que les fibres alimentaires contribuent à réduire le cancer du côlon. Cette campagne - qui constitue une bonne illustration de l'impact des publicités relatives à la santé - était révélatrice dans la mesure où jusqu'alors la loi interdisait aux produits alimentaires de revendiquer leurs bienfaits sur la santé. La suppression de cette interdiction était à la fois un événement majeur sur le marché des céréales et un fait suffisamment isolé pour permettre d'analyser l'impact des informations transmises par la publicité. L'objectif de Kellogg's n'était pas seulement d'éduquer le public sur les avantages des fibres alimentaires, mais aussi de promouvoir sa propre variété de céréales riches en fibres All-Bran. A la fin de 1985, le groupe avait étendu sa campagne à d'autres variétés de céréales, et les concurrents lancé de nouvelles céréales riches en fibres sur le marché. La Federal Trade Commission (FTC) analysa cette période pour voir comment les consommateurs réagissaient aux nouvelles informations relatives à la santé. Elle examina d'abord leur attitude face aux données scientifiques dont ils disposaient quand les fabricants n'avaient pas le droit de faire de publicité, puis leur comportement un an après la mise en place de la publicité. Les résultats montrent qu'avant le démarrage de la campagne Kellogg's, les consommateurs devaient franchir des obstacles de taille pour intégrer les informations sur la santé : il fallait d'abord qu'ils les trouvent, puis qu'ils les comprennent, et enfin qu'ils changent leurs habitudes alimentaires. L'étude a également permis de constater que tous les consommateurs ne prêtaient pas la même attention à leur santé et que cela se répercutait sur leur désir d'obtenir des informations et de s'en servir : les personnes les plus soucieuses de leur santé consommaient, dans tous les cas, davantage de céréales à base de fibres. Pendant la période antérieure à la publicité, leur consommation de céréales riches en fibres était déjà relativement constante et les informations scientifiques nouvellement communiquées n'ont rien changé à leur comportement. La suppression de l'interdiction de la publicité sur les bienfaits des aliments pour la santé engendra pourtant une augmentation de la consommation des céréales riches en fibres. Les données montrent, en effet, que la publicité a réduit le coût d'acquisition des informations de santé pour les consommateurs qui n'étaient pas disposés naturellement à s'informer par d'autre médias. De façon plus générale, l'analyse du FTC a révélé que les consommateurs sont sensibles aux informations des annonceurs à partir du moment où elles ont de l'intérêt à leurs yeux et qu'ils ont peu à débourser pour les obtenir. Ils ne tendent pas naturellement à aller les chercher, mais ils y sont sensibles si leur coût d'acquisition est réduit.
Check-list à l'intention des professionnels du marketing - Rapidité et concentration des achats sont la norme en matière d'achat : le consommateur n'inspecte en moyenne que 1,2 marque avant de procéder à un achat. Sachant que la plupart de ses décisions sont prises avant même qu'il pénétre à l'intérieur du magasin, faites-vous suffisamment de publicité à l'extérieur? Et votre marque est-elle suffisamment visible en linéaire pour attirer son attention? - Les consommateurs appliquent souvent des modèles de classification de produits dits «occasionnels» (les ingrédients pour un cocktail, par exemple). Votre produit correspond-il à l'un de ces modèles? Pouvez-vous encourager les distributeurs à organiser des promotions ou des étalages à thème? - Les distributeurs rangent-ils vos produits par types ou par marques? Si votre gamme de produits est étendue, la présentation par marques optimisera vos ventes. En revanche, un classement par produits mélangeant les marques favorise les lignes plus restreintes. - L'extension de la gamme augmente l'impact de la marque sous réserve qu'elle ne soit pas exagérée. Les nouveaux produits doivent rester dans le territoire de la marque et être au moins aussi performants que les offres concurrentes. - Le co-branding est une stratégie potentiellement gagnante, sous réserve que les marques concernées se stimulent mutuellement sans s'annihiler. Il faut aussi que le profit apporté par chacune d'elles soit clair afin d'éviter que la confusion ne règne chez les consommateurs. - La concurrence entre les marques nationales et les MDD s'intensifie. Les marques nationales dominent toujours dans de nombreuses catégories de produits parce qu'elles sont perçues comme étant de meilleure qualité. L'enjeu pour les marques de distributeur aujourd'hui est de les contrecarrer en se positionnant au moins autant sur la qualité que sur le prix. - Les consommateurs doivent intégrer dans leurs décisions d'achat un grand nombre d'informations disparates. Si votre produit excelle sur des points auxquels le public attache de l'importance (par exemple, peu d'ingrédients artificiels), pouvez-vous l'en informer ou encourager les distributeurs à le faire? Extension de gamme : des enjeux pour l'image Quels sont les coûts et les avantages d'une extension de gamme? Quels en sont les risques en termes d'image de marque? A partir de quand est-il préférable de créer une nouvelle marque? Selon les cas, plusieurs stratégies doivent être envisagées. DAVID REIBSTEIN, KARL ULRICH ET TAYLOR RANDALL Imaginez que vous soyez le PDG de Montblanc, la fameuse marque de stylos. Votre directrice du marketing vous fait remarquer que, tandis que votre société occupe avec succès le créneau haut de gamme, la majorité des achats sont réalisés dans le milieu et l'entrée de gamme qui se trouvent entre les mains de marques comme Papermate, Sheaffer, Scripto et Pilot. Elle vous promet que le capital de marque associé à Montblanc vous permettrait de réussir sur ces marchés. En revanche, votre directeur général défend tout aussi vigoureusement l'idée que Montblanc n'a aucun intérêt à s'aventurer sur un terrain qui risque de nuire à son image et à son positionnement sur le haut de gamme.
Imaginez maintenant que vous êtes le PDG de Pilot et que vos directeurs discutent du lancement d'un modèle haut de gamme. La cible n'est certes pas aussi large que le segment «utilitaire» desservi à l'heure actuelle par la société. Pourtant, il semble qu'une telle initiative vous permettrait non seulement de faire recette sur le marché haut de gamme, mais aussi de renforcer l'image de marque de Pilot et d'augmenter sa part sur les autres marchés. Ces deux scénarios soulèvent trois questions principales. - Quels sont les coûts et les avantages du lancement d'un produit d'entrée de gamme dans une ligne prestigieuse? Cette question est essentielle dans la mesure où les décideurs sont souvent tentés d'exploiter le capital des marques haut de gamme pour les segments de marché inférieurs, qui génèrent des volumes plus importants. - Quelles sont les répercussions de l'introduction de modèles haut de gamme dans une ligne de produits? Même si, pris isolément, ces produits ne sont pas rentables, peuvent-ils se justifier dans le contexte d'un capital de marque globalement positif? - Quand convient-il d'introduire des produits haut ou bas de gamme dans une ligne existante? Quand est-il préférable de les lancer sous d'autres marques? L'intérêt de choisir des marques distinctes est de bénéficier du capital susceptible d'être développé par une marque nouvelle et de maintenir le capital de la marque haut de gamme existante en cas de lancement de produits bon marché. Pourquoi le capital de marque est-il important? Les sociétés investissent pour susciter une préférence pour la marque qui va générer des ventes et ajouter de la valeur à cette marque. Un capital de marque fort se traduit généralement par la possibilité de pratiquer des prix plus élevés, une part de marché plus importante, une réduction du coût de lancement des produits ou la combinaison de ces trois avantages. Souvent, le nom de marque est repris pour d'autres versions du produit dans la même catégorie. Hewlett-Packard, par exemple, a étendu sa marque d'imprimantes à jet d'encre (InkJet) aux imprimantes laser (LaserJet). Une autre pratique courante consiste à attribuer le nom de marque existant à des catégories de produits qui sont proches, pour faciliter un nouveau lancement. Hewlett-Packard a ainsi effectué la transition entre les ordinateurs et les imprimantes. De même, le savon Ivory (Ivory Soap) a créé un shampooing Ivory (Ivory Shampoo). Lorsque des marques ajoutent des produits ou des conditionnements qui élargissent leur gamme en termes de prix ou de qualité, la question se pose de savoir si elles doivent garder le même nom ou en utiliser un autre. En réalité, plus le capital de marque est élevé, plus il est facile de procéder à des «extensions verticales» en conservant le même nom. Il suffit d'examiner les extensions verticales réalisées sur le marché pour voir qu'elles ont un impact sur les produits sous-jacents. La présence, par exemple, d'un modèle haut de gamme dans une ligne de produits contribue à véhiculer l'idée de prestige et d'exclusivité. Mercedes en est une parfaite illustration : il s'agit d'une marque prestigieuse aux yeux du consommateur surtout à cause de ses modèles haut de gamme. Cette image est transposée, dans une certaine mesure, aux véhicules de milieu de gamme commercialisés par la marque.
Le corollaire, c'est que le lancement d'un produit d'entrée de gamme risque de ternir l'aura de la marque mère. Il est extrêmement difficile pour la marque, voire impossible, de conserver son image de prestige et d'exclusivité en offrant simultanément des articles ordinaires. L'extension de marque Pour déterminer l'impact de l'extension d'une ligne de produits dans une direction ou une autre, nous avons étudié le marché des vélos aux États-Unis. Il s'y vend 12 millions de cycles par an et, depuis une dizaine d'années, les ventes sont globalement régulières. Cependant, les chiffres les plus récents dans le segment des VTT ont enregistré une sérieuse progression, les ventes unitaires ayant grimpé de 12 % en 1985 à 66 % dix ans plus tard. Environ 75 % des vélos américains sont commercialisés par le circuit de la grande distribution, généralement à un prix inférieur à 200 dollars. Les 25 % restants le sont par des commerçants indépendants, à un prix supérieur à 200 dollars dans 95 % des cas. Parmi les vélos de plus de 200 dollars, nous avons recensé 75 marques de VTT différentes avec, en moyenne, 10 modèles chacune. A quelques exceptions près, nous avons remarqué que toutes les marques provenaient exclusivement des fabricants de cycles. Il n'y a pas d'extensions de marque de vélos à d'autres catégories de produits et, inversement, nous n'avons pas non plus constaté l'incursion dans cette catégorie d'autres marques déjà bien implantées ailleurs. Il règne une concurrence acharnée sur tous les segments de prix et les sociétés appliquent des stratégies de lignes de produits extrêmement différentes. Certains constructeurs n'offrent que des vélos haut de gamme, tandis que d'autres rivalisent sur tous les segments de prix. Nous avons travaillé sur la base du prix conseillé par les fabricants par rapport à la marque et à huit attributs : matériau du cadre, ensemble des équipements, suspension avant, suspension arrière, équipements de haute performance, coloris et tailles par modèle, et origine américaine de la fabrication. Nous avons noté une relation très étroite entre le degré de qualité de la ligne de produits et la prime à la marque en termes de prix. Autrement dit, la prime à la marque est faible pour les sociétés qui vendent des produits de qualité médiocre et vice versa. Si l'on se place maintenant sur le plan de la qualité globale de la ligne de produits, on constate que plus cette ligne est tirée vers le bas, plus le capital de marque est faible. En outre, plus la qualité du modèle inférieur de la ligne est élevée, plus le capital de marque est important. Cette dernière affirmation se vérifie également pour le modèle de qualité supérieure, mais de façon moins manifeste que dans l'approche sur les segments inférieurs du marché. Pour illustrer notre propos, nous avons inventé deux marques fictives de vélos et présenté à des clients potentiels un catalogue de leurs gammes de produits. L'une de ces gammes comportait des vélos dans une fourchette de prix de 2.400 francs à 5.400 francs et l'autre de 4.800 francs à plus de 10.000 francs. Toutes deux offraient un modèle à 5.000 francs, techniquement comparable. Nous avons demandé aux participants de choisir celui des deux modèles à 5.000 francs qu'ils achèteraient le plus volontiers. Conformément à nos constatations précédentes, la majorité d'entre eux s'est prononcée en faveur du vélo appartenant à la marque haut de gamme. Nous avons ensuite présenté les résultats de notre étude au Salon Interbike en
automne 1996 à un groupe composé de directeurs du marketing, directeurs généraux et cadres supérieurs travaillant pour une douzaine de marques de vélo différentes. Notre analyse a emporté leur adhésion et plusieurs d'entre eux nous ont affirmé que nos résultats étaient confortés par leur expérience. Les facteurs déterminants Notre étude soulève plusieurs questions. Notamment, la qualité de toute une ligne de produits est-elle uniquement déterminée par les produits qui se situent aux extrémités de la gamme? D'autres éléments peuvent jouer un rôle dans la création de l'image de marque. Prenons deux marques ayant chacune 10 modèles et le même niveau de qualité le plus bas et le haut. La marque qui possède les huit autres produits situés plutôt dans la zone supérieure devrait normalement avoir un capital de marque plus important que celle dans la situation inverse. Mais loin de nous d'affirmer que les modèles de qualité inférieure ou supérieure sont les seules caractéristiques de la ligne ayant un impact sur le capital de marque. En effet, une autre question essentielle est : si nos études montrent que la présence de modèles de qualité supérieure et inférieure est déterminante pour le capital de marque, que faut-il faire exactement pour arriver à ce résultat? Suffit-il de référencer un seul produit haut de gamme dans un catalogue? ou fautilcque le volume des ventes sur les modèles haut et bas de gamme soit important s effectuer davantage d'opérations sur les modèles haut et bas de gamme? A notre avis, tout ceci suppose une connaissance par le marché (distributeurs et consommateurs) de la structure de la ligne de produits parce que c'est finalement là que s'exprime le capital de marque. Une telle connaissance exige certainement plus qu'un simple référencement dans un catalogue. En revanche, il n'est pas nécessaire que le volume des ventes sur les deux extrémités de la gamme soit important. Si le marché ne perçoit pas l'ampleur de la gamme de produits, celle-ci ne sera pas déterminante pour le capital de marque. Par conséquent, les opérations de communication sur l'étendue de la ligne de produits joueront sur l'impact qu'elle peut avoir sur le capital de marque. Enfin, le capital de marque va également être par cle sens des sles efforts de communication de la marque sur le marché. Si l'on prend une ligne de produits donnée, on peut légitimement supposer qu'une société qui choisit des circuits de distribution haut de gamme et communique par des médias haut de gamme développera davantage son capital de marque sur le marché intermédiaire qu'une société qui focalise toutes ses ressources sur la grande distribution et les mass médias. La communication axée sur le haut de gamme renforce, dans une certaine mesure, le prestige et le caractère exclusif de la marque. Ce faisant, on aboutit à un paradoxe car une telle approche profite au marché intermédiaire. Par conséquent, une société peut affecter des ressources pour véhiculer une image haut de gamme tout en communiquant simultanément la même image aux cibles intermédiaires. A l'inverse, le développement du capital des marques bas de gamme du fait de l'introduction de modèles de luxe ne se produit qu'après une période de latence. Nous pensons également que les marques qui se dirigent vers les segments inférieurs renforcent davantage leur capital de marque que celles qui effectuent la démarche inverse, même si l'on aboutit en fin de compte à des lignes de produits similaires. Par conséquent, les directeurs de marque ont intérêt à lancer leurs nouvelles marques à un niveau plus élevé que celui qu'ils visent au stade ultime. Enfin, il est évident que la dynamique concurrentielle n'est pas neutre. L'extension
d'une ligne de produits comme la réaction de la concurrence auront des répercussions sur le capital de marque. Équilibrer les coûts et les bénéfices Les résultats de notre étude montrent que parmi les coûts ou les bénéfices dus au lancement d'un nouveau produit figure l'impact sur le capital de marque. Ce qui peut avoir des conséquences aussi bien positives que négatives sur toute la ligne de produits. Selon nos résultats, une société qui a pour objectif d'optimiser son capital de marque doit se limiter aux produits de haute qualité. Cependant, en règle générale, l'entreprise poursuit rarement ce seul objectif. Le capital de marque est un moyen d'accroître la rentabilité de la société par des marges plus élevées, une part de marché accrue ou la réduction des coûts de lancement de produits. Lorsqu'une marque envisage d'étendre sa ligne vers le haut, les coûts d'investissement et de lancement des nouveaux modèles doivent être comparés d'une part aux ventes et aux bénéfices générés par ces modèles et, d'autre part, aux profits résultant de la hausse du capital de marque dans tout le reste de la ligne (en complément des profits liés aux ventes de modèles supérieurs). Au contraire, si elle s'oriente vers le bas de gamme, la perte de profit liée à la baisse du capital de marque dans le reste de la ligne (en plus des coûts d'investissements suscités par le lancement des nouveaux modèles) devra être compensée par les bénéfices supplémentaires provenant des nouvelles ventes dans les segments inférieurs. L'analyse coût-rendement se complique encore quand on crée une nouvelle marque pour lancer des modèles à l'extrémité inférieure ou supérieure de la gamme. Une pratique qui vient juste d'apparaître dans le secteur des bicyclettes, mais qui est courante dans d'autres secteurs d'activité. Une société qui souhaite développer son capital de marque global peut décider à la fois d'étendre sa marque actuelle vers le haut et d'en lancer une autre réservée exclusivement aux produits de qualité supérieure. C'est la stratégie adoptée par Trek, qui a racheté plusieurs marques prestigieuses (Gary Fisher, LeMond, Bontrager et Klein) et continué à investir fortement dans ces marques tout en préservant leur identité. Le public ignore généralement qu'elles appartiennent à Trek. On retrouve également cette stratégie dans l'automobile, avec, par exemple, la gamme Lexus chez Toyota et Infiniti chez Nissan. L'autre solution possible pour étendre une ligne vers les segments inférieurs consiste à maintenir la structure de produits existante et à créer une nouvelle marque pour les modèles bas de gamme - qui peut elle-même avoir ses propres modèles de haute qualité pour renforcer son capital. Une stratégie adoptée pour la première fois dans l'industrie du vélo en 1996. Specialized avait lancé Full Force, une nouvelle marque s'adressant aux cibles inférieures, qui devait être commercialisée par le circuit classique des commerçants indépendants. La stratégie initiale de la société, qui était de la baptiser «Full Force par Specialized», a provoqué une réaction extrêmement négative chez ces commerçants. En effet, ceux-ci estimaient qu'une telle marque risquait de porter atteinte au prestige des produits Specialized déjà en vente dans leur circuit. La société a réagi en réduisant la relation entre les deux marques. Notre analyse ne porte que sur un seul produit dans un seul secteur d'activité. La question qui se pose maintenant est de savoir dans quelle mesure elle peut être généralisée. Selon notre théorie, elle n'est valable que pour les catégories où les
extensions de ligne sont verticales, où les caractéristiques sont difficilement visibles (comme dans le vin et le vélo) et qui sont liées à la notion de prestige (comme les voitures et les montres). La catégorie des VTT, par exemple, est relativement jeune, puisqu'elle est née il y a 10-15 ans. A ce jour, elle est très peu segmentée, si ce n'est sur la base des performances et, donc, du prix. Étant donné que nous avons centré notre attention sur l'extension verticale des lignes de produits, nous pensons que nos résultats s'appliquent avant tout aux catégories dans lesquelles les produits peuvent être classés en fonction de leur degré de qualité. Il y a rarement de différenciation verticale au sein des marques de produits de grande consommation. En revanche, les biens durables sont classés selon une logique à trois niveaux («bon/mieux/meilleur»). Notre étude a le mérite d'éveiller l'attention des directeurs de marque sur deux risques : la cannibalisation (stimulation des ventes de produits très proches de l'extension) et les répercussions de l'extension sur le capital de marque du reste de la ligne, même s'il est parfois très différent. Les conséquences de cette analyse sont évidentes : s'il vous semble alléchant d'étendre votre ligne vers le bas pour lutter contre la concurrence ou attirer des consommateurs plus sensibles au prix, il faut savoir que ceci se fera au prix du capital de marque de votre ligne tout entière. Or le capital de marque est un atout puissant que les sociétés n'acquièrent qu'au bout de plusieurs années et qui leur confère un avantage sur des produits comparables aux noms moins réputés. La décision de diluer ce capital ne peut intervenir qu'après un examen minutieux du volume de ventes supplémentaires qu'elle engendrera en contrepartie. Une autre solution possible - si l'extrémité inférieure du marché, plus sensible au prix, vous tente tellement - est de lancer votre produit sous un autre nom de marque mais, bien évidemment, ceci entraîne des coûts supplémentaires. Parallèlement, l'extension de la ligne vers le haut peut parfois sembler dissuasive à cause des volumes plus faibles qui vont de pair avec les prix plus élevés. Il s'agit là d'une vision étroite des choses car la valeur liée au lancement d'un produit de haute qualité se répercute sur toute la ligne. Les produits haut de gamme peuvent être considérés, dans une certaine mesure, comme une forme de publicité ou comme un témoin du niveau de qualité que peut produire l'entreprise. Si l'on en revient aux stylos, le conseil (non sollicité) que nous donnerions à Mont Blanc, c'est d'utiliser un autre nom de marque car, si la société est convaincue que le marché bas de gamme possède un attrait tel qu'elle ne peut pas se permettre de ne pas «faire l'essai», il faut qu'elle sache aussi que ses produits haut de gamme accuseront le coup si les nouveaux produits bas de gamme ont le même nom. Or le risque n'en vaut pas la chandelle. Quant à Pilot, nous lui recommanderions de garder son nom pour s'attaquer au marché haut de gamme. Une initiative qui pourrait ne pas être rentable sur ce segment mais qui stimulerait probablement ses ventes sur les segments inférieurs. Le produit au-delà de la marque L'évaluation des préférences des consommateurs pour telle ou telle caractéristique permet d'établir un diagnostic des références déjà présentes sur le marché, mais aussi d'anticiper les performances d'une éventuelle extension de gamme. PETER S. FADER ET BRUCE S. G. HARDIE
Les producteurs des biens de grande consommation ont un double défi à relever : gérer à la fois l'image de leur marque et référencer les produits. Si les marques se différencient par certaines caractéristiques visuelles qui contribuent à leur image et leur notoriété, c'est sur la base de caractéristiques tangibles du produit que le client se décide. Si l'on prend l'exemple de la pâte dentifrice, un consommateur peut très bien être fidèle au tube de gel à la menthe antitartre Crest de 50 ml. Ce qui ne l'empêchera pas d'acheter parfois un autre produit en promotion. Cette attitude traduit certes une préférence pour la marque choisie, mais aussi pour le type et la taille du conditionnement (tube de taille moyenne), la forme du produit (gel), sa formule (antitartre) et son goût (menthe). Le choix de la marque emporte rarement la décision ; c'est plutôt la sélection dans les linéaires qui offre matière à délibération. Un directeur de marque est rarement amené à prendre des décisions sur les produits qui impliquent la marque elle-même car, dans la plupart des cas, le nom de marque est, par essence, une caractéristique permanente et immuable. En revanche, il s'intéresse davantage aux caractéristiques qui permettent d'identifier les produits comme l'emballage, la forme, ou le goût. Les décisions des directeurs de marque conduisent souvent à des extensions de gammes, c'est-à-dire au lancement de nouvelles références sous un nom de marque préexistant. La focalisation sur les références plutôt que sur les marques est encore plus prononcée chez les distributeurs. Si la plupart essaient de présenter une palette de marques différentes, leur principal souci est de savoir comment utiliser le plus efficacement possible le linéaire réservé à une catégorie de produits. La gestion du mix-produits est l'une des fonctions essentielles du métier de distributeur. La quasi-totalité des publications, annonces publicitaires et études qui s'adressent à cette profession présentent les références comme la clef de voûte de la distribution. La presse spécialisée s'est beaucoup intéressée aux produits dans le cadre des relations fabricant-distributeur. Procter & Gamble, par exemple, dans son engagement à pratiquer en permanence une politique de prix bas, a cherché à réduire de 25 % le nombre total de ses références. Et ce notamment en restreignant ses lignes de produits (élimination des formats de lessive qui se vendent moins bien) et en regroupant ses marques (papier toilette White Cloud et Charming). Face à toutes ces évolutions, il est impératif pour un directeur de marque de savoir comment, dans sa décision d'achat, le consommateur évalue et intègre les différentes caractéristiques des produits. L'ironie de la situation, c'est que tous ces aspects sont fondamentaux et que les fabricants et les distributeurs font peu de cas des modèles de décisions. Et, le comble, c'est que les caractéristiques descriptives permettant de distinguer chaque référence sont immédiatement disponibles via les données scannées que les directeurs de marque recueillent régulièrement et analysent, mais dans d'autres perspectives. Les modèles des décisions Notre étude porte essentiellement sur l'écart qui existe entre les modèles actuels et
les pratiques marketing. Elle souligne également les avantages de la modélisation des choix des produits. L'approche que nous avons adoptée permet d'inclure toutes les caractéristiques distinctives d'une série de références dans une catégorie de produits. Les références dans la grande distribution sont en général définies par un ensemble de caractéristiques physiques qui identifient spécifiquement chaque article. Dans le scénario avec le dentifrice, six caractéristiques du produit ont été choisies pour identifier ce marché : la marque, la taille, le type de conditionnement, la forme du produit, sa formule et son goût. Plusieurs d'entre elles, en particulier la marque et la taille, sont communes à l'ensemble des catégories ; d'autres au contraire varient d'une catégorie à l'autre. Le terme «niveau de caractéristique» désigne chacune des offres distinctes dont la somme constitue une caractéristique. Crest, Colgate et Aquafresh représentent ainsi des niveaux de la caractéristique «marque» dans la catégorie des dentifrices. Les cabinets d'études se fondent généralement sur plusieurs critères pour déterminer ce qu'est une caractéristique. Le critère le plus important étant qu'elle soit reconnaissable. En d'autres termes, le consommateur doit être capable de la distinguer simplement en jetant un oeil sur l'emballage. Si deux conditionnements sont identiques, ils ne doivent pas être classés comme des références distinctes. Il importe peu que les produits soient ou non les mêmes. En revanche, si un fabricant change un ou plusieurs niveaux de caractéristique, il crée du même coup une nouvelle référence. Le second critère indispensable est l'objectivité : il ne doit y avoir aucune ambiguïté sur le niveau de la caractéristique. Si l'on prend l'exemple de l'eau minérale en bouteille, les extraits naturels d'écorces sont une caractéristique (l'eau minérale naturelle se différencie de l'eau minérale naturelle aux extraits d'écorces d'orange, différente elle-même de l'eau minérale naturelle aux extraits d'écorces de citron, etc.). Cependant, c'est la présence d'extraits naturels d'écorces qui doit être prise en considération et non leur quantité. De la même manière, dans les catégories de produits où le goût sucré est important, on mesurera objectivement le produit sans sucre par rapport au produit sucré naturellement et par rapport au produit sucré artificiellement, non par rapport au degré de sucre. Le nombre de niveaux par caractéristique est relativement faible et, en règle générale, il ne dépasse pas 4. L'exception la plus notable est sans doute l'arôme, pour lequel on recense jusqu'à 20 caractéristiques ou même davantage dans certaines catégories de produits tels que les soupes, les yaourts, ou les aliments pour chats. La marque fait aussi partie des caractéristiques à plusieurs niveaux puisqu'on enregistre 10 entrées distinctes ou plus dans de nombreuses catégories. Enfin, la caractéristique doit être globalement exhaustive : elle doit s'appliquer à toutes les références au sein d'une catégorie de produit (sachant que, bien évidemment, les niveaux peuvent varier d'un article à l'autre). De nombreuses caractéristiques se définissent simplement par la présence ou l'absence d'une propriété particulière et ne possèdent donc que deux niveaux. S'il n'existe qu'un petit nombre de marques de sauces pour pâtes qui possèdent des variétés «cuisinées», toutes les autres seront qualifiées par le niveau de caractéristique «ordinaire» ou «non cuisiné». On comprend très vite que le nombre des caractéristiques et des niveaux de
produits peut exploser dans les catégories sophistiquées jusqu'à atteindre une taille difficilement gérable. L'art de l'analyste consiste alors à définir un nombre minimal de caractéristiques distinctes englobant toutes les propriétés significatives à l'intérieur d'une même catégorie. Si le niveau «cuisiné» ne s'applique qu'à une seule marque de la catégorie de produits, il ne s'avère pas alors très pertinent. L'essentiel étant que chaque référence représente une combinaison unique de caractéristiques. Trois questions se posent alors : * Quelle est l'importance des différentes caractéristiques? * Lesquelles sont prépondérantes? * Apportent-elles souvent une différence significative dans un modèle de décision? Pour répondre de façon exhaustive à ces questions, il faudrait effectuer des tests sur plusieurs séries de données. Cet article se limite à décrire notre approche via l'étude de l'importance relative de quatre caractéristiques différentes dans une catégorie de produits types (assouplissants textiles) ainsi que leurs corrélations. Nous avons calibré nos modèles à l'aide de données statistiques sur les assouplissants textiles aux Etats-Unis. Un produit idéal pour notre étude car il existe en plusieurs formules, tailles, etc. Nous avons limité notre étude à deux modèles - à un et deux segments - et avons étudié essentiellement la «valeur relative» (ou contribution en termes d'utilité) de chacun des niveaux de caractéristique figurant dans nos données. Les préférences liées aux caractéristiques pour le modèle à un segment sont illustrées dans la figure 1 et chaque pile du graphique mesure les préférences relatives. Si l'on regarde à la fois la marque, la taille, la forme et la formule, on constate que l'article le plus populaire serait la recharge Sta-Puf ordinaire en 750 ml (bien qu'une telle combinaison n'existe pas sur le marché). L'importance relative de chaque caractéristique peut être établie en examinant la hauteur des préférences - de la valeur relative la plus élevée à la plus faible - pour chaque caractéristique. Sur la base de ce critère, la caratéristique leader est la marque tandis que la formule arrive en bas de l'échelle. Cette technique est la plus simple pour déterminer l'importance d'une caractéristique ; mais il en existe d'autres plus sophistiquées (et théoriquement plus séduisantes). Le modèle à un segment est un premier indice qui nous permet d'identifier les préférences sous-jacentes des consommateurs pour chaque caractéristique, sans en faire un panorama complet. La figure 2 illustre les préférences dans un modèle à deux segments. A certains égards, ces résultats ne font que conforter ceux du modèle précédent : le consommateur n'est pas attiré par les très grands conditionnements ni par les liquides non concentrés. Cependant, sur d'autres aspects, il révèle certains schémas de comportement non apparents dans le premier modèle. L'exemple le plus frappant est celui des recharges par rapport aux voiles assouplissants. Dans le modèle à un segment, les deux formes remportent un succès équivalent. Par contre, dans le modèle à deux segments, on constate une division très nette entre un groupe de consommateurs qui préfère les recharges (segment 1) et l'autre qui préfère les voiles assouplissants (segment 2). Il est également intéressant de noter que le segment 1 accorde relativement plus d'importance à la forme que le segment 2. Si un directeur de marque ne devait
segmenter son marché qu'en fonction d'une seule caractéristique, il aurait intérêt à choisir la forme plutôt que le reste. Pour que l'application de ce modèle soit complète, il faudrait aussi que les profils des segments soient accompagnés d'un résumé des variables démographiques et socioéconomiques sur les foyers composant chaque groupe. Les prévisions de ventes Pendant le laps de temps généralement consacré aux analyses de données, on constate une arrivée ininterrompue de nouvelles références sur des marchés donnés, en particulier dans la grande distribution. Notre modèle permet d'établir les prévisions de ventes pour ces nouveaux entrants sous réserve qu'ils combinent des caractéristiques déjà existantes sur le marché : ce sont les produits «me-too» ou produits «reliftés». Un produit «me-too» est une nouvelle référence basée sur un niveau d'attribut que l'on ne trouve pas dans les produits de la marque procédant à l'extension, mais qui existe déjà dans la catégorie (par exemple, Crest a été la troisième marque à lancer le dentifrice avec du bicarbonate). Un produit «relifté» combine différemment des niveaux d'attributs déjà tous associés à la marque qui élargit sa gamme. Et si l'extension a pour but de lancer un nouvel attribut ou niveau d'attribut, on parlera alors d'innovation. Environ 70 % des nouveaux biens de grande consommation sont des extensions. Nous pouvons illustrer notre modèle en reprenant notre exemple des adoucissants textiles. Notre série de données comprend maintenant une période de prévision de six mois (janvier-juin 1992), qui ne figurait pas dans notre test initial. Pendant cette période, deux extensions ont été lancées sur le marché : Ces deux nouvelles références s'inscrivent dans une extension de type «me-too». La référence A est le premier adoucissant «Formule Douceur» vendu sous une marque de distributeur, un niveau d'attribut jusqu'alors associé à Downy et Snuggle. La référence B est la première recharge de Sta-Puf, un niveau d'attribut que l'on retrouve déjà dans trois références de Downy. Les prévisions de notre modèle sur la part de marché en volume du produit A étaient de 0,11 % par rapport à une part réelle de 0, 26 % et celles pour le produit B étaient de 2,75 % par rapport à 2,66 % pour la part réelle. On peut en conclure qu'il fournit une bonne approximation des performances réelles des produits. Ces résultats ont de quoi encourager l'usage des modèles basés sur les attributs pour prévoir la part de marché des extensions de ligne de type «me-too» ou «relifté». Conclusion Le nombre de références pour les biens de grande consommation pèse trop lourdement sur les méthodologies de modélisation existantes. Étant donné que ces références peuvent être décrites par une petite série d'attributs spécifiques et que le choix des consommateurs s'effectue souvent sur la base de ces derniers, les chargés d'études ont tout intérêt à modéliser les préférences sur les attributs plutôt que sur les produits eux-mêmes. L'évaluation des préférences des consommateurs par rapport aux différents attributs permet non seulement de faire le diagnostic des références déjà présentes sur le marché, mais aussi de prévoir les performances des extensions ; et nos premiers résultats à cet égard sont très encourageants.
L'approche que nous avons adoptée possède effectivement plusieurs avantages. En premier lieu, notre modèle est basé sur des produits qui existent sur le marché. En second lieu, il est possible d'y intégrer des variables explicatives (prix et promotion) qui ont globalement un fort impact sur les consommateurs, sachant que celles-ci évoluent dans le temps notamment pour les attributs/offres et parfois même pour les foyers. En troisième lieu, l'activité sur laquelle nous avons concentré nos efforts (les achats d'épicerie traditionnels) est plus naturelle que les expériences en laboratoire et exige des méthodes de recherche moins contraignantes. L'environnement artificiel du laboratoire est toujours un problème pour les chargés d'études qui effectuent des analyses expérimentales sur les décisions des consommateurs. Notre modèle est étroitement lié à l'analyse de corrélation et donne parfois de meilleurs résultats, notamment quand le réalisme de la situation de décision est important pour le chargé d'études. Dans la plupart des cas, les deux approches sont complémentaires et peuvent s'utiliser en parallèle. Enfin, ce modèle présente un autre avantage qui a de nombreuses conséquences pratiques : il permet d'établir les prévisions de ventes pour différents types d'extensions. Étant donné que les extensions sont généralement perçues comme des propositions à faible risque, que le coût des méthodes d'analyse des pré-tests est élevé et que l'application de certaines de ces techniques pose des problèmes, peu de sociétés s'embarrassent avec ces analyses formelles. Les préférences en fonction des niveaux d'attributs établies par notre modèle sont immédiatement interprétables et utiles. En effet, ce dernier permet d'identifier les possibilités d'extension en comparant la valeur que le consommateur attache aux différents niveaux d'attribut et le nombre relatif de produits possédant chacun de ces niveaux. Un niveau d'attribut qui séduit le consommateur et ne se trouve pas dans les références déjà sur le marché est un candidat parfait pour une extension de ligne. Inversement, comment éliminer de façon rentable certaines références? Suffit-il d'abandonner les articles qui se vendent moins bien? n'est-il pas plus sage de supprimer tous ceux ayant un niveau d'attribut qui laisse indifférent (comme une formule particulière ou une taille de conditionnement). Enfin, il s'agit d'un modèle qui se prête bien aux simulations. Notre analyse n'est qu'un point de départ et nous ne prétendons nullement avoir le dernier mot sur le thème des choix de produits. Nous espérons, au contraire, que nos observations encourageront d'autres chercheurs à explorer sous d'autres perspectives ce territoire laissé pour compte. Il y a notamment un point qu'il serait intéressant d'approfondir, c'est la façon dont les distributeurs exploitent les informations sur les attributs des produits pour organiser leur linéaire. Étant donné que les problèmes liées à la gestion des catégories de produits s'intensifient aujourd'hui, ce type de sujet intéressera au premier plan les distributeurs comme pour les fabricants. Acte d'achat et trop-plein d'informations Le consommateur qui fait ses courses est souvent inondé d'informations sur les produits. Comment procède-t-il pour choisir ce qu'il va mettre dans son panier? BARBARA E. KAHN Dans un supermarché, la somme des informations à la disposition du consommateur est souvent considérable. Aux Etats-Unis, par exemple, on compte
environ 150 marques nationales de céréales pour le petit déjeuner, et les rayons d'un supermarché classique en proposent 60 à 90. Les emballages eux-mêmes comportent quantité d'illustrations et d'informations. Certes, cette information est utile. Mais, quand elle est trop abondante, elle nuit à la qualité de la décision et finit par déconcerter ou stresser le consommateur. Cependant, dans l'environnement d'une grande surface, le consommateur ne se laisse en général pas submerger par ces informations et n'en prend que quelquesunes en compte avant de faire son choix. Deux questions se posent alors : quelles informations traite-t-il? Analyse-t-il les caractéristiques les plus pertinentes? Des études montrent que les consommateurs expérimentés sont plus aptes que les autres à repérer les caractéristiques qui reflètent les performances du produit. Malgré tout, il y a encore des différences dans la façon dont ces consommateurs expérimentés intègrent les informations. L'interprétation L'un des problèmes qui se posent avec les informations communiquées aux consommateurs par la publicité ou sur le point de vente (par exemple l'emballage ou l'étiquetage du linéaire), c'est qu'elles ne sont ni mémorisées ni interprétées correctement. Il y a plusieurs explications possibles à cela. Les informations peuvent être délibérément trompeuses. Par exemple, lorsqu'un fabricant affirme que son produit est moins «calorique» simplement parce que la taille des portions est beaucoup plus petite. Il arrive aussi que les informations soient trop vagues à dessein dans l'espoir que le consommateur les interprète sous l'angle le meilleur. Par exemple, lorsqu'un fabricant annonce que son produit n'est «pas cher» et que le consommateur en conclut qu'il est «avantageux». Même quand les informations sont claires et exactes, le consommateur ne les comprend pas ou ne les croit pas toujours. Ainsi, un tiers seulement des participants à une étude effectuée par la Food and Drug Administration aux Etats- Unis ont compris que les ingrédients figurant sur l'étiquette d'un produit étaient indiqués par ordre de poids décroissant. Le consommateur fait également des déductions erronées. Il part d'une évaluation globale de la marque et lui attribue certaines caractéristiques (c'est ce qu'on appelle l'«effet de halo») : s'il estime que la marque est de grande qualité, par exemple, il en conclut qu'elle a une valeur nutritionnelle alors que ce n'est pas toujours le cas. Il se trompe aussi quand il évalue une marque sur la base de sa ressemblance avec une autre. Il imagine, par exemple, que la nouvelle marque qu'il ne connaît pas possède les mêmes ingrédients que celle qui lui est familière. Ou, partant du principe que certaines caractéristiques sont toujours liées, il peut en conférer certaines à une marque que celle-ci ne possède en réalité pas. Dans l'esprit du consommateur, des prix élevés sont souvent synonymes de grande qualité, ce qui n'est pas toujours vrai. Parfois, le consommateur pense d'une façon et agit d'une autre. A titre d'exemple, 94 % des Américains prétendent être plus ou moins concernés par leur alimentation, en particulier par les problèmes liés à la consommation de graisses, de sel ou de sucre, et réclament des produits diététiques. Pourtant, l'existence de tels produits ne modifie pas pour autant leur comportement d'achat. Comme le déclarait un cadre du groupe Wendy dans un article du magazine «Forbes», «le consommateur en train de manger un cheeseburger au bacon se sent mieux lorsqu'il le fait devant un buffet de crudités». On constate aussi des distorsions dans la façon dont le consommateur intègre les informations. Les idées reçues, c'est-à-dire la tendance à ne retenir que les
informations confirmant nos opinions et à rejeter celles qui défient nos idées préconçues, est un phénomène courant. Le consommateur est également plus sensible aux informations exceptionnelles, frappantes ou particulièrement visibles au détriment d'informations plus subtiles (discrètes???). Il risque à tort d'y attacher plus d'importance et de négliger celles qui passent plus inaperçues. De la même manière, il surestime le risque qu'ont certains événements de faire parler d'eux, ce qui explique qu'il ait souvent une réaction exagérée face à des dangers relativement mineurs et continue à s'exposer à des risques plus graves. Enfin, la description des produits elle-même a un impact sur le jugement du consommateur. En effet, des chargés d'études ont constaté que s'ils demandaient à des participants de choisir entre un «steak haché avec 25 % de matières grasses» et un «steak haché avec 75 % de viande maigre», ils choisissaient le second. Ce schéma de comportement était toujours le même après qu'ils eurent goûté la viande, mais avec un effet plus atténué. Ces dérives dans l'interprétation des informations sont très courantes et parfois très prononcées. En revanche, il a été démontré que lorsque les consommateurs prennent conscience - en lisant des magazines de consommateurs notamment - que des distorsions peuvent affecter leur jugement, ils améliorent leur prise de décision. C'est surtout le cas lorsqu'il y a une forte différence entre leur jugement et l'information reçue(pwc : surtout quand les informations ne cadrent pas???????). La prise de décisions À un certain moment, le consommateur doit choisir ce qu'il va mettre dans son caddie. À défaut d'un choix clair et manifeste, la règle voudrait qu'il utilise toutes les informations pertinentes à sa disposition et qu'il fasse des comparaisons entre les différents attributs des produits. En réalité, le consommateur utilise des règles qui simplifient ses choix. Quand il fait ses courses, il doit prendre de nombreuses décisions et ne souhaite pas passer trop de temps sur chacune d'elles. En outre, prendre la meilleure décision est rarement ce qui lui importe le plus. Souvent, il cherche simplement à satisfaire son niveau d'exigences minimal. L'une des façons d'y arriver est d'appliquer la règle de «la satisfaction des critères de base» : dans cette hypothèse, le client étudie l'un après l'autre les articles inclus dans son champ de choix quand il les croise en rayon. Il évalue ensuite la première marque par rapport à ses critères de base : si elle remplit ses attentes minimales sur tous les attributs qu'il juge importants, il arrêtera son choix sur elle sans évaluer d'autres marques, dans le cas contraire, il examinera la marque suivante dans son champ de choix. L'autre règle courante est celle de «l'élimination en fonction de certains aspects», qui consiste pour le consommateur à ignorer totalement les produits qui ne sont pas à la hauteur de ses attentes sur un attribut précis. Une personne allergique aux noix, par exemple, éliminera soigneusement toutes les offres contenant des noix et n'envisagera que les options restantes. A l'inverse, le consommateur peut considérer qu'un attribut (le prix, par exemple) est le plus important pour lui et choisir l'option la meilleure à cet égard. Si plusieurs offres font l'affaire, il passera au deuxième attribut le plus important (comme le type de conditionnement) et sélectionnera la marque la plus performante sur ce plan et ainsi de suite. C'est ce que l'on a baptisé «la règle lexicographique». Parmi les autres stratégies de décision, «la rémanence des premières impressions
» est celle qui consiste à s'appuyer sur la mémoire. Le consommateur forge son opinion sur les impressions reçues la première fois qu'il a obtenu l'information. Une fois mémorisées, ces premières impressions servent ensuite de base à son jugement, ce qui fait qu'il n'envisage pas toutes les données disponibles. La théorie dite des «tactiques de choix» a été bâtie par des chercheurs et s'applique aux achats effectués de manière répétée par des consommateurs se souciant peu de prendre la meilleure décision. Le consommateur adopte au départ une règle simple comme «acheter la marque la moins chère» ou «prendre la marque recommandée par un ami». Si après avoir essayé le produit, il le trouve satisfaisant, il aura tendance ensuite à réitérer ce choix. Après une série d'essais, l'évaluation après achat se stabilise et une règle de décision simple s'établit. Pour vérifier leur théorie, ces chercheurs ont observé 120 clients dans un supermarché d'une grande agglomération. Ils ont analysé la façon dont ceux-ci achetaient leur lessive, une catégorie de produits qui comprend de nombreuses marques, dispose d'une grande place en linéaire et fait partie des achats dits à faible risque. L'étude montre que, en moyenne, les clients n'étudiaient qu'un petit nombre de lessives (1,42). En l'occurrence, 72 % n'en avaient examiné qu'une, 83 % en avaient choisi une et 4 % plus de deux. Ces résultats montrent que peu de consommateurs remettent en cause leur processus de décision avant achat. Le champ de choix des consommateurs Si les clients des grandes surfaces étaient en mesure de faire les meilleurs choix en procédant systématiquement à toutes les comparaisons possibles, la délimitation préalable du champ de choix ne jouerait pas sur la décision d'achat finale. Ils sélectionneraient toujours la meilleure marque indépendamment de toutes celles envisagées lors de la prise de décision. Cependant, les études montrent que la probabilité d'acheter une marque spécifique dépend du nombre et de la nature des autres marques entrant dans le champ de choix du consommateur. Ce champ de choix est généralement fondé sur des critères très simples comme, par exemple, «considérer toutes les marques inférieures à 10 F» ou «envisager toutes les marques de céréales sans sucre ajouté». Comme ces critères sont loin d'être optimaux, on ne sera pas étonné que la décision d'achat finale ne le soit pas non plus. Même lorsque le consommateur est moins arbitraire dans la délimitation de son champ de choix, la composition de celui-ci peut jouer de façon imperceptible sur sa décision. Les préférences des consommateurs sont rarement établies une fois pour toutes ; elles évoluent selon la présentation des offres, le moment de l'achat ou la quantité achetée. Par conséquent, il est possible d'influencer le choix de la marque simplement en modifiant le contenu du champ de choix et sans changer pour autant l'opinion du consommateur à propos de cette marque. Deux généralisations permettent de mieux comprendre cette situation. D'une part, le consommateur privilégie une offre si elle se comporte mieux que les autres dans son champ de choix, mais cette préférence peut changer si le produit entre dans un champ qui, par comparaison, ne lui est plus aussi favorable. D'autre part, le consommateur qui effectue des comparaisons n'est généralement pas attiré par l'option extrême ; il choisit plutôt celle ayant des attributs intermédiaires. Ces deux généralisations sont beaucoup plus difficiles à effectuer lorsque les consommateurs ont une préférence affirmée dans une catégorie de produits. Mais, en règle générale, les préférences ne sont pas bien ancrées et, consciemment ou non, le consommateur se base sur le contexte du choix pour décider du «meilleur achat».
Les tests empiriques montrent que si l'on ajoute un produit dominé dans un champ de choix, ceci augmente la probabilité que le consommateur choisisse le produit dominant. Prenons, par exemple, une catégorie de produits alimentaires à deux articles : un article haut de gamme, onéreux, dans un emballage sophistiqué avec un goût à la hauteur de ce qu'il suggère et un article générique de petit prix, moins bon, dans un emballage ordinaire. Si l'on ajoute dans ce champ de choix une autre marque qui n'a pas autant de saveur que la marque haut de gamme originale, les faits montrent qu'il y a plus de probabilité que le consommateur choisisse la marque haut de gamme. Cette hypothèse se vérifie également pour le produit générique initial quand on inclut un produit bas de gamme dominé (disons, un peu plus cher). L'introduction d'une option dominée a donc pour effet de renforcer l'attrait de l'article qui la domine. Cette idée a été testée sur le marché par une société de vente par correspondance qui proposait notamment un four à pain au prix de 279 dollars. Quand elle a ajouté à son catalogue un second four à pain à 429 dollars avec des fonctionnalités comparables, peu de clients se laissèrent tenter ; par contre, les ventes du modèle original doublèrent. Certaines études montrent que l'introduction dans un champ de choix d'un article similaire (pas forcément dominé) augmente la probabilité que la décision soit prise en faveur de l'article original. Imaginons que des consommateurs n'envisagent que deux produits dans la catégorie des chips : les chips simples et les chips gaufrettes. Si le distributeur parvient à convaincre le consommateur de considérer une autre marque de chips gaufrettes (par une présentation spéciale en magasin, par exemple), l'envie de ce dernier d'acheter les chips gaufrettes originales augmentera. L'effet de compromis Les tests empiriques montrent aussi que, lorsque la décision est difficile à prendre parce que le consommateur a du mal à comparer les attributs respectifs, l'introduction d'une marque-compromis peut être utile. Par exemple, si un consommateur hésite entre un shampooing onéreux contenant certains ingrédients et une marque plus abordable qui ne les possède pas, ce qui sera au coeur de la décision, c'est de savoir si la composition du produit justifie le supplément de prix. S'il a du mal à calculer le coût des ingrédients, il aura tendance à choisir une marque-compromis à un prix intermédiaire comportant seulement quelques-uns des ingrédients qu'il recherche. Ce choix réduit le conflit provoqué par l'élimination d'un attribut (la qualité supérieure) au profit d'un autre (un prix plus abordable) et a l'avantage aussi de minimiser l'erreur (payer trop cher ou acheter un produit de qualité médiocre). Enfin, si le consommateur tranche aussi en faveur des marques milieu de gamme, c'est parce qu'elles situent leurs besoins par comparaison aux autres. Généralement, l'acheteur se considère «dans la moyenne». Par conséquent, quand il n'a pas de préférence, il pense que la marque milieu de gamme correspond sûrement à ses goûts. Cet article est inspiré de son ouvrage intitulé «Grocery Revolution : The New Focus on the Consumer» (Reading, Ma : Addison-Wesley, 1997), un résumé de la recherche universitaire sur l'importance accordée au consommateur.
Les défis pour les professionnels du marketing de la distribution - La compréhension et la mémorisation des informations par le consommateur font souvent l'objet de distorsions. Vos emballages en tiennent-ils compte? En outre, même si cette dérive joue en votre faveur, le consommateur devenant de plus en plus sophistiqué, il est aussi plus critique sur les informations que vous lui communiquez. - Les demandes exprimées par le consommateur se reflètent-elles dans son comportement? Il est plus rentable de donner à vos clients ce qu'ils veulent réellement plutôt que ce qu'ils disent vouloir. - Connaissez-vous les stratégies de choix des consommateurs dans votre catégorie de produits? Quelle est la caractéristique arrivant à la première place quand les consommateurs appliquent la règle lexicographique, par exemple? - Dans quel contexte votre produit est-il envisagé? Si l'on ajoute d'autres marques dans le champ d'alternatives de vos clients, comment se comportera la vôtre? Chapitre 5 La vente et la gestion du capital clients Des bases de données performantes et des actions de fidélisation efficaces participent à la valorisation du capital clients d'une entreprise. Difficile à évaluer, celui-ci n'en est pas moins une source significative de profit. ANNE MACQUIN Une préoccupation se répand rapidement dans le monde des affaires : la gestion de la relation clients ou «customer relationship management». Pourquoi? Que présuppose cette nouvelle orientation? Quelles mesures spécifiques implique-t-elle? Au moins trois séries de phénomènes sont à l'origine de l'engouement actuel pour la relation clients ; ils se rapportent aux concepts d'avantage compétitif et de fidélisation ainsi qu'aux progrès de l'informatique et des télécommunications. Les entreprises cherchent à différencier leur offre. Elles peuvent trouver avantage à le faire au niveau des services qui entrent dans la composition de leur prestation principale ou la complètent, car ils sont plus difficiles à imiter que les productions matérielles : il en va ainsi par exemple du service aux passagers fourni par Singapore Airlines comparé au confort de ses appareils. En prolongeant cette idée, il apparaît que l'entreprise peut offrir des prestations uniques en utilisant une connaissance dont elle a l'exclusivité : celle de ses interactions avec ses clients ; si 30 % des personnes qui achètent des lunettes à verres correcteurs s'en procurent ultérieurement à verres teintés, la connaissance de ceux qui m'ont acheté leur équipement initial me donne un avantage pour leur proposer des lunettes de soleil. Un second facteur à l'origine de cet engouement est la démonstration de l'intérêt de la fidélisation. Reichheld de Bain & Co. a établi que le profit généré par les clients allait croissant avec leur ancienneté et qu'une augmentation du taux de fidélité moyen améliorait fortement les résultats. Le cabinet TARP a montré le coût important des défections et souligné tout le bénéfice qu'on trouvait à faire émerger et à traiter les mécontentements. Autre facteur à l'origine de l'intérêt pour la relation clients, les progrès de l'informatique et des télécommunications. Le stockage des données coûte de moins en moins cher. Leur exploitation ne nécessite plus de connaissances techniques.
Les couplages téléphonie-informatique permettent d'améliorer le service à la clientèle et l'enregistrement des données la concernant. Enfin, le réseau Internet ouvre de nouvelles possibilités de contacts avec les marchés. Toute volonté de gestion de la relation clients admet au moins trois préalables : l'évaluation de son capital clients, la compréhension du comportement de ses fidèles et la création d'une base de données clients. Un esprit cartésien confronté à une tâche de valorisation d'un capital aura probablement pour réflexe de chercher à évaluer ce capital pour pouvoir mesurer les progrès accomplis. Mieux vaut toutefois qu'il sache se contenter d'estimations. En effet, la mesure du capital clients, comme celle de tout capital immatériel, est difficile. Plusieurs indicateurs existent, mais ils sont imparfaits. Certains sont globaux, comme le taux de fidélité moyen. D'autres se rapportent aux individus dont ils considèrent la valeur aujourd'hui, la valeur dans la durée ou la valeur potentielle. En toute hypothèse, il faut segmenter la clientèle suivant sa valeur pour orienter la prospection et pour ajuster les investissements de fidélisation à l'intérêt économique des cibles. Faire fructifier le portefeuille de clients implique d'en maintenir l'effectif car il connaît une attrition inévitable, de limiter les défections non voulues et d'augmenter le profit par client. Le choix des armes présuppose un état des lieux de la fidélité de sa clientèle. Cette dernière admet deux facettes. L'une est de l'ordre du résultat, elle est comportementale et observable. L'autre est de l'ordre de l'intention, elle est mentale et subjective. Elle se rapporte aux ressorts de la fidélité : l'habitude, la peur de l'inconnu, les coûts du changement, l'adhésion aux valeurs de la marque... Tout ce travail d'analyse est nouveau en marketing. Jusqu'ici, on a surtout raisonné conquête et donc supériorité partielle. La fidélisation implique d'aller au-delà pour découvrir ce qui va permettre de conserver ses clients : un bon produit certes, mais peut-être aussi un système de points de fidélité! Un troisième préalable au management de la relation clients est la création d'une base de données clients et prospects. A longueur de journée, des contacts ont lieu entre l'entreprise et ses clients et prospects, à l'initiative de la première ou des seconds. Tous ces contacts sont une formidable source de données quasiment gratuites. Il faut savoir en tirer parti en mettant en place une base de données clients et prospects, et en nommant un responsable capable de «faire parler» cette base de données, de transformer ses données en informations. Le travail sur le capital clients se concrétise dans des actions visant à améliorer l'efficacité aussi bien du système de contacts avec la clientèle que des modalités de conquête ou des outils de fidélisation, et à développer les profits générés par les clients. Il existe cinq grandes formes de contacts entre l'entreprise et ses clients : la rencontre avec un vendeur, le courrier, le fax, le téléphone et Internet. Il s'agit de mettre face à chaque client un système en accord avec ses besoins, sa contribution et ses préférences, en considérant le cas où c'est lui qui a l'initiative du contact et le cas où c'est l'entreprise. Il faut aussi réaliser les interconnexions entre systèmes qui s'avèrent nécessaires (donner par exemple aux personnes qui prospectent par téléphone un accès aux agendas des vendeurs). Il s'agit enfin de revoir régulièrement les fonctions dévolues aux instruments de contact : les réponses aux demandes de renseignements récurrentes peuvent par exemple être proposées sur le site Internet, ce qui permet de décharger le centre d'appels. La valorisation du capital clients implique, outre l'optimisation du système de contacts, un développement des profits générés par les clients. Ceci passe
notamment par une amélioration de la pertinence des propositions. La base de données peut à cet égard fournir des indications précieuses. Il s'agit d'exploiter les séquences d'achat types, les paniers moyens (proposer aux clients les articles du panier moyen qu'ils n'achètent pas), les signes précurseurs de défection, les dates de prise de décision... Les développements précédents montrent que de fascinantes usines à vendre se profilent. La vente fonctionne en effet de plus en plus sur le modèle de l'unité de production. Il lui appartient d'optimiser l'usage d'un certain nombre de ressources : vendeurs, centres d'appels, etc. au service de la création de profits. Créer une force de vente digne de ce nom Optimiser sa force de vente, c'est donner à son chiffre d'affaires un bon moyen de s'accroître. Encore faut-il faire les bons choix au moment de définir la taille et la structure de cette force et savoir éviter quelques pièges. ANDRIS A. ZOLTNERS Les forces de vente représentent un investissement majeur pour la plupart des sociétés. Rien qu'aux Etats-Unis, on compte près de quatorze millions de personnes employées à plein temps dans le commercial, dont cinq millions dans la vente directe et neuf millions dans la vente au détail (soit 11 % de la population active). Avec environ 475 milliards de dollars consacrés chaque année aux équipes de commerciaux et aux moyens mis à leur disposition, la vente est devenue un facteur important de l'économie américaine. Et il en va de même dans les grands pays industriels. Les forces de vente coûtent aux sociétés qui les emploient 2 à 40 % du chiffre d'affaires réalisé. Or l'importance d'une force de vente se mesure bien au-delà de son coût : elle constitue probablement la structure la plus puissante au sein de la société. Elle représente publiquement l'entreprise, qui met entre ses mains son actif le plus important : le client. Il arrive souvent que le seul lien qu'ait le consommateur avec l'entreprise soit le vendeur. Pour le client, le vendeur est l'entreprise. La force de vente ne génère pas seulement des coûts, elle tire également le chiffre d'affaires. Plus elle sera étoffée et plus les ventes seront élevées. Bien motivée, elle vendra davantage. Bien formée et bien encadrée, elle le fera bien plus qu'une équipe indisciplinée. Plus elle est créative, plus elle contribue directement au chiffre d'affaires et à la rentabilité de la société. Qui dit force de vente, dit force. Chacune est susceptible de nuire gravement aux résultats de son entreprise. Mais l'inverse est tout aussi vrai : il n'en est pas une, où qu'elle soit, qui ne pourrait considérablement améliorer la situation de son entreprise. C'est pourquoi les directions attachent la plus haute importance à leurs structures de vente. Le plus souvent, on commence par se poser les questions suivantes : notre investissement est-il pertinent? Avons-nous la bonne taille? Sommes-nous correctement structurés? Avons-nous la bonne couverture? Notre équipe de commerciaux nous donne-t-elle un avantage stratégique? La bonne décision Une équipe de commerciaux correctement structurée emploie le processus de vente approprié à chaque segment ciblé du marché. Son travail de vente et de suivi, comme la manière dont elle utilise les ressources, sont plus efficientes. Ses efforts portent de façon appropriée sur l'ensemble de la gamme de produits. Bien dimensionnée, la structure de vente accorde l'attention nécessaire aux clients et prospects, et représente, comme il convient, les produits de sa société. Elle fait
son maximum sans jamais être débordée. La société investira alors ce qu'il faut pour sa force de vente. Cet investissement augmente avec la taille et la complexité de cette structure. Comme la direction entend généralement limiter les coûts et accroître la productivité, elle trouve plus commode, dans un premier temps, de regarder du côté de la taille et de la structure de la force de vente. L'analyse qui suit a donc pour objet d'aider tous ceux qui doivent décider de la taille et de la structure de leurs équipes commerciales. Elle se fonde sur plusieurs centaines d'études effectuées dans plusieurs secteurs d'activité en Amérique du Nord, en Europe, en Amérique du Sud et en Asie. Des études effectuées par l'auteur en collaboration avec le cabinet de consultants ZS Associates. * Le besoin de revoir la taille et la structure d'une force de vente est plus fréquent que ne le pensent la plupart des directions. L'environnement économique actuel est en constante évolution. On trouvera nombre de facteurs ayant une incidence directe sur la structure des ventes dans la figure 1. Comme la capacité d'adaptation est une source d'avantages compétitifs, les dirigeants les plus avisés évaluent la taille et la structure de leur force de vente tous les deux ou quatre ans de façon à l'adapter à ces facteurs. * On ne gagne pas à définir la taille d'après des seuls critères de coût. «Garder le coût de la force de vente à son niveau historique». Telle est la règle qu'on entend le plus souvent quand il s'agit de déterminer la taille de la structure de vente. Le directeur financier sait que lorsque cette règle est respectée, la société reste rentable. Malheureusement, cette règle ne permet pas d'optimiser les bénéfices (voir le tableau ci-dessous). Il est regrettable que tant de directeurs financiers acceptent si facilement de renoncer à des bénéfices (1 milliard dans notre exemple) pour préserver le ratio coût/ventes (8 %, ici). Combien d'entreprises l'auteur a-t-il vu renoncer à des centaines de millions de dollars de chiffre d'affaires parce que la force de vente était gérée trop prudemment dans l'obsession des ratios financiers? Et c'est le cas lorsque les perspectives du marché suggèrent un investissement plus agressif dans la force de vente. La taille d'une force de vente doit être déterminée d'après la règle du bénéfice supplémentaire : elle doit être accrue tant que le bénéfice supplémentaire attendu dépasse le coût supplémentaire du taux de rentabilité escompté de l'investissement en forces de vente. * Attention au piège taille/productivité. Il arrive souvent que des entreprises mettent en oeuvre des programmes de productivité (automatisation, ciblage, gestion du temps et protocoles de ventes plus efficaces) pour justifier la compression des équipes commerciales. Voici l'argument type : «Notre programme permettra d'accroître la productivité des commerciaux de 10 %. Nous pourrons donc ramener la force de vente de 100 à 90 et cette réduction remboursera le coût du programme.» Le résultat est tout autre pourtant : le programme permettra de réduire les coûts de vente. La réduction du coût par appel permettra à la société de contacter, de façon rentable, davantage de clients et de prospects. Il devient alors rentable de contacter des clients naguère trop chers à approcher directement. Et c'est ainsi que l'on parvient à accroître la rentabilité en étoffant la force de vente. La taille de la force de vente et l'amélioration de la productivité relèvent de décisions distinctes. On doit toujours accroître la productivité, quelle que soit la taille de la force de vente. La réduction de la force de vente ne doit pas servir à justifier la mise en place d'un programme de productivité.
* Une croissance évolutive n'est que très rarement optimale. Il arrive trop souvent que des entreprises qui lancent de nouveaux produits ou qui font leur entrée sur de nouveaux marchés augmentent la taille des équipes commerciales au mauvais moment. Elles le font lorsque des ventes ont été concrétisées, alors qu'elles feraient mieux d'investir sur des opportunités de vente futures. Ces sociétés développent leur force de vente progressivement, au fur et à mesure de l'augmentation de leur chiffre d'affaires. On peut parler de manque à gagner lorsque des entreprises adoptent cette stratégie sans risques. Pour optimiser les bénéfices, il faut engager tous les commerciaux nécessaires sans délai, avant de lancer un produit ou de s'implanter sur un nouveau marché. Ainsi seront-ils parfaitement rodés au moment où l'entreprise aura besoin d'eux. Leur moral sera fort et tout dysfonctionnement rapidement réglé. Cette stratégie de mobilisation rapide n'est pas très risquée, parce que les taux de rotation des employés sont souvent élevés : en moyenne 18 % aux Etats-Unis. Si le débouché attendu ne se matérialise pas pleinement, comme prévu, la direction pourra toujours réduire les effectifs en jouant sur les départs naturels. * La force de vente affecte les ressources. La force de vente est «l'énergie potentielle de la société». Elle représente la somme de toutes les interactions personnelles entre la société et ses clients. Comme c'est elle qui décide quotidiennement des personnes à contacter, des produits à vendre et des activités prioritaires, c'est elle qui affecte les ressources. La diversité de ses décisions est illustrée par la figure 3. Confrontés à des objectifs de vente agressifs ou à la diminution des perspectives de vente, la plupart des responsables commerciaux pensent, d'abord, à redimensionner la force de vente. Pourtant, mais c'est moins apparent, une utilisation optimale de la force de vente a des répercussions plus importantes sur le chiffre d'affaires et les bénéfices qu'un redimensionnement optimal. Récemment, ZS Associates a fait le point sur 50 études de dimensionnement à travers le pays pour déterminer l'impact relatif des décisions de dimensionnement et d'affectation des ressources à la force de vente. Il en ressort que 71 % des améliorations possibles peuvent être obtenues avec une meilleure affectation des ressources et 29 % avec un meilleur dimensionnement de la force de vente. Par conséquent, mieux vaut travailler intelligemment que travailler davantage. Or les forces de vente ne déploient pas toujours leurs ressources de façon optimale. Des systèmes de compensation peuvent récompenser des réussites commerciales à court terme, au détriment de l'effort consacré à des produits et des marchés stratégiques. Les commerciaux sont attirés par les comptes faciles. Les chefs de produit ayant opté pour des stratégies de marketing agressives font un effort disproportionné pour leurs produits, car les commerciaux savent qu'une partie plus importante du travail est «mâchée». Parallèlement, la structure commerciale ne sait pas, nécessairement, dans quelle mesure les divers produits et marchés réagissent au travail de la force de vente. D'où, parfois, une mauvaise affectation des efforts. Pour déployer une force de vente de façon optimale, il faut réunir deux conditions : le profit supplémentaire de l'effort supplémentaire doit être égal pour tous les produits et marchés. De même, le profit supplémentaire doit équivaloir au coût supplémentaire de l'effort fourni. Une règle plutôt compliquée et qui est bien plus facile à énoncer qu'à mettre en oeuvre.
Pour déterminer cette utilisation optimale des ressources, l'analyste doit être capable de mesurer les profits supplémentaires. Dans la plupart des secteurs, il y parvient en s'appuyant sur quelques données historiques et en faisant preuve d'une grande ingéniosité. * En lançant un nouveau produit : commencez fort mais protégez vos atouts. Cela implique généralement le recrutement de commerciaux supplémentaires Les entreprises cherchent souvent à lancer de nouveaux produits tout en demandant à leur force de vente de promouvoir les produits clefs existants qui constituent le fonds de commerce. Or pour réussir le lancement d'un nouveau produit, il faut, en général, consentir un investissement important dans le commercial. La force de vente est une ressource fixe à court terme, de sorte que tout effort consacré à des perspectives nouvelles se fait au détriment des produits et des marchés existants. Lorsqu'une entreprise possède déjà des produits forts, ces produits pâtiront de la réduction de l'effort commercial. Supposer que les produits existants puissent maintenir longtemps leur chiffre d'affaires sans être soutenus par un effort commercial, c'est prendre des risques. Il n'est pas un produit qui ne souffre, à long terme, d'une réduction de l'effort commercial qui lui est consacré. Les lancements de nouveaux produits et la conquête de marchés peuvent mobiliser 50 % à 60 % des capacités d'une force de vente. Ce qui réduit de moitié, en général, l'effort consacré aux produits existants. C'est la raison pour laquelle certains de ces derniers n'atteignent pas leurs objectifs de chiffre d'affaires. Il ressort de l'expérience de l'auteur qu'il vaut mieux «mettre le paquet» sur un lancement, tout en protégeant ses points forts. Le seul moyen d'y parvenir est d'étoffer la force de vente. Cependant, cette stratégie comporte un risque intrinsèque. Que faire lorsque la société n'a besoin de capacité supplémentaire que pour un court laps de temps? Elle peut emprunter ou louer des capacités commerciales. Ainsi, d'autres divisions peuvent apporter leur contribution. Des représentants ponctuels peuvent aussi répondre à ces besoins, de même que des commerciaux à temps partiel. Autre option raisonnable : l'expansion. Dans le pire des cas, l'entreprise pourra ensuite réduire sa force de vente en recourant, systématiquement, aux départs naturels. * Spécialiser la force de vente lorsque cela permet d'accroître sensiblement l'efficacité Efficience et efficacité, tels sont les mots d'ordre lorsqu'il s'agit de développer et d'évaluer les structures commerciales (voir figure 4). Une entreprise investit de l'argent dans sa force de vente. Des investissements qui servent, généralement, à employer des commerciaux et des chefs des ventes pour établir des contacts téléphoniques ou obtenir des entretiens personnalisés avec les clients et les prospects. La recherche de contacts vise un marché, qui réagit en achètant les produits et services de l'entreprise. L'efficience se mesure au taux auquel la force de vente convertit l'investissement qui lui a été consacré en contacts. Des commerciaux efficaces obtiennent un nombre de contacts élevé par rapport à l'investissement. L'efficacité se mesure à la réaction des acheteurs aux contacts établis. Une équipe commerciale efficace obtient un résultat élevé par contact. Elle génère un niveau de ventes élevé par rapport aux ressources investies dans les contacts.
Une structure géographique, ou généraliste, correspond à une force de vente de base. Les entreprises ainsi dotées, affectent leurs commerciaux à des territoires comportant une liste de comptes ou un groupe de zones géographiques : par exemple, par département ou par code postal. Chaque membre de l'équipe est responsable de toute l'activité commerciale sur son territoire. Les territoires de vente sont, en général, très compacts dans ces structures géographiques. Aussi, les forces de vente géographiques génèrent-elles le plus souvent davantage de contacts et d'entretiens personnalisés que dans les autres types de structures. Dans ces conditions, pourquoi toutes les forces de vente ne sont-elles pas à structure géographique, puisqu'il s'agit, apparemment, de la structure la plus efficace? La réponse se trouve dans l'hétérogénéité du marché, des produits et des activités. Le marché d'une entreprise comporte, généralement, un grand nombre d'acteurs. Certains sont des clients, d'autres des prospects. Certains clients se préoccupent, d'abord, des prix, alors que d'autres souhaitent un service sur mesure. Certains préfèrent une livraison immédiate, d'autres à 90 jours. Certains génèrent un chiffre d'affaires élevé et des perspectives bénéficiaires, d'autres ne sont même pas prêts à payer l'effort fourni par la force de vente. Des besoins très divers, donc, qui nécessitent une structure de vente capable de s'adapter à l'hétérogénéité. Les produits de la société contribuent, également, à l'hétérogénéité. Certaines entreprises, telles que Lego, vendent une gamme de produits limitée. D'autres, telles que Grainger & Baxter, en commercialisent des milliers. La diversité des produits fait que les commerciaux démarchent des acheteurs ayant des besoins différents et des méthodes de travail propres. Il faut, donc, recourir à des savoirfaire commerciaux différents et à des connaisances plus approfondie la gamme de produits. Un seul commercial aura des difficultés à vendre correctement une gamme de produits étendue et diversifiée. L'activité de la force de vente, enfin, est, elle aussi, source d'hétérogénéité. La force de vente est censée trouver des clients, identifier leurs besoins, résoudre leurs problèmes, vendre, assurer le suivi et l'entretien, et développer leur activité comme le ferait un associé. Résoudre des problèmes techniques et vendre sont, par exemple, deux activités que certaines entreprises trouvent incompatibles. Il est relativement rare qu'un vendeur doué soit également un technicien hors pair. Une hétérogénéité excessive sur l'un de ces aspects aboutit à un besoin de spécialisation lorsqu'une société entend donner de la valeur ajoutée à ses clients. Une force de vente organisée par zones géographiques pourrait dans ces circonstances perdre de son efficacité. Il est pratiquement impossible qu'une personne seule maîtrise tous les savoir-faire et les connaissances permettant de répondre à l'hétérogénéité du marché, des produits ou de l'activité. Il faut alors se concentrer, autrement dit, se spécialiser. La spécialisation est le mécanisme qui permet d'affronter l'hétérogénéité. Des commerciaux spécialisés dans un marché, un produit ou une activité, génèrent davantage de ventes par contact. Une force de vente disposant d'une structure spécialisée règle le problème de l'hétérogénéité en concentrant ses ressources sur les causes de cette hétérogénéité. Conclusion La différence entre le chiffre d'affaires et le bénéfice réalisés par une structure de
vente correctement dimensionnée et bien organisée et ceux générés par une force de vente moyenne peut être significative. Il ressort des 50 études susmentionnées que de bonnes décisions sur ces questions devraient se traduire par une hausse de 4,5%, en moyenne, du chiffre d'affaires et du résultat en trois ans. C'est pourquoi il faut bien réfléchir avant de prendre ses décisions. Vous êtes-vous déjà trouvé dans l'une de ces situations? - De gros clients se demandent où se trouve votre représentant commercial. - Votre force de vente semble ne pas avoir le temps d'enregistrer les commandes, et moins encore d'assimiler les changements éventuels des besoins des clients. - Se sentant négligés, des clients songent à changer de fournisseur. - Les nouveaux contrats se font rares.. - La force de vente se plaint d'être surmenée. Ses objectifs territoriaux lui semblent impossibles à atteindre. - Un certain nombre de vos commerciaux distribuent leurs CV. - Les coûts de la société semblent maîtrisés et elle devrait atteindre ses objectifs en termes de chiffre d'affaires grâce à l'effort supplémentaire demandé aux forces de vente. - La direction est satisfaite du chiffre d'affaires et rend hommage à la productivité de ses commerciaux et de ses responsables du marketing. Si oui, votre force de vente est peut-être insuffisante.? Avez-vous déjà observé l'un de ces phénomènes - Vos clients se plaignent que votre force de vente ne connaisse pas bien les produits et semble aussi ne pas comprendre leur activité. - Les clients sont mécontents car leurs besoins ne sont pas satisfaits. - Vos commerciaux se sentent mal à l'aise, considérant que les clients et les concurrents en savent plus qu'eux. Ils pensent être mal outillés pour faire leur travail. - Ils estiment être coupés des décideurs. - Les chefs de produits constatent que leurs objectifs en termes de développement du produit et de pénétration du marché ne sont pas atteints. Si oui, votre force de vente n'est peut-être pas correctement structurée. Ces affirmations vous semblent-elles familières? - Vos clients préférés vous demandent : «Je viens de vous voir, non?» - Globalement, vos clients reçoivent une attention excessive. Certains se demandent si vos marges ne sont pas élevées pour consentir de tels frais commerciaux. - Vos commerciaux sur le terrain semblent avoir beaucoup de temps libre et manquer de motivation. - Les frais commerciaux de votre société commencent à dépasser ceux du secteur. - Depuis plusieurs trimestres, vous ne parvenez pas à atteindre vos objectifs de rentabilité. Si oui, votre force de vente est peut-être trop importante. La fidélité à la marque à travers les situations d'achat La valeur d'une marque forte réside dans sa capacité à attirer des consommateurs et à les conserver. Il est possible d'analyser ce concept de fidélité
à la marque en étudiant, notamment, le comportement ou l'attitude du consommateur, ou encore la situation où il se trouve. BERNARD DUBOIS ET GILLES LAURENT Pourquoi prendre en compte les situations d'achat et de consommation dans la mesure de la fidélité? Depuis plusieurs années, les politiques de marque attirent un intérêt considérable. Les annonceurs comprennent que les marques constituent l'un de leurs principaux actifs, c'est la notion de capital de marque. La valeur d'une marque forte réside principalement dans sa capacité, dans un environnement très compétitif, à attirer les consommateurs, et à les conserver pendant une longue période. Il n'est pas surprenant que les travaux, pratiques ou théoriques, visant à mieux comprendre ce qui constitue le capital de marque se soient souvent intéressés à la fidélité. La fidélité à la marque est un concept déjà ancien, mais assez complexe : les définitions proposées, les mesures possibles sont très nombreuses. Actuellement, deux points de vue prédominent. Selon le premier, la fidélité est une notion liée au comportement, et se mesure à partir de l'historique des achats d'un consommateur, observé par exemple dans un panel. L'autre approche s'appuie plutôt sur l'attitude du consommateur. La fidélité y est vue comme l'expression systématique d'une préférence pour une marque, et mesurée par questionnaire. Les deux points de vue ont leurs points forts, mais aussi leurs limites. Les indicateurs fondés sur les comportements s'appuient sur des données fiables et détaillées, mais leur pouvoir de diagnostic est limité si on les utilise seuls. Puisqu'on n'observe que ce que les consommateurs ont fait, on ne peut que spéculer sur la présence, au-delà d'achats répétés, d'un attachement psychologique sous-jacent à la marque, attachement qui est une composante importante de la notion intuitive de fidélité. Le manque d'implication du consommateur dans le choix, un prix constamment bas pour l'une des marques, un coût de changement perçu comme élevé, un choix limité au point de vente, sont des facteurs, autres que la fidélité à la marque, qui peuvent entraîner des achats répétés d'une même marque. A l'inverse, les mesures centrées sur l'attitude, y compris les intentions d'achat déclarées, permettent de mieux approfondir les composantes cognitives et affectives de la fidélité à la marque. Mais elles n'ont souvent qu'un faible pouvoir prédictif. On y définit la fidélité à partir de ce que les consommateurs pensent et disent, mais cela peut être éloigné de ce qu'ils font. Dans cet article, nous proposons une troisième voie pour analyser la fidélité à la marque : la prise en compte des situations d'achat et de consommation. On sait depuis longtemps que la situation où se trouve le consommateur peut avoir un impact marqué sur son comportement. Dans notre cas, prendre en compte les situations amène à définir la fidélité à une marque comme la tendance à la choisir dans une grande variété de situations. Plus nombreuses sont les situations où un consommateur fait le même choix, plus cette personne est fidèle. Par ailleurs, les différentes situations étudiées peuvent être classées par le degré d'infidélité qu'elles provoquent. Dans certaines situations, les consommateurs restent en moyenne fidèles à leur marque préférée ; dans d'autres situations, au contraire, ils ont en moyenne tendance à devenir infidèles. On peut ainsi développer, pour une marque ou pour une catégorie, un «profil de fidélité», base possible de ciblage et de positionnement. Au lieu de chercher à repérer des consommateurs fidèles sur la base de caractéristiques permanentes comme la socio-démographie, ou le profil psychologique, au lieu de positionner des marques en fonction de leurs caractéristiques, il devient possible de positionner une marque à travers son contexte d'achat ou d'utilisation (par exemple, pour une réception, ou pour un dîner en famille).
L'examen des situations Notre démarche est d'analyser comment le choix de marque varie (ou non) en fonction de la situation où se trouve le consommateur. Nous illustrons cette approche en résumant une étude récente réalisée grâce à la société Secodip. Elle portait sur six catégories : café, pâtes, glaces, jus de fruits, biscuits, fromage. (Pour respecter les contraintes de place, nous ne présentons ici que les résultats sur le café, les biscuits et les jus de fruits ; pour des raisons de confidentialité, nous ne pouvons présenter les résultats obtenus au niveau des différentes marques.) L'étape la plus délicate est celle où l'on détermine la nature, le nombre et la variété des situations soumises aux consommateurs interrogés. Idéalement, il faudrait que ces situations soient contrastées pour que chacune d'elles apporte une dimension nouvelle à l'analyse, tout en étant représentatives, globalement, des situations typiques d'achat et de consommation, de façon à ne pas laisser de côté des cas importants. Après des pré-tests qualitatifs, nous avons choisi d'analyser trois dimensions des situations : l'environnement social de la consommation (en demandant de faire un choix en vue d'une réception avec des amis), l'horizon temporel de l'achat (en indiquant que l'on a un besoin urgent du produit, et que l'on n'en a plus à la maison), et les contraintes imposées par le magasin (en demandant ce que le consommateur ferait dans un point de vente où sa marque préférée n'est pas disponible). Dans chaque cas, on demande à la personne interrogée quel choix elle ferait : sa marque habituelle, ou une autre? (Dans la troisième situation, le choix de la marque habituelle implique bien sûr d'aller acheter dans un autre magasin ou de reporter son achat.) Les réponses présentées ci-dessous venaient d'un échantillon représentatif de 1.762 personnes. Le premier résultat est que la fidélité à la marque varie fortement suivant les situations : on observe de fortes différences dans la fréquence d'achat de la marque habituelle. Dans chacune des catégories, les trois situations analysées s'avèrent de plus en plus défavorables à la fidélité. Le pourcentage d'acheteurs fidèles est beaucoup plus fort pour une réception que pour faire face à un besoin urgent, et l'absence de la marque en magasin accroît encore l'infidélité. La fidélité n'est pas une caractéristique permanente d'un consommateur, mais varie suivant l'occasion. L'ordre des situations est le même pour toutes les catégories étudiées, ce qui suggère que nos trois scénarios ne sont pas propres aux produits étudiés, et pourraient sans doute être transposés à des marchés très divers. En même temps, les réponses observées changent notablement d'une catégorie à l'autre. Le café révèle beaucoup plus de fidélité que les jus de fruits et surtout les biscuits. Dans la situation la plus exigeante, la réaction à une rupture de stock en magasin, le taux de fidélité est deux fois plus fort pour le café que pour les biscuits. En fait, on peut vérifier au niveau individuel qu'il existe bien un ordre de difficulté des situations, en termes de fidélité. Peut-on dire qu'un consommateur fidèle dans la situation la plus dure (la rupture) le sera aussi dans les situations plus faciles? Nos analyses montrent que oui : plus de 90 % des consommateurs, quelle que soit la catégorie considérée, se montrent aussi fidèles ou plus fidèles dans les situations plus faciles que dans les situations difficiles. Trop souvent, la fidélité à la marque est vue en noir et blanc : on cherche à classer les consommateurs en «fidèles» ou «infidèles». Nos résultats montrent, à
l'inverse, que la fidélité est une question de degré, et qu'elle peut s'apprécier à partir d'un score établi en fonction du nombre de situations pour lequel elle est observée. Par exemple, le pourcentage de consommateurs que l'on peut considérer comme les plus fidèles, dans la mesure où ils ont choisi «leur» marque dans les trois situations proposées dans l'enquête, s'établit ainsi pour nos trois produits : Pour une catégorie de produit particulière, on peut naturellement préciser le profil de ces consommateurs. Ainsi pour le café : De tels résultats sont utiles aux managers car ils leur permettent d'affiner leur segmentation et leur ciblage. Ils révèlent que certaines caractéristiques (ici l'âge et la taille du foyer) sont fortement reliés à la fidélité alors que d'autres (ici le statut d'utilisateur) ont un impact beaucoup plus faible. Cela peut influencer des décisions par exemple en matière de promotion des ventes ou de marketing direct. Nous espérons, dans cet article, avoir montré l'intérêt d'une approche de la fidélité à la marque fondée sur les situations d'achat et de consommation. A des fins d'illustration, nous avons développé et testé un instrument de mesure simple et pourtant opérationnel pour trois catégories de produits et trois types de situations. Bien sûr, nous ne recommandons pas d'utiliser cet outil spécifique pour toute marque et toute catégorie de produits. Dans chaque cas, il conviendra de s'interroger sur le nombre et la nature des situations à retenir. Souvent, il par exemple dans le cas de biens durables ou de produits «plaisir», il faudra aller au delà de l'environnement physique, social et temporel (les trois dimensions que nous avons retenues ici) et prendre en compte le contexte de rôle (s'agit-il par exemple d'un achat pour soi ou bien pour offrir) ou encore les émotions et les humeurs caractérisant l'achat ou la consommation du produit et des marques étudiées. Parfois, on préférera prendre en compte des situations spécifiques à la catégorie de produits ou même à la marque afin d'aller plus loin dans le diagnostic. Dans d'autres, on privilégiera des dimensions génériques permettant des comparaisons inter-marques ou inter-produits (comme nous l'avons fait ici). Tout dépendra en fait des objectifs poursuivis et des décisions managériales qui y sont attachées. La force d'une base de données bien gérée Une base de données pertinente et très détaillée permet à l'entreprise de répondre plus rapidement aux attentes de ses clients existants ou potentiels. Elle a ainsi toutes les chances de les fidéliser et d'en faire un de ses actifs principaux. DAVID SCHMITTLEIN Asseyez-vous devant un bon vendeur automobile et demandez-lui de vous confier le secret de son succès. Ne soyez pas surpris s'il vous sort de son tiroir une boîte à chaussures pleine de fiches et vous affirme qu'il s'agit de son outil principal. Vous plongez fébrilement dans la boîte, convaincu qu'elle recèle tous les secrets pour réussir dans la vente, mais vous n'y trouvez rien d'autre qu'un tas de fiches rangées par ordre alphabétique contenant toutes les informations sur chaque client actuel et potentiel ainsi que chaque source de recommandation que le vendeur a accumulée pendant toute sa carrière. Sur ces fiches écornées, les informations sont plutôt prosaïques : nom et adresse du client, date de l'achat, nom du modèle, prix de vente final, reprise et dernière visite d'entretien. Vous remarquez aussi quelques dates inscrites en bas de la fiche : anniversaire du client, date de relance trois mois avant l'expiration du contrat de leasing. Le vendeur vous explique : «Je ne vends pas de voitures, je construis des relations.» Et son outil fabuleux, c'est cette base de données que vous tenez entre vos mains. Face à la concurrence acharnée et aux produits et services qui se banalisent de jour en jour, les sociétés cherchent plus que jamais à tisser des relations avec
leurs clients. Grâce aux progrès technologiques, elles peuvent aujourd'hui créer des bases de données sophistiquées avec des informations détaillées sur leurs clients. Bien utilisées, ces bases leur permettent d'établir avec eux des relations solides, fondées sur une meilleure connaissance de leurs attentes, et d'agir en conséquence sur la conception des produits, services et communications qui leur sont destinés. Avec une base de données, une société peut élaborer des programmes de fidélisation et de marketing relationnel, des campagnes de marketing intégré, des outils de commerce électronique, une politique de marketing de base de données et des méthodes de personnalisation en grande quantité. Les sociétés de cartes de crédit et les vépécistes ont été les plus agressifs et ont su prendre le train en marche : ils ont créé avec succès des bases de données clients et bâti des stratégies pour gérer leurs clients comme un véritable capital. La gestion de ce type d'actif bouleverse les méthodes d'exploitation de l'entreprise. Gérer des actifs tangibles est une chose, mais gérer des actifs intangibles, toujours en évolution, en est une autre. Les clients bougent, ont sans cesse de nouvelles attentes et subissent des changements qui n'apparaissent pas forcément dans la base de données. Maintenir à jour une base de données est donc une tâche énorme. De plus en plus de grandes entreprises se rendent compte aujourd'hui que les investissements en matériel, logiciels et effectif nécessaires pour développer et entretenir une base de données, facile d'accès et pertinente, ne représentent généralement qu'une petite fraction de leurs dépenses marketing globales, et que ces investissements se révèlent rentables aussi bien en termes de temps qu'en termes d'argent. Une société de biens de consommation comme Procter & Gamble peut, par exemple, utiliser les informations recueillies sur ses clients pour mieux cibler ses ventes, lancer de nouveaux produits, récompenser ses clients fidèles ou stimuler les ventes croisées au sein d'une ligne de produits. Chaque contact positif contribue à établir une relation durable avec le client. A l'intérieur de sa base de données générale, l'entreprise peut avoir une catégorie pour les jeunes mères qui utilisent ses couches jetables Pampers, une autre pour les clients qui consomment ses dentifrices Crest et une autre encore pour ceux qui achètent sa lessive Tide. Au fur et à mesure que le groupe développe sa base de données avec des informations plus spécifiques sur chacun de ses clients, il se crée un capital significatif. Volkswagen a fondé le Volkswagen Club pour fidéliser ses clients. Au-delà des nombreux avantages offerts dans son programme, Volkswagen en profite pour saisir toutes les informations recueillies sur ses clients avant de les adresser à son service de recherche et développement et à sa division marketing. L'exemple classique illustrant le succès de ce type de stratégie est celui du groupe américain ATT, qui a utilisé sa base de données clients téléphoniques pour s'introduire sur le marché des cartes de crédit en 1990. Trois mois après avoir lancé sa carte Universal, ATT comptait plus d'un million de clients. Les mailings adressés en masse pour proposer une nouvelle carte de crédit sont monnaie courante. Mais le principal avantage d'att était d'avoir sélectionné avec attention dans son énorme base de données les prospects qui lui semblaient être les meilleurs candidats pour sa carte, minimisant ainsi le risque de se retrouver avec de mauvais payeurs. Le marketing de bases de données a de profondes répercussions sur la mise en oeuvre de la stratégie de communication. En effet, il adresse un message direct et spécifique à chaque client, contrairement au marketing de grande diffusion qui
cible un public très large. Aujourd'hui, la technologie permet à l'entreprise de saisir de multiples données sur chacun de ses clients : comportements d'achat, volume d'achat moyen, goûts, etc. Collecter et exploiter ces informations apporte un avantage concurrentiel fort. Chaque transaction entre un client et la firme est l'occasion de recueillir des renseignements capitaux qui renforceront ses liens avec lui. Plus les données saisies sont détaillées, plus la société est à même de réagir rapidement dans le développement de ses nouveaux produits et services. Ainsi, Amazon.com, la très novatrice librairie sur Internet, enregistre les préférences de ses clients chaque fois qu'ils effectuent un achat. Grâce au développement de sa base de données, elle peut ensuite leur suggérer des idées de livres à chaque fois qu'ils se connectent. Si l'un d'eux a l'habitude d'acheter des ouvrages sur la cuisine ou les voyages ou montre un penchant pour la littérature ou la science-fiction, Amazon lui recommandera des titres dans ses domaines de prédilection. La base de données est plus qu'un simple fichier, elle est le dépositaire des goûts spécifiques des clients. Lorsqu'une société répond plus vite aux attentes d'un client, elle a toutes les chances de le fidéliser pour une longue période et d'en faire un actif ayant de la valeur. Les directeurs du marketing arrivent à cibler les clients avec de plus en plus de précision, ce qui leur permet d'exploiter de plus petites niches même à l'échelle internationale. Les sociétés investissent du temps, de l'argent et de l'énergie pour se créer une image de marque et de de la notoriété, qui est perçue comme un précieux capital. Cependant, le capital créé par la base de données avec une connaissance et des informations rigoureuses sur les clients peut devenir un des principaux actifs de l'entreprise. Les communications intégrées Les entreprises commencent à développer une approche marketing plus intégrée, qui s'intéresse dans un premier temps à la façon dont elles utilisent leurs bases de données. La communication intégrée permet à une société de coordonner ses trois décisions principales : quoi, quand et comment. L'objectif est d'avoir plus d'impact sur les clients, existants et potentiels, et d'utiliser les ressources disponibles plus efficacement. Lorsque votre société passe du marketing de masse au marketing interactif, c'est l'occasion pour elle d'affiner sa stratégie et de passer d'une politique basée sur les variables démographiques et les styles de vie à une approche fondée sur l'historique du comportement d'achat des clients. Le développement des nouveaux produits ou services s'en porte nettement mieux. Le moteur de la communication devient ce que l'on appelle la personnalisation en masse. Ce concept, qui peut ressembler à un oxymore, a l'avantage d'orienter la société dans de nouvelles directions plus profitables. La personnalisation en masse permet, en effet, de développer des produits spécifiques pour chaque client au lieu de produits généraux pour un consommateur moyen. Finies les campagnes standardisées largement diffusées. On passe aux messages personnalisés destinés à des cibles beaucoup plus pointues. Il en va de même pour la promotion des ventes qui s'appuie désormais sur le comportement passé du client et abandonne les offres générales. Personnaliser une base de données clients implique des bouleversements stratégiques. L'équipe commerciale ne sera plus composée de vendeurs motivés par
l'escalade des incentives, mais de collaborateurs au service du client. La formation qu'ils recevront s'inscrira dans une double perspective : aider le client à définir ses attentes et bâtir des plans de communication pour lui proposer des produits et services permettant de les satisfaire. Historiquement, les programmes de marketing ciblés étaient élaborés sur la base des données démographiques et socio-économiques dont on disposait. Cependant, les professionnels ont toujours estimé que le comportement d'achat passé est le meilleur outil dont on dispose pour prévoir son avenir. Personnellement, j'ai découvert au cours de mes recherches que l'historique d'achat du client est 10 fois plus performant pour identifier les prospects que les variables géodémographiques. La société dispose, pour chacun de ses clients, d'informations détaillées sur la fréquence-récence et le montant des achats ainsi que sur la catégorie de produit ou de service choisie. Plus un client fait de transactions avec une société, plus le capital qu'il représente augmente. Le fleuriste américain 1-800-Flowers, par exemple, exploite très efficacement sa base de données grâce à son système électroniquegift Registry. Celui-ci permet aux clients de constituer la liste des occasions spéciales qu'ils désirent fêter, celles-ci pouvant aller jusqu'à 50. Cinq jours avant la date indiquée, 1-800-Flowers leur adresse un courrier électronique de rappel en leur demandant s'ils souhaitent envoyer des fleurs. Bien évidemment, les clients n'achètent pas à chaque fois. Néanmoins, cette approche génère du chiffre d'affaires supplémentaire pour la société. En outre, les commandes passées à ces occasions excède de 50 F le montant de la commande moyenne et les clients qui achètent régulièrement sont moins tentés de s'adresser ailleurs. La création d'une base de données Le secret du succès, c'est d'avoir une base de données utile. En d'autres termes, la société doit veiller à saisir les informations essentielles spécifiques au client et à pouvoir y accéder facilement. Commençons par les données les plus évidentes : il s'agit des variables démographiques comme le nom et l'adresse. De là, on passe aux renseignements obtenus par la rencontre avec le service clients comme les cartes de garantie retournées par les clients. Parmi les autres opportunités, on peut citer : les contacts via les programmes de marketing (bons de réduction retournés), les réponses à des enquêtes, les bons de commande, les demandes de renseignements des clients et ainsi de suite. Lorsqu'une société crée un système de base de données, elle peut connaître les principales répercussions sur son programme de communication via la réponse aux questions suivantes : *Quand devrions-nous contacter le client? *Quel produit faudrait-il lui proposer? *Quels bénéfices mettre en valeur? (Quels sont les attributs les plus impératifs pour le client?) Toutes ces informations permettent de créer des programmes de communication sur mesure avec des méthodes bien plus rentables pour vendre les produits et services. Le résultat? les offres, les appels et contacts commerciaux, les ventes croisées, les programmes de réactivation et de fidélisation ainsi que le développement de
nouveaux produits deviennent des opérations hautement ciblées. L'historique des clients dans une base de données axée sur le marché doit comporter les éléments suivants : *Commandes/transactions et leurs dates *Type de produit/service commandé/acheté *Volume en francs *Rentabilité *Historique des paiements *Communications adressées au client, y compris les dates, le type de produit ou service offert, le prix de l'offre et/ou les conditions de paiement. *Communications reçues du client, y compris les demandes de renseignements, les visites et les réclamations. Ces informations peuvent être détaillées encore davantage. À titre d'exemple, s'agit-il d'un client régulier, occasionnel ou irrégulier? D'autres catégories sont encore envisageables comme celles regroupant les informations sur ce qui incite le client à effectuer un achat particulier (comme les offres spécifiques, le prix ou l'assortiment général de la société) ou les informations indiquant s'il est intéressé par les programmes, les relations, les négociations ou les bonnes affaires. La société voudra également connaître les facteurs qui influencent les décisions d'achat du client, notamment : *Quelle est l'activité du client à l'heure actuelle? *Que voudrions-nous qu'il fasse? *Comment renforcer un comportement d'achat positif? *Comment en créer d'autres? Il n'y a, bien sûr, pas de limites à la somme des informations clients que l'on peut entrer sur une base de données. Cependant, celle-ci peut devenir trop chargée, coûteuse et difficilement accessible. Le point capital, c'est de bâtir une base de données avec les informations essentielles sur chaque client permettant de renforcer les liens avec lui et de lui proposer de meilleurs produits ou services. La mise en oeuvre d'une base de données réussie repose sur sept règles : 1- Construire une base de données dédiée au marketing 2- Séparer les prospects, les clients existants et les anciens clients 3- Concevoir des interfaces conviviales (basées sur les requêtes) pour accéder à la base. 4-Mesurer les contacts et les réponses (la réactivité vs la réponse) 5-Evaluer la lifetime value des clients
6-Démarrer avec un projet pilote 7-Entretenir une relation constructive entre les services de communication et les services chargés de la conception des produits/services. Malgré tout, il y aura toujours des obstacles et des barrages à l'exploitation efficace d'une base de données. Les principaux défis à relever sont énumérés cidessous. Création de compromis/choc des cultures. Plusieurs groupes dans l'entreprise sont à l'affût de l'information. Leurs besoins sont souvent différents et parfois conflictuels. Par conséquent, la société doit exercer un contrôle puissant et centralisé sur sa base et la gérer au bénéfice de son activité tout entière. Conflit entre l'accès aux données et le contrôle. Qui aura accès aux informations sur les clients? Quels sont les chefs de produit et les unités qui l'exploiteront dans des buts de communication? Quand et avec quelle fréquence? Nombre des informations collectées par la société sont hautement confidentielles et les clients veulent avoir l'assurance qu'elles le resteront. Coûts et exigences au démarrage. Des investissements en matériel, logiciels et effectif seront nécessaires et ce n'est pas le moment de lésiner. Qui sera responsable de la base de données? Le service informatique? financier? le service clients ou un service produit spécifique? La base de données doit être considérée comme un actif de l'entreprise et gérée comme tel. Choix des logiciels. Il y a de nombreux logiciels d'analyse. Prenez le temps de découvrir les options qui vous sont proposées et d'étudier les avantages et les inconvénients des différents produits disponibles. Conclusion Le tableau ci-dessus résume les stratégies que doit suivre une société pour réussir avec sa base de données : quand communiquer, sur quels produits axer les efforts, comment saisir les opportunités de vente croisée et sur quel bénéfice mettre l'accent. L'idée qu'il faut garder à l'esprit, c'est que la base de données est l'un des principaux éléments du capital de l'entreprise. Pour être plus précis, chaque dossier ou client est un actif et chaque client assure le succès de votre société ainsi que sa rentabilité à l'avenir. Plus vous développerez et vous affinerez votre base de données, plus vous renforcerez votre capital et votre position concurrentielle. Vers l'industrialisation de la vente et de la relation clients Il ne suffit pas de doter ses commerciaux d'ordinateurs portables pour améliorer l'action de sa force de vente. Il faut aussi savoir définir ses priorités et faire évoluer son organisation. XAVIER HOUOT Combien d'entreprises s'émerveillent-elles devant le succès de tel ou tel commercial, sans cependant analyser ou transmettre son savoir-faire à ses homologues? Combien ont osé transformer en profondeur ce «nerf de la guerre» qu'est la vente? Aujourd'hui, la quête de croissance et la compétition imposent aux dirigeants la
transformation de leurs organisations et de leurs activités marketing et commerciales. L'objectif poursuivi est l'amélioration radicale de la performance commerciale par l'introduction de méthodes, d'organisations et d'outils nouveaux, sans toutefois étouffer les talents relationnels ou l'autonomie nécessaires des commerciaux. Mais peut-on englober dans une même discussion toute la diversité des formes de commerce et de la relation clients? Quels points communs y a-t-il entre le boulanger, Itinéris, EDF, La Redoute, Renault et AXA? Tous ont finalement des relations commerciales assez similaires avec leurs clients (marquer la reconnaissance, écouter, qualifier la demande, répondre aux objections, conseiller, construire l'offre, finaliser la vente...). Ils poursuivent par ailleurs des objectifs communs (acquérir et retenir un maximum de bons clients, augmenter la taille du «panier moyen», ou encore améliorer la qualité du service, le tout avec la meilleure productivité et donc au moindre coût). Hormis peut-être votre boulanger, les organisations commerciales de tous les secteurs doivent s'attendre à des transformations profondes : soyez prêts, et même anticipez! Quoi de neuf en 1999? Hier, des investissements énormes ont été entrepris pour automatiser, accroître l'efficacité et baisser les coûts des activités back-office (comptabilité, achats, logistique...). Ces transformations ont épargné les fonctions marketing, vente, après-vente, relation clients, mais cela est en train de changer pour plusieurs raisons : * Le besoin crucial de tout savoir sur le client, et de le lui montrer à bon escient. Exemple : le constructeur automobile souhaite savoir où le client s'informe, achète puis finance son véhicule, où il effectue ses révisions et son entretien, puis revend en occasion. Pour mieux servir son client, mais aussi pour vendre plus, ces informations sont devenues stratégiques. * La nécessité de mesurer l'efficacité des activités marketing et vente : analyse du «pay-back» des campagnes marketing, des effectifs commerciaux sur le terrain ; connaissance du coût et de la rentabilité d'une visite client. * Le besoin de partage des informations entre le marketing et la vente : remontée systématique du terrain d'informations utiles pour le marketing ; corrélation entre les actions marketing et l'évolution des ventes ; connaissance par les vendeurs des dates et des motifs d'appel de leurs clients aux services après-vente ou facturation. * La disponibilité de nouveaux outils informatiques qui permettent le partage de l'information et la structuration des processus marketing et vente : gestion d'opportunités commerciales, présentation de l'offre, configuration, gestion des contacts clients... sont autant d'activités couvertes par les progiciels de vente et relation clients. Ces solutions seront au coeur des grands projets de transformation de la vente : la croissance attendue de la vente de licences de ces outils, selon le Forrester Research, est de 55 % par an jusqu'en 2002. Un front-office intégré Le front-office recouvre «tout ce qui met l'entreprise en relation avec ses clients», par opposition aux activités de back-office. La figure 1 traduit la vision que les clients ont de leurs fournisseurs. Elle souligne l'importance des critères suivants : * La nécessaire capacité de réaction et d'adaptation du front-office pour répondre aux attentes changeantes et différenciées de chaque catégorie de clients.
* L'intégration entre les fonctions du front-office, c'est-à-dire la fluidité des échanges entre marketing, vente, après-vente, service... Pour asseoir cette nécessaire intégration, l'organisation des entreprises doit elle aussi évoluer : des «directions intégrées de la relation clients» (DIRCs) (voir figure 2) doivent garantir cohérence et fluidité entre les activités de contact client. L'amélioration et l'informatisation une à une des activités de relation clients n'apporte qu'une part des gains possibles, tant pour l'entreprise (coordination insuffisante, voire contradiction des actions entre les canaux de relation clients) que pour ses clients (sentiment de «cacophonie»). Mener par exemple de manière étanche des projets «centre d'appel» et «force de vente» hypothèque nombre de bénéfices. Industrialisation de la vente En complément de la mise en oeuvre de systèmes intégrés et d'organisations nouvelles, une autre dimension des transformations à venir est «l'industrialisation» des processus marketing, vente et relation clients. Il s'agit ici de rendre systématique, pour l'ensemble des équipes de vente, l'application d'une base minimale d'activités commerciales : étapes incontournables du cycle de vente, reporting systématique, partage quotidien des données sur les clients ou les contacts... L'enjeu, ici, est d'élever le niveau de performance moyen : si les meilleurs (20 %) ou les moins performants (20 %) des commerciaux voient leurs résultats peu affectés par de telles transformations, les 60 % restants voient les leurs approcher celle des meilleurs. Le niveau de service fourni aux clients est également plus normé et plus élevé, tant dans les phases d'avant-vente que d'après-vente. Des sociétés comme Motorola, Compaq, HP ont élevé leur efficacité commerciale par la mise en place d'outils qui ont supporté ces processus plus rigoureux. Vendeurs, attention! Vos employeurs vont investir en vous! L'investissement pour la mise en place de nouvelles organisations de relation clients s'échelonne entre 60.000 et 110.000 francs par employé (coûts du re-engineering, des matériels, des logiciels et de l'intégration). Justifier de tels projets auprès d'une direction générale requiert l'estimation fine d'un pay-back attendu. Celui-ci découle de l'obtention de deux types de bénéfices : hausse des revenus et baisse des coûts. Ces bénéfices doivent s'obtenir à chaque étape de la chaîne de la valeur marketing et vente (voir figure 3). La recherche de l'efficacité commerciale risque donc d'accélérer la réduction des effectifs commerciaux itinérants (plus coûteux), et la recentralisation de personnels vers des centres d'appel. Les «petits» clients sont parallèlement orientés vers ces centres d'appel, ou vers des sites Extranet, performants et peu onéreux. On s'oriente ainsi vers une vente sans vendeur, quand l'informatisation permettra de confier au client (particulier ou entreprise) un rôle croissant dans l'acte de vente. On parlera alors plutôt d'acte d'achat : le client, ciblé puis contacté par centre d'appel ou par e-mail, accède à un logiciel de «configuration» qui l'aide à définir seul le produit adapté à ses besoins, négocie le prix avec un système de yield management, commande en ligne ou au centre d'appel, puis suit l'avancement de sa commande sur Internet. Les ventes complexes, les produits à forte valeur relationnelle résisteront le plus longtemps à ce mode de commerce peu humain. Par chance, ni l'odeur ni le pain de votre boulangerie ne pourront vous être accessibles
de la sorte... Côté hausse des bénéfices, les gains proviennent d'une relation clients plus organisée et personnalisée, d'une démarche commerciale plus collective : cycles de vente raccourcis, chiffre d'affaires additionnel, meilleur ciblage. La quantité de visites ou d'appels réalisables par le même effectif commercial s'accroît (passage de 4 à 7 visites par jour chez des équipementiers ou dans les laboratoires pharmaceutiques). L'amélioration de la préparation des contacts, de la qualité des conseils et de la présentation de l'offre permet la différenciation avec la concurrence. Des exemples en high-tech, dans l'assurance, les télécoms ou la vente par correspondance indiquent des pay-backs de 6 à 18 mois : hausse du panier moyen de 13 %, taux de rétention client qui bondit de 22 %, ventes additionnelles et croisées accrues de 27 %... Réussir ces transformations De tels projets qui reconsidèrent l'ensemble de front-office sont nouveaux, et leur complexité est souvent sous-estimée. Selon une étude récente du Gartner Group, 53 % de ces projets de transformation et d'informatisation des activités marketing et vente échouent. Quelles leçons tirer? * Bien aligner ces projets sur la stratégie commerciale : doter les commerciaux de micro-ordinateurs portables ne suffit pas. Il faut s'entendre sur les objectifs prioritaires (cibler les grands comptes, accroître la rétention client...), puis décliner les processus, les organisations et les outils en conséquence. * Accompagner, expliquer, informer, rassurer : la résistance au changement des équipes de vente est fréquente et s'explique par le sentiment d'une perte d'autonomie et celui d'un pilotage accru. * Faire évoluer les pratiques du passé, en insufflant la nécessaire perméabilité entre activités front-office, et en introduisant plus de rigueur et de partage d'information. * Ne pas sous-estimer la dimension technique (intégration au système d'information existant, architecture technique...). La France est à la traîne : elle représente en 1999 moins de 10 % du marché des licences de progiciels front-office en Europe, loin derrière le Royaume-Uni et l'allemagne. Des opportunités sont à saisir pour les entreprises qui souhaitent distancer leurs concurrents. Comment en profiter en premier? Définir une «vision», puis construire brique par brique ce nouvel édifice reste la meilleure approche. Aux entreprises françaises de saisir ces nouvelles opportunités! Réussir une fusion de forces de vente Se focaliser sur le client, communiquer intelligemment, désigner une nouvelle équipe dirigeante compétente, miser sur les synergies : ce sont quelques bases d'une fusion profitable. ANDRIS A. ZOLTNERS L'année dernière a été exceptionnelle pour les fusions et acquisitions. Au cours des six premiers mois de 1998, des transactions d'une valeur de 1.200 milliards de dollars ont été annoncées dans le monde entier contre les 1.600 milliards de dollars réalisés en 1997. Les fusions et acquisitions qui impliquent des sociétés distinctes sont appelées fusions externes, tandis que les fusions internes sont celles réalisées par des divisions ou des groupes de produits d'une même société pour rationaliser leurs
ressources ou donner une valeur supplémentaire à une clientèle commune. De telles fusions sont réalisées presque aussi souvent que les fusions externes. Le nombre total d'entreprises ayant procédé à des fusions internes et externes représente facilement le double du chiffre de 1.200 milliards de dollars de transactions évoqué plus haut. Les fusions et les acquisitions obligent les structures à s'allier. Personne n'est épargné et à plus forte raison les forces de vente. Les fusions et acquisitions de sociétés exigent, généralement, des réductions de coûts considérables. Chaque force de vente est soigneusement évaluée afin de vérifier qu'elle contribue bien à de telles économies. * Une fusion de forces de vente ouvre de nouveaux horizons à une société. Le statu quo n'est généralement pas une solution lors d'une fusion de structures de vente. Une fusion implique un changement. La gamme des produits est élargie et de nouveaux segments de marché sont ajoutés. La méthode qui permet d'attirer de nouveaux clients et de conserver ceux existants est redéfinie. La nouvelle organisation est redimensionnée et restructurée, ce qui entraine un changement des systèmes de support des ventes. Une nouvelle force de vente voit le jour. Une fusion de plusieurs forces de vente offre la possibilité de créer une structure de vente très productive. Malheureusement, cette création n'est pas si simple : chaque force de vente existante a un passé, des méthodes de travail, et dispose d'effectifs qui lui sont propres. Or tous ces éléments doivent être rapprochés. Ce rapprochement peut se faire de deux manières totalement différentes. La première méthode consiste à rassembler les structures de vente aussi rapidement et rentablement que possible. Les objectifs financiers sont menacés si des économies ne sont pas réalisées et «si tout ne marche pas comme prévu» très rapidement. La deuxième méthode consiste à essayer de concevoir la force de vente qui convient le mieux à la nouvelle gamme de produits et à la clientèle redéfinie. La première méthode consiste à être réactif, tandis que la deuxième consiste à être proactif. La première aboutit généralement à une lutte pour la survie, tandis que la deuxième consiste à faire table rase en repartant de zéro et en considérant la fusion comme une occasion de créer une force de vente nouvelle, qui donnera une valeur ajoutée à la société et à sa clientèle. La meilleure fusion est celle qui consiste à combiner les éléments des deux méthodes - c'est-à-dire créer rapidement une force de vente proactive. Indépendamment de la méthode choisie, de nombreuses décisions doivent être prises, et différents systèmes et dispositifs de support de la nouvelle force de vente doivent être élaborés. Les plus importants de ces éléments sont énumérés dans le tableau de la page suivante. Comme chaque société qui fusionne dispose d'une force de vente ayant une culture, des méthodes de vente et un système de support des ventes, la structure issue de la fusion devra, dans la mesure du possible, adopter les meilleurs aspects de chacune des forces de vente en présence. La meilleure stratégie consiste à envisager la fusion comme la création d'une nouvelle force de vente, et à concevoir une structure de vente qui soit meilleure que la somme des éléments qui la constituent. Malheureusement, la plupart des entreprises se contentent de beaucoup moins. * Les possibilités offertes par une fusion de forces de vente sont rarement réalisées à court terme. Les résultats obtenus à l'issue d'une fusion de forces de vente ne répondent pas,
en règle générale, aux attentes à court terme de la société. La figure 1 montre certaines des raisons les plus courantes à l'origine de ces résultats décevants. La tendance à trop supprimer d'emplois. En règle générale, une fusion est source d'au moins deux avantages. Premièrement, la nouvelle structure réalisera des synergies de marché et, deuxièmement, elle parviendra à faire des économies. Dans la mesure où les économies sont toujours plus faciles à voir et à quantifier, les entreprises ont fortement tendance à effectuer des coupes sombres au sein de la structure entière. Comme tout le monde doit «partager les souffrances», la force de vente est la première à subir les restrictions. La société a, par ailleurs, besoin de réaliser des économies immédiatement. Cette logique fait abstraction d'un fait fondamental au sujet de la force de vente : c'est la force de vente qui génère le chiffre d'affaires. Des coupes sombres aboutissent à une diminution immédiate des ventes et menacent le lancement de nouveaux produits et la satisfaction des besoins futurs des clients. La tendance à faire preuve d'un «esprit de conquête». Une fusion de forces de vente a des répercussions sur toute l'entreprise. Des changements sont dans l'air. Une restructuration est prévisible. «La force de vente a une peur bleue», tel est le refrain habituel. La survie s'obtient généralement au détriment de quelqu'un d'autre lors d'une fusion, en particulier lorsque des licenciements ont lieu. La société acquéreur ou la société la plus forte généralement survit et l'emporte. En conséquence, ses cadres occupent les postes directionnels, façonnent la force de vente et déterminent sa culture. Comme des décisions doivent être prises rapidement, la nouvelle force de vente doit être généralement compatible avec le passé et les habitudes des «vainqueurs». Le personnel de la société acquise s'en va ou accepte des postes hiérarchiquement inférieurs. La force de vente de l'entreprise conquérante devient la nouvelle force de vente. Les moyens susceptibles de l'améliorer ne sont pas entièrement évalués, même si l'organisation de la force de vente de l'entreprise «conquérante» et ses systèmes ne sont, généralement, pas adaptés à l'expansion de la gamme des produits et de la clientèle. Les informations ne sont pas partagées et la société ralentit les communications. Dès qu'une transaction est annoncée, les rumeurs se répandent rapidement ; les informations exactes, en revanche, sont communiquées beaucoup plus lentement. Il en est généralement ainsi parce que rien ne doit être dit tant que l'équipe dirigeante et celles chargées de l'intégration n'ont pas été constituées. Ceci peut prendre du temps. Pendant ce temps la force de vente attend, s'interroge sur la suite des événements, et s'inquiète. Les informations circulent lentement même après la constitution des équipes chargées de l'intégration. Il y a deux raisons principales à cela. La première est que la direction ne veut pas donner aux employés de faux espoirs et préfère garder le silence tant que la décision finale n'a pas été prise. Par ailleurs, si les employés découvraient certains détails sur le processus de prise de décision, la direction se retrouverait pieds et poings liés sans avoir la possibilité de faire des exceptions aux «règles» qu'elle applique. La deuxième raison est que la direction ne veut pas impliquer le personnel dans le processus de prise de décision. Peut-être parce que les directeurs eux-mêmes ne sont pas certains de la nature du processus qui sera mis en oeuvre. Ils peuvent également penser que les employés manquent de vision stratégique et qu'ils feront
passer leurs intérêts avant ceux de la société, en particulier s'il risque d'y avoir des «vainqueurs» et des «perdants». Les communications avec l'extérieur ralentissent également. Cette interruption est encore plus dangereuse car les clients commencent à se demander si leurs besoins continueront d'être satisfaits après la fusion. L'intégration de la force de vente ne se fait pas assez rapidement. Le processus d'intégration implique que des dirigeants soient choisis, que les équipes chargées de l'intégration soient constituées, que des réponses soient données aux questions relatives à l'organisation de la force de vente et que tous les membres de la nouvelle force de vente soient choisis. Ces démarches requièrent beaucoup de temps pendant lequel la force de vente entière reste dans l'expectative. Le moral des employés baisse proportionellement à la durée du processus d'intégration. Les clients sont laissés pour compte. Quant aux concurrents agressifs, ils en profitent pour attirer les employés les plus compétents et détourner la clientèle. Les personnes clefs quittent leur entreprise pour aller travailler ailleurs. Dans tous les secteurs, les employés performants sont très recherchés. Les responsables du recrutement savent profiter de la vulnérabilité des vendeurs qui travaillent pour une société en train de fusionner et qui risque de licencier du personnel. Ils en profitent pour les contacter sans perdre un instant. Les meilleurs éléments, attirés par des propositions alléchantes, quittent leur entreprise car trop d'incertitudes planent sur leur avenir au sein de la nouvelle structure issue de la fusion. Les sociétés qui offrent à leur employés des possibilités de départ volontaire afin d'accélérer la restructuration donnent souvent le petit coup de pouce qu'attendaient les bons éléments pour partir. Il est essentiel que le processus d'intégration prévoie des systèmes d'encouragement afin de conserver ces bons éléments. Les relations avec la clientèle sont menacées du fait des nombreuses perturbations. Les opérations de restructuration entraînent des perturbations. Les vendeurs peuvent être amenés à vendre d'autres produits ou à vendre les produits qu'ils connaissent à d'autres segments de la clientèle. Ils peuvent être amenés à effectuer d'autres types de vente. On peut demander aux commerciaux de travailler à la fidélisation de la clientèle et vice versa. De même il peut être demandé aux vendeurs qui privilégient la relation clients de devenir des vendeurs techniques et aux vendeurs techniques d'être plus intuitifs. Des clients peuvent avoir développé des liens «privilégiés» avec «leurs» vendeurs. Souvent, les clients ont l'impression d'avoir initié leurs vendeurs à leurs affaires et de connaître leurs arguments de vente. Un nouveau vendeur devra consacrer du temps et de l'énergie pour établir de bonnes relations avec des clients. Du fait que la clientèle fait l'objet d'une nouvelle répartition à l'issue de la fusion des forces de vente, certains clients pourront éprouver un sentiment de frustration. Ceci est particulièrement vrai dans le cas d'un client qui a sympathisé avec un vendeur qui du fait de la fusion n'a plus les compétences requises pour communiquer efficacement avec lui. L'organisation de vente issue de la fusion doit essayer de minimiser les effets des modifications apportées à la répartition des gros clients. Lorsqu'une nouvelle répartition de la clientèle est inévitable, la société doit élaborer un programme de transition efficace afin de protéger cette clientèle. La nouvelle force de vente n'arrive pas à rivaliser avec les meilleures forces de vente existant avant la fusion. Les forces de vente en présence avant la fusion ont
un passé qui leur a permis de s'adapter à leur environnement. Elles ont été réorganisées à maintes reprises pour assurer le lancement de nouveaux produits, pour répondre aux besoins de nouveaux segments du marché et de regroupements de consommateurs et pour faire face aux nouveaux créneaux de distribution, aux nouvelles technologies, aux attaques de la concurrence et aux réglementations imposées par les gouvernements. Les nouvelles forces de vente doivent désormais être intégrées et vendre une gamme de produits élargie à une clientèle plus diversifiée. Les principales décisions en matière d'organisation sont prises rapidement avec un esprit de "conquête". La société risque de procéder à un dégraissage et les forces de vente risquent de perdre de bons éléments. Il est évident que les dégraissages auront pour effet d'entraîner une diminution des ventes. Comme la valeur d'une force de vente dépend des éléments qui la constituent, les relations avec la clientèle seront menacées du fait de la perte d'éléments clés. Une intégration sera parfaitement réussie, si la nouvelle force de vente constituée est aussi performante, à court terme, que chaque élément qui la constitue. De nombreuses sociétés perdent des parts de marché pendant et juste après une fusion. Plusieurs facteurs sont à l'origine de la perte à court terme de parts de marché. La force de vente contribue à cette perte de parts de marché qui résulte d'un désengagement de la part des vendeurs, de la perte de bons éléments, d'une structure de vente mal optimisée, d'un manque de concentration due à la crainte des employés de perdre leur emploi, de perturbations dans les relations avec les clients et de l'opportunisme des concurrents. Les parts de marché pourront être récupérées dès que la société aura remédié à tous ces dysfonctionnements. Une méthode d'intégration de la force de vente La figure 2 décrit les différentes étapes nécessaires à la création d'une force de vente issue d'une fusion. Les étapes se succèdent de manière séquentielle. Il est regrettable que seules les étapes de la stratégie, de la dimension et de la structure, de la détermination du territoire et de la sélection du personnel soient sûres d'avoir lieu lors d'une fusion type. Dès que les équipes de transition sont constituées, la société est généralement tenue de mettre en place la nouvelle organisation de vente. L'exécution des trois étapes mentionnées ci-dessus finalisera les décisions relatives au personnel et permettra " d'aller de l'avant". Les autres étapes de l'intégration requièrent un plus grand engagement de la part de la force de vente et sont généralement reportées à une date ultérieure. L'équipe chargée de l'intégration de la force de vente doit relever plusieurs défis : *garder les meilleurs éléments. *prendre les meilleures décisions pour chacune des étapes de l'intégration de la force de vente. *respecter dans la mesure du possible le calendrier des étapes de l'intégration. *créer des synergies liées à la fusion. Le tableau 2 (l'encadré) a pour objectif d'aider les forces de vente à planifier leur fusion. Les conseils qui y sont donnés ont aidé de nombreuses sociétés à créer des structures de vente performantes. La structure de vente est rarement consultée lorsque des sociétés décident de
fusionner. En règle générale, les vendeurs entendent parler pour la première fois d'une fusion ou d'une acquisition en lisant le journal du matin. Il leur sera toutefois demandé de participer de manière constructive à la création de la nouvelle force de vente qui pourra avoir des répercussions considérables sur leur mode de travail futur. Une intégration peut être bien ou mal faite et de nombreuses carrières dépendront justement de la manière dont elle se fera. Quelques conseils pour réussir une fusion de forces de vente La stratégie de la force de vente - Mettre en oeuvre les stratégies qui ont stimulé la fusion. - Mettre l'accent sur les synergies stratégiques de revenus et sur la réduction des coûts. La focalisation sur le client - Se focaliser sur les besoins du client lors des prises de décisions importantes relatives à l'organisation issue de la fusion. - Régler les conflits en évaluant les répercussions sur les clients et en s'efforçant de trouver les solutions les plus efficaces et les mieux adaptées aux clients. - Se fixer des objectifs à court terme afin de toujours se focaliser sur la clientèle. Les équipes intersociétés - Créer des équipes intersociétés dont les rôles et les responsabilités devront être clairement définis. - Faire en sorte qu'au cours du processus de fusion règne un climat d'entente propice à une «fusion» et non pas un climat de «conquête». - Inciter les deux sociétés à avancer de nouvelles idées et à faire une évaluation objective et critique. La désignation d'une équipe dirigeante - Désigner les responsables et dirigeants capables d'occuper des postes à responsabilité. - Déterminer le rôle que doivent jouer les personnes clefs dans le processus de fusion. - Choisir pour les équipes chargées de la fusion des personnes qui soient organisées, productives, objectives, honnêtes et qui savent être positives. - Faire en sorte que les décisions soient prises avec beaucoup de rigueur et encourager les membres des équipes à prendre des décisions. Une transition rapide - Prendre conscience de l'urgence afin de procéder rapidement à la fusion. - Continuer à se focaliser sur les clients : ne pas se laisser entraîner vers des politiques de changement intérieur. - Prendre des décisions au sujet des effectifs le plus rapidement possible. - Conserver les bons éléments qui pourraient, sinon, se sentir frustrés au cas où le rapprochement mettrait trop de temps à se faire. La communication, toujours la communication - Minimiser les rumeurs improductives et les spéculations en transmettant, en temps voulu, des informations précises. - Communiquer constamment les messages provenant de la direction au sujet du processus, du calendrier et de l'évolution afin de renforcer l'esprit de coopération. - Apaiser les incertitudes et faire face à toute résistance au changement. La participation ciblée de tiers - Faire appel à des tiers, si besoin est, pour structurer, superviser et faciliter le processus de fusion ; ces tiers peuvent également minimiser les conflits entre les sociétés. - Faire appel à des tiers capables de mettre en valeur les compétences de la force de vente.
Le marketing pris en faute La communication sur les produits, aussi honnête soit-elle, peut être source de confusion et de mécontentement chez les clients. D'autant que les conventions sur lesquelles elle repose sont éminemment subjectives. KENT GRAYSON ET SVETLANA KIRILLOVA Les produits qui ne durent pas aussi longtemps, qui n'ont pas aussi bon goût ou qui ne fonctionnent pas aussi vite qu'espéré incitent les consommateurs à faire des réclamations et nuisent au développement de leur fidélité. En outre, s'ils sont mécontents, ils sont davantage susceptibles de le faire savoir autour d'eux que s'ils sont satisfaits. Les consommateurs peuvent s'estimer trompés pour diverses raisons, qui vont du manque d'attention de leur part à la négligence, voire à la tromperie délibérée de la part du service marketing. La plupart des pays offrent un recours juridique au consommateur ayant le sentiment d'avoir été trompé. Mais les organismes de contrôle indépendants permettent généralement une réparation plus rapide et meilleur marché. En principe impartiaux, ces organismes sont financés par les agences de publicité dans le but de réglementer les communications commerciales. En Europe, certains d'entre eux existent depuis plus de 50 ans. Le principal objectif de cet article est d'étudier cette réglementation du point de vue des entreprises et de débattre des questions plus larges qui sont en jeu lorsque les consommateurs déposent des réclamations. Les organismes de contrôle indépendant surveillent essentiellement la publicité car elle constitue, en principe, le moyen de communication le plus direct entre la fonction marketing et les consommateurs. Cependant, d'autres facteurs que la publicité peuvent aussi induire ceux-ci en erreur. Chaque offre commerciale se compose d'un certain nombre de caractéristiques qui «disent quelque chose» sur le produit ou sur le service. Pour faciliter la planification et la gestion du marketing, les responsables marketing classent ces propriétés en quatre catégories, appelées communément les «4 P» : * le produit : l'article ou le service proposé au consommateur ; * le prix : le coût du produit ou du service pour le consommateur ; * le point de vente : le mode de distribution du produit ; * la promotion : les informations verbales, auditives ou visuelles communiquées sur le produit par le marketing. Il est important de souligner que le message est une combinaison de ces éléments et ne se résume pas à la seule promotion. Ainsi, les attributs physiques du produit en tant que tel, sa couleur, sa forme, son design ou sa taille, donnent en euxmêmes des informations. Les recherches montrent par exemple que certains consommateurs jugent de la qualité du pain d'après sa couleur plutôt que d'après ses informations nutritionnelles. En outre, le prix d'un produit peut fournir des renseignements, autres que son simple coût. Ainsi, certains consommateurs éviteront d'acheter un produit bon marché parce qu'ils pensent, parfois à tort, que les bas prix sont synonymes de mauvaise qualité. La façon dont un produit est distribué (disponible uniquement en magasins spécialisés ou, au contraire, placé bien en vue dans les rayons d'un supermarché) peut également en dire long.
La promotion comprend non seulement la publicité mais aussi les brochures, les communiqués de presse, les modes d'emploi, l'argumentaire de vente et le texte imprimé sur l'emballage. Parce qu'elle véhicule à la fois des mots et des images, la promotion communique de manière plus explicite avec les consommateurs que la forme d'un flacon de parfum ou l'image d'un concessionnaire automobile. Dans cet article, nous nous concentrerons essentiellement sur la promotion, même si les questions que nous soulevons sont globalement applicables à la communication de l'ensemble des «p». Des responsables fautifs? On considère communément que la confusion des acheteurs résulte d'une intention délibérée de la part de la fonction marketing. Ainsi, selon l'enquête Roper Starch Worldwide menée dans 40 pays, la majorité des 38 000 consommateurs interrogés estimaient que la publicité exagère les avantages procurés par le produit, ses effets positifs sur la santé et sa taille, et que, d'une manière générale, elle ne fournit pas d'informations exactes. Quelque 60 pour cent des consommateurs britanniques de 15 à 24 ans consultés dans le cadre de l'enquête CLA Medialab Sensor ont affirmé que les produits étaient loin de toujours répondre à leurs attentes. Au vu de ces résultats, il n'est pas surprenant que les consommateurs américains contactés par Gallup aient classé les métiers de la vente et du marketing en bas de l'échelle de l'honnêteté et de l'éthique. Mais les responsables du marketing sont-ils toujours responsables de la confusion qui entoure la communication d'un produit? Certains messages peuvent certes être involontairement complexes, résolument vagues ou délibérément exagérés, ce qui induira au moins certains consommateurs en erreur. Cependant, même lorsque le message est clair et précis, les consommateurs ne l'interpréteront pas forcément correctement. Ils peuvent en effet se tromper parce qu'ils lisent trop rapidement, parce qu'ils formulent des supputations excessives ou parce qu'ils prennent leurs désirs pour des réalités. La cause de la confusion peut donc aller de la ferme intention de duper de la part des services de vente aux illusions des consommateurs. Il est donc important pour les organismes d'autoréglementation de déterminer l'intention du responsable du marketing. Sous l'angle strict de la protection des consommateurs, l'intention du responsable du marketing ne devrait pas entrer en ligne de compte. Qu'il trompe les acheteurs volontairement ou non, l'impact négatif sera souvent le même. En outre, il est difficile de déterminer une intention : celui qui dupe délibérément n'est guère susceptible d'avouer ses intentions. Malgré ces réserves, les organismes d'autoréglementation posent souvent qu'une personne agissant en toute bonne foi ne doit pas être jugée de la même façon qu'une personne de mauvaise foi. Les responsables du marketing peuvent par conséquent se prémunir contre une éventuelle action menée par ces organismes en faisant tout pour faciliter la détermination de leur intention. Dans la plupart des cas, le responsable du marketing est le seul à avoir accès à l'information et aux documents qui peuvent élucider cette question. La réunion de preuves est une responsabilité qui incombe aux responsables du marketing afin de faciliter le processus de réglementation. Cette exigence figure dans les codes de nombreux organismes d'autoréglementation. En l'absence de garanties formelles émanant du responsable du marketing, l'instance de réglementation doit prononcer son jugement en se fondant uniquement sur la communication en tant que telle. Même si cette dernière constitue une preuve
discutable, la réticence du responsable du marketing à fournir une preuve contraire peut être considérée comme indicative de l'intention frauduleuse. Par ailleurs, lorsqu'ils donnent les informations souhaitées, les responsables du marketing sont en mesure de montrer qu'ils ont trompé leurs clients pluspar mégardeque par volonté délibérée. Prenons, par exemple, une publicité pour un voyagiste détaillant l'itinéraire d'une croisière sur le Yang-Tsê Kiang. Un client qui n'a pu effectuer qu'une partie de la croisière a porté plainte auprès du bureau britannique de vérification de la publicité (ASA : Advertising Standards Authority). L'annonceur a alors expliqué que le niveau exceptionnellement bas de l'eau l'avait contraint à changer l'itinéraire. Il a démontré qu'il s'agissait de circonstances extrêmes et non habituelles, venant confirmer que le responsable du marketing avait trompé son client à son corps défendant. Lors de la publication de l'information, le responsable du marketing pensait que l'information était juste. Le bureau britannique de vérification de la publicité n'a donc pas retenu la plainte du consommateur. Faits sociaux et organismes d'autoréglementation En cas de doutes concernant l'activité de marketing, il importe de vérifier non seulement l'intention du responsable du marketing mais aussi les faits. Sans cette précaution, il est impossible de déterminer si le consommateur se fait une fausse idée du produit. Cependant, la plupart des «faits» que nous utilisons dans notre vie de tous les jours reposent davantage sur des conventions sociales que sur la vérité objective, et sont donc sujets à controverse. Ainsi, une réclamation a été déposée auprès du bureau britannique de vérification de la publicité en 1997, suite à la parution dans un magazine d'un encart publicitaire pour une carte de crédit au nom d'une compagnie aérienne permettant à ses détenteurs d'accumuler des miles pour chaque achat réglé au moyen de celleci (un mile pour une livre sterling). Un client a protesté en disant que les «miles» gagnés ne correspondaient pas aux miles nautiques effectués sur les voyages gratuits proposés. Le nombre de miles (15 000) qu'il fallait accumuler pour un trajet entre Londres et différentes destinations européennes était en effet nettement supérieur à la distance aller et retour entre les villes considérées. En fait, dans les programmes de fidélisation de nombreuses compagnies aériennes, les «miles» accumulés s'apparentent davantage à des points échangeables contre un cadeau. Cependant, ces programmes sont connus des personnes qui prennent souvent l'avion et il est peut probable que l'ensemble des consommateurs en sachent les règles. Ce cas soulève deux difficultés associées à la détermination des «faits sociaux». La première est qu'ils peuvent varier d'un groupe à l'autre. Ainsi, ce qu'un habitué des programmes de fidélisation des compagnies aériennes estime être un «fait social» n'en est pas forcément un pour un voyageur moins expérimenté. La deuxième difficulté tient au fait que, quasiment de par leur définition, les «faits sociaux» ne se présentent pas comme des réalités. Lorsque le premier programme de fidélisation d'une compagnie aérienne a utilisé le terme «miles» pour qualifier des points, il s'agissait de l'approche d'une compagnie particulière et c'était à elle d'expliquer clairement la signification de ce terme. Ce qui est plus difficile à déterminer, c'est le nombre de programmes de fidélisation qui doivent adopter ce système, et le temps nécessaire, pour que ces termes deviennent un fait social. Devant décider si les revendications correspondent ou non à des faits sociaux, les organismes d'autoréglementation doivent s'efforcer de repérer ces derniers, même s'il n'est pas toujours aisé d'en déterminer la nature. Dans cette optique, de nombreux organismes mettent sur pied des forums consultatifs avec des
groupements de consommateurs, utilisent leurs bureaux régionaux pour se tenir informés de l'opinion et mènent directement des études de consommation. Ainsi, au Royaume-Uni, le conseil supérieur de l'audiovisuel britannique (Independent Television Commission), qui réglemente la publicité diffusée à la télévision, consacre un million de livres sterling par an aux études de consommation. Pour en revenir à la plainte relative aux miles, le bureau britannique de vérification de la publicité ne l'a pas retenue en invoquant les autres programmes de fidélisation où les «miles» ne correspondent pas non plus exactement à la distance parcourue. Elle en a déduit que les lecteurs avaient peu de chances d'être induits en erreur. * clégendes des photoss Kent Grayson est maître-assistant en marketing à la London Business School. Ses recherches sont axées sur les questions d'authenticité et de tromperie dans le marketing, ainsi que sur les réseaux de marketing («vente pyramidale»). Svetlana Kiriliova est en doctorat de marketing à lalondon Business School. Ses recherches portent sur les aspects interculturels du comportement des consommateurs et sur la gestion globale d'une marque. Les auteurs tiennent à remercier Tim Ambler, Bill Lennon et Gil McWilliam pour leurs commentaires. Quelle solution pour les services marketing? Il est tentant de régler le problème de la publicité mensongère en mettant tout sur le dos des responsables marketing. Mais aussi simple soit-elle, cette approche fait peser des exigences excessives sur les entreprises. Comme nous l'avons déjà expliqué, aussi honnête et bien intentionnée qu'elle soit, une publicité peut quand même induire un consommateur en erreur. Il est donc important que les responsables marketing, les consommateurs et les organismes de réglementation négocient, la plupart du temps au cas par cas, pour décider du caractère trompeur ou non d'une publicité. Un tel système de réglementation, en particulier s'il repose sur la motivation des consommateurs à se plaindre, est par nature souple, et, s'ils sont habiles, les responsables marketing peuvent facilement en tirer parti en jouant avec les limites. Certains d'entre eux ont même découvert que la publicité générée en suscitant la colère des instances de réglementation renforçait l'image de leur entreprise dans l'esprit de certains consommateurs. Même s'il peut se révéler payant de jouer avec les limites de la réglementation, il ne faut pas en ignorer le coût. L'expérience montre que plus les responsables marketing semblent enfreindre leur rôle, qui est de maintenir la publicité à un degré d'honnêteté raisonnable, plus les organismes de réglementation et les consommateurs exigent un renforcement des contrôles. La plupart des responsables marketing savent que le respect pur et simple des principes de base d'un bon marketing contribue largement à éviter de tromper les consommateurs par inadvertance. C'est pourquoi les publicités font l'objet de tests préalables pour recueillir les réactions des consommateurs. En cas de quiproquos, elles sont adaptées en conséquence. De nombreuses campagnes visent des cibles spécifiques via le média approprié. Cela permet d'éviter que le message soit perçu par ceux qui ne partagent pas les mêmes faits sociaux que l'audience cible. Enfin, la conservation d'informations sur des recherches et des stratégies peut permettre de vérifier l'intention d'un responsable marketing à l'égard des instances de réglementation et des consommateurs. Nombre de responsables marketing l'admettent : la meilleure information n'empêchera pas les consommateurs et les instances de réglementation de considérer que la publicité est mensongère et de demander qu'elle soit retirée. Etant donné la nature de la négociation triangulaire
entre les consommateurs, les organismes de réglementation et les responsables marketing, ce n'est pas toujours le point de vue de ces derniers qui l'emporte. Dans de telles situations, de nombreux responsables marketing conviennent, à contrecoeur, qu'eux-mêmes et les organismes de réglementation ont en général tout intérêt à parvenir rapidement à une solution négociée. Il est certes difficile de marchander lorsque des coûts de production, des plans-média et une clientèle sont en jeu. Mais, à moins que le système de réglementation ne mette sur pied un schéma d'interdiction largement reconnu comme inadapté ou injuste, remettre en cause ou tester la légitimité des décisions prises revient à s'interroger sur la valeur d'un parapluie troué au beau milieu d'un orage. Chapitre 6 Comprendre ses clients à l'aide du data mining Faire parler les données récoltées sur les clients pour mettre en place une stratégie adaptée aux attentes des marchés : le data mining est un outil précieux pour les entreprises, qui leur impose aussi de nouveaux modes d'organisation. ÉRIC FALQUE ET FRANÇOISE FOGELMAN SOULIÉ La plupart des entreprises ont aujourd'hui un site Web, certaines commencent à voir le chiffre d'affaires de leurs ventes en ligne décoller... d'autres enfin ont intégré le Web dans leur stratégie client. Le Web est en effet une source majeure d'informations directes sur le client : l'entreprise peut enregistrer à chaque connexion sur son site Web le nom, l'adresse et le numéro de téléphone, l'adresse électronique et les préférences du client. Ce lien direct avec les clients est stratégique : le Web donne une information en temps réel sur les comportements d'achat, permet de constater l'effet immédiat d'une politique de prix, l'intérêt pour un produit... pour ainsi identifier les meilleurs clients, l'adéquation des produits et services offerts, des prix. Aux Etats-Unis, de nombreuses entreprises exploitent déjà cette source de données : constructeurs d'ordinateurs (Acer, Milacron, National Semiconductor, Dell, Compaq), groupes de presse, éditeurs (New York Times, Barnes and Noble) (1)... Ce qui leur permet de coller au plus près aux attentes de leurs clients. Mais la plupart des entreprises n'ont pas développé une culture de la compréhension de leurs clients aussi poussée et sont bien incapables de mettre ainsi en adéquation leur stratégie avec les attentes du marché. En fait, nombre d'entre elles souffrent de ce que l'on peut appeler un déficit chronique d'informations pertinentes. Beaucoup de données sont disponibles, mais elles ne sont pas organisées («stockées»), analysées, interprétées et enfin distribuées d'une manière efficace pour la prise de décision. C'est tout l'enjeu du data mining que de faire «parler» les données de l'entreprise ou d'identifier celles qui seront nécessaires à la prise de décision. Intégrées à la base de données clients, ces informations sont exploitées, permettant aux entreprises de mieux comprendre leurs clients, donc de mieux répondre à leurs souhaits, tout en optimisant leurs résultats, en conformité avec leur stratégie (figure 1). Anticiper les besoins Ainsi, la capacité pour une entreprise d'établir le lien entre certains événements de la vie de ses clients ou prospects et la consommation de ses produits est un enjeu critique pour optimiser l'efficacité des opérations publi-promotionnelles (le Caméscope avec la naissance d'un enfant, le monospace avec l'arrivée du troisième enfant...). Les segmentations ne sont plus fondées sur de simples critères d'âge ou de CSP, mais elles vont inclure le comportement d'achat, les événements de la vie, l'affinité
pour des médias, la propension à acheter telle ou telle catégorie de produit... toutes les informations qui peuvent permettre d'anticiper les changements et les nouveaux besoins des clients et, ainsi, d'anticiper par rapport à la concurrence. Les opportunités offertes sont, on le voit, pratiquement illimitées. Toutefois, leur exploitation n'a de sens que dans le cadre de la stratégie de l'entreprise. Elle suppose la mise en place d'une base de données clients et implique la mise en oeuvre d'une méthodologie et d'un environnement de développement de data mining. Les objectifs stratégiques de l'entreprise peuvent être : -l'acquisition de nouveaux clients ou l'augmentation du rendement des actions de prospection commerciales et marketing ; -la croissance de la valeur des clients ou l'augmentation des services qui leur sont fournis ; -la rétention ou fidélisation de sa clientèle. Perdre ses clients coûte très cher : le coût annuel du churn dans les télécommunications est ainsi estimé aujourd'hui à environ 60 millions de francs (pour une base de 100.000 clients et un taux de churn de 30 %). Il faut donc tout faire pour les conserver : d'abord détecter les infidèles potentiels, puis leur faire des offres ciblées, par exemple par le biais de services qui rendent plus difficile le passage d'un fournisseur à un autre. -Le win-back ou la reconquête de segments de clientèle «passés» à la concurrence. Selon sa stratégie, l'entreprise doit déployer une «best practice» data mining pour exploiter l'ensemble de ses données clients et améliorer ses indicateurs clés, s'assurant ainsi un avantage compétitif par rapport à ses concurrents (figure 2). La mise en oeuvre de la base clients nécessite la définition d'un langage commun à l'ensemble des départements de l'entreprise : la mise en cohérence de toutes les informations clients disponibles dans l'entreprise permet d'obtenir une vision «transversale» du client, dans laquelle toutes les composantes de son comportement vis-à-vis l'entreprise seront appréhendées. C'est ainsi qu'on peut s'apercevoir que tel client, qui appelle très souvent le service clients, génère un chiffre d'affaires très faible et qu'il est donc, en fait, un client non rentable. En corrélant? l'ensemble des informations, l'entreprise arrive à constituer une vision globale de la valeur du client. L'entreprise doit alors adopter de nouveaux modes d'organisation : elle devient une entreprise en réseau, structurée autour de données partagées par tous. Le service clients a accès, quand un client appelle, à l'information le concernant. Le service produits sait les produits que les clients souhaitent, le commercial sait quels clients sont prêts à acheter tel produit, ou à passer à la concurrence! Une fois la base clients constituée, l'exploitation peut commencer : la démarche consiste à partir des objectifs stratégiques de l'entreprise pour les décliner en objectifs métier, puis en besoins détaillés et en fonctions techniques, pour finir par l'analyse détaillée des processus de l'entreprise impliqués et des données nécessaires (Figure 3). Chacun de ces éléments est analysé, et les priorités sont assignées en fonction des besoins de l'entreprise : la mise en oeuvre de l'exploitation de la base est progressive et se fait par itérations successives, dont chacune, de courte durée (quelques mois), doit apporter des bénéfices mesurables à l'entreprise. Pour chaque fonction technique, on va définir la technique d'analyse (data mining)
permettant de l'implémenter : ce sont bien les objectifs stratégiques qui guident le choix des analyses techniques, en fonction des données disponibles. Pour ce qui est des techniques de data mining, les modèles les plus courants pour détecter les relations fonctionnelles entre variables sont les méthodes de régression fondées sur des modèles statistiques. Rapides et efficaces, ces méthodes se révèlent souvent peu efficaces pour l'analyse multidimensionnelle, soit dès que plus de deux variables doivent être mises en relation. Elles sont également peu performantes quand les données sont très bruitées, ou que les relations fonctionnelles sont non-linéaires. On fait alors appel à des techniques de régularisation qui permettent d'obtenir des résultats très robustes (réseaux polynomaiux de l'outil Atlas de Kxen). Les réseaux neuronaux, inspirés du système nerveux -lointainement! - sont plus aptes à traiter les problèmes non linéaires et bruités. Une de leurs principales caractéristiques est, tout comme le cerveau humain, d'être capable d'apprendre et de changer de comportement en fonction des expériences nouvelles. Les réseaux neuronaux sont toutefois assez coûteux, aussi bien en terme de puissance matérielle qu'en temps d'exécution. Processus opaques, ils sont, de plus, souvent difficilement interprétables pour l'utilisateur. On peut alors, si on souhaite pouvoir facilement interpréter les résultats, construire un arbre de décision. L'arbre de décision est une technique visuelle - donc parlante pour l'utilisateur - permettant de répartir les données en groupes homogènes, en fonction des valeurs des variables. La plupart des produits logiciels du marché fournissent des implémentations de ces différentes techniques, quelques produits proposent des techniques différentes ou complémentaires pour la classification non supervisée (segmentation), la prévision, la détection de déviations. Le choix d'une technique particulière repose sur l'expertise du développeur et se fait en fonction des besoins des utilisateurs : il n'existe pas de méthode universelle, chacune a ses avantages et ses inconvénients (figure 4). Par exemple, sur une base de données de télécommunications, on peut modéliser la probabilité d'être infidèle (churn) avec un arbre de décision et un réseau de neurones. En rangeant par probabilité croissante les clients de la base clients, on peut ainsi capturer, avec 20 % de la base clients, 80 % des churners potentiels en utilisant l'arbre de décision et plus de 85 % avec le réseau de neurones (les modèles ont été développés avec l'outil SAS Enterprise Miner, www.sas.com), contre seulement 20 % en tirant ces clients au hasard... et encore moins peut-être si on utilise des critères «experts» erronnés! La mise en oeuvre de chaque fonction d'analyse est un processus itératif : une base d'analyse est constituée, à partir de la base clients et, éventuellement, de données externes ou de résultats d'enquêtes spécifiques. Après avoir constitué le modèle, qui contribue à l'amélioration de la connaissance du client (ce peut être, par exemple, un profil d'usage pour un opérateur de télécommunications, un comportement d'achat sur un site Web...), ce modèle est intégré dans la stratégie de l'entreprise pour participer à l'élaboration d'un plan d'action : l'entreprise peut ainsi, par exemple, décider de lancer une opération de promotion sur la 4ème minute d'appel téléphonique, une nouvelle politique de prix... Ce plan d'action doit être ensuite évalué, en lançant quelques actions tests et en en mesurant les résultats : ceux-ci, intégrés à leur tour dans la base clients, vont permettre d'affiner progressivement la connaissance et ainsi d'améliorer la stratégie (Figure 6). Ce processus itératif est activé en permanence : l'entreprise passe ainsi à un fonctionnement d'écoute permanente du client et de réactivité immédiate. Les actions marketing et commerciales sont beaucoup plus fréquentes, et mieux ciblées. Leurs résultats viennent nourrir et transformer le processus tout comme de nombreuses autres sources internes et externes (figure 7).
Parmi ces dernières, l'internet apparaît comme un remarquable média d'acquisition de données externes. En effet, au fur et à mesure du développement des services en lignes, de plus en plus d'informations seront disponibles, une bonne partie d'entre elles étant d'ailleurs gratuites ou obtenues à très faible coût. Les intégrer dans une démarche de Data Mining ne pourra que leur apporter une valeur ajoutée. Ce n'est pas Dell qui en disconviendrait... (1) D'après «Information Week», 15 mars 1999, n^o 725. Enjeux et constitution d'un data warehouse Aujourd'hui, un système décisionnel efficace intègre les nouvelles technologies pour mieux collecter des données disparates dans toute l'entreprise, les mettre en cohérence et les organiser au regard des axes d'analyse souhaités. FRÉDÉRIC DOCHE Affiner la segmentation client pour optimiser les campagnes de marketing. Déterminer des profils client pour améliorer les ventes croisées ou pour anticiper et prévenir les passages à la concurrence. Comparer l'efficacité des canaux de distribution pour améliorer la performance des processus de vente... toutes ces ambitions nécessitent de manipuler des informations de toutes sortes, en provenance d'une multitude de sources, de niveaux de détail différents, et s'échelonnant dans le temps. Ces informations concernent les clients, les prospects, le marché, les concurrents, les produits, la force de vente, l'organisation, les ventes, les campagnes de promotion, les campagnes de lancement etc.. Elles peuvent être internes à l'entreprise (issues des systèmes de production, des ERP ou des systèmes de pilotage), ou externes (panels, enquêtes...) (voir figure 1). Or, la plupart du temps, si ces données existent au sein de l'entreprise, elles sont rarement disponibles dans un même lieu, au même moment, avec le même niveau de détail ou d'agrégation. Elles sont dispersées dans de multiples environnements disparates. Elles sont très souvent incohérentes (absence des mêmes définitions pour une même donnée, formats et nomenclatures différents...). Elles ne sont pas historisées, ce qui ne permet pas de disposer d'informations étalées dans le temps. Enfin, leur état de fraîcheur n'est pas toujours du même niveau. Les besoins métier Par ailleurs, les systèmes d'information classiques ne savent ni stocker, ni manipuler ou offrir des accès à des volumes de données trop importants. Enfin, l'organisation des entreprises ne permet que rarement une administration centralisée des données : la plupart du temps, les données disponibles restent inutilisées simplement parce que leurs utilisateurs potentiels ne connaissent pas leur existence. Face à toutes ces difficultés, les systèmes décisionnels se sont graduellement dotés de techniques permettant de collecter des données disparates dans toute l'entreprise, de les nettoyer et de les mettre en cohérence, et enfin de les organiser au mieux au regard des axes d'analyse souhaités. Aujourd'hui, un data warehouse est le résultat d'un ciblage des besoins métier, d'une mise en cohérence des données à manipuler et d'une intégration des technologies nécessaires (voir figure 2). En premier lieu, il est vital d'aborder ce type de projet par les besoins métier, en se gardant de se focaliser sur la composante technique. L'objectif n'est pas de créer un énième système d'information, mais d'apporter des réponses concrètes et rapides à des défis métier. La première phase d'un tel projet consiste donc en une déclinaison de la stratégie de l'entreprise en objectifs métier, puis en l'identification des informations nécessaires à une meilleure prise de décision. Par ailleurs, la valeur ajoutée d'un entrepôt de données tient à la qualité des
données qu'il contient. Il convient donc de ne l'alimenter qu'avec des données suffisamment fiables et cohérentes. Dès lors, la mise en place d'un tel système passe par tout un travail d'identification et de compréhension des données sources, de nettoyage et de mise en cohérence, qui trouve sa concrétisation dans la création d'un dictionnaire de données, véritable référentiel d'entreprise. En outre, un projet décisionnel se construit selon une démarche itérative, en se limitant, dans un premier temps, à un périmètre métier restreint et en évitant de rechercher de grandes prouesses techniques : il faut être rapidement capable de démontrer que ce type d'architecture, bien que complexe à mettre en oeuvre, apporte de la valeur à l'entreprise. Cette démarche itérative doit bien évidemment être menée en ayant une vision globale des besoins décisionnels de l'entreprise, afin d'éviter des remises en cause importantes entre les différentes itérations. Enfin, un projet data warehouse demande un fort niveau d'accompagnement du changement. En effet, l'accès à l'information est souvent structurant pour les organisations, et la mise en oeuvre d'un système décisionnel performant nécessite de réfléchir à son impact sur les rôles et responsabilités de l'ensemble des acteurs de l'entreprise. Dans le cas contraire, on court le risque de voir le fonctionnement de l'entreprise fortement perturbé ou, tout simplement, que le système décisionnel reste inutilisé. Dans la plupart des cas, bâtir un système de pilotage représente l'un des premiers projets transverses à l'entreprise. De fait, la réussite d'un tel projet devient un exercice de gestion des risques : difficultés à justifier le projet d'un point de vue métier, difficultés à trouver un sponsor, difficultés pour susciter une appropriation par les utilisateurs, perte de contrôle technique... Il reste que la mise en oeuvre d'un vrai système décisionnel est aujourd'hui indispensable pour toute entreprise qui souhaite tirer parti des trésors que recèlent les mines d'informations qui sont dispersées en son sein. Un exemple d'application métier : la mesure de la rentabilité client La mesure de la rentabilité de ses clients demande de savoir ce qu'une entreprise vend, à qui elle le vend et par quel intermédiaire : on mesure ce que rapporte un client en comptabilisant ce qui lui a été vendu ; le canal de vente utilisé concourt à la connaissance de ce qu'il en a coûté à l'entreprise ; la comparaison des deux dégage la rentabilité du client. Dès lors, la mesure de la rentabilité client passe par la collecte des informations pertinentes sur l'ensemble des ventes liées à un client, mais également sur les coûts de gestion des canaux, ceux des campagnes marketing éventuelles ou de l'utilisation du service clientèle... Or, ces informations proviennent souvent de systèmes d'informations différents, la plupart du temps organisés autour de lignes produits. Leur exploitation directe se révèle dès lors difficile. Les enjeux sont cependant stratégiques : seule une partie des clients d'une entreprise présente une réelle rentabilité. Il faut donc savoir les reconnaître et surtout savoir les garder. Mais connaître la rentabilité instantanée d'un client ne suffit pas : il faut être capable d'en prévoir les évolutions futures, et ne pas perdre de vue qu'un client qui n'est pas rentable aujourd'hui peut, grâce à quelques actions bien ciblées, le devenir demain. En historisant les échanges avec un client, une entreprise peut analyser les raisons de ce manque de rentabilité, et détecter des pistes d'améliorations : il peut s'agir d'orienter le client vers des canaux de distribution d'un niveau de service plus faible, mais moins coûteux, ou d'aider le client à modifier son comportement pour diminuer le coût de prise des commandes, ou encore lui proposer des produits complémentaires à marges plus intéressantes pour l'entreprise... Une telle analyse demande de stocker des informations élémentaires concernant chaque point de contact avec chaque client, sur plusieurs années. A titre d'exemple, citons cette grande banque internationale qui avait besoin d'accéder facilement aux informations relatives à ses clients pour mettre en oeuvre sa stratégie d'augmentation de la fidélité de ses clients. Grâce à
la mise en place d'un environnement intégré de gestion de l'information client et à une application de data mining, cette banque est maintenant capable non seulement de déterminer le profil précis de chaque client ou foyer et leur niveau de rentabilité pour la banque, mais aussi de prévoir les comportements futurs de ses clients en fonction des comportements constatés par profil. L'application mise en place permet en effet de prédire avec une bonne fiabilité la liste des clients profitables susceptibles de rejoindre la concurrence. Ces outils permettent ainsi à ses conseillers clientèle de se focaliser sur les clients les plus rentables, et de mener les actions nécessaires pour les fidéliser. Pour finir, juger de la rentabilité réelle d'un client n'a de sens qu'au regard de l'ensemble des activités d'une entreprise : en effet, un client peut ne pas être rentable pour un département, mais l'être pour un autre. Le calcul de la rentabilité d'un client doit donc se baser sur des informations en provenance de l'ensemble de l'entreprise, et pas seulement d'une unité ou d'un département. Les effets de la publicité ambiante Même avec un slogan ou un message réduit à sa plus simple expression, une marque peut générer chez le consommateur de la familiarité et donc une attitude favorable de sa part. Pourvu que celui-ci ait été de nombreuses fois exposé à cette publicité fondue dans son décor. MARC VANHUELE La publicité est faite pour être remarquée et pour influencer notre connaissance des marques et nos attitudes envers elles. Malheureusement, la plupart des publicités ne remplissent pas ce contrat. Alors qu'elles sont supposées attirer l'attention du consommateur, elles se fondent dans son décor ou son environnement. Nous qualifions ces publicités d'«ambiantes». Cet article évoque une recherche consacrée aux effets de la publicité ambiante sur le consommateur, effets dont j'examine l'intérêt pour la pratique du marketing. Imaginez que vous vous rendiez à votre lieu de travail avec votre véhicule. Vous avez choisi une station d'information générale qui diffuse les dernières nouvelles sur les activités de l'otan au Kosovo. Vous passez à côté d'un arrêt de bus. Vous réalisez immédiatement que vous avez vu l'affiche de l'abribus la veille, bien que vous ne l'ayez pas bien regardée ni lue. Vous profitez d'une page de publicité sur votre radio pour commenter l'actualité avec votre passager. Au même moment, vous longez un mur d'affichage. Une des affiches capte aussitôt votre attention, ou plutôt, c'est le mâle à peine vêtu de cette affiche qui retient votre attention. Heureusement, votre passager, en fait votre mari, regarde la route, lui, et vous prévient juste à temps que la voiture devant freine brutalement. En deux minutes environ, notre conductrice a été exposée à environ dix publicités, dont seulement une a réellement capté son attention, et, même dans ce cas, elle n'est sans doute pas en mesure de dire de quoi parlait cette publicité. Les neuf autres publicités font partie du «décor», un peu comme les arbres et les maisons qui jalonnent sa route. Ces neuf publicités, nous les désignons par «publicités ambiantes». Dans cet article, j'évoque un projet de recherche dans lequel je montre que les publicités ambiantes ont trois effets sur le consommateur. Premièrement, elles accroissent la crédibilité des nouvelles marques. Deuxièmement, elles réactivent l'image de marques déjà établies. Troisièmement, elles contribuent à améliorer l'appréciation globale du consommateur sur les marques mises en avant. Les méthodes classiques avec lesquelles nous mesurons l'impact de la publicité ne sont pas adéquates pour mesurer les effets de la publicité ambiante, sans doute parce que ceux-ci sont plutôt subtils lors d'une exposition unique. L'effet cumulé d'un grand nombre d'expositions à une publicité d'ambiance est pourtant loin d'être négligeable. Curieusement, l'importance de cet impact est liée au fait qu'on ne se rappelle plus des différentes expositions. De ce fait également, on ne peut pas relier ses réactions vis-à-vis de la marque à l'action
de la publicité. Nous considérons alors nos attitudes vis-à-vis de la marque comme des réactions propres et des opinions personnelles. Insistons sur le fait que la publicité ambiante n'est pas la publicité subliminale. La publicité subliminale consiste à concevoir des messages de telle façon que l'audience ne puisse les percevoir consciemment. Comme cette publicité n'a de véritable impact que dans des conditions très précises, elle ne présente pas un grand intérêt pratique. Le thème de la publicité subliminale a néanmoins été abondamment étudié parce qu'il est fascinant de penser convaincre en se passant des perceptions conscientes. Ce que nous désignons par publicité ambiante, c'est une publicité qui traverse le champ visuel (ou auditif) d'un consommateur, sans toutefois capter sa pleine attention. Comme cette publicité se trouve dans son champ de vision, il est probable qu'elle sera prise en charge automatiquement par son système perceptuel, sans effort particulier et intentionnel de sa part. C'est pourquoi, dans l'anecdote évoquée au début de l'article, le beau modèle masculin de l'affiche est remarqué. L'efficacité de la publicité ambiante s'explique ainsi par l'existence de ce scanner automatique. Mais il y a une deuxième raison à cette efficacité, c'est le phénomène bien documenté de l'apprentissage automatique. Nous allons évoquer brièvement un ensemble d'études qui mettent en évidence chacun des effets des messages ambiants. Ces travaux se sont déroulés dans un contexte expérimental et contrôlé, à l'aide de marques, logos et publicités créés spécialement, afin de rester dans une fourchette de coût raisonnable. Notre connaissance de la publicité ambiante et de ses effets étant très limitée, nous nous sommes concentré sur un aspect, celui de l'exposition à un nom de marque ou logo lors d'une publicité ambiante. Ces études ont été effectuées grâce à la collaboration de Michel Pham de l'université de Columbia (Etats-Unis), et de Stephen Holden, de l'université Bond (Australie). Un air de déjà-vu Imaginez que vous effectuiez un travail qui requiert toute votre attention. Dans la pièce où vous vous trouvez, une autre personne écoute avec un magnétophone une longue liste de noms envisagés pour un nouveau médicament. Le lendemain, vous recevez une longue liste de médicaments sur laquelle il vous est demandé d'indiquer les médicaments qui, d'après vous, existent déjà, ceux que vous reconnaissez avoir entendu la veille (ces médicaments n'existent pas, en réalité), et ceux qui ne répondent à aucune des deux précédentes possibilités (qui, selon vous, n'existent pas et n'ont pas été entendus la veille). Vous ferez sans doute des erreurs de reconnaissance en choisissant l'une des trois possibilités, mais les résultats de notre expérience montrent que ces erreurs ne sont pas le fruit du hasard. Elles sont au contraire systématiques. Nous avons en fait tendance à considérer les noms que nous avons entendus la veille comme des marques qui existent véritablement. Il y a à cela deux raisons. Premièrement, ces noms nous semblent familiers, parce que nous les avons entendus la veille. Deuxièmement, nous ne nous les rappelons pas. En d'autres termes, nous sommes victimes de notre propre mémoire, à laquelle nous n'avons pas un accès conscient : notre mémoire génère un sentiment de familiarité, mais ne nous donne pas accès à l'origine de cette familiarité. Nous appelons ce résultat un effet de fausse crédibilité : ainsi une marque totalement nouvelle nous paraît-elle une marque déjà bien établie sur le marché, alors que ce n'est pas du tout le cas. L'exposition ambiante confère à une marque un statut, un air de déjà-vu, et la fait apparaître comme une marque établie, parce que nous ne nous rappelons pas des expositions précédentes. Lors d'une deuxième étude, nous avons également examiné comment une publicité
ambiante peut promouvoir une marque préexistante et bien établie. Pour accroître la portée de nos résultats, nous avons commencé par créer artificiellement une image forte pour des marques nouvellement créées (par exemple, Fecci, le parfum ultraféminin). Plus tard, les participants de l'étude étaient invités à regarder brièvement sur un écran d'ordinateur une série de noms de marque, dont certains avaient été introduits lors de la première étape. A la fin de la séance, ils devaient répondre aussi vite que possible à des questions sur les marques présentées dans la première étape. Ces questions portaient sur les associations liées à la marque (par exemple, Fecci est un parfum pour homme). Le principal résultat de cette étude est que, lorsque les participants avaient vu la marque lors de la deuxième étape, ils répondaient aux questions portant sur cette marque plus rapidement. Il faut pourtant mentionner que, à la différence de la première étape, lors de la deuxième étape, le nom seul de la marque, dénué d'associations visuelles ou écrites, était présenté. Ce résultat indique donc que la simple exposition au nom de la marque active en mémoire les associations d'images liées à la marque, et les rend plus saillantes. Cette saillance permet aux participants de répondre plus vite à la question portant sur l'association liée à cette marque. Lors d'une variante de cette expérience, nous avons obtenu un résultat identique, alors même que l'exposition lors de la deuxième phase se trouvait en dehors du champ de vision du participant. En conclusion, cette étude met en évidence que le fait de montrer un nom de marque dans des conditions similaires à celles d'un sponsoring ou celles d'une enseigne lumineuse placée au bord d'une route (comme sur le périphérique nord de Paris), non seulement augmente sa notoriété, mais aussi réactive son image. Dans une troisième étude, nous avons reproduit un résultat bien connu, désigné par les psychologues comme l'effet de «mere exposure». En montrant un nom de marque, même pendant un court instant et parmi une longue liste d'autres noms de marque, on améliore l'appréciation de cette marque. Cet effet s'explique par le fait que l'exposition initiale de la marque crée un début de familiarité envers elle. Lors de la deuxième exposition, la marque paraît alors tout à fait familière. Cette familiarité est vécue comme une émotion positive, elle-même associée à la marque. Ce qui rend l'effet intriguant, c'est qu'il peut même se produire pour des marques dont vous ne vous souvenez pas. Tout ce que vous savez, c'est que cette marque vous semble familière, mais vous ne savez pas pourquoi. Nous constatons donc à nouveau une influence de la mémoire, sans véritable accès à cette mémoire. Nous ne savons même pas que notre mémoire a enregistré ce stimulus publicitaire. La contribution précise de notre étude a été de montrer que lorsqu'on augmentait le laps de temps entre l'exposition initiale et le test de trente minutes à un jour, la mémorisation de la première exposition diminuait, mais non l'attitude favorable envers la marque. En d'autres mots, notre mémoire "consciente" oublie plus facilement que notre mémoire "inconsciente". Pour ce qui est de la publicité ambiante, la conséquence de l'effet de familiarité est que même de courtes expositions, insérées au milieu de nombreuses autres expositions, peuvent créer de la familiarité et des attitudes favorables à cette marque. Encore une fois, le fait de ne pas se rappeler la publicité d'ambiance ne nuit pas à l'effet, mais au contraire le favorise. Comme vous ne parvenez pas à lier votre attitude favorable à l'exposition à la publicité, vous vous dites que vous aimez cette marque, tout simplement. Au total, notre recherche montre que les méthodes traditionnelles pour évaluer l'impact de la publicité sous-estiment ses effets, et notamment les effets des conditions ambiantes. Les expositions répétées à des marques dans le cadre d'une publicité ambiante, produisent trois types d'effets. Tout d'abord, elles confèrent à la marque une plus grande crédibilité d'acteur sur le marché. D'autre part, elles activent l'image de la marque auprès des personnes exposées à la publicité. Enfin, elles améliorent l'évaluation globale de la marque. Chacun de ses effets se produit même lorsque la personne n'a pas conscience d'avoir été exposée à la marque. Nous n'avons pas besoin de nous souvenir d'avoir vu ou entendu le message qui a
influencé notre attitude, notre opinion, ou l'image de la marque. L'effet d'une seule exposition lors d'une publicité d'ambiance, est sans doute limité, et mesurable seulement dans des conditions expérimentales. Cependant, parce que de nombreuses publicités deviennent "ambiantes" elles produisent des effets cumulés importants. Et c'est justement parce que nous ne nous rappelons pas les avoir vues, que leur effet prend plus d'importance. Concrètement, quelles implications retenir de ces recherches pour ce qui est de la pratique de la publicité? Les publicités devraient être conçues pour viser une efficacité à deux niveaux. Au premier niveau d'efficacité, elles doivent continuer à attirer l'attention et à susciter l'intérêt. Cependant, elles doivent, à un deuxième niveau, être conçues pour être efficace même lorsqu'elles deviennent des publicités ambiantes par le fait des circonstances de l'exposition. Ce deuxième objectif devrait être particulièrement visé pour les publicités destinées aux médias typiquement de "background", comme l'affichage, ou la radio. La simplicité, la clarté, la cohérence dans la durée, la mise en valeur de la marque et du logo, sont cruciaux pour que ce deuxième niveau d'efficacité soit atteint. Ces recommandations peuvent paraître évidentes, mais notre recherche fournit un argument de plus pour souligner l'importance de ces principes d'efficacité. Ces derniers paraissent aller de soi, mais nous pouvons constater autour de nous le nombre de publicités qui ne les respectent pas. Une dernière conclusion est que le sponsoring, la publicité sur internet, et d'autres formes de communication qui se limitent à présenter la marque, et peut-être un slogan, ne sont pas seulement efficaces pour créer ou maintenir la notoriété de la marque, mais également pour établir sa crédibilité, garder son image vivace, rendre son évaluation positive. La publicité ambiante, ça marche, même si le message est court, inintéressant, et peu attirant. La promotion des ventes : un outil puissant et diversifié Quel est le profit réel d'une opération de promotion? Que cherche-t-on d'abord : s'attirer de nouveaux clients ou récompenser les plus fidèles? Ces questions, comme beaucoup d'autres, doivent être passées en revue pour définir une stratégie de promotion pertinente. GILLES LAURENT ET PIERRE CHANDON La promotion des ventes a longtemps été une parente pauvre du marketing, en particulier face à la publicité. La promotion semblait limitée à des actions tactiques, portant sur des budgets limités, ayant quelques effets à court terme, mais sans impact réel à moyen terme, sauf peut-être celui de détériorer l'image. Cette vision s'est trouvée totalement renversée par l'évolution des dernières années. Le budget total consacré à la promotion aux Etats-Unis est aujourd'hui bien supérieur à celui de la publicité. Mais surtout, on s'est rendu compte de la diversité des impacts de la promotion, et de ses enjeux stratégiques. La brièveté de l'article ne nous permet d'aborder que quelques-uns de ces aspects : l'impact des promotions jouant sur le prix, leur rentabilité, les choix stratégiques qu'elles posent, la diversité des fonctions remplies par les promotions. * L'impact des promotions jouant sur le prix Une majorité des opérations promotionnelles destinées au consommateur lui proposent une réduction du prix unitaire. Les formes sont très diverses : de l'offre spéciale qui réduit pendant une période limitée le prix du conditionnement habituel, au «trois pour deux» qui lie la réduction à l'achat de plusieurs unités, des «girafes» où le conditionnement plus important accompagne un prix plus bas au litre ou au kilo, aux coupons très divers dans leurs modalités (valable immédiatement ou sur un achat ultérieur, sur le même produit ou sur un autre,
offert à tous ou ciblé), etc. L'impact est bien sûr différent suivant la technique, mais plusieurs conclusions s'imposent : -depuis que l'on peut mesurer avec précision, grâce aux caisses électroniques des supermarchés et hypermarchés («scanners»), les ventes hebdomadaires de chaque référence, on a pris conscience de la très forte hausse des ventes que la promotion peut engendrer du jour au lendemain. On observe des multiplications par deux, trois, quatre, parfois jusqu'à dix, des ventes du produit promu. -L'augmentation des ventes, en pourcentage, est en moyenne plus faible pour les marques à forte part de marché initiale (elles partent de plus haut). -Des promotions trop fréquentes peuvent faire baisser le prix de référence que les consommateurs ont en tête. -Si les opérations sont trop fréquentes, l'impact de chaque opération s'atténue. -Les actions marketing qui peuvent accompagner une réduction de prix (prospectus, annonce, mise en avant) en multiplient l'impact, en la rendant plus visible. -Les réductions de prix ne se contentent pas d'augmenter les achats auprès des clients entrés dans le magasin, elles peuvent aussi créer du trafic pour le point de vente. -Des effets complexes peuvent apparaître entre les catégories de produit : impact d'une promotion dans une catégorie sur les catégories concurrentes et complémentaires. * La rentabilité des promotions Comme nous venons de le rappeler, l'impact fondamental des promotions par baisse de prix est la très forte hausse des ventes qu'elles peuvent engendrer. L'impact est si puissant que le concept de «ventes incrémentales», introduit par les sociétés de panels, est entré dans le vocabulaire courant des responsables de marketing. En bref, on décompose, pendant une promotion, le total des ventes observées du produit promu en une «baseline» (ce que l'on aurait vendu si la promotion n'avait pas eu lieu), et des ventes «incrémentales» (l'écart entre les ventes réelles et cette baseline). Typiquement, encore une fois, ces ventes incrémentales sont supérieures à la «baseline», ce qui signifie que les ventes totales ont plus que doublé. Cela pose cependant des questions importantes, auxquelles il conviendrait d'apporter une réponse à chaque nouvelle opération. -Face à l'augmentation des ventes, quels sont les coûts réellement entraînés? La réduction de marge est facile à calculer, mais quid, par exemple, des frais de fabrication et de livraison des conditionnements spéciaux créés pour l'opération, et qui perturbent le fonctionnement régulier des opérations? -Quelle est le profit réel de l'opération? On peut avoir tendance, intuitivement, à penser qu'une réduction de prix de 15 % est efficace si elle entraîne une hausse des ventes en volume de plus de 15 %. C'est, de façon erronée, raisonner sur les ventes au lieu de raisonner sur la marge. En fait, une réduction de 15 % sur un produit où la marge habituelle est de 25 % nécessite, pour être rentable, une hausse des ventes de 150 %, c'est à dire une multiplication du volume habituel par 2,5. Une étude américaine, réalisée il y a quelques années, concluait que
seulement 15 % des promotions-prix demandées par les distributeurs étaient rentables. -Attire-t-on vers notre marque de nouveaux consommateurs? Ou permet-on à des consommateurs qui auraient acheté de toutes façons de payer moins cher? -Augmente-t-on réellement la consommation, au-delà de l'augmentation des ventes? L'utilisation du produit est-elle plus importante, ou les clients se contentent-ils de constituer, grâce à l'opération promotionnelle, des stocks peu coûteux, qu'ils vont consommer à leur rythme normal? En d'autres termes, les ventes supplémentaires engendrées pendant la promotion, à prix réduit, ne seront-elles pas compensées par une baisse ultérieure des ventes à prix normal? Par ailleurs, peut-on dire qu'on amène vers la catégorie des acheteurs qui ne l'auraient pas utilisée sans la promotion? -Ne va-t-on pas faire baisser le prix de référence que les consommateurs ont en mémoire? Ou leur donner l'habitude d'attendre la prochaine promotion pour faire leurs achats? Ne compromet-on pas ainsi la rentabilité à long terme de l'ensemble des ventes? * Quels sont les objectifs stratégiques? Loin d'être des opérations tactiques ponctuelles, décidées au cas par cas à un niveau hiérarchique assez bas, les promotions doivent être conçues à partir d'une vision et d'objectifs stratégiques. Tout d'abord, les opérations promotionnelles par réduction de prix sont, bien sûr, un élément central des négociations entre fabricants et grands distributeurs. Les opérations promotionnelles des enseignes sont devenues un élément capital de leur action marketing, et de leur positionnement, comme l'a bien montré la mémorable campagne de (ici commmence la tourne) Carrefour à l'automne 1998. Les enseignes doivent offrir des opérations régulières et des opérations visibles. Dans les deux cas, la présence de marques connues est nécessaire. Les modalités de la participation des grands fabricants sont donc un élément essentiel de négociations au plus haut niveau. On peut parler du montant des réductions, mais aussi du nombre et de la durée des actions, du caractère spécifique d'actions présentes dans une seule enseigne, des actions d'accompagnement en communication, etc. Qui vise-t-on? Si l'on se recentre sur les consommateurs, quel est le rôle de l'opération promotionnelle que l'on envisage de monter dans la stratégie de conquête et de fidélisation de la marque? S'adresse-t-on aux clients déjà fidèles, pour encourager et récompenser leur fidélité? Cherche-t-on plutôt à attirer des clients d'autres marques? ou des consommateurs qui papillonnent d'une marque à l'autre? Veut-on convaincre certains acheteurs habituels d'une marque de distributeur de venir vers une marque nationale? Beaucoup d'opérations sont entreprises sans définition suffisamment précise de ces objectifs stratégiques. De façon liée, le choix du mécanisme de réduction de prix devrait être fait en fonction de ces objectifs stratégiques. La réduction de prix doit-elle être offerte à tous? Doit-elle plutôt récompenser, de façon sélective, les clients fidèles? Ou, à l'inverse, offrir à de nouveaux acheteurs la possibilité de découvrir notre produit? Agit-on dans le cadre étroit d'une catégorie de produit, voire d'une marque? Ou, au contraire, s'agit-il de provoquer des effets entre catégories, en faisant découvrir des produits complémentaires ou concurrents? Ce que les promotions apportent au consommateur La grande majorité des travaux de recherche sur la promotion a porté sur les
actions liées au prix. Cela est certainement justifié par la fréquence de ces opérations, par les budgets qui leurs sont consacrés, par leur impact sur les ventes et la rentabilité. Il ne faut pas pour autant négliger les autres types de promotions, et le rôle qu'ils jouent auprès du consommateur. La promotion regroupe une grande variété de techniques, avec des objectifs très divers, qu'il s'agisse de jeux, de concours, de primes et cadeaux, d'offres d'essai, d'actions événementielles, etc. Ces techniques peuvent être analysées à travers les fonctions qu'elles remplissent auprès du consommateur : fonctions utilitaires ou fonctions hédoniques. Les fonctions utilitaires portent sur l'économie, la qualité et la commodité. L'économie est la fonction la plus évidente, celle qui correspond aux actions sur les prix décrites plus haut. La promotion permet au consommateur de payer moins cher le même produit, ou d'obtenir des quantités plus importantes pour le même prix. La promotion est aussi un moyen d'accéder à une meilleure qualité. Un consommateur qui n'a pas habituellement le budget pour acheter au prix normal un produit, ou une marque, de qualité pourra profiter d'une promotion pour le faire, sans avoir le sentiment de faire une folie. Les promotions peuvent ainsi être, pendant une visite à l'hypermarché ou au supermarché, le moyen de s'offrir quelques petits plaisirs dans des conditions raisonnables, en se justifiant facilement auprès des autres et de soi-même. Les promotions peuvent apporter une amélioration de la commodité d'achat. Pour de nombreux achats peu impliquants, le consommateur cherche à faire vite, à réduire le temps consacré au choix. La promotion peut être un moyen de simplifier la procédure de choix. Les pratiques peuvent changer suivant les consommateurs et les catégories : acheter systématiquement le produit en promotion, acheter le produit en promotion s'il fait partie des deux ou trois marques qu'on juge acceptables, commencer par regarder les produits en promotion, et ne regarder le reste du rayon que si ceux-ci n'étaient pas convaincants, etc. A côté de ces fonctions utilitaires, il ne faut pas négliger des fonctions hédoniques, qui apportent au consommateur des bénéfices d'un autre type : divertissement, exploration, expression de soi. Beaucoup d'actions promotionnelles jouent dans le registre du divertissement, de l'animation, de l'amusement : animations en magasin, mais aussi organisation d'événements exceptionnels, concours, jeux, offre de primes et cadeaux qui permettront des activités ludiques, etc. Les enfants sont bien sûr souvent la cible d'actions de ce genre, mais de nombreux exemples s'adressent aux adultes. Les promotions peuvent rendre possible l'exploration de nouveaux domaines : découvrir de nouvelles marques, de nouvelles variétés, de nouvelles catégories. En l'absence de promotions, cette découverte a une chance d'être un plaisir, mais elle est malgré tout risquée. On ne sait trop, avant l'essai, si l'on sera satisfait. On peut craindre d'éprouver des regrets, d'avoir du mal à justifier un choix sortant des habitudes. La promotion permet d'abaisser ces barrières par un essai sans risque, grâce à des animations, des dégustations, des offres de remboursement, des échantillons d'essai, des coupons, etc. Bien tirer parti des promotions, enfin, peut créer un sentiment de satisfaction. On a su dénicher l'occasion intéressante, on a bien géré le budget dont on disposait, on s'est offert un produit un peu exceptionnel, on s'est montré un consommateur malin.
Conclusion Au total, la promotion des ventes est devenu un domaine clé du marketing. Les promotions centrées sur le prix représentent des budgets supérieurs à ceux de la publicité, une composante essentielle de l'attractivité des points de vente, un élément central des négociations stratégiques entre fabricants et distributeurs. Les autres promotions offrent une riche gamme d'actions quantitatives et qualitatives. Et la promotion peut encore jouer d'autres rôles que le manque de place nous empêche de développer, comme dans la communication ou dans le marketing direct. Les tests publicitaires au banc d'essai Les pré-tests publicitaires permettent d'évaluer plus ou moins efficacement l'impact qu'auront sur le consommateur les messages diffusés. Notamment en mesurant, dans des contextes particuliers, son aptitude à mémoriser et à assimiler les informations qui lui sont dispensées. BRIAN STERNTHAL ET ANGELA Y. LEE Les annonceurs ont l'embarras du choix lorsqu'il s'agit de trouver un prestataire pour analyser l'impact de leurs spots télévisés. Malheureusement, le choix est plus restreint en ce qui concerne le type de tests à réaliser. La plupart des agences utilisent des techniques traditionnelles : des consommateurs sont invités à regarder des émissions de télévision dans lesquelles les messages à tester sont insérés au milieu d'autres messages. Auparavant, ces personnes doivent préciser les marques qu'elles préfèrent, dans plusieurs catégories de produits, notamment celles vantées dans les publicités étudiées. A l'issue de cette présentation, les consommateurs doivent se remémorer les publicités. S'ils ne se souviennent pas de l'annonce étudiée, on peut les mettre sur la voie en leur indiquant la catégorie de produits concernée («Vous rappelez-vous avoir vu une publicité pour des voitures?»). Les données relatives à la mémorisation sont généralement fournies par les réponses textuelles des consommateurs et par un score exprimant le pourcentage de ceux qui se sont souvenus des informations clefs véhiculées par le message. Ce score sert à fixer des normes pour toutes les publicités testées par le même institut. Puis, on demande à nouveau aux consommateurs de choisir leur marque préférée, dans les différentes catégories. On compare ensuite ces réponses et les préférences exprimées au départ, afin d'évaluer le pouvoir de fidélisation du message. Ces consommateurs doivent également indiquer les éléments des publicités dont ils sont susceptibles de se souvenir, évaluer le spot et la marque, et formuler des suggestions d'amélioration. Certains instituts leur demandent d'indiquer leur degré d'appréciation de la présentation, à intervalles réguliers. D'autres mesurent même parfois leurs réactions physiologiques. Les clients de ces instituts d'études utilisent les résultats des tests pour évaluer l'impact probable de leurs messages publicitaires. Cependant, ils savent que les résultats de tests basés sur la mémorisation et le degré d'infidélité à la marque ne permettent pas de prévoir parfaitement l'efficacité d'un message. Ils utilisent donc les scores obtenus pour comparer différentes versions d'une publicité à un moment donné, pour évaluer les nouveaux messages par rapport aux anciens, ou les intègrent comme variable dans des modèles de prévision des ventes. Les instituts peuvent fournir des normes à utiliser comme références pour évaluer l'efficacité. Il leur arrive également fréquemment de conseiller leurs clients sur la
façon d'améliorer les scores obtenus. Si les réactions à intervalles réguliers des personnes interrogées ont été mesurées, ces informations peuvent servir à supprimer des passages du message relativement peu intéressants. Ou, inversement, mettre tel ou tel aspect en évidence. Ces tests peuvent donner des indications précieuses sur les réactions des consommateurs face au message et sur la façon de modifier les messages. Néanmoins, ces techniques peuvent présenter de sérieuses limites. Cet article évaluera tout d'abord les mesures actuelles de l'efficacité, puis proposera des moyens d'améliorer les procédures de test. Les techniques actuelles * Les mesures explicites La plupart de ces mesures présument que, lorsque le consommateur prend une décision d'achat, il cherche à se souvenir du message publicitaire et de ce qu'il connaît par ailleurs de la marque. Cet effort sera plus ou moins fructueux selon le degré «d'apprentissage» du message. La mesure la plus courante de l'efficacité d'une publicité consiste donc à déterminer les mots mémorisés par le consommateur. Il s'agit d'une mesure «explicite» car elle se concentre sur ce qu'une personne a retenu du contenu d'un message explicite. Cette technique pose néanmoins problème lorsqu'il s'agit d'évaluer l'impact d'une publicité. En effet, les consommateurs ont souvent du mal à se souvenir d'où ils tirent leurs connaissances. Ils réagissent à un message en mettant en relation ce qu'ils savent et la teneur de ce message. Ce qu'ils mémorisent, c'est une combinaison des informations reçues et de leurs propres réflexions. Lorsqu'on leur demande de se souvenir du contenu d'une publicité donnée, ils déterminent difficilement si leur souvenir se fonde sur le message en question, sur un autre message de la marque qu'ils auraient pu voir ou sur d'autres connaissances. Bien souvent, ils ne restituent donc pas correctement ce qu'ils ont «appris» par la publicité. Mais, même lorsque leur mémoire ne les trahit pas, un deuxième problème apparaît avec les mesures explicites : les évaluations d'une marque sont souvent déterminées non par les informations mémorisées, mais par les associations d'idées, inhérentes aux informations, des consommateurs. Par exemple, des personnes se souviennent bien d'une publicité indiquant qu'une automobile est vendue avec une trousse à outils complète. Il se peut cependant que cette précision soit ancrée dans leur mémoire parce qu'ils l'ont associée à l'idée que la trousse à outils sera nécessaire pour effectuer de fréquentes réparations sur cette voiture. Une bonne mémorisation serait donc associée à un manque d'enthousiasme pour l'achat du produit en question. * Les mesures implicites Les consommateurs prennent des décisions d'achat en fonction de ce qu'ils connaissent d'une marque, et pas seulement en fonction de ce qu'ils ont retenu d'une publicité. Les mesures implicites de la mémoire sont par conséquent utiles aux annonceurs pour déterminer ce que les consommateurs savent de leur marque, sans tenir compte de l'origine de ces connaissances. La mémorisation d'une marque constitue l'une de ces mesures implicites. Mesurer l'effet de l'exposition à la publicité sur la mémorisation de la marque est souvent plus instructif que mesurer la mémorisation du message lui-même.
Autre mesure implicite utile : celle de la notoriété spontanée («top of mind»). Elle consiste à donner une indication de la catégorie de produits concernée, pour permettre de retrouver des noms de marques, en demandant, par exemple, à des consommateurs d'établir la liste des marques de bière qu'ils envisageraient d'acheter. Il se peut alors que les personnes qui ont vu un spot vantant les mérites de la bière Kronenbourg citent cette marque plus souvent que celles qui ne l'ont pas vu. Ce qui indiquerait l'efficacité de cette publicité. Si la mémorisation et la notoriété «top of mind» constituent des indicateurs pertinents des connaissances des consommateurs, en général les annonceurs s'intéressent essentiellement à la manière dont les messages publicitaires influent sur les dispositions des consommateurs à l'égard de leur marque. Ces mesures permettent, jusqu'à un certain point, de cerner cet état d'esprit. Ainsi, accroître la notoriété «top of mind» d'une marque accroît souvent la préférence pour cette marque. Mais, cette technique ayant une valeur de diagnostic limitée, les publicitaires lui préfèrent d'autres mesures qui reflètent mieux les dispositions des consommateurs à l'égard de la marque. Dans cette optique, la méthode la plus utilisée est peut-être l'étude de l'attitude. Elle consiste à explorer la manière dont les consommateurs perçoivent une marque, et non ce qu'ils savent d'elle. Pour ce faire, on leur demande d'évaluer la marque de manière générale («j'aime/je n'aime pas cette marque», «bonne/mauvaise marque», «marque supérieure/inférieure») et en termes plus spécifiques (émettre un jugement sur le prix et la qualité, par exemple). Les mesures de l'attitude sont habituellement implicites : aucune mention n'est faite d'expositions préalables à la publicité. Un message publicitaire a un impact si ceux qui l'ont vu sont mieux disposés envers la marque concernée que ceux qui ne l'ont pas vu. La mesure de l'attitude éclaire ainsi sur les raisons de la diversité des préférences. Les pré-tests comportent souvent des mesures du choix. On évalue le pouvoir d'une publicité à faire changer de marque en étudiant la modification des préférences qui s'ensuit lorsque le message est diffusé. Cependant, si l'objectif est de fidéliser le consommateur, la mesure du choix doit partir de l'hypothèse que le message qui favorise le mieux ce changement de marque est aussi celui qui fidélise le mieux le client. Cette hypothèse devrait, au minimum, être vérifiée. En revanche, s'il s'agit de faire en sorte que le client reste fidèle à la marque, il pourrait être utile d'examiner dans quelle mesure le message publicitaire accroît la résistance des consommateurs aux offensives des concurrents. A cette fin, il faudrait déterminer si cette fidélité est préservée lorsque le message est diffusé avec d'autres annonces de la même catégorie. Certains tests tentent de muscler les mesures de l'attitude et du choix avec des indicateurs des réactions physiologiques. Ils étudient pour cela la dilatation des pupilles et l'intonation de la voix. Cependant, la dilatation des pupilles peut traduire à la fois une modification de l'attention et une variation de la luminosité. Elle est donc pratiquement impossible à interpréter sans équivoque. En outre, il semblerait que l'intonation de la voix n'ait pas de liens avec les autres indicateurs physiologiques, si bien que son interprétation reste vague. Si le recours aux mesures physiologiques semble de moins en moins fréquent, les mesures «à intervalles réguliers» de la réaction des consommateurs sont plus populaires que jamais. Pour les réaliser, on demande habituellement aux personnes interrogées d'appuyer sur une touche pour indiquer leur niveau d'intérêt «à
intervalles réguliers». On considère en général que les passages dans les publicités qui suscitent un niveau d'intérêt élevé sont efficaces, et que celles qui ne suscitent pas beaucoup d'intérêt ne le sont pas. Toute intuitive que cette approche puisse être, il est évident que d'autres paramètres sont plus utiles pour l'interprétation des réactions intervalle après intervalle. En fait, l'évolution de l'intérêt sur la durée d'un spot publicitaire et le niveau d'intérêt maximal seraient plus révélateurs de l'efficacité que la réaction spécifique à une partie donnée de l'annonce. Qui plus est, devoir indiquer des réactions intervalle après intervalle risque d'inciter les personnes interrogées à se concentrer sur leurs propres réflexions, ce qui interfère avec leur traitement du message publicitaire. Enfin, lors de certains tests, on demande aux consommateurs comment ils accentueraient l'impact du message. Cette méthode est problématique, car les consommateurs ont tendance à proposer la solution la plus courante dans la catégorie de produits concernée. S'il s'agit de vanter une marque de bière, par exemple, ils suggéreront d'ajouter une scène de bar ou de faire figurer des femmes dans le spot, ce qui le noierait dans la masse des autres publicités pour la bière. Les mesures de la perception Les méthodes de mesure évoquées jusqu'ici se prêtent à des situations dans lesquelles les choix se fondent sur l'information restituée de mémoire. Or, dans un nombre croissant de cas, la publicité vise simplement à familiariser les consommateurs avec une marque. Pour ce faire, on recourt fréquemment aux affichages lors des manifestations sportives et le long des routes. Dans ces cas, les mesures de la perception peuvent se révéler utiles. Il s'agit alors de déterminer à quel point la publicité peut accroître la capacité des consommateurs à reconnaître une marque. L'une des méthodes consiste à leur demander de compléter un fragment. Par exemple, si, en voyant D - n -e, le consommateur répond «Danone» après avoir vu une publicité pour cette marque, il existe une preuve de l'apprentissage par la perception. Les procédures de test Les procédures de test publicitaire consistent habituellement à montrer la publicité étudiée une ou plusieurs fois, au milieu d'autres publicités. On part de l'hypothèse que si la version A est supérieure à la version B, cette supériorité sera préservée lorsque le message sera diffusé ou imprimé, même si le nombre d'expositions est différent de celui du test. Cette hypothèse ne peut se vérifier que si les autres versions demandent le même effort de traitement. Dans le cas contraire, les conclusions auxquelles on aboutira à l'issue du test risquent d'être inexactes. Pour illustrer ce point, prenons l'exemple de trois versions différentes d'une publicité pour une même marque. Les efforts que les consommateurs doivent déployer pour saisir le message dépend de la manière dont ce dernier est présenté. Le message le plus difficile à traiter est celui qui est chanté. Comme le montre la figure, avec ce type de publicité, la probabilité que les gens comprennent le message et soient dans des dispositions favorables vis-à-vis de la marque augmente avec le nombre des expositions à cette publicité. Il en va autrement du type de publicité le plus facile à traiter, à savoir le message lu par un acteur. La simplicité de la publicité permet d'en retenir la teneur après une seule exposition. Les expositions suivantes incitent les spectateurs à réfléchir
au produit, et leurs réflexions risquent d'être moins favorables qu'à l'issue de la première exposition, ce qui fait baisser l'efficacité de la publicité. Enfin, il existe un type de publicité moyennement difficile à traiter, par lequel le thème principal du message est dit avant d'être chanté. Dans ce cas, les spectateurs apprennent la teneur du message en quelques diffusions, puis y réfléchissent. Par conséquent, l'efficacité de cette publicité commence par augmenter avant de diminuer. Cette typologie des résultats est décrite dans plusieurs enquêtes. Elle illustre le problème que posent les estimations ponctuelles de l'efficacité des publicités. Supposons, par exemple, qu'un test publicitaire indique que, à raison de trois expositions chacun, le message lu A est plus efficace que le message chanté B. On en conclura donc que A sera plus efficace que B quel que soit le nombre des expositions. Cependant, si le nombre moyen des expositions prévu pour la campagne est plus élevé, et se monte, disons, à 10, il ne faut pas opter pour le message A. Il importe manifestement de déterminer l'élasticité de la réaction aux expositions lorsque l'on évalue l'efficacité de différentes versions d'un message. Pour élaborer les procédures mesurant l'efficacité des publicités, il faut tenir compte du contexte de diffusion. Le contexte utilisé dans la plupart des tests publicitaires se compose d'émissions de télévision et de publicités pour des catégories de produits n'ayant aucun rapport avec celui vanté par la publicité testée. Or, il est évident que ce type de contexte favorise les publicités présentant l'image d'une marque plutôt que ses attributs. Prenons le cas de deux publicités pour un appareil photo. La publicité axée sur les attributs énumère des caractéristiques telles que le flash et la vitesse d'obturation et en montre des images. La publicité axée sur l'image énumère les mêmes attributs, mais, au lieu de les représenter, montre des photographies de vacances prises avec l'appareil. La publicité axée sur l'image sera plus persuasive que la publicité axée sur les attributs lorsqu'elle est diffusée au milieu de spots publicitaires sans rapport avec le produit vanté. En effet, on se souvient avoir vu une publicité pour un appareil photo en faisant le lien avec les vacances. Sachant que le contexte est dépourvu de tout rapport avec le produit vanté, il est plus facile de se souvenir des caractéristiques de l'appareil photo, car c'était la seule marque de cette catégorie de produits dans la séquence de publicités. En revanche, la publicité insistant sur les attributs est plus persuasive dans le contexte d'autres publicités pour des appareils photo. En effet, elle permet de se souvenir plus facilement des caractéristiques propres à l'appareil lorsque la tâche est compliquée par la présence d'autres publicités pour des appareils photo. La correspondance entre les conditions du test et les conditions réelles de diffusion est donc vitale dans l'élaboration des tests publicitaires. Brian Sternthal est professeur de marketing, spécialisé dans l'alimentation générale, à la J.L. Kellogg Graduate School of Management, qui fait partie de la Northwestern University. Angela Y. Lee est maître assistant en marketing dans le même établissement. Comment élaborer un test efficace Les annonceurs sont toujours intéressés de savoir ce que les consommateurs connaissent de leur marque, et à quel point ils y sont favorables. D'une manière générale, le fait que le consommateur se souvienne ou non de la teneur d'une publicité donnée n'entre pas en ligne de compte dans l'évaluation de l'efficacité de cette publicité. En fait, les consommateurs étant souvent sceptiques quant à la
véracité du message, ce dernier pourrait avoir davantage d'impact si le consommateur ne se souvient plus qu'il tient sa connaissance du produit de la publicité. Pour améliorer la mesure de l'efficacité des publicités, plusieurs procédures peuvent être utilisées : - Evaluer la connaissance et les dispositions du consommateur à l'aide de mesures implicites de la mémoire. On peut sonder les connaissances des consommateurs en demandant aux personnes qui reçoivent le message quelles sont les marques dont elles se souviennent, quelles marques elles envisagent d'acheter pour une catégorie de produits donnée, et ce qu'elles savent de la marque étudiée. On peut également évaluer les dispositions vis-à-vis de la marque en se fondant sur les attitudes globales ou spécifiques suscitées par une marque donnée ainsi que sur le choix de marque. Lorsque la capacité du consommateur à percevoir des informations telles que les noms de marque présente un certain intérêt, on peut recourir à des mesures de la perception, par exemple en leur demandant de compléter des parties de nom. - Les procédures actuellement utilisées pour étudier l'efficacité d'une publicité se concentrent sur le phénomène d'infidélité à la marque. Cependant, sachant que de nombreux annonceurs recourent à la publicité pour conserver leurs clients actuels, il serait pertinent d'introduire des procédures visant à évaluer la fidélité à la marque. Diffuser des publicités concurrentes dans la même séquence que la publicité étudiée permettrait de déterminer si la fidélité à la marque résiste aux attaques de la concurrence. - Il convient de disposer de procédures mesurant l'élasticité de la réaction aux expositions à la publicité. Il s'agit ici de savoir si augmenter le nombre des expositions à la publicité en accroît ou en atténue l'impact. On peut alors déterminer si la supériorité d'une version sur une autre, telle que révélée par un test publicitaire, se vérifie lorsque l'on utilise différents niveaux d'exposition dans un cadre quotidien. - Le contexte dans lequel une publicité est évaluée peut distordre le résultat en faveur d'une version donnée. Les procédures d'évaluation des publicités en dehors d'un programme télévisé et d'autres publicités risquent d'être inadaptées. Il importe de sélectionner des contextes de tests correspondant à ceux dans lesquels la publicité sera diffusée. L'européanisation des forces de vente La définition de l'excellence commerciale est loin d'être universelle. Qu'il s'agisse de recrutement ou de rémunération, les responsables de forces de vente européens, même guidés par des directives précises, ne fondent pas leurs décisions sur les mêmes valeurs. DOMINIQUE ROUZIÈS ET MICHAEL SEGALLA Lorsqu'une entreprise utilise les services d'une force de vente européenne chargée d'établir des partenariats avec les clients de différents pays européens, la tâche des directeurs commerciaux s'avère beaucoup plus complexe que sur le marché national. De même, lorsque les forces de vente nationales de différentes filiales doivent être rapprochées parce que des centrales d'achats européennes ont été créées, les redéploiements commerciaux sont parfois difficiles à mettre en oeuvre. Aujourd'hui, le mouvement de globalisation des entreprises, la transparence introduite par la monnaie unique et le nouveau découpage des zones commerciales sont autant de facteurs qui semblent annoncer une vague de restructurations des forces de vente en Europe. Et, comme c'était le cas des directions marketing Europe qui s'interrogeaient sur le bien-fondé des stratégies européennes il y a quelques années, les directions commerciales Europe se trouvent maintenant au coeur du débat qui oppose les tenants de l'harmonisation à ceux de la gestion de la diversité. La nature des dissensions La logique de la mondialisation des marchés implique que les entreprises doivent rechercher flexibilité stratégique plutôt qu'adaptation culturelle, mais la question
des différences nationales dans le domaine commercial doit pourtant être posée au préalable. A titre d'illustration, citons trois exemples de décisions importantes (recrutement, promotion et rémunération des commerciaux) susceptibles de poser problème aux responsables européens et à propos desquelles des indications peuvent d'ores et déjà être proposées. Considérez le cas d'un directeur commercial Europe souhaitant uniformiser l'approche client. C'est le cas d'exact Software, entreprise hollandaise spécialisée dans les logiciels de gestion financière, qui a décidé d'installer des équipes commerciales dans chaque pays européen afin de garantir le même niveau de service régional à ses clients internationaux. L'une des approches consiste, entre autres, à homogénéiser le profil des équipes et à harmoniser les procédures de recrutement, les types de formation, de suivi, d'orientation, d'évaluation, d'organisation, les systèmes d'information, les procédures de promotion, les plans de rémunération, etc. Certaines entreprises, telles que Ford ou L'Oréal, ont déjà entrepris dans certains cas de standardiser les modes de recrutement de leurs cadres. Mais le succès de ces politiques repose sur celui de leur implantation. Pourquoi? Tout simplement parce que, même guidés par des directives précises, les responsables de forces de vente européens ne fondent pas leurs décisions sur les mêmes valeurs. En d'autres termes, charger des responsables locaux d'identifier les candidats aptes à faire partie d'une équipe européenne de commerciaux d'élite, c'est découvrir à coup sûr que la définition de l'excellence commerciale est loin d'être universelle. C'est ce que confirme d'ailleurs une récente enquête (1) à laquelle participaient près de 1.000 managers de six pays européens et à qui on demandait, entre autres, de recruter des commerciaux pour un poste impliquant le développement d'un marché international. Comme on pouvait s'y attendre, l'analyse de leurs réponses met en évidence le peu de convergence sur les profils de candidats : on sait depuis longtemps que la culture nationale influence les décisions managériales. Ce qu'on sait moins en revanche concerne la nature de ces différences. Ainsi, les managers interrogés utilisent les mêmes critères de sélection, mais ne leur attribuent pas la même pondération. Certaines nationalités (Autrichiens ou Allemands) mettent l'accent sur les compétences techniques des candidats, tandis que d'autres se concentrent sur leur potentiel (les Français surtout). Dans un cas, les managers s'appuient sur des critères d'évaluation plutôt objectifs et destinés à évaluer les capacités présentes des hommes ou des femmes alors que, dans l'autre, les préoccupations sont plutôt tournées vers leur devenir et les évaluations ont plutôt valeur de symbole. Quand ces deux profils coexistent dans la même entreprise européenne, on peut s'interroger sur leur avenir. Quel sera leur parcours organisationnel? Là encore, les réponses divergent. Les managers français, italiens et espagnols interrogés dans l'enquête citée plus haut recommandent davantage que leurs collègues allemands, britanniques ou autrichiens de promouvoir des candidats internes. D'ailleurs, l'analyse de leurs réponses montre leur attachement à leur institution. Ce qui se traduit par une préférence pour les candidats internes, fidèles à leur organisation, à leur groupe. Il semble donc que deux logiques coexistent : une logique latine plus proche des valeurs telles que celles de fidélité à l'entreprise ou d'adaptation au groupe, et une logique anglo-saxonne plus proche d'une logique de marché où la recherche de l'excellence passe par le recrutement international et la promotion externe. Les problèmes posés par une harmonisation de la rémunération des commerciaux paraissent plus préoccupants encore que ceux concernant une harmonisation des procédures de recrutement ou de promotion, parce que, pour nombre de responsables européens, la rémunération exerce un impact direct sur la motivation
des équipes et donc sur la performance commerciale. Pour beaucoup d'entre eux, la politique de rémunération des forces de vente est essentielle à la réussite des stratégies commerciales. Leurs décisions à ce sujet concerneront sans doute autant le niveau que la structure des salaires et devront satisfaire des vendeurs d'horizons différents. Or, puisque des écarts importants ont souvent été répertoriés entre pays européens (comme ceux relatifs aux équilibres fixe/variable), on peut s'attendre à de nombreuses difficultés dans la mise au point de politiques de rémunération européennes. Ainsi, lorsque Steelcase Strafor, par exemple, tente de mettre en place des systèmes équitables de rémunération de ses commerciaux européens, les modes de rémunération sont adaptés aux spécificités des contextes. Et pour cause. L'enquête citée plus haut, qui incluait un volet rémunération, confirme que les facteurs de motivation sont loin d'être homogènes d'un pays à l'autre. Là où les uns voient une incitation à améliorer les performances commerciales, les autres y relèvent une source de démotivation. De surcroît, ceux ayant le plus été exposés à des pratiques diverses, de par leur expérience professionnelle à l'étranger ou dans une organisation étrangère, sont ceux qui réclament la plus grande part variable dans la rémunération des commerciaux. L'argent est-il le premier facteur de motivation? De toute évidence, pas partout. Un grand nombre de managers européens semblent prouver leur attachement à d'autres aspects de leurs activités professionnelles. Inutile d'ajouter que si la motivation d'une équipe locale représente déjà un défi, celle d'une équipe internationale peut s'avérer très complexe. La cohérence L'harmonisation des pratiques de gestion des forces de vente à travers l'europe soulève également la question de la cohérence interne et externe des ensembles de pratiques. Paradoxalement, il s'agit d'un des points les moins abordés dans les débats théoriques. Et pourtant, la cohérence interne des politiques de gestion des commerciaux revêt toute son importance lorsqu'on comprend que c'est sur l'interprétation par les vendeurs de ces ensembles de politiques que se fonde l'action commerciale. Qu'est supposé faire un commercial rémunéré au travers d'un fort taux de commissionnement et de qui on exigerait d'importants retours d'information ou de longues périodes de formation? Chacune de ces demandes a toute chance d'être vécue comme un obstacle à la vente à court terme sur laquelle est assise sa rémunération. D'une façon générale, on ne peut que recommander aux responsables commerciaux de veiller à ce que leurs différentes actions soient compatibles. Sur le plan externe, la cohérence apparaît tout aussi cruciale puisqu'elle concerne le niveau de congruence entre la culture nationale et les ensembles de pratiques de gestion des équipes de vente. En d'autres termes, on peut penser que certains ensembles de pratiques s'accordent davantage avec certains environnements culturels. C'est pourquoi une politique de recrutement fondée sur la sélection de candidats «à potentiel» est sans doute en phase avec une politique de rémunération où la part variable est minime, et cet ensemble s'ajuste probablement mieux à la culture latine d'après les résultats de l'étude citée plus haut. Ces quelques exemples semblent indiquer que les forces de vente européennes du troisième millénaire vont subir d'importantes mutations. Toute la question, bien sûr, est de savoir laquelle conduira à une meilleure performance. En tout état de cause, il est d'ores et déjà possible d'affirmer que le modèle émergent européen sera sans doute différent du modèle américain. * Etude dirigée par Michael Segalla et parrainée par la Fondation HEC. Cette étude a également bénéficié du soutien de l'association européenne de marketing bancaire
(EFMA), de la Communauté des écoles européennes de management (CEMS), de la Fondation nationale pour l'enseignement de la gestion des entreprises (Fnege) et des contributions des chercheurs suivants : Marja Flory (Erasmus, Rotterdam), Alfonso Sauquet (Esade, Barcelone), Rod Scarth (London School of Economics), Lorenz Fisher et Gabriele Jacobs (université de Cologne), Karl Sander et Christiane Muller (université de Vienne), Carlo Turati (université Luigi-Boconi, Milan), Pierre Lemaître (Centre français de la profession bancaire, Paris). Stratégies de prix : conjuguer l'instant et la durée Définir une véritable stratégie de prix, dans un contexte de généralisation des guerres de prix, peut conférer un avantage exceptionnel sur la concurrence. LAURENT MARUANI Parmi les diverses modalités de l'action marketing, la politique de prix présente l'avantage de l'autofinancement. La publicité, la constitution d'une image, la détermination de l'offre et de la gamme et même l'accès efficace à un circuit de distribution - fût-il sur le Net - demandent un investissement initial, ce que les anglophones désignent par un «up front». Le succès est alors apprécié après la dépense. Mais la politique de prix, elle, ne se finance qu'au moment précis où l'acheteur, sensible à l'argument tarifaire, engage une dépense ; elle procure ainsi une recette à l'offreur. Le prix peut être analysé selon deux modalités : la première est relative à la stratégie de fixation, c'est-à-dire les modalités de choix ; la seconde à la détermination de son niveau absolu et des modalités de perception. La majorité des firmes ne traitent que la seconde approche et négligent la première, faute de compétences internes et surtout parce qu'elles agissent souvent dans la hâte de la commercialisation, laissant de côté ou pour le dernier moment la réflexion tarifaire. Le terme anglais de pricing désigne autant la stratégie de prix, l'action donc, que le résultat de cette action, à savoir le niveau du prix. La stratégie de prix est aujourd'hui essentielle pour des raisons simples et fortes. La tendance à la généralisation de la guerre des prix est pourtant mal dominée par les entreprises, de même qu'elle est mal vécue par les dirigeants commerciaux, alors que de véritables opportunités s'ouvrent. Une stratégie de prix peut en effet conférer un avantage exceptionnel sur la concurrence. Systèmes de référence La difficulté de l'analyse économique des prix est manifeste, malgré d'excellentes publications, souvent anglo-saxonnes et de façon surprenante assez anciennes en regard de leur modernité d'application (1). Trois systèmes dominent et dépendent du secteur d'activité, de la culture de l'entreprise et du leadership en matière de prix : ils se fondent sur les coûts, la concurrence et la valeur. * Le prix comme contrepartie des coûts Fonder ses prix sur les coûts est d'autant plus facile que le marché est mûr, sans perspectives majeures de productivité et que la concurrence est stabilisée. Nous disons bien le marché et non le produit. Par exemple, les communications téléphoniques internationales ont été longtemps un oligopole (2), avant que les déréglementations ne viennent mettre fin à ce système de club se partageant des rentes issues de la protection publique de prix élevés. Mais ce système de prix n'est pas aussi simple qu'il y paraît en surface. En effet,
sur quels coûts est-il aujourd'hui légitime de s'appuyer pour fixer un prix? Le coût moyen, égal au coût total divisé par le volume produit, est intuitivement la bonne référence. Pourtant, les entreprises sont amenées à rechercher constamment des gains de productivité et c'est le coût marginal - à savoir celui de la dernière unité produite (3) - qui mène le jeu tarifaire. On se retrouve donc aujourd'hui fréquemment devant une situation en séquence de concurrence extrême à cause de prix fondés sur les coûts et qui est la suivante : les firmes investissent pour abaisser leurs coûts de production. De fait, elles y arrivent et le coût marginal est inférieur au coût moyen, abaissant mécaniquement ce dernier. Mais l'investissement nécessaire pour cet abaissement est lui-même un coût fixe qui entre en compte dans le coût moyen et tend à l'élever temporairement. De ce fait, l'écart se creuse à court terme entre le coût moyen et le coût marginal. La tendance à la baisse des prix est alors engagée par cette logique de la guerre des coûts. La dynamique de la concurrence par les prix se fait en référence au coût marginal et non au coût moyen, pour la simple raison que tout prix supérieur au coût marginal dégage une contribution à la couverture des coûts fixes, une marge sur coût variable. Dans cette course typique du monde industriel, les gagnants sont les survivants, à savoir ceux qui disposent d'argent ou de temps, ce qui revient parfois au même concept en management. La surabondance de l'offre actuelle en biens et services rend plus délicate la pertinence de l'investissement : ne doit-on pas sauter une génération d'équipement? Un concurrent qui serait plus prudent ne va-t-il pas simultanément mieux rentabiliser ses équipements, mieux investir et peut-être même envisager une croissance externe qui lui permettra de reconstituer souvent à faible coût de transaction une offre moderne située chez une proie moins solide ou désireuse de réaliser ses actifs? Plus généralement, l'observation des firmes actuelles montre que les actions d'abaissement des coûts sur une structure donnée sont essentiellement une affaire de technique. Ce qui est important, difficile et stratégique pour une entreprise dans la relation entre les coûts et les prix, c'est premièrement de savoir dépenser et choisir les investissements en intégrant les objectifs de prix de vente des productions qui en seront issues, et deuxièmement de mener une stratégie qui fasse du prix le reflet de l'ensemble des autres éléments du marketing mix. Le prix est, en effet, une parole unique et synthétique que la firme énonce en contre-champ de l'ensemble des qualités de son offre. C'est sous cette condition que la stratégie de prix fondée sur les coûts sera pertinente et acceptée par les analystes financiers. * Le prix fondé sur la concurrence Imiter la concurrence et en être imité est le moteur même de l'analyse des marchés. Dans cette course sans fin, les avantages marginaux deviennent essentiels car toutes les firmes tendent à s'aligner sur un prix jamais décidé et partout appliqué. Néanmoins, plusieurs stratégies sont possibles dans ce système de prix de concurrence. La difficulté de toutes est de savoir qui est légitimement son concurrent le plus proche, le plus menaçant, sans chercher à affronter une théorique concurrence générale. On peut en particulier ne jamais être innovant en termes de prix mais suivre, moyennant une légère baisse, le concurrent jugé le plus proche afin de prendre sur lui un avantage final (théorie du «fast follower»). A ce jeu, des secteurs entiers révèlent des tendances suicidaires sur les prix. L'informatique en est un bel exemple contemporain. Les composants électroniques et les mémoires ont su enrayer cette chute annoncée. Demain, la concurrence sur le Web risque d'amener un effondrement non seulement de nombre d'opérateurs, mais aussi de ceux qui n'auront pas retiré leurs engagements boursiers de façon
intelligente, en les réservant pour les firmes qui seront véritablement les vainqueurs de la partie époustouflante qui se poursuit dans les technologies et services de l'information. De même, les industriels des sciences de la vie devront rapidement avoir des stratégies de prix dignes de ce nom en relais des actions de communication et de recherche, sur fond d'alliances et de restructurations brutales. * Le prix fondé sur la valeur Beaucoup non seulement fondent leurs espoirs de sortie de guerre des prix sur la fixation des prix sur la valeur, mais aussi l'érigent en véritable idéologie. C'est l'apothéose du consommateur, un client sachant ce qu'il veut, ce que cela vaut et quels avantages il retirera d'une offre qui lui est faite. Il y a certes beaucoup de justesse dans cette analyse. Mais tant de firmes portent leurs espoirs sur une approche quasi naïve de la valeur, sans voir que presque tous leurs concurrents se mettent à cette approche, qu'il faut les en alerter. L'enjeu n'est pas de donner le plus de valeur à son offre pour un client, mais le plus de conformité à la promesse et le plus de surplus (4). Les méthodes de compréhension et de mesure de la valeur se développent activement aujourd'hui et constituent un axe majeur de développement du marketing du prix. Lorsqu'une entreprise choisit l'un des trois systèmes, les deux autres deviennent des contraintes qui s'imposent à elle : le prix de concurrence est-il compatible avec nos coûts et la valeur de notre offre, les prix fixés par les coûts sont-ils concurrentiels, les prix que le marketing appuie sur la valeur sont-ils cohérents avec nos coûts et les prix du marché de concurrence? Agir stratégiquement C'est en premier lieu vers elle-même que la firme doit se tourner. L'opposition renforcée entre les gens de marketing et les commerciaux, sous le regard vigilant du contrôle de gestion, empoisonne trop souvent les possibilités de détermination d'une stratégie de prix. Les commerciaux, payés essentiellement au volume des ventes et non aux marges, sont tentés de baisser les prix et d'être les délégués économiques de leurs clients envers leur employeur. Le marketing, souvent coincé entre des entreprises à culture technique et des commerciaux rompus aux négociations avec les clients, ne tient pas assez la place qui lui revient : déterminer le potentiel de vente par ligne de produit et par marchés et trouver un moyen optimum de l'atteindre, en particulier par la stratégie de prix. Le prix représente alors le potentiel réaliste de recette unitaire moyenne sur un marché. En deuxième lieu, il importe de distinguer les marchés instantanés, marchés à fonctionnement de type boursier, des marchés à plus long terme. Les premiers, qui fonctionnent de façon essentiellement spéculative lorsqu'il s'agit de très court terme mais de manière assez inerte à long terme, demandent une observation de deux paramètres : le désir d'achat et la capacité à payer. L'efficacité d'un «yield», c'est-à-dire d'un ajustement des prix discriminé dans l'espace et dans le temps afin de maximiser les recettes et les marges totales, est une réponse des offreurs à cette conjonction du désir et de la capacité à payer des consommateurs : prix des places de théâtre, des sièges d'avion ou soldes en sont des exemples classiques. La valeur d'achat d'une entreprise relève aussi de ce cas de figure. Les marchés à plus long terme, plus traditionnels de conception, s'accompagnent souvent d'opérations d'ajustements instantanés que nous pouvons qualifier de trading (pétrole, énergie) : l'industriel régule ses prix par une optimisation à court terme de ses approvisionnements. Enfin, et pour limiter le propos à trois formes d'actions, agir stratégiquement sur les prix suppose que l'on sache limiter ses ambitions aux clients que l'on juge
véritablement intéressants pour la firme. La course au volume et à la taille ne donne pas forcément plus de valeur dans un monde économique où la valorisation boursière est un critère qui domine non seulement l'emploi créé, mais aussi le profit généré. Dès lors que le marché n'est plus, au sens économique classique, seulement le lieu où l'offre et la demande s'équilibrent par le prix, mais désigne l'ensemble des concurrents que l'on rencontre sur une offre donnée (définition de Derek Abell), les stratégies de prix ne visent plus à se soumettre à l'équilibre, mais à l'affirmation des choix de l'entreprise. En ce sens, elles permettent à l'entrepreneur de retrouver des libertés d'action. Sur la base de ces réflexions parfois austères, on pourra alors développer des attaques ou des défenses stratégiques d'importance en sachant anticiper les positionnements, les réactions des concurrents et les évolutions de la nature de la demande. * (1) J. Robinson, «The Economics of Imperfect Competition», Cambridge 1933, E.H. Chamberlin, «The Theory of Monopolistic Competition», Harvard University Press, Cambridge 1965, R.L. Hall, «Price Theory and Business Behaviour», Oxford Economic Papers, numéro 2, mai 1939, pages 12 à 45. (2) Lorsque quelques firmes dominent un marché. Le «ticket d'entrée» dans l'activité est dissuasif pour des petites firmes. Les membres de l'oligopole arrivent à imposer une politique de prix garantissant les marges. L'oligopole peut être collusif, ce qui est interdit, mais la collusion est souvent plus implicite qu'explicite, sa visibilité peut être faible. (3) Si CT est le coût total et Q la quantité produite, le coût moyen CM est égal à CT/Q et le coût marginal Cm est la dérivée mathématique du coût total, soit dct/dq. De fait, si CT est constitué de coûts fixes CF et de coûts variables CV, alors Cm = dcv/dq puisque la dérivée des coûts fixes est nulle. Sans manipuler d'équations, les documents comptables permettent en général d'approcher assez bien ces valeurs. (4) Au sens microéconomique : à savoir l'écart entre le prix de réservation que le client serait prêt à mettre dans le bien ou le service et le prix réel. Ce surplus, indicateur de contentement, est donc virtuel et ne se conçoit que combiné à une segmentation marketing rigoureuse et intelligente de la clientèle pour être opérationnel. Chapitre 7 Les dividendes du pionnier Etre le premier à s'introduire sur un nouveau marché présente de nombreux avantages. Mais ce principe clef du marketing peut être remis en question au profit de la stratégie du suiveur. MARKUS CHRISTEN Le moment de l'introduction sur le marché est un facteur déterminant dans le succès d'un nouveau produit. L'entreprise a le choix entre deux stratégies : attaquer le marché la première ou attendre qu'un concurrent montre l'exemple et lui emboîter le pas quand le marché se montre viable. Sony, Intel, Merck et 3M, entre autres, font partie des sociétés qui font le premier pas. Elles sont toujours en quête de nouveaux produits et marchés et investissent lourdement dans la recherche et développement pour soutenir leurs objectifs stratégiques. A l'inverse, Matsushita lance après Sony ses nouveaux produits d'électronique
grand public ; AMD et Cyrix laissent à Intel le soin de sortir les nouvelles générations de microprocesseurs et s'empressent de suivre avec des offres à un prix inférieur ; enfin, de nombreuses sociétés de produits pharmaceutiques comme Novopharm et Ratiopharm ne cherchent nullement à investir dans le développement de nouveaux médicaments, mais concentrent leurs efforts sur les versions génériques des produits existants. Tout ceci soulève une question stratégique intéressante : vaut-il mieux prendre les devants et être le premier à lancer un nouveau produit, ou attendre et opter pour le suivisme? «Etre le premier sur le marché» est un des principes stratégiques marketing les plus persistants. Il est basé sur l'idée que le pionnier a des avantages durables en termes de parts de marché, de distribution, de lignes de produits et de qualité. Néanmoins, depuis quelques années, ce principe est de plus en plus critiqué, même si les faits militent encore en sa faveur. Les critiques portent essentiellement sur trois points. * Biais statistique Les informations contenues dans les différentes bases de données utilisées pour étudier l'impact de la position de pionnier ne portent que sur les sociétés survivantes. De plus, la classification des entreprises dans le groupe des pionniers ou des «suiveurs» s'appuie sur les réponses données par le personnel en fonction. On estime que ces difficultés auraient pu conduire les chercheurs à surévaluer l'impact de la position de pionnier. * La causalité plutôt que la corrélation L'avantage d'être pionnier est la conclusion que l'on a tirée des différences observées entre les pionniers et les autres. De l'analyse des données de la base PIMS (Profit Impact of Market Strategies) il ressort que la part de marché des pionniers s'élève à 29 % environ, celle des premiers suiveurs à 20 % et celle des entrants tardifs à 15 %. Cependant, cette constatation à elle seule ne permet pas de conclure que la position de pionnier est directement la cause de son bénéfice en termes de parts de marché. En effet, on peut supposer que des sociétés bien gérées soient plus aptes à attaquer un marché en premier. Parallèlement, il est tout aussi logique que ces sociétés bien gérées aient des parts de marché plus élevées. Sans que la différence de parts de marché résulte de la position de pionnier. * Les parts de marché plutôt que le profit Les études se sont focalisées sur les parts de marché du pionnier, sans prêter attention à la question de la rentabilité. Or, de plus grandes parts de marché n'engendrent pas ipso facto des profits plus élevés. L'objectif de cet article est donc de reconsidérer la validité du principe d'être le premier sur le marché. Il repose sur des études récentes et vise à dessiner un tableau plus nuancé des répercussions de la position de pionnier sur les résultats des entreprises. Avantages sur le marché En dépit des limites de la recherche actuelle, personne ne nie les avantages potentiels à être un pionnier. Au fil des ans, il s'est développé une longue liste de
sources susceptibles de générer un avantage durable pour les pionniers. Celles-ci se divisent en deux grandes catégories : les sources liées aux clients et celles liées à l'opérationnel ou aux coûts. Nous commencerons par envisager les premières. * L'éducation du client et le «modelage» de ses préférences Au départ, dans la majorité des cas, le client ne sait pas dans quelle mesure les propriétés et les caractéristiques du produit contribuent à sa valeur. Les préférences pour les différentes caractéristiques et les niveaux de caractéristiques souhaités s'acquièrent au fil du temps. Par conséquent, le pionnier a toute latitude pour modeler les préférences à son avantage. Il finit par définir une norme à laquelle tous les clients se réfèrent ensuite pour évaluer les produits des suiveurs. Son produit devient le prototype, le référent pour toute la catégorie. Des marques comme Walkman, Kleenex, Polaroid et Hoover en sont la preuve. * L'accès privilégié aux clients Lorsqu'il est lancé sur le marché, le produit du pionnier est perçu comme une grande nouveauté. De ce fait, il est le point de mire des clients et des distributeurs. Sa publicité n'est pas noyée dans celle de la concurrence et les suiveurs devront généralement réaliser des investissements publicitaires plus importants pour obtenir le même impact, même à long terme. Le pionnier définit les normes de la distribution, occupe les emplacements privilégiés et choisit les meilleurs distributeurs, ce qui lui permet de toucher plus facilement les clients. Dans de nombreuses villes américaines, par exemple, la marque de café Starbucks a réussi en sa qualité de pionnier à ouvrir des «coffee bars» dans des sites plus en vue que ceux de ses concurrents. Enfin, dans les secteurs industriels, les suiveurs se heurtent à la réticence des distributeurs, peu disposés à accepter un second ou un troisième produit, particulièrement lorsqu'il est techniquement sophistiqué ou exige des stocks importants. * Les coûts de transfert Des coûts de transfert sont générés quand le changement pour un autre produit entraîne la perte d'investissements déjà réalisés. Un exemple : la plupart des gens sont formés sur le clavier Qwerty classique (équivalent anglo-saxon de l'azerty). S'ils veulent passer à un clavier Dvorak, réputé plus performant, ils devront se réinitier à la frappe. Cet investissement dépasse souvent le surcroît d'efficacité attendu. On retrouve encore des coûts de transfert lorsque la qualité d'un produit est difficile à évaluer. Les personnes qui partent à l'étranger, par exemple, expérimentent souvent ce type de «coût» lorsqu'elles ont du mal à prendre des décisions aussi simples que l'achat d'une lessive, d'un dentifrice ou d'un paquet de café, parce qu'elles ne retrouvent plus les marques auxquelles elles font confiance dans leur pays d'origine. Le produit du pionnier est le premier à pouvoir acquérir cette confiance. En revanche, les suiveurs devront convaincre les clients de supporter le coût et le risque du changement pour une marque dont ils ne connaissent pas la qualité et qu'ils n'ont jamais essayée. * Les externalités de réseaux La valeur des produits de haute technologie n'est pas seulement liée à leurs caractéristiques, mais aussi au nombre d'utilisateurs. L'intérêt d'un téléphone-
visiophone, par exemple, dépend du nombre de personnes utilisant un système identique ou compatible. Là encore, le pionnier a manifestement tout le loisir de meubler le terrain avant que les concurrents ne suivent, ce qui limite ensuite pour eux la possibilité de lancer des produits différenciés. L'importance du nombre d'utilisateurs a d'autres avantages tels que le partage des documents par ordinateur. Ainsi, les sociétés qui développent des logiciels sont souvent tentées d'abandonner leurs produits pour créer rapidement un nouveau marché et un nouveau standard. Avantages opérationnels du pionnier Les sources d'avantages basées sur l'opérationnel se divisent en trois catégories principales. * La force de l'expérience et les économies d'échelle Par définition, le pionnier est bien placé pour accroître son volume de production, déployer son service de recherche et de développement et se forger une expertise avant tous les autres. Cet avantage potentiel en termes de coût lui permet de pratiquer des marges plus élevées ou de protéger son marché en baissant ses prix pour dissuader l'entrée éventuelle d'autres concurrents. Cependant, il ne conservera son avantage que s'il garde l'exclusivité sur cette expérience accumulée. Or, différentes études montrent que la diffusion interentreprises de la technologie et des connaissances va très vite dans la plupart des secteurs d'activité. L'ingénierie à rebours, la publication des études, les visites d'usines, la mobilité de la main d'oeuvre, l'appel à des consultants externes, etc., sont autant de facteurs qui favorisent cette diffusion. * Les brevets Le brevet est un moyen de garder une exclusivité et de faire obstacle aux imitations. Néanmoins, à part dans quelques secteurs industriels comme l'industrie pharmaceutique, il constitue rarement une barrière infranchissable. En effet, les brevets sont imités en moyenne dans les quatre ans qui suivent, avec un investissement qui ne dépasse pas 65 % des coûts supportés par l'innovateur. En outre, le dépôt de brevet est une démarche longue et coûteuse qui exige la divulgation d'informations détaillées susceptibles de profiter aux suivants. * La préemption de ressources rares Le pionnier est en mesure d'acquérir des ressources rares à un moment où la demande est encore faible et où celles-ci sont par conséquent moins coûteuses. Dans certains, il pourra aller jusqu'à monopoliser un facteur de production. À titre d'exemple, Minnetonka aux États-Unis, a réussi à protéger son nouveau produit Softsoap - le premier savon-crème - contre un concurrent aussi puissant que Procter & Gamble en s'approvisionnant pour un an en pompes plastiques pour équiper ses flacons. Par la suite, P&G devait s'imposer par sa taille et évincer Ivory Soap. Cependant, si une ressource reste rare, sa valeur augmente et l'incitation à rechercher d'autres sources ou substituts grandit. Quand il entre sur le marché, le pionnier ne sait pas toujours très exactement quelles sont les ressources critiques. Il arrive même que le propriétaire d'une ressource rare tire à lui une partie de la couverture. Ainsi, Drexel, Burnham & Lambert a été la première société à lancer les junk bonds, ce qui n'a pas empêché Michael Milken, le principal collaborateur à l'origine du succès de la société, de gagner plus que son employeur à un moment
donné. Les avantages pour l'entrant ultérieur Les sources d'avantage pour les entrants ultérieurs se divisent en deux catégories : ils profitent d'un terrain déjà défriché et de l'inertie subséquente. * Un terrain déjà défriché Par définition, le pionnier est le premier à investir des ressources significatives dans des domaines tels que la recherche et le développement, l'infrastructure du marché, l'éducation des clients et la formation des salariés. Mais, il ne peut pas toujours garder l'exclusivité sur ces investissements. En d'autres termes, les suivants profitent du terrain qu'il a déjà défriché sans que cela ne leur coûte rien. - IBM, sans être le pionnier, a été le premier à faire de son PC un standard pour toute la catégorie de produits. Ceci a permis aux fabricants de clones qui ont suivi IBM, comme Compaq, de profiter d'un vaste marché sans avoir à supporter ses coûts de développement. - Convaincre les distributeurs d'accepter une seconde marque dans une catégorie de produits qui marche est moins difficile que de les persuader d'offrir un petit espace dans leur linéaire à une nouvelle catégorie non encore testée. - Avant l'arrivée de Starbucks, peu d'américains était prêts à dépenser plus pour un bon café. Aujourd'hui, tous les cafés aux États-Unis bénéficient des efforts d'éducation du consommateur réalisés par Starbucks. - À l'avenir, la généralisation des voitures électriques exigera un réseau de stations pour recharger les batteries. Un investissement qui sera sans doute supporté en grande partie par les pionniers de ce marché. * L'inertie subséquente Quand de nouveaux entrants arrivent sur marché, ils possèdent nettement plus d'informations que les pionniers au départ et font face à moins d'inconnues sur les clients et la technologie. Ils peuvent reprendre les meilleures stratégies et éviter les erreurs du pionnier. Avant qu'un marché n'existe, les études ne sont pas très fiables et ce n'est que lorsque les clients ont une certaine expérience du produit qu'ils peuvent décrire leurs préférences. Ainsi, avant d'entrer sur le marché américain, Toyota avait interrogé les propriétaires de Volkswagen, leader sur le marché des petits modèles à ce momentlà, pour connaître les goûts des consommateurs à cet égard. En fait, bien que les pionniers puissent avoir accès à la même information nouvelle, ils ne se donnent pas souvent les moyens d'en profiter. L'inertie n'est pas forcément irrationnelle. En effet, les sociétés ont des actifs spécifiques et les coûts de transfert auxquels sont confrontés les pionniers rendent les nouvelles stratégies moins attractives pour eux que pour les suivants. Avec des investissements dans des actifs existants, les variations incrémentales semblent souvent moins séduisantes que des changements radicaux. Ainsi, si IBM pouvait craindre que les PC ne cannibalisent son activité de macroordinateurs, cette préoccupation ne devait guère embarrasser les fabricants de clones. De la même manière, Dell est mieux placé pour tirer parti de la vente directe d'ordinateurs sur Internet que les fabricants de PC comme IBM ou Compaq, obligés d'envisager les répercussions sur leur circuit de distributeurs.
Et même quand les arguments économiques militent en faveur de changements radicaux, la résistance des sociétés, salariés y compris, est généralement très forte. L'impact à long terme de la position de pionnier Toutes les études, qu'elles soient théoriques, empiriques ou expérimentales, confirment sans ambiguïté l'existence et la pérennité des sources d'avantages liés au marché ou aux clients. Ce sont elles qui permettent au pionnier de se tailler la plus grande part de marché et de la conserver. Les nouvelles analyses effectuées confirment ces résultats, même en tenant compte du biais des survivants et de la causalité par opposition à la corrélation (deux facteurs soulignés ci-dessus). Il n'en va pas de même pour les sources d'avantages opérationnels. Celles-ci ne garantissent pas au pionnier un bénéfice pérenne sur les coûts. Un bénéfice que pourront donc s'approprier les entrants ultérieurs en exploitant leurs propres sources d'avantages. Ce schéma se vérifie surtout pour les produits de grande consommation. En résumé, le pionnier accapare en moyenne une plus grande part de marché que les entrants ultérieurs, qui contrecarrent cet avantage en profitant de coûts plus bas. Ceci nous amène à la question suivante : l'un de ces avantages est-il supérieur à l'autre ou les deux se valent-ils? L'un des moyens permettant de répondre à cette question est d'examiner l'impact à long terme de la position de pionnier sur la rentabilité (bénéfice net ou retour sur investissement, disons). Là, tout dépend de savoir quel est l'avantage dominant : si c'est la part de marché, la rentabilité du pionnier sera bien évidemment plus forte, mais si ce sont les coûts, le suivisme est une stratégie qui paie plus. En 1997, j'ai effectué avec un collègue une étude sur la base de données PIMS afin de déterminer quelle était la situation prédominante. Nos résultats montrent qu'en moyenne l'entrant ultérieur dégage une meilleure rentabilité que le pionnier. Cet handicap du pionnier est généralement moindre sur le marché business-to-business que sur les marchés grand public. De plus, dans les premières années suivant son entrée, il génère des profits plus importants, spécialement sur les marchés consommateurs. Malheureusement, cet avantage se dilue dans le temps et devient ensuite un aléa. Conclusion Les sociétés qui envisagent de se lancer sur un nouveau marché ont intérêt à peser soigneusement toutes les sources d'avantages et d'inconvénients. Le pari sur un avantage pérenne pour le pionnier doit être mesuré. La part de marché s'acquiert souvent plus facilement que l'efficacité opérationnelle et généralement au détriment de celle-ci. Le pionnier doit donc veiller à garder une grande flexibilité opérationnelle et ne pas hésiter à tirer des enseignements des stratégies mises en place par les entrants ultérieurs. cencadrés Pourquoi être le premier sur le marché? L'étude qui précède remet en question le principe marketing qui veut que l'on cherche à «être le premier sur le marché» pour profiter de l'avantage à long terme de la position de pionnier. Alors, si les profits à long terme du pionnier sont inférieurs à ceux des suivants, pourquoi y a-t-il encore tant de pionniers?
Il y a quatre raisons principales à cela. En premier lieu, comme le montre l'étude ci-dessus, les pionniers s'assurent les profits les plus élevés au moins au départ, même si cela ne dure pas à long terme. Par conséquent, en présence de taux de réduction suffisamment élevés, les profits à long terme ne jouent qu'un rôle limité dans le choix du moment de l'entrée sur le marché. En d'autres termes, la position de pionnier peut se justifier par ses bénéfices à court terme plutôt qu'à long terme. Certaines sociétés investissent leurs profits à court terme dans la recherche et le développement afin d'anticiper leur prochaine entrée. L'idée est de générer un cycle continu d'innovations, sans attendre d'être rattrapé par les suivants ou de voir les profits décliner. Gillette, par exemple, poursuit une stratégie de ce type. En second lieu, la position de pionnier peut ne pas être la meilleure stratégie pour un produit ou une business unit, mais s'avérer optimale pour une mise en oeuvre transversale sur tous les marchés de la société. 3M, par exemple, n'a pas bâti son succès à long terme sur une seule nouveauté comme le Post-it, mais bien sur un flot continu d'innovations. Une stratégie étayée par les objectifs du groupe : 3M entend dégager 30 % de son chiffre d'affaires avec ses produits de moins de cinq ans et 10 % avec ceux de moins de 12 ans. En troisième lieu, pour décider du moment de l'entrée sur le marché, il faut mettre sur la balance les avantages et les inconvénients éventuels. Le pionnier qui espère tirer le maximum de sa position sera tenté d'investir davantage et de prendre plus de risques pour dominer les autres. Malheureusement, il tend aussi à gonfler l'ampleur de son avantage. C'est ce que l'on appelle «la malédiction du gagnant», un phénomène observé, par exemple, dans les adjudications de licences de forage pétrolier. En fin de compte, si les «dividendes» du pionnier sont moins élevés, il y a cependant des circonstances où les avantages outrepassent les inconvénients. Ainsi, quand son produit est adopté par une clientèle qui n'est pas prête à s'ouvrir à d'autres possibilités, le pionnier a tout le temps de s'assurer des profits. Généralement, le client ne se laisse pas facilement éduquer quand le produit n'est pas suffisamment important à ses yeux pour justifier l'évaluation d'une nouvelle version ; tel est le cas lorsque la qualité d'un produit est difficilement décelable, que celui-ci est relativement coûteux et que les achats sont peu fréquents. Une description qui s'applique en réalité à de nombreux produits durables. En revanche, les acheteurs industriels sont plus disposés à évaluer les différentes options possibles avant de prendre leur décision, ce qui explique que la position de pionnier a moins d'impact dans le secteur industriel. Pourquoi être le premier sur le marché? L'étude présentée ici remet en question le principe marketing qui veut que l'on doit chercher à «être le premier sur le marché» pour profiter de l'avantage à long terme de la position de pionnier. Mais si les profits à long terme du pionnier sont inférieurs à ceux des suiveurs, pourquoi y a-t-il encore tant de pionniers? Quatre raisons principales à cela. En premier lieu, comme le montre l'étude, les pionniers s'assurent les bénéfices les plus élevés au moins au départ, même si cela ne dure pas sur le long terme. Par conséquent, les profits à long terme n'ont qu'une influence limitée sur le choix du moment de l'introduction sur le marché. Autrement dit, la position de pionnier peut se justifier par ses bénéfices à court terme plutôt qu'à long terme. Certaines entreprises investissent leurs profits à court terme dans la R&D afin d'anticiper leur prochaine introduction. L'idée est de générer un cycle continu d'innovations, sans attendre d'être rattrapé par les
suiveurs ou de voir les profits décliner. Gillette, entre autres, poursuit une stratégie de ce type. En second lieu, la position de pionnier peut ne pas être la meilleure stratégie pour lancer un produit, mais s'avérer optimale pour une mise en oeuvre transversale sur tous les marchés de la société. 3M, par exemple, n'a pas bâti son succès à long terme sur une seule nouveauté comme le Post-it, mais bien sur un flot continu d'innovations. Une stratégie étayée par les objectifs du groupe : 3M entend dégager 30 % de son chiffre d'affaires avec ses produits de moins de cinq ans et 10 % avec ceux de moins de douze ans. En troisième lieu, pour décider du moment de l'introduction sur le marché, il convient de peser les avantages et les inconvénients éventuels. Le pionnier qui espère tirer le maximum de sa position sera tenté d'investir davantage et de prendre plus de risques pour dominer les autres. Malheureusement, il tend aussi à gonfler l'ampleur de son avantage. C'est ce que l'on appelle «la malédiction du gagnant», un phénomène observé, par exemple, dans les adjudications de licences de forage pétrolier. En fin de compte, si les «dividendes» du pionnier sont moins élevés, il y a cependant des circonstances où les avantages dépassent les inconvénients. Ainsi, quand son produit est adopté par une clientèle qui n'est pas prête à s'ouvrir à d'autres possibilités, le pionnier a tout le temps de s'assurer des profits. Généralement, le client ne se laisse pas facilement éduquer quand le produit ne lui paraît pas suffisamment important pour justifier une nouvelle version ; tel est le cas lorsque la qualité d'un produit est difficilement décelable, que celui-ci est relativement coûteux et que les achats sont peu fréquents. Une description qui s'applique en fait à de nombreux produits durables. Les acheteurs industriels sont, eux, plus disposés à évaluer les différentes options possibles avant de prendre leur décision, ce qui explique que la position de pionnier a moins d'impact dans le secteur industriel. Les choix stratégiques des suiveurs Pour concurrencer un premier entrant, le suiveur doit mettre en place une stratégie fondée sur trois impératifs : évaluer l'importance de ses ressources, déterminer sa capacité d'innovation et connaître la perception par les clients de la qualité des produits de l'entreprise pionnière. LAKSHMAN KRISHNAMURTHI ET VENKATESH SHANKAR Etre le premier sur le marché ou attendre : cette décision n'est pas facile à prendre pour une entreprise, car ces deux stratégies ont chacune leurs avantages respectifs. Les études montrent que le pionnier rentabilise mieux ses investissements publicitaires et promotionnels. Il peut pratiquer des prix plus élevés et modeler à son avantage les préférences des consommateurs, si elles sont ambiguës, dans une nouvelle catégorie de produits. C'est également une position avantageuse lorsqu'il existe de nombreuses inconnues sur les performances d'un nouveau produit ou des coûts de transfert élevés (voir l'article pages VI et VII). De son côté, le suiveur profite de tout le travail réalisé par le pionnier pour créer la nouvelle catégorie de produits, sans que cela ne lui coûte rien. Il peut tirer des leçons des erreurs déjà commises et utiliser à bon escient la perception qu'ont les clients de la qualité des produits. Attendre est souvent la meilleure stratégie pour l'entreprise qui arrive avec un produit innovant, car elle a toutes les chances de croître plus vite que le pionnier en affaiblissant l'impact des campagnes marketing de ce dernier, et d'afficher un taux de renouvellement d'achats supérieur. Comment une société doit-elle planifier son introduction sur le marché? Quand vaut-il mieux être la première et quand vaut-il mieux suivre? La décision à prendre sera guidée par les réponses aux questions présentées dans le tableau 1.
* Quel est le cycle de vie potentiel de la catégorie de produits? L'un des avantages du pionnier, c'est de générer du profit pendant toute la période où il détient le monopole de ce produit sur le marché. Plus le cycle de vie de la catégorie de produits est court, plus ce monopole sur cette catégorie est durable. Dans cette hypothèse, arriver le premier sur le marché est une excellente stratégie. Certains logiciels - ceux conçus pour le passage à l'an 2000 par exemple - ont un horizon limité sur le plan commercial. * Quel est le coût estimé de l'imitation? Dans de nombreuses catégories de produits, le coût de l'imitation reste faible par rapport au coût de développement supporté par le pionnier. Une étude réalisée dans le secteur de l'outillage, de l'électronique ainsi que des produits chimiques et pharmaceutiques montre qu'en moyenne le coût de l'imitation ne dépasse pas 65 % des coûts de développement supportés par le pionnier. Dans ce cas, mieux vaut ne pas se précipiter. Toutefois, dans certaines situations, les pionniers obtiennent des brevets porteurs de valeur qui font grimper le coût de l'imitation. Polaroid, par exemple, a pu réaliser d'excellentes marges sur son appareil photo à développement instantané grâce à un brevet longue durée. * Quelle est l'importance des ressources de l'entreprise? Une société disposant de larges ressources n'a pas besoin de bouger la première. Elle a même intérêt à laisser les autres prendre ce risque. En entrant plus tard sur le nouveau marché, elle peut tirer profit de l'investissement déjà réalisé par le pionnier, puis l'évincer. Combien de petits pionniers dans l'histoire des affaires ont ensuite été éclipsés par des géants? Il suffit de prendre l'exemple de Minnetonka qui a lancé le premier distributeur de savon-crème sur le marché américain avant d'être détrôné par la marque Ivory Soap de Procter & Gamble. Microsoft aussi a additionné les succès sur plusieurs marchés en arrivant plus tard avec des ressources plus importantes. * Quelle est l'importance estimée des coûts de transfert sur ce marché? Dans certains secteurs, le passage d'une marque à l'autre coûte très cher au consommateur, ce qui offre la possibilité au pionnier de s'approprier le marché avant l'arrivée des suiveurs. La tâche alors est énorme pour les suiveurs, qui n'ont souvent pas d'autre solution que de se battre uniquement pour les nouveaux clients. Un schéma qui se vérifie particulièrement dans les marchés industriels et business-to-business. * Quelle est la place du capital de marque dans le choix du consommateur? Le capital de marque peut être un facteur critique dans certains marchés, et beaucoup moins important dans d'autres. Prenez l'exemple du Palm Pilot de US Robotics (aujourd'hui 3Com), un organiseur électronique sorti après des produits comme le Newton d'apple ou l'envoy de Motorola. Malgré la plus grande notoriété et le capital de marque plus fort d'apple et de Motorola, il leur manquait un élément, à savoir un logiciel de reconnaissance d'écriture de haute qualité, capital pour le fonctionnement de ce type d'appareil. Palm Pilot a été le premier à intégrer ce logiciel tout en perfectionnant d'autres fonctions. La qualité du produit de la firme US Robotics a donc permis à celle-ci de surmonter son handicap sur le capital de marque. Les autres marques ont bien
essayé ensuite de se mettre au même niveau de qualité, mais le Palm Pilot a toujours eu la préférence de nombreux consommateurs. Il n'en est pas moins vrai qu'un capital de marque allié à une qualité de produit satisfaisante milite en faveur du pionnier. Ainsi, quand Hewlett-Packard a lancé la première imprimante laser pour le marché des ordinateurs de bureau, l'impact du nom HP cumulé à la qualité supérieure de la HP Laserjet explique qu'elle soit devenue le standard. * Quel est le coût potentiel de l'éducation des consommateurs? Si le coût de l'éducation des consommateurs s'avère important dans un nouveau marché, les suiveurs peuvent se contenter de récupérer les fruits du travail du pionnier. Une situation nettement plus enviable. Le marché de la scanographie est un bon exemple. Quand la firme EMI a lancé son nouveau système de tomographie informatisée en 1972, elle a eu beaucoup de mal à convaincre le corps médical sur l'intérêt de celui-ci. Pour inciter les clients à tester son scanner, elle est même allée jusqu'à leur proposer un an de service après-vente gratuit sur les modèles neufs. En 1976, c'était au tour de General Electric (GE) d'arriver sur le marché. L'idée de la scanographie était déjà vendue et il ne restait plus à GE qu'à persuader le corps médical de la supériorité de son produit par rapport à celui d'emi. C'est bien ce que fit le groupe et la tâche lui fut d'autant plus facile qu'il avait déjà accès au marché en sa qualité de fournisseur de matériel de radiographie classique. Cette stratégie a aussi permis aux scanners de troisième génération de GE de réussir là où EMI avait échoué. A l'arrivée de GE en 1976, EMI était pourtant bien implanté avec 50 % de part de marché, mais il n'aura fallu que deux ans à GE pour devenir le leader. Les réponses à la série de questions qui précède sont parfois divergentes. C'est pourquoi les entreprises doivent bien soupeser les enjeux. L'avenir est aux sociétés qui auront clairement défini leur stratégie avant de prendre leur décision. Trois questions clefs Pour beaucoup d'entreprises, la question de s'introduire la première sur un marché ne se pose pas. En outre, sur de nombreux marchés, certaines sociétés ont une tendance naturelle à innover et à prendre les devants. Par conséquent, quelles sont les options possibles pour le suiveur qui souhaite concurrencer le pionnier ou, plus généralement, le leader? La stratégie du suiveur se basera sur les réponses données à ces trois questions (voir figure 1) : - Quelle est l'importance de mes ressources? - Est-ce que je suis capable d'innover? - Comment est perçu le produit du pionnier en termes de qualité? Les ressources d'une société sont généralement déterminées par sa situation financière. Sa capacité à innover dépend de son expertise sur le plan de la recherche et développement. En revanche, la perception de la qualité des produits du pionnier est un facteur susceptible d'être influencé par les stratégies marketing mises en place par ce dernier.
Le suiveur a donc huit options stratégiques à sa disposition, fondées sur la combinaison de ces trois facteurs (voir tableau 2). Il est évident que lorsque les ressources sont suffisantes, que le produit est novateur et que l'image du pionnier n'est pas formidable, la voie est largement ouverte. La meilleure stratégie consiste à lancer un produit qui innove par rapport à l'offre du pionnier. Telle est d'ailleurs la stratégie du groupe Gillette, qui s'est assuré une solide position sur le marché du rasoir par des innovations constantes et a ainsi devancé Star - le pionnier sur le marché américain - et bien d'autres. De même, Boeing a supplanté le britannique De Havilland Comet 1, pionnier de l'avion à réaction pour le transport de passagers, en créant un appareil plus grand, plus sûr et plus puissant. Le rôle de l'innovation est particulièrement influent dans les marchés dits de haute technologie qui évoluent très vite. Il suffit de prendre comme exemple celui du magnétoscope où Matsushita a détrôné Ampex ou encore celui du micro-ondes où Samsung a éclipsé Amana. Mais son rôle n'est pas négligeable non plus dans les marchés dits basiques. Aux États-Unis, par exemple, Tide domine aujourd'hui le marché de la lessive liquide créé au départ par Whisk et Everyready est le leader des piles pour lampe électrique lancées par Bright Star. À l'opposé, la tâche la plus redoutable est d'entrer avec peu de ressources et une faible expertise de la recherche et du développement face à un leader doté d'une image de qualité. Dans ce cas, le nouvel entrant devra se résigner à une part de marché plus petite, ce qui ne l'empêchera pas de dégager une excellente rentabilité - parfois même meilleure que celle du leader - en concentrant ses efforts sur des marchés de niche. Hon Industries en est une excellente illustration dans le mobilier de bureau, un secteur dominé par Steelcase aux États-Unis. Bien qu'il n'occupe que la quatrième place, Hon est leader dans le mobilier de bureau «à prix moyen», un marché de niche de 4 milliards de dollars dont il détient une part de 20 % ; de plus, son taux de rentabilité est deux fois plus élevé que celui de Steelcase, pourtant trois fois plus important que lui. Comment Hon a-t-il réussi à acquérir cette position? par sa réputation de fabricant de produits de qualité à des prix attractifs et par le vaste éventail d'articles qu'il offre dans son créneau. Contrairement à Steelcase, Hon a choisi un circuit de distribution basé sur un réseau national de 135 grossistes spécialisés qu'il est capable de livrer très vite. Souvent, les entrants ultérieurs sont de petites entreprises sans grande capacité à innover, qui se lancent à l'attaque d'un marché où la qualité perçue de la marque leader est faible. Dans cette hypothèse, la meilleure stratégie est d'emboîter le pas au pionnier quand le marché est encore au stade de la croissance. À titre d'exemple, Lycos est arrivé sur le marché des moteurs de recherche Internet après le pionnier Yahoo!. Bien que ces deux marques soient moins performantes que HotBot (par exemple), la part de marché actuelle de Lycos est proche de celle de Yahoo!. Il arrive que des suivants soient capables de fabriquer un produit supérieur, mais manquent de ressources. Si le maître du lieu offre des produits avec une faible image de qualité, la meilleure stratégie consiste à innover. À titre d'exemple, Ticketron, une filiale de Control Data, a été la première société à proposer des
services de billetterie informatisés. Son concurrent Ticketmaster (un start-up) est arrivé plus tard, mais en innovant : la firme a participé aux salons organisés par ses clients, leur a fourni des études sur la demande du marché et leur a offert un meilleur service. Parallèlement, Ticketmaster a perfectionné ses produits, en accélérant la vitesse de traitement de son logiciel de billetterie et en y ajoutant des options comme la traduction en d'autres langues pour les marchés étrangers. Avec tout cela, il n'a pas fallu plus de cinq ans à Ticketmaster pour détrôner Ticketron, le pionnier et le leader sur le marché depuis plus de dix ans. Une connaissance plus pointue des attentes des clients permet donc à un entrant ultérieur, même avec des ressources limitées, d'identifier un meilleur positionnement qui n'aurait pas encore été préempté pour le produit et de se distinguer. Dans la même ligne, la librairie Amazon.Com, qui a démarré avec peu de moyens en 1995, a réussi à différencier ses produits de ceux du prestigieux Barnes & Nobles, qui dominait le jeu jusque là. Comment? en offrant des produits sur Internet, en permettant à l'internaute de naviguer dans son éventail d'ouvrages et en lui adressant des suggestions personnalisées. Aujourd'hui, avec une capitalisation boursière de plus de 6 milliards de dollars, ce start-up est la success-story de ces dernières années. Si, maintenant, l'entrant ultérieur dispose de multiples ressources, mais d'une faible capacité à innover, il peut essayer de battre le leader à son propre jeu par une surenchère sur le plan de la publicité et de la distribution. Lorsque la qualité perçue de la marque leader n'est pas très positive, l'entrant ultérieur a toujours la solution d'investir davantage ou de vendre moins cher ; à l'inverse, si le leader bénéficie d'une haute image, il a intérêt à lui emboîter le pas aussi vite que possible. Une stratégie appliquée avec succès par Microsoft sur le marché des suites logicielles, des tableurs et des navigateurs. En effet, ce géant du logiciel a éclipsé plus d'un concurrent en ne lésinant pas sur les investissements en publicité et dans la distribution, à commencer par Corel Suite qui ne brillait pas par sa réputation de qualité. Toujours fidèle à sa stratégie, Microsoft est entré sur les talons de Lotus 1-2-3 - leader sur le marché des tableurs avec des produits bien perçus - qu'il a réussi à évincer. Aujourd'hui, le groupe accroît régulièrement la part de marché de son navigateur Internet Explorer au détriment du pionnier Netscape. Pour l'anecdote, Lotus 1-2-3 est lui-même un suiveur qui avait réussi à éclipser Visicalc en son temps. Si Microsoft a choisi de dépenser plus que ses rivaux, Sunbeam a opté pour un positionnement de prix plus bas. Pour supplanter Cuisinart, le pionnier du marché des robots alimentaires jouissant d'une réputation de haute qualité, Sunbeam a capitalisé sur un marché plus sensible aux prix en offrant un robot non sophistiqué et bon marché. De son côté, Cuisinart a continué à commercialiser ses produits haut de gamme à des prix sensiblement plus forts. La dernière situation est celle de l'entrant ultérieur riche en ressources, réputé pour son expertise technologique et confronté à un leader ayant une image de haute qualité. La meilleure stratégie dans ce cas consiste à la fois à innover et à investir plus ou à vendre moins cher. L'exemple classique est celui de Zantac, le médicament antiulcéreux lancé par Glaxo à la suite de Tagamet, le produit de Smithkline Beecham qui avait fait un tabac. Zantac est un médicament efficace à plus faible dose avec moins d'effets secondaires, que Glaxo a soutenu en unissant sa force de vente à celle de Roche et
en réalisant des investissements marketing de plus grande envergure. Le résultat? Zantac est devenu en 1996 l'antiulcéreux non seulement le plus vendu mais aussi le plus prescrit au monde. Si l'avantage du pionnier est réel et insurmontable, tout n'est pas perdu pour les suivants. En choisissant la bonne stratégie, il peuvent réussir à démentir la sagesse de ce principe bien établi. * Venkatesh (Venky) Shankar est professeur adjoint de marketing et directeur du programme Quest (Quality Enhanced Systems and Teams) à la Smith School of Business, University of Maryland. Lakshman KrishnamurthiVenkatesh (Venky) Shankar est professeur de marketing (bourse A. Montgomery Ward) à la J.L. Kellogg Graduate School of Management, Northwestern University, où il préside le département marketing. Accélérer le décollage des nouvelles technologies Des produits sophistiqués, des concurrents nombreux, des clients désorientés, et une évolution rapide : la mise sur le marché des nouvelles technologies n'est pas une tâche facile. Pour le leader comme pour le suiveur, différentes stratégies sont envisageables. SABINE KUESTER, ELISA MONTAGUTI ET THOMAS S. ROBERTSON La nécessité d'innover constamment est un fait largement reconnu. Les sociétés qui capitalisent uniquement sur leur portefeuille existant de produits ou de services risquent d'être éclipsées par les nouvelles offres concurrentes. Pourtant, la plupart des nouveaux produits s'enlisent ou ne réussissent pas à générer des profits acceptables. Pourquoi? L'acceptation par le marché est généralement plus longue que prévu. Parfois même, le pionnier ne fait qu'ouvrir la voie aux concurrents qui le devanceront à leur tour. Xerox, par exemple, est bien le pionnier du gigantesque marché des photocopieurs, mais pendant longtemps ce sont les fabricants japonais qui en ont récolté les profits. L'acceptation par le marché est un problème encore plus aigu pour les produits de haute technologie, qui se caractérisent par un haut niveau de qualité et une grande incertitude en termes de marché. La question qui se pose alors est de savoir si le produit peut être lancé à un coût raisonnable et si les clients seront prêts à l'acheter. Les ordinateurs de poche, les consoles Internet, la visioconférence, les cartes à puce et les appareils photo numériques sont autant d'innovations technologiques possibles et l'on voit émerger des configurations standard au fur et à mesure que leurs formes et leurs fonctions évoluent. Mais, par comparaison aux produits de grande consommation, l'incertitude qui règne à propos du marché potentiel est énorme. Pour Larry Ellison d'oracle, le Network Computer (console Internet) est un terminal multimédia dépouillé qui permet d'accéder à l'intelligence sur les réseaux Intranet et Extranet. Ses concurrents, eux, ont des conceptions totalement différentes. Toute la difficulté vient du fait que l'on ignore à quelle vitesse la technologie, quelle que soit sa forme, sera acceptée par les clients. On a beaucoup écrit sur la nécessité pour l'entreprise d'accélérer le développement et la mise sur le marché de ses nouveaux produits et les exemples de cycles de production raccourcis abondent. IBM, par exemple, a réduit le délai de développement de ses PC de 48 à 14 mois et General Electric a réduit celui de ses
moteurs d'avions de 84 à 48 mois. Dans cet article, nous essaierons de voir où tout cela s'arrêtera : comment les leaders et les nouveaux entrants peuvent accélérer l'acceptation d'un nouveau produit technologique par le marché. Notre étude porte essentiellement sur les marchés grand public. Néanmoins, les mécanismes sous-jacents évoqués ici se rencontrent aussi dans le business-to-business. En général, les marchés des technologies émergentes se distinguent par les caractéristiques suivantes : des produits sophistiqués, des concurrents nombreux et audacieux, des clients désorientés et une évolution rapide. Par conséquent, la commercialisation des nouveautés technologiques est loin d'être un jeu d'enfant. L'objectif de tout directeur du marketing est de concevoir des campagnes qui rendront le produit attractif pour le consommateur, et cela dans les meilleurs délais. Une stratégie qui suppose donc un certain nombre de décisions délicates. - A quel segment de consommateurs vaut-il mieux s'adresser dans un premier temps pour vendre vite et fédérer un groupe d'innovateurs qui deviendront des prescripteurs? - Comment faire pour que le produit franchisse l'abîme séparant les inconditionnels de la high-tech et la masse des consommateurs qui attendent qu'elle fasse ses preuves? - Comment éloigner les consommateurs des technologies et des produits qui leur sont familiers? Les distributeurs de billets, par exemple, ont décollé beaucoup plus tardivement que prévu parce que les banques et les clients ont mis du temps à renoncer au face à face dans les agences. Les ventes d'ordinateurs pour un usage personnel ont connu un sort identique. Le résultat : de nombreux fabricants naufragés partout dans le monde et un excès d'approvisionnement qui ne laisse entrevoir que de faibles marges aux survivants. - Comment s'assurer une position permettant d'anticiper les nouvelles offres concurrentes ou, au moins, de dissuader les concurrents potentiels d'entrer sur le marché? - Comment faire comprendre aux consommateurs que les sauts technologiques, c'est-à-dire les innovations qui créent une rupture totale avec les produits existants, leur offrent plus d'avantages? Facteurs de ralentissement Démarrer vite suppose d'abord de comprendre pourquoi la pénétration du marché se fait lentement. Il existe en effet plusieurs situations qui incitent le client à reculer le moment de l'acceptation du nouveau produit ou à ne pas l'accepter du tout. * Le produit n'a de valeur que s'il y a d'autres utilisateurs Il s'agit de la situation où un produit n'a d'intérêt que si d'autres utilisateurs achètent le même ou des systèmes compatibles. C'est le cas des PC, des systèmes vidéo et de multiples services de télécommunications qui exigent des externalités de réseau (autrement dit, la constitution d'un réseau) pour reprendre le jargon des économistes. En règle générale, il est difficile pour les professionnels du marketing de faire accepter ce type de produits à leur lancement et les ventes démarrent toujours lentement.
* Un standard commun est nécessaire Les standards technologiques peuvent être imposés par le gouvernement ou des associations industrielles, mais la plupart du temps ils sont laissés aux mains du marché et soutenus par les leaders. Si aucun standard dominant ne parvient à émerger, la pénétration sur le marché se fera lentement. Il a fallu, par exemple, attendre que le format VHS de Matsushita devienne le standard accepté et détrône le Betamax de Sony pour que le marché du magnétoscope prenne son envol. Aujourd'hui, le caractère universel d'internet est sans doute l'une des raisons de son essor rapide. N'importe quel individu possédant un ordinateur ou un système d'exploitation quelconque peut «surfer sur le Net». * Les produits complémentaires contribuent à la valeur de la technologie L'intérêt que porte le consommateur à une technologie peut varier selon la disponibilité de celle-ci et ses liens avec d'autres produits complémentaires. Les ventes de magnétoscopes, par exemple, se sont accélérées lorsque les producteurs de films ont accepté d'enregistrer leurs titres sur vidéocassette pour le marché de la location. Dans le secteur business-to-business, les ventes de matériel informatique piétinent parce qu'il n'y a pas assez d'éditeurs de logiciels indépendants pour rédiger les applications. * Les coûts de transfert sont importants Dans le marché de la technologie plus particulièrement, le consommateur doit supporter des coûts quand il change de produit. Au-delà du prix d'achat, il s'agit du coût de la formation à de nouveaux systèmes (comme pour les logiciels), ou de la transformation du domicile ou de l'entreprise pour installer le nouvel équipement. Pour nombre d'individus, le coût principal d'un lave-vaisselle, par exemple, correspond en fait au coût de réaménagement de leur cuisine. De la même manière, les coûts de transfert étaient bel et bien le problème initial des fours à micro-ondes avant que leur taille ne soit suffisamment réduite pour qu'ils puissent être installés sur un plan de travail. * Il est difficile d'inciter le consommateur à essayer un nouveau produit technologique Le défi pour le directeur du marketing, c'est de stimuler ou d'encourager le consommateur à faire l'essai d'un nouveau produit technologique. S'il est relativement facile de faire essayer des produits d'épicerie par le consommateur (via les bons de réduction, les échantillons, etc.), il n'en va pas de même pour la technologie. Néanmoins, sur les marchés émergents, les entreprises ont découvert les avantages d'une telle technique pour emporter la décision d'achat. Certaines d'entre elles, comme AOL ou CompuServe, ont adressé des logiciels «échantillons» aux utilisateurs potentiels pour relancer leur processus de pénétration sur le marché. D'autres offrent «gratuitement» leur produit, seul ou couplé avec d'autres articles, en partant de l'idée qu'elles réaliseront des profits ultérieurement, une fois que leur technologie sera largement répandue et installée. A cet égard, l'opération de Microsoft qui a couplé son navigateur Internet avec son système d'exploitation Windows afin d'éliminer ses concurrents comme Netscape a fait couler beaucoup d'encre. Acceptation par le marché
Généralement, les nouvelles technologies obéissent à différents schémas de démarrage. Le tableau ci-contre illustre quelques-uns des scénarios possibles. La situation la moins enviable est celle de la pénétration sur le marché à retardement. Le cauchemar de tout directeur du marketing et un scénario qui a toutes les chances de se réaliser en cas de saut technologique. Le piétinement des télécopieurs en est un très bon exemple (voir figure 2). En l'occurrence, la question des externalités de réseau était particulièrement délicate : nul ne voulait investir dans un fax sans être sûr qu'un nombre suffisant de personnes en ait déjà en sa possession. D'autres produits technologiques affichent la même léthargie : la télévision à haute définition, les magnétoscopes et les appareils photo numériques. Pour l'anecdote, une étude récente montre qu'avant la Seconde Guerre mondiale, il fallait dix-huit ans pour que les produits durables destinés au consommateur final prennent leur essor, et que, depuis, il en faut trois fois moins. Les magnétoscopes constituent un exemple intéressant à cet égard. Il s'agit d'une technologie développée à l'origine par Ampex et baptisée initialement «cartridge television» (ou télévision à cartouches). Pourtant, c'est Matsushita qui l'a emporté avec son standard VHS et qui a réussi une excellente pénétration chez les ménages. Cependant, il lui aura fallu attendre le milieu des années 1980 pour y parvenir. Le tableau 1 illustre les schémas d'acceptation de différents produits technologiques quinze ans après leur lancement sur le marché. Les niveaux de pénétration ne sont pas tous fulgurants! La mission de tout directeur du marketing est d'accélérer le démarrage d'une nouvelle technologie. Plusieurs objectifs sous-tendent cette aspiration : - accaparer la demande avant que les portes du marché ne se ferment et que des solutions technologiques concurrentes ne se pointent à l'horizon ; - préempter le territoire avant la concurrence et dissuader les nouvelles entrées sur le marché ; - exploiter les brevets pendant qu'il est encore temps et les compétences avant qu'elles ne soient imitées ; - amortir les investissements en recherche et développement et faire descendre rapidement la courbe de coûts. Si on analyse la demande, on constate que plus une technologie émergente est disponible, plus les incertitudes s'effacent et plus les attentes du consommateur augmentent. La société peut donc mettre en place des actions stratégiques visant à réduire à la fois le risque perçu de la nouvelle technologie et le problème de l'acceptation par les premiers utilisateurs. Les stratégies exposées ci-dessous visent à accélérer le décollage des nouveaux produits technologiques. Elles sont au nombre de quatre : la pénétration agressive du marché, la compatibilité avec les produits existants, l'annonce préalable de nouveaux produits et les alliances marketing. * La pénétration agressive du marché Cette stratégie suppose une politique de prix bas et des investissements importants dans la distribution, la publicité, de force de vente et la promotion. L'objectif est de passer rapidement des ventes initiales aux technophiles à des marchés plus vastes. Ces stratégies visent à bénéficier rapidement de réductions de coûts grâce aux effets de la courbe d'expérience et aux économies d'échelle. De même ont-elles
également l'avantage de dissuader les concurrents de lancer une offensive de même envergure contre le marché-cible. Lorsque le concept de la courbe d'expérience fit son apparition dans les années 70, la politique de prix devint le coeur de la stratégie de pénétration, avec quelques succès notables (Texas instruments avec ses calculatrices), mais aussi quelques échecs (Texas Instruments avec ses montres digitales). Dans les années 1980, ces stratégies étaient surtout le fait des entreprises japonaises, qui tendaient à pratiquer une politique de prix agressive dans le but de se tailler une part du marché importante et de générer des profits à long terme plutôt qu'à court terme. Au fil du temps, la stratégie de pénétration du marché a pris une dimension plus large, dépassant la simple politique de prix. Aujourd'hui, elle s'accompagne notamment d'investissements importants en publicité, dans la promotion des ventes et dans la distribution. Le lancement de la Playstation par Sony et de Windows 95 par Microsoft en est la meilleure illustration. * Compatibilité du produit Les nouveaux produits compatibles sont ceux qui fonctionnent en harmonie avec les technologies déjà installées ou qui suivent le mouvement vers une standardisation. Les stratégies liées à la compatibilité sont particulièrement importantes quand il existe de fortes externalités de réseau. L'intérêt de la compatibilité est double : elle permet non seulement d'éliminer la concurrence entre les technologies, et donc l'incertitude sur celle qui l'emportera, mais aussi de pratiquer des prix plus élevés. En effet, le consommateur est prêt à dépenser plus pour une compatibilité qui lui garantira l'accès à un vaste réseau ou qui lui permettra d'assembler un système plus proche de sa configuration idéale. Si le DVD piétine aujourd'hui, c'est probablement parce que les questions de standard et de compatibilité n'ont pas encore été résolues. * L'annonce préalable de nouveaux produits À l'instar des fabricants automobiles qui suscitent la curiosité quand ils annoncent le lancement d'un nouveau modèle avant qu'il ne soit présenté dans les salons, les fabricants technologiques peuvent attirer l'attention et préparer le terrain pour leurs nouveaux produits. Quand les consommateurs s'imaginent qu'une nouvelle technologie pourra leur être utile, ils sont prêts à patienter et à «faire l'impasse». En d'autres termes, ils décident de faire une croix sur la technologie existante pour attendre la nouvelle génération annoncée. Le résultat? le fabricant vend plus vite et plus facilement au départ. L'annonce préalable de nouveaux produits est maintenant monnaie courante dans le secteur des logiciels, même si certains ne verront jamais le jour (un phénomène baptisé vapourware outre-atlantique). * Les partenariats stratégiques Le lancement d'un nouveau produit technologique exige un vaste éventail de ressources et de compétences qu'une société ne peut posséder ou développer rapidement à elle seule. L'enjeu aujourd'hui est justement d'acquérir très vite toutes ces capacités. L'approche la plus pratique consiste à sceller un partenariat avec des concurrents (alliance horizontale) ou avec des sociétés ayant des intérêts communs dans la chaîne de valeur (alliance verticale).
Les alliances sont des accords de collaboration par lesquels plusieurs entreprises décident de réunir des ressources spécifiques en vue d'un objectif commun. Dans le secteur de la technologie médicale, par exemple, Ohmeda et Hewlett-Packard ont scellé un partenariat de quatre ans pour la création et la distribution d'un produit baptisé Component Anaesthesia System ; de la même manière, Warner-Lambert et Pfizer ont signé un partenariat commercial pour lancer le médicament Lipitor préconisé pour lutter contre le cholestérol. Les avantages potentiels de ces alliances sont multiples. Accès plus large et plus rapide au marché. Grâce à son partenariat avec Pfizer, Warner-Lambert a réussi à propulser rapidement Lipitor sur le marché. Accès à une expertise marketing. C'est en scellant des alliances avec les firmes pharmaceutiques que les sociétés de biotechnologie, par exemple, ont hérité de compétences marketing. Partager les risques liés à l'acceptation du marché. La firme Smith & Nephew a uni ses efforts à ceux du groupe Advanced Tissue Science quand elle a décidé de développer et commercialiser des implants orthopédiques. Accroissement de l'effet d'échelle. Gateway 2000 vient de signer un partenariat commercial avec la firme Corporate Software & Technology pour la vente croisée de leurs produits respectifs. Cristallisation du marché en arrimant les clients à une spécification technologique commune aux partenaires. C'est en signant des accords de licence et des partenariats que Matsushita a réussi à remporter la victoire et à imposer son standard VHS. Maître des lieux et nouvel entrant Les options stratégiques pour la commercialisation d'une nouvelle technologique ne sont pas les mêmes pour l'acteur bien établi dans le secteur concerné ou pour un nouvel entrant. Généralement, les maîtres des lieux sont plus lents à bouger et c'est ce qui permet aux entrants ultérieurs de réussir par la suite. Ce constat ne permet cependant pas de tirer des conclusions sur les probabilités de succès de l'un par rapport à l'autre. Dans le secteur de la haute technologie, les sociétés en place ont la main mise sur un atout capital : l'équipement déjà installé. À partir du moment où elles savent exploiter ce levier stratégique, elles sont en mesure de gagner de vitesse les nouveaux entrants. Cependant, les faits montrent que les acteurs du marché, trop centrés sur leurs produits existants, rechignent à lancer de grandes offensives par peur du phénomène de cannibalisation. Et faute de saisir la balle au bond, ils perdent du terrain. Par conséquent, ces acteurs doivent se garder de reculer le lancement d'une nouvelle technologie, même au risque de cannibaliser leurs produits existants. C'est parce que le leader informatique IBM a fermé les yeux sur la puce à jeu d'instructions réduit qu'il a connu une telle crise au milieu des années 1990. Pour le nouvel entrant, la tâche est lourde car il doit se créer une clientèle et parer les réactions éventuelles des leaders. L'une des stratégies possibles est d'annoncer préalablement le lancement du nouveau produit pour réduire les coûts de transfert et les coûts d'éducation du consommateur. De toute façon, le risque de cannibalisation est plus faible pour un entrant ultérieur que pour un pionnier.
Le nouvel entrant sera aussi avisé de développer des produits compatibles avec ceux qui existent déjà sur le marché, encore une fois pour diminuer les coûts de transfert. Enfin, un partenariat avec une entreprise déjà identifiée dans sa catégorie de produits lui permettra de renforcer sa notoriété et d'accéder à des ressources marketing supplémentaires. Évaluer la demande pour des produits innovants Comment prévoir la réaction du marché à l'arrivée d'un produit nouveau? Quel sera l'assortiment de produits le plus rentable pour un distributeur? Pour répondre à des questions aussi complexes, l'analyse de corrélation se révèle un outil performant. PAUL E. GREEN ET ABBA M. KRIEGER L'art de la distribution est d'offrir au client un éventail séduisant de produits et de services avec le meilleur choix en termes de marque et de segment de prix. La mission du distributeur est d'identifier les combinaisons attributs-prix recherchées par le client et de présenter la meilleure offre. L'assortiment de produits et les prix sont assurément les deux arguments décisifs pour les clients quand ils font leurs achats. Définir le mix de produits optimal est un défi permanent pour le distributeur. S'il possède une gamme de produits trop étroite, ses clients risquent de s'adresser ailleurs et, dans le cas contraire, son magasin bouclera l'exercice avec un stock d'invendus. L'objectif de cet article est de décrire les techniques qui lui permettent d'élaborer le meilleur assortiment. Bien sûr, il ne s'agit pas là du seul problème que doit résoudre un distributeur. Il faut aussi que ses prix soient compétitifs et que sa gamme de prix réponde aux attentes de ses clients. La première de ces deux tâches nous fait déjà entrevoir, à elle seule, toute la complexité de ce métier. Si, par exemple, un concurrent augmente ou baisse le prix d'un produit de 5 %, faut-il s'aligner? Si oui, faut-il le faire totalement ou partiellement? Lorsqu'on décide de vendre un nouveau produit avec des attributs supplémentaires, comment évaluer son intérêt par rapport à l'ancien produit? Comment fixer le prix des différents articles lorsque des produits concurrents rivalisent sur un même linéaire? Quelles seront les répercussions sur notre part de marché si l'on change le prix d'un produit spécifique et quelle sera, bien sûr, la réaction de la concurrence? La situation se complique encore quand une société commercialise plusieurs produits qui rivalisent non seulement entre eux, mais aussi avec d'autres marques sur le marché. Supposons, par exemple, qu'un directeur de magasin référence, parmi d'autres articles, sept marques ou modèles différents de batteurs électriques et qu'il cherche à définir la combinaison marque-prix idéale pour son point de vente. Étant donné que le linéaire et l'espace de vente dont il dispose sont - par définition - limités, il se demande s'il peut augmenter ses profits en réduisant son nombre de références. Les questions qu'il devra se poser sont les suivantes : * Dans le cas du retrait d'un batteur spécifique, quel est celui des autres modèles qui récupèrera la plus grande part de marché? * Cette décision augmentera-t-elle ou réduira-t-elle les profits du magasin? * Quelle est l'élasticité de prix de chaque batteur référencé dans l'assortiment? * Quel est le degré de flexibilité dont on dispose pour ajuster les prix, et renforcer ainsi la rentabilité globale de la ligne de batteurs?
* Y a-t-il des marques non référencées à l'heure actuelle que l'on pourrait vouloir ajouter à cet assortiment? * S'il faut conserver les sept modèles, comment fixer les prix pour optimiser le retour sur investissement? Différence de rentabilité Dans l'étude que nous avons effectuée pour un tel distributeur, nous avons analysé toute sa ligne de batteurs en les retirant un par un, afin de déterminer leur impact, et en les réintégrant par la suite. Cette approche nous a permis d'identifier la meilleure combinaison, à la fois en termes de ligne de produits et de prix. On constate souvent que la baisse de part de marché consécutive au retrait d'un produit est largement compensée par une augmentation des marges. Admettons que le batteur de marque A possède une part de marché de 10,6 %. Qu'adviendra-t-il de cette part si nous le retirons de la ligne? Les clients se contenteront-ils d'acheter le produit le plus proche en termes de prix? Resterontils fidèles à la marque en se reportant sur le produit immédiatement inférieur ou supérieur? Ou s'adresseront-ils ailleurs pour trouver cet article? La réponse à toutes ces questions fournit de précieuses informations sur la valeur de la marque, la compétitivité d'un produit spécifique et la stratégie de prix adoptée par le magasin. Nous avons découvert, par exemple, que le retrait de la marque A entraînait un report de 4,2 % sur l'un des modèles de la marque B et que les 6,4 % restants se répartissaient entre trois modèles différents de la marque C. Il est donc évident que la marque A est la plus compétitive avec la marque C. L'élasticité des prix est une autre variable que le distributeur doit prendre en compte. Qu'arriverait-il à la part de marché du batteur de marque A si l'on augmentait son prix et si on le passait de 89,85 F à 109,85 F? En d'autres termes, quel est le prix optimal? Notre étude montre que l'élasticité diffère sensiblement en fonction des marques, et que le directeur de ce magasin peut maximiser la rentabilité de sa marque A en baissant d'environ 5 F son prix actuel, qui se situe à 99,85 F. A l'inverse, nous avons remarqué que le prix de la marque D était positionné à un niveau trop bas et que le magasin améliorerait sa rentabilité en le passant de 109,60 F à 120,55 F. Il faut cependant garder à l'esprit que le prix optimal d'un produit change selon qu'il est présenté seul ou avec d'autres. En d'autres termes, le prix optimal pour le batteur D est en lui-même de 120,55 F, mais s'il figure en rayon aux côtés de la marque A, le prix optimal sera légèrement plus élevé. La question finale que nous avons étudiée pour ce distributeur est celle de la réduction de sa ligne de produits. Pour décider d'un retrait de produit, il ne suffit pas de déterminer quel est l'article qui se vend le mieux et celui qui se vend le moins bien. En effet, notre étude montre que le magasin pouvait augmenter sa rentabilité par la suppression d'un produit affichant une part de marché respectable par rapport aux autres. Cette approche relative à l'assortiment de produits et à la politique de prix est le résultat d'une analyse de corrélation. Il s'agit d'une technique qui va au-delà des tests de concept de produit traditionnels et qui permet de définir l'assortiment de produits (ou de services) qui optimisera les ventes et les profits. Ce type d'étude porte sur toutes les spécificités des produits : prix, capital de marque, caractéristiques, garantie, services techniques, etc.
Mais, c'est surtout dans les phases de tests de nouveaux produits que l'analyse de corrélation s'avère particulièrement efficace. Par «nouveau produit», nous entendons non seulement les extensions de ligne ou de marque, mais surtout les innovations qui n'existaient pas sur le marché jusqu'à présent. Il est très difficile de mesurer l'accueil qui sera réservé par le marché à de telles nouveautés dans la mesure où le consommateur n'a rien de concret sur lequel s'appuyer et ne dispose pas non plus de produits comparables pouvant lui servir de base de référence. L'analyse de corrélation Le travail que nous avait réalisé avec sept agences de transport régional dans le secteur de New York/New Jersey est un bon exemple de mise en pratique d'une analyse de corrélation. Notre mission était d'évaluer l'acceptation éventuelle d'un système de péage électronique, baptisé EZPass, sur les autoroutes et les ponts dans des secteurs très peuplés et très fréquentés. Au moment de l'étude, il existait déjà des systèmes similaires dans plusieurs régions des Etats-Unis. L'avantage d'un système électronique est d'éviter les files d'attente à l'entrée des péages. Il suffit d'équiper les véhicules d'un transmetteur qui émet un signal radio prédéfini. Ensuite, les récepteurs situés dans les couloirs réservés au système lisent le signal émis par la voiture et débitent le compte du conducteur ouvert à cet effet. Les sept agences intéressées se sont rendu compte qu'elles avaient intérêt à coopérer si elles voulaient vendre cette nouvelle idée dans la mesure où le système régional d'autoroutes est étroitement intégré. Par conséquent, elles ont créé un groupe de travail chargé d'identifier la meilleure configuration, en termes d'attributs de service, pour les clients de chacune des agences. Le groupe devait ensuite comparer les configurations de chaque agence et déterminer les caractéristiques de produit et service qui composeraient le meilleur assortiment pour une population extrêmement disparate. Le groupe a donc établi une longue liste de caractéristiques, qu'il a ensuite affinée, pour aboutir à sept questions principales concernant les usagers. * Combien faut-il de comptes? Comment les relevés de compte seront-ils reçus? * Comment alimenter un compte EZPass et où? * Combien de couloirs seront réservés aux utilisateurs EZPass et comment serontils contrôlés? * Sera-t-il possible de prêter le dispositif émetteur à un autre véhicule? * Ce dispositif doit-il être payé séparément? Quels sont les autres frais de service à régler? * Quel est le coût du système EZPass par utilisation? Y a-t-il un tarif dégressif en fonction de l'utilisation? * Quelles sont les autres utilisations possibles du EZPass (parking, plein d'essence, par exemple)? Dès le départ, les agences participantes s'étaient engagées à mettre en place le dispositif EZPass. Par conséquent, le groupe de travail n'avait pas à se préoccuper de la demande pour le système en lui-même. La nature du problème qu'il avait à résoudre était, en fait, relativement proche de celui de notre directeur de magasin
essayant d'identifier la configuration optimale pour ses batteurs électriques. Les agences ont réalisé qu'en identifiant, par une analyse de corrélation, les attributs de service prioritaires pour les utilisateurs ainsi que leurs préférences sur les niveaux d'attributs, elles pourraient obtenir l'information dont elles avaient besoin. L'essentiel était de déterminer l'utilité relative attribuée par les utilisateurs aux différents niveaux d'attributs dans la mesure où ceux-ci entraînaient des coûts d'exploitation sensiblement différents. Le groupe de travail se trouvait confronté au problème que se pose toute société essayant de développer un nouveau produit ou service : il souhaitait que les usagers des péages coopèrent activement à la création du système EZPass. Cependant, comme il s'agissait d'un nouveau service qui ne leur était pas familier, seraient-ils capables de le comprendre et d'évaluer son utilité dans son ensemble avant de prendre leur décision? En termes simples, comment le groupe de travail arriverait-il à démontrer un produit non-existant à des utilisateurs potentiels? La solution adoptée par ce dernier fut de produire une vidéo publicitaire de 11 minutes expliquant que le système EZPass réduisait les problèmes d'embouteillage quotidiens auxquels sont confrontés tous ceux qui font la navette entre leur domicile et leur lieu de travail. Mais, encore fallait-il qu'un échantillon suffisant de cette population puisse voir la vidéo. Il était impensable de faire une ou plusieurs réunions de groupe car chaque agence voulait avoir un échantillon représentatif des zones qu'elle desservait. Par conséquent, le groupe de travail procéda à la sélection d'un échantillon auquel il adressa un mailing avec tous les éléments de l'enquête : la vidéo, un questionnaire et les instructions permettant d'y répondre. La tâche la plus compliquée était de définir les combinaisons d'attributs et de niveaux d'attributs, étant donné que chaque agence avait sa propre vision à ce sujet. Cependant, les résultats de l'enquête mirent en lumière une attente commune à l'ensemble du marché : les personnes interrogées se préoccupaient bien plus du nombre de couloirs qui seraient réservés aux utilisateurs EZPass et de la façon dont ils seraient contrôlés que du prix du service. Le message adressé aux agences était clair : il ne leur restait qu'à concentrer leurs efforts sur le principal avantage du système, c'est-à-dire la réduction des embouteillages, et ignorer les aspects moins importants aux yeux des utilisateurs. Ce n'est qu'après avoir effectué cette étude préalable que les agences participantes se rendirent compte de l'intérêt d'identifier la demande. La création de couloirs EZPass, la commande d'émetteurs en grande quantité et l'installation du système informatique représentaient un investissement substantiel. Par conséquent, le groupe de travail avait besoin d'une prévision exacte sur la demande globale pour ce service. L'expérience ultérieure devait confirmer l'exactitude de cette évaluation puisque le système EZPass a été adopté par 40 % des usagers réguliers et qu'il sera généralisé dans les deux ans. La combinaison attributs-prix a des répercussions directes sur la vente de produits et de services et l'analyse de corrélation est une technique de plus en plus utilisée pour faciliter la prise de décision à cet égard. Dans le secteur de la haute technologie, par exemple, IBM a eu recours à cette technique pour concevoir sa station de travail Risc 6000 et AT&T pour définir la politique de produit et de prix de son premier système de téléphone mobile basé sur la transmission dite «en nid d'abeilles». Les photocopieurs, les imprimantes
pour ordinateur, les jeux électroniques, l'automobile et les appareils de photo sont autant de produits technologiques auxquels elle a été appliquée avec le même objectif. L'analyse de corrélation joue aussi un rôle important dans la conception des produits de consommation courante tels que les produits alimentaires, les boissons ou les produits de toilette. Les caractéristiques physiques et chimiques des produits sont modifiées afin de déterminer l'influence du goût, de l'odeur, de l'apparence et de la facilité d'emploi sur les préférences des consommateurs. Dans le secteur des prestations de service, c'est un outil employé par les compagnies aériennes, les établissements de cartes de crédit, les banques, les compagnies d'assurance, les télécommunications, les agences de publicité et les services municipaux. On la retrouve encore dans le domaine du tourisme et des loisirs quand il s'agit de finaliser la conception d'installations hôtelières, de voyages organisés, d'unités de time-sharing ou d'attractions pour des parcs à thème. Son champ d'application s'étend même aux jeux de loterie nationaux. Bref, depuis ses premières applications dans le secteur commercial au cours des années 60, elle a évolué et comprend aujourd'hui une série de techniques bien établies permettant de mesurer les compensations effectuées par le consommateur aussi bien quand il choisit une brosse à dents que lorsqu'il élit un député. L'analyse de corrélation est un outil fondamental du marketing, à l'instar d'autres techniques comme les échelles multidimensionnelles de perceptions et l'analyse typologique pour la segmentation du marché. La gestion des marchés critiques ALEXANDRE STEYER Lors du lancement d'un nouveau produit, le marché passe classiquement par quatre phases. Le lancement, où les ventes sont faibles, fait place à une forte croissance. Les ventes stagnent à nouveau avant un déclin final. L'ensemble de ces quatre phases constitue le cycle de vie. Sa première phase correspond aux achats des innovateurs qui sont principalement influencés par la publicité et le mix en général. La phase de croissance est celle des suiveurs, qui achètent par imitation. Ainsi la décision d'adoption se propage-t-elle de consommateur en consommateur par contagion. Le manager doit faire un lien entre une réalité globale et temporelle, le cycle de vie, et des individus, socialement situés dans l'espace et entre eux. Ce lien, difficile, se fait souvent à partir d'images physiques. La première est celle de la réaction en chaîne sur laquelle sont basés les modèles mathématiques du cycle de vie. Ces modèles portent l'optimisme excessif des années qui leurs ont donné naissance : si la diffusion des nouveaux produits se faisait suivant des mécanismes si efficaces, il n'y aurait plus besoin de faire de marketing! Une autre image plus réaliste est celle des taches d'huile. Elle peut être illustrée par le travail de Whyte. A partir d'enquêtes effectuées dans des banlieues américaines aux plans réguliers, il indiquait par des croix sur des photographies aériennes les pavillons qui avaient adopté un certain nouveau produit. Les croix n'étaient pas réparties de façon aléatoire, mais plutôt groupées en amas. Le mécanisme serait donc analogue à des petites gouttes d'huile (les innovateurs) jetées au hasard (effet du mix) sur un buvard (le quartier) et qui ensuite s'étaleraient (adoption par les suiveurs). Cette image n'est cependant pas suffisante. Si l'on observe une courbe de diffusion réelle comme celle de la figure 1, on a du mal à y reconnaître une phase de croissance des années 7 à 16. En effet, l'augmentation régulière des ventes est
brouillée par un bruit important qui les fait varier de façon erratique. Si ce bruit était habituel, nous pourrions faire une bonne prévision des ventes assortie d'un intervalle de confiance. Ici, il s'agit plutôt d'un bruit de scintillation ou de vacillation pour lequel ce genre de prévision est impossible. On y observe en effet des phénomènes de changements soudains, impossibles à prévoir non seulement quant à leur moment de survenue, mais aussi à leur ampleur. On trouve ce bruit également dans les variations de la lumière des quasars, du niveau du Nil, du cours des actions ou dans les mouvements géologiques. L'origine de ce bruit lors de la diffusion des innovations ne peut être dans le marketing mix ou les changement économiques. Elle est dans la répartition spatiale des relations sociales entre les suiveurs. Un désordre spatial génère un désordre temporel. On peut montrer (1) que ce désordre, par suite des apprentissages sociaux, aboutit à un état critique. Dans cet état, de petits événements locaux peuvent engendrer de très grands événements. L'image est celle d'un tas de sable d'une montagne enneigée. Des petits événements aléatoires ont lieu comme un caillou qui roule. La plupart n'ont que peu de répercussions. Cependant, certains vont se propager à une partie importante de la montagne : c'est l'avalanche. Maîtriser les réseaux sociaux Le marché critique a un comportement analogue. Les achats de certains consommateurs, dits critiques, peuvent entraîner avec eux des grandes avalanches de ventes par influence sociale indirecte. Pour se représenter ces phénomènes, le lancement d'un produit a été simulé dans une ville comme celle de Whyte, mais dans un état critique. La figure 2 montre l'évolution des ventes qui n'est pas sans rappeler la figure 1. Trois vignettes présentent des vues aériennes de la ville à différents stades. Il y apparaît clairement une structure beaucoup plus compliquée que de simples taches d'huile. Des amas aux formes complexes montrent que la diffusion au sein du réseau social critique ressemble plus à un parcours dans un labyrinthe. Les innovateurs, figurés par des ronds blancs, en sont les portes d'entrée. Il y alors propagation avec, parfois, aboutissement vers des cul-de-sac ou des régions de vaste propagation. Ce sont ces régions qu'il faut rejoindre, l'art étant alors de se frayer un chemin dans ce labyrinthe. En particulier, certains passages exigus sont constitués de quelques consommateurs critiques qu'il faut impérativement persuader, car ils sont les passages obligés vers les régions à fort potentiel. Ils sont bien plus importants que les innovateurs. Sur un marché critique, l'art du marketing est donc plus difficile. En effet, le lien entre les ventes et le marketing mix n'est plus direct car la structure du réseau social s'interpose entre eux. De ce fait, un retard important peut avoir lieu entre une amélioration du mix et l'augmentation des ventes. Ces retards peuvent même conduire à des phénomènes d'hystérésis où l'état du marché dépend des actions marketing ellesmêmes, mais aussi de l'ordre dans lequel elles ont été menées. Le marché réagit en tout ou rien, rendant toute gestion difficile dans le temps. Enfin, et surtout, les grandes avalanches peuvent être engendrées par de petits événements paraissant sans importance aux yeux des managers. En sachant attendre, l'avalanche peut donc se déclencher alors que rien ne l'annonçait. Ainsi, Sony vend péniblement 10 millions de lecteurs de CD-ROM en 7 ans, puis, d'un seul coup, 10 autres millions en 7 mois. Le marketing des marchés critiques est encore à inventer. Il est un mélange de confiance, de ténacité et de stabilité face aux fluctuations du marché, ainsi que d'une maîtrise des réseaux sociaux. Persuader les innovateurs n'est qu'une nécessité secondaire. On citera le cas de Tatoo. Ses deux concurrents avaient conquis la plupart des innovateurs attirés par ce type de produit. En se basant sur la notion de tribu, Tatoo a visé les endroits inexplorés du labyrinthe des relations sociales où l'attendaient des avalanches de clients. Les nouvelles technologies, en favorisant le développement du réseau social, rendent les marchés de plus en plus
critiques, imposant un nouvel art du marketing. * (1) Plouraboué et al., «Economie, innovation, nouvelles technologies», volume 6, page 73, 1998. Internet : fidéliser à travers l'apprentissage Dans le secteur de l'information qui connaît un essor fulgurant, attirer mais surtout retenir l'attention du consommateur est un enjeu de taille pour les entreprises. La solution? Eduquer le consommateur sur les produits et l'inciter à consacrer davantage de temps à son apprentissage. VIKAS MITTAL ET MOHANBIR SAWHNEY A l'heure où l'utilisation de l'internet connaît un développement fulgurant, nous assistons à la conquête la plus importante depuis la Conquête de l'ouest, avec, dans le rôle des pionniers, les directeurs du marketing, et pour enjeu, non plus de nouvelles terres, mais l'attention des consommateurs à conquérir. Selon John Perry Barlow, cofondateur de l'electronic Frontier Foundation, «dans notre économie de l'information, l'attention devient une unité monétaire». Les directeurs du marketing dans le domaine de ces nouveaux produits d'information se rendent compte que la lutte pour attirer puis retenir l'attention des consommateurs se joue et se gagne avant même que ne s'engage la bataille pour les profits. Les sociétés du secteur de l'information électronique, telles que America Online, Amazon.com, E*Trade et Yahoo!, bénéficient d'une valorisation boursière astronomique, qui repose en grande partie sur la maîtrise de leurs relations avec leurs clients. L'attention des consommateurs présente une grande valeur car le temps est une ressource limitée. Alors que l'éventail de produits proposés sur l'internet connaît une croissance exponentielle, le temps que les consommateurs peuvent y consacrer est limité. Malgré une farouche concurrence pour capter leur attention, les consommateurs ne souhaitent passer que peu de temps à être informés de ces nouvelles offres. Etant donné que le coût et la difficulté rencontrée pour attirer l'attention des consommateurs ne cessent d'augmenter, les directeurs du marketing de produits d'information Internet doivent savoir comment mieux gérer ces problèmes, notamment dès les premiers contacts avec le consommateur. Attirer et retenir l'attention Certes, la plupart des consommateurs essaieront une fois un nouveau site d'information, mais rares sont les produits ainsi «visités» qui feront par la suite partie de leur quotidien. Et la prolifération des offres sur le Web ne fait qu'accentuer ce phénomène! Les consommateurs peuvent surfer sur des centaines de sites sur lesquels ils ne reviendront jamais. Les spécialistes en marketing de ces produits d'information se rendent bien compte que le plus difficile n'est pas d'attirer l'attention des consommateurs, mais de la retenir. Comment remporter cette bataille? Lorsque des consommateurs sont confrontés à un nouveau produit - une librairie en ligne, par exemple -, ils ont besoin de savoir deux choses : d'une part comment s'en servir, d'autre part ce que contient cette offre. Si le «parcours d'apprentissage» du produit n'a pas été soigneusement conçu, les consommateurs auront tendance à l'appréhender au hasard sans trop savoir comment il fonctionne et quels bénéfices réels ils peuvent en tirer. Négligeant ce problème, de nombreux directeurs du marketing dans ce domaine se contentent de jubiler en comptabilisant parmi leurs prétendus clients les passages
furtifs d'internautes errant au hasard de leurs pérégrinations. Mais combien, parmi eux, deviendront des clients vraiment fidèles au regard de ce qu'ils ont appris? Pour comprendre le concept d'apprentissage du consommateur, on peut utiliser une analogie avec le monde de la finance. Le temps que les consommateurs possèdent pour en apprendre davantage sur un nouveau produit d'information est comparable à un capital financier. Nous le désignerons par l'expression de «capital apprentissage». A l'instar des consommateurs qui investissent leur épargne dans un portefeuille d'actifs financiers, ils peuvent investir leur capital apprentissage pour en savoir plus sur un nouveau produit. Le «rendement» qu'ils obtiennent sur leur investissement est la satisfaction qu'ils tirent de l'utilisation du produit. Quant au «risque» qu'ils encourent, c'est celui de s'apercevoir que ce nouveau produit est en fait moins performant que ses concurrents, et qu'ils ont par conséquent gaspillé leur temps. Cette analogie est fondée sur deux hypothèses. La première est que le temps que les consommateurs peuvent consacrer à leur apprentissage est limité. La seconde est que les consommateurs sont désireux d'apprendre sur les nouveaux produits et services afin d'améliorer le rendement du temps qu'ils vont y investir. Apprendre sur un produit équivaut à prendre une option sur l'utilisation de ce produit. La valeur de l'apprentissage est alors la valeur optionnelle de l'utilisation de ce produit. Si les consommateurs décident d'utiliser le produit dans lequel ils ont investi dans le cadre de leur apprentissage, ils exercent effectivement leur option d'apprentissage. A l'inverse, s'ils renoncent au produit, ils laissent expirer leur option. Même si le temps est une unité de mesure utile en termes de capital apprentissage, la quantité de temps que chaque consommateur peut apporter à son apprentissage varie, tout comme son coût. Pour poursuivre l'analogie avec la finance, si le capital apprentissage est un compte bancaire, son coût représente les intérêts acquis sur les dépôts faits sur ce compte. Les directeurs du marketing doivent comprendre pourquoi le «compte apprentissage» des consommateurs fluctue, afin de segmenter leur base de clientèle. Parmi les facteurs qui déterminent le «montant» du capital apprentissage dont disposent les consommateurs, on trouve : * La perception du risque et du rendement Des catégories de produits différentes présentent différents niveaux de perception du risque et du rendement, tant sur le plan économique que sur les plans psychologique et social. Prenons le cas d'un site Internet réservé à l'achat de voitures et d'un site consacré à la location de films vidéo. Les consommateurs auront en général tendance à consacrer plus de temps à leur apprentissage sur le site des voitures parce que l'enjeu financier y est plus élevé. En effet, plus les avantages potentiels liés à l'utilisation d'un produit sont grands, plus les consommateurs vont investir de leur capital apprentissage. * L'implication des consommateurs L'implication des consommateurs dans une catégorie est fortement liée au temps qu'ils ont passé à apprendre autour de cette catégorie de produits. Le rendement du temps investi dans une catégorie est d'autant plus élevé que l'implication du consommateur est grande (si, par exemple, c'est important pour leurs loisirs).
* Le niveau de connaissance des consommateurs Les experts ou les novices dans une catégorie de produits auront tendance à investir moins de leur capital apprentissage que les consommateurs qui possèdent une connaissance moyenne. Les personnes qui possèdent peu ou pas de connaissances peuvent facilement se décourager et renoncer, alors que des personnes plus expertes limiteront la dépense de leur capital apprentissage, en raison du maigre rendement qu'elles perçoivent dans cet apprentissage, jugé secondaire. En revanche, les consommateurs qui possèdent une connaissance moyenne sont davantage susceptibles de consacrer beaucoup de temps à leur apprentissage afin d'accroître leurs connaissances. Il existe également des facteurs qui déterminent le coût lié au capital apprentissage : * La concurrence pour la disponibilité des consommateurs Les consommateurs sont soumis à des demandes différentes en termes de disponibilité. Des cadres très occupés ont peu de temps à consacrer à la recherche de nouvelles informations. De même pour les parents qui travaillent, qui doivent jongler entre vie professionnelle et vie privée. Cependant, tandis qu'il existe une corrélation entre le coût de l'opportunité financière et le coût du capital apprentissage, il existe également des exceptions notables. Le coût de l'opportunité financière du temps dont disposent les femmes au foyer peut être relativement faible, mais leur capital apprentissage peut valoir très cher en raison de demandes concurrentes de temps à consacrer aux enfants et celui réservé aux tâches domestiques. * La qualité des choix potentiels Le rendement que des investisseurs attendent d'un nouvel investissement est fonction du rendement des actifs concurrents. La qualité et la quantité d'alternatives potentielles déterminent le rendement instantané que les consommateurs obtiennent de leur temps. Avec l'augmentation de la qualité des produits de l'information, les consommateurs sont davantage satisfaits de leur choix et moins tentés d'aller expérimenter ailleurs pour améliorer ce rendement. Deux types d'apprentissage Le parcours d'apprentissage des consommateurs comporte deux volets : l'apprentissage axé sur le processus et l'apprentissage axé sur le contenu. Et la qualité de ce parcours dépend de la qualité de ces deux volets (voir la figure 1). Dans l'apprentissage axé sur le processus, on s'intéresse davantage aux caractéristiques d'un produit et à la façon de l'utiliser. Par exemple, lors de l'apprentissage sur un site Internet des Pages Jaunes, on peut chercher à savoir comment effectuer une recherche dans la base de données d'adresses, comment définir des paramètres ou l'objectif d'une recherche, comment utiliser des mots clefs, etc. L'apprentissage axé sur le processus détermine la capacité du consommateur à utiliser un produit efficacement, d'où l'importance de son opinion sur la facilité d'emploi de celui-ci. Dans l'apprentissage axé sur le contenu, on se réfère davantage aux informations que contient un produit. Autrement dit, alors que l'apprentissage axé sur le processus s'intéresse au voyage, l'apprentissage axé sur le contenu s'intéresse à la destination. Dans le cas du site d'annuaire, l'apprentissage axé sur le contenu prendra en
considération l'exhaustivité des listings, la précision et la diversité des informations communiquées sur chaque entreprise, ainsi que leur exactitude. Ce type d'apprentissage détermine la capacité du consommateur à évaluer le degré de pertinence d'un produit. Lorsqu'ils conçoivent un parcours d'apprentissage de qualité, (tourne) les directeur du marketing sont confrontés au difficile choix de privilégier le processus ou développer le contenu. Mais, en clair, l'importance relative des deux dépendra du contexte d'apprentissage (voir figure 2). Au niveau du processus, les produits d'information peuvent aller du «simple» «complexe». L'utilisation, par exemple, d'un logiciel personnel de finances tel que Quicken ou d'un site de pages jaunes tel que Bigbook.Com est un processus relativement complexe, alors que l'utilisation d'une messagerie électronique ou d'un explorateur Internet reste relativement simple. L'apprentissage de produits associés à des processus complexes devrait, en fait, mettre l'accent sur la recherche, la navigation et l'utilisation. Parallèlement, un produit peut, en terme de contenu, être plus ou moins «riche». Une librairie en ligne telle qu'amazon.com ou un produit d'informations financières tel que Microsoft Investor sont plutôt riches en contenu ce qui n'est pas le cas des logiciels de traitement de texte ou de messagerie électronique. En prenant conscience de la place de leurs produits par rapport à ce schéma, les spécialistes du marketing peuvent concevoir des expériences d'apprentissage qui s'intègrent dans ce contexte précis, permettant ainsi aux consommateurs d'optimiser le rendement de leur apprentissage. Apprentissage et fidélité Après avoir dépensé leur capital apprentissage dans un nouveau produit d'information, les consommateurs passent de la phase d'apprentissage à celle de l'utilisation. En général, leur désir d'apprendre et d'expérimenter décroît fortement à l'issue de la phase d'apprentissage. Pour poursuivre notre analogie financière, nous proposons que les consommateurs évaluent la qualité de cette utilisation en termes de «rendement du temps investi». Plus leur apprentissage a été bon, meilleur sera le rendement initial de leur temps investi (voir figure 3). Ce rendement initial de l'investissement temporel est fondamental. S'il est satisfaisant, les consommateurs vont utiliser le produit toujours plus régulièrement et en tirer une satisfaction toujours plus grande au fur et à mesure que leur expertise augmente. C'est le début d'un cercle vertueux, qui débouche sur la fidélisation du consommateur. En revanche, si le rendement initial du temps investi est faible, le degré d'utilisation et de satisfaction décroît. C'est la mise en place d'un cercle vicieux jusqu'au moment où ce rendement devient tellement anodin que le consommateur cesse d'utiliser le produit. Le processus d'apprentissage et son contenu contribuent à capter une clientèle qui aura réaliser un investissement à fonds perdus. Par exemple, un consommateur absorbé dans un livre de Sherlock Holmes investit un minimum de temps dans son contenu. Si ce lecteur poursuit par la lecture d'autres histoires de son héros, il devient toujours plus captif dans l'univers de Sherlock Holmes, et ce par l'apprentissage qu'il en a fait et qui passe par le contenu. De la même façon, quelqu'un qui prend le temps d'apprendre à se servir d'america Online (AOL) pour converser avec ses amis ou effectuer d'autres activités sur l'internet, investit du temps dans le processus d'apprentissage. La connaissance qu'il en retire de l'utilisation d'aol le rend d'autant plus captif dans l'univers
d'aol, quelle que soit la qualité de la prestation d'aol. Changer de produit d'information - produit sur lequel les consommateurs ont développé des structures cognitives élaborées - signifie faire un effort significatif. En effet, les structures cognitives des consommateurs sont remarquablement stables et peu enclines au changement, même lorsque des bénéfices en sont attendus. Rendre captive une clientèle sur la base de son apprentissage peut offrir aux spécialistes en marketing de produis d'information, un avantage concurrentiel à long terme. En effet, plus la structure cognitive des consommateurs s'enrichit, plus ils perçoivent les liens réciproques existant entre les caractéristiques du produit, ce qui les renforce dans l'utilisation du produit en question. Le parcours d'apprentissage Les spécialistes du marketing ont la possibilité de concevoir un parcours d'apprentissage efficace en contrôlant l'ordre dans lequel les consommateurs expérimentent les caractéristiques d'un produit, en gérant le jeu de caractéristiques à essayer ou la terminologie nécessaire liée au produit. * Comment contrôler l'ordre d'expérimentation des caractéristiques d'un produit Au cours de son apprentissage sur un produit, un consommateur développe une structure cognitive comprenant des éléments de type contenu et processus. Les attributs de cette représentation mentale sont d'importance variable. Prenons le cas de l'organiseur personnel Palm Pilot de 3Com qui utilise l'alphabet Graffiti pour la reconnaissance de l'écriture manuscrite. Pour l'apprentissage de Graffiti, l'alphabet, les chiffres de zéro à neuf et la ponctuation de base sont plus déterminants que les symboles mathématiques et autres signes de ponctuation élaborés. Fort d'avoir reconnu cela, Palm Pilot propose deux modèles d'apprentissage de Graffiti : un modèle de base et un autre plus avancé. Le manuel d'utilisation de l'organiseur conseille aux utilisateurs de commencer par le modèle de base, jusqu'à ce qu'ils soient suffisamment familiarisés avec l'alphabet. En gérant ainsi l'ordre dans lequel le consommateur est «exposé» aux différentes caractéristiques du produit de sorte qu'ils commencent par en apprendre les attributs de base, Palm Pilot leur permet de bien ancrer leur structure cognitive, puis de la consolider, ce qui conduit effectivement à une connaissance plus efficace. Il est également très important d'adapter le degré de difficulté d'un ensemble initial de caractéristiques au niveau de connaissance du consommateur, tout décalage risquant de gêner sérieusement l'apprentissage. En effet, si l'on présente d'abord au néophyte des caractéristiques complexes, il risque de se décourager. Parallèlement, si l'on propose à des consommateurs expérimentés une série de caractéristiques élémentaires, on court le risque qu'ils trouvent la phase d'apprentissage inutile. Les fabricants de jeux électroniques prennent ce facteur en considération en proposant à leurs utilisateurs de définir eux-mêmes leur niveau de compétence. * Gérer le jeu de caractéristiques pour la pertinence du contexte Un logiciel de traitement de texte ou un site Internet complexe peuvent présenter des centaines fonctions. Mais, toutes ces fonctions ne présentent pas la même pertinence au regard du contexte d'utilisation propre à chaque consommateur. Plus
la pertinence de certaines fonctions est forte, plus l'exposition à ces fonctions doit être grande au cours du processus d'apprentissage. Par exemple, un consommateur qui utilise un logiciel de traitement de texte uniquement pour rédiger des courriers n'a pas besoin d'en savoir plus sur clip art ou sur les fonctions de dessin de ce logiciel. En revanche, un utilisateur qui prévoit d'utiliser ce même logiciel à des fins de mise en page aura certainement besoin de connaître ces fonctions. Les spécialistes du marketing peuvent utiliser les enquêtes de consommateurs pour mesurer la pertinence d'une caractéristique d'un produit pour des segments définis de consommateurs et concevoir le processus d'apprentissage approprié. * Gérer la terminologie pour les consommateurs Tout nouveau produit d'information implique, pour le consommateur, l'acquisition d'un nouvel ensemble de concepts, de termes et d'images. Si l'on prend l'exemple du système d'exploitation Windows de Microsoft, le consommateur doit apprendre le sens de mots tels que «icône», «bureau», «répertoire», «fichier», «formatage», etc. Une fois le vocabulaire acquis, le consommateur est mieux armer pour anticiper et organiser son expérience du produit. Pour améliorer la qualité de la formation, les spécialistes du marketing doivent faire en sorte que les consommateurs apprennent le vocabulaire nécessaire pour tirer le meilleur parti du produit. Ils doivent, en outre, s'efforcer d'assurer une certaine cohérence entre ce nouveau vocabulaire et le vocabulaire existant des consommateurs, afin de réduire ce besoin de formation. Par ailleurs, l'utilisation de métaphores discordantes risquent de gêner l'apprentissage. Conséquences pour les spécialistes du marketing * Encourager l'investissement en capital apprentissage Pour rendre captive une clientèle via l'apprentissage, les spécialistes en marketing doivent inciter les consommateurs à investir leur capital apprentissage dans leurs produits. Parmi ces incitations, figurent des offres d'essai pendant une durée limitée permettant de tester toutes les spécificités d'un produit, ou des offres d'essai illimitée mais cantonnée à seulement quelques fonctions du produit. Une fois l'inertie créée par l'apprentissage en place et les barrières écartant la concurrence d'autres produits dressées, les spécialistes du marketing ont alors la possibilité de demander une rémunération. Cette stratégie a déjà été mise en oeuvre avec succès par les éditions en ligne de The Economist et du Wall Street Journal. * Créer un capital apprentissage spécifique Pour créer et garder un avantage concurrentiel, les spécialistes du marketing devraient développer un capital apprentissage non transférable à autre produit. C'est le cas notamment de l'alphabet Graffiti, exclusivement utilisé sur le Palm Pilot. Les consommateurs ayant choisis de l'apprendre ne peuvent réinvestir leur acquis - le capital apprentissage - dans un autre organiseur personnel concurrent. * Augmenter le capital apprentissage pour la vente croisée Les spécialistes du marketing ayant pour objectif le développement du marché par la vente croisée de leurs produits devraient mettre à profit l'investissement déjà effectués par les consommateurs dans l'apprentissage de leurs produits existants.
Par exemple, Microsoft a largement bénéficié de l'investissement réalisé par les consommateurs dans l'apprentissage de Word. Ainsi, le processus d'apprentissage de Word a pu être en partie réexploiter par les consommateurs dans les applications suivantes telles que PowerPoint, Access, Excel, FrontPage et Internet Explorer. * Préserver l'investissement en capital apprentissage Un tout nouveau concurrent visant à arracher des parts de marché à un fabriquant déjà en place dont les clients sont très familiarisés avec ses produits par une stratégie de différentiation excessive risquerait de conduire à l'échec. En effet, les consommateurs sont peu enclins à bouleverser les structures de connaissances acquises. Une stratégie d'assimilation au fabricant déjà présent, par opposition à une stratégie de différentiation, peut s'avérer payante car elle préserve l'investissement en connaissances réalisé par le client. La même logique s'applique aux propres produits du fabricant. Si celui-ci change souvent l'interface utilisateur de ses produits, il détruit le capital apprentissage accumulé par ses clients. * Concevoir des parcours d'apprentissage ciblés selon les consommateurs Les consommateurs ont des raisons et des façons très variables d'utiliser un produit. De plus, leur approche du produit est différente selon leur niveau de connaissance. Les spécialistes en marketing devraient, par conséquent, créer des parcours d'apprentissage, qui prennent en compte ces éléments contextuels. A l'heure actuelle, la tendance est plutôt aux programmes indifférenciés. * Comprendre l'apprentissage des consommateurs par l'analyse contextuelle Les études sur les utilisateurs finaux devraient fournir les informations nécessaires à la conception des parcours d'apprentissage. Mais, les spécialistes du marketing ne devraient pas se contenter des simples techniques d'études de marché. Des études approfondies de type ethnographique, devraient être menées. Elles impliquent l'observation des consommateurs dans leurs environnements quotidiens. Des sociétés comme Intuit ou Microsoft consacrent des sommes considérables au développement de laboratoires consacrés au potentiel d'utilisation de leurs produits et à des programmes du type «suivi chez le consommateur». Ces opérations ont pour objet de mettre à jour les difficultés rencontrées par les consommateur lors de l'utilisation des produits. Il faut savoir que ces investissements se révèlent très payants au niveau du potentiel d'utilisation et de l'utilité des produits, ce qui conduit, au final, à retenir et fidéliser le client. * Les deux volets de l'apprentissage des consommateurs sur les produits d'information Figure 1 70 Processus Potentiel d'apprentissage d'utilisation Comment? 70 Investissement Parcours Phase d'utilisation Utilisation, en capital d'apprentissage satisfaction, apprentissage fidélité 70 Contenu de Utilité l'apprentissage Quoi? Mohanbir Sawhney est maître assistant associé, spécialiste du marketing, à la J.L. Kellog Graduate School of Management de la Northwestern University. Parmi ses sujets de recherche, figurent la stratégie marketing des entreprises de haute
technologie et la coordination inter-fonctionnelle dans le développement de produits. Figure 2 Comprendre les différences entre les diverses contextes d'apprentissage des consommateurs 70 Actualité Applications pauvres en Applications riches en contenu contenu 70 Processus complexe Traitement de texte Logiciel Yahoo.Com Amazon.Com de fiscalité Pages jaunes Microsoft Investor électroniques 70 Processus simple Messagerie électronique Actualité en ligne Jeux Navigateur Internet Pages vidéo Librairie (réelle) jaunes (support papier) Figure 3 Conséquences de l'apprentissage Niveau de rentabilité du temps investi maximum Rentabilité initiale du temps investi Taux d'utilisation, rentabilité du temps investi Parcours d'apprentissage efficace Parcours d'apprentissage inefficace Niveau de la rentabilité du temps investi minimum Temps Chapitre 8 Gestion du capital clients et distribution Servir la masse des consommateurs en tenant compte de leurs aspirations individuelles est un défi primordial pour les entreprises de la grande distribution. Les enjeux de la gestion du capital clients sont en effet multiples. MICHEL TATIBOUËT ET VINCENT HAGUET La gestion du capital clients est un enjeu économique clef à l'ère du développement des nouvelles technologies qui ouvrent les portes à une meilleure connaissance des clients. Les entreprises qui le souhaitent sont aujourd'hui capables de valoriser l'information clients. Partons d'un constat dressé en 1998 par PricewaterhouseCoopers dans le secteur des produits de grande consommation à l'échelle européenne : 84 % des profits du secteur de la grande consommation sont réalisés par 30 % des clients, soit 70 % des ventes. Examinons la portée de ces chiffres. Premièrement, la relation directe entre les profits de l'entreprise et la contribution de ses différents segments de clients favorise un management plus opérant de l'entreprise du fait de l'indexation de ses performances sur la valeur clients. Les objectifs marketing (recrutement ou fidélisation par exemple) peuvent dès lors être évalués à l'aune de leur contribution réelle sur le compte d'exploitation de l'entreprise. Deuxièmement, en s'appuyant sur des données valorisées, les opérations logistiques et commerciales peuvent être mesurées et arbitrées avec beaucoup plus d'efficacité. A titre d'illustration, la rupture n'a pas la même valeur pour tous les clients car tous les clients n'ont pas la même valeur pour l'entreprise.
La connaissance du client est donc au centre d'un enjeu immédiat pour l'entreprise : être capable de donner du sens à l'information clients pour être capable de piloter l'entreprise dans une logique économique plus fiable car mesurée, donc évaluée. A l'ère de l'entreprise étendue, à l'heure où la frontière entre le monde professionnel et le monde personnel est de plus en plus étroite, la gestion du capital clients pose en premier lieu le débat de l'utilisation efficiente de l'information à l'intérieur des organisations et entre les organisations du grand commerce. Les enjeux de la distribution Prenons un exemple, Sony on line, le site Internet d'une des 10 marques les plus connues dans le monde, permet aujourd'hui à Sony de tisser une relation très personnelle avec les clients : idées cadeaux, présentation des nouveautés produits, jeux sont proposés sur le site. Sony on line n'a pas vocation à assurer la distribution physique des produits, mais on imagine fort bien que cette information puisse être valorisée ne serait-ce qu'en informant le client Sony de la disponibilité d'un produit auprès de tel ou tel distributeur de la marque. Prenons un autre exemple, Total n'est pas concurrent de Carrefour en dehors de la vente des produits pétroliers et des lubrifiants, mais le nombre de stations-service, leur localisation et plus encore la connaissance clients acquise par Total via sa carte de fidélité Total Le Club, permet aujourd'hui à l'enseigne pétrolière de concurrencer la distribution traditionnelle sur de nouveaux segments de marché : dépannage, convenience. La notion de «mind share» (présence à l'esprit) va prendre tout son sens dans les prochaines années. La notoriété acquise par les marques jouera pleinement, et ceci d'autant plus que les marques se donneront les moyens de faciliter les passerelles entre la présence à l'esprit du client pour un produit donné et son acte d'achat. Coca-Cola n'a-t-il pas initié cette démarche en transformant les occasions de voir sa marque en autant d'occasions de la boire? Flux d'information et flux logistiques vont donc s'intégrer en fonction de la création de valeur propre à chaque canal de distribution. Dans cette configuration, la création de valeur pourra être mesurée à l'aune de son coût réel de distribution (figure 1). Le propos de cette matrice est clair : rapprocher les éléments créateurs de valeur (nouveaux produits, publicité, promotions, merchandising, etc.), de leurs coûts réels de distribution : logistique, passage de la force de vente. Quand, dans une même catégorie, les coûts de la chaîne logistique peuvent aller du simple au double (soit de 8 à 16 % du prix de vente consommateur, LSA, avril 1999), on est en droit de se demander si toutes les actions ont la même valeur... Assurément non! Plus avant, ce schéma doit inciter les entreprises du commerce à réorienter leurs processus autour de la valeur clients et à la mesurer sur l'ensemble de la chaîne de valeur. Il s'agit du principal enjeu de la distribution : mesurer sa performance en la rapprochant de la valeur restituée par les clients (panier moyen, taux de fréquentation des magasins...) Fidélisation et recrutement La maîtrise de la clientèle captive va devenir la clef du succès de la distribution. La volatilité des clients et plus encore la concentration de la valeur entre les mains de quelques clients est aujourd'hui un fait. La capacité des entreprises de construire des programmes de fidélisation sera déterminante. D'importantes
réserves de croissance existent aujourd'hui au regard de l'information disponible sur les clients (plus de 20 millions de consommateurs recensés via les cartes de fidélité en France). Par ailleurs, afin de conquérir des clients non captifs, il deviendra essentiel de construire des programmes de recrutement efficients, c'est-à-dire garantissant le meilleur retour sur investissement client. Là encore, la capacité des entreprises du commerce à mettre en oeuvre ces solutions sera déterminante. Ces solutions existent, elles se sont tout d'abord déployées dans le marketing business to business : data warehouse, data mining, call centers,... L'industrie des produits de grande consommation est paradoxalement en retrait de ce mouvement alors même que la relation entre industriels et distributeurs s'apparente à une approche business to business du fait de la relation "indirecte" existant entre le produit et consommateur final. Fidélisation et recrutement doivent aller de pair. De la capacité à gérer concomitamment ces objectifs dépend le succès du commerce. Comment gérer le capital client? La figure 2 illustre concrètement les enjeux et les perspectives de la gestion du capital client dans la grande distribution A gauche, Product Offering, la création de la valeur (nouveaux produits par exemple) est développée en fonction de la contribution économique et des attentes spécifiques des différents types de clients : masse, groupes, individu. A droite, Services & Solutions, la capitalisation de la valeur créée est assurée en offrant des services exclusifs qui répondent de façon ciblée aux attentes précédemment identifiées et en garantissent la pérennité (par exemple, la livraison à domicile des produits pondéreux pour les seniors). En haut, Communications, l'utilisation optimisée des moyens publi-promotionnels au service des objectifs propres aux différents types de clients ciblés. En bas, Shopping Environnement, la possibilité de servir les clients selon les contraintes de qualité, de service, et de coûts, proportionnelle à la valeur des clients au sein de chaque canal de distribution. Conclusion La gestion du capital client met à jour la complexité du métier du commerce : servir la masse des consommateurs en tenant compte de leurs aspirations individuelles. Elle inscrit la conduite des entreprises du commerce dans la recherche de solutions efficientes (valeur/coûts) en les rapprochant de la connaissance "intime" des besoins des clients. Dans un environnement économique caractérisé par la stagflation, les profits se distribueront entre acteurs du commerce. La conquête des parts de marché mettra à jour la capacité des organisations du commerce à développer leur capital client. Obstacles à la mise en oeuvre Il existe un consensus sur l'idée que les principales difficultés du category management ne sont pas d'ordre technologique ou financier, mais organisationnel. L'organisation de base et les habitudes des membres d'une filière sont à revoir, ainsi que le savoir-faire des personnes impliquées. Les entreprises de distribution
classiques se sont subdivisées en sections chargées de la commercialisation, des achats, de la promotion et de la fixation des prix, l'essentiel étant l'ensemble de savoir-faire fonctionnels nécessaires à la réalisation de chaque tâche. Le category management implique l'intégration de ces ensembles de savoir-faire pour chaque catégorie. A cette fin, le distributeur doit non seulement modifier sa structure, mais aussi former le personnel au travail en équipe pour améliorer les résultats d'une catégorie. La planification, en matière de category management, se fonde sur des données récentes, sachant que tout retard dans l'application d'un plan rendra rapidement ces données obsolètes. La mise en oeuvre peut se heurter à une inertie structurelle classique de la part du distributeur, mais le category management inspire aussi souvent de la méfiance. Les distributeurs resteront sur leurs gardes tant qu'ils n'auront pas vu les résultats. Aussi faut-il commencer par les convaincre en introduisant d'abord avec succès ce mode de gestion dans quelques catégories clefs. Les travaux que j'ai effectués montrent que le processus de planification est beaucoup plus développé que le processus de mise en oeuvre. Pour surmonter les obstacles à la mise en oeuvre, il faut un engagement total de la part de la direction du distributeur. Il faut également faire un travail considérable pour réorienter et former le personnel, en mettant en place de nouveaux systèmes de mesure et de récompense calculés d'après les notes attribuées par catégorie. Le category management, nouvelle science de la distribution Le distributeur qui adopte le category management doit s'attendre à transformer considérablement ses relations avec ses fournisseurs ou sa gestion des stocks. Il doit aussi placer le consommateur au centre de ses décisions. THOMAS W. GRUEN L'Efficient Consumer Response (ECR) a considérablement modifié les pratiques de la distribution alimentaire aux Etats-Unis et en Europe dans les années 90. Ces nouvelles pratiques ont amené les distributeurs à restructurer leur offre : il a fallu accélérer l'échange d'informations avec les fournisseurs et les processus de livraison dans les magasins, ce qui a contribué à limiter les stocks et les opérations de manutention... Tout cela s'est traduit par une plus grande efficacité. Le volet offre de l'ecr n'est généralement pas perçu par le consommateur. Le volet demande est désigné par le terme «category management», qui regroupe le merchandising, les promotions, les prix et l'assortiment de produits. Le category management est défini par le projet sectoriel en la matière (Joint Industry Project on ECR) comme le «processus par lequel distributeurs et fournisseurs gèrent les catégories de produits comme des unités commerciales stratégiques, et améliorent les résultats en s'attachant à offrir de la valeur au consommateur.» Le category management est considéré comme la nouvelle «science de la distribution» pour trois raisons. Il met tout d'abord en oeuvre un processus systématique qui a fait ses preuves dans des cas de figure très différents, chez des distributeurs de tous les continents. Ensuite, il s'appuie sur des analyses complexes, effectuées sur des données recueillies auprès des consommateurs, des magasins et des marchés. Enfin, il supprime le biais introduit par les marques, qui cherchent à accroître leurs parts de marché, et le remplace par un point de vue beaucoup plus objectif : les souhaits du consommateur. Contexte et stratégie Les initiatives ECR, initialement conçues en 1993 pour les circuits de distribution alimentaire aux Etats-Unis, ont permis de relever plusieurs pratiques non rentables : au total, on a évalué à 30 milliards de dollars le montant de ces opérations, qui n'apportaient rien au consommateur. L'objectif ultime de l'ecr est d'arriver à un
système réactif et déterminé par le consommateur dans lequel est prise en compte la totalité de la chaîne de l'offre en vue de réduire les coûts et les stocks, tout en améliorant le choix pour le consommateur. Du point de vue stratégique, le category management consiste à diviser le magasin d'alimentation en 150 à 250 catégories de produits ayant chacune son rôle et ses objectifs en termes de chiffre d'affaires, de résultat, d'actif et de productivité. Le Joint Industry Project on ECR définit ainsi une catégorie : «groupe distinct et gérable de produits ou de services perçus par le consommateur comme liés et/ou interchangeables pour répondre à ses besoins». En utilisant le category management, le distributeur cherche à se différencier de façon durable et à obtenir un avantage concurrentiel catégorie par catégorie. Il gère chacune d'entre elles comme une unité commerciale stratégique. Le but est de concevoir le marketing mix d'une catégorie de manière à donner davantage de valeur au client que s'il achetait sous une autre formule de distribution. Avant d'opter pour le category management, les distributeurs de l'alimentaire avaient tenté d'enrayer l'érosion de leurs marges en augmentant la fréquence et l'ampleur des promotions, en exigeant des producteurs des frais de référencement pour le lancement de nouveaux produits et en renforçant leurs marges aux dépens des fournisseurs. Cette méthode à courte vue ne tenait pas du tout compte des consommateurs, qui se sont montrés dès lors moins fidèles. Le projet sectoriel sur l'ecr, en 1993, était en fait une tentative désespérée des distributeurs alimentaires pour remplacer des méthodes inefficaces et mal orientées par un ensemble de pratiques améliorées donnant de la valeur ajoutée au consommateur. Le groupe de partenaires a ainsi officiellement défini les grandes étapes de la mise en oeuvre du category management, publiées sous le titre «Best Practices Category Management Report», en 1995. En donnant un surcroît de valeur au client, catégorie par catégorie, les distributeurs de l'alimentaire cherchaient à contrer diverses autres formules de vente au détail. Par exemple, les ventes de produits pour animaux de compagnie s'effondraient, au profit de grandes surfaces spécialisées, de même que les ventes de produits d'hygiène et de beauté au profit des «hard discounters» spécialisés. Les «club stores» s'implantaient sur les produits en gros et d'autres nouvelles formes de magasins, comme Wal-Mart, prenaient des parts de marché. Chaque fois, les formules alternatives paraissaient plus attrayantes pour le consommateur, qui n'hésitait plus, dès lors, à se rendre dans un magasin différent. Certes, les distributeurs de l'alimentaire ont été les principaux bénéficiaires du category management. Mais c'est une arme à double tranchant, dans la mesure où il a aussi été adopté par les grandes surfaces d'hygiène et de beauté, par les discounters et par les magasins de proximité. Lancées aux Etats-Unis, les méthodes de category management ont été rapidement adoptées en Europe. Des travaux parallèles, parrainés par ECR Europe, ont donné lieu à la publication de rapports sur les meilleures pratiques de category management et sur les assortiments les plus efficaces. En Europe, les initiatives côté offre ont été compliquées par la diversité des cultures, des langues et des systèmes nationaux, mais le category management, côté demande, est parvenu à maturité beaucoup plus vite qu'aux Etats-Unis. Un processus en huit étapes Avec quelques variations, le processus en huit étapes défini par le groupe de partenaires a été adopté par les consortiums ECR aux Etats-Unis, en Europe et au Brésil (voir figure 1).
* Définition des catégories Le détaillant démarre ce processus de gestion par la répartition des produits en catégories. Une catégorie est idéalement définie par l'utilisation chez le consommateur. Exemple : produits de soins capillaires, aliments pour chiens et chats, potages et yaourts. Autre critère : l'emballage. Ainsi, les jus longue conservation, les jus réfrigérés et les jus concentrés congelés constituent trois catégories distinctes. Pour le magasin, l'idéal est que chaque unité faisant partie du stock (désignée en anglais par «stock keeping unit», ou SKU) appartienne à une catégorie. Dans la pratique, les détaillants commencent par intégrer ce mode de gestion catégorie par catégorie, de sorte que chaque unité SKU soit affectée à une catégorie au fur et à mesure, et non en une seule fois. * Rôle des catégories On attribue ensuite à chaque catégorie le «rôle» qu'elle doit jouer au niveau du magasin. Le rapport sur les meilleures pratiques en matière de category management définit quatre rôles, fondés sur le positionnement vis-à-vis des consommateurs. 1. Catégories de destination : celles par lesquelles le détaillant essaie de se distinguer de la concurrence en offrant une valeur supérieure au consommateur. Par exemple, le distributeur peut choisir d'englober dans cette catégorie le café, les pâtes, le papier, le pain, les boissons non alcoolisées et certaines denrées périssables. 2. Catégories de routine : celles que le consommateur achète régulièrement au magasin. Exemple : les jus de fruits, le lait, les céréales, la lessive et les aliments pour animaux de compagnie. 3. Catégories occasionnelles/saisonnières : celles qu'on achète moins fréquemment, comme les condiments et les crèmes solaires. 4. Catégories de proximité : le client sait qu'il peut avoir un choix plus étendu et de meilleurs prix ailleurs, mais il les achète dans le magasin le plus proche parce que la qualité est suffisante pour éviter un déplacement dans un autre point de vente. Exemple : les produits pour l'automobile, les produits «bio» ou les confiseries. Une catégorie n'a d'autre rôle fixe que celui que lui attribue le distributeur. Ce dernier doit organiser ses catégories selon un «portefeuille» de rôles équilibré pour gérer chacune d'entre elles d'après leur rentabilité attendue et pour mettre en oeuvre les stratégies et atteindre les objectifs de son entreprise. * Evaluation des catégories Cette étape consiste à évaluer en détail les sous-catégories, segments, marques et SKU de chaque catégorie d'après les informations émanant du consommateur, du distributeur, du fournisseur et du marché. L'évaluation des catégories se fonde sur un certain nombre d'outils analytiques conçus pour déterminer les points forts, les points faibles, les opportunités et les risques de chaque catégorie. Idéalement, l'analyse comporte une comparaison entre les données des lecteurs optiques au niveau du magasin et celles du marché, obtenues auprès d'une banque de données du secteur telle que Nielsen, IRI ou GfK. On utilise normalement des tableurs pour ce type d'analyse. On trouvera, figure 2, un exemple d'analyse des sous-catégories constituant la catégorie jus concentrés
congelés. L'axe des ordonnées représente la part de marché du magasin par rapport au segment correspondant. L'axe des abscisses représente les résultats récents du magasin par rapport au reste du marché. Dans cet exemple, pour deux sous-catégories (les jus d'orange d'un côté, les punchs et les boissons fruitées de l'autre), non seulement le magasin détient une part de marché plus faible que celle de ses concurrents, mais encore, chez lui, ces produits progressent moins vite qu'ailleurs. Au contraire, les cocktails de fruits et les autres mélanges affichent à la fois une part de marché et une croissance supérieure à celle de la concurrence. Le graphique contribution à la marge montre le rapport entre le chiffre d'affaires de chaque sous-catégorie et son niveau de marge brute. L'analyse rentabilité de la marge brute/capitaux investis mesure la (TOURNE) performance du stock du détaillant, indiquant le rapport entre la rentabilité de la marge brute et la rotation annuelle des stocks. Chacun de ces graphiques, entre autres outils d'évaluation, donne une idée précise de la performance de la catégorie (et de ses composantes) en tout cas à certains égards. A la figure 2, les graphiques par quarts indiquent que les performances de la souscatégorie des mélanges pourraient être meilleures moyennant une augmentation des prix et une baisse des stocks. Dans la sous-catégorie FCOJ (jus d'orange), étant donné le nombre élevé de rotations indiquées par le graphique GMROI, le détaillant qui a opté pour la gestion par catégorie doit peut-être ajouter quelques SKU pour améliorer sa croissance et sa part de marché. Pour la sous-catégorie Dr/Ade/Ph, il doit peut-être envisager une politique plus agressive sur les prix et supprimer certains SKU à faible rotation. Pour le choix de la tactique définitive (ex : quels SKU ajouter ou supprimer?) il faudra faire une analyse par quart de ce type au niveau de la marque et du SKU. * Classement des catégories Cette opération sert à «noter» la gestion par catégorie. Ce qu'on mesure dépend du rôle et des stratégies attribuées à chaque catégorie. Cependant, les critères les plus couramment utilisés sont la part de marché, le chiffre d'affaires, la rentabilité de la marge brute sur investissement et le résultat net. Les notes attribuées permettent de structurer et de discipliner le processus de category management, et de définir les objectifs du responsable de ce management. * Stratégie par catégorie Il faut déterminer des stratégies de marketing, d'offre produits et de services en magasin pour chaque catégorie. Les stratégies de marketing par catégorie consistent en général à renforcer le trafic, les transactions, la contribution au résultat, la génération de trésorerie, l'animation, à créer une image et à défendre «le territoire». * Tactique par catégorie Une fois la stratégie choisie, il convient d'élaborer un plan indiquant les tâches à accomplir pour la catégorie concernée. Le plan porte à la fois sur les côtés offre et demande de cette catégorie. Côté demande, on détermine l'assortiment de produits optimal, les prix, la présentation en rayon et la tactique de promotion, alors que côté offre il s'agit plutôt de l'approvisionnement et de la distribution des produits. * Mise en oeuvre par catégorie Alors que le plan tactique met l'accent sur les tâches à accomplir, le plan de mise
en oeuvre précise qui doit exécuter le plan par catégories, quand et comment. Il prévoit notamment une affectation des tâches, un calendrier et la fourniture des ressources nécessaires. * Analyse par catégorie Pendant la réalisation du plan, la catégorie fait régulièrement l'objet d'un suivi, de mesures et de modifications. * Processus de prise de décision basé sur les faits La gestion par catégorie est considérée comme une méthode «scientifique» de la distribution parce qu'elle consiste en un processus de prise de décision fondé sur des données et des faits. Cette méthode a pu se développer grâce à l'informatique et aux systèmes d'aide à la décision mis au point par les consultants du secteur. Elle a considérablement changé le rôle de l'acheteur et du vendeur. La gestion par catégorie s'articule nécessairement autour de la base de données et dépend très fortement de l'analyse. Même l'évaluation par catégorie la plus simple faisant appel à l'analyse Pareto pour le classement des résultats ou du chiffre d'affaires en volume des SKU d'une catégorie nécessite des chiffres précis sur les ventes en magasin. Les évaluations par catégorie visent à intégrer les données du magasin, les données sur le marché (fournies par les services de données), ainsi que les informations sur les consommateurs fournies par les fabricants en vue d'identifier des «créneaux» pour le chiffre d'affaires, le résultat et la rentabilité des capitaux investis. La collecte, la standardisation, la gestion et l'analyse de volumes de données aussi considérables à partir de sources multiples nécessitent un engagement en matériel informatique, logiciels et personnel. La gestion par catégorie transforme la masse des données recueillies par les lecteurs optiques du magasin en informations utilisables. La gestion par catégorie est bien moins complexe depuis que des programmes existent pour intégrer ces diverses sources de données et automatiser l'analyse fondamentale. L'objectif est de réduire le temps nécessaire à l'étude d'une catégorie et à la standardisation des informations utilisées par les gérants. Ces programmes peuvent être obtenus auprès de consultants ou de producteurs de bases de données, sachant que de grandes sociétés telles que Procter & Gamble et Coca-Cola ont développé leurs propres outils d'analyse sur la base du modèle Best Practices Category Management de TPG. L'un des résultats les plus importants de la méthode de décision d'après les faits est que le rôle de l'acheteur dans le secteur de la distribution a changé. La planification par catégorie détermine l'assortiment, les linéaires et la présentation des SKU de manière à satisfaire au mieux le client d'après les informations recueillies. Ainsi les modes d'achat traditionnels sont relégués à un simple rôle de logistique : il s'agit de réduire au minimum la distributionles livraisons et les stocks en veillant à ce que les rayons restent toujours approvisionnés. Le category management inscrit toutes ces tâches dans une gestion totale des actifs contenus dans une catégorie. Une approche objective L'autre raison pour laquelle la gestion par catégorie est considérée comme un mode de «distribution scientifique» est qu'elle implique un partenariat entre détaillants et fournisseurs. A cette fin, les uns et les autres doivent examiner le marché à l'aide d'instruments objectifs pour mieux servir le client.
Auparavant, fournisseurs et distributeurs au détail se considéraient un peu comme des adversaires. Pour qu'un nouveau produit trouve sa place sur les rayons, mieux valait proposer une bonne prime de lancement qu'insister sur sa capacité à répondre aux attentes des consommateurs. Les techniques commerciales se fondaient davantage sur les sommes versées au distributeur au détail que sur la valeur apportée au consommateur. Les prix étaient fixés plus en fonction de la marge brute que du bénéfice réel. On procédait donc au petit bonheur la chance, essayant de redresser les marges plutôt que de fidéliser la clientèle. L'impératif d'objectivité de la part du fournisseur est mis en évidence lorsque ce dernier est considéré comme un «capitaine de catégorie». Dès lors, le distributeur au détail sélectionne son fournisseur pour la catégorie concernée parce qu'il le considère comme le plus apte pour la gestion de cette catégorie. Le capitaine de catégorie définit avec le distributeur au détail un plan pour la catégorie de A à Z, y compris les marques des concurrents et les marques de distributeur. En fait, le distributeur au détail confie le sort de l'ensemble d'une catégorie à un fournisseur unique, modifiant ainsi le rôle fondamental de la vente. Plutôt que de chercher à gagner des parts de marché au détriment des marques de ses concurrent, le capitaine de catégorie cherche à réaliser des bénéfices en augmentant la taille et la performance de la catégorie, de sorte que toutes les marques (y compris celle du capitaine) contribuent au bénéfice. Toute tentative de la part du capitaine pour «biaiser» le rapport ne ferait que nuire à la performance anticipée de la catégorie, avec des conséquences sur le processus de planification stratégique. C'est en se fondant sur des données objectives et en respectant les huit étapes de la gestion par catégorie que l'on obtient le plan d'action le plus susceptible de définir la meilleure catégorie pour un segment de consommateurs cibles donné. La définition de la planification stratégique se traduit souvent par la réduction du nombre des SKU. Le capitaine de catégorie doit rester objectif même lorsque ses propres SKU sont éliminés. Les évaluations de catégories aux Etats-Unis et en Europe aboutissent en moyenne à la recommandation de réduire de 10 % à 15 % les SKU d'une catégorie (même si certains recommandent d'ajouter des SKU). Les études effectuées montrent qu'on peut éliminer (déréférencer) dans certaines catégories 25 % de SKU sans réduire la satisfaction de la clientèle. En fait, la satisfaction de la clientèle devrait même augmenter dans la mesure où le distributeur au détail est plus à même de garder en stock les articles les plus appréciés par le segment concerné. En outre, les achats deviennent plus faciles et moins déroutants pour les clients. * (Figure page 6 du journal) Le processus de gestion par catégorie 70 Définition des catégories 70 Rôle des catégories Evaluation des catégories Examen des catégories Note attribuée par catégorie Stratégie par catégorie Tactique par catégorie 70 Mise en oeuvre par catégorie Figure 2 Jus et boissons congelés Analyse par sous-catégorie - Croissance en part de marché Produits qui stagnent- Produits qui marchent bien
Point d'interrogation - Créneau Boissons et jus congelés Analyse par sous-catégorie - Contribution à la marge Produits générateurs de trafic- Produits qui marchent bien Point d'interrogation - Produits soutenant les ventes Boissons et jus congelés Analyse par sous-catégorie - Rentabilité de la marge brute sur investissement Produits qui stagnent- Produits qui marchent bien Point d'interrogation - Produits générateurs de trafic Les sources d'information Les gestionnaires ont à leur disposition plusieurs ressources. Tout d'abord, le Joint Industry Project on ECR a publié un rapport sur les meilleures pratiques de category management et un autre sur l'assortiment efficace, tous deux rédigés par The Partnering Group. Ces documents, ainsi que leurs mises à jour et autres rapports connexes, peuvent être obtenus auprès du Food Marketing Institute de Washington D.C. Des rapports similaires existent pour l'europe et peuvent être obtenus auprès d'ecr-europe. Le Food Marketing Institute a publié en outre cinq manuels de mise en oeuvre de category management, rédigés par Robert Blattberg, du Center for Retail Management à la Northwestern University. Différenciez vos prix! Une politique de prix efficace peut améliorer les profits de 20 à 50 % en exploitant les différences entre les consommateurs. Cela implique d'étudier en profondeur la valeur que ces derniers attribuent au produit ou au service considéré. HERMANN SIMON, ROBERT DOLAN ET GILLES LAURENT On sait depuis longtemps qu'il faut adapter les produits et les services offerts aux besoins de chaque segment de clientèle. Mais on ne songe pas assez à adapter les prix aux différents segments. Les entreprises savent bien que la valeur d'un produit n'est pas la même pour tous les consommateurs, mais trop peu d'entre elles en tirent des conclusions systématiques. Trop souvent, la politique de prix est fondée uniquement sur les coûts, et les dirigeants se posent directement la question : «Quel prix unique fixer pour notre produit?», alors que les bonnes questions sont les suivantes : - Quelle valeur chaque client attache-t-il personnellement au produit? - Quelle politique de prix correspond-elle le mieux à la valeur attachée au produit par les différents segments de consommateurs? Vendre à un prix unique est une bonne approche quand les clients sont peu différents les uns des autres. Si tous les clients potentiels valorisent votre produit à 500 francs, un prix de vente unique à 500 francs est très proche de la solution optimale, et suffit amplement. En revanche, s'il ne s'agit que d'une valorisation moyenne provenant de valeurs perçues très diverses, un prix unique ignore ce potentiel de différenciation et gaspille une part considérable des profits potentiels.
Une politique de prix efficace doit plutôt segmenter les différentes catégories de consommateurs selon la valeur qu'ils accordent au produit ou au service considéré. Cela peut se faire à l'aide de tarifs conçus pour que les clients attachant une valeur élevée au produit ne puissent bénéficier de l'offre destinée aux clients qui lui attachent moins de valeur. Pour prendre un exemple classique, un adulte est prêt à payer plus cher une place de cinéma qu'un étudiant, et on peut en tirer parti en réservant le prix réduit aux étudiants ou aux moins de 25 ans. Plus généralement, on peut utiliser cinq techniques efficaces et innovantes pour différencier les prix : 1) les tarifs multidimensionnels, 2) les rabais sur quantité, 3) les tarifs de groupe, 4) les offres groupées ou «bundling» et 5) les stratégies de gamme. Cette variété de méthodes est nécessaire parce que les contextes de marché varient. Mais le principe est toujours d'augmenter les profits en tenant compte de ce que chaque consommateur est prêt à payer. Tarifs multidimensionnels Le principe des tarifs multidimensionnels est d'introduire de nouveaux paramètres dans le calcul du prix pour mieux s'adapter à la diversité des consommateurs. Par exemple, au lieu de proposer du gaz en bouteille à un prix unique par kilo, un producteur introduit un prix de location journalier pour la bouteille en acier tout en baissant le tarif du kilo de gaz. Il limite ainsi les comparaisons directes avec ses concurrents qui continuent de vendre le gaz uniquement au poids. De plus, la nouvelle structure de prix modifie le calcul du coût par unité pour le client, puisqu'au prix du kilo de gaz il faut ajouter le coût de location divisé par le nombre d'unités consommées pour obtenir le prix réel par unité. De cette façon, le producteur segmente les clients en les différenciant selon leur taux de consommation : les gros consommateurs paient moins par kilo. On peut pousser cette logique plus loin avec un prix au kilo d'autant plus bas que le client consomme plus. Le producteur peut proposer le même tarif initial à tous ses clients, et la segmentation se fait automatiquement sur la base de la consommation. En fixant correctement les deux paramètres du prix, le producteur ou le revendeur peut augmenter ses profits de façon significative. Les chemins de fer utilisent aussi depuis longtemps ce type de structure. L'abonnement «Fréquence» de la SNCF permet ainsi de voyager en deuxième classe dans toute la France avec 50 % de réduction dans tous les trains contre l'achat d'une carte annuelle de 3.186 F. Le prix comporte ainsi deux composantes distinctes : celui de la carte et celui du voyage proprement dit. L'important est de baisser le coût marginal de transport au kilomètre, le seul qui comptera lors du choix du moyen de transport pour un déplacement (voiture ou train). En Allemagne, la «BahnCard» introduite en 1993 a connu un succès fulgurant et compte actuellement 3,5 millions d'abonnés. Fonctionnant selon le même principe de voyages à moitié prix moyennant l'achat d'une carte annuelle, ce nouveau tarif a augmenté le chiffre d'affaires annuel de l'entreprise de plus de 185 millions d'euros. La détermination de chaque paramètre du prix requiert bien sûr une analyse approfondie des préférences des clients et de la valeur qu'ils attachent au produit. La mise en place de la «BahnCard» a nécessité l'interview de 4.000 usagers en utilisant des techniques sophistiquées de mesure indirecte des valeurs d'utilité sur ordinateur («analyse conjointe»). Le coût d'une telle étude est largement justifié par les économies engendrées. Rabais sur quantité Il s'agit de faire varier le prix unitaire selon la quantité achetée. Dans de nombreuses situations, le consommateur attache plus de valeur à la première unité
du produit qu'aux unités suivantes. Considérons par exemple la politique mise en place par une nouvelle salle de cinéma offrant un écran géant panoramique et des effets spéciaux (type Géode). Une carte délivrée gratuitement lors de la première visite offre des réductions pour l'achat d'autres tickets pendant le même mois. La demande des consommateurs est mieux exploitée, puisque les gros clients potentiels bénéficient de tarifs plus attractifs que ceux qui se satisfont d'une seule visite. Ces deux premiers types de tarifs sont des exemples de tarifs non linéaires, où le prix payé n'est pas proportionnel au nombre d'unités consommées. Les profits peuvent croître de 50 %, mais les réactions de la concurrence peuvent aussi jouer un rôle critique, et doivent être anticipées et observées avec soin. Tarifs de groupe Le rabais, ici, dépend du nombre de clients achetant ensemble. Le principe est que chaque membre du groupe paie moins en moyenne qu'un consommateur isolé. L'explication est que le prix acceptable par la première personne est plus élevé que pour les autres membres du groupe. Par exemple, un homme d'affaires est prêt à payer 5.000 francs pour un voyage professionnel, alors que l'épouse qui l'accompagne n'est prête à dépenser que 3.000 francs. La compagnie aérienne a trois solutions. Elle peut fixer le prix du vol à 5.000 francs, et ne transporter que l'homme d'affaires, fixer le prix à 3.000 francs et transporter les deux personnes, ou encore proposer 5.000 francs pour la première personne et 3.000 francs pour la deuxième (ou un lot de deux tickets pour 8.000 francs). La troisième solution est la plus profitable. Ce type de tarif est très répandu dans les voyages, l'hôtellerie, les conférences ou autres activités comparables. Cela nécessite des informations détaillées sur les consommateurs et leur volonté de payer, à la fois pour l'individu et le groupe concerné. En pratique, les améliorations de profit sont de l'ordre de 10 à 15 %. Offres groupées ou «bundling» Il s'agit de proposer dans un même lot des produits différents pour un prix inférieur à la somme de leurs prix respectifs. Dans une stratégie de lot pure, seul le lot tel quel peut être acheté, par opposition à une stratégie de lots mixtes, où les produits peuvent aussi être achetés séparément. Ces techniques sont largement utilisées dans l'agroalimentaire, l'automobile, le tourisme (voiture ou train + avion), les télécommunications ou l'informatique (l'«office» de Microsoft par exemple est une offre qui s'est révélée extrêmement efficace). Dans le cas d'un constructeur automobile, les options groupées permettent de réduire considérablement les coûts d'achat tout en simplifiant la logistique et l'assemblage. Les offres groupées se distinguent des autres techniques de prix en cela qu'elles augmentent le profit en réduisant les différences entre consommateurs. Il s'agit de trouver des combinaisons de produits pour lesquelles la volonté de payer des consommateurs est plus homogène que pour les produits pris individuellement. La volonté de payer pour un produit peut être reportée sur d'autres produits. Comme pour les autres méthodes décrites plus haut, cette stratégie nécessite une analyse précise des clients pour déterminer s'il est préférable d'appliquer des tarifs séparés (sans lots), une stratégie de lot pure ou une stratégie de lot mixte. Au total, les offres groupées engendrent typiquement des améliorations de profit allant de 15 à 25 %. Stratégies de gamme Les grandes marques, de plus en plus exposées aux attaques de produits «sans
nom» ou des marques de distributeur, peuvent riposter de différentes manières : mettre en place une stratégie de prix bas permanents, baisser les prix temporairement pour tenir en échec les concurrents, introduire un nouveau produit moins cher, sous une deuxième marque, une marque générique, une marque privée ou encore une marque de distributeur. Le plus important est de fixer un prix de façon à limiter la cannibalisation avec la marque principale et à permettre de regagner des parts de marché face aux marques à bas prix. Un fabricant de luminaires a choisi cette stratégie face à la concurrence des produits chinois bon marché. Il a lancé un produit 40 % moins cher que son produit traditionnel, de conception différente, moins bien emballé, vendu par une force de vente spéciale, dans des circuits séparés. La firme évitait d'attaquer de front les produits chinois, se préservant d'une éventuelle guerre des prix. Au bout de deux ans, cette stratégie, soigneusement conçue et mise en place, s'est révélée être un succès : 40 % du chiffre d'affaires du produit bon marché venaient de la cannibalisation du produit d'origine, mais 60 % avaient été gagnés sur les concurrents chinois. L'entreprise a segmenté les clients avec deux marques, pour maximiser ses profits. Une politique de prix bien étudiée peut améliorer les profits de 20 à 50 % en exploitant les différences entre les consommateurs. Cela implique d'étudier en profondeur la valeur que les consommateurs attribuent au produit. L'analyse conjointe est un outil particulièrement utile pour calculer la valeur attachée par les clients aux différentes caractéristiques d'un produit ou d'un service. Cela permet de mettre en place des tarifs et des produits adéquats. Il faut aussi prendre soin d'adapter la communication à la politique de prix adoptée : faire raisonner, par exemple, les clients des hôtels en termes de «réductions hors saison» plutôt que de «hausses en haute saison». Mettre en place une politique de prix différenciés n'est pas toujours aisé. Mais, si elle est soigneusement étudiée, les espérances de gains sont considérables. Les MDD, menace pour les marques nationales Les marques de distributeur ont connu ces dernières années un succès croissant auprès des consommateurs. Quelle stratégie les marques nationales peuvent-elles adopter pour leur résister? STEPHEN J. HOCH ET JAGMOHAN S. RAJU Entrez dans un supermarché et vous y trouverez toutes les marques nationales dont vous voyez les publicités à la télévision ou dans les journaux. Vous remarquerez également que les marques de distributeur (MDD) occupent une place croissante à leur côté. Au départ, ces «marques de magasin» devaient concerner des produits destinés à des clients particulièrement attentifs aux prix. Les clients plus aisés, appréciant et recherchant la qualité, étaient censés privilégier toujours les produits de marques nationales. C'était, du moins, la conviction des grands distributeurs et des fabricants. Le développement spectaculaire des ventes de marques de distributeur a contraint les responsables des marques nationales à rapidement mettre en oeuvre de nouvelles stratégies pour contrer leurs assauts. Les marques nationales se trouvent dans une situation inconfortable : les magasins qui se lancent dans des programmes de commercialisation de leur propre marque sont également les principaux clients des marques nationales. A l'origine, les clients achetaient les marques de distributeur pour des raisons économiques. Les grands distributeurs ont néanmoins constaté qu'ils achètent désormais ces produits parce qu'ils estiment que leur qualité est comparable à celle des marques nationales. En outre, les prix des MDD sont généralement inférieurs de 10 à 30 % à ceux des marques nationales.
Par le passé, les marques nationales avaient tendance à se focaliser sur le consommateur et à négliger le distributeur. Leurs responsables ont désormais compris que le succès d'un produit dépend non seulement du fabricant, mais aussi du consommateur et du distributeur. Les distributeurs et les fabricants de produits de marque nationale s'efforcent désormais de travailler en collaboration tout en se faisant concurrence. Les marques de distributeur ont représenté 13 % du volume des ventes des supermarchés américains en 1991. Bien que ce chiffre semble relativement peu important, il représente 50 milliards de dollars. Il ressort de nos récentes études que les marques de distributeur sont, en moyenne, 21 % moins chères que les marques nationales. Dans de nombreuses catégories de produits, les marques de distributeur dominent le marché. Par exemple, plus de 50 % des ventes de petits pois surgelés et de fromages à pâte dure se font sous des marques de distributeur. Nous avons également remarqué que les distributeurs dégagent une marge brute sur les marques de distributeur de 20 à 30 % supérieure à celle dégagée sur les marques nationales. Les MDD ont obtenu de bien meilleurs résultats en Europe et au Canada qu'aux Etats-Unis. En Allemagne, par exemple, les ventes de marques de distributeur ont augmenté de 13 à 23 % entre 1982 et 1990. Le tableau de la page VIII présente un récapitulatif de la pénétration des MDD par pays. On constate une très grande différence qualitative entre les programmes américains de commercialisation des marques de distributeur et ceux élaborés en Europe. En effet, les marques de distributeur européennes offrent souvent une qualité et un choix supérieurs aux marques de distributeur américaines. L'Europe et le Canada disposent de grandes chaînes nationales de distribution alimentaire dont la concentration est beaucoup plus importante qu'aux Etats-Unis. Dans ce pays, par exemple, le plus grand magasin d'alimentation est Kroger ; malgré sa taille importante - son chiffre d'affaires annuel dépasse les 20 milliards de dollars -, il ne réalise que 6 % des ventes nationales de produits alimentaires. Toutefois, les récentes acquisitions et fusions effectuées dans le secteur de l'épicerie pourraient laisser présager que les Etats-Unis s'orientent vers le modèle européen. A l'inverse, la suppression des barrières douanières sur le marché européen pourrait entraîner le secteur de la distribution alimentaire vers une situation similaire à celle des Etats-Unis avec des distributeurs régionaux détenant de petites parts du marché européen. Notre étude montre qu'il existe un lien étroit entre les ventes de marques de distributeur et la situation économique : lorsque les temps sont durs, les consommateurs ont tendance à acheter davantage les produits des marques de distributeur ; lorsque l'économie est forte, ils préfèrent les produits de marques nationales. Si l'on représente sur un graphique la part de marché des marques de distributeur et le revenu moyen des consommateurs, on constate que la première baisse lorsque les revenus augmentent et qu'elle augmente lorsque les revenus baissent (voir la figure ci-contre). Nous avons également constaté que dans les zones à forte concentration de personnes âgées, de familles nombreuses ou de femmes actives, les consommateurs font très attention aux prix et ont tendance à acheter des marques de distributeur. A l'inverse, dans les foyers à revenus élevés, les consommateurs sont moins attentifs aux prix et achètent moins de produits des marques de distributeur. Toutefois, et ceci est fort intéressant, les consommateurs disposant d'un haut niveau d'études font généralement peu attention aux prix, mais achètent néanmoins beaucoup de marques de distributeur. Nous en déduisons que les consommateurs ayant un certain niveau d'instruction sont mieux informés sur les marques de distributeur et savent que leur qualité peut être comparable à celle des marques nationales.
Qualité et prix C'est la combinaison du prix et de la qualité qui fait la différence entre les marques de distributeur et les marques nationales. Si les consommateurs ont tout d'abord recherché la qualité en ne tenant guère compte du prix ou, au contraire, des prix bas au détriment de la qualité - permettant ainsi aux marques nationales de se concentrer sur la qualité et aux marques de distributeur de se focaliser sur les prix -, ils semblent vouloir désormais obtenir des produits de grande qualité à des prix abordables. Ces consommateurs disposent de ressources suffisantes pour acheter des produits de marques nationales mais exigent des prix correspondant généralement à ceux des marques de distributeur. Un véritable casse-tête pour les fabricants et les détaillants. Les marques nationales ont toujours fait de la qualité leur cheval de bataille. La qualité comprend deux composantes : 1) le niveau moyen de qualité d'un produit comparé à un autre et 2) la constance de la qualité d'un produit dans le temps. Les méthodes de fabrication jouent un rôle déterminant dans la qualité d'un produit. Initialement, les marques nationales étaient légèrement supérieures sur le plan de la constance de la qualité des produits dans le temps. Or, de plus en plus, les fabricants de marques de distributeur peuvent égaler voire dépasser la qualité des produits des marques nationales et garantir une qualité constante pour l'ensemble de leur gamme. De ce fait, les MDD deviennent une réelle menace pour les marques nationales dont elles deviennent les véritables rivales. Dès qu'un consommateur se rend compte que la qualité des marques de distributeur est comparable à celle des marques nationales et que cette qualité est dépasser la qualité des produits des marques nationales et garantir une qualité constante pour l'ensemble de leur gamme. De ce fait, les MDD deviennent une réelle menace pour les marques nationales dont elles deviennent les véritables rivales. Dès qu'un consommateur se rend compte que la qualité des marques de distributeur est comparable à celle des marques nationales et que cette qualité est constante, il n'hésite pas à laisser tomber les marques nationales. Après tout, il obtient ce qu'il veut à un prix qui, en moyenne, est 20 % moins cher. Bien sûr, les consommateurs acceptent d'échanger la qualité contre un prix bas, mais seulement dans une certaine limite. Nos études ont en effet montré que le prix n'est pas un facteur déterminant. Un nécessaire partenariat Le succès croissant des marques de distributeur fait pencher la balance en faveur des distributeurs au détriment des marques nationales. Mais tout n'est pas encore perdu pour les marques nationales. Un des problèmes majeurs, pour les distributeurs, se pose lorsqu'ils doivent accorder une place restreinte en rayon aux produits de leur enseigne. Les marques nationales fournissent aux distributeurs le matériel publicitaire et des opérations de marketing sous la forme de bons de réduction ou d'autres promotions, alors que les distributeurs doivent assurer eux-mêmes la promotion de leur marque. Lorsque ces derniers disposent de programmes efficaces de commercialisation de leurs produits, ils se servent souvent de cet argument pour obtenir des marques nationales de meilleures conditions, de meilleurs prix ou un meilleur approvisionnement. Les MDD permettant aux distributeurs de dégager des marges brutes plus importantes, les marques nationales doivent offrir d'autres avantages pour garder leur place en rayon.
Les marques nationales ont leurs propres moyens de pression. Elles fournissent généralement une aide et contribuent à l'expansion du marché, deux choses que les distributeurs ne peuvent pas se permettre de faire pour leurs propres produits. Les distributeurs qui ont leurs propres marques doivent assumer des responsabilités qui sont généralement prises en charge par les fabricants de marques nationales. Ils doivent ainsi investir dans des stocks, des emballages, des présentoirs, des opérations de promotion spéciales, et en publicité. Les magasins d'alimentation commercialisent des dizaines de milliers d'articles différents ; de ce fait, il leur est impossible de gérer un programme de commercialisation pour chaque produit ou pour chaque catégorie de produits de MDD. Ils doivent, par conséquent, concentrer leurs efforts sur les produits qui leur garantissent à la fois un chiffre d'affaires et des marges brutes conséquents. Les fabricants de marques nationales peuvent rivaliser de manière agressive en renforçant leurs efforts publicitaires et promotionnels et en améliorant la qualité de leurs produits. Les marques de distributeur ont tendance à avoir moins de succès lorsqu'elles sont en concurrence avec beaucoup d'autres marques. C'est le cas, par exemple, du marché des shampooings, où l'on compte plus de 1.100 produits différents, comparativement à celui du sel ou du sucre où il y a très peu d'offres concurrentes. Plus la variété est grande et plus il est difficile pour une marque de distributeur de s'emparer d'une part importante de marché. Le fabricant d'une marque nationale examinera soigneusement son marché, recherchera en permanence des niches et étudiera la manière dont son produit est perçu par les consommateurs. Les consommateurs sont devenus très exigeants, car ils sont beaucoup mieux informés. Ils veulent un juste milieu entre la qualité et le prix. Le mot d'ordre dans le secteur du commerce de détail est actuellement «valeur». Les consommateurs sont capables de porter des jugements sur la qualité des produits et d'indiquer ceux qui garantissent la meilleure valeur. Lorsque les fabricants de marques nationales ont clairement délimité leur territoire et lorsqu'il existe plusieurs variantes d'un produit, les marques de distributeur ont beaucoup moins de chances de réussir. La publicité continue de jouer un rôle déterminant dans la création d'une marque forte et pour fidéliser les clients de leur côté. Les distributeurs consacrent beaucoup de temps et d'argent à fidéliser les clients de leur magasin. Les fabricants de produits de marques nationales doivent devenir les partenaires de chaque distributeur et pas simplement leurs fournisseurs. Ils peuvent non seulement apporter une aide précieuse au distributeur en matière de marketing en projetant une image de qualité, mais aussi s'assurer que leurs produits sont vendus à des prix compétitifs, ce qui permet au distributeur de dégager une marge honorable. En contact permanent avec leurs clients, les distributeurs peuvent modifier presque instantanément la gamme de produits qu'ils commercialisent ainsi que leurs présentations pour faire face aux réactions de ces clients. Ils peuvent tirer profit des promotions organisées par des marques nationales pour pousser leur propre marque. Les distributeurs ont aussi un contrôle total sur la mise en rayon et la promotion des produits. Si un produit se vend bien, le distributeur peut intervenir immédiatement en donnant le petit coup de pouce supplémentaire qui stimulera encore plus ses ventes. S'il ne se vend pas, le distributeur peut le changer de place ou le retirer de la gamme des produits qu'il commercialise. Les responsables des marques nationales doivent prendre conscience du pouvoir accru dont disposent les distributeurs et de la nécessité de travailler main dans la main avec eux.
Les résultats obtenus par les marques de distributeur se sont considérablement améliorés dans un segment en pleine expansion du commerce de détail, celui des discounters comme Wal-Mart aux Etats-Unis. Si ces distributeurs poursuivent leur progression agressive dans le secteur de la vente traditionnelle des produits alimentaires et combinent cette progression à leur engagement envers les MDD, les marques nationales seront vraiment en danger. Ces dernières devront répondre rapidement à grand renfort de campagnes publicitaires et promotionnelles pour convaincre les clients que la valeur qu'elles offrent est vraiment meilleure. Les distributeurs utilisent fréquemment les marques nationales dans leur publicité pour attirer les clients dans leurs magasins. Notre étude nous a permis de constater que les distributeurs qui emploient ce genre de stratégie commercialisent davantage de produits de marques nationales, offrent un plus grand assortiment et vendent généralement moins cher que leurs concurrents. Ces stratégies, bien évidemment, portent préjudice aux MDD. Ceci montre à quel point il est difficile pour un distributeur de trouver un juste équilibre pour maximiser ses recettes et sa marge brute sur chaque catégorie de produits. Notre étude peut être utile à tous les secteurs qui commercialisent des produits de marques nationales et de marques de distributeur. Tant qu'il sera possible d'externaliser, les marques de distributeur continueront de progresser au détriment des marques nationales. Le consommateur n'est pas toujours fidèle à une marque et la tentation est forte d'en essayer d'autres. Les fabricants de produits de marques nationales semblent, toutefois, disposer des ressources nécessaires pour créer de nouveaux produits ou améliorer ceux qui existent beaucoup plus rapidement que ne peuvent le faire les fabricants de produits sous marques de distributeur. La plupart des marques nationales disposent de grands départements de recherche, très sophistiqués, ainsi que d'importants services de publicité et de marketing, ce qui constitue un avantage considérable. Le prix n'est pas l'élément déterminant du succès - ou de l'échec - des marques de distributeur. La force de la marque est le principal obstacle à surmonter. Les marques nationales s'efforcent de démontrer leur qualité aux consommateurs ; les MDD n'ont jamais eu cette possibilité. Un sondage Gallup effectué en 1990 a révélé que 85 % des consommateurs considéraient la qualité comme «très importante» dans leurs décisions d'achat, tandis que 73 % considéraient le prix comme «très important». Il ressort de ce sondage que la qualité est le seul critère d'achat vraiment déterminant pour la majorité des acheteurs. Les marques nationales doivent donc concentrer leurs efforts sur leur image de qualité, même si leurs prix deviennent plus compétitifs. La meilleure stratégie de prix pour les distributeurs est de maintenir un écart de prix moyen entre les marques nationales et les marques de distributeur. Si l'écart est trop important, les ventes de produits de marques nationales à marge élevée en souffrent et le distributeur renonce à dégager trop de marge sur les marques de distributeur, sans parvenir à en augmenter suffisamment les ventes pour compenser le déséquilibre. En outre, le distributeur ne gagne pas grand-chose en termes de meilleure image de prix puisque celle-ci est véhiculée davantage par les marques nationales que par les marques de distributeur. Si l'écart est trop petit, les ventes de produits de marques nationales augmentent, tandis que celles des marques de distributeur diminuent au point de ne plus dégager aucune marge. La leçon à tirer est la suivante : les fabricants de produits de marques nationales et les distributeurs se trouveraient dans une bien meilleure situation s'ils dépensaient moins d'énergie à rivaliser sur les prix. Les marques nationales
devraient mettre en place une stratégie reposant sur l'innovation, à grand renfort de campagnes publicitaires et d'opérations de marketing afin de soutenir leurs produits ; quant aux distributeurs, ils devraient s'efforcer de mieux gérer leurs magasins et de conserver leurs clients fidèles. L'avenir Les consommateurs recherchent de plus en plus des produits de qualité supérieure à bas prix. Ceci ouvre des horizons, non seulement aux marques nationales qui ont toujours eu une avance sur le plan de la qualité, mais aussi aux marques de distributeur qui, elles, ont une avance au niveau des prix. Comme la qualité réelle des MDD augmente et que la façon dont elle est perçue s'améliore, il y a de fortes chances pour que de plus en plus de clients choisissent ces produits. Une croissance relativement faible des dépenses en produits frais et emballés, d'une part, et une consolidation constante dans le secteur alimentaire, extrêmement fragmenté, d'autre part, impliquent un renforcement de la concurrence et une diminution des marges pour les distributeurs et les fabricants. Dans de nombreux pays, on s'oriente vers la constitution d'un petit nombre de distributeurs contrôlant une part importante du marché ; ces distributeurs sont ceux qui disposeront des ressources pour mettre en oeuvre avec succès des programmes de commercialisation de leurs propres marques. Les marques nationales qui continueront d'exister seront celles dont les produits se distingueront de ceux des marques de distributeur, c'est-à-dire celles qui continueront à accroître leur valeur. La célèbre formule n'a jamais aussi bien convenu : résoudre un important problème avec un consommateur à l'aide d'un produit de qualité supérieure et faire part ensuite avec détermination des avantages offerts par le produit à grand renfort de publicité. Les marques nationales sont sur le point d'instaurer des relations solides avec leurs clientsdistributeurs. Cette tendance se poursuivra. Les distributeurs savent qu'ils ont besoin des marques nationales et s'efforceront, par conséquent, de maintenir de bonnes relations avec leurs fournisseurs. Bien que le succès d'un programme de commercialisation de marques de distributeur dépende du comportement du distributeur, les marques nationales pourront à l'avenir influer sur l'évolution des MDD. Plus les marques nationales permettront aux distributeurs de faire des bénéfices, moins ceux-ci seront enclins à allouer des ressources à la promotion de leurs propres marques. Les responsables des marques nationales devront concentrer leurs efforts non pas sur les prix, mais plutôt sur les nombreux avantages qu'offrent leurs produits aux distributeurs et aux consommateurs. Les règles d'or du service à la clientèle Il faut savoir répondre aux besoins du client sans dépasser inutilement ses attentes, et surtout comprendre et gérer ses insatisfactions pour distancer la concurrence. DAWN IACOBUCCI Toutes les statistiques le montrent : le secteur des services représente les deux tiers au moins de l'économie mondiale. L'industrie des services englobe les «services» au sens strict du terme (hôtels, restaurants, cabinets-conseils, etc.), et des éléments «mixtes» pour lesquels le coeur de l'achat peut être un produit, mais comportant un important élément de service : par exemple, les concessionnaires automobiles ou les courtiers en prêts hypothécaires. En raison de l'intensification de la concurrence, les dirigeants d'entreprise cherchent de plus en plus à fournir une valeur ajoutée aux clients et à renforcer leur avantage concurrentiel en offrant de meilleurs services à la clientèle. La meilleure façon d'améliorer la qualité des services offerts à la clientèle consiste à mieux comprendre leurs caractéristiques fondamentales. Les services ont
tendance à être immatériels, produits et consommés simultanément, et hétérogènes. Chacune de ces qualités a des répercussions sur le marketing et la gestion du service à la clientèle. Des biens immatériels Le «service encounter» est souvent décrit comme le résultat d'une interaction sociale permettant au consommateur et au personnel concerné de se valoriser l'un l'autre. Dans ce processus d'échange, le client est traité d'une manière qui peut être immatérielle. L'immatérialité des services a de nombreuses répercussions sur la gestion des entreprises. On a, par exemple, suggéré que les publicités pour des services devaient comporter des symboles ou des éléments tangibles, utilisés comme des signes concrets d'attributs abstraits, tel le rocher de la compagnie d'assurances américaine Prudential pour symboliser la solidité. Le principal thème traité par les études théoriques sur l'immatérialité des services est celui de ses effets sur l'évaluation, par les clients, des services qui leur sont fournis. Plusieurs modèles conceptuels de satisfaction des clients et de qualité des services partent du principe que l'évaluation est une comparaison entre l'expérience réelle du client et ses attentes : si l'expérience dépasse les attentes, les modèles prédisent une satisfaction. On estime que les attentes avec lesquelles on compare les expériences sont issues d'informations transmises par une société (par exemple, des publicités) ou par d'autres clients (le bouche-à-oreille). En se fondant sur ces analyses, les universitaires essaient de concevoir d'autres modèles plus utilisables. Le professeur Roland Rust, par exemple, conseille aux entreprises de quantifier «les retombées de la qualité» pour évaluer la rentabilité financière des initiatives visant à améliorer le service à la clientèle et la satisfaction des clients. Certaines mesures, ou certaines modifications apportées à la manière dont les services sont fournis, feront davantage plaisir aux clients que d'autres décisions. Il s'avère par conséquent nécessaire de déterminer les qualités qui, pour les clients, présentent de la valeur. Les sociétés doivent pour cela écouter ce que les clients ont à leur dire. Les professeurs Eugene Anderson et Claes Fornell, de l'université du Michigan, ont commencé à démontrer qu'il existe une relation prometteuse entre les indicateurs de satisfaction et les statistiques macroéconomiques telles que l'indice des prix à la consommation. Ces deux indices permettent d'évaluer la notion de bien-être économique des consommateurs, et le degré de satisfaction peut éventuellement servir à diagnostiquer l'état de l'économie tout entière. Ces études montrent que l'interaction humaine toute simple et banale qui résulte des «service encounters» (la compétence et l'empathie des employés en contact direct avec les clients) a des répercussions directes sur la performance d'une société et d'un pays. Les universitaires commencent également à comprendre que satisfaction et mécontentement ne sont pas antagonistes. Le professeur Vikas Mittal, de la Northwestern University, a démontré que la satisfaction et le mécontentement sont similaires dans la mesure où il s'agit de fonctions qui ne sont pas linéaires et dont l'augmentation ou la diminution en valeur est logique (c'est-à-dire qu'elles sont monotoniques). Ses études montrent également que, lorsque trop d'efforts sont déployés pour accroître la satisfaction, l'effet obtenu peut aller à l'encontre de celui escompté. La satisfaction et le mécontentement sont toutefois différents dans la mesure où il semble plus important de réduire le mécontentement que d'améliorer des services dont les clients sont déjà satisfaits. Depuis une dizaine d'années environ, on ne cesse de répéter à tout le monde qu'acquérir de nouveaux clients coûte plus cher que de retenir les siens. Les études de Vikas Mittal montrent que le plus grand danger pour les entreprises est celui de
perdre un client. Les entreprises doivent par conséquent faire tout leur possible pour retenir leurs clients. Au-delà des efforts déployés pour les conserver, toutes les tentatives visant à satisfaire davantage les clients actuels sont inutiles et ne sont pas rentables. Il faut par conséquent segmenter la clientèle en fonction de ses seuils de mécontentement. Les universitaires se rendent compte, par ailleurs, que les évaluations de la qualité ou de la satisfaction n'ont pas de répercussions sur la fréquence des achats, la fidélité ou la façon dont la valeur est perçue. La valeur est généralement définie comme une sorte de comparaison entre la qualité, ou la satisfaction, et le prix (dont les composantes sont à la fois économiques et psychologiques). On attend un meilleur service lorsqu'on paie le prix fort, tandis qu'un service de qualité médiocre est toléré lorsqu'on lésine sur les prix : les consommateurs tiennent à la valeur globale lorsqu'ils achètent. Un échange interactif Le consommateur participe souvent à la co-création d'un service, de sorte que la production et la consommation des services nécessitent généralement sa présence. C'est pour cette raison que les directeurs de marketing des services doivent tenir compte de l'environnement physique des ateliers de réparation et des employés qui contribuent à la création d'une séquence d'«instants de vérité» pour le consommateur. Le client n'assiste généralement pas à la fabrication d'un produit. L'usine, ses employés et les distributeurs n'ont pas d'influence immédiate sur la satisfaction du client. Pour les services, en revanche, les clients se trouvent généralement là où ceux-ci sont «produits». L'environnement physique du système de prestation de services joue, par conséquent, un rôle déterminant dans l'appréciation du client. Un bureau peut fournir des éléments tangibles à la qualité d'un service. Par exemple, un cabinet d'avocats peut donner l'impression que les juristes qui y travaillent sont brouillons et désordonnés ou qu'ils sont au contraire extrêmement compétents et que le cabinet peut se payer le luxe de supporter d'énormes frais généraux. Ce sont les distributeurs qui sont à l'origine de la séculaire remarque selon laquelle «l'emplacement, l'emplacement, l'emplacement» est ce qui compte avant tout. Il est vrai que l'accès est important. Il implique également que le magasin soit ouvert à des heures qui conviennent à la clientèle. La simultanéité de la production et de la consommation se cache derrière un autre aspect des services : ils sont périssables. L'avion qui décolle avec des places vides ne pourra pas les récupérer pour un prochain vol. L'approximation la plus exacte des stocks que peuvent avoir les responsables des services, c'est la longueur de la file d'attente. Mais si les détergents, les chaussures de sport et les voitures se moquent bien d'être stockés pendant longtemps, les clients, eux, n'aiment pas attendre. La rencontre du client avec le personnel chargé du service à la clientèle constitue un autre défi à relever, plus difficile encore que celui de la simultanéité de la production et de la consommation. Si un chef d'équipe d'une usine de produits chimiques est bougon, le client s'en moque éperdument. Ce n'est pas le cas, en revanche, si c'est le médecin traitant, ou le pharmacien habituel, ou la caissière, qui est de mauvaise humeur, car cette mauvaise humeur a des répercussions directes sur l'expérience du client. Les chercheurs, en s'appuyant sur leur expérience, sont de plus en plus convaincus que la satisfaction de l'employé et celle du client sont étroitement liées. Les
professeurs Leonard Schlesinger, Earl Sasser et James Heskett, de l'université de Harvard, répètent depuis longtemps que la satisfaction des employés est un élément déterminant de la conservation de la clientèle. Si les emplois sont intéressants, si la direction est sélective dans ses embauches et si elle sait être généreuse sur le plan des rémunérations et de la formation professionnelle, les employés seront compétents et fidèles. La constance du personnel contribuera à rentabiliser la société (moins de ressources seront consacrées à l'embauche et à la formation professionnelle) et à satisfaire les clients, puisque le personnel pourra s'appuyer sur toute son expérience. Mieux informé, le personnel renforcera la satisfaction des clients. Il y aura moins de défaillances dans les services, qu'il sera possible de personnaliser davantage. Il ne fait aucun doute que la conservation des clients qui en résulte améliorera la rentabilité grâce à la répétition des achats, au bouche-à-oreille favorable à la société, ainsi qu'à la réduction des ressources allouées au démarchage de nouveaux clients. En outre, la satisfaction des clients renforcera à son tour celle des employés : travailler avec des clients satisfaits est une expérience professionnelle gratifiante. Le fait qu'une grande partie des services revête un aspect interpersonnel, entre le client et le prestataire de services, incite les dirigeants d'entreprise et les services de marketing à relever le défi qui leur est lancé. Aussi compétents et bien intentionnés qu'ils soient, les employés peuvent commettre des erreurs de jugement. Les employés en contact direct avec les clients jouent un rôle d'intermédiaires dans les relations que les sociétés souhaitent instaurer avec leurs clients. Or ils se plaignent souvent de jouer un rôle «usant» et de se retrouver fréquemment dans une situation «conflictuelle» : ils souhaitent faire plaisir à la clientèle, mais doivent respecter des règles bureaucratiques, ou bien encore ils veulent faire du bon travail tout en espérant que le client s'en aille. Le rôle des employés chargés du service à la clientèle est un thème abordé par le professeur Kent Grayson, de la London Business School. Un élément important du professionnalisme de ces employés consiste à jouer le rôle de prestataires de services serviables quelle que soit leur humeur. Une véritable relation ne peut s'instaurer entre deux personnes qu'à la suite de plusieurs rencontres. Dans le cas d'une transaction type, réalisée une seule fois sur le marché, on se rend compte que «le rôle du client» interagit avec «le rôle du prestataire de services». Des biens hétérogènes Le fait que les services soient co-créés par deux êtres humains changeants et faillibles explique également pourquoi les services sont réputés hétérogènes. Les prestations de services varient d'un client à un autre et d'un employé à un autre, que ce soit dans différents magasins ou dans un seul et même magasin. Les employés n'ont pas les mêmes compétences et ne réagissent pas de la même manière envers les clients puisque ceux-ci sont très différents les uns des autres et que leurs besoins sont eux aussi extrêmement variés. L'hétérogénéité, comme le cholestérol, peut être bonne ou mauvaise. La bonne hétérogénéité, c'est l'opportunité dans le cadre d'une interaction client-prestataire de service de fournir un service personnalisé qui réponde parfaitement aux besoins du client. La mauvaise hétérogénéité, c'est l'erreur commise.
Si la variabilité sur le marché est considérée comme financièrement risquée, la variabilité en matière de services incite également les clients à considérer qu'un achat est risqué. Si un ordinateur peut être fabriqué avec une précision infinie, un sushi, en revanche, ne sera jamais préparé deux fois de la même manière. La garantie de service offerte dans de nombreux secteurs par les bons prestataires de services devient un excellent instrument de marketing. Elle peut inciter l'acheteur à juger moins risqué l'achat qu'il envisage de faire et peut fournir des indications sur la qualité du service devant être fourni. Après tout, le client raisonne : comment une société peut-elle offrir une telle garantie... à moins qu'elle soit sûre de ne pas devoir procéder souvent à des remplacements ou des remboursements? De nombreux aspects à valeur ajoutée du service à la clientèle peuvent être facilement copiés par les concurrents. Comme ces services supplémentaires sont offerts par toutes les sociétés d'un même secteur industriel, ils ne permettent pas distinguer les concurrents entre eux et les clients ont, d'ailleurs, tendance à les considérer comme quelque chose de tout à fait normal. Les attentes des clients augmentent et ceux-ci deviennent de plus en plus exigeants. De prime abord, il semblerait que les concurrents puissent facilement faire une offre de garantie de service similaire. La distinction réside dans le fait qu'il n'est pas toujours facile de faire comme les autres. Dans ce domaine, il ne suffit pas de dire "moi aussi", car le prestataire de service dont la qualité des produits ne rivalise pas avec celle des produits du leader ne peut pas se permettre d'offrir une garantie qui soit compétitive. Les garanties permettent, par ailleurs, à la société d'obtenir des informations en retour. Dans la grande majorité des cas, un client qui n'a pas été satisfait du service qui lui a été fourni fera part de son mécontentement à ses amis, aux membres de sa famille et à ses collègues de travail. Les dirigeants de l'entreprise ne seront jamais tenus informés du problème et ne pourront pas prendre de mesures afin d'empêcher que de tels inconvénients se reproduisent à l'avenir. La sagesse collective en matière de fourniture de services semble être actuellement "empathie plus un". En d'autres termes : être sûr d'avoir une attitude bienveillante envers le client et de pouvoir comprendre ses réclamations et sa situation ; régler le problème et compenser (sur-compenser) l'erreur en faisant quelque chose pour laquelle le client n'a pas payé. Nous devons bien admettre, en tant que professeurs de marketing, que nous n'avons pas d'autres conseils à donner sur le sujet de la fourniture des services que ceux exposés dans cet article. Ils semblent se réduire à l'exhortation morale universelle : "Ne fais pas à autrui... ". D'ailleurs, si ce conseil était suivi, le service à la clientèle s'en trouverait vraiment amélioré. Quelles que soient les circonstances, les employés des prestataires de services doivent accomplir leur travail et traiter le client avec dignité. Les réclamations faites par les clients aux sociétés de service ne portent jamais, pour la plupart, sur une défaillance du service lui-même ou sur son prix, mais sur l'incompétence et l'attitude désagréable des employés. Par exemple, un homme d'affaires qui prend régulièrement l'avion pourra très bien ne rien dire en cas de retards dus aux conditions météorologiques ou à des problèmes techniques, alors qu'il sera le premier à se plaindre si aucune explication n'est donnée ou si le personnel est désagréable ou insolent. Les clients peuvent, bien évidemment, être odieux et il semblerait que cette tendance se confirme. Mais le personnel doit apprendre à garder son calme et à ne
pas donner le change. De telles difficultés sont inévitables lorsque l'on traite avec des êtres humains. Or c'est précisément ce facteur "humain" qui rend les services si intéressants et qui fait tout le charme de la gestion des entreprises. Les avantages stratégiques de la vente directe Un contact privilégié avec les clients, une grande liberté en matière d'organisation du travail et, surtout, une certaine indépendance qui permet de surmonter les coûts de distribution : la vente directe possède plus d'un atout. KENT GRAYSON ET RICHARD BERRY La vente directe consiste à vendre et à fournir des produits à des particuliers, généralement à leur domicile ou sur leur lieu de travail, par l'intermédiaire d'une force de vente. Bien qu'il s'agisse de l'une des plus anciennes méthodes de distribution, elle a été évincée au profit d'autres méthodes dans les économies les plus modernes. Ainsi, le développement de la fabrication en série et de la publicité au début du XXe siècle a incité de nombreuses sociétés de produits grand public à choisir des réseaux de distribution de masse pour s'imposer plus facilement sur les marchés. Plus récemment, la commercialisation en masse des produits par le biais de catalogues, de mailings et du téléphone (appelée parfois «marketing direct») a été facilitée par le développement des techniques modernes de gestion des bases de données. Aujourd'hui, les distributeurs ont acquis une telle puissance qu'ils peuvent constituer des obstacles importants, même pour les marques les plus établies. Les consommateurs, quotidiennement bombardés d'un nombre croissant de messages publicitaires, sont immunisés contre le tapage commercial dont ils sont abreuvés à la télévision, à la radio, ou en se rendant à leur travail. La vente directe est une méthode de distribution moins vulnérable à certains problèmes liés aux circuits de distribution traditionnels. C'est ce qui explique, en partie, le succès remporté par plusieurs sociétés de vente directe, comme Amway, Herbalife, Mary Kay, Betterware, Weekenders, Oriflame et Kleeneze. A l'heure actuelle, les entreprises spécialisées dans la vente directe commercialisent chaque année des produits de consommation représentant plus de 18 milliards de dollars aux Etats-Unis, et plus de 10 milliards de dollars au sein de l'union européenne. Ces chiffres ont incité de nombreux chefs d'entreprise à considérer la vente directe comme le premier ou le deuxième canal de distribution de leurs produits. Individualisée ou globale? Parmi les organisations de vente directe, on distingue la vente individualisée (oneto-one, relation un à un) et la méthode globale (one-to-many, relation un à plusieurs). Dans le cas de la vente directe globale (vente par «organisation de réunion»), plusieurs clients et prospects sont invités à participer en groupe à des présentations de produits. Les participants sont souvent des amis ou des connaissances de la personne qui organise la présentation : ils s'intéressent aux produits présentés et apprécient aussi le caractère convivial de ces présentations qui se caractérisent par leur style décontracté et leur ambiance bon enfant. A l'inverse, les vendeurs qui optent pour la méthode individualisée présentent leurs produits non pas à des groupes de clients, mais à des personnes individuelles ou à
des couples. A l'instar des réunions de vente, les présentations se font souvent au domicile du client, en particulier si le vendeur démarche en porte-à-porte. Les vendeurs en one-to-one fixent également des rendez-vous à divers endroits, restaurants, cafés ou lieu de travail. Les sociétés de vente directe mettent généralement l'accent sur l'une de ces deux méthodes de vente. Le choix est souvent conditionné par le type d'article à vendre. Par exemple, la vente globale est une excellente méthode pour vendre des produits intéressants ou plaisants à présenter, comme les cosmétiques ou les soins de la peau. Lorsqu'une ou deux personnes décident de passer une commande lors d'une réunion de vente, il y a de fortes chances pour que d'autres en fassent autant. La plupart des produits de la vie courante, comme les articles ménagers, seront vendus par des vendeurs en one-to-one et présentés sur catalogue plutôt que sur démonstration. La vente individualisée semble être plus appropriée aux articles relativement coûteux tels que les aspirateurs. En effet, les clients ont souvent besoin d'être convaincus de manière plus personnalisée avant un achat onéreux. Les compétences du vendeur jouent un rôle important dans le type de vente. Un vendeur qui sait adapter son «boniment» à chaque client préférera sans doute la relation un à un. Un autre, excellent démonstrateur, préférera probablement organiser des réunions de vente à domicile, même si, d'après d'autres vendeurs, il s'agit de produits difficiles à présenter. Niveaux unique ou multiples? Une autre façon de distinguer les sociétés de vente directe consiste à examiner l'organisation de la direction et de le contrôle des ventes. Certaines sociétés - dites organisations de vente à niveau unique - ont un ou deux échelons de directeurs (par exemple, un directeur général des ventes et des directeurs régionaux) chargés de recruter, de former et de superviser les vendeurs. Les sociétés de vente directe à niveau unique fonctionnent comme de nombreuses organisations de vente traditionnelles puisque leurs structures sont similaires. Les organisations de vente directe «à niveaux multiples», en revanche, dépendent de leurs vendeurs locaux pour recruter, former et encadrer la force de vente. Les vendeurs acceptent volontiers d'assumer de telles responsabilités puisqu'ils perçoivent, en échange, des commissions sur les ventes réalisées par les collaborateurs qu'ils ont recrutés et sur les produits vendus par les vendeurs recrutés par ceux qu'ils avaient eux-mêmes recrutés, et ainsi de suite. Les sociétés qui font appel à leurs vendeurs pour recruter et former du personnel relèvent du «marketing de réseau ou multi-niveaux» puisque leurs vendeurs tirent profit des multiples niveaux de vente qu'ils constituent. De ce fait, les vendeurs des sociétés de marketing de réseau doivent généralement exceller dans l'argumentation des avantages d'une ligne de produit comme dans la constitution de la force de vente qui la commercialise. Pour réussir, les vendeurs multi-niveaux doivent également disposer de compétences en matière de formation professionnelle et de gestion des ventes. Bien que les vendeurs d'organisations à niveau unique puissent, à l'occasion, être récompensés pour le recrutement d'autres personnes, ils ne le sont pas pour les ventes réalisées par les recrues des recrues. Le point de vue du fabricant Tout instrument de marketing présente des avantages et des inconvénients, et la
vente directe n'échappe pas à ce principe. Ses avantages stratégiques dépendent des objectifs de l'organisation ainsi que des points forts et des points faibles de ses ressources humaines. Un fabricant de produits grand public ou un prestataire de services doit tenir compte de trois éléments fondamentaux lorsqu'il évalue les opportunités stratégiques offertes par la vente directe. * Mettre en place la structure de vente Les consommateurs sont, de nos jours, toujours plus sceptiques sur le contenu des messages publicitaires parce qu'ils sont harcelés quotidiennement. Les spécialistes du marketing relationnel ont constaté que même les enfants savent qu'il ne faut pas prendre les publicités pour argent comptant. En revanche, ces mêmes spécialistes ont constaté que la communication directe et le bouche-àoreille représentent souvent une source d'information plus crédible sur les produits - en particulier lorsque l'interlocuteur est déjà connu du consommateur. Dans les organisations à niveau unique ou à niveaux multiples, tout est fait pour inciter le client à recommander chaudement à ses amis les produits ou les services de la société. Ainsi, les sociétés de vente directe peuvent, de différentes façons, contrer les assauts des autres formes de promotion et de distribution. Certaines personnes, toutefois, sont mal à l'aise à l'idée que les relations sociales servent de base à l'instauration de relations commerciales. Elles estiment que l'on tire profit de l'amitié qu'elles entretiennent avec d'autres personnes ou que l'on se sert de leurs relations personnelles comme d'un instrument lucratif. C'est en partie pour cette raison que certaines personnes considèrent la vente directe comme une intrusion indésirable dans leur vie privée. Une récente étude de Wirthlin Worldwide a montré que 42 % des Américains sont favorables à la vente directe. La moitié d'entre eux achètent des produits à un vendeur direct qu'ils connaissent déjà. Les personnes opposées à la vente directe - essentiellement celles qui n'ont jamais essayé ce mode de vente - ont déclaré être préoccupées par les pressions auxquelles elles risquaient d'être soumises pour acheter. Pour venir à bout de cette résistance éventuelle, les vendeurs directs adoptent souvent une tactique de vente différente de celle de la plupart des autres vendeurs. En fait, de nombreux vendeurs directs souhaiteraient ne plus être appelés «vendeurs», car ils se considèrent plutôt comme de fervents enthousiastes d'un produit dont ils souhaitent simplement faire partager les avantages à des amis, comme ils leur recommanderaient un livre ou un film. * Etablir des relations avec les clients Comme le montre le nombre croissant de programmes de fidélisation mis en oeuvre au cours de ces dernières années, les spécialistes du marketing accordent de plus en plus d'attention à l'instauration de relations durables avec les clients. Cette démarche offre, en plus d'une réduction des frais de vente, la possibilité pour une société de mieux connaître ses clients et de leur proposer des produits qui répondent parfaitement à leurs besoins. Toutefois, comme l'indiquaient récemment Susan Fournier, Susan Dobsha et David Glen Mick dans le numéro de janvier-février 1998 de «Harvard Business Review», de nombreuses sociétés ne considèrent pas véritablement les consommateurs comme des clients à part entière et ne personnalisent pas véritablement les
produits qu'ils offrent à chacun d'entre eux. Le marketing relationnel ne consiste pas simplement à faire figurer le nom d'un consommateur sur un mailing ou à lui souhaiter un joyeux anniversaire le jour J. Il suppose une connaissance approfondie du consommateur et une aptitude à adapter l'offre du marché à ses besoins. La vente directe offre aux sociétés la possibilité d'instaurer de véritables relations. A la différence des spots publicitaires télévisés et des publipostages, les vendeurs peuvent interagir avec les clients, c'est-à-dire qu'ils écoutent et répondent à leurs besoins et désirs. Ils sont également en mesure d'entretenir un contact régulier avec les mêmes clients. Cette combinaison d'interactivité et de rencontres répétées permet aux vendeurs de passer du stade théorique à la mise en pratique du marketing relationnel. Une récente étude sur les vendeurs de sociétés de marketing de réseau choisis par la London Business School et la Direct Selling Association (association britannique de vente directe) a permis de démontrer qu'il existe un lien étroit entre la valeur des relations personnelles instaurées par un vendeur et sa réussite en tant que vendeur. Malheureusement, le roulement du personnel des sociétés de vente directe est élevé (bien qu'il ne soit pas plus élevé que dans certains établissements de vente au détail traditionnels). De nombreuses sociétés compensent cet inconvénient en utilisant des bases de données pour aider leurs vendeurs, mais aussi pour assurer le suivi des clients dont le vendeur attitré a quitté la société. * Force et maîtrise du circuit de distribution Comme les fabricants de produits de consommation le savent pertinemment, les détaillants ont acquis une taille et un pouvoir considérables au cours des dix dernières années. La plupart des grands magasins de détail ont su se forger une image forte et disposent de méthodes de marketing sophistiquées et de leurs propres marques de produits ou de services. A l'heure actuelle, ce sont les fabricants qui doivent faire des concessions - telles que des remises ou ristournes - pour que leurs produits soient commercialisés dans les magasins à la mode. En fait, les petits fabricants de produits de consommation sont nombreux à ne pas pouvoir faire face aux demandes de volumes importants de ces magasins et ne sont pas en mesure, par conséquent, de les approvisionner. Les distributeurs refusent souvent de vendre un nouveau produit ou une nouvelle marque lorsqu'ils peuvent réaliser des bénéfices plus élevés en consacrant leur espace de vente à des marques plus connues. Pour convaincre les distributeurs du succès d'un produit auprès des consommateurs, les sociétés devront souvent réaliser de coûteuses campagnes publicitaires. De nombreux fabricants doivent encore accorder aux distributeurs des «remises pour positionnement» pour obtenir que leurs produits soient mis en rayon. On comprend aisément pourquoi de nombreuses organisations - en particulier, les sociétés nouvellement constituées - n'ont pas les moyens financiers ni les capacités de production nécessaires pour attirer l'attention des grands distributeurs. La vente directe est un moyen pour elles de surmonter les coûts et les obstacles liés à la grande distribution, même si elles perdent en crédibilité et en visibilité. Par rapport aux relations avec les distributeurs, la gestion d'une société de vente directe soulève des problèmes un peu différents en matière de pouvoir et de contrôle. En effet, le champ de la gestion des ventes directes est, par de nombreux
aspects, beaucoup plus important que celui des ventes au détail. Une société encadrant une centaine ou un millier de vendeurs n'a pas besoin des mêmes compétences et systèmes que celle qui traite avec une dizaine ou une vingtaine d'acheteurs au détail. Par ailleurs, comme les vendeurs au détail travaillent sur place, ils peuvent être encadrés et dirigés plus facilement que les vendeurs directs. Ces problèmes augmentent dans le cas des sociétés de vente directe de marketing de réseau où les vendeurs sont des travailleurs indépendants et non des salariés. De nombreuses sociétés de vente directe s'efforcent d'encadrer leur force de vente en concevant des programmes standardisés de formation professionnelle, en organisant des réunions de vente et des stages de formation. La commercialisation et la vente d'un produit présentent néanmoins une variabilité plus importante que dans le cas des autres forces de vente. Cela peut constituer un avantage dans la mesure où il permet aux vendeurs directs de personnaliser les offres. Mais les sociétés de vente directe craignent plutôt que les vendeurs commercialisent les produits d'une manière qui va à l'encontre de la stratégie de la société ou qui est contraire à la déontologie professionnelle. Le point de vue des vendeurs Comme les sociétés de vente directe dépendent énormément de leurs vendeurs, elles ne peuvent réussir que si elles suscitent un véritable attrait auprès de futurs vendeurs. Heureusement, elles attirent beaucoup de personnes ; elles offrent, en particulier, plusieurs avantages liés à la création d'une affaire, sans les nombreux inconvénients. * Peu de frais d'établissement Devenir un vendeur direct nécessite peu de moyens financiers. Puisque ni magasin, ni personnel n'est nécessaire, les vendeurs directs n'ont pas à s'inquiéter de payer un loyer ou des salaires. En outre, il n'est pas nécessaire d'avoir des stocks importants. Un nouveau vendeur direct achètera généralement le strict minimum, c'est-à-dire ce dont il a besoin pour ses essais personnels et les démonstrations de produits. Au Royaume-Uni, les dispositions légales relatives à la vente directe interdisent aux sociétés de demander un apport initial de plus de 200 L.. De nombreux kits d'établissement coûtent même moins cher. La plupart des sociétés de vente directe fournissent, par ailleurs, à leurs vendeurs le matériel de commercialisation, qui doit souvent être acheté, mais à un prix généralement inférieur aux coûts de production. Ces frais d'établissement peu élevés ont pour inconvénient un engagement initial moindre. Certains ne deviennent pas membres d'une organisation de vente directe par choix professionnel, mais uniquement pour arrondir leurs fins de mois à court ou moyen terme. Une entrée facile et un faible apport ont pour corollaire un départ encore plus facile. Cela entraîne une forte rotation des effectifs. Dans la plupart des sociétés de vente directe, conserver une force de vente d'un millier de collaborateurs équivaut à recruter entre 1.000 et 1.300 nouveaux venus par an. Pour les sociétés qui vendent des produits très onéreux, ce nombre peut atteindre 4.000 personnes. * Indépendance
Bien que les nouvelles méthodes de travail telles que le télétravail et le partage de poste offrent une certaine souplesse de travail aux salariés d'une entreprise, elles offrent moins de liberté personnelle que la vente directe. Les vendeurs directs peuvent travailler à temps partiel ou complet. Ils décident des jours et des heures qui leur conviennent le mieux pour travailler. Personne n'est là pour contrôler leur journée de travail. Plus que n'importe quelle autre forme d'activité, la vente directe est susceptible d'attirer des personnes qui n'ont pas l'intention de vendre des articles à plein temps. Par exemple, de nombreuses personnes utilisent la vente directe pour accroître leurs revenus. D'autres, comme les parents au foyer, exercent la vente directe à temps partiel en tant qu'activité secondaire. L'étude mentionnée précédemment montre que les vendeurs directs des sociétés de marketing de réseau ne consacrent, en moyenne, que 10 à 15 heures par semaine à leur activité. L'étude montre également que les vendeurs les plus performants travaillent, en moyenne, 40 heures par semaine, mais ils sont rares. Ces chiffres montrent que les sociétés de vente directe doivent recruter beaucoup plus de collaborateurs que les autres organisations de vente. Si tous les nouveaux collaborateurs ne travaillent qu'à mi-temps, il faudra deux nouvelles recrues pour couvrir le marché et accomplir le travail d'un vendeur à plein temps. * Accès facile à la formation et à l'assistance Les personnes qui créent leur propre affaire sont, presque par définition, extrêmement motivées. Elles doivent assurer leur formation et être leur propre conseil. Elles doivent apprendre en tâtonnant, et donc supporter le poids de leurs erreurs. Et elles ne peuvent souvent compter que sur elles-mêmes pour affronter les situations difficiles. Les vendeurs directs doivent, eux aussi, être motivés, mais ils bénéficient des systèmes mis en place par les sociétés dont ils vendent les produits. A l'instar des franchisés de marques connues, les vendeurs directs bénéficient souvent de stages de formation organisés par la société. On leur demande souvent (du moins, au départ) de respecter des systèmes préétablis de gestion d'entreprise, qui «déqualifient» le processus de vente. Dans les organisations de vente directe à niveau unique, les vendeurs sont dûment encadrés par un collaborateur de la société. Dans les organisations à niveaux multiples, les vendeurs sont recrutés par un parrain, qui perçoit une commission sur les ventes réalisées par ses recrues ; il est donc très intéressé à les encadrer, à les motiver et à les former correctement. Les vendeurs - du moins ceux des organisations à niveaux multiples - semblent tirer le meilleur profit des possibilités de formation qui leur sont offertes. Il ressort de l'étude LBS-DSA déjà mentionnée que 20 % seulement des personnes interrogées n'ont pas suivi de stage de formation au cours de l'année précédente, tandis que 40 % ont participé à un stage tous les deux mois. Ces stages sont, par ailleurs, bénéfiques. L'étude a montré qu'il y a un lien étroit entre le nombre d'heures de formation et la rentabilité des vendeurs. Il est toutefois surprenant de constater que le contrôle organisé place parfois les sociétés de vente directe dans une situation délicate. Démarrer une nouvelle affaire ou lancer un nouveau produit est toujours risqué et la plupart de ces opérations échouent, même avec le soutien d'une grande société.
Lorsqu'un entrepreneur échoue, il ne peut s'en prendre qu'à lui. En revanche, lorsqu'un vendeur direct échoue, la société ou son superviseur sont des cibles faciles, même si l'échec a été causé par l'incapacité de l'individu à vendre, à se motiver, à s'organiser ou à gérer son temps. Comme dans les organisations de vente traditionnelles, les mauvais résultats d'un vendeur direct peuvent être imputés à une carence dans l'encadrement ou à une formation professionnelle inappropriée. Chapitre 9 Business to business : jouer la différence Le prix étant devenu le critère clef, les marchés business to business s'apparentent désormais à ceux des commodities. Pour se différencier, le fournisseur doit chercher à apporter de la valeur à ses produits ou à ses services de base. GREGORY S. CARPENTER ET JAMES C. ANDERSON Sur de nombreux marchés interentreprises, les clients perçoivent de moins en moins de différences entre les offres des fournisseurs. Ce phénomène tient principalement à la politique de généralisation de la qualité de la production ainsi qu'à l'offre accrue d'alternatives comparables de sources internationales. Conséquence, les clients fondent de plus en plus leurs décisions d'achat sur le prix seul - ce par quoi se définit un marché de commodities. Les fournisseurs sont ainsi contraints de réduire leurs prix et d'offrir des remises additionnelles. Secteur après secteur, ils découvrent que leur chiffre d'affaires progresse souvent au détriment de la rentabilité. Nous nous proposons d'expliquer ici comment prévenir ou inverser cette tendance. Les fournisseurs en arrivent souvent à la conclusion qu'ils travaillent sur un marché de commodities parce qu'ils raisonnent presque uniquement sur le produit ou sur le service de base qui constitue le coeur de leur offre. Ordinateurs personnels, fournitures pour hôpitaux ou lettres de crédit peuvent être pratiquement identiques chez tous les fournisseurs. Mais ce que les entreprises achètent va habituellement au-delà du produit ou du service de base. Ce sont des services, des programmes ou des systèmes supplémentaires qui augmentent la valeur du produit ou du service bruts et apportent une valeur ajoutée aux clients. Avant de conclure qu'ils travaillent sur un marché de matières premières, les fournisseurs doivent procéder à un examen plus approfondi du marché et des données internes afin de déterminer exactement ce qui différencie leur offre de celles de leurs concurrents. Précisément, ils doivent estimer la valeur reçue par leurs clients, valider leur tarif et estimer leur part du chiffre d'affaires total généré par le client. * Estimer la valeur reçue par les clients La valeur est l'expression en termes monétaires des avantages techniques, économiques et sociaux du service que reçoit une entreprise en échange du prix qu'elle acquitte. Elle est toujours mesurée dans un certain contexte. En général, elle se définit par rapport à la valeur de l'offre utilisée en ce moment par le client ou à l'offre du deuxième meilleur fournisseur. Pour estimer la valeur reçue par le client, le fournisseur recueille des données complètes sur la manière dont son offre apporte de la valeur ou réduit les coûts une fois utilisée par le client. Dans le même temps, les fournisseurs doivent étudier la valeur que leurs clients attacheraient à une modification de leur offre. Ils
doivent également peser les avantages sociaux et techniques qui peuvent être d'importantes sources de valeur. Prenons l'exemple des lunettes de protection. Elles offrent l'avantage technique de protéger les yeux des rayons ultraviolets et infrarouges et des corps étrangers. L'avantage économique se quantifie avec la diminution des jours perdus pour accidents du travail et avec des primes d'assurance moindres. Pour bénéficier de ces avantages, les ouvriers doivent porter ces lunettes ; or, parmi les plus jeunes, certains trouvent que ces lunettes leur donnent l'air «monstrueux» et ne les portent pas quand ils le devraient. Adoptant un point de vue plus global de la valeur, Dalloz Safety Products a conçu une ligne de lunettes de protection qui ressemblent à des lunettes de soleil dessinées par des stylistes. Elles sont dotées de montures enveloppantes qui existent en plusieurs coloris, et de verres qui se déclinent en plusieurs teintes. Comme désormais les ouvriers apprécient de porter ces protections plus esthétiques, le respect des normes de sécurité au travail n'est plus un problème. * Valider la tarification du marché Il est souvent difficile de comprendre les prix pratiqués par la concurrence sur les marchés interentreprises en raison des problèmes de comparabilité. Un fournisseur devrait s'informer sur les services additionnels inclus dans le prix d'un concurrent. Malheureusement, le client peut avoir intérêt à dissimuler des informations sur l'offre et le tarif d'un concurrent. L'autre difficulté est l'application croissante de diverses remises hors facture, telles que les ristournes et bonus de fin d'année. Les fournisseurs doivent recueillir des données sur le terrain sur l'éventail des prix payés par les clients pour ce qui est offert sur le marché. Ils doivent aussi rechercher des signes confirmant - ou au contraire infirmant - les variations de prix de la concurrence. Ainsi, si un commercial indique qu'un concurrent a réduit son prix, le fournisseur doit rechercher d'autres exemples de baisses des prix mais aussi des cas où le concurrent a maintenu son tarif. Ces données permettront une compréhension plus subtile des variations de prix de la concurrence. Un fournisseur doit également collecter des données sur ses propres prix. Du fait des rabais hors facture, dont l'importance peut dépendre du chiffre d'affaires que le client a généré sur le trimestre ou sur l'année, il est difficile de déterminer sur le moment combien une transaction précise rapporte exactement. Le suivi des prix des transactions permet au fournisseur de prendre la mesure des exceptions pratiquées sur son tarif. C'est ainsi qu'un fournisseur a découvert que 67 % de son chiffre d'affaires étaient réalisés hors tarif, c'est-à-dire que le prix des transactions s'écartait significativement de la politique tarifaire établie. * Estimer la part du chiffre d'affaires généré par le client qui revient au fournisseur Quel pourcentage des besoins d'achat totaux d'un client le fournisseur obtient-il? Si la plupart des entreprises sur les marchés interentreprises ont une idée assez exacte de leur part de marché, beaucoup moins sont capables d'estimer la part du chiffre d'affaires généré par un client qui leur revient sur le marché qu'ils desservent. Pourtant, il s'agit là d'un outil de diagnostic bien plus efficace puisqu'il identifie les comptes pour lesquels l'offre du fournisseur est supérieure à celles des concurrents et met en exergue des sources de différenciation. Supposons qu'un fournisseur ait 20 % du marché. Il est peu probable que chaque client sur le marché achète 20 % de ses besoins auprès de ce fournisseur. En fait, certains clients ne lui achètent rien, tandis que d'autres lui achètent plus de 20 pour cent de leurs besoins. Qu'est-ce qui différencie les grands comptes des petits et quelles sources de différenciation pourrait-on envisager si le client s'approvisionnait à 100
pour cent auprès de ce fournisseur? Sources de différenciation Sur les marchés professionnels, où le produit ou service principal est perçu comme une matière première, il peut être extrêmement coûteux ou difficile de trouver comment parvenir à une différenciation jugée importante par les clients. Mais en étudiant de façon plus générale comment ils pourraient apporter de la valeur ajoutée aux clients, les fournisseurs peuvent identifier des sources de différenciation significatives. Nous étudions ci-après quelques stratégies intéressantes. * Constituer des banques de connaissances Un fournisseur peut rechercher des connaissances auxquelles les clients attachent de la valeur, mais qu'il leur est difficile d'acquérir eux-mêmes, par exemple comment leurs méthodes de travail se comparent avec celles de leurs concurrents. Allegiance Healthcare, grand distributeur de fournitures pour hôpitaux, a constitué une base de données des meilleures pratiques à partir de l'expérience de 100 hôpitaux réputés. Cette base de données détaille les activités prises en charge et les ressources consommées dans chacune des 30 procédures qui représentent 80 pour cent des opérations chirurgicales pratiquées par les hôpitaux. Forts de ces informations, les consultants d'allegiance peuvent aider leurs clients à déterminer sur quels points ils s'écartent des meilleures pratiques afin de réduire les coûts et de renforcer la productivité. * Bâtir une expertise à exploiter Un fournisseur peut chercher à identifier les problèmes que rencontrent plusieurs clients afin d'investir dans du savoir-faire susceptible de les résoudre. Il devrait ainsi être en mesure d'apporter de meilleures solutions aux problèmes des clients et de se différencier de ses concurrents. GLS Enterprises, un distributeur de matériaux composites et d'élastomères, a vu dans son expertise en matière de réglementation environnementale, sanitaire et de sécurité, le moyen d'apporter un service à valeur ajoutée pour ses clients, en majorité de petites et moyennes entreprises. GLS consulte la législation fédérale et rédige des bulletins d'information sur les évolutions de la réglementation et sur les normes existantes. Par ailleurs, il fournit un guide pour le respect des obligations réglementaires, assure les audits sur site et aide les entreprises les plus modestes à établir leur déclaration annuelle relative aux rejets de produits chimiques toxiques et aux émissions dans l'atmosphère. Sans l'aide de GLS, ces clients trouveraient difficile et coûteux de rester au fait des évolutions de la législation. Les cadres dirigeants apprécient particulièrement l'aide de GLS car le non-respect des obligations légales peut donner lieu à des poursuites au pénal. Lorsque des entreprises achètent des ordinateurs personnels (PC), elles ont souvent besoin d'installer des programmes maison en plus des logiciels standards du marché, comme ceux de Microsoft. Cette installation prend habituellement une heure ou deux, s'assortit d'un coût total de 200 $ à 300 $ et gêne l'utilisateur et le support PC de l'entreprise. Le constructeur Dell Computer a estimé qu'il pourrait se constituer un savoir-faire qui lui permettrait d'en finir avec ce pensum coûteux. Il a créé une liaison Ethernet haute vitesse 100 mégabits sur son site de production, capable de télécharger instantanément une combinaison personnalisée de logiciels sur les ordinateurs de ses grands clients.
* Changer le cadre de référence du client Les clients qui se focalisent sur le noyau de produit ou de service tendent à s'appuyer sur les réductions de prix, plus que sur le coût total, pour différencier les fournisseurs les uns des autres. Les fournisseurs qui parviennent à faire glisser ce cadre de référence vers le coût total ont davantage de possibilités d'apporter de la valeur ajoutée, de réduire les coûts et de se différencier. A titre d'exemple, Boeing utilise 100 000 PC Dell. Dell a 30 employés sur site chez Boeing, qui travaillent en étroite collaboration avec les cadres de Boeing pour configurer leur réseau. Ces salariés Dell sont davantage considérés comme l'équipe PC de Boeing que comme des vendeurs de PC. En contrepartie de la totalité des affaires du client, les fournisseurs peuvent parfois modifier leur façon de travailler. Ainsi, un fournisseur de peintures a bien voulu dépêcher un technicien sur site pour superviser le processus de mise en peinture et proposer un prix par objet peint au lieu du prix habituel par litre de peinture. * Collaborer de manière sélective pour aligner les intérêts et les objectifs des entreprises Souvent, fournisseur et client doivent travailler ensemble pour obtenir les meilleurs résultats. On peut envisager, par exemple, un accord de partage des risques et des profits. Dans ce cadre, le fournisseur travaille avec le client pour améliorer la performance du client et, tout en s'exposant à des pertes potentielles, reçoit une part convenue des gains réalisés. Allegiance conclut ce type d'accords. Ses dirigeants estiment qu'avec l'aide de ses consultants, un hôpital type peut réduire ses coûts d'exploitation d'environ 20 pour cent. Souvent, ces économies résultent d'une meilleure gestion des fournitures ainsi que de la standardisation et d'un meilleur usage des produits. Mais plus l'hôpital utilise ses fournitures de manière rationnelle, moins il achète de produits et services. Au lieu de promouvoir le gaspillage des fournitures, Allegiance est prêt à échanger son expertise pour une part équitable des gains sur les coûts. Il propose donc des accords de partage des risques et des coûts à ses clients stratégiques. Une fois l'accord signé, Allegiance envoie un consultant sur site, dont la mission est d'améliorer l'ensemble du processus de gestion des fournitures de l'hôpital. A la fin de la première année, les coûts sont audités ; l'hôpital et Allegiance se partagent les gains à égalité. Chaque année suivante, l'hôpital conserve une part croissante des économies réalisées. Côté risque, Allegiance doit non seulement empêcher les coûts de l'établissement d'augmenter au-dessus de la base établie à partir de l'année précédente, il doit aussi découvrir des gains sur les coûts supérieurs pour couvrir les dépenses de participation, qui sont importantes. * Concevoir des offres flexibles Quelle que soit la précision de la segmentation du marché opérée par un fournisseur, les besoins des membres d'un même segment présentent invariablement une variation résiduelle. Pour une majorité de besoins identiques, il reste toujours quelques besoins différents d'un client à l'autre. Pourtant, par le passé, les fournisseurs n'ont pas tenu compte de ces différences ou n'ont pas réussi à les exploiter. Ils ont élaboré des offres constituées de groupes standard de produits et services conçus pour satisfaire les besoins du client "moyen" de chaque segment. Pis, dans bien des cas, ils ont proposé une
offre identique sur tous les segments. Conséquence, certains clients ont payé pour des services superflus, tandis que d'autres n'ont pas eu la profondeur de champ dont ils avaient besoin, même s'ils étaient prêts à payer plus. Au lieu d'ignorer les variations résiduelles, les fournisseurs perspicaces les exploitent en intégrant la flexibilité à leur offre. Ils conçoivent tout d'abord des "solutions nues" pour chaque segment de marché - le minimum de produits et services ayant une valeur pour tous les membres de ce segment. Remarque importante, elles sont vendues au prix rentable le plus bas. Ensuite, les solutions de base sont habillées d'options vendues séparément. Le retour sur valeur différentielle Réintégrer la différenciation dans une offre assimilée à une matière première ne vaut rien aux fournisseurs s'ils ne peuvent obtenir un retour équitable sur la valeur ajoutée apportée. Cependant, cela ne signifie pas nécessairement qu'ils doivent faire payer plus. En effet, l'obtention d'une part plus importante du chiffre d'affaires total généré par le client et la fixation du prix en partenariat abaissent les coûts du fournisseur et se traduisent donc par un gain de rentabilité. Les petits suppléments de prix et les services à valeur ajoutée payants permettent au fournisseur de réaliser un prix supérieur. * Une part plus importante des achats du client Le fournisseur peut chercher à obtenir une part plus importante des achats du client en échange du supplément de valeur qu'il lui apporte. Après tout, le client doit acheter ce dont il a besoin à quelqu'un, alors pourquoi pas à quelques fournisseurs ou même à un seul? Le client se laissera mieux convaincre si le fournisseur est en mesure d'offrir un avantage irrésistible en retour - comme dans l'exemple des peintures - et de diminuer les préoccupations relatives à la continuité des livraisons et la dépendance envers une source d'approvisionnement unique. * Fixation du prix en partenariat Lorsque l'exigence du client porte purement et simplement sur des prix plus bas, un fournisseur qui tient à ce client doit travailler avec lui pour trouver comment les réduire. Dans un système de fixation du prix en partenariat, fournisseur et client travaillent ensemble pour identifier les exigences susceptibles d'être allégées en échange d'une baisse de prix. Ainsi deux entreprises pourraient échanger des délais d'exécution plus longs, un nombre réduit de variantes de produits ou d'adresses de livraison, ou un allégement du support technique contre une baisse de prix. Le fournisseur peut conserver une partie des gains sur les coûts comme profit marginal et répercuter le reste sur le client pour l'inciter au changement. * Petits suppléments de prix ou amélioration du prix effectif Parfois, des initiatives de différenciation permettent aux fournisseurs de réaliser de petites primes sur les prix. Ainsi, un fournisseur de pigments a obtenu un supplément d'un demi-cent par livre pour une livraison en pâte plutôt qu'en sacs de matière sèche de cinquante livres. Ce conditionnement présentait l'avantage de faciliter la manutention chez le client puisque le pigment était déjà liquide et de supprimer les poussières dangereuses et le problème de l'élimination des sacs. Un autre moyen d'accroître la rentabilité est de suivre la tarification des transactions, qui implique de réaliser le prix net le plus fort sur chaque commande. Pour suivre le prix des transactions, le fournisseur construit d'abord une cascade des prix effectifs, qui récapitule toutes les conditions, remises, ristournes et bonus qu'un client reçoit pour une transaction donnée. Ces éléments en cascade sont
ensuite soustraits du prix tarif pour produire un prix réel, le chiffre d'affaires que le fournisseur réalise effectivement sur chaque transaction. L'analyse des prix effectifs permet de déterminer les segments de clientèle qui bénéficient des plus fortes remises, ce que les clients sont prêts à payer et si les commerciaux exercent leur autorité en matière de prix à bon escient. Réduire le nombre de dérogations au tarif peut fortement améliorer la rentabilité. Les consultants McKinsey Marn et Rosiello estiment qu'une hausse de prix de 1 pour cent, dans l'hypothèse d'une perte de volume nulle, augmente le bénéfice opérationnel d'un fournisseur de 11 pour cent. * Services à valeur ajoutée, moyennant paiement De nombreux fournisseurs sont convaincus que pour se différencier des concurrents, ils doivent offrir gratuitement des services à valeur ajoutée. Ce n'est pas obligatoire, dans la mesure où ils peuvent démontrer de manière persuasive que leur service offre une valeur ajoutée bien plus forte que celui services des concurrents. Ainsi, bien que Dell estime que télécharger une combinaison personnalisée de programmes clients sur son site fait gagner 200$ à 300 $ au client par PC, il ne prend que 15 $ à 20 $ pour ce service. Un processus graduel Tout comme les offres différenciées ne sont pas devenues des matières premières en un jour, on ne peut transformer une offre de base en offre différenciée en un jour. Nous avons donc mis l'accent sur les changements qui, avec le temps, réduiront la part des ventes réalisées sur le seul critère prix. Si l'importance du prix pour les clients est indéniable, les stratégies que nous avons étudiées ici devraient contribuer à la réduire. L'estimation de la valeur permet de comprendre en profondeur les besoins et préférences d'un client, et l'intérêt qu'a le fournisseur à les satisfaire. Une connaissance approfondie de la valeur donne aussi aux fournisseurs le moyen d'obtenir un retour équitable sur leurs efforts et de juger dans quelle mesure ils obtiennent effectivement ce retour. Un des dirigeants que nous avons interrogés récemment dans le cadre de nos recherches a avancé l'idée qu'un bon motif de réintroduire la différenciation est que vendre sur le seul argument prix n'est ni intéressant ni amusant. Face à des pressions sur les prix, son équipe tente de réagir avec créativité en démontrant qu'elle a quelque chose de différent à proposer, quelque chose qui apporte une plus forte valeur que les produits concurrents. Alors pourquoi ne pas s'amuser en faisant du profit? Les conseils, ces maîtres méconnus du marketing Si le marketing a peiné à faire son entrée dans les cabinets de conseil, il n'en est pas moins, dans les faits, un facteur déterminant du succès de ces entreprises. Celles-ci s'avèrent en effet de véritables experts en matière de service clients et de perception du marché. PATRICK BARWISE ET SEAN MEEHAN Les grands cabinets d'expertise comptable, d'avocats-conseils et de conseil en management sont parmi les entreprises les mieux gérées du monde. On citera pour exemple les «big five» mondiaux de l'expertise comptable, les cabinets d'avocats comme Clifford Chance, Baker McKenzie ou Skadden Arps, les consultants McKinsey, Bain ou le Boston Consulting Group. Leaders sur leurs marchés respectifs, ces entreprises sont mondiales, extrêmement rentables et affichent une croissance rapide. Dans le monde des affaires, elles ont créé des marques puissantes, se fondant sur leur connaissance approfondie de nombreux secteurs d'activité et de spécialités techniques.
Au vu de leur taille et de leur complexité, il n'est guère surprenant que ces entreprises fassent un usage intensif des théories innovantes qui constituent leur fonds de commerce. En ce sens, les cabinets de conseil constituent un sujet d'étude intéressant. Mais quel est le véritable moteur de leur réussite? Quel rôle le marketing y joue-t-il? On ne dispose que de peu d'éléments tangibles pour répondre à ces questions. Il est certain néanmoins que, pour expliquer leur succès, toutes ces entreprises parlent d'une seule voix. Leurs explications tournent autour de trois facteurs principaux. - L'intégrité. Elle doit apparaître comme la préoccupation majeure. Mais ce facteur nous semble totalement surfait dans ce contexte, puisqu'il s'agit ici d'un prérequis nécessaire et non d'un facteur de différenciation. - Les méthodologies, la connaissance du secteur et une expertise technique solides. - Les effectifs et le réseau. Deux grandes tendances se dégagent. Premièrement, la plupart des grands acteurs appliquent des méthodes très proches. Tous ont connu ces dernières années une croissance à peu près similaire, s'appuyant sur un marché en plein essor. Hormis l'impact des fusions et acquisitions - motivées par les économies d'échelle et de périmètre - leurs positions concurrentielles sont restées, quoi qu'on en dise, assez constantes. Deuxièmement, le marketing est rarement cité comme un facteur de succès et la réputation des départements marketing est en fait assez mitigée. Pourtant, la contribution du marketing, dans son sens le plus large, à ce succès, est conséquente, et les conseils sont de véritables experts en matière d'orientation marché (voir «De l'importance de la perception de valeur par le client», «L'Art du Marketing» n^o1, vendredi 16 avril 1999). Nous entendons par là qu'ils développent une culture du «client d'abord» extrêmement compétitive et qu'ils sont passés maîtres dans la perception comme dans la capacité de réaction aux signaux du marché. On comprendra mieux cette apparente contradiction dans le contexte du développement des départements marketing dans ces entreprises. Les frais généraux L'entrée du terme «marketing» dans le vocabulaire des cabinets de conseil va de pair avec l'assouplissement de la réglementation interdisant la publicité et le démarchage direct et non sollicité des prospects. Au Royaume-Uni, ces changements sont intervenus au début des années 80. De nombreux cabinets ont alors créé un département marketing axé sur la communication (communiqués de presse, mailings, publicité, séminaires et conférences) et sur le support à la vente (particulièrement pour les appels d'offres importants). On a embauché des spécialistes - souvent issus d'entreprises dynamiques du secteur de la grande consommation - pour gérer ces activités. Ils dépendaient généralement d'un associé débutant dont les principales qualifications pour le poste étaient une expérience professionnelle réussie de la vente de missions et une réputation de créatif. Ces nouvelles ressources étaient rarement, sinon jamais, exploitées par la direction pour influencer la pensée stratégique. Au mieux, l'attitude dominante face aux actions marketing était tactique. Pourquoi? Traditionnellement, les cabinets de conseil pensent que leur raison d'être est le service client donnant lieu à facturation. Tout le reste relève des «frais généraux
». Dépourvus de responsabilité en matière de service direct aux clients, les nouvelles recrues du marketing faisaient partie des «frais généraux». Il convenait de gérer le marketing avec une grande prudence et de surveiller étroitement toutes les dépenses et les initiatives afférentes. Dans les faits, les premiers services marketing ont apporté bien plus de valeur que ne le pensaient les plus traditionnels. A tout le moins, ils ont contenu les dépenses hasardeuses et mal planifiées associées aux deux syndromes courants dans les cabinets de conseil : l'«enjolivons» et le «faisons une brochure». Le premier reflète l'idée que se font certains associés des professionnels du marketing - des spécialistes capables de rendre des documents ennuyeux beaucoup plus attrayants. Le deuxième syndrome est le recours à un partenaire qui se voit confier une responsabilité marketing pour un bureau ou une gamme de services. Désireux de faire preuve d'initiative, il opte pour ce qu'il croit être le plus facile à mettre en oeuvre. Malheureusement, ces projets se révèlent difficiles, longs et politiquement sensibles. Pis, les objectifs marketing sont souvent mal définis et l'initiative manque de coordination avec les autres activités. Ces attitudes ont compliqué la vie des pionniers du marketing. En même temps, ils ont trouvé chez leurs nouveaux collègues une extraordinaire capacité d'écoute du marché et un réel souci des intérêts du client. De même faisaient-ils preuve d'un sens du marché et d'une réactivité extrêmement aiguisés. Le «client d'abord» En travaillant avec ces entreprises, on ne peut qu'être impressionné par leur profond attachement au service client. Cette valeur dominante repose, à notre avis, sur trois grands principes : le contact étroit avec le client ; le système de mesure et de récompense, et le leadership. * Le contact avec le client 70 % à 80 % du personnel d'un cabinet de conseil consacrent la majeure partie de leur temps à résoudre des problèmes clients, en général par un contact direct. Par ailleurs, la progression dans la hiérarchie, même à très haut niveau, n'entraîne pas de perte de contact avec la clientèle. La situation est très différente dans l'industrie manufacturière, où la majorité du personnel n'a aucun contact direct avec la clientèle et où les dirigeants ne lui consacrent que 15 % de leur temps. Même dans d'autres activités de services comme les banques, les compagnies aériennes, les cabinets d'architectes et les agences de publicité, la part et la qualité du temps consacré aux contacts avec le client sont bien moindres que dans les cabinets de conseil. * Les systèmes de mesure et de récompense Les contacts avec la clientèle constituent la base des systèmes de mesure et de récompense. La plupart des vétérans de ces sociétés se souviennent parfaitement de la première fois où ils ont été confrontés à la feuille de présence dans le cadre de leur programme de formation. Cette feuille de présence est la clef du système de «temps et de facturation», elle permet à l'entreprise de savoir comment chacun est «utilisé», à savoir le temps consacré par chacun aux missions facturales. Dans au moins une société, la culture d'entreprise est très influencée par la communication des taux d'utilisation des premiers et derniers 10 % à chaque niveau. Une mesure apparentée est le «taux de recouvrement» ou nombre d'heures
allouées à une mission convertible en honoraires effectivement payés par le client. Elle a pour effet de centrer la prestation sur les services que le client aura fortement valorisés, ce qui incite à passer du temps avec celui-ci pour réellement comprendre son activité. * Le leadership Ces systèmes ne seraient rien sans le leadership. Chaque directeur général peut définir les priorités de son organisation. Comme les dirigeants des cabinets de conseil sont presque toujours recrutés en interne, il n'est pas surprenant que le «client d'abord» soit un leitmotiv. On reconnaît à Mike Cook, président de Deloitte & Touche aux Etats-Unis, d'avoir popularisé l'idée que «les clients sont de l'or et les prospects de l'argent». Un sens du marché aiguisé Des milliers d'associés et de senior managers travaillant dans des services client sont tous les jours en prise directe avec le marché. Ils consacrent au moins 60 % de leur temps au travail direct avec la clientèle, 15 % à l'échange de vues avec clients, prospects, concurrents et autres acteurs du secteur dans le cadre de séminaires et de conférences, tandis que le reste de leur temps est consacré à la gestion et à la formation. L'exemple d'un directeur d'un cabinet de conseil international, au milieu des années 80, qui avait confié une étude de la concurrence à un jeune analyste marketing montre bien comment un accès à ce niveau de marché peut être influencé. Quelques semaines plus tard, l'analyste lui remettait des conclusions tirées d'articles de presse, des comptes rendus d'appels d'offres et de discussions avec de jeunes embauchés chez les concurrents cibles. Les concurrents du cabinet étaient internationaux, connaissaient une croissance rapide, réussissaient à signer de nouveaux contrats, recrutaient massivement et comptaient de nombreux clients de prestige. Mais rien de cela n'était nouveau - le directeur savait que c'était précisément ces caractéristiques-là qui désignaient ces entreprises comme ses concurrents. Selon lui, une étude de la concurrence ne devrait pas décrire les concurrents tels qu'ils se présentent à ce jour, mais plutôt leur stratégie. Et l'on pouvait découvrir ces stratégies en ouvrant grand les yeux et les oreilles. Il voulait que l'analyste exploite les milliers d'heures hebdomadaires que les associés passaient à l'extérieur du cabinet. L'associé signifia alors à l'ensemble du personnel qu'il comptait sur eux pour prendre le plus d'information possible sur quatre ou cinq concurrents précis dans les deux mois qui suivaient. Ils devaient garder cela à l'esprit lorsqu'ils parlaient avec leurs clients et avec tous les autres dans les salles d'attente des aéroports, en avion et lors des réunions professionnelles. Il pensait qu'en réunissant les multiples signaux peu explicites, on pourrait reconnaître une stratégie naissante. Son expérience fonctionna - les associés s'engagèrent dans une écoute beaucoup plus active du marché et furent encouragés à partager leurs informations sur des événements dont il n'était pas encore possible de dégager une tendance. Le partenaire exploita la ressource latente qu'ont toutes les entreprises à leur disposition en sensibilisant les personnes au processus d'affinement continu de leur propre modèle du marché. Un peloton de tête mondial? La mondialisation a été l'un des premiers moteurs de croissance des plus grands
cabinets de consultants. Elle a créé une demande sans précédent pour une large gamme de services dans le monde entier. La réponse initiale à cette demande consistant à envoyer du personnel au coup par coup n'était pas adaptée, pas plus que l'établissement d'une multiplicité d'antennes employant surtout des professionnels américains et britanniques. La mondialisation a imposé à ces cabinets des investissements dont leur modèle économique initial ne prévoyait pas l'ampleur, ce qui a abouti à la concentration. Les huit grands cabinets d'audit sont devenus six, puis cinq. Dans le monde du conseil, ce qui est aujourd'hui Gemini résulte de l'union du groupe MAC avec United Research et CAP Gemini Sogeti. Cependant, dans le domaine juridique, la plupart des honoraires sont générés par un travail fondé sur un code national. Bien que des concentrations soient intervenues dans chaque pays, les alliances comme celles qui ont conduit à la création de Clifford Chance sont rares. Aujourd'hui, on compte environ cinq grands cabinets d'expertise comptable, dix cabinets de conseil en management et au plus dix cabinets d'avocats-conseils d'envergure véritablement mondiale. Le développement des cabinets multidisciplinaires pourrait conduire à de nouvelles concentrations visant à créer un "peloton de tête" d'une douzaine de firmes mondiales expertes en comptabilité, fiscalité, droit, stratégie et systèmes d'information. Au vu de la diversité de leurs antécédents, il sera extrêmement ardu de maintenir l'unité de ces firmes. Les pressions concurrentielles nationales et internationales pèseront sur l'indépendance des partenariats nationaux (dont la clientèle est très fragmentée) ce qui, à notre avis, aboutira à de nouvelles restructurations. La première contrainte est qu'un cabinet ne peut répondre à tous les besoins. Le bouleversement du marché va donc aboutir à une petit groupe de firmes très puissantes alliant économies d'échelle et de champ à une étroite spécialisation en termes de services offerts et de secteurs desservis. Les cabinets de consultants doivent donc réfléchir aux moyens de s'adapter à cet avenir. Cette adaptation devrait faire intervenir trois outils classiques de stratégie marketing : segmentation, alignement organisationnel et marketing de la marque. * Segmentation Le secteur est le principe de segmentation du marché le plus couramment utilisé par les cabinets de consultants. Cette segmentation répond à la complexité croissante de l'activité de la clientèle et à la valeur que celle-ci attribue à la connaissance du secteur. Cependant, l'alignement de la pratique s'est avéré problématique. Par le passé, les grands cabinets de consultants, soucieux des intérêts du partenariat à l'échelle nationale, estimaient que pour être crédibles, ils devaient être présents sur tous les secteurs. Cette philosophie a bien servi les firmes jusqu'ici mais elle pourrait être incompatible avec les exigences d'un cabinet mondial. D'autres bases plus créatives ont été utilisées avec plus ou moins de succès. La division du marché par type d'actionnaire - public ou privé, taille et rythme de croissance constitue un indicateur prévisionnel fiable de la valeur ajoutée qu'un prestataires de services peut espérer apporter. Tout comme l'attitude de la direction, une caractéristique exploitée par Arthur Andersen au milieu des années 80. Les recherches conduites chez Andersen ont conclu que le cabinet était, entre autres, considéré comme novateur, créatif et efficient. Cependant, il était aussi jugé arriviste, agressif et arrogant. Andersen décida que ces épithètes négatives ne
devaient pas être cachées : elles constituaient une partie valide de sa personnalité qui pourrait être appréciée d'entreprises plus jeunes, plus entreprenantes, à forte croissance avec lesquelles le cabinet voulait vraiment travailler. De nouvelles recherches ont en fait confirmé que pour ces entreprises, ces valeurs sont synonymes de dynamisme, d'assurance et de compétences. * Alignement organisationnel Traditionnellement, le cabinet de conseil était structuré par gamme de services (audit, fiscalité, évaluation d'actifs, par exemple). Le réalignement sur le marché a été progressif. Au départ, les firmes ont créé des groupes de travail dédiés, formés de professionnels issus de chaque division. Chargés de cibler les sociétés intervenant sur certains secteurs, ces groupes ont initialement axé leurs efforts sur la publication de bulletins d'information, la présentation de séminaires sur des sujets d'actualité et (hélas) la production de brochures. Dans un deuxième temps, les divisions ont été réorganisées pour refléter les atouts et ambitions sectoriels de la firme. Elles ont été scindées en groupes dédiés à des secteurs précis (par exemple, services financiers), ce qui a obligé les individus à se spécialiser - à abandonner les clients extérieurs au secteur. La nouvelle organisation était représentée par un tableau dont les cellules correspondaient à la rencontre de l'axe des divisions (fiscalité par exemple) avec celui des secteurs. L'axe dominant restait la division ce qui a réduit l'impact de la réorientation. Plus récemment, on a observé une montée en puissance de l'axe des secteurs, soutenu par des investissements croissants en infrastructure et "gestion des savoirs" afin d'assurer l'exploitation adéquate des connaissances acquises par l'organisation. Cette dernière phase est clairement indispensable aux cabinets de consultants nourrissant des ambitions mondiales. La masse critique n'est plus un problème - ces grandes firmes sont suffisamment solides pour servir les acteurs mondiaux sur les principaux secteurs. Comme les exigences économiques du partenariat national n'ont guère de chances d'optimiser les investissements en produits, services et personnes requis pour desservir des clients d'envergure mondiale, de nombreux prestataires de services visant véritablement l'échelle mondiale ont entrepris la difficile transition vers l'intégration financière de leurs cabinets. Marketing de la marque Si mesurer la valeur d'une marque est un exercice difficile et sujet à controverses, il est indéniable qu'une marque qui positionne distinctement un produit, un service ou une société dans l'esprit de du public ciblé est porteuse d'avantages significatifs. Volvo, Coca Cola, Heinz, Levi's, Marlboro, McDonald's et Nike sont des marques très clairement positionnées par rapport à leurs concurrentes. Or en règle générale, du fait de l'intangibilité des services offerts et de la difficulté qu'ont les clients à comparer des offres préalablement à la livraison, les cabinets de consultants n'ont pas réussi à établir un positionnement distinctif de leur marque. A cet égard, McKinsey fait figure d'exception, qui doit sa position de leader sur le marché à la prévoyance de ses fondateurs -- ils ont créé une nouvelle catégorie et, sur le modèle des cabinets juridiques, ont appris aux entreprises américaines ce qu'était le conseil en management. Les autres n'ont fait que les imiter. Dans le domaine de l'expertise comptable, le groupe des cinq grands cabinets est une mégamarque qui se distingue clairement de toutes les autres. Mais en dépit d'une publicité omniprésente, le marché peine à différencier ces cinq acteurs les
uns des autres. Certains pensent que la diversité des services offerts et des secteurs desservis est à l'origine de cet échec. Tant que les firmes desservent de multiples segments, il est difficile de bâtir un positionnement qui ait un sens pour les acheteurs de ces marchés disparates. En revanche, le cabinet Marakon qui a inventé le value-based managementc*set conseille des sociétés comme Coca Cola, Dow Chemical, Nordstrom, Boots et Lloyds TSB, a su éviter ce piège en restant dans son domaine d'expertise ; sa réputation ne tient qu'à une compétence. Cette stratégie fonctionne : l'an dernier, son chiffre d'affaires par consultant talonnait celui du leader du marché McKinsey. Malgré la difficulté à établir un positionnement différentiel, la marque est un important véhicule de qualité et crédibilité pour les cabinets de consultants (comme pour d'autres sociétés de services). En effet, les clients achètent plus volontiers des services à une firme réputée et sont prêts à payer un supplément pour ce faire. Par ailleurs, la marque joue aussi un rôle essentiel dans le recrutement : s'ils ont le choix, les étudiants en MBA rejoignent presque systématiquement les cabinets les plus prestigieux. La prochaine vague de restructuration pourrait encore accroître l'importance des marques dans la communication des compétences. Les grands noms du conseil pourraient devenir des marques ombrelles, tandis que l'accent serait mis de plus en plus sur les marques de ces marques desservant des secteurs distincts. La difficulté sera de s'assurer qu'elles projettent les valeurs centrales véhiculées par la marque ombrelle. Si grandes que soient ces difficultés, il ne faut pas sous-estimer la capacité des cabinets de consultants de les surmonter. Pour reprendre les termes de James O'Shea et Charles Madigan, journalistes au Chicago Tribune et auteurs d'un récent livre sans complaisance sur les grands cabinets de consultants, "La première qualité du secteur américain du conseil en management est son aptitude à faire sa promotion". Les futurs vainqueurs Les vainqueurs sur le nouveau marché mondial seront ceux qui auront le mieux réussi à exploiter leur connaissance du marché et leur expertise en matière de marketing stratégique. Ils auront défini des positions différenciées et porteuses de valeur dans l'esprit des acheteurs sur leurs marchés cibles. Ils auront surmonté des préjugés profonds sur la valeur du marketing et auront abordé les trois priorités critiques : la segmentation, l'alignement de l'organisation et le marketing de la marque. Voilà donc le paradoxe de ces cabinets en la matière. Ils commencent tout juste à apprendre certains aspects du marketing fonctionnel, comme la communication de la marque, qui sont depuis longtemps associés aux poids lourds du secteur de la grande consommation comme Procter & Gamble, Mars et Nestlé. En même temps, ce sont d'anciens experts du marketing au sens large, en termes de proximité du client, d'orientation compétitive et de réactivité aux signaux émis par le marché. Surinformation et nouveaux marchands de données Les transformations lourdes qui s'opèrent en matière d'information révolutionnent véritablement la fonction marketing. Pour les spécialistes du secteur, l'intérêt majeur des nouvelles technologies est précisément de convertir des données en savoir. DAVID SOBERMAN
Aller courageusement où l'homme n'est pas encore allé» (Gene Roddenberry, 1966). On peine à trouver une meilleure description de l'effet qu'aura la révolution de l'information sur la vie des spécialistes du marketing que celle de Gene Roddenberry, le créateur de «Star Trek». Le marketing a toujours été l'art de conjuguer les connaissances acquises sur les clients et les concurrents avec les capacités de l'entreprise à générer du profit. Si la révolution de l'information a indubitablement accru notre aptitude à collecter, enregistrer et même trier les informations, l'intérêt majeur des technologies de l'information pour les spécialistes du marketing est leur capacité à convertir des données en savoirs. La fin de l'intuition Dans de nombreux secteurs, l'expérience, la connaissance des modes de fonctionnement du marché et de ses réactions à différentes initiatives, a toujours été un facteur critique de succès. Concevoir des programmes promotionnels exige de connaître le secteur et la manière dont les consommateurs réagissent aux diverses incitations. L'acquisition de cette connaissance se fait par tâtonnements. Si cette démarche empirique ne peut servir de base à l'élaboration d'une théorie sectorielle, elle permet la constitution de listes de stratégies «payantes» et d'autres «à éviter». La situation à laquelle sont confrontés les responsables d'entreprise opérant sur les nouveaux secteurs est très différente. Souvent, l'entreprise n'a que très peu de connaissances de la réaction du marché aux initiatives. En outre, sur certains secteurs d'activités matures - comme les compagnies aériennes et l'industrie de la musique -, les innovations technologiques ont entraîné des transformations radicales. Dans de telles circonstances, il peut être très risqué de fonder ses décisions sur l'expérience passée. Dans ces deux situations, les responsables se fiaient souvent à leur intuition. Ils extrapolaient à partir de l'expérience d'autres secteurs ou marchés et émettaient des suppositions éclairées sur l'évolution probable d'activités nouvelles ou en rapide évolution. Cependant, la révolution de l'information a rendu cette démarche insuffisante ; le flair n'a plus cours. Les spécialistes du marketing peuvent maintenant se faire une idée précise de l'évolution du marché à l'aide d'une pléthore d'outils, qui vont jusqu'au consommateur final pour obtenir les réponses. Ces outils incluent les techniques d'étude de marché comme l'échelle multidimensionnelle, l'analyse factorielle et typologique et l'analyse conjointe (voir «L'Art du Marketing» n^o 2, vendredi 23 avril). Or ces instruments existent sous une forme ou une autre depuis les années 60 ; alors pourquoi les responsables les ont-ils ignorés et ont-ils continué à se fier à leur intuition tout au long des années 80? La raison est économique. Avant l'arrivée des ordinateurs personnels et des logiciels conviviaux, ces procédures, quoique faciles à décrire, étaient d'un emploi difficile et coûteux. Seules les sociétés d'études de marché sophistiquées ayant accès aux principaux systèmes pouvaient fournir les services dont avaient besoin les entreprises qui lançaient une nouvelle catégorie de produits ou la modifiaient. Ainsi, si ces outils étaient utilisés dans les industries disposant d'importants budgets marketing, comme les boissons non alcoolisées, la bière et le tabac, leur pénétration dans les
petites et moyennes entreprises était très modeste. Mais aujourd'hui, l'ordinateur personnel et les logiciels d'analyse des données issues d'études de marché ont rendu nombre de ces procédures relativement accessibles. Un petit fournisseur industriel peut maintenant conduire une analyse conjointe de ses clients pour un budget raisonnable et obtenir les informations sur lesquelles fonder ses décisions. Même quand ces procédures sont sous-traitées à des sociétés d'études de marché, leur coût n'est qu'une fraction de ce qu'il était il y a quelques années. Conséquence, la barre est plus haute pour tous les acteurs des secteurs concurrentiels. Une entreprise travaillant sur un secteur nouveau ou en évolution ne peut plus se fier à sa seule intuition pour survivre et prospérer. Un minimum de compréhension et d'application des techniques modernes d'études de marché est indispensable. De l'abondance à l'excès Si l'information joue un rôle bien plus important, il est vrai aussi que les responsables en reçoivent beaucoup plus (même si cela tient à des raisons aussi simples que la réception de données sur les expéditions du magasin sur une base journalière et non plus mensuelle). En fait, de nombreux responsables vous diront que leur problème numéro un est la surabondance d'informations. Un récent article d'ibm estimait que dans l'industrie pétrolière et gazière, les cadres consacraient 60 % de leur temps à des activités comme la localisation, la collecte et la manipulation des informations, et non à leur analyse. D'un côté, cette évolution semble aller à l'encontre du sens commun, qui laisse à penser que plus on a d'informations sur une situation donnée, plus grandes sont les chances de prendre une bonne décision. De l'autre côté, comme l'a remarqué Herbert Simon en 1951, la «rationalité limitée», à savoir la capacité limitée de traitement de l'information, est une caractéristique du cerveau humain. Pour l'essentiel, cette théorie suggère que lorsque des personnes ont trop d'informations à traiter, elles arrêtent de les traiter et procèdent de manière empirique pour prendre des décisions. Ainsi, si l'information est surabondante, on observe une régression vers l'intuition et le «pifomètre» qui ont fait leurs preuves par le passé. Autrement dit, à moins d'apprendre à limiter et à filtrer l'information acquise sur son marché, ses performances et les activités de ses concurrents, l'entreprise court le risque de réduire sa réactivité et sa rentabilité au lieu de les améliorer. Ce domaine est sensible et il faut étroitement surveiller le flux d'information, compte tenu des ressources limitées de l'entreprise en personnel dirigeant. Le flux d'information n'est ni naturel ni positif. S'il n'est pas maîtrisé, il peut se déverser de façon nuisible. L'entreprise doit appliquer quatre mesures de base pour que les responsables du marketing aient des informations suffisantes, pertinentes et diagnostiques pour les décisions qu'ils doivent prendre. 1. L'entreprise doit clairement définir les responsabilités de chacun au sein du département marketing. En discutant avec chaque responsable, elle doit isoler les trois ou quatre questions qui doivent trouver réponse pour que la prise de décision soit efficace. Par le passé, les entreprises pouvaient permettre aux responsables marketing de
développer ces questions de manière plus indépendante car la phase de collecte d'informations était moins importante. Aujourd'hui, l'information vient de toutes parts, si bien que la participation de l'entreprise tout entière joue maintenant un rôle primordial dans l'identification des questions clefs. 2. Le département marketing doit déterminer le type d'information nécessaire pour répondre aux questions des responsables. Certaines informations sont peut-être disponibles au sein de l'entreprise, tandis que d'autres peuvent nécessiter l'aide d'une société d'études de marché. 3. Le coût d'obtention de ces informations doit être calculé afin de décider s'il faut ou non poursuivre un projet de recherche. Ce coût doit être mesuré à l'aune du gain attendu d'un processus de prise de décision plus performant. Lorsqu'il est supérieur au bénéfice, le responsable doit revenir au point 2 pour déterminer s'il existe des sources plus économiques. 4. Les avantages de l'information pour la prise de décision doivent être évalués par un retour d'informations et des mesures de performances réguliers. Il faut tout simplement effectuer des audits périodiques du service marketing pour vérifier que les dépenses consacrées aux études de marché et aux analyses sont justifiées. Le principe fondamental ici est que, pour bien gérer des produits ou des services quels qu'ils soient, le département marketing doit élaborer une stratégie de gestion de l'information qui découle de la question à laquelle il veut répondre. Si le département marketing (et l'entreprise dans son ensemble) ne contrôle pas la collecte et le flux d'information, le processus peut saper les rares ressources manageriales et masquer l'information véritablement importante. Pour éviter ce piège, il existe trois règles simples pour le département marketing : 1. Il ne suffit pas qu'un certain type d'études ou de recherche ait été mené par le passé pour le répéter chaque année automatiquement (les responsables doivent confirmer que ces informations leur sont utiles pour prendre leurs décisions). 2. Les responsables n'ont pas à lire tous les rapports ou à analyser toutes les données qu'on dépose sur leur bureau. Ils ont tendance à croire qu'ils doivent le faire parce que ces rapports les concernent sûrement. La plupart d'entre eux les concernent effectivement ; mais à notre époque, lire et examiner toutes les informations qui affectent l'activité est le plus sûr chemin vers le désastre. Le problème est la gigantesque quantité d'informations qui circule dans la plupart des entreprises. Un responsable qui lit tout ce qu'il reçoit est forcé de constater que cette lecture consomme une part considérable d'une journée de travail moyenne. L'une des responsabilités clefs d'un responsable marketing est de gérer le flux d'information et de se concentrer sur ce qui est important. 3. Les responsables marketing doivent amener le reste de l'entreprise à leur fournir les informations qui leur sont utiles pour prendre des décisions. Les fonctions production, recherche et développement et vente doivent donc avoir une idée de la démarche du marketing pour pouvoir lui fournir les informations nécessaires. Le responsable modèle Au vu de ce qui précède, quel profil doivent avoir les responsables du département marketing? Il faut au marketing des personnes qui ont l'audace de supprimer des rapports dont on ne se sert plus. Ce peut être difficile car les autres membres de l'entreprise peuvent avoir intérêt à continuer de produire ou à acheter certaines informations.
Les responsables du marketing doivent aussi pouvoir discerner dans la masse d'informations celles qui sont importantes et laisser les autres. Enfin, ils doivent être capables de vendre une «vision» de l'information au reste de l'entreprise. Traditionnellement, de nombreuses entreprises nommaient au marketing des commerciaux qui avaient fait montre d'un fort potentiel de planification et des personnes issues d'agences de publicité. Celles-ci connaissaient généralement bien l'activité et étaient capables de vendre une «vision» au reste de l'entreprise. Mais peu avaient de fortes compétences en analyse de l'information. Beaucoup de grandes entreprises nomment maintenant au marketing des diplômés en gestion qui, en général, ont appris à penser stratégiquement, à agir (de sorte qu'ils n'auraient probablement pas de difficulté à supprimer un rapport superflu) et à vendre leurs idées. Pourtant, rares sont les formations en gestion qui reconnaissent l'importance de l'analyse de l'information ; les étudiants consacrent maintenant beaucoup plus de temps à l'étude de cas qu'à l'analyse. Il devient encore plus important qu'ils soient exposés à l'information et aux données pour pouvoir développer la capacité d'évaluer l'utilité de l'information par rapport à certains critères. Les marchands de données La révolution de l'information a considérablement élargi le champ des possibles pour les consultants en marketing. Elle leur permet de mieux comprendre leurs consommateurs, de leur livrer de meilleurs produits et services et de suivre leur satisfaction après la vente. La norme en matière d'excellence dans la plupart des catégories est bien plus élevée aujourd'hui qu'elle ne l'a jamais été. L'abondance de l'information a créé des opportunités pour de nouveaux types de services et d'activités. Cela dit, toutes les entreprises dotées d'un département marketing actif n'ont pas la possibilité d'exploiter toutes les possibilités offertes par les technologies de l'information. Ce sont surtout les entreprises indépendantes qui ont profité de ces opportunités. La vente de produits d'information aux entreprises a donc connu un essor rapide. Jusqu'à la fin des années 70, les entreprises qui commercialisaient les informations se rangeaient en deux grandes catégories. La première regroupait celles qui vendaient des données d'études de marché groupées, comme A.C. Nielsen et IRI. Ces sociétés collectaient les données par audit des distributeurs ou sondage des ménages, les préparaient et les analysaient et les vendaient aux fabricants et prestataires de services. Cette activité est devenue très lucrative car sur de nombreux secteurs, c'était le seul moyen d'obtenir régulièrement des informations sur les performances compétitives. Il faut noter ici que les informations sur le commerce de détail sont aujourd'hui collectées par scanner et sont donc bien plus exactes qu'autrefois. En outre, certains foyers sont maintenant "en ligne", ce qui permet aux chercheurs d'analyser la corrélation entre les ventes de détail et le comportement d'achat des ménages avec beaucoup plus de précision. La deuxième catégorie réunissait les sociétés d'études de marché auxquelles les grands fabricants et constructeurs confiaient des projets ponctuels. Ces sociétés réalisaient surtout des recherches auprès de groupes cibles, des entretiens approfondis et des enquêtes.
Les deux premiers types d'études fournissent essentiellement des informations qualitatives utiles pour étudier des problèmes mal définis ou tester et concevoir une publicité créative. Ces méthodes restent indispensables aujourd'hui car la remontée des informations est rapide et assez économique. Néanmoins, l'information fournie n'est pas quantitative et ne sert pas beaucoup à la prise d'importantes décisions financières. Le troisième type d'étude est quantitatif et peut aider à la prise de décision financière. Son exécution est cependant coûteuse et longue - il est impossible d'obtenir rapidement des résultats statistiquement pertinents, quel que soit le mode d'exécution de l'étude, porte à porte, dans la rue, par téléphone ou par courrier. Ce type de recherche reste cependant très important. Récemment, la révolution de l'information a permis d'offrir de nouveaux services d'études de marché, proposés par de nouveaux acteurs. Les deux grands domaines de croissance rapide sont : * la constitution de gigantesques bases de données sur les clients fidèles, généralement tirées des programmes de fidélisation de type "voyageur fréquent", client privilégié, etc. * la collecte active de données sur les consommateurs à travers des sondages généraux, des enquêtes électroniques ou même l'activité sur Internet, qui peuvent ensuite servir à la mise en oeuvre des activités marketing. Le nombre d'entreprises et de produits proposant des programmes de fidélisation des clients réguliers s'est considérablement accru. Nombre de ces programmes, comme ceux des compagnies aériennes, sont propres à la compagnie, qui en assure la gestion. D'autres programmes, comme les kilomètres de vol, sont gérés par des opérateurs indépendants et offrent des bonus aux acheteurs sur de nombreuses catégories de produits. Grâce à ces programmes, les fournisseurs peuvent adapter leur offre à chaque client et apporter davantage de valeur ajoutée aux clients fidèles. Cependant, il est difficile de déterminer s'ils ont réussi à accroître les profits de ceux qui les ont mis en place. En effet, si ces programmes sont conçus pour fidéliser davantage les clients, ce qui permet aux fournisseurs d'augmenter leurs prix (nets des programmes de fidélisation), leurs effets compétitifs peuvent s'annuler les uns les autres et ne réussir au final qu'à relever les coûts d'exploitation généraux. Ce résultat est très courant lorsque les clients ont la possibilité de participer à plusieurs programmes. Il serait intéressant de demander aux patrons des compagnies aériennes si leurs programmes "voyageur fréquent" génèrent réellement les profits que l'on anticipait au moment de leur création au début des années 80. L'autre domaine qui a connu un formidable essor est celui de la collecte électronique d'informations sur les consommateurs. Dans certains cas, les entreprises exploitent les informations qu'elles obtiennent naturellement dans l'exercice de leur activité ; dans d'autres, des entrepreneurs indépendants collectent activement des informations. La société d'études de marché canadienne Icom, qui commercialise des bases de données (voir encadré), est l'un de ces très dynamiques nouveaux venus. Ces spécialistes offrent des méthodes efficaces pour convertir des dépenses de marketing en essais pour les nouvelles marques et en programmes de fidélité et
d'accroissement des ventes pour les marques réputées. Ces nouveaux services basés sur l'information permettent de mieux cibler les actions et de moins dépenser sur ceux qui sont déjà utilisateurs ou ne sont pas intéressés par la catégorie. Cette approche a des implications significatives pour les spécialistes du marketing. Les activités qui étaient autrefois associées à un gaspillage important et à une remontée médiocre, comme le couponnage, peuvent devenir bien plus attrayantes avec un meilleur ciblage. Les entreprises peuvent dégager des fonds du marketing de masse du fait de l'impact supérieur du marketing direct. La clé du succès à l'avenir, même pour les fabricants de produits conditionnés, peut être de connaître le nom de chacun de leurs clients et d'engager un dialogue régulier sur leurs besoins. L'avenir Après toutes les transformations qu'a déjà connues la fonction marketing du fait des technologies de l'information, que nous réserve l'avenir? Premièrement, on peut s'attendre à des progrès continus des produits d'information dont disposeront les spécialistes du marketing. Aujourd'hui, la plupart des bases de données sont utilisées séparément pour différentes actions. La liaison de bases de données, rare aujourd'hui du fait des difficultés techniques, deviendra plus facile et plus courante à mesure des progrès de la technologie. Relier une base de données de voyageurs fréquents à une base de données de mailings groupés (par exemple) apporterait des avantages considérables aux spécialistes du marketing. Deuxièmement, le nombre de sociétés dédiées à l'information des consommateurs va augmenter. A présent, rares sont les entreprises qui proposent des conseils, d'achat ou autres, aux consommateurs - en leur indiquant, par exemple, les prix ou performances les plus avantageux du marché. Cette évolution intensifiera la concurrence sur les prix pour les produits équivalents et pourrait aussi précipiter la fin des produits dont les performances ne sont pas à la hauteur des standards du secteur. Enfin, l'intensification de la concurrence engendrée par les technologies d'achat perfectionnées conduira à la rationalisation de nombreux secteurs. Il suffit de penser à la pression mise sur les libraires locaux par de nouveaux concurrents sur l'internet, comme Amazon.Com. Le marché verra naître de nouvelles entreprises dédiées à certains circuits de communication utilisés pour interagir avec les consommateurs. Ainsi, le distributeur du futur pourrait se spécialiser dans la fourniture d'une gamme de produits et services via Internet ou via des circuits d'achat interactifs. Les sociétés traditionnelles comme Nestlé et Adidas devront traiter avec ces nouveaux distributeurs et exploiter la possibilité ainsi offerte d'atteindre un nombre croissant de clients. Comment Icom exploite la puissance des données La société canadienne Icom Information and Communications a misé sur l'explosion de l'information. Comptant parmi ses clients Procter & Gamble, Johnson & Johnson, Nestlé, Unilever, Lexus et Reader's Digest, Icom est l'exemple type du marketing ciblé à l'ère de l'information. Spécialiste de la recherche de moyens innovants et rentables de ciblage des consommateurs, Icom est l'une des sociétés d'étude de marché utilisant des bases de données qui connaît la croissance la plus
rapide en Amérique du Nord. Elle collecte des profils détaillés sur l'achat et l'usage des produits auprès de plus de 20 millions de foyers par le biais de vastes études, dignes d'un recensement. Elle loge ensuite la masse résultante d'informations sur chaque consommateur dans une base de données spécialisée utilisant des technologies sophistiquées de scannage, d'interprétation et d'enregistrement de données. Ces informations servent ensuite à élaborer des produits de données et de communication à l'intention des spécialistes du marketing. La société fournit également des services de conception de bases de données. Pour aider les spécialistes du marketing à cibler une série de messages, d'échantillons et de coupons sur les segments pertinents de la base de données, Icom a automatisé le processus de mailings groupés par lequel le contenu de chaque mailing est adapté aux habitudes de chacun des foyers ciblés. Selon Alan Levine, codirecteur d'icom, l'informatique a permis à la société de «créer les économies d'échelle associées au marketing de masse traditionnel tout en atteignant le pouvoir de persuasion d'une vente en face à face». Mais le mailing individualisé n'est pas la seule possibilité offerte par l'explosion du marketing basé sur l'information. Icom travaille donc dans plusieurs domaines. Ses statisticiens et programmeurs ont développé un programme capable de suivre les marques utilisées par des segments de consommateurs ayant certaines habitudes de médias. La société développe aussi une série de nouveaux produits d'information qui lient les habitudes de consommation au comportement d'achat propre à un distributeur. La réponse initiale à ces produits, dit Alan Levine, indique qu'il existe un marché considérable. Le prix de l'information Pour réaliser des profits sur le marché de l'information, il n'est pas nécessaire d'offrir la meilleure qualité : mieux vaut vendre des informations même imprécises sur des marchés mal connus. PHILIP PARKER Que sont exactement les produits et les services d'information? Les stratégies concurrentielles traditionnelles sont-elles applicables à ce secteur? Les recherches récentes apportent des réponses plutôt contraires à ce que l'on serait tenté de croire : les sociétés qui vendent des informations de médiocre qualité peuvent réaliser des profits colossaux, tandis que celles qui vendent des informations de grande qualité peinent à survivre. Il n'est tout simplement pas possible d'appliquer aux premières la stratégie compétitive telle qu'elle s'apprend dans les livres. Pour clarifier cette conclusion, je me propose de définir ce que l'on entend par produits et services d'information, de décrire la structure de la concurrence sur les marchés de l'information et de résumer quelques études de cas. Qu'est-ce que l'information? Dans l'exposé qui suit, il faut penser au consommateur qui achète de l'information pour prendre une décision. Ces produits peuvent prendre diverses formes : rapports sectoriels, services de conseil, programmes pédagogiques, opinions d'experts comptables, financiers, juridiques, ou ingénieurs, etc. Le secteur des services de l'information comprend aussi les services de bases de données comme les renseignements commerciaux de Dun & Bradstreet, et les rapports sur les ventes par région et la consommation établis par l'ims (International Sales Territory Reports et Consumer Reports). Par ailleurs, la recommandation faite par un médecin à son patient de suivre un traitement particulier comme celle donnée par un professeur en stratégie à une entreprise de pénétrer un nouveau marché sont des produits d'information. Au début des années 90, le département du Commerce américain avait estimé à 375 milliards de dollars le chiffre d'affaires annuel généré aux Etats-Unis par les
produits et services orientés sur l'information. Cette industrie existe pour une seule et unique raison : les asymétries de l'information. Les consommateurs ne sont pas sûrs et manquent de connaissances. Ils recherchent donc des fournisseurs qui en savent plus qu'eux pour leur acheter ces informations. La connaissance est une marchandise. Structure de la concurrence Qui gagne le plus d'argent sur les marchés de l'information? La figure 1 résume les implications d'un modèle fondé sur la théorie des jeux, proposé par Miklos Sarvary, de l'université Stanford. Le modèle compte deux vendeurs de savoir qui se différencient, dans la perception des consommateurs, par deux dimensions : les approches des vendeurs et la qualité de l'information qu'ils fournissent. Définissons ces termes. Qu'est-ce qu'une approche? Prenons deux médecins : l'un est homéopathe, l'autre généraliste traditionnel. Un patient souffrant de maux de tête pourrait consulter le médecin traditionnel ; après l'avoir examiné, celui-ci pourrait conclure que le patient est stressé et qu'il a besoin de quelques jours de congé maladie. Ce même patient pourrait également consulter l'homéopathe, qui pourrait, lui aussi, recommander quelques jours d'arrêt. Bien que ces deux médecins donnent exactement le même conseil, on considère cependant qu'ils appartiennent à deux écoles de pensée radicalement différentes. L'approche n'est pas «ce que vous savez ou ce que vous dites», mais plutôt votre «méthodologie perçue». La corrélation des perspectives entre vendeurs est un élément clé de la description de la concurrence sur les marchés de l'information. Deux homéopathes ont des perspectives similaires : leur savoir est perçu comme corrélé. Un homéopathe et un médecin traditionnel ont des perspectives différentes - leur savoir n'est pas corrélé. Qu'est-ce que la «qualité»? La qualité est liée à la fiabilité ou à l'exactitude de l'information vendue. L'information de grande qualité est extrêmement précise. L'information de mauvaise qualité n'est pas exacte. D'où vient la qualité? Elle peut venir de la compétence du vendeur. Sur les marchés concurrentiels, la compétence n'est en général pas un facteur de qualité sur le long terme car une entreprise peut toujours embaucher du personnel compétent ou licencier les incompétents. L'environnement constitue une source de qualité plus intéressante. Pour une société qui vend des prévisions de la demande automobile, des projections à cinq ans sur le marché chinois seront moins exactes et moins fiables que des prévisions à cinq ans pour le Royaume-Uni. De même, les sociétés de conseil sont plus sujettes à fournir des prévisions de faible qualité pour de nouvelles catégories de produits non parce qu'elles sont moins compétentes que les autres, mais parce que les marchés de nouveaux produits sont toujours très incertains. Le tableau ci-dessous en apporte l'illustration pour les téléphones mobiles aux Etats-Unis. Les prévisions effectuées au milieu des années 80 pour l'année 1990 et au-delà variaient de 430.000 à 40 millions d'abonnés. La taille réelle du marché en 1990 était de 5,2 millions d'abonnés et aucune prévision ne s'était approchée de ce chiffre. Les sociétés prestigieuses qui ont réalisé ces prévisions n'étaient pas plus incompétentes que les autres ; elles ont tout simplement employé des méthodologies et des hypothèses différentes. L'exactitude, la fiabilité et la qualité
des informations fournies étaient néanmoins faibles. * Qui gagne de l'argent sur les marchés de l'information? La figure 1 résume les issues possibles pour deux vendeurs de rapports face à un dirigeant souhaitant acheter de l'information pour prendre une décision. Retenons l'hypothèse où les deux vendeurs proposent des informations extrêmement exactes (comme des statistiques sectorielles) et appartiennent à la même école de pensée. Dans cette situation, le directeur n'achètera qu'à un vendeur. Les deux vont se livrer une concurrence féroce pour ce marché. Les prix vont chuter pour se rapprocher des coûts marginaux et aucun ne sera très rentable. Pourquoi? Parce que les deux vendeurs proposent des substituts parfaits. Les vendeurs d'informations de grande qualité réalisent des profits faibles. Etudions maintenant le cas d'un consommateur prenant la décision d'investir 100 millions de dollars en Indonésie. Le marché est très incertain. Les prévisions seront très certainement imprécises compte tenu de ces fortes incertitudes. L'un des vendeurs d'informations a développé un modèle économétrique complexe et vend des prévisions de demande sous forme de rapport sectoriel. L'autre société vend aussi des prévisions de demande sous forme de rapport, mais elle a une approche sociopolitique : elle souligne que pour établir ses prévisions, elle emploie la méthode Delphi, interroge les politiques et analyse les tendances sociologiques en Indonésie. Combien de rapports le directeur achète-t-il maintenant? Il s'avère que le directeur achètera les deux rapports et que les deux vendeurs demanderont des prix de quasi-monopole. Les sociétés qui vendent des informations de faible qualité réalisent d'importants profits! Encore une fois, la médiocrité de la qualité ne tient pas à l'incompétence. Les deux sociétés peuvent, en fait, employer les personnes les plus compétentes de la planète. Mais l'importance de leurs profits tient au fait que le décideur est confronté à de grandes incertitudes et que les vendeurs proposent des optiques différentes. Les produits qu'ils vendent sont des compléments. L'intuition derrière la figure 1 est la suivante : les consommateurs ayant à prendre des décisions importantes peuvent trouver avantageux d'acheter des informations à plusieurs fournisseurs, surtout lorsque la fiabilité des informations est faible et que les sources d'information sont indépendantes les unes des autres. Dans ce cas, les produits d'information sont généralement complémentaires et la concurrence entre vendeurs modérée. Dans le cas opposé, lorsque l'information est fiable et/ou les sources des vendeurs sont étroitement corrélées, les consommateurs sont satisfaits après avoir consulté une seule source. Dans ce scénario, les produits d'information sont des substituts et les vendeurs ont tendance à vendre moins cher que leur concurrent pour attirer les consommateurs. * Implications Quelle est la différence fondamentale entre le dentifrice et l'information? Sur les marchés du dentifrice, les consommateurs n'achètent pas deux marques pour se brosser les dents avec un mélange des deux pâtes. Mais sur les marchés de l'information à forte valeur ajoutée, il se produit quelque chose de cet ordre. Le produit final est un mélange de contributions multiples qui se complètent. Sur les marchés du dentifrice, les marques de qualité médiocre ne se vendent pas plus cher. Sur les marchés de l'information, l'opposé peut être vrai ; il suffit de penser à la différence de prix entre des statistiques sectorielles exactes et des prévisions établies par des consultants en management.
Cela laisse à penser que les stratégies concurrentielles recommandées dans la plupart des manuels des écoles de gestion ont peu de chances d'être applicables aux marchés du savoir où les consommateurs sont confrontés à de fortes incertitudes et où les vendeurs offrent de multiples optiques. Sur ces marchés, les produits vendus par les sociétés ne sont pas des substituts, mais des compléments. Des stratégies complémentaires (au contraire de stratégies concurrentielles) sont appropriées. Sur des marchés incertains par exemple, un vendeur de savoirs préfère en général avoir un concurrent (l'existence de la médecine traditionnelle accroît la valeur de l'homéopathie - les deux types de médecins, au final, prennent des honoraires plus élevés). Etant donné que des fournisseurs d'information apparemment concurrents se complètent en fait l'un l'autre, il semble très souhaitable de leur permettre de fusionner ou de s'associer : cela pourrait baisser le prix de l'information! Quelles sont les implications pour les fournisseurs d'information? Un certain nombre d'entreprises ont fourni des informations extrêmement précises aux dirigeants (par exemple, A.C. Neilsen, Information Resources, Dun & Bradstreet, Reuters, Dialog, Reed Elsevier). Certains d'entre eux commencent à faire face à la concurrence directe de leurs propres fournisseurs primaires et peinent à maintenir leurs marges. Leurs concurrents ont des optiques identiques. Pour inverser cette tendance, ils devront soit développer d'autres optiques, soit repositionner leur activité sur les marchés très incertains. Qui répond aujourd'hui aux besoins des dirigeants confrontés aux plus fortes incertitudes? Essentiellement des sociétés de conseil en stratégie, comme McKinsey. En fait, de nombreuses sociétés de conseil refusent de répondre aux propositions de clients potentiels si les problèmes décrits sont trop «simples». De même, dans le monde de l'édition, les publications les plus chères (par page) sont des études sectorielles établissant des prévisions sur des marchés très incertains (par exemple la Chine) ou des secteurs confrontés à des incertitudes générées par des facteurs comme la déréglementation (par exemple, les télécommunications et les compagnies d'électricité). Les données traditionnelles fournies par les associations professionnelles sur les tendances historiques sont plus précises, mais elles ont moins de valeur marchande. * Les sociétés qui vendent des informations de qualité médiocre réalisent d'importants profits! Encore une fois, la médiocrité de la qualité ne tient pas à l'incompétence. Les deux sociétés peuvent, en fait, employer les personnes les plus compétentes de la planète. Mais l'importance de leurs profits tient au fait que le décideur est confronté à de grandes incertitudes et que les vendeurs proposent des perspectives différentes. Les produits qu'ils vendent sont des compléments. L'intuition derrière la figure1 est la suivante : les consommateurs devant prendre des décisions importantes peuvent trouver avantageux d'acheter des informations à plusieurs fournisseurs, surtout lorsque la fiabilité des informations est faible et que les sources d'information sont indépendantes les unes des autres. Dans ce cas, les produits d'information sont généralement complémentaires et, par conséquent, la concurrence entre vendeurs modérée. Dans le cas de figure opposé, l'information est fiable et/ou les sources des vendeurs sont étroitement corrélées. Les consommateurs sont satisfaits après avoir consulté une seule source. Dans ce scénario, les produits d'information sont des substituts et les vendeurs tendent à vendre moins cher que leur concurrent pour
attirer les consommateurs. * Implications Quelle est la différence fondamentale entre le dentifrice et l'information? Sur les marchés du dentifrice, les consommateurs n'achètent pas deux marques pour se brosser les dents avec un mélange des deux pâtes. Mais sur les marchés de l'information à forte valeur ajoutée, il se produit quelque chose de cet ordre. Le produit final est un mélange de contributions multiples qui se complètent. Sur les marchés du dentifrice, les marques de qualité médiocre ne se vendent pas plus cher. Sur les marchés de l'information, l'opposé peut être vrai ; il suffit de penser à la différence de prix entre des statistiques sectorielles exactes et des prévisions établies par des consultants en management. Cela laisse à penser que les stratégies concurrentielles recommandées dans la plupart des manuels des écoles de gestion ont peu de chances d'être applicables aux marchés du savoir où les consommateurs sont confrontés à de fortes incertitudes et où les vendeurs offrent de multiples approches. Sur ces marchés, les produits de savoir vendus par les sociétés ne sont pas des substituts, mais des compléments. Des stratégies complémentaires (au contraire de stratégies concurrentielles) sont appropriées. Sur des marchés incertains par exemple, un vendeur de savoir préférerait avoir un concurrent (l'existence de l'allopathie accroît la valeur de l'homéopathie - les deux types de médecins, au final, prennent des honoraires plus élevés). Et étant donné que des fournisseurs d'information apparemment concurrents se complètent en fait l'un l'autre, il semble très souhaitable de leur permettre de fusionner ou de s'associer - cela pourrait abaisser le prix de l'information! Quelles sont les implications pour les fournisseurs d'information? Un certain nombre d'entreprises ont fourni des informations extrêmement précises aux dirigeants (par exemple, A.C. Neilsen, Information Resources, Dun & Bradstreet, Reuters, Dialog, Reed Elsevier). Certains de ces vendeurs commencent à être confrontés à la concurrence directe de leurs propres fournisseurs primaires et peinent à maintenir leurs marges. Leurs concurrents ont des perspectives identiques. Pour inverser cette tendance, ils devront soit développer d'autres perspectives, soit repositionner leur activité sur les marchés très incertains. Qui répond aujourd'hui aux besoins des dirigeants confrontés aux plus fortes incertitudes? Essentiellement des sociétés de conseil en stratégie (par exemple McKinsey). En fait, de nombreuses sociétés de conseil refusent de répondre aux propositions de clients potentiels si les problèmes décrits sont trop "simples". De même, dans le monde de l'édition, les publications les plus chères (par page) sont des études sectorielles établissant des prévisions sur des marchés très incertains (par exemple la Chine) ou des secteurs confrontés à des incertitudes générées par des facteurs comme la déréglementation (par exemple, les télécommunications et les compagnies d'électricité). Les données traditionnelles fournies par les associations professionnelles sur les tendances historiques sont plus précises mais ont moins de valeur marchande. * Figure 1 La structure de la "concurrence" de l'information 70 Perspectives différentes Perspectives identiques (les vendeurs (les vendeurs appartiennent à des écoles appartiennent à la même de pensée différentes) école
de pensée) 360 70Qualité médiocre (forte Profits les plus élevés * Profits modérés 1 ou 2 incertitude, fiabilité Les consommateurs achètent rapports achetés faible, faible précision aux deux vendeurs * Les de l'information) concurrents vendent des compléments * Faible concurrence sur les prix 360 70Haute qualité Profits modérés 1 ou 2 Profits les plus faibles * (certitude élevée, rapports achetés Les consommateurs achètent fiabilité élevée, haute à un vendeur * Les précision de concurrents vendent des l'information) substituts * Forte concurrence sur les prix Tableau 1 Projections relatives au nombre d'abonnés au téléphone mobile dans les années 80 70Source Date de Population Date sur Nombre la laquelle d'abonnés projection portait la s n projection (millions s) 70Yankee Group 1985 Marché total 19900,43 70Shoesteck Associates 1983 Pop. Urbaine Potentiel 0,53 70Shoesteck Associates (a) 1987 n/a 19959-12 70A.D. Little 1980 Marché total 19901 A.D. Little (b) 1985 n/a 19943 Cellular Business Systems 1985 n/a 19933,8 (c) BCG 1985 Total probable 19901,2 Link Resources 1984 Marché total 19901,4 EMG 1985 Marché total 19901,8 Business Comm. Co. (d) 1985 n/a 19931,3 Lehman Brothers 198290 premiers marchés 19892 Dean Witter 1982 Marché total 19902,1 IRD 1980 Marché total Cellulaire 2,5 RRNA 1985 Marché total 19902,6 Goldman Group (e) 1988 n/a 20009 DLJ 198590 premiers marchés 19902,6 Leigh 1982 Pop. Urbaine 19903 Arthur Andersen 1984 Marché total 19907 AT&T (f) 1985 n/a 200030 : 40 70 Marché réel 19905,2 Sources : Telocator, février 1986, pp. 22-27 ; (a) Telephone Engineer and Management, juillet 1987 ; (b) Washington Business Journal, 1er avril 1985 ; (c) Charlotte NC News, 17 juin 1985 ; (d) New York Times, 23 juin 1985 ; (e) Cellular Business, janvier 1988 ; (f) Peoria Illinois Journal Star, 26 mai 1985. Philip Parker est professeur de marketing à l'insead. Ses recherches sont plus particulièrement axées sur la stratégie marketing, le management international, la fixation des prix, la diffusion des produits nouveaux et les prévisions. Légende photo : les estimations de taille du marché américain de la téléphonie mobile en 1990 faites dans les années 80 allaient de 0,43million à 7 millions ; en fait, elle était de 5,2 millions. Les idées reçues de l'industrie du cinéma L'industrie du cinéma se montre peu encline à adopter des techniques prévisionnelles et des systèmes d'aide à la décision, les dirigeants du secteur se fiant davantage à des idées reçues. JEHOSHUA ELIASHBERG Avec un coût de production moyen de plus de 50 millions de dollars et des coûts de marketing associés dépassant en moyenne 25 millions de dollars, un film produit par les studios d'hollywood doit réaliser 100 millions de dollars de recettes aux Etats-Unis pour tout juste atteindre l'équilibre. On serait donc tenté de penser que le marketing de l'industrie cinématographique est à la pointe du progrès et a fait siennes les pratiques et les perspectives les plus nouvelles. Toutefois, au regard de certains aspects importants, elle est à la traîne par rapport au secteur de la grande consommation, entre autres. En général, l'industrie du cinéma s'est montrée jusqu'ici réticente à adopter des techniques prévisionnelles et des systèmes d'aide à la décision. Les dirigeants doutent de la capacité de prévision des outils modernes et des modèles mathématiques en matière d'accueil du public et se fient souvent à leur jugement,
à l'expérience et aux idées reçues. Ainsi, l'idée que les critiques de cinéma ont le pouvoir d'influer fortement sur les recettes au début de la programmation d'un film est très répandue. L'argument est qu'à la sortie d'un film, les spectateurs ne peuvent se fier à rien d'autre pour décider d'aller ou non le voir. Pourtant, l'importance des critiques est ailleurs. Promotion des films Dans l'industrie du film comme dans bien d'autres secteurs, les composantes clefs d'une stratégie de marketing efficace sont l'analyse - qui joue un rôle fondamental -, la conception et l'exécution. L'analyse impose que les studios segmentent et ciblent le public différemment. Ceux qui vont au cinéma en été sont plus âgés et possèdent un niveau d'instruction plus élevé ; ils réclament donc des films plus sérieux et sophistiqués. Selon la société DreamWorks de Steven Spielberg, «Il faut sauver le soldat Ryan», par exemple, a attiré des personnes qui n'avaient pas été au cinéma depuis des années. Considérer le public cible en termes de variables démographiques traditionnelles telles que l'âge et le sexe peut conduire à des conclusions trop réductrices et peutêtre trompeuses. La segmentation et le ciblage pourraient être considérablement améliorés par l'utilisation de variables «psychologiques» comme le style de vie, les centres d'intérêt, les aspirations personnelles et sociales et la propension à rechercher des sensations. L'audience initiale peut sensiblement bénéficier d'une stratégie de positionnement fondée sur de telles variables et véhiculée par des médias appropriés (spots TV, Internet, bandes-annonces, etc.). Malheureusement, l'industrie cinématographique sous-exploite ces possibilités, notamment parce qu'elle se focalise trop sur le rôle des critiques à la sortie du film. Le rôle du critique En principe, le comportement des personnes qui vont au cinéma ainsi que leur décision quant au film et au moment peuvent être décomposés en deux étapes : la première correspond au temps qu'il faut pour décider de voir un film donné, et la seconde au délai nécessaire pour mettre sa décision à exécution. La première étape peut être influencée par le bouche-à-oreille et - via une stratégie marketing appropriée - par le studio. La seconde dépend de facteurs tels que le temps libre dont la personne dispose, le nombre d'autres films qu'elle souhaite voir, et la proximité du cinéma qui projette le film. Le rôle joué par les critiques de cinéma dans le processus de prise de décision est moins évident. La répartition des entrées peut néanmoins indiquer si le critique de cinéma influe sur les performances d'un film ou s'il joue davantage le rôle d'un indicateur prévisionnel. Si les critiques étaient effectivement capables d'influer sur les entrées, c'est à la sortie du film que cette influence serait la plus notable. Elle devrait diminuer au fil du temps puisqu'il existe d'autres sources d'information. L'avis d'un ami pourrait dissuader quelqu'un de voir un film en dépit de bonnes critiques ou au contraire le convaincre d'aller voir un film qui a déplu à la critique. Ainsi «Hook» de Spielberg a réalisé beaucoup d'entrées malgré des critiques essentiellement négatives, tandis que le «Gettysburg» de Maxwell, unanimement loué par la critique, a reçu un accueil médiocre du public. Les éléments de recherche que nous avons trouvés sont surprenants : l'avis des
critiques est généralement corrélé à la performance cumulée mais pas aux recettes à la sortie. Bien qu'il soit impossible de démêler complètement la causalité de la corrélation, nous pouvons néanmoins estimer le lien entre l'avis des critiques et les entrées pour chaque semaine de la vie d'un film. Nous avons découvert que l'impact des critiques est en fait plus important dans les dernières semaines de projection que dans les premières. Nos découvertes corroborent donc l'idée que les critiques prévoient plus qu'ils n'influent. Pourtant, la plupart des studios croient fermement au modèle de l'«influence». C'est pourquoi ils sponsorisent les projections et prennent directement contact avec les critiques de cinéma dans l'espoir de recueillir des avis favorables. Les réalisateurs racontent des histoires épouvantables sur l'échec retentissant de certains films mal accueillis par la critique. Implications stratégiques Le modèle auquel on souscrit - «influence» ou «prévision» - a d'importantes implications pour le marketing. Et le débat ne concerne pas seulement l'industrie du cinéma. Si les critiques ont une influence, un studio doit exploiter celle-ci dans le cadre de sa campagne marketing. Si un studio pense qu'un film sera très mal accueilli par la critique, il ne proposera pas d'avant-première. Si, au contraire, il anticipe un accueil positif, il devrait prévoir l'avant-première immédiatement avant la sortie pour maximiser l'influence des critiques. En revanche, une approche différente est requise si les critiques ont une fonction prévisionnelle. Les studios devraient alors organiser des avant-premières bien avant la sortie du film. Si l'accueil est mauvais, les studios devraient alors avoir le temps de modifier le film (nouveau montage ou réintégration de scènes coupées au montage) ou la stratégie marketing (par exemple, en court-circuitant les salles de cinéma et en lançant d'abord le film en vidéo). Un accueil favorable peut avoir des implications sur la segmentation et le positionnement. Les critiques de cinéma aideraient en fait à déterminer le budget marketing et la stratégie adéquats pour un film. La théorie de la fonction «influence» suggère que les citations des critiques devraient être reprises pour la publicité des films. Il y a trois raisons à cela : premièrement, les citations incitent les personnes à aller voir le film. Deuxièmement, elles aident les publicitaires à avoir la faveur des critiques ; en effet, chaque citation fait avancer la réputation du critique. Troisièmement, le fait de citer des critiques encourage certains d'entre eux à faire des critiques favorables pour se faire de la publicité. La théorie de la fonction prévisionnelle suggère qu'il peut être souhaitable de citer les critiques, mais que la publicité doit se concentrer sur d'autres informations. De même, tenter d'influencer les critiques n'apporte pas d'avantages significatifs. Ceux-ci peuvent cependant constituer un diagnostic prévisionnel intéressant. Ceux qui s'adressent à un segment de marché particulier pourraient prédire avec précision le succès ou l'échec d'un film dans ce groupe. La corrélation entre les variables démographiques et psychologiques du segment et l'avis des critiques pourrait permettre aux studios de prévoir quels groupes ou quelles régions géographiques pourraient apprécier le film. Nos données corroborent donc l'idée que les critiques prévoient le nombre d'entrées total d'un film plus qu'ils ne l'influencent. Cette idée a des conséquences sur la gestion. Premièrement, essayer de persuader un critique de cinéma est une distraction coûteuse ; la direction devrait plutôt se concentrer sur le film même. Deuxièmement, les avant-premières devraient être ciblées sur les critiques représentatifs de segments particuliers de spectateurs. L'analyse de leurs réactions
permettra aux studios de segmenter plus précisément les spectateurs cibles, de positionner correctement le film et, de surcroît, de mieux prévoir les entrées. Munis d'outils de prévision exacts, les studios pourraient être capables de résoudre un petit problème avant qu'il ne devienne colossal. Le marketing public : une histoire de principes Le marketing public est ce qui s'impose lorsque l'entreprise ou l'organisation, publique ou privée, fournissant des produits ou des services, connaît une situation de crise de légitimité. ROMAIN LAUFER Dans un entretien récent accordé aux «Echos», Lou Gerstner, PDG d'ibm, déclarait : «La vitesse et la réactivité sont les conditions essentielles du succès. On en est presque au point où être le premier vaut mieux que d'être intelligent.» Cependant, le monde est trop complexe pour que l'on puisse prétendre être le premier tout le temps et trop incertain pour que l'on puisse prétendre innover sans risque. C'est pourquoi, dans de nombreux domaines, il s'avérera à la fois plus réaliste et plus prudent de se contenter d'adopter les méthodes des meilleurs de son secteur. C'est ce que confirme Lou Gerstner lorsqu'il dit : «Dans le monde d'aujourd'hui, on ne rencontre pas le succès si l'on ne se plie pas à un modèle économique de classe mondiale. Il faut avoir une structure de production au moins équivalente à celle des meilleurs de son secteur.» Dans un monde qui change très vite, les modèles de management se succèdent au rythme de la mode. Dans un tel contexte, on comprend que l'attention des managers soit en grande partie accaparée par le souci de ne pas manquer le coche de la dernière mode managériale, souci qui s'explicite en trois moments auxquels correspondent trois expressions anglo-saxonnes, elles-mêmes très à la mode : la recherche des «best practices» (qui consiste à savoir qui est le premier dans chaque domaine), la réalisation d'études de «benchmarking» (qui consistent à savoir ce qui nous sépare des meilleurs) et la mise en place de procédures de «reengineering» (qui consiste à définir le chemin à parcourir pour rejoindre le clan des meilleurs). Il y a dans tout cela un tel sentiment d'évidence (il faut être le premier ou parmi les premiers) et d'urgence (pour rester dans la course, il ne faut pas perdre de temps) que la volonté de faire preuve de vitesse et de réactivité peut conduire à ne pas voir le rôle central joué par la réflexion historique dans la définition de la stratégie qui a permis de redresser IBM. Il est dit en effet dans le même article que c'est dans l'histoire d'ibm que Lou Gerstner «a puisé les ingrédients de redressement d'une compagnie presque centenaire qui laissait dépérir ses valeurs». L'analyse historique a permis à IBM de trouver les atouts qu'aucune autre entreprise ne pouvait revendiquer : un large socle technologique et une politique de solutions intégrées. Or, sur la question essentielle de savoir s'il fallait ou non scinder la compagnie en plusieurs sociétés, cette analyse amenait à s'opposer à l'avis général, lui-même reflet des modes managériales de l'époque, et à maintenir l'unité du groupe. La leçon est claire : à côté de l'impérieuse nécessité de se confronter aux flots des best practices qui se succèdent à un rythme accéléré sous le double aiguillon du progrès technique et de la concurrence économique, il y a place pour une nécessité non moins impérieuse : celle de préserver le temps nécessaire à une réflexion à plus long terme qui, seule, permet de devenir acteur de long terme dans une industrie de court terme. Il importe d'éviter de courir de façon éperdue après ces modes managériales qui, non contentes de changer sans cesse, se plaisent à suivre un mouvement de balancier (entre spécialisation et intégration, entre «big is beautiful» et «small is beautiful», entre approche relationnelle et commodification, etc.) et à prendre ainsi à contre-pied ceux qui n'ont d'autre souci que de se conformer aux stratégies gagnantes du moment.
* L'exemple du marketing public Il en va du marketing comme d'ibm : pour faire face aux défis du présent, il importe de savoir ce qui a permis les victoires du passé et, pour cela, de ne pas sous-estimer les obstacles que l'on était parvenu alors à surmonter. Or l'histoire du marketing est caractérisée par une généralisation progressive à tous les aspects de la vie économique et sociale (depuis les biens de grande consommation jusqu'aux activités politiques, voire religieuses, en passant par les productions de biens industriels ou de services), et par le fait qu'à chacune des phases de cette expansion, le marketing s'est heurté à des objections, de très vives objections de principe. Rappelons-nous celles que lui opposa, au tout début de son histoire, l'approche producteur qui voulait que l'ingénieur, muni de sa compétence technique, soit mieux à même que le client de savoir ce qui lui convient. L'urgence des affaires incite à vouloir oublier de vieilles questions de principe au bénéfice des défis pratiques du moment. Nous aimerions montrer que prendre au sérieux ces questions de principe permet de mieux saisir les mutations que connaît le marketing. C'est que nous allons tenter de montrer en prenant comme exemple le marketing public. Il s'agit là d'un exemple privilégié, dans la mesure où, ce qui est en jeu, c'est la séparation des secteurs public et privé, qui constitue l'un des fondements institutionnels les plus importants de la société. A ce titre, il est l'objet de travaux abondants et précis de la part de ces spécialistes des questions de principe que sont les grands auteurs de la doctrine du droit administratif. Dans ce qui suit, le marketing public est moins considéré du point de vue de la spécificité de ses méthodes que du point de vue des questions de principe que son développement a soulevé, et de ce qu'elles nous enseignent sur certaines évolutions récentes du marketing. Pour cela, il faut accepter de consacrer quelque temps et quelque attention à des questions de doctrine qui ne figurent pas de façon usuelle dans les manuels de marketing. Prendre au sérieux l'objection de principe qui veut que les méthodes du secteur privé soient inapplicables au secteur public suppose que l'on accorde quelque attention aux règles juridiques qui définissent la séparation de ces deux secteurs. Ces règles ont un statut particulièrement important en France, puisqu'elles définissent la juridiction à laquelle il faudra s'adresser en cas de contentieux : tribunaux judiciaires qui culminent à la Cour de cassation dans le cas du secteur privé, tribunaux administratifs qui culminent au Conseil d'etat dans le cas du secteur public. Les principes qui fondent la légalité des actions dans ces deux secteurs étant différents, il va de soi que l'importation des méthodes d'un secteur dans l'autre a de forte chance de paraître illégitime. C'est ainsi que le secteur public a pour but l'intérêt général, tandis que le marketing tel qu'il se pratique dans le secteur privé a pour but immédiat la maximisation du profit de l'entreprise. C'est ainsi que les services publics doivent se conformer au principe de l'égalité de tous devant le service public, tandis que le marketing a comme premier commandement de segmenter les marchés afin de mieux adapter ses prestations à la demande et qu'il est libre de choisir de s'adresser aux segments qui lui semblent les plus rentables. Arrivé en ce point, on pourrait croire que cette excursion du côté du droit et des règles institutionnelles qui régissent le secteur public n'a d'autre effet que de décourager tout effort pour y appliquer le marketing et conforter la conviction que le spécialiste du marketing perd son temps à s'interroger sur des questions de principe qui ne sont pas de son ressort. Or il n'en est rien : non seulement la prise en compte de ces objections permet de mieux comprendre les réticences que les personnels du secteur public peuvent ressentir vis-à-vis du mélange des genres entre logique publique et logique privée, mais encore elle permet de montrer, de manière irrécusable du point de vue des principes, qu'un tel mélange des genres est désormais inévitable. En effet, il suffit de lire un manuel de droit administratif
pour apprendre que le critère du droit administratif, c'est-à-dire le critère qui définit les actes suivant que leur contentieux relève du public ou du privé, a connu une histoire en trois temps, dont le dernier correspond à ce que les bons auteurs appellent la crise du critère, crise qui, d'après eux, s'installe à partir des années 1945-1960. Mais dire qu'il y a crise du critère, c'est dire que la limite entre secteur public et secteur privé n'est plus définie avec précision : il en résulte que ce qui, jadis, était scandaleux (l'application de logiques d'action privées dans le secteur public) est désormais devenu inévitable (puisqu'il est impossible de délimiter précisément où commence et où fini le secteur public). De fait, chacun peut constater que l'idée d'appliquer le marketing à l'administration publique ne s'est développée qu'après 1960, c'est-à-dire après que l'évolution des critères juridiques a rendu cette idée acceptable du point de vue des principes. * Le marketing public n'est pas le marketing du secteur public Rien ne montre mieux l'intérêt de considérer les questions de principe (en l'occurrence de principes juridiques) avec sérieux que les conséquences que l'on peut tirer du constat de la crise du critère du droit administratif. La première est que, si le droit constitue un des fondements essentiels de la légitimité des actions sociales dans les sociétés modernes, alors la crise d'une de ses catégories centrales constitue l'indice d'une crise de légitimité qui ne peut qu'affecter les comportements de ses membres. C'est ce qu'illustre par exemple l'intérêt croissant que l'on accorde à la notion de confiance et la montée parallèle des grandes peurs et du souci de la sécurité. La confiance fait partie de ces choses dont on se préoccupe d'autant plus que l'on a le sentiment qu'elle pourrait venir à manquer. Ce qui jadis allait de soi, il faut désormais le produire de façon délibérée. C'est ce dont témoigne la vogue actuelle des stratégies de fidélisation qui peuvent être décrites comme autant de stratégies concrètes visant à établir une relation de confiance, une relation personnelle, avec les consommateurs. Notons que le lien entre confiance et fidélité est inscrit dans l'étymologie de ces deux mots, qui renvoient tous deux à la notion latine de «fides» (la foi). On remarquera que ces stratégies relationnelles supposent un type d'engagement dans le temps de la part de l'entreprise vis-à-vis du marché qui n'est pas sans rappeler le «contrat de confiance» de Darty. Or, désormais, ce type d'engagement s'impose même à des entreprises qui croient que les règles du jeu du marketing classique s'imposent toujours. Par exemple, lorsque Coca-Cola crut bon de substituer le «New Coke» à l'ancienne formule sous le prétexte excellent, a priori, que des dizaines de milliers de consommateurs avaient déclaré en test aveugle préférer la nouvelle formule, il se heurta à un véritable mouvement de protestation qui le contraignit à rétablir à côté du New Coke le Coca-Cola Classic. Il comprit ce jour-là qu'il devait se considérer tenu par au moins un des principes qui gouvernent les services publics, la continuité du service public. Gérer Coca-Cola, c'est bien plus que gérer un produit, c'est gérer une institution. La deuxième conséquence est que cette crise affecte de façon symétrique le secteur public et le secteur privé puisque, ce qui est en cause, c'est l'impossibilité où l'on est, désormais, de savoir où passe la limite entre les deux : le marketing public doit donc pouvoir concerner aussi bien les entreprises privées que les organisations publiques. Une telle affirmation surprend moins lorsque l'on accepte de tenir compte du sens que les mots «administration» et «public» ont aux Etats-Unis. En France, l'administration désigne au premier chef les (tourne) organes de l'etat mis à la disposition du pouvoir exécutif ; aux Etats-Unis, elle désigne toute organisation publique ou privée suffisamment importante pour requérir le développement de méthode de gestion adéquate, comme en témoigne la notion de «business administration» à côté de la notion de «public administration». Quant au terme «publique» en France, il désigne spécifiquement tout ce que le droit s'est attaché à séparer de la sphère privée, alors qu'aux Etats-Unis il est
utilisé pour désigner couramment ces entreprises qui sont suffisamment importantes et dynamique pour recourir à l'épargne publique à travers la bourse : entrer en bourse se dit «to go public». De la réalité du lien entre appel à l'épargne publique et marketing public, il n'est meilleur exemple que la multiplication depuis les années quatre-vingt de campagnes de communication publicitaires de plus en plus importantes et de plus en plus sophistiquées dirigées vers les actionnaires actuels et potentiels de l'entreprise. Il pouvait s'agir des grandes campagnes de privatisation des banques en 1981, de France-Telecom plus récemment, il peut s'agir aujourd'hui de campagnes liées à des OPA amicales ou hostiles (difficile d'ignorer que la stratégie de certaines des plus grandes entreprises françaises se joue désormais en public à travers des campagnes publicitaires et des campagnes de presse semblable à celle qui a pour enjeu l'organisation future du système bancaire français et dont les principaux acteurs sont la BNP, la Société Générale et Paribas), il peut s'agir enfin de campagnes de presse dites à juste titre de communication institutionnelle qui manifestent aux yeux de tous clients, actionnaires et salariés, les grandes orientations de la stratégie de l'entreprise, ces campagnes pouvant avoir lieu à l'occasion de fusions (Novartis, Aventis) soit à l'occasion de changement de nom (passage de BSN à Danone, passage de Générale des Eaux à Vivendi, d'axa - UAP à AXA), soit encore à l'occasion d'un changement de stratégie (de ce point de vue la grande enquête des Echos sur "la mutation industrielle d'un groupe industriel qui a failli disparaître en 1993" enquête d'où sont tirées les citations de Lou Grerstner citées plus haut, doivent être mise en relation avec la grande campagne de communication par laquelle IBM mettait en avant à la fois son souci d'apparaître plus comme une entreprise de service que comme une entreprise industrielle classique et sa conviction que l'utilisation des technologies liées à Internet devient la moyen privilégié de résoudre les problèmes que les entreprises se posent qu'il s'agisse de réaliser des économies de temps et d'argent où "de créer des systèmes de gestion de la clientèle entièrement nouveaux". Ainsi non seulement la notion de marketing public a une pertinence pour le secteur privé mais elle pourrait bien être le biais par lequel le marketing est relié de la façon la plus étroite aux questions les plus stratégiques qui se posent aux entreprises. * Marketing public et marketing des services. 3) Une première manière de tenter de définir le marketing public pourrait être de le définir comme un marketing des services : en effet qu'il s'agisse de l'éducation ou de la santé, de la recherche ou de l'audio-visuel, de l'administration pure ou de la police, les activités publiques sont bien toutes des activités de services comme en témoignent à leur façon les expressions "services de l'etat" ou "services publics". Ceci conduit à s'interroger sur le fait de savoir si le marketing public concerne la gestion de tous le secteur des services qu'ils soient de statut public ou de statut privé. Cette question se pose avec d'autant plus d'acuité qu'il est de nombreux exemples de passage d'un secteur à l'autre, comme dans le cas des banques par exemple et qu'il ne semble pas que les méthodes de marketing entre banques privées et banques publiques diffèrent beaucoup. Lors des nationalisations de 1981, la banque Worms pour rassurer sa clientèle publia une annonce publicitaire où l'on pouvait lire : "aujourd'hui, quand on a le goût du secret, il faut le faire savoir", ce qu'il n'est pas abusif de traduire par : "bien que public je me comporterai, pour tout ce qui vous concerne, comme une banque privée. Plusieurs indices nous conduisent à répondre par l'affirmative à la question de savoir si le marketing public concerne les entreprises de service du secteur privé : 1/l'introduction du marketing dans les entreprises de services est relativement récent, il date des mêmes années que les tentatives faites pour développer le marketing dans le secteur public ; 2/l'introduction du marketing dans les entreprises de services a rencontré (et rencontre parfois encore) de vives résistances qui ne sont pas sans évoquer celle du secteur public (que l'on se
souvienne de la façon dont les banquiers s'insurgeaient naguère face à l'idée que l'on puisse avoir "à vendre de l'argent", que l'on se souvienne du scepticisme de tous ces commerçants, de détails ou de gros, sceptiques à l'idée que l'on puisse leur apprendre à mieux connaître leurs clients et à mieux les servir, que l'on se souvienne de tous ces corps de métiers -hotellerie, garagistes, coiffeurs,... - pour qui la compétence professionnelle, telle que la définie la tradition de leur métier, était une garantie suffisante de succès ; 3/tous les secteurs de services faisaient l'objet de régulation spécifique souvent abondantes et contraignantes et qui excluaient ou limitaient fortement les possibilités d'accéder à certains outils du marketing (que l'on pense à la façon dont les professions libérales, le plus souvent organisées en ordre, se voient interdire le recours à la publicité média, que l'on pense au code des transports, que l'on pense aux régulations qui gouvernent l'implantation des commerces. Une des caractéristiques de ces règlementations était qu'elles délimitaient strictement le champ de chaque catégories de services et interdisaient à une même entreprise de meler des activités diverses (On a tellement entendu parlé de bancassurances que l'on a presque oublié qu'il s'agit là d'un mélange des genres que la réglementation excluait jusque récemment). Comme dans le cas du marketing public, ce sont des questions de principe qui permettent de comprendre les réticences des entreprises de services face au marketing. De façon traditionnelle et usuelle, on caractérise les services par trois caractéristiques : 1/ils sont immatériels 2/ils sont non stockables 3/ils sont localisés 4/ils est impossible de dissocier la production du service de sa consommation hors chacune de ces caractéristiques. Nous savons par ailleurs que le fondement de la légitimité du secteur privé tient dans le bon fonctionnement des lois du marché. Or il est possible de montrer que les caractéristiques des services cités ci-dessus peuvent toutes être à l'origine de défaillance du marché : soit parce que les biens ne sont pas fongibles, soit parce qu'il y a dyssimétrie d'information entre le fournisseur et le client, soit parce que la concommitence de la production et de la consommation ne permet pas au consommateur de comparer de façon parfaitement rationnelle les alternatives qui lui sont offertes par le marché. Que tout cela puisse être source de crise de légitimité, on s'en persuadra aisément en pensant à ce que j'appellerai le "syndrome du garagiste" qui désigne le désarroi dans lequel se trouve assez souvent le client devant le diagnostic et parfois plus encore la facture que lui présente son garagiste. L'effet de la dyssimétrie d'information suscite une méfiance que le marketing peut mettre à profit pour développer des chaînes de type "Midas" ou "Point S" dont la proposition essentielle est une sorte de garantie de bonne conduite appuyée sur un contrôle des procédures et communiqué par tous les moyens de la publicité et de la gestion de l'identité visuelle. On remarquera que l'explosion du marketing des services correspond à une période de dérèglementation, mouvement parti des Etats-Unis (que l'on pense à la dérèglementation des transports aériens, à la dérèglementation du secteur des télécommunications, à celui des "utilities" en général,...). Le fait que la dérégulation s'accompagne régulièrement d'action de rerégulation montre que la question de la légitimité reste un élément central du fonctionnement de ces marchés. * Le marketing public au delà du secteur des services On pourrait penser que cette généralisation de la logique du marketing public au secteur privé se limite aux entreprises de services. Cela serait vrai s'il n'était désormais de plus en difficile de distinguer produit et service. Le produit est de plus en plus identifiable à sa part immatérielle ; la marque (que l'on pense à la façon dont celle-ci figure figure désormais dans le bilan des entreprises). Le produit doit de plus en plus souvent être considéré comme non stockable : la vitesse de l'innovation sur les marchés tendent à transformer les stocks en risque économique, la technique de la production en flux tendus et les principes du zérostock ont en particulier pour effet de minimiser ces risques. Enfin le développement
du marketing relationnel et de la préoccupation de la fidèlisation achèvent de rapprocher la gestion des biens matériels de la gestion des services : ce qui est visé c'est de moins en moins la simple vente d'un produit et de plus en plus la création d'un lien durable avec le producteur. De proche en proche, on est tout naturellement conduit à montrer que le marketing public concerne toutes les entreprises et les organisations qu'elles soient publiques ou privées. On pourrait montrer qu'à chaque fois son émergence correspond à une mise en cause de la légitimité de l'organisation concernée. Les exemples les plus spectaculaires d'une telle mise en cause de la légitimité des entreprises du secteur privé sont liés à des questions relatives à la science. Il peut s'agir de la mise en cause du bon fonctionnement des lois du marché par la concentration des entreprises qui ont conduit à l'émergence des lois anti-trust à la fin du XIXème siècle aux Etats-Unis et qui se manifeste actuellement de façon très spectaculaire dans le procès intenté à Microsoft ou de l'émergence dans les années 60 des lois sur la protection des consommateurs qui cherchent à compenser la dyssimètrie d'information entre producteur et consommateur. Il peut s'agir des incertitudes relatives à ce que la technologie permet désormais de produire et qui peut mettre en péril la santé (dont l'exemple le plus spectaculaire est la maladie de la vache folle et le plus récent les poulets contaminés à la dioxine) la sécurité (dont l'exemple le plus étonnant est le peut-être le bug de l'an 2000) ou la vie privée (comme le montrent les extraordinaires possibilités du net et la mémoire sans faille des "cookies"). Tout ceci ne constitue pas un inventaire à la Prévert de phénomènes spectaculaires mais l'illustration d'une crise des savoirs scientifiques et techniques qui semblent plus capables de produire à la demande les effets les plus surprenants que d'en contrôler toutes les conséquences. Le développement des règlementations en matière de protection de l'environnement (information des consommateurs, recyclage des déchets,...) témoingnent de l'importance croissante de cet aspect des choses dans la pratique des entreprises. * Marketing public et stratégie d'entreprise Nous sommes maintenant à même de définir le marketing public indépendament du secteur : c'est ce que devient le marketing lorsque l'organisation connaît une situation de crise de légitimité. Du point de vue du secteur public cela correspond à la crise du critère du droit administratif, du point de vue de l'entreprise privée cela correspond au moment où elle est considérée comme disposant d'un pouvoir (du fait de sa taille ou du fait des effets de la technique) tel qu'il ne peut plus être considéré comme soumis à la main invisible du marché. Décrivant l'entreprise moderne Alfred Chandler, historien de l'entreprise de la Harvard Business School parle de "la main visible des managers". Le marketing public c'est le management du pouvoir devenu visible. Opérationnellement cela peut s'exprimer de façon simple : le pouvoir de votre management devient visible quand on parle de votre management dans la grande presse, en effet, dans une démocratie, la grande presse symbolique le lieu de la libre circulation des opinions concernant les affaires de la cité. La douloureuse affaire des camemberts "Le Petit" illustre le fait que le marketing public ne concerne pas seulement les très grandes entreprises. Avoir une image institutionnelle permet de figurer dans les débats publics qui déterminent le destin des entreprises qu'il s'agisse du taux de cacao qui définit le chocolat, de la libre circulation des fromages au lait cru où de toute autre régulation qui déterminent les règles du jeu concurrentiel sur le marché. De même que le marketing a dû montrer que pour vendre un produit il fallait que celui ci soit vendable c'est à dire qu'il corresponde aux besoins du consommateur de même le marketing public doit monter que pour communiquer le management d'une entreprise il est nécessaire que ce management soit communicable c'est à
dire compréhensible, crédible et acceptable pour le public auquel il s'adresse (actionnaires, salariés, pouvoirs publics, et opinion publique en général). De cette remarque de bon sens, il résulte que la communication institutionnelle rétro-agit désormais de façon déterminante aussi bien sur la stratégie des entreprises que sur leur fonctionnement. Par exemple pour qu'une stratégie soit communicable il faut qu'elle soit simple : c'est ce que montre la perte de crédibilité des conglomérats et la volonté des plus grands groupes industriels de s'identifier à un nombre aussi réduit que possible de métiers. Quant au fonctionnement de l'entreprise pour qu'il soit communicable, il est nécessaire de l'organiser de façon à ce qu'il soit descriptible (ou, comme on dit, "transparent") : c'est à ce souci que correspond, dans le domaine de la production, la mise en place de systèmes de traçabilités de plus en plus sophistiqués qui suppose une réorganisation en profondeur de toute la chaîne logistique qui conduit des matières premières au consommateur final. Il nous resterait à montrer comment cette évolution qui donne au marketing une place de plus en plus stratégique dans le fonctionnement des entreprises s'accompagne d'une évolution qui tend à remettre en cause l'organisation de l'entreprise en fonctions bien distinctes. Qu'il nous suffise de remarquer que dans le secteur des services la fonction marketing est le plus souvent intégrée au fonctionnement même de l'organisation. Chapitre 10 Les nouveaux défis de la grande distribution De pragmatique et opportuniste, le secteur de la distribution est devenu en l'espace de quarante ans stratégique et technique. Soulignant l'importance de la réflexion marketing. ANNE-SOPHIE BAYLE-TOURTOULOU Hypermarchés, supermarchés, hard-discounters et grandes surfaces spécialisées ont réussi, en l'espace seulement de quarante ans, à créer en France un secteur à la puissance économique et financière très importante. Employeur de plus de 600.000 personnes, le grand commerce a généré en 1997 un chiffre d'affaires global estimé, selon l'insee, à plus de 1.300 milliards de francs, soit environ 15 % du produit intérieur brut. Parmi les quinze premières sociétés françaises en termes de chiffres d'affaires, un tiers appartient au secteur de la grande distribution et les titres cotés en Bourse de certaines de ces entreprises ont enregistré, ces dernières années, des hausses parmi les plus fortes. Malgré ces performances, qui ont pu susciter des discours parfois hostiles, les défis pour les années à venir sont encore nombreux et d'envergure ; ils seront en outre à relever dans un univers changeant où les contraintes économiques, législatives et concurrentielles s'intensifient. Des stratégies de concentration, d'internationalisation, de diversification et de différenciation de l'offre se renforcent, accompagnées de l'émergence de nouveaux modes de gestion et d'une prégnance toujours plus grande des techniques et de l'esprit marketing. Avec le développement des technologies de l'information, source d'une efficacité organisationnelle accrue et d'une meilleure connaissance et compréhension des clients, le commerce est à l'aube d'une nouvelle épopée déjà entamée. D'essentiellement pragmatique et opportuniste, il devient éminemment stratégique et technique, rendant les métiers de la distribution toujours plus complexes et sophistiqués, mais aussi passionnants, à l'image de leurs pères fondateurs. Un secteur puissant Au 1er janvier 1999, on recensait en France 1.126 hypermarchés et 7.999 supermarchés dont 2.150 hard-discounts. Les premiers emploient 227.500 salariés et totalisent une surface de 6,4 millions de mètres carrés tandis que les seconds regroupent 163.300 salariés et 7,8 millions de mètres carrés (source : LSA). Les
grandes surfaces spécialisées ou GSS ne sont pas non plus en reste avec, en 1997, 2.489 points de vente pour le bricolage, 1.033 pour le jardinage ou encore 955 pour l'électroménager (source : «Panorama Points de vente»). Autant de chiffres qui veulent souligner les capacités commerciales exceptionnelles des grandes surfaces, capacités qu'elles ont su utiliser pour conquérir plus de 60 % des dépenses alimentaires des Français (hors restauration) et environ 40 % de leurs dépenses non alimentaires. La puissance de ce secteur peut tout aussi bien se lire au niveau de chacune de ces entités comme cherchent à l'illustrer les moyennes suivantes concernant l'exemple de l'hypermarché. Sur une surface d'environ 6.000 m2 gérée par une équipe d'approximativement 200 personnes, l'hypermarché génère ainsi un chiffre d'affaires annuel de l'ordre de 440 millions de francs ; celuici s'avère même, pour les très grands hypermarchés comme de nombreux Auchan ou Carrefour, supérieur au milliard de francs. Il convient cependant de rappeler que l'hypermarché, qui offre entre 40.000 et 80.000 références (dont 8.000 à 12.000 produits de grande consommation (1)), accueille près de 5.000 personnes par jour, voire 20.000 le samedi, vendant ainsi quotidiennement près de 2 tonnes de lessive, 3.000 paquets de biscuits ou encore 2.000 litres de bière (source : Chain et Gian, 1998). Ces performances commerciales, qui témoignent de l'attractivité de la grande surface, n'ont pas été sans créer une certaine animosité chez les commerçants traditionnels, animosité qui trouve écho dans des restrictions législatives de plus en plus contraignantes pour les distributeurs. Outre ces contraintes, les distributeurs doivent faire face aujourd'hui à un contexte économique et concurrentiel toujours plus difficile. La croissance, initialement gagnée lors des Trente Glorieuses et acquise essentiellement grâce à l'expansion territoriale de ce secteur, rencontre, ces dernières années, des freins nouveaux marquant l'achèvement d'une première période somme toute favorable à un développement rapide du grand commerce. Un univers plus difficile * Un cadre législatif contraignant Si, jusqu'aux années 60 et à la circulaire Fontanet, la grande distribution a bénéficié du soutien des pouvoirs publics qui voyaient en elle un puissant acteur de désinflation, la tendance s'est bientôt inversée. Dans une volonté annoncée de rééquilibrage des rapports de force entre grand commerce et commerce traditionnel d'une part, et grand commerce et industrie d'autre part, deux textes législatifs récents semblent importants à rappeler car porteurs d'incitatifs forts au développement de nouvelles stratégies actuellement en cours dans la distribution. Le premier de ces textes, relatif «au développement et à la promotion du commerce et de l'artisanat», encore appelé loi Raffarin (1996), vise à limiter l'implantation des grandes surfaces commerciales, dont le nombre, rappelé précédemment, est jugé préoccupant. Renforçant la loi Royer de 1973 sur l'urbanisme commercial, elle soumet à autorisation préalable la création, transformation ou extension de tout point de vente d'une surface supérieure à 300 m2. Initialement fixé à 1.000 ou 1.500 m2 selon la taille des communes concernées, ce seuil a été abaissé à 300 m2 afin de freiner le développement des hard-discounters à qui une surface moyenne de 600 m2 permettait jusqu'à présent d'échapper à ce contrôle, contrairement aux hypermarchés (surface moyenne de 6.000 m2) ou à de nombreux supermarchés (surface moyenne de 1.000 m2). Cette loi a sonné le glas du moyen de développement privilégié des grandes surfaces, à savoir la croissance, en quelque sorte mécanique, de leur chiffre d'affaires par l'augmentation des mètres carrés disponibles (cf. O. Géradon de Vera, 1998). Elle s'est également traduite par un quasi-doublement de la valeur financière des fonds de commerce existants dont l'amortissement se calcule aujourd'hui sur près de vingt années ou requerrait, pour un retour sur investissement traditionnel de dix ans, une amélioration de la marge nette qui ne dépasse guère pour l'instant les 1,5 % à 2 % pour un hypermarché.
En ce qui concerne les liens entre l'industrie et le commerce, est appliquée, depuis le 1er janvier 1997, une loi relative à «la loyauté et à l'équilibre des relations commerciales», dite loi Galland. Celle-ci modifie le calcul des seuils de revente à perte en interdisant, pour la fixation des prix de vente consommateur, la soustraction au prix d'achat distributeur de ristournes à venir ou de budgets obtenus au titre de la coopération commerciale. Si la revente à perte était déjà interdite, elle la rend de plus effective et pénalement répréhensible en abrogeant le droit de suite ou d'alignement. La conséquence première de cette loi a été une légère augmentation des prix de vente consommateur (+ 1,15 % hors inflation sur le premier trimestre de l'année 1997 selon une étude IRI-Sécodip effectuée sur les PGC (2)), augmentation qui a principalement concerné les grandes marques nationales, traditionnels produits d'appel pour la grande distribution. Se faisant, les écarts de prix entre marques nationales et marques de distributeurs se sont accrus et il est intéressant de constater que sur la même période, la part de marché des marques de distributeurs a progressé de 5 %. Possible effet pervers d'une loi initialement rédigée pour rééquilibrer les rapports de force en faveur de l'industrie... * Un contexte économique et concurrentiel difficile Au delà de ces dispositions législatives, les distributeurs sont également confrontés à des changements économiques et concurrentiels forts. Comme le rappelle les sociologues, le consommateur des années 1990 est devenu, crise économique aidant, plus rationnel, plus difficile et plus gestionnaire de son temps et de ses revenus. Il n'hésite plus à comparer, à arbitrer ses ressources et le plaisir qu'il en retire, devenant ainsi plus versatile et difficilement saisissable. Ses dépenses alimentaires se partagent dès lors aujourd'hui entre 3 et 4 magasins en moyenne contre 2 à 3 en 1987 (source : Sofrès). A cette difficulté nouvelle, s'ajoute une intensité grandissante de la concurrence. Celle-ci trouve naissance dans la densité même du tissu commercial que nous évoquions précédemment. Elle s'explique encore par l'extrême concentration de ce secteur qui ne cesse d'ailleurs de croître, loi Raffarin oblige : 80 % du chiffre d'affaires des grands industriels sont ainsi réalisés, en France, dans le domaine des produits de grande consommation, par six enseignes. Enfin, la montée en puissance des category killers à l'image de Décathlon, Castorama, la Fnac ou du hard discount a-t-elle ravivé la concurrence qui ne s'exerce plus seulement entre formats de commerce identiques mais a des frontières excessivement larges. Vers le milieu des années 1990, le chiffre d'affaires au mètre carré des GMS alimentaires a ainsi eu tendance à baisser, signe d'une moindre attractivité. * Concentration, internationalisation, diversification et optimisation marketing du parc existant ou comment trouver de nouveaux débouchés et améliorer les performances des points de vente Face à ce constat, les distributeurs français se sont engagés dans diverses stratégies afin de consolider leur croissance et d'optimiser leurs performances, qu'il s'agisse de leur chiffre d'affaires ou de leur profit. Le chiffre d'affaires d'un distributeur est fonction, rappelons-le, de la pénétration ou du nombre de clients qu'il touche, de la valeur de leur panier et de leur fréquentation du magasin, expression de leur fidélité. Avec la loi Raffarin en 1996c3s, est interrompu le principal accroissement de la pénétration des enseignes qui s'opérait par l'ouverture de nouveaux mètres carré. Les conséquences de ces dispositions législatives sont plurielles et ont contribué notamment à la relance des mouvements de concentration en France, à l'accélération de l'internationalisation des enseignes françaises, à une diversification de leur offre ainsi qu'à une intensification des programmes de fidélisation de la clientèle. Une importance accrue est donc donnée, dans la gestion marketing du parc existant, à une revalorisation du panier moyen des consommateurs par un mix produit plus adéquat et à une amélioration de la fréquentation des enseignes. Après la course aux
implantations, l'accent est dorénavant mis sur une meilleure connaissance des consommateurs et une meilleure exploitation des marchés, signe d'une prise de pouvoir grandissante du marketing dans l'univers de la grande distribution. * La poursuite des concentrations ou comment continuer à grandir lorsque l'ouverture de magasins est réduite Face à la loi Galland qui renforce la prime à la taille pour l'obtention de conditions d'achat plus avantageuses et donc de prix de vente plus compétitifs, la loi Raffarin impose le choix de la croissance externe sur le territoire français. Après l'opa réussie d'auchan sur Docks de France en 1996 et la prise de participation de Carrefour dans le capital de Cora, Monoprix a racheté Prisunic et s'est affilié à Casino qui lui même prenait le contrôle de Franprix-Leader Price ; Promodès mettait, elle, la main sur Catteau et Lecler concluait avec Système U une alliance, un peu à l'exemple de la fusion des centrales d'achat de Casino et de Cora en avril 1999... Ces opérations de croissance externe s'observent aussi à l'étranger avec le rachat notamment de l'allemand Spar par ITM. * Le développement à l'international ou comment assurer sa croissance lorsque le marché national devient trop exigu Parallèles à ces mouvements de concentration, les ambitions internationales des groupes de distribution français se sont affirmées. Près de 200 milliards de francs de chiffre d'affaires ont ainsi été réalisés à l'étranger en 1997 (source : Brudey et Ducros, 1998). L'Europe du Sud et de l'est, l'amérique latine mais aussi l'asie constituent les nouvelles ères de progression des distributeurs français, qu'ils soient hypermarchés ou supermarchés, généralistes ou spécialistes (cf. Tableau 1). Ces exportations répondent aussi aux velléités toujours plus fortes d'internationalisation des Wal-Mart, Métro ou Ahold ; la guerre aux parts de marché mondiales est ouverte. * L'accroissement du panier moyen par une diversification de l'offre produits/services et une meilleure définition de l'assortiment La recherche de nouveaux débouchés commerciaux passe encore par une diversification de l'offre en produits et services du grand commerce. Surfant sur les évolutions de la demande (cf. Figure a), qu'elle exploite ou suscite, la grande distribution a tour à tour investi les marchés à croissance tels ceux des loisirs, de la santé ou des communications. A côté de l'alimentaire, l'offre en micro-informatique, téléphonie, hifi, textile, électroménager, bijoux, parfumerie ou encore parapharmacie des grandes surfaces s'affirme, sans parler de leurs nouveaux services financiers ou de voyagistes. Leclerc est ainsi devenu le premier bijoutier et le deuxième libraire national tandis que Carrefour totalise les meilleures ventes de micro-ordinateurs sur l'hexagone. Magnifiant la formule de l'hypermarché du "tout sous le même toit", les distributeurs, en opportunistes éclairés, trouvent, dans cet élargissement de l'offre, du chiffre d'affaires supplémentaire mais aussi des marges, supérieures à celles obtenues en alimentaire. Le mix produit et le mix marge entre alimentaire et nonalimentaire tournent ainsi de plus en plus à l'avantage du second comme en témoigne d'ailleurs sa place aujourd'hui prépondérante dans les prospectus promotionnels. Au sein de chaque catégorie de produits, la problématique de l'assortiment est elle aussi devenue prioritaire et constitue notamment l'un des enjeux majeurs du nouveau mode organisationnel en vogue, le "category management". Les questions traitées à cet égard sont nombreuses et d'autant plus difficiles qu'elles font face à une pléthore de l'offrec4s: au regard du profil de ma clientèle et de la concurrence
dans ma zone de chalandise, quelle est la taille à privilégier par famille de produits? Quel équilibre atteindre entre marques nationales, marques de distributeurs et premiers prix, sachant que leur capacité à fidéliser au point de vente et leur rentabilité différent? Quelle part donner aux produits régionaux et aux innovations, source de différentiation potentielle? Quelle organisation aussi donner à cet assortiment? Faut-il rester sur le modèle traditionnel des rayons (épicerie, liquides, entretien...) ou opter pour un découpage fondé sur des univers de consommation (la vie de bébé, les loisirs...)? Quelle allocation du linéaire effectuée et selon quelles règles? Quel merchandising enfin préconiser pour une mise en valeur optimale des produits? * La montée en puissance du marketing pour accroître les performances du parc existant Autant d'interrogations qui soulignent l'importance croissante de la réflexion marketing des grandes surfaces. A la différence des fabricants, gérants de marques dans une ou un panier restreint de catégories, les distributeurs ont, eux, à leur charge des milliers d'articles de nature fort diverse dont l'objectif commun est de contribuer à la performance globale des points de vente. La réflexion marketing des distributeurs se situe donc à des niveaux d'analyse fort agrégés (la catégorie de produits, le rayon ou univers de consommation voire le magasin), tout en ayant cependant à trouver une traduction concrète et cohérente au niveau de chacun des articles référencés. Cette problématique complexe se pose pour chacun des éléments du marketing mix d'un distributeur à savoir la définition de son assortiment, la gestion du linéaire et sa mise en valeur mais également ses politiques tarifaire et promotionnelle. A l'image de l'assortiment, les questions sur ces dernières sont nombreuses et délicates car ayant de potentielles incidences tant sur le chiffre d'affaires que sur le profit. En ce qui concerne sa politique tarifaire, le distributeur doit s'interroger sur le niveau de prix à donner à son magasin sachant que ce critère demeure un élément important bien que non suffisant à la satisfaction de nombreux clients. Comment le construire? Sur quelles catégories? Avec quelle proportion de produits d'appel? Quelles sont, en d'autres termes, les catégories et marques dont la demande est la plus élastique au prix et donc, légitimerait des efforts sur ce dernier? En revanche, sur quels autres produits peut-on marger sans trop d'incidence sur le volume des ventes? Quelle importance donner aussi aux produits de niche pour consolider l'image qualité du magasin? Quelle gamme de prix offrir par catégorie? Et comment positionner à cet effet les marques de distributeurs par rapport aux marques nationales et aux premiers prix? Quelle stratégie enfin développer face à l'arrivée prochaine de l'euro qui rendra les écarts de prix absolus entre produits en apparence plus petits? Faut-il, par ailleurs, privilégier une politique de type "every day low price" ou préférer des promotions récurrentes, sources, au delà de volumes incrémentaux à court terme, de marges arrière significatives? Selon quelle fréquence et sur quels produits doivent-elles être réalisées pour accroître le chiffre d'affaires total de la catégorie? Pour répondre à ces questions, le distributeur dispose tout à la fois de la connaissance directe qu'il a de ses consommateurs mais aussi de l'expertise des fabricants au niveau de chaque catégorie, qu'il peut solliciter au travers de programmes de gestion communs comme l'ecr ou Efficient Consumer Response (cf. Dossier ndeg.8 de L'art du Marketing). * Vers la maîtrise de l'information et la constitution d'images d'enseignes fortes Les informations au service de la distribution sont aujourd'hui pléthoriques grâce en particulier à l'avènement du scanning qui a permis la constitution de banques de données tant sur les ventes (suivis internes, panels de distributeurs d'iri-sécodip ou Nielsen) que sur les achats des consommateurs (cartes de payement, de crédit
ou de fidélité, panels de consommateurs de Sécodip ou Nielsen mais aussi mégabases déclaratives de Calyx ou Consodata). Le défi des années à venir n'est donc pas tant dans la collecte d'informations que dans la maîtrise marketing de ces données afin d'accroître les performances des enseignes. Si des progrès significatifs ont été réalisés au niveau de la gestion des flux notamment grâce à l'échange de données informatisées (EDI) entre fabricants et distributeurs, bien des analyses sont encore à conduire pour une meilleure exploitation de la demande. La connaissance fine des consommateurs est un atout majeur dans la définition d'un marketing mix plus approprié et potentiellement différentiateur de la concurrence. Cette connaissance permettra l'essor d'assortiments plus spécifiques, de politiques tarifaires et promotionnelles mieux ciblées, à l'impact en terme de ventes et profits accru. Se faisant, elle aidera les enseignes qui s'en doteront à se forger un positionnement plus différencié et attractif, car en adéquation avec les attentes et valeurs de leurs clientèles. Trop longtemps axées sur la seule variable prixc5s, beaucoup d'enseignes françaises souffrent aujourd'hui de l'absence d'une image clairement façonnée et véhiculée. Or, tout comme pour une marque, le marketing mix d'une enseigne trouve toute sa force distinctive en ce qu'il émane et traduit la personnalité de cette dernière. L'enjeu est d'autant plus important qu'il est intimement lié aux capacités de fidélisation de l'enseigne. Secondée par une offre, des prospectus et promotions construits en fonction de consommateurs bien identifiés et non plus du fameux consommateur moyen, commun à toutes les enseignes, une communication institutionnelle, dès lors moins tributaire des messages tactiques, pourra réellement s'affirmer et doter l'enseigne d'une identité forte. La maîtrise des difficultés informatiques, marketing et organisationnelles liées au traitement de l'information est par ailleurs un atout essentiel, pour les grandes surfaces généralistes et spécialisées, pour être à même de répondre aux prochains enjeux de demain que sont le développement du commerce électronique et de la vente par correspondance, l'affirmation du micro-marketing et du "customer management". * Références citées : C. Chain et N. S. Gian, Commerce : une dynamique pour demain?, Editions Liaisons, 1998. O. Géradon de Vera, Quand les gondoles changent de tête, Editions Liaisons, 1998. N. Brudey et C. Ducrocq, La distribution, Vuibert Entreprise, 1998. Les challenges du marketing des secteurs technologiques La culture technologique s'accommode souvent mal des missions du marketing. Pourtant, dans ce domaine aussi, il faut anticiper les risques potentiels du marché, analyser la valeur pour le client et gérer les développements dans le temps. En un mot, adapter le modèle d'affaires. LAURENT MARUANI Charlemagne s'avançait sur un cheval (...) Devant chaque officier (...) il se tournait pour examiner l'homme des pieds à la tête... - Eh vous, là, si soigneux de votre mise, lança Charlemagne. - Je suis - la voix montait, métallique, du fond du heaume bien bouclé - Agilulfe Edme Bertrandinet des Guildivernes et autres de Carpentras et Syra, chevalier de Sélimpie Citérieure et de Fez! - Et pourquoi ne relevez-vous pas votre visière, qu'on voie votre visage?
- C'est que je n'existe pas, Majesté. - Et comment vous acquittez-vous de vos charges? - A force de volonté, Sire, dit Agilulfe.» Italo Calvino, «Le Chevalier inexistant», aux Editions du Seuil, Paris, 1962. Tout comme le chevalier Agilulfe, le marketing des technologies porte plusieurs noms et intrigue les dirigeants. De plus, il est simultanément considéré, par les uns, comme pratiquement creux en regard des merveilles technologiques que le marché semble attendre et, par les autres, comme un passage nécessaire, une charge inévitable que l'ingénieur doit bien accepter, malgré sa culture souvent rebelle et parfois hostile au marketing et, plus encore, envers ceux qui le portent. Cette simplification est aujourd'hui en grande partie inutile parce que les firmes qui continuent de considérer le marketing des produits technologiques comme inutile ou luxueux soit ont de la chance, soit sont en péril majeur. Leurs dirigeants ont désormais la liberté de mener des combats d'arrière-garde hostiles ou teintés d'une ironie supérieure envers le marketing, qu'ils vont louer comme un mal inévitable et comme une rançon versée par les techniciens aux progrès commerciaux de la firme et à sa valorisation boursière. Il faut encore beaucoup de volonté, dans des firmes à culture dominante technique, pour faire admettre que le marketing n'est ni un danger, ni une forme de publicité comprise entre la réclame et la propagande. Encore faut-il apporter des nuances à cette affirmation, selon les niveaux hiérarchiques et les maturités sectorielles. Nous illustrerons nos propos par trois secteurs d'application, bien contrastés dans leurs enjeux et dans leurs évolutions, tous soumis à une constante pression technologique : - les sciences de la vie, et plus particulièrement les OGM (organismes génétiquement modifiés - ou améliorés) ; - les technologies de l'information ; - l'énergie. Un problème culturel Il est clair, désormais, que le but du développement du marketing dans les secteurs technologiques n'est pas de transformer les ingénieurs en «marketeurs» ni d'opérer des substitutions qui viseraient à priver les firmes de leur culture de référence. Ce qui est en cause, c'est une attitude de plus en plus marquée de la part de certains groupes de personnes ou d'individus dans les firmes industrielles, qui s'abritent derrière les difficultés de conception et d'application du marketing pour en retarder ou en saboter l'image ou l'efficacité. Certains auteurs sont allés jusqu'à évoquer «l'arrogance technologique» (1) des comportements dans l'entreprise. Leurs arguments sur la spécificité des industries, des techniques ou des marchés sont toujours réels. Mais ils sont néanmoins mis en avant par des personnes hostiles à une culture marketing. Que cette culture soit vécue de façon anxiogène est une donnée de gestion, mais non un risque majeur pour la firme. Prenons un premier exemple méthodologique, celui du test préalable, inspiré du marketing de grande consommation (tableau page V).
Combien de firmes savent qu'une seule réponse négative sur les sept peut amener de sérieuses difficultés, et que deux réponses négatives ou douteuses traduisent une situation de risque de marché? Pour cette raison, nous devons redonner une définition du marketing liée à cette émergence du double impératif de la gestion du risque et de la valeur. Affirmer ses missions Il est inutile de vouloir réinventer le marketing pour sa firme, sous prétexte que l'activité est technologique ou très spécifique. Ce biais, cette facilité intellectuelle, n'est pas spécifique aux firmes technologiques : nous la retrouvons par exemple dans les industries culturelles du livre, d'une partie du cinéma et - paradoxalement - moins dans les spectacles vivants où, pourtant, la présence de l'artiste est physique. Il s'agit d'une erreur de jugement qui apporte un certain confort à court terme, en ce sens que les techniciens et les ingénieurs progressent sans référence précise à la valeur finale, au motif que celle-ci est indéterminable. Cette difficulté est souvent prétexte à ne rien faire de sérieux en matière de marketing, tout en affirmant qu'on y a sérieusement réfléchi avant d'en décider. Certes, il s'agit bien là d'une difficulté réelle. Mais, loin de décourager, elle devrait inciter à se poser assez tôt des questions telles que celles-ci (2) : - Pour quelles raisons devons-nous lancer ce produit ou ce service technologique (raisons financières, raisons de gamme et de cycles de vie, demande des consommateurs, alliances à concrétiser, pression des fournisseurs, des ingénieurs internes...)? - Quels sont nos attendus stratégiques (réaction à la concurrence, initiative solitaire, opportunité de croissance, utilisation d'un brevet avant qu'il ne tombe dans le domaine public, constitution d'un portefeuille de propriété intellectuelle...)? - Les prévisions financières s'appuient-elles sur une analyse sérieuse de la demande? En un mot, les budgets ont-ils une quelconque réalité ou sont-ils un pur exercice de lobbying interne? - Sait-on définir nos marchés? Connaît-on les élasticités de la demande au prix, à la nouveauté, aux produits de substitution? Plus généralement, sommes-nous capables d'élaborer des scénarios intelligents qui ne soient pas une simple espérance flanquée d'une variance servant de fondement à trois hypothèses, une haute, une moyenne et une basse? - Qui est à l'origine de la nouvelle offre technologique et sait-on qui fut à l'origine des anciennes? Y-a-t-il une stabilité des projets dans le temps? A-t-on fait les pré-tests? Sinon, ont-ils été éliminés pour de vraies bonnes raisons ou simplement sous la pression d'une autorité qui n'en connaît ni les techniques ni les usages? - Quelles méthodes utilise-t-on dans la firme pour comprendre les préférences des clients? - Les processus de développement sont-ils évalués autrement que techniquement? A-t-on une politique de diffusion dans le temps qui diffère, à moyen terme, de l'improvisation? - A-t-on pensé à faire travailler ensemble, dès l'origine, la recherche et le marketing autrement qu'en demandant aux deux responsables de «se rapprocher» (3)?
Dans cette conception, le marketing des secteurs technologiques s'appuie sur trois domaines : l'analyse du risque, l'analyse de la valeur, et leur inscription dans le temps, en regard de la chaîne de valeur. Certaines techniques du marketing - et parfois de l'économie - visent très directement à limiter le risque : étude de marché, prévision de comportement du consommateur, tendances des marchés, risques-pays, segmentation, etc. D'autres ont pour vocation de faire en sorte que les caractéristiques de l'offre aient vraiment de la valeur pour le client : analyse des marchés des clients de notre client, méthodes coûts-avantages, multicritères, «trade-off», estimation du surplus du client, etc. Mais ces deux approches, intégrées dans un double document (business plan et plan marketing opérationnel), doivent surtout s'inscrire dans le temps précis des opérations. De plus en plus souvent, le temps peut en effet détruire ou affaiblir l'opportunité d'une intervention, compte tenu de la rapidité de réponse ou d'initiative de la concurrence et de l'usure des goûts des consommateurs. Si l'axe du temps organise la répartition des fonctions de la chaîne de valeur (recherche, recherche appliquée, développement, production, commercialisation...) et si la firme gère bien : - le risque marché décroît avec le temps ; - la valeur de l'offre sur le marché devrait croître. Ainsi, mécaniquement, le ratio valeur/risque est doublement croissant en fonction du temps. Pour cette simple et forte raison, nous désignerons par marketing tout processus qui vise à bouger efficacement ce ratio dans le temps des opérations (figure 1). Il y a donc trois volets du marketing à unifier : le marketing du risque, celui de la valeur et celui du temps. Ce dernier est particulièrement important pour les firmes travaillant à la valorisation d'internet et des techniques de l'information (informatique, médias...) et faisant l'objet d'une valorisation boursière. Trois domaines d'application Les principes et méthodes évoqués présentent une facilité apparente, mais ils sont en fait délicats dans leurs applications pratiques et ce pour deux raisons principales. Ils font tout d'abord référence à un «business model» qui peut heurter la compréhension implicite des collaborateurs de l'entreprise de ce qu'ils ont à faire et qui peut les déstabiliser, y compris vis-à-vis de leur hiérarchie. Ensuite, ils demandent beaucoup de minutie dans leur mise en musique car, pendant le temps d'accoutumance de la firme à ces nouvelles approches de comportement dans les affaires, temps qui peut prendre de deux à cinq ans et parfois plus, l'intuition et la reproduction de ce qui a été efficace dans le passé peuvent entraîner pour le moins des conflits et, au pire, des fautes majeures d'adaptation. Pourtant, le constat est facile à faire. L'innovation technologique est foisonnante et, de plus en plus, c'est le marché - et pas uniquement la qualité technique - qui va décider, et rapidement, des chances de succès d'une innovation. Pour autant, si cette qualité demeure une condition nécessaire au succès, elle n'est simplement plus suffisante. Les exemples, issus de vastes secteurs d'activité économique, illustreront ce fait.
* La génétique : la mutation des métiers et un marketing «à la diable» La découverte de la double hélice de l'adn, puis la possibilité de couper des morceaux de chaîne génétique et de les transplanter ont changé les métiers des sciences de la vie. Le producteur de produits phytosanitaires (herbicides, fongicides, insecticides) s'inscrivait clairement dans une chaîne de valeur qui le conduisait à la distribution agricole puis aux agriculteurs, parallèlement aux semenciers. Le couplage des semences et des phyto bouleversent la profession. L'acte d'achat d'une semence génétiquement modifiée est une décision qui oblige l'agriculteur à s'engager envers le phyto compatible lors de l'achat des semences. Le distributeur doit dès lors vendre le couplage. De ce fait, le rapprochement des deux métiers devient obligatoire, mais la forme du rapprochement - contractuel, partenarial ou de fusion des firmes - est une décision de marketing stratégique qui va entraîner à sa suite toute l'organisation de la chaîne de valeur, y compris les modalités de recherche et de développement. Plus encore, il faudra que tous les acteurs de la filière agroalimentaire et des sciences de la vie s'accordent sur un consensus de marché. Il ne suffit plus en effet de livrer la production agricole génétiquement modifiée mais de savoir si la Loi l'accepte, si l'industriel transformateur y trouve un intérêt, si la grande distribution y voit un avantagec4s et si le consommateur final le désire. Chacun, sur son marché, et avec sa propre logique se trouve participer d'une décision qui s'inscrit aujourd'hui en France dans une désorganisation extrême et dans des conflits larvés ou visibles, équilibrés en partie seulement par des restructurations spectaculaires (Novartis, Aventis...), des rachats de sociétés de recherche en génétique à des prix époustouflants, des campagnes de communication coûteuses. Mais l'efficacité de l'ensemble est somme toute faible en regard des blocages. Il est vrai que l'approche marketing est désarticulée, non solidaire et elle semble assimiler le marketing et la restructuration, et confondre la communication avec lobbying. Pourtant c'est à l'évidence un secteur de croissance pour le XXIe sièclec5s et un véritable espoir économique. * L'information : un secteur, mais surtout des métiers. Les technologies de l'information non seulement constituent le grand secteur technologique du début du siècle, mais, de plus, sont considérées comme le principal moteur de la croissance. Les chiffres tentent de le démontrerc6s, les politiques publiques en font un axe fortc7s. Or, non seulement le secteur des produits et services informatiques portés en particulier par I.B.M., Bull, Compaq. Microsoft, sont concernés mais aussi les producteurs de logiciels intégrés (SAP, Baan...) les cabinets de conseil (Gemini Consulting, Arthur Andersen Conseil), et les sociétés de services informatiques pouvant elles-mêmes appuyer leur croissance sur les producteurs de logiciels (Alti...). Mais, plus encore, c'est l'ensemble des secteurs de l'activité économique qui intègrent de la valeur ajoutée venant des technologies de l'information dans leurs offres. Compte tenu de ces évolutions très rapides, les responsables du marketing de l'information doivent avoir une priorité : c'est la connaissance de leurs marchés
situés en aval, les marchés de leurs clientsc8s. Ils doivent entre autres appliquer une véritable réflexion à la connaissance des cycles de vie des offres de leurs propres. S'en priver, c'est prendre le risque de se faire sortir du marché à la vitesse exactement déterminée par celle de l'évolution de la technologie et de la capacité des clients à innover dans leurs offresc9s. * L'énergie : le client au centre d'un tout nouveau dispositif marketing Il n'est pas étonnant que le pétrolier ELF ait choisi le thème de «l'énergie client» pour mobiliser les actions de management. Il n'est pas plus surprenant que l'air Liquide, lors de la dernière Assemblée Générale des actionnaires ait confirmé avec détermination son engagement dans la cogénération. Il ne fait de doute pour personne que des groupes comme Vivendi ou Suez-Lyonnaise doivent obligatoirement se demander ce que doit être leur stratégie dans les 5 ans à venir dans l'énergie et en quoi cette décision est apporteuse de valeur à l'ensemble de leur entreprise. Quant à EDF, affrontant simultanément les ruptures culturelles et l'ouverture mondiale des marchés à la concurrence, elle est obligée de réfléchir sérieusement à l'unicité ou la multiplicité de son «business model», tant pour la distinction des marchés industriels et grand public, ce qui est usuel, que pour l'approche différente sur site que supposent d'une part l'acheminement d'énergie et d'autre part la production sur site. Le marketing cliente est ainsi devenu l'enjeu principal du marketing énergétique pour les années à venir. Alors même que les productions d'énergie demandent une très bonne maîtrise technologique, cette dernière se rendra invisible pour l'utilisateur qui achètera une prestation globale et non les préoccupations liées à sa production et mise à disposition. De ce fait, la nature très différente des business models dans les entreprises actrices sur ces marchés, conjuguées aux nouvelles exigences de la clientèle sera le déterminant de la politique marketing stratégique de ces entreprises. En conclusion, il apparaît que le marketing des secteurs technologiques ne doit pas tant ses particularités au fait technologique qu'à la faible culture managériale des entreprises technologiques en matière de marketing. La première étape consiste donc pour ces firmes à ne pas imposer leurs vues au marketing en raison de leur savoir technique mais à en accepter l'apport novateur. C'est ensuite le «business model» de la firme et de ses concurrents qui orienteront les choix des techniques et méthodes marketing utilisées. La stratégie s'inscrira dans la capacité de l'entreprise à modifier si nécessaire son modèle de management et à imposer les apports du marketing en évitant les conflits. Le plus grave des conflits serait de mettre au silence le marketing et de croire ainsi avoir rétabli le calme et de bonnes conditions de fonctionnement. Le «business model» Le «business model» est une référence culturelle et managériale qui permet de comprendre les réactions et les comportements stratégiques et quotidiens de la firme. Il cherche à clarifier : - les grandes caractéristiques de comportement des clients (par exemple vis-à-vis de l'outsourcing, de leur aversion au risque, ou leur capacité à s'inscrire eux-mêmes dans l'évolution de leur secteur d'activité, leur forme de relation avec leurs propres clients, leur fiabilité commerciale) ; - les qualités précises des relations au client (la firme fait-elle les efforts nécessaires et adaptés au client, le client fait-il les efforts attendus par la firme?). La
combinaison des réponses débouche sur plusieurs cas de «business models». Le «business model» permet de limiter le risque commercial du ciblage. Un art nouveau pour l'assurance de demain A l'horizon 2002, marketings stratégique et organisationnel devront trouver une place de choix au sein des préoccupations prioritaires des états-majors des sociétés d'assurance. Une utilisation optimale des nouvelles technologies ouvrira la voie à l'avènement d'un néo-marketing. MICHEL BADOC Dans un contexte de regroupements et de concentrations ayant pour conséquence la disparition accélérée de nombreuses sociétés d'assurance européennes, le principal défi pour chaque institution est de survivre en 2005. La condition pour assurer sa présence viendra largement de la capacité que sauront se donner les sociétés de pouvoir proposer aux diverses clientèles des produits et des services de meilleure qualité et moins chers que ceux offerts par la concurrence. L'engagement d'audacieuses actions de «reengineering», fondées sur une importante réorganisation des systèmes d'information, accompagnées d'une diminution radicale des coûts de fabrication, de gestion et de distribution, a constitué la première composante de cette amélioration. L'intérêt des gains multiples et divers ne pourra toutefois se traduire en valeur ajoutée pour les sociétés d'assurance que si elles facilitent une politique de développement reposant sur la satisfaction réelle des besoins et des attentes des clients : individus, professionnels ou entreprises. Le marketing, dont la tâche consiste à proposer une adaptation de l'offre d'assurance mais aussi des mentalités des personnels de siège et de terrain à la demande, est appelé à apporter une contribution majeure à cette politique. Toutefois, pour assumer pleinement son rôle, il doit être profondément repensé au niveau de son concept, de sa fonction, de son orientation et enfin de la place qui lui sera conférée dans la structure décisionnelle des sociétés d'assurance européennes. Sa contribution au succès et à la croissance implique une rénovation des attributions de cette discipline au niveau de la stratégie, de l'organisation et de la mise en oeuvre des actions orientées vers le développement. De surcroît, il lui faudra savoir tirer profit de l'importante révolution technologique dont la maîtrise constituera au début du nouveau millénaire un indéniable atout commercial. Marketing management et e-marketing doivent rapidement trouver dans l'assurance une place de choix en se situant au niveau des préoccupations prioritaires des états-majors de demain. * Priorité accordée au marketing stratégique Emanation du marketing management, le marketing stratégique a pour but principal d'apporter aux états-majors et aux opérationnels des sociétés d'assurance un éclairage suffisant pour leur permettre d'améliorer l'efficacité de leurs décisions. La méthodologie qu'il propose à travers la planification dynamique permet de faire des choix en pleine connaissance des conséquences tant pour la clientèle que pour le compte d'exploitation et le bilan des institutions. Il doit permettre aux directions générales d'obtenir des réponses claires à d'importantes questions qu'elles se posent face à l'avenir de leur société : que sera mon métier demain? Quelle segmentation doit conditionner mon organisation? Est-il indispensable d'acquérir une envergure internationale? Faut-il aller se battre sur les marchés de masse ou rester dans des niches profitables? Le marketing stratégique est sollicité pour conduire les sociétés d'assurance à se créer un véritable positionnement différenciateur permettant d'obtenir une identité et une image distinctive. L'image constitue un important facteur clef pour se défendre face à la banalisation des offres et pour contrer la concurrence d'«outsiders» venant d'autres professions. Il ne relève certainement pas du pur
hasard de constater qu'une société telle qu'axa semble investir actuellement des sommes considérables afin de se doter d'une image de marque internationale. Le développement du marketing stratégique au sein de l'assurance entraîne d'importantes modifications dans la manière de travailler, tant au niveau des sièges qu'à celui des réseaux. Il implique de généraliser le processus de planification dynamique à partir d'une large diffusion auprès de l'ensemble des services opérationnels (chefs de marché, de produit, de canal de distribution, d'entités décentralisées...). Les principes marketing qui ont fait le succès du développement de sociétés aussi différentes que General Electric, L'Oréal, Procter & Gamble, Danone, etc., ne peuvent plus épargner le monde des assurances. Comme dans ces entreprises, les sociétés d'assurance, de plus en plus soucieuses de lier les actions issues du marketing aux résultats, seront appelées à s'attacher davantage au chiffrage des plans marketing en les accompagnant de «business plans». Une liaison plus étroite entre marketing, comptabilité analytique et contrôle de gestion sera une conséquence directe du développement du marketing stratégique. Une importante mutation dans ce domaine commence à s'engager dans certaines sociétés d'assurance, en particulier dans des pays tels que la Hollande, la Grande- Bretagne, l'allemagne, la Suisse, etc. Même des sociétés de tailles petite et moyenne telles que BBL Insurance (Belgique) ou l'uea (Union Européenne d'assurance en France) semblent obtenir rapidement les fruits d'un marketing stratégique reposant sur la recherche d'une synthèse entre satisfaction des clients et création de valeur ajoutée fondée sur une bonne maîtrise planifiée des résultats financiers. * Edifier le marketing organisationnel pour mettre en oeuvre le changement Les sociétés d'assurance pourront transformer leur atout stratégique en carte maîtresse de la réussite seulement si elles se révèlent capables d'adapter les structures et mentalités d'hier aux impératifs des marchés de demain. Le marketing organisationnel est appelé à jouer un rôle significatif dans l'indispensable processus de mutation des structures de l'assurance. En premier lieu, il doit contribuer à les doter de systèmes d'information en marketing (SIM) pertinents, indispensables pour mener à bon terme les politiques de fidélisation et de conquête des clientèles. La maîtrise de l'information, grâce aux énormes progrès technologiques, constitue un élément fondamental de la compétitivité commerciale. Outre ses capacités d'éclairage, elle constitue un agent actif de conquête et de créativité en présentant à travers l'utilisation du data mining (forage des données) de nouveaux produits et services ou de nouvelles cibles issus de segmentations pertinentes. Le marketing organisationnel jouera pleinement son rôle de pilier du marketing management en parvenant à faire de la préoccupation du client l'affaire de l'ensemble de l'organisation et pas seulement celle des services marketing et commerciaux. Pour cela, il doit contribuer à la création de structures qui soient de véritables facilitateurs de la fidélisation et de la conquête des clients. Cette tâche ne pourra être atteinte sans s'attaquer aux baronnies sclérosantes qui maintiennent le poids du passé. Les structures de demain doivent au contraire permettre une véritable gestion transversale, décloisonnée, participative, transparente, communicante, imprégnée du souci du partage de la qualité totale. Il leur faudra se construire à partir de projets de développement clairs, mobilisateurs, et susciter au maximum la créativité. A cet égard, il est intéressant de voir que la société SCOR (réassurance) semble accorder une place importante à la mise en place de structures et approches innovantes dans son programme de formation pour dirigeants proposé dans son université du management. * Le marketing opérationnel au service du marketing stratégique
La bataille du futur ne se gagnera pas seulement à partir de stratégies et de réformes structurelles, mais également à travers l'engagement de moyens et d'actions adaptés. La tâche du marketing opérationnel vise à améliorer l'efficacité des actions émanant des politiques commerciales et de communication. Il doit s'attacher à donner aux sociétés d'assurance une meilleure vision de leurs marchés en élargissant leur intérêt vers ceux des actionnaires, des personnels et des canaux de distribution, considérés comme des clients internes. Il lui faut s'efforcer de rendre la société plus créative et réactive dans un monde en pleine évolution où la défense des produits et des services à partir de brevets est impossible. Parmi les évolutions du marketing opérationnel, une étude récemment menée auprès de sociétés d'assurance en Europe et aux Etats-Unis permet de constater certaines convergences. On remarque en particulier un souci de développer les études marketing dans trois domaines : obtenir une meilleure vision des potentialités de la concurrence interne ou externe à la profession «benchmarking», améliorer les segmentations (géomarketing, recherche de typologies européennes, approches par tribus, découverte de marchés rentables...), et renforcer les approches du marketing «business to business» à travers une meilleure connaissance du marché des entreprises et des professionnels, ainsi que des processus de décisions d'achat. Une priorité est accordée à la politique de fidélisation à partir d'une meilleure connaissance des goûts, besoins et attentes de ses propres clients et en développant d'importantes actions visant à l'amélioration de la qualité. La plupart des rencontres laissent toutefois présumer que les préoccupations les plus importantes pour le futur concerneront la politique de distribution. Un ensemble de réformes d'envergure ne manquera pas d'être mené en s'inspirant des expériences engagées par la grande distribution et en mettant à profit les évolutions émanant de la révolution technologique qui se prépare. * L'avènement du e-marketing A l'aube du XXIe siècle, l'explosion des nouvelles technologies de l'information et de la communication modifieront les approches traditionnelles du marketing. Par leur puissance de stockage (SIM, data warehouse...) et d'analyse (data mining, réseaux neuronaux, agents intelligents, systèmes de «knowledge management»...), elles permettent d'accéder à l'intimité du client. Par leur pouvoir d'information, de communication (mondiale, globale, instantanée, interactive...) lié aux autoroutes de l'information et à la convivialité du multimédia, elles initient de nouveaux modes de relation avec les personnes et les entreprises. Leur puissance de persuasion est telle qu'elle occasionne une profonde évolution des comportements des clientèles. L'avènement d'un néo-marketing, ou e-marketing, doit être mis en place afin d'apporter des réponses circonstanciées à cette évolution. Plus personnalisé dans des approches «one to one» et «one to few», il repose sur de nouvelles variables fondamentales : l'information, la technologie, la logistique/distribution, les hommes. Son succès sera largement conditionné par la possibilité qu'auront les sociétés d'assurance à faire travailler ensemble et en harmonie la direction du marketing et celle de l'informatique. La création d'une structure spécifique permettant la communication à partir des nouvelles technologies doit également être envisagée. Le luxe, un secteur pas comme les autres Créer des produits en espérant que le marché les adoptera, les diffuser tout en préservant leur rareté, les promouvoir sans se compromettre, satisfaire sa
clientèle sans espérer nécessairement la retenir... Le marketing du luxe n'est pas à l'abri des contradictions. BERNARD DUBOIS Le marketing du luxe s'est considérablement démocratisé au cours des vingt dernières années. Jadis réservés aux «happy few», les produits et services de luxe sont progressivement «descendus dans la rue» et, pour certains d'entre eux (parfums et eaux de toilette, accessoires de mode), désormais achetés et consommés, ne serait-ce qu'occasionnellement, par le plus grand nombre. Ainsi, selon les données de l'institut Risc, plus d'un Européen sur deux a acheté une marque de luxe au cours des douze derniers mois. On pourrait croire qu'en se démocratisant le marché du luxe a perdu de sa spécificité et que, ce faisant, son marketing ne se distingue plus guère du marketing des produits et services de grande consommation. De fait, certains groupes de luxe comme LVMH ont fait appel, le plus souvent avec succès, à des talents marketing issus de l'agroalimentaire ou des produits d'entretien. A l'analyse, il apparaît cependant que certains aspects du marché du luxe conservent une originalité qui, mettant en cause quelques principes de base du marketing, confère au marketing du luxe un caractère profondément paradoxal. Nous illustrons dans ce qui suit les cinq principaux paradoxes du marketing du luxe. Paradoxe de la demande Le succès du marketing des biens de grande consommation repose en grande partie sur une gestion maîtrisée des cycles de rachat. C'est pourquoi la plupart des entreprises accordent aujourd'hui tant d'importance à la fidélisation de leur clientèle. Paradoxalement, en se démocratisant, le luxe est devenu de plus en plus tributaire de situations particulières d'achat et de consommation. Jadis alimenté par la consommation ordinaire de gens exceptionnels, le luxe se nourrit aujourd'hui de la consommation exceptionnelle de gens ordinaires. Beaucoup de personnes ont probablement rêvé de passer une nuit dans un palace ou bien de visiter les îles paradisiaques du Pacifique. Mais ce n'est pas parce qu'elles réalisent un jour leur rêve qu'elles auront, même très satisfaites, nécessairement envie de recommencer. En devenant réalité, leur rêve s'est autodétruit et a émigré vers d'autres horizons. C'est pourquoi, dans le domaine du luxe, la satisfaction n'engendre pas ipso facto la fidélité. L'accroissement de la demande est davantage tributaire d'un bouche-àoreille favorable que d'un courant continu de rachat. Paradoxe du produit Dans le marketing classique, la conception dominante est celle du «produitréponse». On étudie les besoins de la clientèle et on élabore le produit correspondant. Le four autonettoyant est ainsi né du peu d'enthousiasme des ménagères pour le nettoyage de leur four, et le micro-ondes, du souci des femmes d'aujourd'hui de réduire le temps de préparation des repas. Compte tenu du poids de la création, le produit-réponse n'a pas sa place dans l'univers du luxe. En achetant une robe d'yves Saint Laurent, la cliente n'a nullement envie que M. Yves Saint Laurent lui demande comment il faudrait que cette robe soit. Elle achète au contraire le génie du couturier et ne demande qu'à être séduite et éblouie. Le marketing du luxe est un marketing de proposition, où l'initiative est toujours dans le camp du créateur. Cela ne signifie pas, bien sûr,
que les études de marché soient inutiles. Elles seront simplement plus confirmatoires qu'exploratoires, centrées non sur les attentes, mais sur les réactions et préférences du marché. Paradoxe du prix Pour des produits banalisés, la structure des coûts et le positionnement concurrentiel constituent les deux bases de la tarification. Dans le domaine du luxe, les coûts conservent bien sûr leur importance mais, en même temps, la «valeur imaginaire» attachée au produit - et surtout à sa marque - est telle qu'elle distancie la relation entre le prix de vente final et le coût des matières premières. Quel parfumeur a jamais indexé le prix de son parfum sur le coût des ingrédients utilisés? En achetant un produit de luxe, le consommateur s'accapare une part de rêve. Mais quel est donc le prix d'un rêve? Quant à la concurrence, son rôle semble également moins déterminant. Dans l'univers de la grande consommation, les chefs de produit sont obsédés par la recherche d'un «avantage concurrentiel». Pour réussir, un nouveau produit doit absolument offrir un «plus» : être plus performant, plus commode d'emploi, durer plus longtemps... Dans le domaine du luxe, la référence à la concurrence n'est pas aussi systématique, ni pour le consommateur ni pour l'entreprise. Une cliente n'achète pas «N^o 5» de Chanel en le comparant à tous les autres parfums disponibles. Elle ne se demande même pas s'il est «meilleur» ou «moins bon» que telle ou telle autre marque. Elle a simplement décidé, parce qu'il lui plaisait, d'en faire «son» parfum. De même, un couturier ne cherche pas, dans ses collections, à être meilleur que X ou Y, ni même différent. Il cherche d'abord à proposer un univers qui reflète ses choix esthétiques et sa personnalité. A la limite, un produit de luxe n'a pas de véritable concurrent. Paradoxe de la distribution Dans le monde de la grande consommation, la force d'un réseau de distribution s'apprécie à travers sa capillarité, c'est-à-dire le nombre et le poids de ses différents points de vente. Le succès d'un nouveau produit dépend souvent directement du nombre de magasins qui ont accepté de le référencer. Dans le domaine du luxe, il en va tout autrement : une trop grande diffusion nuit à l'image du produit ou du service, en le privant d'un élément essentiel de sa valeur, sa rareté. Aussi, la plupart des maisons de luxe choisissent de mettre en place une distribution sélective, en résistant le plus longtemps possible aux pressions de la grande distribution. La stratégie poursuivie par Vuitton est ici exemplaire : aucun produit de la marque ne doit être vendu dans un point de vente qui n'est pas contrôlé, au moins à 51 %, par la société. Dans le domaine du luxe, l'emplacement et l'atmosphère d'un point de vente comptent donc davantage que sa surface. Les attentes de la clientèle sont telles que, dans la majorité des cas, les produits de luxe s'accommodent mal de la vente en libre-service et des promotions agressives. Ils requièrent le plus souvent l'assistance d'un personnel de vente affable et compétent. C'est, ou ce devrait être, le domaine par excellence du marketing relationnel. Paradoxe de la communication Classiquement, on attend de la communication, et en particulier des créatifs publicitaires, qu'ils «mettent en valeur» un produit qui, dans bien des cas, ne fait guère rêver. Dans le luxe, la situation est bien différente. Les produits eux-mêmes
sont déjà fortement symboliques et imprégnés de sens. Comment, et faut-il d'ailleurs, créer sur des créations? Les critiques reprochent souvent aux publicités pour les marques de luxe leur fadeur et leur excessive focalisation sur le produit. C'est oublier que, dans ce domaine, le produit et sa marque sont le message et n'ont, s'ils sont vraiment prestigieux, nul besoin de faire-valoir. La marque Omega, au passé pourtant riche, y gagne-t-elle vraiment quelque chose à être «le choix de Cindy Crawford»? Dans le luxe, il est essentiel que la communication se mette au service du produit et de la marque et non l'inverse. Dans la plupart des cas, il suffira de rappeler l'existence du produit, sans nécessairement le «mettre en scène». Au mieux, on réussira à entretenir une atmosphère comme dans les campagnes thématiques d'hermès consacrées à l'afrique ou au monde du cheval. Finalement, le marketing du luxe apparaît pétri de contradictions. Il faut créer en espérant l'adhésion du marché, diffuser sans galvauder et promouvoir sans se compromettre. Entre le malthusianisme stérile et les débordements du mass market, le chemin est étroit, semé d'embûches et de fausses pistes. Les entreprises les plus performantes ont compris qu'il s'agissait d'un métier où l'artiste et le gestionnaire devaient cohabiter en s'enrichissant l'un l'autre à partir d'un respect mutuel et d'une reconnaissance de leurs rôles respectifs. Le marketing relationnel dans le secteur du luxe Longtemps, les industriels du luxe se sont trouvés désarmés face à la nécessité d'instaurer une relation clients individualisée. Le marketing relationnel peut leur apporter une réponse adéquate. ÉRIC FALQUE Loin de répondre à un besoin fonctionnel, l'achat de luxe joue un rôle de valorisation, personnelle ou sociale. La symbolique attachée à l'achat d'un produit de luxe est d'ailleurs l'élément fédérateur qui permet de parler d'un marché du luxe, malgré l'extrême hétérogénéité des produits et des services qui le constituent. Dans ce cadre, la qualité de la relation clients fait partie intégrante de l'offre, avec un impératif d'individualisation : les vendeuses des grands joailliers ont un portefeuille attitré de clients, dont elles connaissent parfaitement les goûts, les besoins et les moyens, et qu'elles accompagnent durant leur carrière. Récemment encore, les industriels du luxe étaient toutefois particulièrement désarmés face à cette nécessité d'instaurer une relation clients individualisée. Deux grandes approches s'offraient à eux, l'une et l'autre insatisfaisantes : - Le face-à-face traditionnel client-vendeur : il permet une grande qualité de relation, mais rencontre très vite ses limites dès lors que l'entreprise atteint une certaine taille : coût élevé, faible activité de prospection... - La standardisation de la démarche commerciale : inspirée des techniques du marketing de masse, cette approche est, à l'inverse de la précédente, moderne, économique, et adaptée à de larges échelles. Mais elle est également impersonnelle et par conséquent inadaptée aux exigences du luxe. La caricature en est le démarchage téléphonique automatisé réalisé par certains fabricants de meubles de cuisine. Les industriels du luxe étaient donc confrontés à la difficulté de gérer et alimenter leur croissance tout en préservant l'indispensable qualité de la relation clients. Découverte du capital clients Cette situation est devenue d'autant plus critique que les acteurs du luxe, traditionnellement concentrés sur leur capital de marque, ont découvert la
nécessité de gérer également leur capital clients. Cela pour deux raisons : 1. Le portefeuille clients s'est élargi et diversifié Des marques comme Chanel couvrent un portefeuille de clients extraordinairement varié, allant des milliers d'acheteuses du «N^o5» jusqu'aux quelques dizaines de clientes invitées aux défilés de la branche haute couture. Cet élargissement de la structure de la clientèle du luxe a deux origines. Une origine sociologique : jadis socialement et culturellement réservé à une élite, le luxe entre aujourd'hui sur le territoire d'achat du grand public. C'est la crise économique qui a paradoxalement favorisé ce phénomène : l'achat ponctuel et déraisonnable d'un produit de luxe joue un rôle salutaire de repoussoir à la morosité. Une origine économique : les industriels du luxe eux-mêmes ont cherché à élargir leur clientèle. Le «grand» luxe traditionnel, élitiste et peu rentable, est souvent devenu la vitrine d'un marché beaucoup plus large et profitable. 2. «L'exception du luxe» s'achève avec la transition de l'artisanat vers l'industrie Le luxe n'est plus un secteur abrité derrière le prestige de ses marques, la personnalité de ses fondateurs ou la confidentialité de son territoire. Il obéit désormais à la règle commune : - les maisons de luxe appartiennent aujourd'hui très souvent à des groupes internationaux cotés et soumis à une forte contrainte de rentabilité. Sans même parler des multinationales comme LVMH, de petites maisons font aujourd'hui le choix du marché des capitaux (Inès de la Fressange) ; - la concurrence mondiale s'intensifie et les rentes de situation liées au seul poids de la marque se fragilisent. Ainsi, l'irruption de jeunes et audacieux créateurs venant chasser sur le territoire des grandes maisons de haute couture traduit une forme d'accélération du cycle de vie des marques. Aussi est-il devenu vital pour les entreprises du secteur de renforcer leur capital marque, traditionnel et bien maîtrisé, par un capital clients géré de manière dynamique. Les outils existent désormais pour faire jouer les synergies entre ces deux leviers. Une solution adéquate * L'ère du marketing relationnel Le marketing relationnel permet une gestion différenciée de la relation clients, grâce à l'utilisation d'outils de capitalisation de la connaissance, de communication et de gestion du client. L'interaction entre ces différents outils réconcilie enfin les «anciens» et les «modernes». Avec ces nouvelles technologies, le marketing relationnel réalise une synthèse aboutie entre la qualité de la relation individuelle traditionnelle et les méthodes rigoureuses et profitables du marketing de masse. * A la conquête du profit Mais, au-delà de la construction d'une relation riche et entretenue avec le client, le marketing relationnel est d'abord une démarche stratégique. Fidéliser ses meilleurs clients et développer auprès d'eux des ventes profitables, tel est l'enjeu.
Il s'agit donc de donner à l'entreprise la capacité de choisir les clients avec lesquels elle va développer une relation dynamique, dans une logique de recherche systématisée du profit. Cela passe par une gestion rigoureuse des étapes d'acquisition, de développement et de fidélisation du client (voir figure). Mode d'emploi Une démarche de marketing relationnel s'articule en trois grandes étapes : 1. Collecter l'information L'objectif est de réunir un maximum de données clients dans un entrepôt de données (ou data warehouse), véritable centre nerveux du dispositif. Cet outil permet d'archiver de façon organisée des données issues de sources différentes, internes ou externes à l'entreprise. Dans le luxe, il faudra à ce stade intégrer la nécessaire gestion d'une certaine confidentialité, et faire preuve de prudence dans la collecte et l'utilisation d'informations personnelles. 2. Enrichir l'information Cette étape vise à enrichir l'entrepôt de données par des sources d'information complémentaires, le plus souvent externes : autres sociétés du groupe, distributeurs, prestataires de services spécialisés, partenaires... L'intérêt en est double : - identifier une cible élargie de prospects. A titre d'exemple, plusieurs marques très prestigieuses de l'automobile, la couture et de la joaillerie ont mis en commun 100.000 adresses de consommateurs ; - mieux connaître ses clients. L'échange d'informations entre fabricants et distributeurs est souvent indispensable pour réaliser un simple mailing ; mais l'enrichissement de l'information permet surtout de développer une connaissance approfondie des clients, qui sont par définition peu nombreux dans le luxe. 3. Exploiter l'information Cette étape sert à valoriser la connaissance clients et à la décliner en actions opérationnelles. Elle s'appuie sur un large éventail d'outils d'analyse, de modélisation et d'aide à la décision, et comporte schématiquement trois phases : - la segmentation des clients selon leur valeur pour l'entreprise. L'entrepôt de données permet à l'entreprise d'identifier ses «20/80», et de construire une segmentation permettant d'isoler les clients rentables justifiant un traitement particulier ; - l'adaptation du niveau de service de l'entreprise à la valeur client. Il s'agit de déterminer un niveau de service (ou, plus généralement, de dépenses) permettant, pour chaque segment de clientèle, d'optimiser le profit de l'entreprise sur la durée de vie du client ; - le pilotage de la chaîne marketing et commerciale. L'efficacité du marketing relationnel reposera sur la gestion de campagnes créatives dans leur conception et rigoureuses dans leur gestion, avec l'aide d'outils toujours plus sophistiqués. L'entrepôt de données sert d'interface entre ces outils : en collectant, traitant et redistribuant les données nécessaires à leur bon pilotage, il contribue puissamment à leur efficacité.
La prime au leader Les initiatives de marketing relationnel se multiplient dans le luxe, chez les fabricants comme chez les distributeurs : les intervenants ont bien compris que l'avantage compétitif lié à une telle démarche sera d'autant plus fort et durable qu'il est précoce, à l'instar de ce qui s'est passé dans le secteur du transport aérien. Les premières compagnies à avoir lancé des programmes de fidélisation ont acquis un avantage qui n'a toujours pas été rattrapé par les concurrents plus tardifs. On peut regrouper les initiatives actuelles en trois grandes catégories : - les actions d'image et de notoriété. Le vecteur privilégié est ici l'internet. La plupart des industries du luxe disposent aujourd'hui d'un site aux résultats parfois spectaculaires. Le site Lancôme reçoit 2 à 3 millions de visites par mois et génère un abondant courrier de ses visiteurs. Effet non négligeable, Lancôme a engrangé 150.000 noms qui servent de base à la réalisation de campagnes ciblées (1) ; - les actions d'acquisition de nouveaux clients. Destinées à conquérir une cible précise lors d'un lancement de produit, elles sont complémentaires des méthodes classiques de gestion du capital de marque (les campagnes de presse, qui construisent l'image du produit). Pour lancer son parfum «Déclaration», Cartier a utilisé les fichiers clients de ses meilleurs distributeurs pour inviter les prospects à se procurer un échantillon en parfumerie. Le lancement de la BMW Z3 a donné lieu à l'émission ciblée (8.000 prospects) d'un coffret de prestige présentant en animation d'images le nouveau modèle (2) ; - les actions de développement et fidélisation. Ces actions visent à maximiser la valeur des clients, en agissant sur le volume acheté et sur la durée de vie du client. Les initiatives sont légion. Les «Club Pavillon» de Christofle permettent d'entretenir une relation privilégiée avec certains clients de la boutique (chèquescadeaux, invitations à des soirées privées, etc.). La marque Montana envoie régulièrement un magazine, «Le Clan Montana», à 10.000 clients (2). Mais les exemples les plus répandus restent les cartes de fidélité lancées par les distributeurs, en France et dans le monde (Printemps, Samaritaine, Bloomingdale...), associées à des systèmes de points ou de prestations de services variées. De la transaction à la relation Le marketing relationnel comporte tout de même une limite évidente : il ne peut se substituer aux fondamentaux du commerce. Inutile, surtout dans le luxe, de se lancer dans un programme d'acquisition ou de fidélisation des clients si l'accueil au point de vente laisse à désirer. La maîtrise de la transaction est le préalable indispensable à celle de la relation. Mais, pour les acteurs du luxe qui sauront l'utiliser, le marketing relationnel ouvrira des perspectives encore inconcevables voilà quelques années. * (1) «CB News», n^o 551, décembre 1998. (2) «Marketing Direct», n^o 32, novembre 1998.
Les spécificités des activités culturelles Une oeuvre-produit unique, des consommateurs motivés davantage par le plaisir esthétique que par la nécessité, des cibles et des sources de financement diverses... le marketing des activités culturelles présente des caractéristiques très particulières. YVES EVRARD Le temps libre (défini dans un premier temps comme temps de non-travail) augmente inexorablement dans les sociétés contemporaines sous l'effet conjoint de plusieurs facteurs : diminution de la durée hebdomadaire de travail ; augmentation des périodes de vacances ; croissance du temps de retraite (sous le double effet de la diminution de l'âge de la retraite et de l'allongement de la durée de la vie) ; sans oublier le loisir forcé résultant du chômage. Au total, les enquêtes sur les budgets temps conduisent à estimer que le temps de travail ne représente aujourd'hui en France qu'environ 13 % du cycle de vie, même si sa valeur matérielle et symbolique est beaucoup plus élevée que cette simple proportion arithmétique. Bien entendu, le temps non consacré au travail est loin d'être exclusivement du temps de loisir, puisqu'il faut en déduire d'abord le temps consacré au sommeil, ainsi que celui consacré, par exemple, aux activités domestiques ou aux transports. C'est au sein du temps de loisir que se situent les pratiques culturelles ; elles y coexistent (dans une relation qui peut être, selon les cas, de concurrence ou de complémentarité) avec des loisirs non culturels (sports, tourisme...), des activités semi-utilitaires (bricolage, jardinage...), ainsi que des pratiques de sociabilité (famille, amis...). Situer les activités culturelles au sein de l'univers des loisirs correspond au point de vue du consommateur qui va choisir d'affecter son temps libre à telle ou telle activité, en tenant compte des contraintes financières résultant des coûts relatifs à ces activités. Cette perspective économique tend à considérer les pratiques culturelles comme un secteur d'activités particulier ayant des caractéristiques propres : l'industrie du divertissement («entertainment»). Une autre vision des pratiques culturelles s'appuie sur la nature spécifique de l'art (en particulier, sa dimension métaphysique transcendantale) et la place de la culture comme fondant l'identité des sociétés et plus généralement des civilisations. Cette seconde perspective a été largement développée en France sur le plan institutionnel depuis Malraux (mais ses racines sont évidemment beaucoup plus anciennes). Elle a pour conséquence une légitimation spécifique des activités culturelles, fondée sur le modèle éducatif et la mise en oeuvre de politiques culturelles visant à démocratiser l'accès aux oeuvres d'art. L'opposition entre ces deux perspectives est au coeur des débats sur «l'exception culturelle» (dans la perspective «entertainment», les règles du commerce international s'appliquent aux activités culturelles comme aux autres secteurs économiques). Elle est également un des éléments qui fondent la spécificité du «marketing culturel», mais aussi qui en expliquent le rejet, parfois observé dans les institutions culturelles les plus traditionnelles qui tendent à l'assimiler - à tort à notre sens et peut-être aussi en raison de sa consonance anglo-saxonne - à la perspective du divertissement. Quelle que soit la perspective adoptée, les activités culturelles présentent des caractéristiques à la fois particulières (les différenciant d'autres domaines) et communes (aux diverses formes culturelles) qui justifient la constitution d'un champ d'étude particulier dont nous allons maintenant présenter brièvement le périmètre. Il n'est pas dans notre propos dans le cadre de cet article d'entrer dans un débat sur la définition de l'art (débat cependant assez vif actuellement, notamment dans les arts plastiques) ; nous reprenons donc simplement la définition institutionnelle correspondant au champ d'activité du ministère de la Culture et de la Communication. Le champ culturel ainsi défini comprend quatre ensembles principaux d'expression et de diffusion artistique : les services culturels (patrimoine, musées et arts plastiques, spectacle vivant) ; la filière de l'écrit (édition de livres, presse) ; la filière son (édition de phonogrammes, radio) ; la
filière de l'image (cinéma, télévision). Au total, le poids économique de ces secteurs était estimé en 1996 à 181 milliards de francs (dont environ la moitié pour l'écrit). Il s'agit donc d'un secteur dont le poids économique est relativement modeste et en tout cas sans commune mesure avec son impact médiatique, ce qui démontre la valeur symbolique attachée aux activités culturelles. Deux correctifs doivent cependant être apportés à cette estimation du poids économique de la culture : il s'agit d'un secteur en croissance et riche d'emplois ; il favorise un volume important d'activités induites (qu'il s'agisse du tourisme, ou des industries des matériels nécessaires à la lecture ou à la réception). Venons en maintenant (enfin, dira peut-être le lecteur à ce stade de l'article) aux spécificités du marketing appliqué au champ culturel qui seront analysées à trois niveaux : celles qui tiennent à l'offre ; celles qui tiennent à la demande ; celles enfin qui concernent l'établissement des relations entre l'offre et la demande. Spécificités de l'offre Nature des objectifs On observe dans le champ culturel une grande diversité dans la nature des objectifs telle qu'elle s'exprime au travers du statut de l'entreprise : coexistent ainsi des services publics (gérés directement par l'etat ou par les collectivités locales), des entreprises publiques (autonomes mais contrôlées par le domaine public), des entreprises privées relevant du secteur non marchand (organisations à but non lucratif) ou du secteur marchand (c'est-à-dire le statut «normal» de la plupart des secteurs économiques). La diversité des objectifs et statuts a pour corollaire une diversité des sources de financement et donc des «clients» de l'organisation qui rend plus complexe l'action en marketing. Unicité de l'oeuvre Il s'agit ici d'une caractéristique majeure du champ culturel : l'oeuvre, issue du processus de la création artistique, est unique, même si le développement de la technologie permet sa diffusion par différents supports. Du point de vue du marketing, l'unicité de l'oeuvre artistique a plusieurs conséquences importantes : - le processus de la création artistique est fondé sur l'autonomie du créateur ; l'oeuvre n'est pas le reflet des attentes du marché (même si le créateur intériorise et éventuellement exprime dans son oeuvre sa représentation de la société qui l'entoure), elle ne répond pas à un «besoin» préexistant ; le processus marketing va donc, dans une large mesure, consister à chercher un public pour une oeuvre, et non à fabriquer un produit pour un marché ; il s'agit d'un «marketing de l'offre». - l'unicité fait de chaque oeuvre un «prototype», ce qui est source de risque pour le producteur : même s'il est possible de raisonner par analogie, il est présomptueux d'extrapoler le succès d'une pièce ou d'un film par les chiffres de vente réalisés préalablement par son auteur ou ses interprètes ; un mode fréquent de réponse au risque est de chercher à l'équilibrer par des stratégies de portefeuilles. - étant unique, l'oeuvre artistique n'est pas remplacée par une oeuvre plus récente (à la différence, par exemple, d'une automobile rendue obsolète par la sortie d'un modèle plus performant) ; même si les goûts changent et les modes évoluent, l'oeuvre artistique peut être appréciée de très nombreuses années après sa création, elle va enrichir un patrimoine : sa diffusion peut ainsi être continue (par exemple, tableaux dans un musée) ou relancée périodiquement (par exemple,
réédition d'un livre ou ressortie d'un film) ; cette propriété patrimoniale est l'une des plus spécifiques du champ culturel, elle a aussi des conséquences sur la gestion financière (par exemple, les amortissements ou l'évaluation de la valeur des portefeuilles de droits) et met en cause un des concepts de base des stratégies marketing, la notion de cycle de vie ; dans le domaine artistique, ce concept ne peut être appliqué à l'oeuvre elle-même (par exemple les fluctuations de la cote des peintres) même s'il peut l'être aux supports technologiques qui servent à la diffusion des oeuvres (par exemple le remplacement du disque vinyle par le compact). Spécificités de la demande Du point de vue de la demande, la consommation culturelle (qu'elle prenne la forme d'achat d'oeuvre, d'assistance à un spectacle...) présente également des spécificités qui peuvent être classées selon la chronologie du processus de consommation. Il faut d'ailleurs signaler que le terme «consommation» est peu approprié au cas des biens immatériels où il y a transfert de valeur symbolique et non destruction de valeur matérielle (l'oeuvre survit à sa consommation, même si le support matériel peut être dans certains cas détruit) ; c'est pourquoi on emploie fréquemment dans le domaine culturel le terme «pratiques». Motivations Les pratiques culturelles ne sont pas seulement liées à des motivations utilitaires ou matérielles (même si celles-ci peuvent intervenir à titre de contrainte : problème de garde des enfants dans le contexte d'une sortie au spectacle, par exemple), mais surtout à des dimensions immatérielles ou symboliques qui relèvent davantage du désir que de la nécessité. Le plaisir esthétique, appréciation de l'objet pour lui-même et non pour les fonctions utilitaires qu'il remplit, s'inscrit dans la consommation hédonique. Les biens culturels tiennent d'autre part dans le jeu des rapports sociaux une place qui peut s'analyser selon un double aspect. D'une part, la symbolique culturelle joue un rôle de marquage social, objet central des analyses de Bourdieu sur les logiques de distinction fondées sur des considérations de statut et de prestige social (dont on peut attribuer l'origine à Veblen dans ses travaux sur la «classe de loisir»). D'autre part, les pratiques culturelles tiennent une place importante dans les aspects relationnels, c'est-à-dire dans la sociabilité (conversations, sorties...). La même personne pourra ainsi, selon les circonstances, vouloir manifester son identité en se démarquant des autres (ou tout au moins en marquant son appartenance à un cercle étroit de happy few), en lisant un auteur peu connu, ou au contraire marquer son appartenance au «village global» en allant voir un film à succès dont elle pourra parler avec ses collègues de travail. Enfin, il faut signaler que, contrairement aux besoins physiologiques dont la satisfaction entraîne la saturation donc la disparition du besoin, les biens culturels se situent dans une logique de cumul : la propension à consommer s'accroît avec la consommation. Processus de choix L'unicité de l'oeuvre pose le problème de la comparabilité des biens culturels : sont-ils commensurables, c'est-à-dire peut-on ramener à une échelle commune le choix entre deux livres, ou le choix entre voir une exposition ou assister à une représentation théâtrale? Cependant, le consommateur, même inscrit dans une logique de cumul des consommations, est amené à effectuer des choix sous les contraintes du budget et du temps disponibles. Si la contrainte de budget est commune à l'ensemble des activités économiques, la contrainte temporelle est plus
spécifique du champ culturel : la consommation de la plupart des biens culturels nécessite l'usage du temps, qui est comme on le sait une denrée particulièrement peu élastique. Evaluation Pour les biens de consommation, la satisfaction du consommateur est un facteur clef de succès, car elle détermine les comportements ultérieurs, c'est-à-dire la fidélisation du consommateur se traduisant par le rachat du produit. Dans le domaine culturel, l'unicité de l'oeuvre fait que les conséquences de la satisfaction seront sensiblement différentes : ce n'est pas parce qu'on a aimé un film ou une pièce de théâtre qu'on va retourner voir le même spectacle le samedi suivant. La satisfaction amène ici deux types de conséquences : pour un produit donné, la génération d'un bouche à oreille favorable sera un facteur déterminant de succès ; pour les produits suivants, une forme de fidélisation pourra être atteinte par le biais de la sérialisation (on ira par exemple revoir un film ayant le même metteur en scène ou les mêmes acteurs) ; il est intéressant de noter que la fidélisation peut, dans le champ culturel, avoir plusieurs sources : il peut s'agir de l'auteur ou de l'interprète, voire du personnage, mais aussi du lieu (fidélisation à la programmation d'un théâtre pouvant être renforcée par le système des abonnements) ou de la collection (éditeur ou directeur de collection dans le domaine littéraire). D'autre part, une caractéristique du champ culturel est l'existence d'un double système d'évaluation : par les «pairs» (autres artistes, critiques ou spécialistes), par le public. Ces deux circuits ont leur modalités de formalisation (récompenses de festivals ou palmarès annuel du type Oscars qui existent maintenant à peu près dans tous les sous-secteurs artistiques d'une part, liste des meilleures ventes ou Top 50 de l'autre) ; ils peuvent entrer en conflit pour la légitimation de la qualité des oeuvres ; un consommateur sera-t-il plus influencé par l'opinion des experts supposés disposer de la compétence ou par celle d'autres consommateurs supposés avoir des réactions plus proches des siennes? Spécificités de la relation Le troisième niveau d'analyse des spécificités du champ culturel concerne la relation entre offre et demande, c'est-à-dire la mise en oeuvre des politiques de marketing. En dehors du produit (déjà largement traité dans la section sur l'offre) et de la distribution (dont la spécificité est moins marquée), deux aspects paraissent importants à souligner : les conséquences de la spécificité des biens culturels sur deux des quatre composantes du marketing mix (le prix et la communication) ; la multiplicité des ciblesavec lesquelles l'entreprise culturelle, en raison de la diversité de ses sources de financement, doit gérer une relation. La communication En relation avec la complexité des oeuvres et des motivations du public, la définition du contenu de la communication est particulièrement complexe : que dire qui ne soit pas simple paraphrase ou échantillonnage de l'oeuvre? On est fort loin de certaines théories publicitaires classiques consistant à simplifier la communication en mettant en avant un argument-clé. Outre la complexité de l'argumentation à utiliser, il faut aussi tenir compte du niveau d'information préalable du récepteur du message conditionnant sa capacité à le décoder : on observe très (trop?) souvent dans le champ culturel une tendance à supposer une capacité très élevée, c'est-à-dire à ne s'adresser qu'à la partie du public la plus impliquée et la plus fidélisée. Cette complexité de la communication est accrue par la multiplicité des sources d'informationdont dispose le consommateur potentiel : les biens culturels sont fortement médiatisés, que ce soit sous forme de reportage ou de critique ; ils génèrent un important bouche à oreille ; une large part de la communication échappe ainsi à l'initiative et au contrôle de l'entreprise culturelle
(même si les relations publiques peuvent jouer un rôle important). Le prix Toute prestation artistique professionnelle a un coût (rémunération des artistes et autres participants au processus créatif, moyens de production et de diffusion). Une des caractéristiques du champ culturel est que, contrairement au cas d'une grande partie des secteurs économiques, ce coût n'est pas toujours supporté en totalité par le consommateur final. Celui-ci en paie cependant en général au moins une partie, qu'il s'agisse de l'achat d'un produit (tableau, livre...) ou d'un droit d'entrée à une exposition ou à un spectacle. Se pose alors pour l'entreprise culturelle le problème de la fixation des prix. La détermination du prix est le plus souvent dans le domaine culturel dissociée du coût de production (c'est-à-dire de pratiques de type «cost-plus» où le prix est fixé en augmentant le coût de revient de la marge bénéficiaire souhaitée). Elle relève d'une part du prix psychologique (ce que le consommateur est capable et désireux de payer), d'autre part, de contraintes sociales (permettre l'accès à la culture aux catégories les moins favorisées de la populations). Le prix psychologique tiendra compte de plusieurs facteurs tels que la réputation de l'artiste (cote d'un peintre par exemple) ou le succès anticipé, ainsi que des normes fixées par la concurrence (un théâtre ne pourra sans risques fixer un prix deux fois plus élevé que ceux de ses confrères). Dans le cas des services, le prix peut être modulé pour étaler la demande dans le temps. La multiplicité des cibles Comme indiqué précédemment, beaucoup d'entreprises ou d'institutions culturelles ont des sources de financement multiples, ne se limitant pas au consommateur final. La politique marketing devra alors tenir compte de ces différentes sources qui constituent autant de cibles de l'action marketing. On peut distinguer, selon ce critère, trois niveaux : le marketing aval correspond au cas classique du paiement direct résultant de l'achat d'un produit ou d'un service par son utilisateur ; cette forme de marketing faisait l'objet de la majeure partie des analyses qui précèdent ; le marketing amont correspond aux subventions de la puissance publique, ou éventuellement aux donations de mécènes (entreprises ou particuliers) ; le marketing latéral correspond aux recettes publicitaires ou de sponsoring, c'est-à-dire au cas où un partenaire achète le droit d'associer son nom à une manifestation culturelle ou de s'adresser à son audience sous des formes diverses (par exemple : achat d'espace publicitaire, mention du nom ou du logo,...). Ces trois cibles coexistent pour beaucoup d'entreprises culturelles, avec des poids variables selon le cas. Un problème majeur est d'assurer la cohérence entre les actions menées auprès de ces différentes catégories de «clients». Il ne faut pas oublier qu'en dernier lieu, c'est le public aval qui est la source de tous les autres : c'est évident pour le financement latéral, mais cela l'est également largement pour le financement amont, car les spectateurs sont aussi des électeurs. Conclusion Nous laisserons le mot de la fin à une étudiante spécialisée en marketing qui, quand on lui a demandé pourquoi elle avait choisi de suivre les cours de l'option Culture et Communication d'hec, a répondu : «Le marketing de la culture, c'est beaucoup plus complexe, donc beaucoup plus intéressant que celui des produits de grande consommation».
Le marketing international à l'épreuve de la géopolitique Mondialisation oblige, les responsables de marketing doivent aujourd'hui prendre en compte les nouvelles donnes géopolitiques et les intégrer dans la définition de leur stratégie commerciale. JEAN-MARC DE LEERSNYDER Lorsque le président Kadhafi accepte de livrer au Tribunal international de La Haye deux ressortissants libyens soupçonnés d'actes de terrorisme, il crée du même coup un nouveau marché de plus de 5 millions de consommateurs, au pouvoir d'achat relativement élevé, et avides de produits de consommation et d'équipement que sept années d'isolement de la Libye leur a fait longtemps convoiter. En quelques semaines, les sanctions économiques contre ce pays ont été levées. Le «Journal officiel» français vient d'ailleurs de publier les textes libéralisant les flux financiers avec la Libye. Depuis la fin du communisme et l'échec des économies planifiées, les Etats ont semblé se désengager des opérations économiques et commerciales. Les progrès du libéralisme et la généralisation des privatisations, y compris dans les transports, l'énergie et les télécommunications, ont laissé croire que la loi du marché régissait seule les relations internationales. L'armée même se privatise et on voit prospérer l'activité d'entreprises multinationales pourvoyant les Etats ou les factions en mercenaires. L'outsourcing gagne les activités de défense. Dans le même temps, l'administration Clinton a mis au point un nouveau concept, la sécurité économique, et affirme que «la défense des intérêts économiques est au coeur de la politique étrangère des Etats-Unis». L'Europe n'est pas épargnée par la guerre, ce qui signifie pour certaines entreprises la ruine de leur stratégie commerciale et, pour d'autres, des perspectives de nouveaux chantiers colossaux. Le marketing international a longtemps vécu à l'abri de ces préoccupations géopolitiques, comme si les marchés étaient des espaces commerciaux protégés, des bulles de paix et de prospérité, insensibles aux évolutions et aux chocs géopolitiques. C'est pourquoi il n'est pas dans les habitudes des services de marketing d'étudier et de chercher à anticiper ces évolutions, comme il n'est pas dans les pratiques des hommes de marketing de prendre part à ces jeux géostratégiques. L'intelligence économique s'est développée à l'écart des services de marketing, et on la différencie encore nettement de l'activité de recherche ou d'étude de marché. Reconfiguration des espaces Le milieu du marketing international a longtemps été agité par le débat sur la mondialisation, débat lancé par Theodore Lewitt en 1983 dans un célèbre article, «The Globalization of Markets» publié dans la «Harvard Business Review». On sait que le cri d'alarme lancé par Lewitt s'est résolu par le compromis : «Think global, act local». Cette réconciliation entre la pensée mondiale (pensée unique?) et l'action locale n'est que théorique. Dans cette célèbre formule, ce qui fait problème ce n'est pas «think global», mais bien plutôt «act local». Tant que l'on ne précise pas le sens et la portée du mot local, cette proposition célèbre reste vide de sens. Si «local» renvoie à une définition géographique des marchés, le marketing international n'a fait aucun progrès. La mondialisation a un impact sévère sur les pratiques de marketing international.
La mondialisation a entraîné une remise en cause de la notion d'etat-nation au bénéfice d'une reconfiguration de l'espace à la fois plus vaste et plus diverse. Des ensembles régionaux se sont constitués (type Union européenne), et des espaces autonomes, indépendants des Etats, ont vu le jour (le cyberespace par exemple). Ces phénomènes ont leur contrepartie en marketing international. On a longtemps utilisé la nation ou le pays comme niveau pertinent d'agrégation pour définir les marchés ou segmenter le marché mondial. C'était commode : on assimilait espace national et espace culturel. L'organisation politique correspond généralement à une unité linguistique, une structuration administrative, un système éducatif et un espace réglementaire. La mondialisation a montré que l'entité pays-marché n'avait plus de sens. Des espaces plus vastes et plus pertinents pour regrouper les consommateurs se sont structurés. On les appelle les segments de marché transfrontaliers ou transnationaux. Dans le même temps, des espaces commerciaux autonomes par rapport aux espaces nationaux se sont créés : le marché des diasporas ou des communautés ethniques. Les «hispanos» constituent un segment de marché panaméricain que les entreprises de produits cosmétiques savent parfaitement appréhender et toucher avec un marketing spécifique. L'espérance de vie des marchés La prise en compte de l'espace, par la mondialisation, doit être complétée par celle du temps. On a l'habitude en marketing de prendre en compte le temps à travers la notion de durée de vie des produits. On dit même fréquemment que l'internationalisation est le moyen de prolonger la vie d'un produit, de lui donner une seconde jeunesse sur un marché moins sophistiqué. Il serait fort utile de raisonner en termes de durée de vie d'un marché et non plus d'un marché. On prendra l'exemple historique de l'iran qui fut un marché d'une durée de vie exceptionnellement courte entre le premier choc pétrolier (1973) et la révolution islamique de l'imam Khomeyni (1979). La durée de vie du marché indonésien a été un peu plus longue, mais la crise financière puis la chute du dictateur en 1998 ont mis fin à la croissance. Quels sont les effets marketing de ces ruptures brutales de marché? Du côté de la demande, on observe généralement un recentrage des dépenses vers les produits de première nécessité. La grande distribution à prix «discountés» peut d'ailleurs tirer son épingle du jeu. La demande se reporte vers des produits et des marques au statut moins prestigieux. En Russie, il y a eu le temps des grandes marques, c'est maintenant le temps de Tati. Du côté de l'offre, on assiste à l'apparition d'un secteur informel : petits commerces, points de vente mobiles, installations précaires, marché de l'occasion... Il s'agit souvent d'initiatives individuelles de cadres mis au chômage par la crise. A l'opposé, les multinationales, mieux gérées, regagnent des parts de marché par rapport aux concurrents locaux ruinés. L'espérance de vie d'un marché, c'est l'horizon de temps dont dispose l'entreprise pour exploiter un marché, et donc finalement le rentabiliser. Dans les pays comme les Etats-Unis ou l'europe, on peut considérer que cet horizon est rejeté à l'infini. Il n'en est pas de même dans les pays émergents. Si on retient ce critère de l'horizon de temps, on voit s'esquisser une typologie des marchés. D'un côté les pays à horizon de temps dégagé, sur lesquels des stratégies de long terme sont possible, de l'autre les pays à horizon couvert, voire bouché, sur lesquels soit des stratégies de retrait soit des stratégies de «jalon» sont envisageables. Une stratégie de jalon est une stratégie dans laquelle l'entreprise prend position, plante un jalon, quel que soit le contexte, dans l'espoir que la situation s'améliore ensuite. Ces stratégies son beaucoup utilisées dans les pays émergents. Seules des analyses de risque politique qui font appel à des données géopolitiques peuvent aider à élaborer cette typologie. Mais ces analyses de risquepays ont été confisquées par les financiers. Elles ne sont que trop rarement
commanditées ou utilisées par les responsables de marketing. Les financiers ont l'habitude de regarder dans leur portefeuille d'actifs ou de créances la part qui est exposée en risque politique. Les hommes de marketing feraient bien de s'inspirer de ces pratiques en dressant des cartes mettant en évidence les zones dans lesquelles les ventes ou les parts de marché sont exposées aux variations brutales de l'environnement politique. Les bulles de marché Les marchés apparaissent et disparaissent non pas comme on nous l'a appris dans les livres de marketing par une évolution de la demande des consommateurs, l'apparition de nouveaux besoins, la mondialisation des attentes des consommateurs et la croissance de leur pouvoir d'achat. Les marchés naissent et meurent par des phénomènes de ruptures. Tout se passe comme si les actions de marketing aboutissaient à la création de «bulles de marché», comme on parle de bulles financières ou de bulles de l'immobilier. Les marchés des biens de consommation tendent à ressembler à des marchés spéculatifs, comme les marchés financiers ou les marchés immobiliers. Le boom du téléphone portable ou des services sur Internet, la croissance des produits de luxe ou du marché de l'automobile sur certains marchés émergents, connaissent des syndromes assez proches de ceux des marchés hautement spéculatifs. Ces bulles finissent par exploser, et il devient dès lors très facile d'expliquer a posteriori que la demande à été surestimée, que le marché a connu un phénomène de «surchauffe», d'«overshooting» ou de «surdétermination». Ces termes issus de la finance gagneraient à être étudiés dans leur application au marketing. Il n'y a qu'à regarder l'impact de la crise asiatique sur certains grands groupes mondiaux fabriquant des produits de luxe. Les marchés tendent à s'affranchir des données démographiques et économiques pour être davantage déterminés par des données géopolitiques, autonomes par rapport aux évolutions plus strictement liées aux besoins des consommateurs et des clients. Il faut dire que les démographes ne cessent de réviser leurs chiffres à la baisse et que la diminution généralisée du taux de fécondité dans le monde est une des données de la démographie de la fin de ce millénaire. Depuis Paul Valéry, on savait que les civilisations étaient mortelles. On sait désormais que les marchés le sont également, et parfois subitement. Prolifération et dissémination La dématérialisation des échanges, le contenu toujours plus immatériel et virtuel des produits échangés ont considérablement accru le champ de ce qu'on appelle les «produits sensibles». Par la vente de licence, de franchise et par les accords de sous-traitance ou d'outsourcing, le risque de transfert indésirable de savoir-faire et de technologie s'accroît. Les techniques modernes de marketing international sont génératrices de «fuites technologiques» involontaires. En matière de flux de technologie, la situation géopolitique récente (fin de l'affrontement Est-Ouest et désorganisation des pays anciennement développés à économie étatique) a entraîné l'apparition d'une nouvelle forme de «commercialisation». A côtes des échanges de technologie qui caractérisent les flux entre pays développés et des transferts, qui caractérisent les flux des pays développés vers les pays moins développés, sont apparues des transactions nouvelles entre pays émergents sous la forme de dissémination et de prolifération. Il faut s'attendre à ce que ce mode de «commercialisation» s'étende à des
produits moins «sensibles» que les produits stratégiques pour lesquelles il est apparu. La diffusion du Viagra dans les pays en voie de développement relève certainement de cette approche commerciale. Les Etats dans le jeu concurrentiel Les Etats façonnent les marchés. On pourrait croire que cette affirmation est désormais dépassée, pour cause de libéralisation des échanges, de dérégulation dominante (déréglementation en français), de privatisation et de libéralisme triomphant. A y regarder de plus près, c'est la façon de faire de l'etat qui a changé. Quand l'union européenne veut «déréguler» -- comme on dit en jargon communautaire -- le transport ou les télécommunications, elle produit de la réglementation. Le droit européen de la concurrence est une énorme machine à produire de la réglementation destinée à lutter contre la réglementation. Le paradoxe n'est qu'apparent : la première est européenne, la seconde n'est que nationale. Ces sources nouvelles de droit influent sur l'ensemble des composantes de la politique de marketing : politique de tarification internationale, publicité comparative, emballage, distribution sélective etc... La nouvelle «grammaire des relations internationales» induite par la mondialisation a instauré des politiques étatiques qui ont un impact considérable sur les relations commerciales et donc sur les stratégies de marketing des entreprises. Les menaces ressenties par les Etats sur le plan de leur sécurité ne peuvent plus être contenues par les méthodes traditionnelles d'essence militaire. La sécurité d'un pays, compte tenu de la mondialisation, doit englober à la fois les dimensions stratégiques, économiques, technologiques et de défense. Les Etats cherchent à influencer les relations internationales. Ils passent d'une stratégie de puissance à une stratégie d'influence, d'une stratégie de domination à une stratégie d'optimisation. Les diplomaties nationales sont mises au service des ambitions économiques. Il semble désormais que la conquête de parts de marché, le contrôle de l'information et la maîtrise des technologies soient devenus des enjeux de politique étrangère plus importants que les conquêtes territoriales. Ils sont de toute façon plus légitimes aux yeux des citoyens. On voit bien à travers les grands conflits économiques qui opposent les Etats-Unis et l'europe (guerre de la banane, produits transgéniques), que les Etats-Unis cherchent autant à peser sur les relations économiques internationales qu'à peser dans ces relations. Ils peuvent y parvenir par exemple à travers les sanctions économiques. Aujourd'hui le Congrès américain a voté des sanctions économiques avec plus de 35 pays. C'est environ 20 % du commerce mondial qui est touché par ces mesures. Par ricochet, des entreprises européennes sont entravées dans leur développement par le caractère abusivement extraterritorial de ces mesures. Une diplomatie d'entreprise Les diplomates se plaignent parfois que les intérêts politiques passent au second rang derrière les principes de Realpolitik (qui sont en fait des principes de real economics). Par symétrie, les entreprises devraient se doter de compétences diplomatiques. A l'arme de la diplomatie économique mise en oeuvre par les Etats, devrait répondre un management diplomatique dont il reste à définir les contours. Ce que l'on sait c'est que cette diplomatie d'entreprise doit être partie intégrante de la politique de communication internationale de l'entreprise. L'entreprise sait envoyer un message à caractère commercial à un consommateur ou un client. Elle doit savoir également adresser un message à contenu diplomatique à un Etat ou à ses représentants. Dans le premier cas elle fait légitimement de la publicité, dans le second cas on lui dénie trop souvent le droit de faire de la diplomatie. Le lobbying qui s'est tant développé en Europe du fait de l'impact des décisions de la Commission sur la vie des affaires est une des manifestations de cette intense
activité diplomatique de l'entreprise. Le non report de l'échéance du 1er juillet 1999 pour la suppression des réseaux duty free en Europe est un échec collectif de la diplomatie d'entreprise dans le secteur du luxe. Le marketing international est rattrapé par la géopolitique. Il n'y a qu'un seul contexte international. La sphère du commercial n'est pas distincte de la sphère du politique. Il y aurait une myopie à nier l'emprise des problèmes de sécurité sur le commerce mondial. Dans la mondialisation le transnational concurrence l'international. L'internationalisation c'est la somme des flux de toute nature entre les nations. La mondialisation, c'est la résultante des jeux de tous les acteurs sur la scène internationale. Dans ce théâtre, les entreprises ne jouent plus seules. Chapitre 11 Retournement de tendances Recueillir, utiliser et analyser l'information n'est pas facile. Mais c'est à ce prix que l'entreprise pourra relever les défis engendrés par la révolution informatique sur les marchés. DAVID SOBERMAN Au fond de l'inconnu pour trouver du nouveau!» (Charles Baudelaire, 1857). Bien avant l'invention des semi-conducteurs et même bien avant la révolution informatique, Baudelaire évoquait déjà dans «Les Fleurs du mal», telle une prophétie, toute la magie de l'inconnu. Ces mots, qui ont toujours sonné juste, s'avèrent encore plus pertinents pour le professionnel du marketing d'aujourd'hui. Impossible de tourner la première page d'un journal économique sans tomber sur un article vantant les nouveaux services époustouflants qui feront le marketing du XXIe siècle. On peut y lire que Videotron réalise d'énormes investissements au Québec pour lancer une chaîne de shopping interactif sur la télévision câblée ou que le très ancien vépéciste Great Universal Stores tente aujourd'hui de se moderniser en se transformant en une véritable société de marketing direct. En vingt ans, nous sommes entrés dans l'ère de l'information. Ceux qui dirigent aujourd'hui les plus grandes marques mondiales ont senti mieux que personne tous les effets de ces changements. Dans cet article, nous traiterons les répercussions de cette révolution sur le marketing, et principalement les changements qu'elle entraîne sur la société, que ce soit dans le travail ou les loisirs. Acquérir une connaissance pointue des attentes du consommateur est l'étape essentielle pour lui offrir les produits et services qu'il est prêt à acheter. * Révolution de l'information et société La révolution de l'information ne se résume pas, bien sûr, au lancement d'une nouvelle catégorie de produits, l'ordinateur personnel. C'est un changement qui affecte l'organisation même de la société et les modes de communication. Pour comprendre ce bouleversement, il faut le situer dans le contexte d'autres avancées technologiques antérieures et de leur impact sur la société. - Le moteur à vapeur a fait perdre à la société une partie de son caractère rural. Finalement, cette machine et les autres inventions du début du XIXe siècle devaient entraîner l'industrialisation de la société, un phénomène qui obligea les individus à se rapprocher, afin de fournir la main-d'oeuvre nécessaire aux usines nouvellement
créées. - La production de masse a ôté un peu de son individualisme à la société. Ce facteur ainsi que les systèmes d'automatisation développés par Henry Ford et d'autres fabricants automobiles américains du début du XXe siècle ont mis en lumière tous les avantages que l'on pouvait tirer de la fabrication en grande série de produits similaires. La production de masse est à l'origine du développement de la puissance industrielle et de la hausse rapide du niveau de vie, mais aussi de la grande uniformisation des comportements d'achat. Au début des années 20, par exemple, tous les Américains, de la côte Pacifique jusqu'à la pointe de la Nouvelle- Angleterre, conduisaient la même Ford T noire. - Avec les mass media, la société a acquis une connaissance commune. L'un des effets les plus significatifs de l'avènement des mass media est d'avoir permis à des populations situées dans des pays, voire des continents différents, de regarder les mêmes actualités, divertissements et événements sportifs. Sans vouloir être cynique, on peut dire que si l'humanité a fait des progrès technologiques immenses depuis le début du XIXe siècle, progrès qui ont amélioré la santé de l'homme et l'ont rendu plus heureux, cette évolution a eu aussi pour conséquence d'homogénéiser l'organisation de la société. On vit plus près les uns des autres, on mange la même chose, on pense la même chose et on s'habille de la même manière. Aujourd'hui, la révolution de l'information donne la possibilité de changer cela. - Tout d'abord, elle favorise le retour vers une vie moins urbaine puisque l'on peut travailler, apprendre, se distraire et faire ses courses dans les limites d'une petite communauté rurale, voire à domicile. Il n'est plus nécessaire de se rendre à l'usine ou au bureau pour gagner sa vie. Je connais en France, par exemple, un jeune programmateur qui travaille chez lui à la campagne pour une société à Tel Aviv. Une situation extrême, il est vrai, mais qui montre bien que l'on peut travailler très efficacement chez soi, avec un ordinateur. - Cette révolution tend à renverser le phénomène d'uniformisation engendré par la production de masse et l'automatisation. Aujourd'hui, les entreprises peuvent exploiter l'information et la technologie pour offrir à chaque consommateur des produits et services sur mesure. L'ordinateur avec lequel j'ai écrit cet article, par exemple, a été fabriqué selon mes propres exigences en termes de puissance, de commandes, de systèmes de communication et de capacité. Il n'y a probablement aucun autre ordinateur au monde qui lui soit absolument identique, ce qui aurait été impensable il y a seulement vingt ans. - L'informatique et la communication vont faire éclater le «village global» annoncé par Marshall McLuhan dans les années 60. On le constate déjà avec la télévision : la multiplication rapide des choix a provoqué une baisse sensible de l'audience des émissions les plus regardées. Toutefois, il est évident que l'on verra émerger de nouveaux courants de communication au fur et à mesure que des individus de même sensibilité échangeront des produits, des idées et des informations, indépendamment de la distance qui les sépare. L'expression qui décrit le mieux cet impact de la révolution de l'information sur la société est probablement celle de retournement de tendance. Il semblerait que l'information renverse les grandes tendances de la société et défait nombre des mécanismes considérés comme typiques de la société du XXe siècle.
* Impact sur le marketing Envisageons maintenant les répercussions de ces évolutions pour les professionnels du marketing. L'idéal est de partir des trois renversements de tendance que je viens d'évoquer. Si l'on accepte l'idée que la révolution de l'information augmentera le nombre d'individus travaillant à domicile, les incitera à s'éloigner des grandes villes et réduira les trajets du domicile au lieu de travail, on en déduit que la société deviendra plus hétérogène (au moins à court terme). Cette situation pose un problème énorme au professionnel du marketing. En effet, l'un des principes du marketing est de rassembler par segments les individus de même sensibilité avec les mêmes besoins, pour que les entreprises puissent produire de manière rentable une offre de produits ou de services adaptée à la demande d'un ou de plusieurs segments de marché. Pour que cette approche soit efficace, il faut en premier lieu que les segments soient suffisamment larges pour justifier une offre sur mesure et, en second lieu, que la société s'adresse à un nombre suffisant de segments pour assurer sa rentabilité. Dans ce contexte, on comprend que l'hétérogénéité est un sérieux problème, et ce pour les raisons suivantes : - l'existence de multiples segments différents rendra beaucoup plus difficile la conception d'une offre adaptée à chacun ; - l'identification des attentes de chaque segment deviendra plus délicate, car il sera plus ardu de trouver des individus représentatifs de ces segments en raison de l'éclatement de la société ; - enfin, la demande de ces segments sera plus large et plus différenciée à cause de la plus grande hétérogénéité régnante. Pour faire face à ces problèmes, le marketing devra recueillir une plus grande information sur les clients et une information de meilleure qualité. L'avenir est aux entreprises qui assimileront cette nouvelle hétérogénéité et seront capables de concevoir une nouvelle approche du marché intégrant tous ces changements. Le second défi auquel se trouve confronté le marketing est le changement d'attitude des clients, qui demandent des produits adaptés à leurs besoins spécifiques. Dans un certain sens, des sociétés comme Dell et Panasonic créent un vrai problème pour tous les fabricants. Auparavant, les clients se contentaient de produits qui leur offraient une valeur satisfaisante pour le prix demandé. Ceci explique en grande partie la popularité aussi bien des voitures Volkswagen que des hamburgers MacDonald. Mais, le consommateur savait qu'il achetait un produit standardisé parfaitement identique à celui acquis par le client juste avant lui ou juste après lui. Dell (avec les ordinateurs personnels) et Panasonic (avec les bicyclettes) ont certainement gagné un avantage concurrentiel à court terme en offrant des produits sur mesure à leurs clients. Mais à long terme, les clients attendront des produits et services personnalisés de la part de tous les concurrents rivalisant dans de multiples catégories de produits. Les sociétés qui réussiront seront celles qui reconnaîtront cette évolution des attentes du consommateur et seront prêtes à y répondre.
Désormais, l'entreprise ne sera plus seulement obligée de recueillir l'information, mais aussi de développer des stratégies pour l'exploiter. Ces stratégies suppose des décisions difficiles, y compris des choix dépassant la simple question de la personnalisation d'un produit ou d'un service : quels produits adapter? Comment les personnaliser pour chacune des cibles auxquelles l'entreprise a choisi de s'adresser? Pour finir, l'éclatement des médias lance un terrible défi à la grande distribution dans de multiples catégories de produits traditionnels. Aujourd'hui, la communication est l'un des outils essentiels que l'homme de marketing doit gérer et maîtriser pour assurer la rentabilité de l'entreprise et les mass médias (presse et radiodiffusion) restent les principaux supports utilisés pour véhiculer des informations importantes sur les produits et services. Auparavant, les sociétés qui offraient des produits ayant un attrait général pouvaient s'appuyer sur la communication en masse pour atteindre un vaste public. D'ailleurs les techniques de publicité dans les mass médias se sont beaucoup affinées depuis les premiers jours de la télévision et on peut affirmer que de nombreuses sociétés ont trouvé des moyens créatifs et efficaces pour développer leur notoriété et communiquer l'information permettant au consommateur de prendre sa décision. Cependant, aujourd'hui, elles se trouvent confrontées à une nouvelle série de problèmes. - Du fait de la fragmentation des médias, elles ne peuvent plus s'appuyer sur les mass médias pour communiquer un message à un large public. Au contraire, elles ont besoin de supports complémentaires. - Les coûts de création sont très élevés et les approches qui étaient valables pour la télévision ne le sont pas nécessairement pour d'autres médias (ou supports). - La télévision et la radio sous leur forme classique gardent leur importance, mais les nouveaux supports comme la télévision interactive et les sites Internet gagnent une partie significative du public (près de 40 % de la population américaine a accès à Internet). De plus, les agences de publicité n'ont pas encore d'expertise sur la façon d'utiliser au mieux ces médias pour communiquer avec le consommateur. Si cet éclatement des médias tend à compliquer la vie de la grande distribution, il pourrait bien être une aubaine pour les fabricants de produits de niche. Jusqu'à maintenant, il leur était difficile de communiquer car la publicité dans les mass médias était trop coûteuse par rapport à la taille des cibles qu'ils visaient et aux volumes de ventes qu'ils réalisaient. Souvent, ils avaient recours à des mécanismes comme la publicité dans la presse spécialisée, le bouche-à-oreille ou les relations publiques. Désormais, ils peuvent toucher leurs cibles de façon efficace par le biais des supports spécialisés. Aux États-Unis, par exemple, un fabricant de déflecteurs peut très bien faire de la publicité sur la chaîne Men and Motors ou encore un bar réservé aux gay peut se faire connaître sur les chaînes qui s'adressent à cette communauté. Cette prolifération des chaînes s'est accompagnée d'une augmentation du nombre d'émissions spécialisées. Aujourd'hui, une société de matériel de jardinage ou un fabricant de planches de surf ou de clubs de golf trouvera des émissions ciblées sur son marché spécifique, ce qui rend très abordable le prix unitaire du message publicitaire. Par conséquent, ce qui permettra avant tout de réussir aux sociétés, sur les marchés de masse comme de niche, ce sera leur capacité à analyser la quantité
d'informations qu'elles auront accumulée sur les clients potentiels. Les fabricants de produits de masse doivent apprendre à identifier les marchés de niche intéressants (en termes de volumes et de profits) et accessibles (en termes de communication). Offrir un produit ou un service demandé par le consommateur n'est plus une garantie de succès aujourd'hui. Il faut en plus trouver le message et les médias appropriés pour lui apporter ce qu'il souhaite savoir sur ce produit ou service. En revanche, les fabricants de produits de niche devront exceller dans l'art de choisir les médias, comme la télévision, qui jusque là étaient inabordables pour eux. Recueillir, utiliser et analyser l'information n'est pas une tâche facile. Mais, c'est à ce prix qu'une entreprise sera en mesure de relever les nouveaux défis engendrés par les renversements de tendance évoqués dans cet article. Ce n'est qu'en nous familiarisant à l'inconnu par un usage sophistiqué de l'information que l'on pourra satisfaire les nouvelles demandes du consommateur. Créer de la valeur pour le consommateur avec Internet C'est par la création de valeur pour le consommateur que le marketing pourra le plus souvent profiter des opportunités offertes par Internet. JACQUES LENDREVIE Il y a trois méthodes pour conquérir et fidéliser les consommateurs : des prix plus bas, de la valeur ajoutée que le marché accepte de payer (c'est l'objet essentiel du marketing), ou les deux à la fois (c'est-à-dire plus de valeur pour moins cher). C'est évidemment la méthode la plus efficace, mais il est plus rare d'y arriver - de façon profitable, cela s'entend! * Internet et les prix : un avantage considérable pour les consommateurs, des soucis en plus pour les entreprises, en raison d'une concurrence accrue Médium d'information, Internet facilite pour le consommateur une comparaison plus large et plus objective de l'offre et des prix, par l'abondance et l'actualité des données et par l'aide apportée par les moteurs de recherche, les «agents intelligents» dont les nouveaux courtiers électroniques, comme Autobytel, access.com, zdnet.com, qui font profession de chercher, pour le compte du consommateur, la meilleure offre au meilleur prix. Le Web améliore la transparence du marché et stimulera donc la concurrence par les prix. Permettra-t-il aux entreprises de baisser leurs coûts? Oui, dans trois types de situations au moins : 1. Lorsque toute l'économie d'un secteur est bouleversée par la révolution numérique. C'est le cas lorsque les produits ou services sont numérisables : édition, formation, services financiers... La chaîne de valeur de l'entreprise se trouve transformée, de la conception des produits à leurs modes de production et de distribution. 2. Lorsque Internet supprime les intermédiaires traditionnels en baissant les marges et les prix (courtage boursier par E*Trade.com par exemple). 3. Lorsque Internet permet d'inverser, à moindre coût, la filière production-vente, en vendant d'abord ce qui est produit ensuite. Dell, dans le matériel informatique, fait ainsi 3 millions de dollars de chiffre d'affaires par jour.
En dehors de ces cas précis, le recours à Internet ne devrait pas permettre d'abaisser substantiellement les coûts, et donc les prix. Bien au contraire, puisqu'en toute logique, le marketing «one-to-one» est plus onéreux que le marketing de masse ou de segments. La publicité sur Internet, média atomisé, n'est pas, pour l'instant, compétitive en coût au contact avec les médias de masse traditionnels. Enfin, les budgets pour développer la notoriété des sites de commerce électronique et créer du trafic sont considérables. Amazon.com, toujours déficitaire, y consacre un quart de son chiffre d'affaires! Pour les produits tangibles de grande consommation, l'apport d'internet se fera plus sur la valeur ajoutée apportée au consommateur que sur la baisse des coûts et sa répercussion sur les prix. * Dans tous les secteurs, Internet offre de nouvelles opportunités de création de valeur pour le consommateur Si le champ de la créativité marketing est a priori infini, les sources de valeur ajoutée peuvent être organisées autour de trois pôles principaux : produit, marque, relation. 1. Internet et la valeur ajoutée par le produit et les services associés - Personnalisation des produits et services, dans la mesure où cela correspond à une véritable attente du marché ; - Plus d'information et un meilleur conseil : le Net peut relayer utilement la publicité et les packagings, dont les formats se prêtent mal à une information abondante et adaptée aux cas particuliers ; - Assortiment considérablement élargi alors qu'il est actuellement restreint par l'étroitesse des linéaires. MotherNature.com offre sur son site plus de 30.000 références de produits diététiques, alors que le rayon correspondant d'un hypermarché est, en moyenne, limité à 200 références. 2. Internet et la valeur ajoutée par la relation Il y a deux types de marketing relationnel : avec les clients de l'entreprise (les intermédiaires), et avec les consommateurs. Internet peut être très efficace pour améliorer, à moindre coût, les relations de l'entreprise avec ses clients et les communautés (médias, leaders d'opinion) qui influencent le marché. Quant à la relation avec le consommateur final, elle est souvent, malgré ce qu'on en dit, le parent pauvre des politiques actuelles de marketing. Le contact direct avec le consommateur final a souvent été délaissé par les producteurs au bénéfice de la distribution. Internet permet aux entreprises de renouer un véritable lien avec leurs consommateurs en contournant la distribution, et donc en reprenant du pouvoir sur elle. A moins que la grande distribution ne soit la première à exploiter les atouts d'internet à l'exemple de Wal-Mart.com aux Etats-Unis. 3. Internet et la valeur ajoutée par la marque L'apport d'internet est, pour l'instant, moins évident pour la valorisation des marques qui ne sont pas nées sur le Web. Les limites technologiques actuelles en font un piètre moyen pour susciter l'émotion nécessaire aux imaginaires de marque, surtout pour les produits à faible implication. Les discours de marques doivent être réinventés pour Internet, tout comme il faut imaginer, dès maintenant, les réponses à donner à la rumeur et au consumérisme électroniques dont on découvre
tous les jours la formidable puissance (voir untied.com, par exemple). Au total, l'impact d'internet sera plus sélectif qu'on ne le dit généralement. Il sera révolutionnaire lorsque le tout numérique bouleversera les modes et les coûts de production et de commercialisation. Dans les autres cas, Internet est une fenêtre ouverte à la créativité du marketing pour offrir plus de valeur au consommateur, avec toutefois un paradoxe étonnant : médium d'information, Internet favorisera la concurrence et donc l'infidélité des consommateurs ; médium de relation, Internet sera un outil de fidélisation! Les nouveaux intermédiaires dans une économie en réseau L'avènement de médiateurs très spécialisés, puis de «métamédiateurs» chargés de regrouper les multiples offres des premiers, devrait améliorer les transactions commerciales électroniques. MOHANBIR SAWHNEY L'objectif du marketing est de maximiser la valeur des échanges entre acheteurs et vendeurs. Ces échanges sont facilités par des intermédiaires intervenant sur différents circuits commerciaux, lesquels apportent une «valeur ajoutée» en réduisant le coût des transactions. D'après la théorie sur les coûts des transactions, les entreprises s'organisent de façon à minimiser ces derniers. Elles ont recours à des médiateurs, car les transactions obtenues par médiation sont plus rentables que celles effectuées en direct. Si des sociétés estiment être plus à même d'assurer elles-mêmes ces fonctions sur les différents circuits commerciaux, elles choisiront de traiter directement avec leur clientèle. Ce phénomène de «désintermédiation» est reconnu comme l'une des caractéristiques définissant la future économie organisée en réseau électronique. Des sociétés à l'image d'amazon.com, Dell, E*Trade et Travelocity sont présentées comme étant l'avenir de la médiation. A en croire les experts, les intermédiaires mourront sur les méga-autoroutes de l'information. La réalité est plus complexe. Premièrement, la désintermédiation n'est pas un phénomène du «tout ou rien». Elle peut apparaître au niveau des fonctions individuelles associées aux différents circuits commerciaux. Dans ce cas, les intermédiaires traditionnels ne sont pas éliminés, mais sont condamnés à assumer un moins grand nombre de fonctions. Les fonctions liées aux différents circuits commerciaux peuvent être dissociées les unes des autres et assumées par des médiateurs spécialisés. De plus, la désintermédiation ne peut pas réduire le coût global de la transaction parce qu'elle implique le transfert de certaines fonctions liées aux circuits commerciaux aux clients. Ceux-ci doivent eux-mêmes chercher, évaluer, négocier et configurer les produits en l'absence de médiateurs. La réduction du coût global des transactions requiert la présence de nouveaux intermédiaires pour aider les clients dans leur procédure de recherche et de négociation préalable à la transaction. Dernier point, la désintermédiation repose sur une conception classique des produits et des marchés. Elle intervient dans le cadre strict des définitions des limites des secteurs d'activité. Définitions de moins en moins significatives dans un contexte de convergence des marchés et des secteurs. Repenser la médiation requiert de redessiner ces limites des secteurs et des marchés. L'économie organisée en réseau électronique donnera naissance à des médiateurs
d'un genre nouveau. Nombre de ces sociétés n'auront pas d'équivalent dans le monde prénumérique («analogique») et n'y seront que peu présentes physiquement, voire totalement absentes. Ces nouveaux médiateurs devront leur existence au commerce électronique et, à leur tour, ils permettront l'avènement du commerce électronique. Ils se substitueront à long terme aux intermédiaires classiques et permettront la création de concepts commerciaux beaucoup plus performants. L'avenir de la médiation Pour comprendre ces nouveaux médiateurs et l'avenir de la médiation, nous devons considérer trois différents aspects d'internet. * Désintermédiation : connexions grâce au Net Le réseau Internet est révolutionnaire : il connecte des entreprises entre elles ou avec leurs clients, des individus à d'autres individus sans considération de temps, d'espace et de configurations matériel/logiciel. Les entreprises peuvent se connecter à leurs partenaires commerciaux à un coût largement inférieur à celui des réseaux d'échange de données électroniques de marque, et en bénéficiant de surcroît d'une flexibilité beaucoup plus grande. Le réseau Trading Process Network de General Electric, qui relie GE à ses fournisseurs via Internet, réduit considérablement le coût et la durée des opérations d'achat. Ingram Micro, société spécialisée dans la vente en gros d'ordinateurs, a recours à Internet pour gérer le stock de ses revendeurs informatiques. Les clients peuvent se connecter aux entreprises pour rassembler des informations, évaluer ou configurer des produits, passer des commandes et obtenir une assistance technique. Dell est devenu un leader en commerce électronique grâce au Web qui lui permet de se connecter avec ses clients et d'assurer ainsi la configuration, la passation des commandes de ses produits et la fourniture d'une assistance technique. Cisco commercialise 64 % de ses produits, assure 90 % de ses extensions de configuration logicielle et répond à 70 % des demandes d'assistance de sa clientèle via Internet ; résultat : une économie de plus de 385 millions de dollars en 1997. Des individus peuvent se connecter à d'autres personnes afin de créer des groupements commerciaux. Des acheteurs peuvent par exemple se regrouper (comme le Grocery Network) ; on peut également assister à des regroupements entre acheteurs et vendeurs dans le cadre de transactions où le prix doit être négocié (comme ebay). L'amélioration des connexions réduit considérablement le coût des communications et de la coordination dans les transactions d'échange. Au sein d'une économie organisée en réseau électronique, les entreprises peuvent se passer des intermédiaires qui ont traditionnellement facilité le flux de transmission des informations et des produits entre les sociétés et leurs clients. La désintermédiation commence à exercer son emprise sur nombre de secteurs d'activité. Des sociétés telles que Travelocity (voyages), Insweb (assurances), Wells Fargo (services bancaires grand public), Schwab (placements) et Amazon.com (ventes de livres) établissent directement le contact avec leur clientèle, éliminant les détaillants et d'autres intermédiaires intervenant sur les circuits commerciaux. * Déconstruction : une dissociation imputable au Net
Une analyse plus approfondie de la désintermédiation souligne que la disparition de tout médiateur s'accompagne de l'émergence de plusieurs autres intermédiaires. Amazon.com vend directement des livres aux clients, mais a recours à Ingram Books pour entreposer ces mêmes livres, à UPS et Airborne Express pour l'exécution de ses commandes et à America Online pour sa publicité. Autobytel.com reçoit des demandes d'achats de véhicules automobiles via Internet, mais les commandes sont exécutées par des concessionnaires traditionnels. Dans tous ces cas, le réseau Internet permet de dissocier l'information du produit matériel, et le produit de base des articles complémentaires. La plupart des produits comportent un composant matériel et un élément d'information. Quand des clients achètent un appareil photo ou une voiture, ils acquièrent dans le même temps des informations sur ce produit. Par ailleurs, lorsqu'on achète des articles plus complexes, on se porte également acquéreur de produits et de services complémentaires. Ainsi, un ordinateur requiert un logiciel, un appareil photo ne peut fonctionner sans objectif et l'on vous vend une voiture avec une garantie, un financement et des accessoires en option. Dans le monde analogique, l'information est souvent indissociable du produit matériel, et le produit de base est souvent commercialisé avec ses articles complémentaires. Les médiateurs caractérisés par une intégration verticale fournissent des prestations et des offres groupées. Un exemple : les acheteurs de véhicules automobiles comptent sur leurs concessionnaires pour tout ce qui est information, négociation, financement, pièces de rechange, garanties et livraison. Cette centralisation des fonctions et des offres assure un service «à guichet unique» aux consommateurs, qui seraient sinon appelés à traiter avec plusieurs fournisseurs. Mais cette centralisation implique également des compromis, car ces intermédiaires verticalement intégrés ne sont pas souvent les fournisseurs les plus performants ni les plus économiques de prestations spécifiques ou de produits complémentaires. Ainsi, les concessionnaires automobiles utilisent souvent des ventes de voitures neuves comme produit d'appel, pour commercialiser des extensions de garanties, des financements et des accessoires avec des marges plus élevées. Au sein d'une économie organisée en réseau, les flux de transmission de l'information peuvent être dissociés, dans le temps et l'espace, des flux de distribution des produits matériels. Les consommateurs peuvent en effet rechercher l'information, évaluer, négocier, régler et prendre livraison des produits à toute heure et auprès de différents fournisseurs. A l'instar du magnétoscope qui permet à ses utilisateurs de dissocier la transmission de la vision de programmes télévisés, Internet permet à ses clients de séparer les flux sur les différents circuits au niveau des échanges. Autrement dit, des médiateurs intégrés peuvent être remplacés à la fois par des «intermédiaires spécialisés intervenant dans l'espace commercial», qui gèrent les flux de transmission de l'information, et un groupe d'«intermédiaires spécialisés intervenant sur le lieu commercial», le marché, qui gèrent les flux de distribution de produits réels. Cette déconstruction des flux empruntant différents circuits apporte des avantages conséquents aux consommateurs qui peuvent ainsi associer et assortir les meilleurs prestataires de chacun de ces services. Cette déconstruction présente toutefois des inconvénients. Elle exige des consommateurs une beaucoup plus grande disponibilité. Au lieu de traiter avec un seul médiateur verticalement intégré, les consommateurs doivent désormais négocier avec une multitude d'intermédiaires spécialisés. Ils doivent rechercher, évaluer et rassembler l'information émanant de tout un éventail de prestataires. Qui plus est, ils doivent effectuer cette recherche sur Internet, où l'information est médiocrement organisée et de qualité incertaine.
D'un côté, les consommateurs sont gagnants en découvrant sur Internet des prestataires de services plus spécialisés, à moindre coût, mais, de l'autre, ils sont perdants compte tenu des frais de recherche et d'évaluation accrus qu'ils encourent. Cette augmentation des frais de recherche se traduit par une hausse des coûts d'acquisition de la clientèle et des frais marketing pour les prestataires de services. L'avenir de la médiation - considéré sous le seul angle de cette déconstruction - est manifestement loin d'être satisfaisant. * Métamédiation : repositionnement grâce au Net Les offres et les flux des différents circuits ainsi déconstruits doivent être réassemblés de façon à réduire les frais de recherche et d'évaluation assumés par la clientèle. Une nouvelle race de sociétés de médiation voit le jour ; elles ont pour mission d'informer et de conseiller les clients, et de simplifier leurs transactions avec les fournisseurs de produits et de services. Ces intermédiaires, que je qualifierai de «métamédiateurs», contribuent à améliorer considérablement l'efficacité et les performances des transactions au sein de l'économie organisée en réseau électronique. Ils redessinent également les lignes de démarcation des marchés en créant des métamarchés qui n'ont pas d'équivalents dans le monde matériel. Le concept de métamarché résulte d'une simple, mais néanmoins profonde, réflexion : les consommateurs conçoivent les produits et les marchés très différemment de la façon dont ils sont regroupés et commercialisés sur le marché réel. Cette divergence existe car les clients raisonnent en termes d'activités, alors que les sociétés pensent en termes de produits. Des activités qui sont logiquement corrélées dans l'esprit des clients peuvent être réparties dans des secteurs d'activité très différents, et être assurées par des prestataires de services également très divers. Ces activités connexes constituent un métamarché : un groupe d'activités corrélées sur un plan cognitif utilisées par les clients pour satisfaire un ensemble précis de besoins. Les frontières de ces métamarchés sont définies par des activités qui sont étroitement corrélées dans l'espace cognitif, et non pas par le fait qu'elles sont créées ou commercialisées par des entreprises connexes dans des secteurs d'activité liés. Par exemple, les activités liées à l'accession à la propriété immobilière. D'un point de vue «activité», les clients considèrent l'achat, le financement, l'entretien, la réparation et l'amélioration de leur habitat comme étant logiquement liés. Cet ensemble d'activités peut être considéré comme un «métamarché de la propriété immobilière». Or, sur ce marché, la réalité est tout autre : les propriétaires immobiliers doivent traiter avec des agents immobiliers, des banques, des sociétés de crédit foncier, la presse, les plombiers, les électriciens, les jardiniers, les services de nettoyage, les boutiques spécialisées dans l'amélioration de l'habitat, les architectes et les décorateurs d'intérieur pour exécuter ces activités et satisfaire cet éventail de besoins connexes. Ce faisant, les clients doivent chercher, évaluer et négocier avec un grand nombre de fournisseurs de produits et de services. La figure 1 (page VI) illustre cette discontinuité entre l'espace cognitif et le marché dans le cas du métamarché de l'automobile. Les métamarchés peuvent se construire autour des principaux événements de la vie - naissance d'un enfant, éducation, changements de carrière et retraite... - et des principaux biens. Entre autres, l'habitat, l'automobile, les bateaux et des actifs financiers. La viabilité d'un métamarché dépend de la satisfaction d'un certain nombre de conditions capitales, à savoir :
- On est confronté à un riche éventail d'activités connexes centralisées ; - Ces activités sont importantes sur le plan de leur impact économique et requièrent une grande disponibilité de la part du client ; - Pour réaliser ces activités, les clients doivent réunir l'information émanant de nombreuses sources fragmentées ; - Pour réaliser ces activités, les clients doivent également négocier avec nombre de fournisseurs de produits et de services opérant sur plusieurs secteurs d'activité ; - Les intermédiaires caractérisés par une intégration verticale qui assurent actuellement les prestations sur différents circuits sont innefficaces et l'expérience d'achat est déplaisante. * A la rencontre du métamédiateur Une fois assimilé le concept de métamarché, il devient facile de comprendre la mission assignée aux métamédiateurs. Ces métamédiateurs sont des personnes de confiance, agissant en qualité de tiers sur le réseau Internet (l'«espace commercial»), afin que le marché reflète précisément la centralisation des activités, telle que la conçoivent sur un plan intellectuel les clients. Les métamédiateurs permettent l'avènement de métamarchés en regroupant les produits et les services proposés sur un métamarché en un ensemble homogène. Ils constituent un point unique de contact entre acheteurs et vendeurs sur un métamarché. A la différence des intermédiaires intervenant les circuits, les métamédiateurs ne représentent pas les fournisseurs de produits et les prestataires de services. Ils représentent plutôt les clients lors de leurs négociations avec les fournisseurs de produits et de services. Ils confèrent le pouvoir aux clients et facilitent les échanges, sans participer réellement aux transactions. Ils ne gagnent pas leur vie grâce aux droits prélevés sur les transactions, la publicité ou l'abonnement. Ils regagnent une certaine valeur en recouvrant un droit de référence auprès des partenaires pour chaque connexion qu'ils établissent entre un client et un prestataire. Les métamédiateurs ne sont pas des centralisateurs au sens traditionnel du terme. Les centralisateurs associent des offres de produits et de services du point de vue du fournisseur, alors que les métamédiateurs regroupent des activités en se plaçant du point de vue du client. Considérons un centralisateur tel qu'insweb, qui regroupe des informations sur toute une gamme de produits d'assurance provenant d'un certain nombre de compagnies d'assurances. Insweb centralise des informations sur l'assurance de biens immobiliers, l'assurance-vie et l'automobile. Or, les clients peuvent considérer l'assurance de biens immobiliers comme faisant partie intégrante du «métamarché de l'immobilier», l'assurance-vie comme faisant partie du «métamarché du mariage» ou «des relations parentales» et l'assurance automobile, du «métamarché de l'automobile». Les métamédiateurs font leur apparition dans plusieurs domaines (tableau 1). Edmund Publications (http://www.edmunds.com) est l'un des prétendants au rôle de métamédiateur dans le secteur automobile. Edmund's a créé une franchise spécialisée dans la transmission d'informations précieuses : il fournit des informations sur les prix des voitures neuves et d'occasion, les stocks et les frais des concessionnaires, la fiabilité, les conseils en matière d'achat de véhicules et des études automobiles. Son site attire plus de
80.000 visiteurs par jour, et il se classe parmi les sites automobiles les plus en vogue sur Internet. Au fil du temps, Edmund's a canalisé ce flux de clients vers un certain nombre de partenaires qui fournissent des prestations sur différents circuits spécifiques : Autobytel.com pour la négociation et la recherche de concessionnaires ; CarFinance.com pour le financement ; Price Auto Outlet pour des voitures d'occasion ne bénéficiant pas d'un crédit-bail ; JC Whitney pour les pièces de rechange ; Geico pour l'assurance et Warranty Gold pour les extensions de garanties. Les clients peuvent visiter le site d'edmund's afin de rassembler des informations, négocier, évaluer, financer, acquérir, s'assurer et acheter des pièces de rechange, tous ces services étant disponibles en un même lieu. Il gagne de l'argent en adressant des acheteurs de véhicules à un petit groupe de partenaires stratégiques qui assurent des prestations sur différents circuits spécifiques et fournissent des produits complémentaires. En procurant un point unique de contact entre l'ensemble des acheteurs et des vendeurs de voitures, Edmund's a repositionné les produits et les services de l'industrie automobile, afin de refléter l'ensemble des activités qui constitue le métamarché de l'automobile (figure 2). Ce repositionnement accroît la performance des transactions aussi bien pour les clients que pour les vendeurs. Il réduit les coûts de recherche pour les clients et les coûts d'acquisition d'une clientèle pour les vendeurs. Il permet aussi de regrouper les acheteurs au sein d'une communauté où ils peuvent échanger des conseils. La fin des heurts? Les métamédiateurs à l'image d'edmund's peuvent mettre un terme au gaspillage de milliards de dollars constaté au niveau des transactions. Considérons les chiffres. En 1997, près de 15 millions de voitures neuves et de fourgonnettes ont été commercialisées aux Etats-Unis à un prix moyen de 20.000 dollars. Près d'un tiers du prix au détail (soit 6.700 dollars par voiture) correspondait aux frais de promotion, de distribution et aux primes d'encouragement aux concessionnaires ; le coût total de la transaction atteignait ainsi plus de 100 milliards de dollars. Les concessionnaires automobiles ont dépensé à eux seuls près de 5 milliards de dollars en publicité grand public. Les consommateurs et les concessionnaires ont investi 15 milliards de dollars dans la publicité par petites annonces. D'autres milliards ont été dépensés par des compagnies d'assurances, des sociétés de financement et des fournisseurs de pièces de rechange. En 1997, Edmund's a adressé plus de 500.000 clients à des concessionnaires automobiles par le biais d'autobytel.com ; Edmund's a estimé réduire de 300 à 40 dollars le coût encouru par un concessionnaire pour décrocher un acheteur d'un véhicule automobile possédant les qualités requises. En admettant que ces chiffres soient exacts, Edmund's aurait permis aux concessionnaires automobiles de réaliser une économie largement supérieure à 100 millions de dollars. Edmund's adresse également chaque mois des milliers de clients à ses autres partenaires commerciaux, qui proposent pour leur part des prêts automobiles, des extensions de garanties et des assurances à des tarifs de 15 à 30 % inférieurs à ceux du marché. La société est par ailleurs en mesure de réduire les dépenses de publicité par petites annonces en regroupant les acheteurs et les vendeurs au sein d'un forum commun. Tous ces chiffres devraient progresser compte tenu du nombre croissant de ménages qui se connectent et utilisent Internet pour effectuer leurs transactions automobiles. Selon les estimations de Chrysler, une voiture sur quatre aux Etats- Unis sera achetée via Internet d'ici à 2000. Même si l'évolution des métamédiateurs implique à la fois une désintermédiation et une ré-intermédiation, elle va bien au-
delà de ces concepts. Edmund's a en effet redessiné les limites du marché automobile. Ce faisant, il a inspiré une multitude de sociétés de médiation spécialisées. Les médiateurs traditionnels (concessionnaires) sont condamnés à assurer un moins grand nombre de fonctions, telles que proposer des essais de route et l'entretien des véhicules. Il n'est pas difficile de concevoir la suppression même de ces prestations en raison de l'émergence de points de vente multimarques spécialisés dans les essais de route ainsi que dans la réparation et la maintenance. L'espace cognitif : un enjeu En assurant un point unique de contact entre les clients et les vendeurs, les métamédiateurs font plus que réduire les gaspillages constatés au niveau des transactions. Ils acquièrent également le contrôle des relations avec la clientèle. Ils font office de «standard» qui achemine l'ensemble des transactions d'échange entre acheteurs et vendeurs. Cette fonction de plaque tournante deviendra de plus en plus puissante à mesure que les communautés d'acheteurs et de vendeurs se développeront, engendrant un cercle vertueux de hausse du trafic clientèle, un intérêt accru pour les prestataires de produits et de services et un encore plus grand intérêt pour les clients. En se positionnant au centre de ce Web en plein développement, les métamédiateurs peuvent ainsi contrôler les précieux «noeuds d'étranglement» du cyberespace. Les métamédiateurs peuvent également accroître leur implication dans leurs Webs en créant des connexions entre acheteurs et entre vendeurs. Ainsi, Edmund's a créé un centre de discussion où des dizaines de milliers d'acheteurs discutent de sujets divers ayant trait à l'automobile. De telles informations provenant d'utilisateurs constituent une source puissante d'avantages concurrentiels durables. Côté fournisseurs, Edmund's établit des liens entre fournisseurs, en assurant par exemple le financement par CarFinance.com des pièces de rechange vendues par JC Whitney ou en associant le financement par CarFinance.com aux ventes de voitures d'occasion via PriceAutoOutlet.com. Ces liens horizontaux entre fournisseurs accroissent l'assise d'edmund's et permettent aux vendeurs d'effectuer des ventes croisées et de créer de nouvelles offres groupées, qu'il aurait été très difficile de mettre en place sur le marché réel. Au sein d'une économie organisée en réseau électronique, ces rapports constituent un atout précieux que les métamédiateurs peuvent continuer d'utiliser comme fer de lance pour instituer de nouveaux partenariats. En nouant des rapports aussi étroits avec la clientèle, les métamédiateurs acquièrent effectivement un «espace cognitif» dans l'esprit des clients. Cet espace correspond aux activités les plus importantes que l'on assume et aux biens les plus précieux que l'on possède. Mais la zone commercialement viable est restreinte. La compétition est ouverte : à chacun de revendiquer ses droits. Une nouvelle dimension avec les médias numériques Avec les médias numériques, le marketing allie l'interpellation individuelle, une capacité de réaction instantanée et un impact planétaire, tout en développant des opportunités d'achat et d'accès à l'information pour le consommateur. PATRICK BARWISE ET JOHN DEIGHTON Demandez à n'importe quel directeur du marketing de vous citer les plus importants problèmes auxquels il est confronté depuis ces cinq dernières années. Neuf fois sur dix, il vous répondra «les nouveaux médias» et «la technologie numérique». En effet, la technologie numérique a de nombreuses répercussions
sur le marketing. A l'instar d'autres fonctions, les services de marketing, et surtout des ventes, ont de plus en plus recours à l'informatique dans leurs communications quotidiennes. Au cours des trois dernières années, les réseaux Intranet (conçus pour traiter l'information à l'intérieur d'une entreprise avec les mêmes standards ouverts qu'internet) représentent le progrès le plus important. A cela s'ajoutent l'omniprésence du courrier électronique, l'expansion de la visioconférence et l'explosion des téléphones portables. Cet essor estompe les distinctions qui existaient traditionnellement entre les secteurs d'activité et change les règles de la concurrence pour nombre d'entreprises. Désormais, les réseaux Extranet exploitent les technologies Internet pour faire circuler l'information entre une société et ses clients, ses fournisseurs ou d'autres partenaires, à un coût bien moins élevé que les échanges de données informatisées (EDI) utilisés jusqu'ici. Le rythme effréné du changement et la plus grande connectivité des systèmes électroniques font que votre partenaire ou client aujourd'hui sera peut-être votre concurrent de demain ou vice versa. Une troisième série de questions se pose, étroitement liée aux deux précédentes, mais relevant plus spécifiquement du domaine du marketing : il s'agit de l'impact des nouveaux médias numériques sur les communications marketing et, dans certains cas, sur la distribution. Nous avons envisagé ici deux nouveaux médias - la télévision numérique et Internet - qui exigent de la part du consommateur un accès à la technologie voulue. Dans les marchés grand public, la plupart des ménages ne sont pas encore équipés de la technologie numérique, même si cette situation évolue très vite, surtout aux Etats-Unis et en Scandinavie. Généralement, l'accès aux réseaux s'effectue via un ordinateur personnel (PC) en ligne. Mais, à l'avenir, cet accès sera possible avec les téléviseurs et les radios numériques ainsi qu'avec les téléphones portables de la troisième génération. Les partisans du numérique affirment qu'il révolutionnera la relation entre la télévision et les téléspectateurs (et donc les annonceurs) et accélérera le décollage du commerce électronique grand public. Bien évidemment, ces nouvelles technologies supposent que le consommateur soit prêt à y investir du temps et de l'argent et que les sociétés qui les commercialisent offrent des avantages réels et réduisent les obstacles à leur acceptation. Ces avantages comme ces obstacles étant radicalement différents sur le marché business to business. La détente et le divertissement - les deux principales motivations à l'utilisation par les consommateurs des médias existants - semblent être les éléments moteurs. Les principaux freins étant la lenteur des transmissions, la question de la confiance et du respect de la vie privée ainsi que les éventuels problèmes liés à l'interface utilisateur. Nous sommes potentiellement à l'aube d'une révolution marketing. Avec les médias numériques, le marketing interactif acquiert une nouvelle puissance et une autre dimension, car il allie l'interpellation individuelle, une capacité de réaction instantanée, une disponibilité permanente et un impact planétaire, tout en développant des opportunités inédites de shopping et d'accès à l'information pour le consommateur. Mais, pour réussir sur ce marché, l'entreprise devra sortir du rang et se focaliser sur les bénéfices et la convivialité de ses produits ou de ses services. Le problème de l'accès Le nombre d'individus qui se connectent à Internet varie sensiblement d'un pays à l'autre. La Finlande affiche le taux de pénétration le plus élevé. Mais en termes
absolus, le marché américain est de loin le plus important, fortement stimulé par les appels locaux gratuits illimités (voir tableau page V). Toutefois, les chiffres de pénétration par foyer tendent à sous-évaluer la taille du marché grand public réellement accessible par Internet. En premier lieu, les consommateurs en ligne dépensent plus que la moyenne, spécialement en ordinateurs, livres, musique, etc. En second lieu, nombre de consommateurs ont accès à Internet sur leur lieu de travail ou dans les grandes écoles et universités. Personne ne sait exactement quelle sera la vitesse de pénétration des PC en ligne et autres technologies numériques sur le marché grand public dans les différents pays, et les estimations à cet égard divergent. Parallèlement, les différents systèmes ne sont pas équivalents sous l'angle commercial. Les PC, par exemple, serviront essentiellement aux applications axées sur l'information. Les télévisions numériques seront davantage utilisées pour regarder les émissions à plusieurs à l'aide d'une simple télécommande numérique. Enfin, les radios numériques et les téléphones portables seront munis de petits écrans et de touches et continueront d'être utilisés pour écouter de la musique, envoyer et recevoir des messages, et pour converser. En dépit des incertitudes, on peut raisonnablement supposer que la plupart des foyers aux Etats-Unis (et aussi dans des pays comme la Finlande, la Suède et la Norvège) seront équipés d'ici à 2005 de médias numériques interactifs avec un écran et qu'il faudra compter probablement deux ou trois ans de plus pour la majorité des autres pays développés. Le particulier souffre aujourd'hui de la lenteur des transmissions Internet, au point que des internautes déçus qualifient le réseau de «world wide wait». L'avenir du numérique ne sera pas complètement assuré tant que ce problème ne sera pas résolu. A cet égard, il y a deux solutions possibles : le modem sur le câble et la transmission ADSL sur les lignes de téléphone normales. Pour Ken Auletta, un journaliste du «New Yorker», l'accès Internet à grande vitesse est «une sorte de canal de Panama pour le numérique». En Amérique du Nord, les progrès sont suffisamment sensibles pour que l'on puisse former des conjectures solides sur le rythme de progression du modem câble. C'est Newmarket, une banlieue de Toronto, qui a été la première, en décembre 1995, à proposer un accès au Web par modem câble à des vitesses 500 fois supérieures à celles offertes par les fournisseurs d'accès basé sur des lignes de téléphone classiques. Ceci a permis aux foyers résidant dans cette zone géographique de s'abonner au service de Rogers Communications (le plus grand fournisseur de télévision câblée au Canada), moyennant une redevance annuelle de 159,95 dollars canadiens plus 990 dollars de frais d'installation. Aujourd'hui, soit trois ans plus tard, 10 % des 16.000 foyers de Newmarket ayant accès à la télévision câblée sont abonnés, ce qui représente la moitié des foyers pouvant se connecter au Net. Plusieurs consortiums américains se sont mis à généraliser les services de modem sur le câble. Les deux principaux sont *Home, un partenariat entre ATT, Cox Cable et Comcast, et Roadrunner, un partenariat entre Time Warner, Microsoft et Compaq. Depuis que la généralisation a véritablement commencé au milieu de l'année 1996, le service Internet par câble de télévision coaxial s'est étendu et 15 % des foyers américains peuvent y accéder aujourd'hui. Mais, à ce jour, seulement 1 % d'entre eux y sont abonnés. Pour reprendre la métaphore sur le canal de Panama, ce qui fait obstacle au décollage du commerce électronique, c'est la lenteur de la réalisation de l'infrastructure. En fait, deux courbes de diffusion entrent en jeu : l'installation de réseaux câblés plus perfectionnés quartier par quartier et la lente édification de la
demande dans chaque quartier une fois que ceux-ci sont en place. Au rythme actuel, il faudra encore attendre dix ans avant que la moitié des Américains ait accès au service Internet par modem câble et encore plus longtemps avant que 5 % des Américains, eux, y souscrivent. Toutefois, cette généralisation peut s'accélérer avec l'arrivée de la concurrence (commercialisation du service ADSL depuis la fin de 1998 aux Etats-Unis). De même, la pénétration dans les quartiers ira plus vite si les «externalités de réseau» s'intensifient car, comme avec toutes les autres technologies, l'augmentation du nombre d'utilisateurs stimule l'acceptation. La télévision numérique La télévision numérique a déjà été lancée dans plusieurs pays avec un succès initial rapide en France et aux Etats-Unis. Au Royaume-Uni, le numérique est lancé sur tous les types de plates-formes : réseau hertzien (ONdigital), satellite (BSkyB avec British Interactive Broadcasting ou BIB) et câble (CWC, NTL et Telewest). Si, pour les opérateurs, la lutte s'annonce sanglante à court terme, les distributeurs devraient accroître de façon significative le nombre de foyers ayant accès à une technologie numérique. Cependant, beaucoup d'incertitudes planent encore. Combien de foyers posséderont la technologie interactive? Est-ce que les différentes plates-formes auront des standards compatibles? Offriront-elles l'accès gratuit aux tiers? BIB parle aujourd'hui d'un «jardin clos» avec des standards exclusifs, ce qui laisse augurer une réponse négative à cette question. On se demande également si la multiplication des chaînes de télévision ne rendra pas les programmes de plus en plus «pointus». Cela reste encore à voir, mais, il semble que non. Il est évident que la plupart des chaînes seront thématiques, comme à l'heure actuelle avec le câble. Et plus le nombre de chaînes augmentera, plus elles se spécialiseront : il n'y aura plus seulement des chaînes dédiées aux sports, à la musique ou au cinéma, mais aussi à un sport particulier, un genre de films ou une variété de musique. D'une part ces chaînes afficheront au départ de faibles scores d'audience et d'autre part l'audience ne sera pas fortement segmentée. En d'autres termes, si le contenu de la télévision numérique sera pointu, l'audience, elle, ne le sera pas. Il est évident que toutes les chaînes n'auront pas la même audience : elle sera jeune sur les chaînes musicales, masculine sur les chaînes sportives et ainsi de suite. Il y aura aussi davantage d'émissions sponsorisées par des titres dans la presse spécialisée. Mais, il est peu probable que ces différences suffisent à convaincre les annonceurs de payer plus par téléspectateur que sur les chaînes hertziennes. Effectivement, le coût de l'audience sur le câble est plus faible parce que le nombre de foyers équipés est plus restreint et que l'audience est essentiellement composée de grands consommateurs de télévision. Et on ne voit vraiment pas pourquoi cela devrait changer si l'on passait, disons, de 50 chaînes (moyenne actuelle aux États-Unis) à 200 ou 300. Les partisans de la télévision numérique soutiennent aussi que l'interactivité dynamisera la télévision et impliquera davantage le téléspectateur, qui pourra élaborer son propre programme, choisir ses angles de vue pendant les matchs de football, creuser l'information pendant les actualités, etc. Une telle affirmation est difficile à vérifier directement ; mais, d'après ce que l'on sait par les tests de télévision interactive et les études déjà effectuées sur le comportement des téléspectateurs, elle est erronée. En règle générale, le niveau d'implication des téléspectateurs est plutôt faible.
Encore une fois, les changements devraient être marginaux. Il est indéniable que l'interaction renforce l'attrait des émissions de jeux (où une rivalité s'exerce vis-àvis d'autres personnes chez soi ou sur le plateau de télévision) ou de sports (dernières nouvelles sur les équipes, statistiques de match, etc.). Cependant, la télévision risque parallèlement de souffrir de la concurrence d'autres activités, sans compter que la société des loisirs est toujours aussi insaisissable. À long terme, les progrès de la technologie devraient renforcer la visualisation des émissions avec un décalage de temps (c'est-à-dire après la transmission) et la faire grimper à un taux de 10 ou 20 %, disons, par rapport à moins de 5 % aujourd'hui. On ne retrouve guère dans ce panorama la révolution annoncée par la " cyberélite ". Pour cette dernière, à l'avenir, le petit écran abondera d'excellentes émissions et nombre de téléspectateurs passeront des heures, jour après jour et année après année, à dialoguer avec leur télévision, ce qui n'est guère plausible. Peu de chances donc, pour les distributeurs, que la télévision numérique leur offre des cibles très pointues ni qu'elle leur permette de réaliser des spots interactifs révolutionnaires. Par contre, elle constituera un " support de marketing direct télévisé sans téléphone " potentiellement intéressant. La moitié des spots TV aux États-Unis comprennent un mécanisme de réponse, qui invite le téléspectateur à appeler un numéro de téléphone, et beaucoup comportent une adresse électronique. Cependant, la procédure de réponse - rester en attente, décliner ses coordonnées, etc. - est souvent fastidieuse. Un inconvénient que la télévision numérique interactive peut éliminer à condition que l'interface consommateur soit bien conçue. À plus long terme (une vingtaine d'années, disons) la publicité télévisée pourrait subir des changements plus radicaux. Auparavant, les messages publicitaires adressés au téléspectateur dépendaient automatiquement des programmes qu'il regardait. À l'avenir, on peut penser que seuls les propriétaires de chiens (connus par les transactions effectuées avec leur carte de fidélité) regarderont les spots sur les produits alimentaires pour animaux et que seuls les retraités aux revenus élevés verront les films publicitaires pour des programmes financiers, quelles que soient les émissions qu'ils auront choisi de regarder. Certes, la télévision numérique ne permettra pas de toucher une audience fortement segmentée. Mais, à partir du moment où elle est un moyen de s'adresser individuellement à la plupart des consommateurs (intéressés), elle devient un outil de marketing direct très pointu. Néanmoins, il reste encore de sérieux obstacles sur le plan pratique (calendrier et respect de la vie privée). Les autres médias Avec la révolution numérique, certains médias arriveront à survivre, voire à prospérer, mais ils devront s'adapter à de nouveaux rôles, comme ce fut le cas lors de l'avènement de la télévision et de la radio. La radio numérique se développera parallèlement à la baisse des prix, en commençant par équiper les nouvelles voitures haut de gamme. Dans le domaine de la musique, les ventes s'effectueront en ligne, même si à court terme elles supposent encore la livraison par la poste d'un produit concret comme un CD ou un DVD (disque réinscriptible). Il en va de même pour les commandes de livres, qui continueront à être livrées sous format imprimé, d'une part parce que la lecture de grands pavés de texte à l'écran n'est pas agréable et, d'autre part, parce que la technologie numérique
actuelle est plus onéreuse et moins pratique que le format papier. La seule exception sont les ouvrages de référence, notamment les encyclopédies. Pour des raisons similaires, les médias numériques interactifs ne semblent pas constituer un outil idéal pour la publicité en général alors qu'ils sont particulièrement appropriés aux annonces classées. Pourquoi? Parce que l'internet a peu de potentiel en tant que média push comme la télévision. En effet, les consommateurs sont plutôt agacés par les messages publicitaires qui envahissent leur écran. En revanche, ce réseau semble idoine à la stratégie pull puisqu'il permet aux utilisateurs de récupérer de l'information quand ils cherchent quelque chose de précis. Avec le développement des logiciels agent et l'augmentation des produits disponibles en ligne, la puissance du Web en tant que média pull pourrait bien s'accentuer. Les médias qui tirent essentiellement leurs revenus des annonces classées (magazines spécialisés ou non, journaux locaux et annuaires professionnels) devront réagir face à cette menace. La meilleure solution est, bien évidemment, d'intégrer ce nouveau support et de le combiner à leurs services existants. Mais, cela ne marchera pas toujours dans la mesure où Internet ne respecte pas les frontières des marchés existants alors que les supports imprimés bien implantés ont une marque, une connaissance du marché et d'autres avantages. L'impact sur les quotidiens nationaux est moins évident. La technologie numérique permet au lecteur de se créer un produit sur mesure (mon Daily Me), mais combien de personnes vont s'embarrasser à réaliser un journal rien que pour elles? Pour les bulletins professionnels, c'est autre chose, car nombre de professionnels utilisent déjà des systèmes personnalisés sur Internet pour assurer leur notoriété. Quant aux quotidiens, s'ils publient au moins une partie de leur contenu (dernier numéro et autres plus anciens), ils rivalisent toujours pour trouver la meilleure approche commerciale. En effet, l'enjeu pour eux est de convaincre les lecteurs en ligne de payer pour obtenir leur service alors que ceux-ci peuvent facilement accéder gratuitement à l'information. La publicité sur Internet La plupart de la publicité sur Internet est faite pour le média lui-même (ou pour des firmes liées au Net comme Microsoft, IBM, Excite et Yahoo!, par exemple) et non pour les autres produits et services qui finalement justifieront son existence. Néanmoins, elle se développe très vite et représente aujourd'hui 1 % des investissements publicitaires américains, tous médias confondus. Comment les annonceurs comparent-ils le coût et l'efficacité de la publicité sur le Web par rapport à celle sur d'autres médias? La méthode de calcul généralement utilisée est le coût au mille, c'est-à-dire le coût de l'annonce pour mille contacts. Aujourd'hui, le coût au mille pour la publicité sur Internet se situe entre celui de la télévision et des supports imprimés. Le coût au mille se contente de calculer le nombre de fois où une annonce paraît sur un site Web, sans tenir compte du fait que l'internet peut déceler la réponse de l'internaute. Ceci explique que la méthode du clickthrough, qui consiste à ne faire payer l'annonceur que lorsque l'internaute a répondu, gagne de la popularité. Cependant, les annonceurs prennent aussi en compte de nombreux facteurs qualitatifs et le Web arrive en haut du palmarès sur les critères suivants : mesure du caractère sélectif du public, mesure du prestige et possibilité de changer rapidement le contenu. Le coût au mille sur les sites Web varie en fonction de la taille et de la qualité de
la " cyberaudience ". Il est courant de faire la distinction entre deux types de sites : les moteurs de recherche et les destinations. Les moteurs de recherche sont les sites que les internautes visitent pour trouver d'autres sites. Ils assurent un trafic important à l'annonceur, mais ne sont pas sélectifs et par conséquent ont un coût au mille peu élevé. Les sites de destination renferment le contenu recherché par les utilisateurs. Le niveau de trafic est plus faible, mais le public plus homogène. Il existe une troisième catégorie de sites publicitaires : la page de démarrage ou page d'accueil personnalisée. Ces sites permettent aux utilisateurs de choisir un certain nombre de caractéristiques (un dessin représentant Dilbert, le fameux personnage de Scott Adams, les prévisions météorologiques à Paris ou les scores du match de basket-ball de la veille) qui apparaîtront à chaque fois qu'ils entameront une session Web. À titre d'exemple, on peut citer la page " My Start " de Netscape lancée en 1996, Microsoft Network ou infosage d'ibm. Ces pages personnalisées ont deux avantages : elles génèrent un haut volume de trafic et permettent de cibler les messages publicitaires. Par conséquent, elles risquent fort de devenir le second champ de bataille derrière les moteurs de recherche. Globalement, il est peu probable que la publicité sur Internet supplante les médias existants pour le recrutement de clients. Par contre, le numérique offre un vrai potentiel au marketing one-to-one qui vise à créer une relation individuelle avec les clients existants, notamment dans le secteur business-to-business. L'enjeu sur le marché grand public sera de trouver le juste équilibre dans l'utilisation des médias numériques pour séduire le consommateur sans l'agacer. * ctableaus Accès à Internet par un PC en réseau Foyers reliés àcoût de l'accès à Internet (en %)Internet (20h/mois) États-Unis 25180 F Allemagne 10390 F Royaume-Uni 10330 F France 4300 F Patrick Barwise est professeur de gestion et de marketing à la London Business School où il dirige le " Centre for Marketing " et préside le " Future Media Research Programme ". Nouveaux schémas d'entreprise et commerce électronique Communications entre consommateurs, messages reçus ou envoyés par les entreprises aux clients, publicités... les technologies ont permis une réduction drastique de certains coûts. ERIC J. JOHNSON Pas un jour ne se passe sans que l'on n'entende les prédictions les plus étonnantes sur l'impact du commerce électronique sur l'économie mondiale. Les actions Internet et tout ce qui s'y rapporte grimpent en flèche (pour s'effondrer parfois aussi vite). Ces phénomènes font du commerce électronique une question complexe et problématique pour les chefs d'entreprise.
Peut-être êtes-vous de ceux qui hésitent encore sur la voie à emprunter, tout en étant persuadé que, faute d'agir très rapidement, vous serez devancé par la concurrence actuelle ou future qui s'emparera de ce marché électronique naissant. Tous les jours, un nombre croissant d'entreprises font un pas en avant, mais souvent avec beaucoup d'inquiétude et d'incertitude. Un peu d'histoire Remonter dans le passé pour comprendre l'avenir est souvent riche d'enseignements. De fait, en étudiant les analogies de l'histoire, on obtient rétrospectivement un aperçu des avantages et des difficultés qui surgissent dans les relations entre les nouvelles technologies et les schémas d'entreprise. Une des analogies qui a le plus retenu l'attention des analystes est celle de la radiodiffusion. A l'instar du commerce électronique, les premiers professionnels ont été des ingénieurs plutôt que des commerciaux, et des fortunes ont aussi été gagnées (ou perdues) à tous les stades de son évolution. Westinghouse, par exemple, fut l'une des premières entreprises à faire de la publicité sur les ondes dans l'idée que cela lui permettrait de générer du profit. Mais c'est David Sarnoff (pionnier de la radio et de la télévision aux Etats-Unis) qui a développé le premier schéma économique rentable. Il se rendit compte qu'il était possible de diffuser la même émission sur plusieurs stations différentes et, ce faisant, d'amortir le coût des émissions sur plusieurs stations (et, par conséquent, sur le nombre d'auditeurs) tout en réduisant les frais de production et en améliorant la qualité des programmes. Une telle approche changeait radicalement l'ampleur des coûts à envisager pour toucher le grand public et, pour la première fois, les annonceurs pouvaient communiquer à la nation tout entière. Du point de vue des schémas d'entreprise, on comprend mieux le commerce électronique quand on analyse son impact sur le coût de la communication avec le consommateur. Aujourd'hui, le commerce électronique génère de nouveaux schémas et de nouvelles activités, exactement comme la publicité de masse lors de son avènement. Pour réussir à appréhender ces nouveaux schémas, il faut d'abord essayer de comprendre pourquoi l'acceptation par les consommateurs de la technologie informatique a une influence sur les coûts, et parfois même dans des proportions considérables. Pour ce faire, il faut regarder ce qui se passe dans un circuit de distribution traditionnel (que ce soit sur un marché consommateur ou sur un marché business to business), et examiner les activités fondamentales suivantes : - la communication adressée par les entreprises aux consommateurs par le biais de la publicité, de centres d'appels... ; - les informations reçues par les entreprises via les études de marché, les réclamations... ; - les communications entre consommateurs (le coût peu élevé de ces contacts par voie électronique étant peut-être sous-estimé)... ; - l'efficacité de la publicité. Prenons le cas d'un constructeur automobile qui essaie de vendre ses véhicules à des clients potentiels. Son marché se compose d'acheteurs occasionnels qui changent de véhicule, disons, tous les trois ans. Les approches publicitaires habituelles comme une annonce pleine page dans un quotidien sont en grande
partie inutiles parce qu'au moment de la parution, le message atteindra des lecteurs qui, pour la majorité, ne seront pas intéressés par l'achat d'une voiture. Connectons-nous maintenant sur un moteur de recherche et tapons le mot «voiture». On trouvera à coup sûr avec les autres résultats une publicité pour un constructeur automobile, un distributeur ou un service d'achats de voitures en ligne. Lorsqu'un internaute effectue une telle recherche, c'est qu'il désire trouver de l'information sur les véhicules automobiles, ce qui veut dire qu'il figure parmi les meilleurs prospects. Aujourd'hui aux Etats-Unis, la publicité sur Internet se fait surtout sur des réseaux publicitaires comme Flycat et DoubleClick. Ces réseaux sont capables de suivre le taux de réponse obtenu par une bannière publicitaire spécifique sur un très grand nombre de sites, ce qui offre des possibilités énormes à l'annonceur pour améliorer l'efficacité de sa publicité. En premier lieu, un publicitaire peut facilement identifier les messages les plus efficaces pour générer du trafic (nombre de clics sur une bannière publicitaire permettant d'aller sur le site de l'annonceur) et les sites qui offrent les meilleurs espaces. En second lieu, les réseaux sont en mesure d'évaluer et de contrôler le nombre de fois où un individu a vu une bannière. Si, par exemple, un client a vu cinq fois un message sans jamais passer à l'action, on peut en conclure qu'il n'est pas intéressé par l'offre et qu'il vaut mieux abandonner le message ou le modifier afin de susciter l'intérêt du cyberconsommateur. La publicité sur Internet est plus efficace parce qu'elle s'adresse aux consommateurs au moment où ils ont envie qu'on leur parle, tout en leur permettant de contrôler la quantité d'informations qu'ils souhaitent recevoir. En outre, il s'agit d'une forme de publicité relativement peu coûteuse puisque le coût au mille aux Etats-Unis se situe entre 30 et 500 francs. Sachant que l'impact de ce type de message dépasse de loin celui que l'on pourrait obtenir avec un investissement similaire dans un magazine ou à la radio, on peut conclure que l'efficacité de la publicité augmente et que les coûts baissent, le tout dans des proportions considérables. La communication pour de nouveaux événements ou produits est précisément l'un des secteurs où l'annonceur peut réaliser des économies substantielles. Imaginez un bon assistant dans une librairie qui observe ce que le client achète et interroge celui-ci après coup sur la satisfaction qu'il a retiré de sa lecture. Il pourrait rendre un grand service au client en lui recommandant des livres appréciés par d'autres clients ayant un comportement d'achat identique. Il s'agirait d'un service à forte valeur ajoutée qui fidéliserait la clientèle de cette librairie. Malheureusement, dans les structures que l'on rencontre aujourd'hui dans la grande distribution, ces assistants reviennent relativement cher et ne peuvent pas traiter un grand nombre de clients. Regardez maintenant le service de conseil offert par une entreprise comme Amazon.com, qui possède des logiciels d'analyse de comportements d'achat lui permettant de faire des recommandations et de suggérer à ses clients de nouvelles idées d'achat par courrier électronique. Ceux-ci sont exactement dans la même situation que s'ils recevaient un catalogue sur mesure d'un distributeur, à la seule différence près que le coût du service sur Internet est bien inférieur au salaire d'un assistant zélé - et même d'un mailing en grande série - et que le taux de réponse est nettement supérieur. Le remplacement des services d'assistance téléphonique et des centres d'appels par des pages sur Internet remplissant la même fonction est un autre exemple de réduction de coût via Internet. L'écoute du client
Les outils utilisés pour les études consommateurs sont relativement lents et coûteux et n'offrent pas de continuité car ils sont souvent appliqués de façon sporadique, notamment pour des lancements de produits ou en temps de crise. Parallèlement, les groupes de consommateurs représentent un coût qui peut atteindre des dizaines de milliers de francs et les études de marché détaillées peuvent se chiffrer à des centaines de milliers de francs, sans oublier que les analyses de suivi sont rares. A cet égard, le commerce électronique offre une opportunité sans précédent en permettant d'écouter et de connaître les clients de façon beaucoup plus efficace et rentable. Comment? Via le recueil de données explicites et la collecte plus discrète de données implicites. Les données explicites sont les réponses des clients à des questionnaires. Si l'on prend l'exemple des enquêtes en ligne, il est évident qu'elles ont une portée géographique et une rapidité bien plus grandes que les sondages traditionnels. A Wharton, par exemple, nous avons effectué une enquête en ligne («Wharton Virtual Test Market») sur un panel de plus de 10.000 internautes recrutés par le biais des bannières publicitaires, de liens avec les sites Web des entreprises partenaires de notre école et le bouche-à-oreille (essentiellement virtuel, en l'occurrence). Les participants ont tous répondu aux 40 questions qui leur étaient posées sur leurs expériences avec Internet et leurs achats sur ce réseau ; plus de 80 % d'entre eux ont même accepté de participer à d'autres enquêtes par la suite. En contrepartie, ces internautes participent à des tirages au sort récompensés par de modestes prix. L'investissement total que nous avons engagé pour le recrutement et la participation à l'enquête n'a pas dépassé les 12 francs par personne, soit dix fois moins que le prix d'une enquête classique. Plus de 15 % des participants n'étaient pas américains et étaient originaires de pays aussi différents que l'australie et la Biélorussie. Et lorsque nous avons sollicité ces participants pour d'autres enquêtes, nous avons obtenu un taux de réponse élevé et des retours rapides. Si Internet est déjà un outil très performant pour le recueil de données explicites, il l'est encore plus pour la collecte de données implicites. Imaginez que vous êtes à la tête d'un magasin qui enregistre non seulement tout ce qu'achètent les clients, mais aussi les produits qu'ils regardent sans acheter. En fait, le Web est comparable à ce magasin car tout se passe comme si les clients portaient des caméras vidéo sur la tête nous permettant de voir tout ce qu'ils regardent au moment où ils font leurs achats. Les sites Web peuvent identifier les pages que les clients visitent, celles qu'ils ignorent et donner aux cabinets d'étude une idée du temps de visite moyen de chaque page. Un distributeur de CD en ligne pourra observer ce que son client achète, connaître les titres sur lesquels il a navigué, savoir s'il a testé ou non leur contenu en ligne et s'il y a une différence systématique entre les disques qu'il a envisagés et achetés et ceux qu'il a envisagés et rejetés. Il constatera, par exemple, qu'un client qui achète un CD de Bruce Springsteen en a aussi examiné trois autres du même chanteur. Par conséquent, un courrier électronique de relance offrant une réduction sur l'achat de deux autres titres de Springsteen suffira peut-être à le convaincre de faire d'autres achats. Réfléchissez également à toute la valeur de cette information pour d'autres entreprises dont les produits sont liés aux CD. Une société qui organiserait un concert de Bruce Springsteen, par exemple, pourrait fort bien exploiter cette information pour vendre ses places (notamment ses loges de prestige). Mais on se heurte alors aux problèmes du respect de la vie privée et de la nécessité d'un choix
explicite de la part du consommateur. L'un dans l'autre, les progrès dans le recueil des données explicites et implicites via Internet risquent de mettre un point final aux études marketing telles qu'on les connaît aujourd'hui, dans la mesure où le commerce électronique permet de mener des études dans la continuité, à travers lesquelles on observe et écoute le client. Démarche qui s'intègre dans le cours normal des activités de l'entreprise. Les clients ambassadeurs Si vous avez un hobby plutôt original et un accès à un service en ligne, il ne vous faudra que quelques secondes pour trouver des centaines, voire des milliers de personnes partageant votre passion. Les groupes de discussion («newsgroups») servent de point de rencontre à tous les individus, depuis les collectionneurs d'appareils photo jusqu'aux amateurs de décoration florale. Le concept de communauté en ligne dont on parle beaucoup aujourd'hui est justement issu de ces groupes qui se créent autour d'intérêts spécifiques. D'un point de vue marketing, on peut dire que les consommateurs ont déjà procédé eux-mêmes à leur propre segmentation, ce qui une fois encore est une source de réduction de coûts. En outre, avec le commerce électronique, le coût du prosélytisme chute carrément. L'un des exemples les plus étonnants à cet égard est celui des ventes aux enchères en ligne sur des sites comme ebay qui possède plus de 800 000 articles à vendre. ebay assure une double fonction : c'est à la fois un point de rencontre pour les collectionneurs et un système qui permet de suivre la réputation du vendeur. En effet, à l'issue de chaque vente, l'acheteur indique son niveau de satisfaction, sachant que l'évaluation cumulée des vendeurs est toujours accessible en ligne. L'avantage pour les acheteurs potentiels, c'est de pouvoir obtenir des informations sur chaque vendeur et de se sentir plus en confiance pour faire leurs achats ; et le principal intérêt pour les vendeurs est, bien sûr, de pouvoir pratiquer des prix plus élevés. En effet, étant donné que ebay rassemble un large éventail de clients potentiels, les vendeurs arrivent à vendre plus cher en ligne que s'ils occupaient un stand dans un salon d'antiquaires. Le revers de la médaille (au moins sous l'angle des affaires), c'est qu'un client mécontent en trouvera d'autres avec la même facilité. Sur Internet, le bouche-àoreille fonctionne très vite et un message peut atteindre des dizaines de milliers de clients presque instantanément. On trouve d'ailleurs des sites Web gérés par des clients déçus et une recherche rapide sur Internet vous montrerait qu'il existe aussi des sites organisés par les clients d'entreprises dont les noms vont de Hewlett- Packard jusqu'à Snapple. La puissance de la communauté Internet a été illustrée de façon flagrante après l'incident d'intel avec son Pentium en 1994-95. Ce microprocesseur présentait un problème de virgule flottante, qui a d'abord été identifié par un professeur de mathématiques d'une petite université américaine, puis amplifié dans un premier temps par des groupes techniques d'utilisateurs en ligne, puis par le courrier électronique pour finir par toute une série de plaisanteries sur la défaillance du Pentium. Intel, qui avait annoncé au départ un programme de reprise très limité, a été pris de court par l'ampleur de cette réaction. Dans les semaines qui ont suivi, la firme a demandé que les ordinateurs lui soient renvoyés et a passé une somme de 400 millions de dollars par pertes et profits pour couvrir les frais. Conséquences pour le marketing La baisse dans des proportions énormes du coût de certaines fonctions
commerciales suscite automatiquement de nouveaux moyens de faire des affaires. Comme nous venons de le souligner, le commerce électronique diminue le coût à la fois de la communication au client, de l'écoute du client et du prosélytisme. Les producteurs se rendent donc bien compte qu'ils ont intérêt à s'adresser directement aux clients plutôt que de faire appel aux services d'intermédiaires comme les distributeurs ou les détaillants ayant pignon sur rue. Cet effet appelé " désintermédiation " est d'autant plus sensible que les circuits fournissent essentiellement de l'information. Il suffit de prendre un secteur comme le tourisme avec les intermédiaires que sont les agences de voyages. Ces agences forment aujourd'hui un circuit essentiellement dédié à l'information du client, car le produit en lui-même, à savoir le billet d'avion, est souvent remplacé par un système de billetterie électronique. Certaines compagnies aériennes n'ont pas été longues à profiter de l'aubaine. United Airlines, par exemple, a créé un site Internet qui permet à ses clients de réserver des billets sur plus de 500 compagnies via un système de réservations en ligne avec une interface extrêmement conviviale. Aujourd'hui, la plupart des grandes compagnies aériennes ont des sites similaires. L'objectif derrière cette initiative est d'éliminer les agences de voyages et de récupérer leur commission, qui jusqu'à maintenant s'élevait à 10 % du prix du billet aux États-Unis avec un plafond à 300 F. Pour le consommateur, ce nouveau service a des avantages tangibles : il est disponible 24 heures sur 24 et fournit davantage d'informations que ne peut le faire une agence de voyages par téléphone. En effet, on peut afficher un plus grand nombre de vols et savoir, par exemple, quel est le nombre de fois en pourcentage où les vols arrivent à l'heure. L'intérêt essentiel pour United Airlines en termes de coût est d'augmenter son chiffre d'affaires. Si l'on en croit plusieurs rapports, le prix de la réservation d'un billet pour un vol transatlantique par l'intermédiaire d'une agence de voyages aux États-Unis se situe entre 420 et 540 F contre 120 F pour une réservation en ligne. De plus, United recueille des données telles que les vols effectués sur des compagnies concurrentes, les réservations d'hôtels et les réservations de location de voitures (disponibles également sur son service en ligne). Nul doute que cette compagnie réussira à fidéliser ses clients au fur et à mesure que son système prendra de l'ampleur. L'émergence de nouveaux intermédiaires et marchés est une autre conséquence de la réduction des coûts entraînée par le commerce électronique. En effet, on voit fleurir de nouveaux fournisseurs et circuits de vente qui profitent de la baisse du coût du prosélytisme au niveau des clients - et des vendeurs. Il suffit de prendre pour exemple PriceLine, un service en ligne qui permet aux internautes de faire des offres pour des voyages en avion en indiquant les dates et les fourchettes horaires qu'ils leur conviennent, ces offres étant ensuite acceptées ou rejetées. PriceLine assure un service d'intermédiaire avec une forte valeur ajoutée puisqu'il gère ce qui est, par essence, une vente aux enchères entre compagnies aériennes et passagers potentiels afin de permettre aux compagnies d'augmenter leur chiffre d'affaires en remplissant les sièges encore disponibles. Il est évident que la mise en place de ce système aurait été impossible sans les réductions de coût dus à la technologie de l'information. De nombreuses compagnies aériennes essaient aujourd'hui de générer des profits supplémentaires en proposant par courrier électronique des tarifs spéciaux de dernière minute sur les itinéraires moins fréquentés. Les exemples de nouveaux intermédiaires remplissant des fonctions jusqu'ici inenvisageables pour des raisons de coût sont nombreux. On citera notamment : ebay, le site décrit précédemment dans cet article ; Flycast, qui se crée un marché dans la publicité en ligne sur les bannières ; ou Metal Exchange qui gère des marchés business-to-business dans la sidérurgie.
High-touch sur le Net Internet n'est-il que le nouveau jouet, certes distrayant, des cabinets d'études, ou est-il réellement à l'origine de nouveaux schémas commerciaux et de stratégies marketing innovantes? ALBERT A. ANGEHRN Dès 1994, partout dans le monde, les chefs d'entreprise se sont entendu dire que s'ils «ne faisaient pas partie de la communauté Internet avant le milieu des années 90, ils ne seraient plus sur les rangs en 2000». Aujourd'hui, les études européennes confirment qu'il est extrêmement difficile de trouver des cadres qui admettent publiquement que leur entreprise n'ait pas encore lancé d'initiatives Internet passionnantes ou, du moins, ne projette de le faire. Quand on leur demande d'énumérer les avantages que leur entreprise a retirés d'internet ou des réseaux Intranet, le renforcement de l'image de marque arrive en tête, suivi par une plus grande efficacité, une amélioration de la qualité des produits et des services, de meilleures relations entre les salariés et un renforcement de sa base de clientèle. Dans une moindre mesure, on trouve également parmi les autres avantages concrets cités l'augmentation du chiffre d'affaires, la hausse des profits et le resserrement des liens avec les fournisseurs et les distributeurs. Si l'on regarde ces données sans plus de précision, on a toutes les raisons d'être très optimiste sur la santé de nos entreprises publiques ou privées. Seulement, la réalité est un peu différente. Comme nous le savons tous, les études ne saisissent jamais la réalité, même si elles excellent à mesurer les pressions sociales telles que celles exercées par les médias sur les chefs d'entreprise (les gens en général) naturellement technophobes. De même, nous savons que les structures organisationnelles, les pratiques commerciales profondément ancrées et les schémas mentaux bien établis n'évoluent que très lentement. Aujourd'hui, le changement s'opère, mais il en est encore à ses premiers balbutiements. Est-ce qu'internet n'est que le tout nouveau jouet (efficace et distrayant, il faut bien le reconnaître) des directeurs du marketing et des cabinets d'études? Ou bien est-il vraiment à l'origine de nouveaux schémas commerciaux et stratégies marketing? La question principale est de savoir si les approches classiques suffisent à tirer profit de la dynamique d'un marché mondial où les barrières de l'information entre les acteurs économiques (sociétés, autorités de contrôle, gouvernements, fournisseurs et clients) s'effondrent, où des communautés virtuelles émergent en modifiant les tendances du marché et, enfin, où des services de plus en plus sophistiqués et abordables sont proposés instantanément partout dans le monde par des réseaux de communication mondiaux. Est-ce déjà un «changement paradigmatique» du marketing, ou les entreprises sont-elles simplement en train de perfectionner leurs infrastructures technologiques? * Quand l'emballage change, mais pas le contenu Analyser la présence des sociétés sur le Web ne suffit probablement pas pour avoir un panorama complet de leurs stratégies Internet. Il est évident que toutes ces stratégies ne sont pas forcément axées sur le marketing. Elles peuvent avoir pour objectif d'améliorer les procédures internes, d'augmenter la performance des processus de back-office ou de réduire le coût des transactions internes ou externes. Cependant, les sites Web ont au moins l'intérêt de révéler l'attitude d'une société et de son directeur du marketing vis-à-vis du réseau Internet en tant que
moyen de communication sur le marché planétaire. L'analyse systématique des sociétés et des institutions présentes sur Internet partout dans le monde confirme qu'il est difficile de trouver des entreprises n'ayant pas encore de site Web ou, du moins, en cours de réalisation. La configuration de ces sites varie, mais la plupart d'entre eux ont un point commun : ils appartiennent à la catégorie «brochure», illustrée par la figure 1. Celle-ci représente les quatre catégories dans lesquelles on peut classer les sites Internet des entreprises publiques ou privées en fonction du degré de sophistication et de personnalisation de leurs stratégies marketing sur ce réseau. Le degré de sophistication montre jusqu'où l'entreprise exploite les caractéristiques spécifiques d'internet, alors que le degré de personnalisation reflète la mesure dans laquelle elle utilise ce réseau pour offrir des services individualisés. Commençons par examiner le quadrant «brochure» où se rangent la plupart des sites actuels. Ces sites reflètent les stratégies dépourvues de véritable engagement ou d'investissement (par conséquent, peu rentables) adoptées par la majorité des sociétés. Dans cette hypothèse, Internet n'est rien d'autre qu'un support de plus pour adresser des messages unidirectionnels, relativement peu ciblés et peu sophistiqués sur l'entreprise, ses produits et ses services. C'est le cas typique de la société qui change un emballage sans en modifier le contenu. Et, même s'ils bénéficient d'une bonne publicité à la télévision ou ailleurs, rien ne prouve que les sites en question aient plus d'impact commercial qu'une brochure traditionnelle. Heureusement, tous les directeurs du marketing ne manquent pas d'imagination. Au cours de ces dernières années, les progrès rapides du matériel, des réseaux et des logiciels ont permis à certains d'entre eux de découvrir toute la richesse d'internet, aussi bien comme technologie que comme média. On a donc vu certaines sociétés se hisser du quadrant «brochure» au quadrant «ludo-pédagogique», un peu plus avancé. La technologie du Web permet, en effet, de transformer des brochures sans grand attrait en expériences multimédias interactives sophistiquées et abordables visant à capter l'attention du marché. En outre, il suffit de relier la technologie de base de données à un site Internet classique pour transformer une brochure passive en un véritable outil marketing permettant de saisir des données utiles en grande quantité et à faible coût : informations sur les internautes qui visitent le site, sur leur mode d'accès au site et sur le nombre de leurs visites, par exemple. Les stratégies marketing Internet entrant dans cette catégorie ne vont pas encore au-delà des schémas traditionnels. Mais elles ont au moins le mérite d'essayer de tirer le meilleur parti d'internet. Pour l'entreprise, ce réseau devient un nouveau support qui lui permet d'améliorer l'efficacité et la rentabilité de ses stratégies et de ses pratiques commerciales existantes. Les sites Web qui en résultent attirent l'attention des internautes avides d'innovation et de divertissement en exploitant le moyen de diffusion rapide qu'est le bouche-à-oreille virtuel. Mais réussissent-elles à fidéliser leurs clients? Profitent-elles réellement de toutes les possibilités de l'internet pour apprendre à connaître leurs clients et les tendances du marché? * Au-delà de la brochure l'entreprise exploite les caractéristiques spécifiques d'internet et le degré de personnalisation évalue la mesure dans laquelle elle profite de ce réseau pour offrir des services individualisés. Commençons par examiner le quadrant brochure où se rangent la plupart des sites actuels. Ces sites sont le reflet des approches sans véritable engagement ni investissement (et donc peu rentables) adoptées par la majorité des sociétés et, dans cette hypothèse, Internet n'est rien d'autre qu'un support de plus pour adresser des messages unidirectionnels, relativement peu ciblés et peu sophistiqués sur l'entreprise, ses produits et ses services.
C'est le cas typique de la société qui change un emballage sans en modifier le contenu et les sites en question n'ont pas plus d'impact commercial qu'une brochure traditionnelle, même s'ils sont promus à la télévision ou ailleurs. Heureusement, tous les hommes de marketing ne manquent pas d'imagination. Au cours de ces dernières années, les progrès rapides du matériel, des réseaux et des logiciels ont permis à certains d'entre eux de découvrir toute la richesse d'internet à la fois en tant que technologie et média. On a donc vu certaines sociétés se hisser du quadrant brochure au quadrantludo-pédagogique un peu plus avancé. La technologie du Web permet, en effet, de transformer des brochures sans grand attrait en expériences multimédia interactives sophistiquées et abordables visant à capter l'attention du marché. En allant un peu plus loin, il suffit de relier la technologie de base de données à un site Internet classique pour transformer une brochure passive en un véritable outil marketing permettant de saisir des données utiles en grande quantité et à faible coût : informations sur les internautes qui visitent le site, sur leur mode d'accès au site et sur le nombre de leurs visites, par exemple Les stratégies marketing entrant dans cette catégorie ne vont pas encore au-delà des schémas traditionnels. Mais, elles ont au moins le mérite d'essayer de tirer le meilleur parti d'internet. Pour l'entreprise, ce réseau devient un nouveau support qui lui permet d'améliorer l'efficacité et la rentabilité de ses stratégies et de ses pratiques commerciales existantes. Les sites Web qui en résultent attirent l'attention des internautes avides d'innovation et de divertissement et exploitent le moyen de diffusion rapide qu'est le bouche à oreille virtuel. Mais, réussissent-elles à fidéliser leurs clients? Profitent-elles réellement de toutes les possibilités de l'internet pour apprendre à connaître leurs clients et les tendances du marché? * Au-delà de la brochure Peu de sites aujourd'hui traduisent une volonté bien affirmée de découvrir toutes les options de personnalisation sur Internet. En effet, les sites high-touchexigent que ce réseau soit repensé non seulement comme un nouveau moyen d'adresser des messages publicitaires, mais aussi comme un nouveau support permettant de créer une relation individuelle avec les clients. Les sociétés cherchent ici à obtenir ce qu'un site non personnalisé - high-tech ou non - ne peut garantir : la fidélité des clients. Les sites high-touchsont rares. Ce sont les sites qui vous accueillent personnellement dès que vous êtes connecté (" Bonjour Albert. Vous n'êtes pas venu nous voir la semaine dernière. Le rapport que vous consultez toutes les semaines vous aurait-il déçu? "). Ils changent de structure et de contenu en fonction des clients, mémorisent le profil, les habitudes et les préférences de ces clients et actualisent régulièrement les données ainsi enregistrées. Aujourd'hui, on peut déjà atteindre un certain degré de personnalisation avec des logiciels relativement simples qui permettent à l'utilisateur d'entrer ses paramètres personnels pour déterminer la configuration du site. Avec des technologies plus sophistiquées comme les agents et le 3D distribué, on va même jusqu'à tester de nouvelles techniques marketing. Une visite dans un site de la catégorie high-tech high-touch prend la forme d'une promenade dans un magasin virtuel (voir figure 2) où les clients sont reçus par des " avatars commerciaux " (personnages fictifs contrôlés par l'ordinateur ou par l'homme). Ceux-ci sont capables d'accueillir les nouveaux clients, de reconnaître ceux qui reviennent, d'engager la conversation avec les visiteurs et même de
provoquer une rencontre entre clients pour discuter d'un produit spécifique. Les études actuelles nous permettent de comprendre comment les gens en général, et les consommateurs en particulier, se comportent dans ces environnements virtuels où la dimension sociale est renforcée par le sentiment d'être " présent " (avec d'autres) dans un espace commun, qui peut être personnalisé avec plus de souplesse et de naturel que les sites traditionnels (à l'aide d'objets mobiles). Grâce à ces recherches, on arrive à dégager des règles sur la conception d'espaces virtuelshigh-tech high-touchet on découvre sans cesse de nouvelles images pour transmettre les informations sur les sociétés et les produits. Les premières expériences avec les environnements de shopping virtuel en 3D accessibles simultanément par plusieurs utilisateurs sont basées sur l'image familière du magasin, ainsi que l'illustre la figure 2. Après cela, on a vu apparaître les plages, effectivement plus appropriées à la présentation d'une nouvelle collection de maillots de bain (voir figure 3), les bureaux et d'autres environnements où les clients se rencontrent et discutent par le biais d'avatars contrôlés par l'homme (et de plus en plus par l'ordinateur) au niveau du front office. Ces sites n'ont rien à voir avec ceux de type brochure. Ils reflètent un usage plus évolué de la technologie Internet et s'orientent vers la " personnalisation en masse " pour communiquer et créer des relations avec les internautes. * Les nouveaux schémas marketing Dans un rapport de 1994, la Table ronde européenne des industriels, une association regroupant les dirigeants à la tête de sociétés réalisant un chiffre d'affaires cumulé d'environ 550 milliards d'euros avec un effectif de plus de 3 millions de salariés dans le monde, défiait déjà les managers européens avec cette déclaration : " Les autoroutes de l'information auront plus d'impact sur la société que les chemins de fer, l'électricité ou le téléphone ". Aujourd'hui, les répercussions de l'internet sur les styles et les schémas de communication partout dans le monde sont manifestes. Cette évolution a de sérieuses répercussions sur les études, les techniques et les stratégies marketing dans la mesure où, comme chacun le sait, la communication est au coeur de la création et du maintien des relations avec les clients. On se retrouve dans la même situation que si l'on modifiait ou supprimait les axiomes à la base d'une théorie mathématique. Dans ces conditions, il est peu probable que des changements superficiels ou des adaptations mineures suffisent pour identifier les nouvelles opportunités ni les nouvelles menaces en temps voulu. Il est donc temps pour l'homme de marketing de remettre en question les pratiques et schémas dominants et de laisser tomber ceux du " bon vieux temps " pour innover. Il y a au moins une bonne nouvelle dans tout cela : le prix du ticket d'entrée dans ce cycle d'innovations rapide n'est pas très élevé. Malheureusement, on ne peut en dire autant de la remise en cause des schémas mentaux qui font leur preuve depuis des années. Tout le monde sait que, s'il n'est pas facile d'acquérir de nouvelles manies, il est encore plus difficile de se débarrasser des anciennes. Le rôle majeur de la réduction des coûts La principale conséquence du commerce électronique sur les schémas d'entreprise est l'amélioration du rapport résultats/coûts. L'idée qu'il faut garder à l'esprit, c'est que, le plus souvent, cela se traduira par une mutation radicale et non évolutive. La modification drastique des coûts est un vecteur irrésistible de profond changement structurel. L'avenir appartiendra à ceux qui auront le mieux compris l'influence de la technologie sur les schémas d'entreprise. Il en résultera l'émergence de nouveaux circuits caractérisés par la désintermédiation ou de
nouveaux intermédiaires. La réduction des coûts est l'élément clef du succès du commerce électronique ; il ouvrira la voie à une fonction marketing plus rationalisée et plus efficace. Les communautés virtuelles, une mine d'opportunités Nombre de «cybercommunautés» s'organisent autour d'intérêts liés à la consommation. Une révolution pour les entreprises et les professionnels du marketing contraints de s'adapter. ROBERT V. KOZINETS On estime que plus de 11 millions de personnes dans le monde - pour la plupart aux Etats-Unis - ont participé à une «communauté virtuelle». En fait, plus longtemps les internautes restent en ligne, plus ils utilisent les communautés virtuelles comme source d'information et de communication interpersonnelle. Ces rassemblements de personnes sont baptisés «communautés virtuelles», «communautés en ligne» ou «cybercommunautés». Le pionnier d'internet, Howard Rheingold, les définit comme des «ensembles sociaux qui se créent sur le Net quand un nombre relativement important de personnes poursuit... des discussions publiques suffisamment longues pour tisser des relations personnelles dans le cyber espace.» Etant donné que 51 % des internautes naviguent tous les jours sur le Web et que les taux de croissance pour les nouveaux venus sont exponentiels partout dans le monde, il est évident que le nombre, les intérêts et l'influence de ces communautés augmenteront prodigieusement. Les communautés virtuelles ont différentes répercussions culturelles et exercent notamment une influence sur le comportement des consommateurs. En réalité, nombre de ces groupes s'articulent autour d'intérêts liés à la consommation et au marketing. Les «communautés de consommateurs en ligne» sont un sous-groupe spécifique de communautés virtuelles ouvertement orientées sur les centres d'intérêt du consommateur. Elle peuvent être définies comme «des groupes de participants qui partagent en temps réel l'information et le même enthousiasme pour un domaine de consommation particulier». Quatre types de communauté Les communautés de consommateurs se répartissent dans quatre types de sites sociaux différents : les donjons, les parloirs, les cercles et les babillards, qui se différencient par le niveau de structure sociale (lâche ou resserré) dans les échanges interactifs entre les membres, ainsi que par l'accent mis sur le partage de l'information ou l'interaction sociale. Chacun de ces types représente une mine d'opportunités pour l'homme de marketing ingénieux. * Les donjons Un donjon multi-utilisateur («multi-user dungeon» ou MUD) est un environnement virtuel où se rencontrent les utilisateurs qui participent à des jeux de rôles ou d'aventures inspirés de Donjons et Dragons. Dans le sens utilisé dans cet article, le terme de «donjon» englobe les environnements créés par ordinateur dans lesquels l'interaction sociale revêt la forme structurée de jeux de rôles ou d'aventures. Les jeux tels que Quake de la firme id Software doivent essentiellement leur succès à des groupes de joueurs qui partagent leurs secrets, leurs logiciels et une certaine camaraderie sur des donjons en ligne. Dans cette situation, au-delà de la
distribution de jeux, de logiciels, de livres et autres objets liés aux habitants de ces donjons, l'entreprise peut envisager toutes les opérations visant à renforcer sa marque. Les nouvelles valeurs qui caractérisent les donjons peuvent servir de base à des propositions de valeurs nouvelles. Le lexique de symboles innovant et «évolutif» créé par ces communautés, par exemple, pourrait être la matière première pour de nouvelles idées marketing. * Les parloirs et les cercles Le terme de " parloir " ou chat room désigne ici les environnements informatiques permettant aux utilisateurs de se réunir et d'interagir en temps réel sans la structure ouverte imposée par le jeu de rôles. Ce procédé - appelé également IRC ou Internet Relay Chat - ressemble à une conversation téléphonique sur une ligne collective. Les cercles sont des séries de pages d'accueil sur un même thème et la présentation d'assortiments d'objets de consommation y afférant sous un angle informatif. Les parloirs et les cercles virtuels sont articulés autour d'un thème, ce qui les rend particulièrement intéressants pour les hommes de marketing. Ils peuvent être définis par zone géographique (Asie, Brésil, Chicago, par exemple), niveau éducatif (étudiants de première année, physique des particules ou travaux de Camille Paglia, par exemple), sujet sensible (désarmement, syndrome de Down), sexe ou orientation sexuelle, religion, activité professionnelle ou autres thèmes plus directement liés à la consommation. Le smart marketern'a pas mis longtemps à saisir toutes les possibilités offertes par cette auto-segmentation. Amazon.Com, par exemple, vous interroge : " Avez-vous un site Web? Si oui, entrez dès aujourd'hui dans le monde du commerce électronique en adhérant au programme Amazon.Com Associates ". En offrant aux membres de son cercle une commission sur tous les livres vendus grâce à " la publicité " sur leurs sites, cette librairie en ligne cherche à bénéficier de leurs relations " originelles ". * Les babillards Les communautés les plus directement liées à la consommation sont peut-être les " babillards ". Il s'agit de communautés en ligne organisées autour de bulletins d'informations électroniques ou BBS (Bulletin Board Systems) sur un intérêt spécifique. Les membres de ces centres d'information déposent et consultent des messages triés par sujet et par date et interviennent dans le déroulement des discussions. Certains sont dédiés aux groupes de musique pop ou au cinéma, d'autres à la bière, aux cigares, à l'automobile ou aux appareils de photo, d'autres encore à Mac Donald ou Taco Bell. Et lorsqu'ils ne sont pas centrés sur un thème lié à la consommation (comme les groupes de parents ou les groupes écologiques), la discussion tourne très souvent autour des produits et services disponibles. La course a déjà commencé pour les entreprises contemporaines, l'objectif étant de créer des liens avec ces communautés en ligne avant les concurrents. L'interactivité de l'internet et la facilité d'accès à l'information sur ce réseau sont à l'origine du changement radical du schéma de pensée des consommateurs dans leur décision d'achat. Changements révolutionnaires La règle du " 80-20 " est un grand classique du marketing : 80 % de la plupart des produits et services d'une entreprise sont achetés par seulement 20 % de ses
clients. Sur le marché de la bière aux États-Unis, par exemple, 16 % des buveurs de bière consomment à eux seuls 88 % de ce produit. On retrouve généralement ce segment de clients fidèles au coeur de toute opération de marketing réussie. L'usage d'internet s'intensifie et la formation de communautés en ligne est de plus en plus représentative du courant général. Par conséquent, c'est en s'adressant aux communautés virtuelles que l'entreprise trouvera des internautes fidèles. Mais si l'accès à l'internet se simplifie, le métier du marketing devient globalement de plus en plus complexe à cause des changements révolutionnaires qui bouleversent la relation consommateur-distributeur. * Les internautes vecteurs de la marque De plus en plus, les consommateurs fidèles définissent ensemble leurs goûts en tant que communauté. En ligne, ceux-ci évaluent ensemble la qualité des produits et services et négocient des standards. L'individu est, en général, très sensible au jugement de tous les membres de la communauté et la réaction collective influence son comportement d'achat et tempère son jugement sur les communications marketing. Si l'on visite, par exemple, la page d'accueil officielle de X-Files (http://www.thex.files.com), on constate que les fans de cette série télévisée en vogue discutent non seulement des mérites de chaque épisode, mais aussi des derniers articles signés par la marque. Le bulletin soulève l'enthousiasme, développe la notoriété et véhicule la demande des consommateurs. Loin de simplifier les choses, les communautés virtuelles compliquent la vie des entreprises parce que le pouvoir leur échappe au profit du consommateur. Force leur est de se rendre compte aujourd'hui qu'elles s'adressent de moins en moins à un individu isolé, mais à un groupe. Bientôt, le " client " se définira un agrégat de consommateurs qui communiquent entre eux et se basent sur leurs connaissances et leurs expériences respectives pour évaluer les messages publicitaires. * En ligne, le marché de masse se dissout complètement Les communautés de consommateurs en ligne sont des groupes de " gros " utilisateurs, l'équivalent virtuel des 20 % qui consomment les 80 % évoqués cidessus. On peut dire que, dans une certaine mesure, ils se sont déjà autosegmentés en fonction de l'intensité de leur intérêt. Cependant, aussi unis que ces segments puissent paraître, ils sont quand même composés d'une multitude de niches, micro-segments et micro-micro-segments dont les membres se réorganisent indéfiniment en " factions " qui défendent une identité. À titre d'exemple, le forum alt.coffee est composé de groupes stratifiés d'amateurs de café qui discutent des avantages des différentes variétés de grains de café, des méthodes de préparation du café, des cafetières et des marques. La meilleure façon de gérer une telle diversité pour l'homme de marketing, c'est de procéder à une segmentation judicieuse et de réussir à distinguer les consommateurs au niveau symbolique où l'identité de marque rejoint leur propre identité. La fidélité à un produit est toujours liée à un besoin de croyance et d'appartenance. Face à l'encombrement et à l'avalanche sémiotique provoqués par l'ère de l'information, la solution qui permettra aux entreprises de garder un axe stratégique sera de se concentrer sur leur identité de marque et leur positionnement global. * Le marketing d'attention et la prime d'attention Le marketing d'attention est basé sur la notion que le bien le plus rare à l'ère de l'information n'est pas le temps ni les données mais l'attention humaine. L'objectif
de tout smart marketer doit donc être de capter l'attention du marché mondial et de ses nombreux segments multidimensionnels. Il en résulte que l'entreprise doit se trouver dans les centres d'intérêt. Très souvent, c'est ce qui lui permettra de développer des marques fortes, qu'il s'agisse de marques connues avec une forte identité (comme Marlboro, Levis ou Coca-Cola) ou de marques de produits de loisirs comme les films. Le marketing grand public doit être lié aux symboles qui ont une signification et vers lesquels l'attention converge. Plus le marketing donnera aux communautés virtuelles un sens lié à leur identité partagée, plus il réussira à fidéliser ses membres. La " prime d'attention " est justement l'une des méthodes qui permet de fidéliser les clients. Avec cette technique marketing, les anciennes pratiques telles que l'interruption des émissions de radio ou télévision sans autre forme de procès ou les affiches obstruant l'horizon, cèdent le pas à un modèle dans lequel le distributeur offre quelque chose à la communauté en ligne en échange de la permission de communiquer avec elle. À titre d'exemple, les sweepstakes en ligne " The Eyes Have It " du fabricant de lunettes Bausch & Lomb (http://www.yoyo.com/games/eyes) proposent aux cyberconsommateurs de participer à un jeu récompensé par une croisière. Bien évidemment, pendant tout le jeu, ceux-ci découvrent les produits Bausch & Lomb tout en livrant des informations les concernant. * Le pouvoir aux mains des consommateurs L'existence de techniques marketing basées sur la prime d'attention et la présence de groupes de consommateurs unis et exigeants fait passer le pouvoir des mains de l'entreprise à celles des consommateurs. Si ces derniers sont de plus en plus nombreux à adhérer à Internet, au commerce électronique et aux opérations marketing en ligne de toutes sortes, ils exploitent aussi ce média pour organiser leur résistance. Les cercles, donjons, parloirs et babillards ont tous été utilisés par les consommateurs comme forums pour fomenter et organiser des actes de dissidence. À partir du moment où les communautés en ligne créent des liens entre des consommateurs réguliers et fidèles, elles risquent aussi de favoriser le sens critique et la méfiance vis-à-vis des fabricants et distributeurs. Plus les membres communiquent entre eux sur Internet, plus ils se sentent forts pour faire face aux techniques du marketing. Les efforts de la firme Sony pour lancer sonremakede " Godzilla " en créant un BBS avec les fans de ce film se sont retournés contre elle quand ce forum est devenu un lieu de récriminations pour une majorité écrasante d'entre eux, ce qui l'obligea à fermer son bulletin. L'exemple le plus tristement célèbre aux États-Unis de friction entre distributeurs et communautés virtuelles est celui des studios Fox Broadcasting. Les fans de leurs émissions télévisées comme les Simpson avaient fait des efforts considérables pour créer leurs propres pages d'accueil Internet dédiées aux émissions en question sans aucun but lucratif. En 1996, le réseau détenu par News Corporation commença à prendre des mesures de répression contre ces sites " non officiels ". Les fans furent mis en demeure de retirer de leurs sites les images et les clips avec la marque Fox. Face à cet événement, il ne leur fallut que très peu de temps pour se rallier, organiser des pétitions et boycotter tous les produits signés Fox. Apparemment, cette réaction a eu des conséquences puisque que la firme Fox et ses licenciés ont finalement fait marche arrière en abandonnant les poursuites légales qu'ils avaient
engagées. Quoi qu'il en soit, la réputation de Fox en a souffert et ses studios se heurteront sûrement encore à la résistance des consommateurs. * Une obligation virtuelle de générosité Cet incident vécu par la firme Fox montre qu'à l'ère de la transmission et de la reproduction instantanées, toutes les questions relatives au commerce de l'information et aux copyrights risquent de faire l'objet de vives controverses. Auparavant, les articles liés à l'information comme les logiciels, les films, les journaux, les magazines et les produits éducatifs étaient considérés comme des biens non fongibles dans la mesure où il était difficile de remplacer un article par un autre. Mais, ce n'est plus le cas aujourd'hui. Les États-Unis ont essayé de protéger juridiquement la propriété intellectuelle de façon rigoureuse avec le GATT (Accord général sur les tarifs douaniers et le commerce) et l'omc (Organisation mondiale du commerce). Des moyens techniques comme les nouvelles formes de cryptage ou des sanctions sévères pour tous ceux qui contourneraient la protection d'un droit de propriété intellectuelle ont été proposés. Mais, contrôler des copies de produits facilement reproductibles dans le monde numérique n'est pas chose facile parce que les auteurs de ces copies les modifient souvent de façon subtile avant de les rediffuser. En fait, un principe marketing simple se fait jour dans cet environnement : les réseaux sont ce qui crée de la valeur et le meilleur moyen de créer ces réseaux est la générosité envers les internautes. C'est d'ailleurs ce type de schéma qui est à l'origine du succès de Netscape, d'eudora et d'un nombre incalculable de standards de shareware ou freeware(logiciels distribués gratuitement). Microsoft a aussi suivi la même stratégie avec son Internet Explorer. Rappelez-vous que l'objectif n'est pas de contrôler l'information, mais de l'utiliser intelligemment pour bâtir des relations durables autour de produits ou de marques. Les communautés virtuelles sont le lieu idéal à la fois pour réaliser les études de marketing qui sous-tendent ces relations et pour créer des clientèles d'abonnés ou d'adhérents. Dans une certaine mesure, la stratégie marketing la plus astucieuse consiste sans doute à offrir aux internautes de l'information qu'ils pourront facilement copier pour leur inspirer confiance et les fidéliser et dégager ainsi des marges sur ce qui est plus difficilement transférable. Lorsque vous vous adressez à ces communautés, adoptez un ton léger. Protégez votre identité de marque, mais offrez aux membres la matière première dont ils ont besoin pour créer une communauté ayant un sens, sans perdre de vue que cette démarche nécessite de la créativité. Traitez-les comme les partenaires de votre développement et de vos ventes. Donnez-leur les moyens de devenir vos hérauts et ils pourraient bien vous offrir une réciprocité virtuelle écrasante. Trois générations de sites bancaires Les sites bancaires de la première génération constituent une excellente illustration de l'approche «brochure», qui n'est pas sous-tendue par une volonté stratégique. Depuis, on a vu apparaître des sites plus sophistiqués qui vous proposent, par exemple, de visiter une agence virtuelle. Aujourd'hui, les banques qui expérimentent les sites de la troisième génération visent à utiliser tout le potentiel du réseau Internet et cherchent à développer des services fortement personnalisés pour chacun de leurs clients. Bientôt, quand vous visiterez le site d'une banque, vous entrerez dans le bureau (virtuel) de votre banquier personnel
(virtuel), qui vous aura adressé un courrier électronique pour discuter avec vous de l'impact de la dernière crise en Russie sur votre portefeuille d'investissements. Le manifeste du cyberconsommateur L'ancienne race des consommateurs fait place à une nouvelle race de cyberconsommateurs. Selon certains universitaires, les tendances du marketing montrent une accélération du processus de l'évolution humaine avec le passage d'une forme de vie purement organique à une nouvelle forme désignée par le mot mystérieux de «cyborg». Grâce à l'avancée de la technologie de l'information, les sens et les goûts du consommateur moyen se propagent sur des millions de noeuds interactifs. Parallèlement, les attentes quotidiennes du consommateur sur le plan de l'information et de la communication changent de façon phénoménale et, pour suivre le rythme de ce changement, les professionnels du marketing devront ouvrir la voie à de nouvelles techniques adaptées à ce processus de «cyborgisation». Et ce en suivant ces quelques principes : Adressez-vous à l'identité du groupe. Les réponses collectives en ligne véhiculent les goûts de consommateurs individuels. Vous ne vous adressez pas au groupe, vous communiquez à travers lui. Si, dans la langue, vous parlez à des individus, gardez présents à l'esprit les identités et les processus de groupe. Ne négligez pas les fragments. Dans les communautés de consommateurs virtuelles, analysez les niches et les micro-segments afin de déceler les différences et les similarités fondamentales qui coexistent dans un marché ostensiblement unifié. Suivez le faisceau des projecteurs. Suivez soigneusement les centres d'intérêt et créez un lien avec les symboles qui ont une signification personnelle et attirent l'attention. Les bonnes campagnes de marketing adressées aux membres des communautés en ligne leur donneront un sens et une inspiration en phase avec leur identité partagée. Envisagez le marketing d'attention. Offrez aux membres de ces communautés virtuelles des incentives comme des concours ou des prix en échange de la permission de leur adresser des informations sur vos produits ou services et d'en apprendre davantage sur eux. Pensez aux cadeaux. Fixez des limites raisonnables en fonction de votre identité de marque et offrez de l'information facilement reproductible. Une telle approche permet aux consommateurs de devenir des ambassadeurs de la marque intégrant les symboles de l'entreprise à leur existence, et aux entreprises de renforcer la confiance et la fidélité de leurs clients. Prenez garde à la révolution. En s'organisant en ligne, les consommateurs se responsabilisent davantage. Préparez-vous à ce que vos décisions commerciales, votre code de conduite et votre qualité soient révélés à la face du monde entier. Si vous ne respectez pas la vie privée ou si vous abusez de la confiance des communautés en ligne, vous êtes certain de courir droit à l'échec avec Internet. Chapitre 12 Trouver le bon mix à l'international Quelles stratégies marketing une entreprise doit-elle mettre en oeuvre pour mener un développement international cohérent : opter pour une approche standardisée ou au contraire adaptée à chacun de ses marchés? ARVIND SAHAY Globalement, le marketing international gère deux types de situation : - l'entrée et le renforcement de la présence sur les marchés internationaux ; - le positionnement des entreprises qui exercent leurs activités à l'échelle internationale et qui sont déjà présentes sur les marchés qui les intéressent. Des multinationales comme Coca-Cola, General Motors, Philips, Hyundai, Sony, Daimler-Benz, Glaxo Wellcome, Motorola, Hewlett-Packard, Microsoft et Infosys
entrent dans le cadre de cette deuxième catégorie. Le problème, pour ces firmes, n'est pas tellement de pénétrer sur le marché, mais de gérer leur marketing mix à l'échelle internationale. Quelles sont les principales difficultés auxquelles sont confrontés les professionnels du marketing sur le plan international? Généralement, elles se résument aux questions suivantes : - Comment développer un produit pour le marché mondial? Faut-il le lancer simultanément sur tous les marchés (modèle de l'arrosage) ou de façon séquentielle (modèle de la cascade)? - A la lumière des théories des grands penseurs qui défendent la standardisation comme Théodore Levitt, jusqu'à quel point l'entreprise doit-elle uniformiser ses produits et les autres éléments de son marketing mix et jusqu'où les adapter aux différents marchés individuels? - Si elle choisit de moduler son approche en fonction de ses différents marchés, comment éviter les hétérogénéités qui risquent de lui être préjudiciables? En d'autres termes, les différences relatives aux caractéristiques des produits et au positionnement de la marque dans les divers pays ne constituent-elles pas un obstacle? - Plus généralement, faut-il opter pour un marketing mix standardisé ou adapté à chaque pays ou chaque marché? Il s'agit là de questions fondamentales. A défaut d'une stratégie marketing cohérente, intégrant les actions sur tous les marchés de l'entreprise, on tombe très vite dans un schéma de fonctionnement «multilocal», qui ne permet pas de saisir toutes les opportunités résultant de la coordination des actions sur le plan international. Poussée à l'extrême, la stratégie d'adaptation locale considère chaque marché national comme une identité séparée, à gérer isolément. Développement de produits Lorsqu'un produit est élaboré pour un marché géographique donné, un petit effort intellectuel supplémentaire, en termes de développement, peut suffire pour l'exporter vers d'autres pays (comme c'est le cas avec les produits pharmaceutiques). Mais parfois aussi, la tâche peut être énorme. Un même médicament, par exemple, soigne généralement les mêmes maux dans tous les pays. Sur certains marchés, les médicaments «étrangers» doivent franchir des barrières réglementaires et les systèmes de distribution peuvent être très différents, mais à la base, le produit commercialisé est le même (exception faite peut-être de la marque et du conditionnement). En revanche, les goûts des consommateurs en matière de véhicules automobiles sont très différents en Amérique du Nord, en Grande-Bretagne, en Allemagne, en Italie, au Japon ou en Inde. Une voiture «universelle» ayant les mêmes caractéristiques pour tous les pays serait vouée à l'échec. Le constructeur doit donc trouver un juste milieu entre la fabrication d'un modèle différent pour chaque marché - ce qui représente des coûts exorbitants - et la conception d'un modèle unique pour tous les marchés. Nissan a été l'un des premiers à aller dans ce sens. Il a réduit de 40 à 8 le nombre des châssis pour ses voitures, destinées à plus de 75 pays différents. Ford a été encore plus loin lorsqu'il a créé des équipes «transnationales» aux
Etats-Unis, au Japon et en Italie, pour concevoir sa Mondeo-Contour. Ses designers ont adopté une approche modulaire permettant de combiner et d'assortir les différents composants, afin de répondre aux attentes des divers marchés. Ceci a permis à la firme de réduire significativement le nombre de pièces et de fournisseurs, sans diminuer pour autant le nombre d'options disponibles pour le consommateur. Il existe cependant des sociétés qui développent le même produit pour tous les marchés, indépendamment des préférences locales. Kellogg, par exemple, a ainsi réussi à changer les habitudes de consommation. Il y a vingt ans, les céréales pour le petit déjeuner étaient encore inconnues en France. Aujourd'hui, elles sont présentes dans tous les supermarchés. Kellogg était passé outre les résultats des études démontrant que les céréales ne se vendraient pas dans ce pays. En revanche, Coca-Cola modifie le goût de sa boisson en fonction des préférences locales. Le «Coke» que l'on boit aux Etats-Unis n'est pas le même que celui que l'on consomme au Royaume-Uni, qui, lui-même, diffère de celui distribué en Inde. Cela nous donne un aperçu de l'éventail des stratégies de développement de nouveaux produits. Dans certains cas, les firmes adaptent leur produit à chaque marché ; dans d'autres, elles offrent le même produit standardisé partout ; et parfois elles font des compromis et optent pour une position intermédiaire. Il y a néanmoins une approche récurrente dans le développement de nouveaux produits pour l'international : les concepts issus d'un marché national spécifique sont fréquemment repris dans d'autres pays. La lessive Tide de Procter & Gamble commercialisée aux Etats-Unis, par exemple, comporte des tensioactifs développés pour le marché hollandais et des enzymes développés pour le marché japonais. L'entreprise qui coordonne l'ensemble de ses efforts sur plusieurs marchés nationaux arrive généralement à développer de meilleurs produits et services. Bien évidemment, ceci ne peut s'appliquer à une entreprise qui n'est présente que dans un seul pays ou qui vient juste d'entrer sur un nouveau marché. Avec les réseaux Internet et Intranet, on peut aujourd'hui explorer plus vite l'ensemble des marchés, afin d'extraire toutes les informations nécessaires et d'identifier les caractéristiques que le nouveau produit devra intégrer. Unilever, par exemple, possède quatre laboratoires de recherche internationaux qui développent des produits pour ses différents marchés nationaux, tout en fournissant des informations pour des produits internationaux. Ces laboratoires coordonnent leurs activités en étudiant les possibilités de fusionner les idées issues des divers pays. Quant aux centres de développement de logiciels de Motorola, ils conjuguent leurs efforts en travaillant sur les différents modules d'un même projet. Il faut encore souligner un dernier point : les méthodes de développement de produits varient sensiblement d'un pays à un autre. Les Japonais, notamment, préfèrent d'abord lancer leurs produits sur le marché et mesurer ensuite la réaction qu'ils suscitent. Il arrive d'ailleurs que les entreprises développent leurs produits en fonction des observations de leurs clients actuels et potentiels plutôt qu'au regard d'études de marché classiques. Pour leur part, les Américains s'en tiennent généralement à des techniques d'études de marché plus formelles. Et les entreprises allemandes accordent plus d'importance au calendrier des projets de développement de produits. Le lancement de produits La firme Toshiba a commercialisé son DVD au Japon en novembre 1996, puis aux Etats-Unis en mars 1997 et enfin en Europe en automne 1997. Intel au contraire a lancé ses circuits intégrés pratiquement dans tous les pays en même temps.
D'un autre côté, on peut s'attendre à ce que plus d'un million de véhicules équipés de systèmes de navigation, en série ou en option, soient vendus au Japon en 1998, alors qu'il n'y en a eu qu'un très petit nombre vendus aux Etats-Unis et en Europe, et que l'on n'en trouve pas encore dans les pays en voie de développement. Les stratégies de lancement varient en fonction des catégories de produits. Peut-on en déduire un certain nombre de postulats? Cette démarche exige de procéder d'abord à une typologie des produits et des services en fonction des consommateurs. Le premier critère que nous retiendrons est la distinction entre les produits, qui forment une unité distincte achetée séparément par les consommateurs, et les composants qui font partie d'un produit ou d'un service. Le deuxième critère concerne les investissements promotionnels requis pour assurer le décollage du produit et le troisième, le prix du produit. On a constaté qu'un produit qui apporte les avantages souhaités arrive à se vendre très vite en masse dans les pays les plus industrialisés, à condition que son prix ne dépasse pas les 1.500 francs. Cependant, même à ce niveau de prix, il y a peu de chance que ce produit devienne réellement un article en série dans les pays en voie de développement. Les autres critères à retenir sont l'exigence de produits ou de services complémentaires pour que le lancement puisse réussir et le stade du cycle de vie de la catégorie de produits dans le pays concerné. Les études que j'ai réalisées montrent que, lorsque l'on a affaire à des biens «intermédiaires» achetés par des entreprises, le lancement est généralement simultané au moins dans les pays arrivés à un même stade de développement. La réalité est moins probante pour les biens de consommation. En général, les entreprises ont tendance à adopter l'approche séquentielle, comme on peut le voir avec les DVD, les systèmes de navigation automobile et les rasoirs. Les faits montrent aussi que les entreprises préfèrent souvent avoir plusieurs niveaux de marques. Quelques marques sont internationales mais beaucoup d'autres sont spécifiques à un pays. Sur les 560 marques que Nestlé possédaient en 1995, 250 étaient présentes sur un seul marché national, et seulement 19 dans plus de 50 % des pays où la firme était implantée. En ce qui concerne le prix, plus un bien de consommation s'élève au-dessus de la barre des 1.500 francs, plus la probabilité d'un lancement simultané dans l'ensemble des pays industrialisés est grande. Les produits qui ont un prix élevé sont généralement acquis par le segment des innovateurs ou des pionniers, qui sont indifférents à la politique d'écrémage du marché (voir ci-dessous). Les études montrent également que la technique de la cascade prévaut sur celle de l'arrosage dans les situations énumérées ci-dessous. 1- Le cycle de vie du produit est relativement long. 2- De nombreux marchés affrontent des conditions économiques défavorables comme un taux de croissance lent. 3- Le niveau de la concurrence est faible dans la plupart des marchés. Quand un nouveau produit est lancé à différents moments dans plusieurs pays, le taux d'acceptation est généralement plus fort dans les pays «suiveurs» que dans les pays «leaders», car les clients potentiels ont plus de temps pour comprendre et évaluer l'innovation.
En termes d'infrastructures, le taux de pénétration est aussi souvent plus important dans les pays «suiveurs». La qualité des produits s'améliore généralement au fil du temps et les prix baissent grâce aux économies d'échelle. Standardisation contre adaptation Le lancement d'un produit suppose un certain nombre de décisions sur le plan du marketing mix. Quand la CityBank a lancé sa carte de crédit dans la région du Sud- Est asiatique en 1991, elle a opté pour une approche séquentielle et a adapté les caractéristiques de son produit à chaque marché tout en maintenant son positionnement haut de gamme. Elle a aussi mis en place des stratégies de prix, de promotion et de distribution différentes pour chacun d'eux. Comme la CityBank est l'une des banques les plus internationalisées, elle se trouve aujourd'hui confrontée à un problème particulier. En effet, aux Etats-Unis, elle s'adresse au marché de masse et sa clientèle est essentiellement issue de la classe moyenne, même si l'on note un certain nombre de clients à revenus élevés. En revanche, en dehors des Etats-Unis, elle s'est positionnée comme un prestataire de services bancaires haut de gamme ciblant une clientèle aisée. Au Royaume-Uni, les clients doivent justifier d'un revenu minimum annuel supérieur à 300.000 francs pour ouvrir un compte personnel à la CityBank et, en Inde, il faut un solde minimum de 45.000 francs. Enfin, 90 % de la clientèle privée de la CityBank se trouve en Asie. Dans ce contexte, il est évident que le positionnement de la banque aux Etats-Unis est incompatible avec celui qu'elle s'est forgée ailleurs. (Nous verrons par la suite si la banque doit y remédier). Prenons, à l'inverse, l'exemple de Rolex. Le produit Rolex authentique est toujours le même chronomètre officiel partout dans le monde ; et le positionnement comme la publicité de la firme sont identiques dans tous les pays (une montre pour les gagneurs aux goûts sophistiqués). Enfin, les montres Rolex ne sont vendues que dans des circuits de distribution haut de gamme à un prix élevé. Examinons maintenant le cas du savon Lifebuoy de la firme Unilever dont les ingrédients ne sont pas les mêmes en Afrique de l'est et en Inde. Cette différence n'a pas empêché le groupe de lui conférer le même positionnement sur ces deux marchés : un savon quotidien à prix bas, qui respecte la peau et possède des propriétés antibactériennes. La preuve est faite que l'on peut opter pour un marketing mix international parfaitement standardisé. On peut également choisir d'avoir certains facteurs communs à l'ensemble des marchés ou au contraire d'en adapter d'autres. Nous ne tiendrons pas compte ici de la stratégie extrême qui consiste à adapter tous les éléments du marketing mix. Comment une entreprise internationale peut-elle ainsi décider de standardiser ou d'adapter son marketing mix? L'une des solutions consiste à passer en revue les différents critères énumérés précédemment. Est-ce que l'article constitue une unité en soi ou est-il un composant d'un autre produit ou d'un autre service? Si le produit est acheté séparément par le consommateur, il est plus difficile de faire jouer la prescription. Il va également de soi que les produits liés à la culture exigent le plus souvent une adaptation du marketing mix. Si l'on prend l'exemple du DVD, le marketing mix était sensiblement le même au Japon, en Amérique du Nord et en Europe. (Par «produits liés à la culture», on entend ici les produit qui
sont fortement influencés par la culture d'un pays : les vêtements, les produits alimentaires, la décoration intérieure etc. relèvent souvent de cette appellation). On constate également que l'approche standardisée prévaut pour les produits positionnés à l'extrémité supérieure de la gamme en termes de prix, de prestige et de rareté, car ils s'adressent à des segments relativement homogènes dans le monde entier. L'inverse est également vrai, c'est-à-dire que le positionnement des produits destinés au marché de masse varie souvent en fonction des pays. Enfin, si le produit est un composant acheté par une entreprise pour la fabrication de ses propres produits, on aura généralement un marketing mix standardisé. Il peut certes y avoir des divergences dans les stratégies de force de vente et de fixation de prix, mais le positionnement de base dépend de la fonction du composant par rapport au produit final. Quel investissement publicitaire/promotionnel est nécessaire pour faire connaître le produit aux clients cibles sur les marchés intéressés? En règle générale, les produits achetés directement par le consommateur exigent des investissements publicitaires/promotionnels plus élevés que les composants intermédiaires à d'autres biens de consommation. En effet, dans les pays les plus industrialisés, ces produits requièrent une «part de voix» plus forte dans les différents médias pour rester présents à l'esprit des consommateurs. Parallèlement, il faut aussi adapter la publicité aux différents marchés nationaux, ce qui rend plus difficile l'option d'un marketing mix homogène. Quant au marketing mix des composants, il est généralement standard. S'il s'agit d'un produit destiné au consommateur, où doit se situer son prix par rapport à la barre des 1 500 F? Les produits de prix élevé sont souvent des produits nouveaux qui s'adressent à une cible de consommateurs composée essentiellement d'innovateurs et de pionniers. Cible qui se laissent facilement séduire par les nouveautés indépendamment de leur prix. A partir du moment où les clients ne sont pas sensibles aux prix, les entreprises peuvent pratiquer la politique de l'écrémage du marché. Plus on s'élève au-dessus du seuil des 1.500 francs, plus l'entreprise pourra demander des prix élevés. Les caractéristiques de tels produits changent vite et ils sont commercialisés sélectivement sur l'ensemble des marchés. Cette approche repose sur le raisonnement que la population d'innovateurs et de pionniers est identique dans tous les pays. En dessous de la barre des 1.500 francs, le produit entre sur le marché de masse et s'adresse à différents segments, qui ne seront probablement pas les mêmes dans tous les pays, ce qui exigera une plus grande adaptation du marketing mix ; et plus le prix baisse, plus ce phénomène s'intensifie. Le succès du produit sur le marché est-il lié à des produits/services complémentaires? Certains produits et services comme les ordinateurs, les voitures ou les services médicaux ne peuvent réussir sur le marché qu'en présence de produits et/ou services complémentaires ; d'autres comme les produits alimentaires, le textile ou les jouets n'ont pas besoin d'autant de «compléments» pour que le consommateur puisse en profiter. Là encore, le niveau des compléments varie en fonction des différents marchés
internationaux. Lorsqu'un produit n'a pas besoin de complément, il va de soi que les éléments de son marketing mix ne dépendent pas d'autres produits, ce qui offre davantage de souplesse pour une adaptation aux marchés nationaux. Bien évidemment, l'inverse est vrai. Quel est le stade du cycle de vie de la catégorie de produit dans le pays ciblé? Si les pays ne sont pas au même stade de développement, il en est généralement de même pour le cycle de vie des catégories de produits. Si l'automobile, par exemple, est un produit mature aux Etats-Unis, en Europe et au Japon, elle n'est qu'à la fin du stade de croissance en Corée du Sud et au tout début en Inde. En Europe occidentale, par exemple, les voitures sont autant l'expression d'un style de vie qu'un moyen de transport, même sur le marché de masse. La publicité reflète d'ailleurs très bien ce phénomène et s'attarde rarement sur les caractéristiques de l'offre produit/service. En revanche, dans un pays comme l'inde où la voiture est aussi un symbole de statut social, la consommation d'énergie, la sécurité et le prix sont plus déterminants dans le comportement d'achat que les références aux styles de vie. La publicité automobile en Inde doit donc en tenir compte. Pour en revenir à la CityBank, comment cette banque peut-elle résoudre son problème de positionnement hétérogène sachant que, lorsqu'elle s'implante sur un marché, c'est à long terme, et qu'elle ne peut d'un point de vue réaliste mettre fin à ses activités dans certains pays? Cette hétérogénéité n'est pas un problème tant que les consommateurs asiatiques ignorent le positionnement de la banque aux Etats-Unis. En revanche, si la clientèle asiatique haut de gamme apprend la situation et que cela devient problématique, l'une des approches possibles (adoptée par la CityBank en l'occurrence) est d'évoluer vers les milieux «intermédiaires» en Asie avec une gamme de produits différente. Avec le temps, cette évolution devrait permettre à la CityBank d'harmoniser son positionnement sur tous ses marchés. Etant donné que cette banque commercialise ses services sur des marchés ayant atteint différents niveaux de développement d'infrastructures et où les exigences des consommateurs ne sont pas les mêmes, elle doit inévitablement différencier les caractéristiques de ses produits, de même que sa politique de prix et de distribution. Cependant, en conservant son offre différenciée pour l'élite de ses clients et en l'élargissant pour englober le marché de masse, la banque pourra briguer une image uniforme dans le monde entier. Entrer sur un marché étranger quand on est une PME Evaluer les différences culturelles du ou des marchés cibles, choisir, au vu de son propre réseau, les bons distributeurs et le type de contrat approprié, définir le marketing mix... les PME désireuses de se développer à l'international ont quelques règles d'or à respecter. TIM AMBLER ET CHRIS STYLES Implication et énergie sont deux qualités essentielles pour passer de la vente sur un marché local à l'exportation. Pour réussir, il est nécessaire de concentrer toutes les énergies humaines sur un seul objectif : faire connaître la marque au consommateur final ; et, dans cette optique, la foi aveugle est souvent aussi importante que l'analyse rationnelle. Le présent article envisage six aspects principaux du marketing international. Il est
fondé sur une étude menée auprès de 400 PME britanniques et australiennes, entrées récemment sur le marché de l'exportation et ayant un effectif inférieur à 500 personnes. Bien évidemment, l'exportation de biens matériels n'est qu'un moyen d'entrer sur la scène internationale. Nombre d'entreprises, notamment dans le domaine des prestations de services, ont intérêt à exercer leurs activités à l'échelon local. Parfois aussi, les réglementations nationales ou l'existence de taxes à l'importation prohibitives ne leur laissent pas le choix. Pour simplifier les choses, le terme «exportation» désigne ici toute forme d'entrée sur un marché étranger, et le terme «distributeur» le partenaire de l'entreprise sur ce nouveau marché, indépendamment du lien juridique qui existe entre eux. La décision d'exporter Parmi les raisons qui peuvent motiver l'entrée sur des marchés étrangers, on trouve : le désir de reconduire ailleurs ce qui a réussi sur le plan national ; une taille de marché domestique trop petite pour un produit (spécialisé) ; ou de piètres résultats à l'échelle nationale. Il y a aussi le cas des entreprises qui naissent déjà avec l'idée de s'installer sur les marchés étrangers, comme nous l'avons constaté en Australie. Parfois, l'entrée sur le marché est le fruit d'un heureux hasard, qu'il s'agisse de contacts intéressants noués pendant les vacances ou de cousins, amis ou autres relations en quête de nouvelles opportunités commerciales. Certaines PME adoptent une démarche plus rigoureuse et suivent le cadre analytique proposé par Philip Kotler, professeur à la Kellogg School. Cette approche part du monde dans son ensemble (environ 200 marchés) et adopte une analyse économique (basée sur l'élimination) pour procéder au choix des pays d'exportation, du type de partenaires étrangers et du marketing mix. C'est seulement après toutes ces considérations que l'on voit apparaître les questions organisationnelles, comme le recrutement pour les fonctions à l'exportation. L'étude que nous avons effectuée montre que, dans 25 % des cas, ce sont les distributeurs étrangers qui prennent le premier contact avec un exportateur. Si l'on prend l'exemple du fabricant de chaussures Dr. Marten's, ce sont les commandes spontanées qui ont abouti à la création du réseau formel de distributeurs que l'on connaît aujourd'hui. Les réseaux personnels représentent aussi une part importante des relations exportateur-distributeur (43 % des cas). Il arrive que l'exportateur et l'importateur ne se soient jamais rencontrés ou que l'importateur ait seulement visité les installations de l'exportateur. En présence de commandes spontanées, la décision d'exporter dépend généralement plus de la solvabilité de l'entreprise que de la stratégie marketing. Si les clients continuent à commander et à payer, la société n'a même plus de questions à se poser, comme dans le cas de Dr. Marten's, et les dirigeants ne se souviendront même pas d'avoir pris formellement la «décision» d'exporter. Bien sûr, la décision de s'aventurer à l'étranger peut toujours être rationalisée, surtout avec du recul. Mais les faits montrent qu'elle ne découle généralement pas de l'analyse des options possibles pour l'entreprise. Il va de soi également que les grandes entreprises tendent à adopter des approches plus analytiques et à refuser les demandes spontanées des distributeurs. Organisation des exportations Par essence, les manuels accordent la première place à l'analyse et la dernière aux
contacts personnels. Néanmoins, un exportateur qui se lance tout juste sur un nouveau marché n'a pas toujours les moyens de mener une étude exhaustive. Quand on décide de la structure organisationnelle à mettre en place, le problème qui se pose habituellement est que tout le monde s'empresse de vous fournir des informations et des conseils, mais personne n'est prêt à entreprendre le travail requis pour enclencher le mouvement. La somme de données et de conseils offerte par les gouvernements, par exemple, est souvent énorme, et ceux qui ont pour mission d'aider les exportateurs pensent généralement qu'ils en veulent plus alors qu'en fait ils en veulent moins. Avec les vastes bases de données dont on dispose, l'information devient un obstacle plutôt qu'une aide à l'exportation. La solution, si elle est dans les moyens financiers de l'exportateur, consiste à réduire les risques et à maximiser son expertise via l'achat de ressources spécialisées. Certains gouvernements proposent des subventions à cet effet. L'entreprise choisira alors des consultants qui réaliseront une étude de faisabilité et lui recommanderont les marchés les plus intéressants. Ensuite, elle pourra s'adresser à une agence de marketing extérieure qui élaborera un certain nombre de recommandations. Et ce n'est que si la nouvelle activité internationale s'avère faisable qu'elle prendra des engagements auprès de distributeurs et recrutera une équipe interne pour son service exportation. L'entrée sur un premier marché étranger dépend moins d'une analyse formelle que de la volonté et de l'engagement de l'entreprise. Le succès dépend également des relations personnelles durables qu'elle aura tissées. Les dirigeants doivent donc penser sérieusement à nommer une équipe à l'exportation, aussi petite soit-elle. S'ils ont recours à des ressources extérieures, il leur faudra également veiller à assurer au bon moment le transfert en interne des relations qui se seront créées, en évitant les heurts. Ce qu'il faut avant tout, c'est un réseau relationnel, de l'enthousiasme, une sensibilité culturelle ainsi qu'un certain nombre de compétences personnelles. La sélection des marchés Quand il entre pour la première fois sur un marché étranger, l'exportateur choisit en général un pays qui ressemble au sien. Il souhaiterait garder les mêmes produits, les mêmes prix et les mêmes stratégies marketing. En sélectionnant un marché limitrophe où l'on parle la même langue, il réduit la distance «géoculturelle» ou «psychique». Cependant, les populations de ces marchés cibles réprouvent souvent très vite ce genre d'assimilation. Ces dernières années, l'amélioration de la communication internationale a élargi le choix des premiers marchés étrangers pour l'entreprise. Les petites sociétés ne sont pas les dernières à employer des systèmes de communication modernes pour exercer leur activité dans des pays éloignés, comme ce fermier du Norfolk en Grande-Bretagne qui vend ses pattes de canard en Chine. Quelles ressources faut-il affecter aux études avant la première visite? Il est bon de rappeler ici que les études fournissent des données, mais n'apportent pas de réponses. Si vous êtes dans le secteur de la chaussure, par exemple, est-ce qu'un faible taux de ventes de chaussures par habitant est un bon signe (existence d'une opportunité) ou un mauvais signe (les gens n'achètent pas de chaussures)? Si vos concurrents nationaux sont déjà implantés sur ce marché, cela signifie-t-il que ce dernier est intéressant ou bien qu'il vaut mieux l'éviter? Certaines PME, de façon insensée à notre avis, passent énormément de temps à étudier la macroéconomie des marchés à l'exportation. Mais est-ce qu'une inflation
de 6,7 % ou 7,2 % fera la moindre différence sur des ventes initiales si faibles qu'elles sont pratiquement égales à zéro? Cela ne veut pas dire pour autant que nous sommes opposés à toute analyse. Nous conseillons un juste équilibre entre une analyse restreinte de haute qualité et le suivi des opportunités humaines et relationnelles. Les principales questions révélées par notre étude sont les suivantes : - La proportion d'utilisateurs finaux potentiels dans la population est moins intéressante que le nombre total d'habitants. Une faible partie de la population indienne, par exemple, représente déjà un chiffre important ; - Les gens ont-ils les moyens d'acheter ce que vous vendez? Les indicateurs macroéconomiques sont moins intéressants que l'identification du nombre de clients ayant des revenus suffisants pour intégrer vos produits dans l'éventail de leurs achats ; - Quel est le potentiel de votre marché en termes de réseau? Ici, la taille du marché a de l'importance parce que le réseau augmente géométriquement avec elle. D'un point de vue économique, combien devrez-vous investir réellement pour atteindre votre client final? - Toutes les relations au sein de votre réseau sont importantes, mais pas autant que celles entre votre importateur et vous-même. Avez-vous des chances de trouver un distributeur qui soit à la fois suffisamment compétent pour réussir avec vos produits et suffisamment motivé pour avoir envie de les vendre? La plupart des distributeurs sont déjà trop occupés, c'est la raison pour laquelle ils ne répondent pas à ces critères ; - Quelles sont les différences culturelles de votre marché cible? L'affinité culturelle renforce la compréhension mutuelle et augmente les chances que ce qui marche chez vous réussisse aussi ailleurs ; - La plupart des nouveaux exportateurs ne se lancent que dans un pays à la fois, mais plusieurs arguments militent en faveur d'une entrée simultanée sur deux ou trois marchés. En effet, si l'on dispose des ressources appropriées, cette approche permet d'en apprendre davantage et plus vite. Mais il ne faut pas oublier non plus que les ressources ne sont pas élastiques. Vous serez peut-être surpris de constater que la concurrence, les niveaux de prix et les facteurs environnementaux ne figurent pas sur cette liste. Il est évident que le nouvel exportateur doit positionner son offre de façon à se différencier des marques existantes et de faire encore mieux. Mais il s'agit là de marketing de base. Si les conditions précédentes sont réunies, la compétitivité n'est pas une considération majeure pour la plupart des PME. Le choix du distributeur Si nous avons plutôt minimisé l'importance du choix du premier marché et de l'organisation à l'exportation, il n'en va pas de même pour le choix du distributeur. Il vaut mieux un pays de seconde zone qu'un mauvais distributeur. L'une des toutes premières décisions à envisager pour l'entreprise est de déterminer le type de contrat le plus approprié, bien que ce facteur puisse aussi être guidé par des préoccupations plus personnelles qu'économiques. Les options possibles sont globalement les suivantes : contrat d'importation, contrat de licence, joint-venture, fabrication-assemblage local ; contrat de gestion ; usines clefs en main ; ou acquisition. On trouvera dans la plupart des manuels des schémas d'analyse solides présentant les coûts et les avantages de chacune de ces formules.
Les études montrent que les entreprises développent leurs marchés étrangers de façon incrémentale, minimisant ainsi le risque à chaque étape. Les premières ventes à l'exportation sont souvent réalisées de façon ad hoc et, quand un certain schéma se dessine, l'entreprise signe généralement un contrat avec un unique importateur. Ensuite, elle passe au stade de la fabrication locale basée sur un contrat de licence ou de joint-venture et, pour finir, elle lance sa propre activité à part entière sur le marché étranger. Cette approche présente quatre principaux objectifs : aussi être guidé par des préoccupations plus personnelles qu'économiques. Les options possibles sont, en général, les suivantes : contrat d'importation, contrat de licence, co-entreprise (joint venture), fabrication/assemblage local ; contrat de gestion ; usines clés en main ; ou acquisition. On trouvera dans la plupart des manuels des schémas d'analyse solides présentant les coûts et les avantages de chacune de ces formules. Les études montrent que les sociétés développent leurs marchés étrangers de façon incrémentale, minimisant ainsi le risque à chaque étape. Les premières ventes à l'exportation sont souvent réalisées de façon ad hoc et, quand un certain schéma se dessine, l'entreprise signe généralement un contrat avec un importateur. Ensuite, elle passe au stade de la fabrication locale basée sur un contrat de licence ou de co-entreprise et, pour finir, elle lance sa propre activité à part entière sur le marché étranger. Cette approche a quatre avantages : - contrôler le marketing sur le plan local pour aligner les stratégies et assurer l'uniformité au-delà des frontières ; - dégager des profits supplémentaires (la part de distributeur) ; - approfondir les connaissances de l'entreprise de façon à s'en servir ultérieurement sur d'autres marchés ; - exploiter les marques principales de l'entreprise pour stimuler le reste de ses produits. Si nous anticipons déjà toutes ces questions, c'est parce qu'une approche pas à pas, même si elle a pour but de minimiser les risques, comporte également un risque en soi. En effet, pourquoi un importateur (pour qui cette démarche est déjà familière) s'engagerait-il aux côtés d'un exportateur qui ne travaillera avec lui que tant qu'il n'aura pas trouvé de meilleure solution? La confiance et l'engagement sont essentiels et doivent être réciproques. Toute entreprise s'imaginant qu'un développement progressif consiste à se jeter dans les bras d'un distributeur pour le quitter aussi vite doit réviser ses choix en se plaçant du point de vue de son partenaire. L'insécurité peut facilement faire avorter un mouvement à l'exportation. Gunnar Beeth, consultant spécialisé en la matière, propose de sélectionner ainsi un distributeur lorsqu'un marché (ou une shortlistde marchés) a été choisi : d'abord rencontrer les détaillants pour découvrir quels sont les distributeurs qui réussissent le mieux et sont le plus respectés ; ensuite, éliminer ceux qui ont des relations conflictuelles ou cherchent à récupérer ce qu'il y a de mieux dans ce qui reste. Aussi prudente soit-elle, cette méthode n'est pas valable dans les marchés asiatiques où il est nécessaire de créer des relations avec les détaillants avant d'entamer de vraies discussions. Ces pays requièrent aussi plus de subtilité et de détermination que les autres et l'exportateur devra d'une façon ou d'une autre nouer des relations amicales avant d'entreprendre quoi que ce soit. Il ne faut surtout pas négliger les contacts avec les distributeurs potentiels. Il
s'agit probablement du facteur le plus important en soi pour démarrer. L'objectif n'est pas seulement d'identifier le bon distributeur, mais aussi de le convaincre de travailler avec vous. Et cela risque d'être plus difficile. Il y a toutes les chances que vous soyez séduit par les distributeurs qui réussissent déjà et qui seront donc peu intéressés par votre proposition. À la longue, vous risquez même de vous inquiéter en voyant qu'aucun distributeur n'est prêt à accepter votre offre. Le distributeur idéal entretient des relations très solides avec ses clients ; il a un assortiment de produits pointu avec l'espace qui convient ; il commercialise des produits compatibles avec les vôtres ; enfin, il génère un volume d'activité suffisant, que l'on appelle généralement la masse critique. Par masse critique, on veut dire que le distributeur possède un éventail de produits suffisamment important et/ou puissant pour attirer l'attention des détaillants. Il s'agit donc d'un facteur difficilement quantifiable. Une affaire prestigieuse ou très spécialisée, par exemple, peut très bien avoir une masse critique sans faire de grands volumes ni détenir une part de marché importante. Si le nouveau produit est suffisamment intéressant, l'entreprise captera l'attention même avec un très faible volume d'activité. En revanche, plus la gamme de produits est ordinaire, plus il faut une part de marché importante pour posséder une masse critique. La règle générale est une part de marché de 10 % (le «marché» étant entendu ainsi que le définissent les clients immédiats). Les principales questions qui se posent dans le choix d'un distributeur sont les suivantes : - Quel type de contrat faut-il signer pour la situation et la catégorie de produits envisagées? - Pouvez-vous vous engager à long terme et créer un climat de confiance entre vous et votre distributeur? - L'assortiment de votre distributeur est-il adapté à vos produits? A-t-il une masse critique? - Comment utiliser au mieux les réseaux (par des contacts ou des visites préalables, par exemple) pour bâtir des relations avec le distributeur de votre choix? - Comment faire en sorte que ces relations se transforment en un véritable partenariat? Pour les multinationales, c'est plus difficile. En effet, les petits importateurs ne font pas confiance aux directeurs de multinationales, qui changent souvent de fonction sans crier gare. À l'inverse, les petits exportateurs ont du mal à s'assurer les services des distributeurs qui réussissent et ont déjà de l'importance. - Avez-vous réellement besoin d'un distributeur? Vous pouvez peut-être, au moins dans votre région, vendre directement aux détaillants. - Enfin, faut-il engager plusieurs distributeurs? Un grand fabricant de métiers à broder en Chine avait l'habitude de recruter trois distributeurs dans chaque nouveau marché et de congédier ensuite les deux qui affichaient les moins bons résultats. La «monogamie» a toujours eu du succès, au moins dans certaines cultures, mais on ne peut cependant écarter les liaisons multiples. Un importateur sur la côte est
des États-Unis peut ne pas être présent sur la côte ouest à 5 000 kilomètres de là. Enfin, la plupart des exportateurs accordent une exclusivité aux distributeurs, au moins au départ, pour faciliter le développement du capital de marque. Le développement des relations exportateur-distributeur La prochaine étape pour l'exportateur consiste à développer ses relations avec son distributeur et à définir son marketing mix. Les manuels recommandent, en général, de commencer par la définition du marketing mix et de procéder ensuite à la sélection du distributeur. Or, le distributeur est celui qui a le plus son mot à dire dans la définition du marketing mix. Il est donc logique de le nommer en premier. Cette approche inversée se justifie par le fait que le distributeur connaît mieux le marché que l'exportateur. Il vit dans le marché cible et, dans l'idéal, il y exerce une activité florissante. Par conséquent, si vous souhaitez que votre distributeur soit motivé et se sente concerné par les résultats, il faut aussi que le plan marketing soit le sien. Il est évident que l'exportateur et le distributeur ont intérêt à unir leurs compétences respectives. Ils agiront au mieux de leurs intérêts en échangeant leur savoir et en devenant de vrais partenaires. En outre, il n'y a pas que l'exportateur qui s'enrichit des connaissances du distributeur, mais aussi tout le réseau de compétences et de ressources qui gravite autour de ce dernier. À notre connaissance, aucune entreprise n'a encore eu recours à un système de contrôle et de planning pour formaliser ce type de relations ou les étapes de la création d'un réseau relationnel. La plupart des managers se sentiraient mal à l'aise s'ils devaient nouer des relations humaines dans de telles conditions. Cela dit, il en était ainsi des relations entre cadres dans l'entreprise jusqu'à ce que les évaluations annuelles ne deviennent une pratique courante. Nos études montrent que les exportateurs qui réussissent le mieux sont ceux qui communiquent le plus fréquemment avec leurs homologues (par courrier, fax, appels téléphoniques et visites). Mais, bien évidemment, il est difficile de savoir où est la cause et où est le résultat. Une invitation à visiter le marché national ou tout autre marché aux frais de l'exportateur est un bon investissement et montre d'emblée qu'un vrai partenariat est en train de se nouer. La même visite aux frais du distributeur est encore mieux car elle témoigne de son engagement. En effet, celui-ci procède dès le départ à un investissement qu'il aura à coeur de rentabiliser. Les conséquences pour les nouveaux entrants sont claires et exposées ci-dessous. - Trouver un distributeur est peut-être une question de chance au départ, mais cette initiative ne doit pas être laissée entièrement au hasard. Elle suppose que vous bâtissiez activement un réseau avec les distributeurs qui offrent le meilleur potentiel et le plus grand intérêt. C'est à vous de les trouver et de les repérer par des visites sur votre nouveau marché, des salons ou tout autre moyen. - Prenez des engagements à l'égard de votre distributeur. Travaillez ensemble pour définir un programme de marketing. La coopération et la communication sont deux facteurs qui vont de pair avec de bons résultats à l'exportation. - Évaluez chaque année vos relations en faisant appel à un consultant indépendant expérimenté, comme le font certaines agences de publicité aujourd'hui.
- Résistez à la tentation de gouverner votre distributeur. Bien évidemment, vous devez garder l'oeil sur sa trésorerie, mais évitez de le diriger, car cela risque de nuire à vos relations et de lui donner l'impression que vous en connaissez plus que lui. L'exportateur est dans la position de celui qui apprend et non de celui qui enseigne au moins jusqu'à ce qu'il ait assimilé son nouveau marché. Trouver le meilleur mix On a coutume de dire qu'il faut modifier le marketing mix (produit, conditionnement, prix, promotion et circuits de distribution) en fonction des résultats des études de marché sur le plan local. À notre avis, ceci est discutable. Mis à part un certain nombre d'éléments obligatoires comme la langue et l'étiquetage, les entreprises ne modifient guère leurs produits pour l'étranger. En pratique, ceux-ci sont d'abord testés sur le marché national et ne sont changés qu'au vu de l'expérience, et ce qu'ils aient fait ou non l'objet d'études de marché. Comme nous l'avons souligné précédemment, c'est le distributeur qui a le plus son mot à dire dans la définition du marketing mix sur son territoire. Ceci est d'autant plus vrai qu'un distributeur non motivé ne peut être un bon acteur. Invitez-le à visiter votre marché national pour qu'il soit témoin de votre succès. Il s'agit là d'un bon investissement. Il vaut mieux fixer correctement les choses dès le départ que de résoudre les problèmes après quand ils se posent. Une intransigeance ou des opinions trop arrêtées de la part de l'exportateur auront pour effet de décourager le distributeur. Le développement du mix est plus un moyen pour les partenaires d'enrichir leurs connaissances respectives que de maximiser les ventes et les profits. Ils pourront mener ensemble les études de marché, par exemple, pour partager des solutions plutôt que de résoudre des conflits. Notre étude montre que, statistiquement, la modification de la stratégie nationale pour les marchés à l'exportation ne joue pas significativement sur les résultats. Les exportateurs que nous avons interrogés ont très peu modifié leur marketing mix et cela est vrai des produits industriels comme des produits consommateurs sur tous les marchés à l'exportation. Nos conclusions quant au marketing mix sont donc les suivantes : - interrogez votre importateur sur ses expériences précédentes, puis changez ce qu'ensemble vous estimez devoir changer et ce qui doit nécessairement changer ; - continuez à procéder à des études pour éclairer le thème de la présente discussion, mais sans vous baser sur les résultats ; - reproduisez ce qui a réussi sur votre marché national, mais soyez prêt à bouger rapidement si vous vous êtes trompé. * L'étude sur laquelle est basé notre article a été sponsorisée par les ministères britanniques et australiens (respectivement les services du commerce extérieur et Austrade) et nous leur en sommes très reconnaissants. Les résultats ont été publiés dans First Steps to Export Success, une publication commune à ces deux organismes.
Concevoir une organisation véritablement globale Pour répondre aux défis de la globalisation au XXIe siècle, les entreprises devront repenser leurs stratégies en y intégrant les caractéristiques du commerce moderne : des organisations moins hiérarchisées, flexibles, s'appuyant sur les technologies de l'information et créatrices de valeur. JERRY WIND Exercer des activités à l'échelle mondiale constitue, même dans les meilleures conditions, une mission difficile. Dans un contexte de turbulence des marchés, affectés par des troubles économiques et politiques tels que la crise en Asie, ou la révolution informatique et l'évolution de l'environnement, poursuivre la même stratégie marketing présente des risques considérables. Les entreprises doivent par conséquent analyser leurs habitudes de travail, les concepts et les méthodes qu'elles utilisent, puis décider ce qu'il convient de conserver, de modifier, de supprimer et - plus important que tout - d'ajouter. Changements et défis Partout, de nouveaux fabricants et de nouveaux produits apparaissent. Près de 200 pays rivalisent sur le marché global, et des entreprises commerciales de rang mondial, à l'instar de Li & Fung basé à Hong Kong, proposent, par le biais de circuits de distribution internationaux intégrés, des produits nettement moins chers que nombre de leurs concurrents. Cet environnement pose constamment des défis aux entreprises, même parmi les plus compétitives, quel que soit leur lieu d'implantation. Il suffit d'observer la crise économique en Asie pour prendre conscience de la rapidité des changements, changements qui laissent néanmoins entrevoir aussi des opportunités considérables. Au nombre de ces changements figurent : - la mondialisation des affaires, accompagnée d'une intensification de la concurrence internationale, de l'émergence d'une clientèle régionale et mondiale et de marchés de ressources ; - la rapidité et la radicalisation des développements dans le domaine des sciences et de la technologie, notamment dans les secteurs de l'informatique, des télécommunications et des sciences de l'information (mentionnons, à titre d'exemple, l'impact des téléphones cellulaires et d'internet) ; - l'évolution des lignes de démarcation des secteurs industriels et des structures concurrentielles, avec notamment des fusions et acquisitions d'une portée inégalée et la conclusion d'alliances stratégiques au sein des groupes industriels traditionnels ; - le changement des données démographiques, accompagné d'une évolution des valeurs, des attentes et du comportement de l'homme en général ; - l'examen de plus en plus minutieux des décisions des entreprises par l'etat et le grand public, plus particulièrement sur la portée morale de ces décisions ; - l'intensification de la déréglementation, des privatisations et d'une coopération entre le monde des affaires et l'etat ; - les changements dans les pratiques commerciales, comme les suppressions de postes, le recours à la sous-traitance et la réingénierie ; - l'évolution du pacte social/contrat commercial entre les sociétés et leurs
employés, leurs clients et les autres parties prenantes. La question de la notoriété des marques renforce cette complexité. Les entreprises consacrent beaucoup de temps, d'énergie et d'argent à valoriser leurs marques. Mais comment maintenir efficacement la valeur des marques tout en commercialisant des produits à une clientèle internationale? Quels compromis sont nécessaires? Comment déterminer les aspects de votre marque dotés d'une certaine valeur non seulement parmi différents pays, mais également sur différents segments au sein même de ces pays? Autre point épineux : la technologie, qui fut l'un des moteurs de l'économie mondiale au cours de la dernière décennie. On constate des divergences entre les pays sur la façon d'appréhender la technologie et sur les avantages qu'ils en attendent. Le problème majeur auquel se trouve confrontée toute grande entreprise aujourd'hui tient en une question : comment créer une société de services réellement globale, qui permette de réaliser des économies d'échelle tout en répondant à la demande locale, à la fois unique et en constante évolution? Comment l'entreprise peut-elle s'orienter de façon plus prononcée vers le service, être davantage tournée vers le marché, plus prompte à saisir les opportunités et moins bureaucratique, pour permettre une meilleure efficacité? Un concept mondial Aucun marché ne devrait être délaissé par des entreprises globales performantes. Les réalités d'une entreprise aux contours bien définis peuvent vous conduire dans un premier temps à vous concentrer sur des initiatives limitées à l'importation et à l'exportation. Mais vous avez toujours la possibilité de créer des alliances stratégiques dans tel ou tel pays ou régions géographiques, ou à l'échelle mondiale. Par ailleurs, à chaque étape de votre développement, vous devriez vous assurer que l'entreprise dans son ensemble a une approche mondiale pour chaque maillon de la chaîne de valeur ajoutée. A l'échelon local, la question clef du marketing est la suivante : quelles stratégies optimales déployer pour s'emparer du marché local, tout en réalisant parallèlement des économies d'échelle entre différents pays? Pour répondre à cette question, les chefs d'entreprise doivent déterminer, dans le cadre d'une stratégie marketing globale, les meilleurs positionnements, définition de marque, offres de services et de produits, prix, communications et distribution. Les sociétés doivent également répondre à un certain nombre de questions concernant plusieurs pays. Quel est le portefeuille optimal de pays, selon le mode de pénétration et le segment choisis? Quelles stratégies de pénétration des nouveaux marchés doit-on prendre en considération? Quelle importance revêt un lancement mondial simultané et quel est le meilleur ordre pour pénétrer des nouveaux marchés? Quel est le modèle optimal pour un circuit de distribution international intégré - avec des installations de production et un approvisionnement à l'échelle mondiale - et comment le mettre en oeuvre? Comment tirer profit des entraves commerciales, des tarifs douaniers et de la politique des autorités locales? Comment exploiter les opportunités qui se présentent en matière de troc, d'opérations de compensation et d'échange de produits entre pays? Les leçons de l'histoire Quelles leçons générales peut-on tirer des expériences du passé? Premièrement, la plupart des entreprises ont tendance à sous-estimer la puissance commerciale de leurs concurrents, et notamment des nouveaux concurrents qui se situent en dehors des lignes de démarcation traditionnelles de leur secteur industriel. Combien de temps a-t-il ainsi fallu aux banques pour prendre conscience que leurs
véritables concurrents n'étaient pas les autres établissements bancaires, mais les sociétés d'investissement à capital variable, Quicken, et éventuellement Microsoft, ainsi que d'autres nouveaux intervenants dans les services bancaires électroniques? En attendant, nombre de sociétés, même celles orientées vers la satisfaction des besoins de la clientèle sur leur marché national, tendent à ignorer l'hétérogénéité des marchés des autres pays et négligent la personnalisation de leurs offres de produits et de services. D'autres ont tendance à se ruer à l'assaut de nouvelles cultures, sans prendre le temps de connaître précisément ce qui les différencie de leur propre marché national. Or il est essentiel que tout un chacun au sein d'une organisation respecte les différentes cultures et méthodes de travail rencontrées dans chaque pays ; les entreprises ne peuvent escompter obtenir de force des résultats suivant le même rythme dans différentes zones géographiques. Une stratégie contradictoire? Rares sont les entreprises qui disposent de stratégies ou de structures organisationnelles que l'on peut réellement qualifier de mondiales. Un bien trop grand nombre de sociétés développent des produits ou des services destinés à être commercialisés sur un marché global et général ; rares sont celles qui conçoivent des produits pour répondre aux besoins de segments spécifiques d'un marché intérieur, considérés comme les éléments d'un ensemble mondial. Fait surprenant : seul un petit nombre de sociétés disposent d'équipes marketing de haute volée comprenant des cadres originaires de divers pays. Et seule une poignée disposent de procédures efficaces pour échanger les connaissances entre les pays. Votre entreprise devrait être un microcosme du marché international. La diversité de sa propre organisation l'aidera à mieux comprendre la variété des besoins, des goûts et des désirs qui s'expriment au sein d'une économie globale. De même, nombre de sociétés ne possèdent pas de base de données mondiales sur les clients ou sur les concurrents. Or les sociétés qui pensent au commerce électronique sans se préoccuper de ce problème mettent la charrue avant les boeufs. Les sociétés qui ne comprennent pas leurs clients et ignorent l'activité de leurs concurrents actuels - et les projets de leurs rivaux potentiels - n'ont aucun espoir de réussite. A l'exception des grandes entreprises multinationales, la plupart des sociétés ont tendance à concentrer leurs activités sur les marchés développés que sont l'amérique du Nord, l'europe et le Japon. Trop souvent, elles ignorent les 86 % de la population mondiale qui résident dans des pays dont le produit intérieur brut par habitant est inférieur à 10.000 dollars. Or ces pays présentent des opportunités considérables pour ceux qui comprennent les besoins de leurs différents segments et font l'effort de personnaliser les solutions qu'ils entendent proposer. La future entreprise mondiale Les sociétés globales qui réussiront au XXIe siècle présenteront 12 caractéristiques étroitement corrélées. Elles disposeront d'organisations moins hiérarchiques, plus aplanies, plus interfonctionnelles. Elles donneront le pouvoir aux individus et aux groupes constitués en leur sein, elles auront une approche mondiale et seront constituées en réseau (faisant partie intégrante d'un groupe de sociétés qui assure de concert le circuit de valeur ajoutée). Elles s'appuieront sur l'informatique et auront pour objectif la satisfaction des besoins de la clientèle. Elles se préoccuperont de ceux qui sont parties prenantes à leurs produits, et s'orienteront en se référant à une conception d'entreprise, caractérisée par un partage des valeurs et de la culture. Elles seront compétitives en termes de délais, créatrices de valeur (au-delà de l'assurance-qualité) et feront preuve d'innovation et d'esprit
d'entreprise. Elles seront flexibles et s'appuieront sur leurs connaissances. Ces entreprises devront créer et mettre en oeuvre un nouveau paradigme marketing reflétant les caractéristiques étroitement corrélées de cette nouvelle organisation, et exploiter les progrès du marketing. Cette nouvelle approche assimile le marketing à une philosophie commerciale, plutôt qu'à une fonction commerciale parmi d'autres. Ses concepts et ses méthodes devraient être tout aussi utiles au directeur général et au Conseil d'administration qu'ils ne l'ont traditionnellement été au chef de produit. Au coeur de ce paradigme, une question : comment le marketing peut-il, conjointement aux autres fonctions commerciales, être créateur de valeur pour les clients et autres principaux intervenants? Le marketing doit devenir les "yeux et les oreilles" du commerce, en prévenant par avance de la survenance de changements externes et en réfléchissant à la manière de les appréhender. Cette conception requiert une adaptation constante des concepts et méthodes marketing à ces changements, et l'évolution parallèlement de la structure organisationnelle. L'avènement d'une nouvelle stratégie marketing Commençons tout d'abord par répondre à une première question, la plus importante : Qui sont nos clients et quels sont leurs besoins et leurs désirs? Puis passons à une seconde question : quelles offres de produits et services répondront aux besoins du segment ciblé et présenteront un avantage compétitif durable? La réponse à ces deux questions nous permettra d'aborder la troisième interrogation : quels stratégies, programmes, ressources, moyens et procédés seront nécessaires au développement et à la mise en oeuvre d'un produit ou d'un service, répondant à ces besoins? Une entreprise internationale se doit de répondre à ces questions à l'échelon local et pour chaque segment du marché régional et international qu'elle cherche à séduire. Autre composant important d'une stratégie marketing : une innovation constante. Celle-ci requiert des mécanismes performants permettant de réunir les informations provenant des marchés locaux sur les désirs et besoins de la clientèle et, tout aussi important, sur les activités ou projets des concurrents locaux, régionaux et internationaux. Il est indispensable de disposer d'un puissant réseau pour recueillir ces informations, et d'une procédure performante permettant l'analyse, le stockage, l'actualisation et l'accès à ces données. Le Schéma 1 décrit dans ses grandes lignes la procédure d'élaboration d'une stratégie internationale. Cette procédure débute par une analyse des points forts, des points faibles, des opportunités et des menaces ("Swot") et par l'élaboration des scénarios envisageables quant à l'évolution de l'environnement. Cette première étape est suivie de la définition d'une conception d'entreprise reflétant à la fois des perspectives externes (quel type de société parviendra à tirer son épingle du jeu dans un contexte économique en constante mutation) juxtaposées à une perspective interne (dans quel type de société aspirons-nous à travailler?). Une fois cette conception établie, le prochain défi à relever consiste à définir un nouveau paradigme commercial reflétant les avantages recherchés par les clients et la valeur susceptible d'être créée par la société. Le schéma 2 illustre ses implications à l'échelle d'un groupe pharmaceutique. D'un point de vue historique, les groupes pharmaceutiques ont vendu des médicaments, sur lesquels ils n'ont pas appliqué de remises en dépit des pressions exercées à leur égard. D'un autre côté, les consommateurs ne se préoccupent pas du produit, mais s'intéressent plutôt à la découverte d'une solution à leurs
problèmes de santé. De même, les payeurs - par exemple, les pharmacies spécialisées dans la vente au détail - souhaitent trouver une solution à leurs problèmes financiers/commerciaux et réduiront la pression qu'elles exercent pour obtenir des remises, si le groupe pharmaceutique peut les aider à accroître leurs chiffres d'affaires et leurs bénéfices. Même si tous les clients ne recherchent probablement pas cette solution et même si certains segments peuvent préférer d'autres positions entre ces deux extrêmes que sont les "solutions à des problèmes de santé" et les "solutions à des problèmes commerciaux/financiers", comprendre et exprimer ce paradigme fait apparaître tout un éventail de nouvelles options de croissance pour le groupe pharmaceutique. Il modifie la nature de ses rapports avec la clientèle : il cesse d'être un "vendeur" pour devenir un "partenaire" qui partage les risques et les profits. Prochaine étape : l'établissement d'objectifs "d'envergure". Ces objectifs d'envergure, tels que "doubler les recettes et les résultats en trois ans", ou "améliorer toutes nos prestations par un coefficient de 10" - qui fut l'objectif de Hewlett-Packard au début des années 1980 - sont importants, car ils permettent de prendre conscience que "l'activité de routine" ne suffira pas. Chacun est contraint de contester la façon de réaliser les choses, de les aborder ainsi sous un angle novateur pour pouvoir réaliser ces objectifs. L'intérêt se porte ensuite sur le développement de la stratégie. La stratégie marketing internationale et la structure organisationnelle correspondante doivent compenser les tensions locales et internationales. Il convient de disposer d'un concept international, et de son corollaire, une stratégie internationale et locale. La société doit associer standardisation et différenciation, tout en s'adaptant aux conditions locales et en réalisant une coordination, une intégration et une synergie entre les différents pays. Il ne s'agit plus, comme le préconisait l'ancien principe philosophique, de "raisonner globalement et d'agir localement", mais plutôt de "raisonner et d'agir à l'échelle internationale, régionale et locale". Mise en oeuvre de la stratégie D'après le nouveau paradigme du marketing à l'ère de l'information, on ne s'intéresse plus à tel ou tel secteur d'activité traditionnel, mais à une société véritablement sans frontières qui enjambe les lignes de démarcation des secteurs d'activité traditionnels. Prenons, par exemple, la nouvelle industrie de l'informatique, qui fait fusionner les industries spécialisées dans la production de matériels, de logiciels, des télécommunications, de l'électronique grand public et d'autres domaines connexes. Par ailleurs, notre champ géographique évolue : autrefois divisé entre activités nationales et internationales, il est aujourd'hui global. Autre évolution importante : nous passons d'un concept de marché de masse à une "segmentation unitaire". Cette évolution est possible grâce aux progrès considérables réalisés ces dernières années dans le domaine du marketing des bases de données et de la personnalisation de masse, qui permettent aux entreprises d'atteindre chaque consommateur économiquement par le biais de messages, de médias, et même de produits et de services personnalisés. Cette capacité de personnalisation peut considérablement modifier la nature des produits. Qu'adviendra-t-il par exemple du monde de la musique, où les progrès technologiques permettent aux consommateurs de concevoir leurs propres CD et de les télécharger d'internet. Le consommateur fait désormais partie intégrante d'un processus de coproduction. Cette maxime s'applique à l'ensemble des produits, et non pas simplement à ceux que l'on peut livrer par voie électronique.
Notre stratégie de communication changera également de façon radicale - d'une stratégie reposant sur la publicité et un recours occasionnel aux relations publiques à une communication marketing intégrée, interactive et personnalisée. Si nous nous concentrons sur le principe de "segmentation unitaire", notre publicité et notre marketing doivent faire passer un message qui suscite l'intérêt de chaque client et est effectivement transmis par le biais d'un média ciblé. Atteindre ces "segments unitaires" sera plus facile grâce aux nouveaux modes de distribution. Les produits et services seront de plus en plus livrés par des moyens électroniques. Internet est en mesure de donner aux clients l'accès à une vaste gamme de produits et d'informations sur les produits, et ce à toute heure du jour et de la nuit, en tout lieu. Les prix subiront un changement à 180 degrés. Nous déterminons actuellement le prix de nos produits, puis nous les commercialisons sur le marché en espérant que les clients les achèteront au prix que nous avons fixé. Or, nous assisterons à une évolution de ces tarifs qui seront basés plus sur la valeur, et dans un nombre croissant de cas, on peut s'attendre à ce que les clients fixent le prix qu'ils entendent payer pour tel ou tel article. Nous devrons alors élaborer des produits et des services qui répondent aux besoins du client au prix qu'il ou elle a fixé. Price.Com, le service en ligne de billets d'avion, offre une telle prestation et envisage de développer d'autres produits et services. WebAuction.Com propose une prestation similaire, mais avec une approche différente. En conclusion, notre modèle commercial ne reposera plus sur les transactions, mais sur les relations. Une coopération s'instaurera entre le client et le fournisseur. Notre société ne vendra plus des produits ou des services ; elle fournira plutôt des solutions capables de satisfaire les besoins de la clientèle. Une adaptation expérimentale Compte tenu de la nouveauté de nombre de ces stratégies et de l'incertitude de l'environnement économique, il est conseillé aux chefs d'entreprises de se fier à une adaptation expérimentale. A cela, une raison : la réaction du marché à une seule initiative (comme à un niveau de publicité donné ou à un message spécifique) ne fournit pas de lignes directrices sur lesquelles s'appuyer pour prendre de meilleures décisions à l'avenir. Ce n'est qu'en expérimentant des initiatives à différents niveaux (un grand nombre contre un petit nombre de publicités, ou comparaison d'un message A par rapport à un message B) que le chef d'entreprise pourra déterminer la réaction du marché et établir ainsi des lignes directrices qui guideront ces choix à l'avenir. Pour être efficace, cette adaptation expérimentale doit être constamment poursuivie et doit se concentrer sur des variables importantes - celles qui peuvent considérablement modifier les performances commerciales. Les chefs d'entreprises doivent également s'assurer que les niveaux testés diffèrent suffisamment (de façon à doubler la publicité, par exemple). Structure Organisationnelle Les décisions en matière de structure organisationnelle doivent couvrir les points suivants : 560*la cultureorganisationnelle qui reflétera les valeurs et caractéristiques des entreprises performantes du 21ème siècle *la structure qui permettra à la société d'être pilotée par le marché et d'agir à l'échelle internationale
*les procédés nécessaires à la création de valeur pour l'ensemble des parties prenantes, incluant le développement de solutions plus performantes, plus rapides, à moindre coût susceptibles de répondre aux besoins de la clientèle *les employés et les compétences dont ils doivent disposer *la technologie nécessaire à la mise en oeuvre de cette nouvelle stratégie : celle-ci englobe les bases de données et les modèles et systèmes sur lesquels s'appuie le processus décisionnel, ainsi que le recours à l'informatique pour "conquérir'" des clients et d'autres parties prenantes (par le biais par exemple de programmes de fidélité) *les ressources, tant sur le plan des finances que des connaissances, nécessaires à la mise en oeuvre de cette stratégie *les incitations et évaluations de performancesqui assureront une conformité des intérêts des employés aux objectifs de l'organisation. Dans le cadre de la conception d'une structure organisationnelle pour des entreprises exerçant leurs activités à l'ère de l'information internationale, les compétences technologiques sont un "must", tout comme la maîtrise du champ géographique et l'expertise. Ceci exige le recrutement, la formation, la motivation et le maintien d'une main-d'oeuvre différente. La société véritablement axée vers l'international aura un personnel représentatif des différentes parties du monde, sensible à la diversité des cultures et capable d'agir en toute facilité aux quatre coins du monde, en utilisant tous outils informatiques mis à sa disposition. Schéma 1 : L'élaboration d'une stratégie internationale Analyse de l'environnement interne et externe (Analyse SWOT) et élaboration des scénarios envisageables 560-Base de données sur les caractéristiques des sociétés qui réussiront au 21ème siècle -Le nouveau paradigme marketing -Type de société qui réussira dans un contexte économique en mutation -Concept --> Paradigme commercial --> Objectifs d'envergure --> Stratégies -Aspirations, objectifs, compétences -Stratégie locale reflétant les caractéristiques des conditions économiques, de la concurrence et de la clientèle -Ajustement de la stratégie reflétant des économies d'échelle et de portée entre les pays -Stratégie régionale et internationale -Structure organisationnelle requise -Projets de mise en application Schéma 2 : Modification du paradigme commercial : l'exemple de l'industrie pharmaceutique
560 -Solutions financières/commerciales globales -Tarif basé sur la création de valeur -Remise -"Vendeur" -"Partenariat" -Médicaments --> Se sentir bien portant -Solutions de santé globales Modèle d'achat de produits étrangers fondé sur un sentiment d'animosité Dans le cadre d'une série d'études internationales récentes, nous avons analysé le sentiment d'animosité ressenti à l'égard de ceux qui sont, ou ont été, par le passé, des ennemis de la nation ainsi que son incidence sur les attitudes des consommateurs face aux importations. La ville de Nankin fut le théâtre d'un massacre de civils chinois par les Japonais en décembre 1937 et en janvier 1938 (lire «The Rape of Nanking» écrit par Iris Chan, Basic Books, 1997). Cet épisode tient toujours une place importante dans l'histoire de la Chine contemporaine. Nankin est par conséquent un lieu où devrait, selon nos hypothèses, régner un sentiment d'animosité à l'égard de l'étranger. Nous avons mené une enquête auprès de consommateurs - âgés de 18 à 92 ans - à Nankin et évalué leur appréciation de la qualité de produits nippons, leur désir d'achat de produits japonais, leur animosité à l'égard du Japon et leur détention ou non de produits nippons. Nous avons découvert que le sentiment d'animosité envers le Japon constituait un puissant facteur de refus d'achat de produits de cette origine. Ainsi, le sentiment d'animosité ressenti par les consommateurs conduit les acheteurs de Nankin à participer à un boycott expressif indirect. Le sentiment d'animosité diffère de l'ethnocentrisme qui repose sur une croyance largement répandue, à savoir que l'on a tort d'acheter des produits étrangers, car cet achat est préjudiciable à l'économie nationale. Nos résultats en tiennent compte : l'influence négative du sentiment d'animosité va bien au-delà de ce concept général d'ethnocentrisme. Les consommateurs ethnocentriques ont également tendance à dénigrer les produits étrangers, qu'ils estiment de qualité inférieure à ceux de leur propre pays. Ce n'est pas le cas des consommateurs chinois qui, bien qu'ils nourrissent un sentiment d'animosité envers le Japon, sont parfaitement disposés à reconnaître la grande qualité des produits fabriqués dans ce pays. Les consommateurs évitent les produits nippons tout simplement en raison du sentiment de colère qu'ils éprouvent envers les actes commis dans le passé par le Japon. Ces résultats ont été repris dans une étude que nous avons menée aux Etats-Unis. Les consommateurs américains qui éprouvent encore un sentiment de colère à l'égard du Japon, en raison de la Seconde Guerre mondiale, sont moins disposés à acheter des produits nippons. A l'image de la Chine, les effets de cette animosité vont au-delà de l'ethnocentrisme des consommateurs et ne dépendent pas de l'appréciation de la qualité des produits nippons. Nous étudions actuellement les attitudes des consommateurs résidant à Hiroshima à l'égard des Etats-Unis. Nos résultats se démarquent de la prudence dont font preuve traditionnellement les études marketing. Les chercheurs et les responsables marketing en exercice supposent généralement que l'appréciation de la qualité d'un produit par les consommateurs
constitue le facteur clef déterminant les décisions d'achat. Cette hypothèse est bien sûr valable dans plusieurs contextes ; elle constitue en effet le raisonnement de base sur lequel s'appuient les chefs d'entreprise pour se concentrer sur des microactivités marketing destinées à influencer la satisfaction et le choix d'une marque par les consommateurs. Notre étude révèle cependant des circonstances où la qualité du produit est tout simplement submergée par une vague d'animosité. Nous avons étendu nos recherches au boycott instrumental indirect, en étudiant plus particulièrement les achats de produits français par des consommateurs australiens pendant et après les essais nucléaires menés par la France dans le Pacifique Sud en 1995-1996. Ne pouvant atteindre directement l'etat français, les consommateurs australiens ont tenté d'exprimer leur indignation et de faire pression sur la France afin d'obtenir un arrêt de ses essais nucléaires, en identifiant des cibles de boycott indirectes ou de substitution. Citons, entre autres cibles, les entreprises comme Air France et Peugeot, et des catégories de produits «made in France», telles que les vins. Ce boycott a sans aucun doute produit ses effets : on a signalé des baisses notables des ventes de produits français en Australie. A l'apogée des protestations, certains consommateurs ont même boycotté des boulangeries et restaurants français qui avaient déployé des enseignes indiquant clairement qu'ils étaient exploités et détenus par des Français. Comme dans nos autres études, nous avons découvert que le sentiment d'animosité était un puissant facteur de participation à un boycott. Par ailleurs, malgré la rupture des relations avec les vendeurs français, les consommateurs australiens n'ont pas dénigré la qualité des produits français. La perception de la qualité des produits français est globalement demeurée inchangée. Boycotts des entreprises : comment réagir? Outre le fait qu'ils génèrent des pertes importantes de chiffres d'affaires, les boycotts peuvent sérieusement perturber la mise en oeuvre des activités marketing quotidiennes d'une entreprise. JILL G. KLEIN, RICHARD ETTENSON ET ANDREW JOHN Le recours aux boycotts comme un moyen tactique permettant aux consommateurs d'exercer une contrainte s'est accru ces dernières années et devrait continuer à prendre de l'ampleur. Les protestations des consommateurs remportent un plus grand succès que par le passé, non seulement parce que ceux qui organisent les boycotts adoptent des tactiques plus sophistiquées, mais également parce qu'un nombre croissant de consommateurs apportent leur soutien et rejoignent les rangs d'organisations aux programmes politique et social explicites. Le concept du boycott est diamétralement à l'opposé de celui de marketing relationnel. Les boycotts tranchent les liens qui se sont développés entre une entreprise et ses clients. Comme nous l'avons déjà évoqué dans le cadre de cette série, le marketing relationnel suscite actuellement un vif intérêt parmi les professionnels du marketing, car le coût d'acquisition d'un nouveau client excède de loin le coût de fidélisation d'un client existant. Les chefs d'entreprise, qui permettent à leurs sociétés de devenir la cible d'un boycott, risquent non seulement de perdre leurs clients fidèles mais aussi d'encourager ces mêmes clients à nouer des relations avec la concurrence. Outre la perte de chiffre d'affaires, les entreprises boycottées subissent d'autres préjudices graves. Les boycotts peuvent sévèrement perturber la planification, la mise en oeuvre et l'analyse des activités marketing quotidiennes d'une société. Ils contraignent les chefs d'entreprise à réorienter certaines ressources clefs de leurs sociétés vers des activités de gestion de crises et à faire face aux effets nuisibles que peut avoir un boycott sur le moral des employés, des fournisseurs et des autres partenaires. * Différents types de boycott
Un boycott se présente généralement ainsi : une entreprise commet un acte ou a recours à certaines pratiques commerciales qui suscitent la colère de certains de ses clients. Ces clients s'organisent ensuite et décident de ne plus acheter le produit ou le service proposé par cette entreprise. Ils ont pour objectif d'exercer une pression commerciale sur l'entreprise afin de mettre un terme à cette pratique déplaisante. Citons, à titre d'exemple, le boycott du thon, dont l'objectif était d'amener les entreprises à modifier leurs méthodes de pêche, afin que les dauphins ne soient plus pris dans les filets. Certains boycotts se classent dans cette catégorie, mais beaucoup d'autres sont de nature différente. Nombre de consommateurs n'ont pas véritablement l'intention de modifier l'attitude de telle ou telle entreprise, mais le sentiment de colère ou de culpabilité qu'ils éprouvent les conduit tout simplement à éviter tel ou tel produit. Celui ou celle qui aime les animaux peut refuser de manger du veau ou du foie gras, non pas pour modifier les méthodes d'agriculture, mais simplement parce qu'il ou elle ressentirait un sentiment de gêne ou de culpabilité à manger de tels produits alimentaires. Ainsi, le désir d'influencer l'attitude d'un producteur ne motive pas nécessairement les boycotts. Fait encore plus frappant, une entreprise peut se retrouver en proie à un boycott pour un motif qui ne lui est pas personnellement imputable. Nombre de boycotts trouvent leur origine non pas dans le comportement ponctuel d'une entreprise, mais plutôt dans l'attitude de personnes qui n'ont que peu, voire aucun rapport avec ses activités. Il existe notamment une catégorie de boycotts alimentés par un sentiment d'animosité envers l'étranger, où les consommateurs évitent les produits d'un pays en particulier en raison de l'attitude actuelle, ou passée, de son gouvernement. Ainsi, le vétéran américain de la Seconde Guerre mondiale qui refuse d'acheter une télévision de marque Sony agit ainsi parce qu'il se souvient de Pearl Harbor, et non parce qu'il éprouve de l'aversion envers les pratiques commerciales de la firme nippone. En approfondissant les idées développées par les universitaires spécialisés en marketing, Craig Smith et Monroe Friedman, nous pouvons établir une distinction entre boycotts directs, qui résultent d'un acte spécifique commis par un producteur, et boycotts indirects, qui sont motivés par les actions d'entités qui n'entretiennent que des liens distants avec un producteur. Nous pouvons également distinguer les boycotts instrumentaux destinés à déclencher des changements, des boycotts expressifs fondés sur le désir d'exprimer un sentiment de colère, ou d'éviter de ressentir de la culpabilité. Nous obtenons ainsi une classification de type «deux par deux» des boycotts : d'une part, le boycott instrumental direct - dont un bon exemple serait le boycott de Nike par des consommateurs s'efforçant de changer les méthodes de travail de cette société à l'étranger ; d'autre part, le boycott instrumental indirect, tel que le récent boycott par l'australie des produits français pour protester contre les essais nucléaires de la France dans le Pacifique Sud. Le boycott expressif indirect est celui par exemple du survivant de l'holocauste qui ne souhaite pas acheter de produits fabriqués en Allemagne. Enfin, le boycott expressif direct est celui qu'exercent, par exemle, des individus désirant punir Nike, mais qui ne cherchent pas à influer sur ses décisions. Notre taxinomie devrait véritablement s'attacher à classifier les motifs personnels de chacun plutôt que les boycotts eux-mêmes. Comme l'illustre l'exemple sur Nike, des individus différents peuvent participer à un boycott pour diverses raisons, de même que tout un chacun peut en effet avoir de multiples motifs de se comporter ainsi. Comprendre précisément les raisons qui conduisent des individus à boycotter une entreprise constitue le premier pas vers la formulation d'une réaction efficace.
* Options stratégiques D'après notre étude (lire l'encadré page IX), les producteurs peuvent être victimes de boycotts sans en être personnellement responsables, et peut-être même, sans en avoir conscience. L'animosité ressentie à l'égard d'un pays étranger vient à peine d'être reconnue comme facteur affectant les décisions d'achat sur le marché international. Or, si le degré d'animosité ressenti envers un pays producteur est élevé, les moyens traditionnels utilisés pour influencer le comportement du consommateur et accroître la part de marché (tels que des promotions sur les prix ou des publicités sur un produit de marque) ne se révéleront pas appropriés. Après tout, ce n'est pas tant que les consommateurs pensent que les produits sont mauvais. Ils n'apprécient tout simplement pas le lieu où ces produits sont fabriqués. Le message clef de notre étude est que les chefs d'entreprise ne peuvent réagir efficacement à un boycott que s'ils comprennent les motivations qui se cachent derrière les protestations. Confrontés à un boycott résultant d'un sentiment d'animosité vis-à-vis de l'étranger, les responsables marketing doivent savoir si les consommateurs agissent sous le coup de la colère (boycott expressif), d'un désir calculé de faire pression sur un gouvernement (boycott instrumental) ou encore pour ces deux raisons. Face à un boycott expressif indirect, la meilleure réaction sur un plan stratégique consiste probablement à dissocier le produit de son pays d'origine, sur des marchés où le sentiment d'hostilité risque d'être prononcé. On peut y parvenir en minimisant l'importance de l'aspect «Made in...» du produit ou en élaborant des produits hybrides. On peut également s'attaquer directement au sentiment d'hostilité en s'efforçant (prudemment) d'améliorer les perceptions du pays et en s'attaquant aux sources mêmes de cette tension internationale. Face à un boycott instrumental indirect, les entreprises disposent également de plusieurs options pour réagir. Premièrement, elles pourraient juger utile de faire pression sur leur gouvernement. (Indépendamment du rôle joué par le boycott en Australie, l'etat français a effectivement abrégé sa série d'essais nucléaires). Deuxièmement, une société peut s'efforcer de se dissocier de l'acte offensant qui a été commis en prenant même officiellement position contre l'attitude de son gouvernement (réaction qui pourrait naturellement lui faire encourir des charges d'une nature totalement différente). Les boycotts directs, à la différence de ceux susmentionnés, constituent une réaction à un acte commis par le producteur. Il s'agit là d'une différence capitale, car une société confrontée à un boycott direct dispose généralement de la faculté de mettre un terme à l'acte ressenti comme une offense. Qu'une société décide ou non de réagir ainsi, ses actions devraient toujours dépendre des motivations des personnes parties prenantes à un boycott. La décision de capituler face à un boycott est une option que les chefs d'entreprise devraient considérer avec sérieux. Le public peut avoir raison - l'acte qu'il dénigre est peut-être en effet immoral, impropre ou imprudent. Si tel est le cas, les chefs d'entreprise devraient regarder au-delà de la notion de rentabilité. Et même si après avoir mûrement réfléchi, ils estiment que ce boycott est injuste et que leurs clients ont tort, il peut s'avérer plus facile et plus rentable d'abandonner la partie. Ces mêmes chefs d'entreprises peuvent néanmoins, dans certaines circonstances, estimer que céder à un boycott serait en soit un acte immoral. Ainsi, une société pourrait décider de continuer à parrainer un programme télévisé sujet à controverses en dépit d'un boycott, pour la simple raison que ses dirigeants assimilent ce boycott à un acte de censure.
L'entreprise, en optant pour la capitulation, ne met pas pour autant un terme à ses problèmes. Elle doit encore reconquérir ses anciens clients. Face à un boycott instrumental, la prochaine étape - la plus importante - consiste à faire passer le message aux consommateurs, à leur montrer que la société réagit à leurs préoccupations. Avec de la chance, les consommateurs seront heureux de constater le changement d'attitude de l'entreprise et il sera facile de les reconquérir. Face à un boycott expressif, la reconquête des anciens clients peut s'avérer encore plus laborieuse. Les consommateurs peuvent en effet demeurer en colère même après un changement d'attitude de l'entreprise. Un producteur, qui décide de ne pas accéder aux revendications des boycotteurs, ne peut espérer reconquérir sa clientèle qu'en changeant les attitudes des consommateurs. Là encore, la meilleure approche dépend de la nature des motivations du boycott, expressives ou instrumentales. Face à un boycott expressif, une firme peut tenter de justifier son attitude. Nike s'est ainsi efforcé de convaincre ses clients de la qualité des conditions de travail dans ses usines. Face à un boycott instrumental, une autre tactique consiste à tenter de convaincre les clients que ce boycott se soldera tout simplement par un échec. On pourrait y parvenir en recourant à des actions publiques qui engagent la société à poursuivre ses pratiques actuelles. Pour reprendre l'exemple du sponsoring d'un programme télévisé, la société pourrait signer un contrat à long terme l'engageant ainsi à poursuivre son parrainage. Cette stratégie présente des risques, car elle peut tout simplement susciter la colère des consommateurs - le boycott pouvant alors devenir expressif, plutôt qu'instrumental. Pourquoi les marchés ne convergeront pas La théorie physioéconomique tend à prouver qu'il n'y aura pas, à l'avenir, de convergences des marchés. La divergence des comportements économiques et sociaux à l'échelle planétaire se maintiendra du fait de l'adaptation nécessaire aux différents environnements. PHILIP M. PARKER LA Terre est ronde, mais souvent on ferait mieux de faire comme si elle était plate. L'espace est courbe, mais pas pour la vie quotidienne ici sur terre.» Td Levitt, 1983. Au début des années 80, Ted Levitt, le célèbre professeur d'université américain, affirmait qu'il était temps pour les entreprises d'adopter des stratégies internationales standardisées, les différences de goûts et de préférences des consommateurs étant devenues, selon lui, des «vestiges du passé». Pour tout homme de marketing contraint de prendre des décisions sur le prix, la production/distribution, la communication et la conception des produits, la question se pose de savoir si, oui ou non, il trouvera des consommateurs prêts à acheter un produit qui est le même partout dans le monde. Pour Levitt, la réponse ne peut être que «oui». Mais avait-il raison pour autant? Les goûts et les préférences des consommateurs convergeront-ils sur une échelle planétaire, indépendamment de leur culture? Pour répondre à cette question, il est nécessaire de savoir si les utilités, les préférences et les revenus convergent effectivement (on entend par «utilité» la valeur attribuée par une personne à un produit particulier). Malgré les faits qui tendent à démontrer le contraire, cet article défend l'idée qu'il n'y a pas de convergence des marchés et qu'il n'y en aura jamais. Et cela ne résulte pas tant de la diversité culturelle que des forces physioéconomiques. Contrairement à la micro et à la macroéconomie, les théories physioéconomiques tiennent compte des facteurs physiologiques et physiographiques («physiquesgéographiques») dans la modélisation des différences entre les cultures. Elles
considèrent que la divergence des comportements économiques et sociaux dans les différents pays s'explique par les réactions physiologiques humaines. Face à l'omniprésence de l'information et au libéralisme économique qui s'étend partout dans le monde, la physioéconomie pense que la divergence des comportements à l'échelle planétaire se maintiendra du fait de l'adaptation nécessaire aux différents environnements. En revanche, ces comportements convergeront au fil du temps dans les pays possédant les mêmes caractéristiques physioéconomiques (climat et sol, par exemple). La physioéconomie Les théories physioéconomiques cherchent à expliquer la variation globale des comportements économiques dans le monde. Leurs origines remontent au moins à Montesquieu en France (1689-1755) et à Adam Smith en Ecosse (1723-1790). L'aspect physiologique de ces théories permet surtout d'expliquer les variations des schémas de consommation et des modes de travail dans le monde, tandis que l'aspect physiographique est davantage tourné vers les variations en termes de production et d'actifs nationaux. La physioéconomie repose sur une thèse fondamentale : tout comportement humain est limité par des lois physiologiques immuables. Ces lois prédominent indépendamment des origines de l'homme et de sa situation raciale, religieuse, ethnique, culturelle, sociologique ou économique ; elles jouent sur les besoins physiologiques et psychologiques des individus, et ces besoins influencent à leur tour la culture, les structures sociales et l'activité économique. La figure de la page XI résume le modèle de base sous-jacent aux théories physioéconomiques. Il est important de souligner que les facteurs qui influencent le comportement (en règle générale, le climat et le sol) le font de façon indirecte. En fait, ils sous-tendent les mécanismes causals physiologiques et physiographiques qui varient d'un pays à un autre ou d'une culture à une autre. Passons en revue ces mécanismes. * Les mécanismes physiologiques Bien des différences de comportement, attribuées superficiellement à la culture ou à la génétique, résultent de différences physiologiques entre les populations. * La thermorégulation La température du corps humain doit toujours être maintenue autour de 37 ^oc où que l'on soit. Pour garder cette température, le corps se régule constamment par la sécrétion d'hormones, de neurotransmetteurs et d'autres éléments chimiques. A court terme, la thermorégulation peut provoquer des frissons (qui génèrent une chaleur interne) ou une transpiration (qui provoque une perte de la chaleur par évaporation) ; à long terme, elle suppose une acclimatation. Faute d'assurer cet équilibre entre l'entrée et la sortie de chaleur dans notre corps, on risque des maladies, voire le décès par hypothermie ou coup de chaleur. Les régulations métaboliques effectuées par l'être humain pour maintenir son corps à la bonne température finissent aussi par agir sur ses besoins fondamentaux et ses préférences. * L'acclimatation Il s'agit d'une régulation à plus long terme qui assure le confort physique dans des climats spécifiques. Chaque climat a un seuil de température/humidité qui, s'il est dépassé, crée un certain inconfort sur le plan physique, ou provoque des maladies
chez les personnes qui y sont habituées. Dans les climats plus chauds, le corps humain se régule pour supporter des niveaux de température/humidité plus élevés avant de se sentir mal à l'aise. Les personnes qui vivent sous les tropiques, par exemple, souffrent moins de la chaleur que les touristes séjournant dans cette région ; de même, les Scandinaves sont moins sensibles au froid de leur pays que des touristes originaires des tropiques. Les seuils sont fonction des conditions climatiques et des variations saisonnières. Par conséquent, ce sont les gens qui habitent dans des contrées où les hivers sont très rudes et les étés très chauds qui éprouvent le plus grand inconfort tout au long de l'année. * Autres mécanismes physiologiques et psychologiques A l'instar des facteurs liés à la température du corps décrits ci-dessus, la maladie et l'immunité à la maladie dépendent aussi de l'environnement. Des études récentes ont également démontré le rôle du climat dans la psychologie. On a ainsi constaté que plus les gens vivent près des pôles, plus leur niveau de sérotonine est faible (en moyenne). Or les scientifiques associent les niveaux anormaux de sérotonine aux troubles de l'humeur tels que la dépression et la violence. Les effets physiographiques Certaines activités exigent des conditions climatiques et géographiques particulières. Certains sports, par exemple, ne peuvent se pratiquer que dans certaines régions (ski, pêche en eau glacée, etc.). De même, des maladies telles que la malaria se déclarent uniquement dans les zones géographiques qui n'ont pas connu le gel depuis plus de 10.000 ans. La plupart des espèces végétales et animales sont attachées à des régions géographiques déterminées par les conditions climatiques qui y prédominent (les forêts de chênes et la faune qui y habite, par exemple). Ce phénomène, à son tour, a des répercussions sur l'économie et la consommation. Parallèlement, certaines activités sont directement liées au sol et/ou à la rudesse du climat. Ainsi, l'économie minière dépend de l'existence de réserves minérales ; l'altitude et la quantité de soleil font obstacle à certaines cultures. Ces contraintes exogènes (comme les précipitations) ont une influence sur l'offre et la demande de divers biens et services, sur les schémas de développement économique, sur certaines caractéristiques culturelles et même sur les statistiques fondamentales. Les facteurs exogènes englobent toutes les ressources naturelles autres que les ressources humaines. Les facteurs endogènes, à l'inverse, comprennent tout ce qui est d'origine humaine : population, culture, religion, langue, politiques économiques et systèmes sociaux. La figure englobe un «climat endogène» qui comprend des facteurs comme la climatisation, le chauffage central et les effets de serre. Ceci est essentiel à l'exploitation de certaines ressources physiques. * La physioéconomie et le déterminisme La physioéconomie n'est pas déterministe. Selon la philosophie déterministe, les événements, les actions et les décisions sont la conséquence inévitable de facteurs indépendants des initiatives ou du génie humains. En réalité, les mécanismes physioéconomiques n'engendrent pas directement de comportements individuels. Si l'on prend le cas du suicide, par exemple, les sociologues excluent le climat des facteurs susceptibles d'influer sur les taux de suicide dans un pays. Le climat n'est que rarement, si ce n'est jamais, directement associé à des actes de suicide spécifiques ; ceux-ci résultent généralement de maladies mentales ou de circonstances personnelles. En revanche, il peut jouer sur la propension à
commettre un suicide dans des circonstances spécifiques. * Peut-on identifier les effets physioéconomiques? A partir de ces considérations, on peut maintenant évaluer la théorie de «Terre plate» formée par Levitt en répondant aux deux questions suivantes : 1. Existe-t-il réellement des effets physioéconomiques? 2. La variance qu'ils génèrent se réduit-elle avec le temps? Depuis Hippocrate (470-377 avant J.C.), nombre de philosophes, climatologues et géographes soutiennent que la sphéricité de la Terre (climat solaire) est le facteur le plus important expliquant à lui seul les variations mondiales de tout ordre, depuis les doctrines religieuses jusqu'au folklore, à la musique et à la langue, en passant par l'instruction et l'éducation des enfants. Contrairement aux autres espèces, l'homme s'adapte facilement et effectue les régulations physiologiques exigées par les changements climatiques via la consommation et l'industrie. Pour répondre à la première question, il existe une plus grande corrélation entre le climat solaire à lui seul (latitude exacte au carré) et de nombreux comportements économiques généralement considérés comme liés au développement, qu'entre ces comportements et le revenu par habitant. Dans les exemples qui suivent, les coefficients de corrélation statistique sont indiqués entre parenthèses (1 = corrélation positive parfaite ; - 1 = corrélation négative parfaite ; 0 = absence de corrélation). Parmi les comportements qui n'ont aucune corrélation avec le revenu par tête, mais expliqués par le climat solaire, on peut citer la consommation de lait (0,53) et de céréales (0,57) par habitant. Les comportements qui résultent davantage du climat solaire que du revenu par tête sont notamment la consommation de farine (0,35), café (0,75) et cigarettes (0,33) par habitant, et le taux de suicides (0,62). Enfin, parmi les comportements qui s'expliquent autant par le climat solaire que par le revenu par habitant, citons le taux de croissance moyen de la population (- 0,50), le nombre de maladies courantes (- 0,52), le nombre d'analphabètes (0,46), le pourcentage de domiciles approvisionnés en eau courante (0,66), le nombre de téléphones par habitant (0,65) et la consommation d'oeufs (0,54), bière (0,56) et acier (0,65) par habitant. En général, les corrélations sont plus fortes quand les données ne portent que sur les pays européens ou sur les pays industrialisés dans des régions climatiques très différentes. Si les niveaux généraux de consommation dans le monde ne convergent pas, il en va de même pour les formes de consommation. En réalité, un grand nombre de comportements reflètent une adaptation au climat (les carrelages dans les climats chauds et les tapis dans les pays froids, par exemple). La quantité de calories absorbée est inversement proportionnelle à la température ambiante. Etant donné que 80 % de ce que l'on consomme sert simplement à maintenir la température du corps, plus le climat est chaud, moins on mange ; et notamment des aliments qui exigent une énergie importante pour être digérés comme les protéines de viande. En revanche, plus le climat est froid, plus la propension à consommer des boissons alcoolisées, riches en calories (mais aussi source de déshydratation), est élevée, et plus on a besoin de se chauffer et de se
couvrir avec des vêtements épais. Si la barre Mars contient plus de sucre et de matières grasses dans les pays européens polaires que dans les pays méditerranéens, cela est dû aussi à la thermorégulation. Les effets climatiques expliquent également les différences d'utilité physiologique du travail physique. Un même degré de travail physique aura une plus grande utilité physiologique dans les régions polaires ou tempérées que dans les zones équatoriales ou chaudes. L'adaptation physiologique des différentes populations joue sur leurs préférences en termes de régime alimentaire (absorption de calories/protéines), d'habitation (chauffage, isolation, architecture) et de tenue vestimentaire (légère ou chaude). Globalement, elle influence 30 à 50 % de la consommation totale des ménages dans les pays développés et plus de 90 % dans les pays émergents. Le climat a donc un impact significatif sur les mesures de comportement globales intégrant ces différents éléments (mesures comparatives de la consommation globale ou du revenu par habitant sur plusieurs pays, par exemple). Si la non-convergence des caractéristiques de produits et des niveaux de consommation semble évidente pour les produits «thermorégulateurs», l'adaptation physiologique aux conditions climatiques explique également la forte corrélation qui existe entre les conditions solaires et les produits «psychologiques» (comme les produits de divertissement). Plus on s'éloigne vers les pôles, plus la demande de distraction mentale à laquelle répond ce type de produits est élevée. L'adaptation physiologique explique encore pourquoi les troubles affectifs saisonniers (dépression hivernale) sont plus importants dans les climats polaires et tempérés que dans les climats équatoriaux. Les personnes résidant plus près des pôles montrent une plus grande prédisposition à la dépression et aux pensées suicidaires. Le suicide et les troubles de l'humeur apparaissent généralement au cours des mois d'hiver dans les régions polaires et tempérées et culminent à la fin de l'hiver ou au début du printemps, au moment où les déséquilibres hormonaux cumulés sont les plus importants. Vers une convergence? Venons-en maintenant à la seconde question, à savoir la réduction ou non des écarts de comportements de consommation et de schémas de production. La théorie physioéconomique prévoit que ces derniers divergeront sur une base planétaire, mais convergeront dans les pays ayant un climat et un sol identiques. Ceci explique peut-être la différence de performances économiques entre les différents pays, un sujet depuis longtemps débattu par les économistes. Environ 70 % de la variance des revenus étudiés découle de la différence d'environnement naturel. Si des pays comme le Tchad, par exemple, sont sousdéveloppés, ceci est davantage dû à leur manque de ressources naturelles et à leurs conditions climatiques équatoriales et désertiques qu'à l'échec de leur politique économique. La thèse de Levitt suppose que la variance due aux facteurs physioéconomiques déclinera jusqu'à devenir nulle. Cependant, les données corrigées sur la parité du pouvoir d'achat, qui remontent aux années 50, montrent que cette variance va en s'accentuant. Avec l'omniprésence de l'information et les progrès de la démocratie, la planification économique approche de son niveau optimal dans tous les pays. Et, de plus en plus, ce sont les facteurs physioéconomiques qui expliquent les disparités entre pays. A la fin des années 80, les conditions solaires à elles seules expliquaient 80 % des écarts de revenu par habitant entre pays. On constate que la variance s'accroît progressivement à l'instar des niveaux de consommation et de revenus qui ont fortement augmenté dans les régions à la fois
polaires et non polaires. L'existence d'effets climatiques importants (écarts élevés dus aux facteurs physioéconomiques) dans certains pays ne signifie pas pour autant que ces derniers resteront sous-développés. D'ailleurs, les niveaux de comportement en valeur absolue ont évolué avec le temps dans tous les pays. De plus, certains signes d'adaptation optimale aux environnements équatoriaux tels que l'architecture ou la tenue vestimentaire sont parfois attribués à tort à la pauvreté. Conséquences Si l'on accepte le principe que la variance entre les pays s'explique par des facteurs physioéconomiques, on peut s'interroger sur les mesures actuelles du développement économique. Quand on compare le développement relatif des pays ou leurs performances économiques par rapport à leurs ressources naturelles exogènes, on s'aperçoit que les différences qui en résultent en termes de revenu national sont relativement faibles par rapport aux niveaux absolus (de l'ordre de quelques milliers de francs et non de dizaines de milliers de francs). De nombreux pays «en voie de développement» (le Costa Rica, par exemple) affichent de meilleurs résultats économiques que les Etats-Unis eu égard aux dons qu'ils ont reçus de la nature. Si les Américains avaient hérité de l'afrique, ils n'auraient pas mieux réussi à développer cette région avec leur culture et leur système social que ne l'ont fait les Africains avec les leurs ; de la même manière, si le Japon était situé à l'equateur, son système social ne fonctionnerait pas beaucoup mieux que celui de l'indonésie (et ne serait pas supérieur dans des proportions aussi importantes que ne le laissent supposer les évaluations en termes absolus). En étudiant ces mesures filtrées, il est possible d'identifier les pays qui réussissent relativement bien, sachant que leurs politiques peuvent être intéressantes pour ceux qui connaissent plus de difficultés avec les mêmes ressources naturelles. Les pays tropicaux, par exemple, auraient intérêt à étudier les politiques économiques et sociales du Costa Rica et des îles Cayman, deux régions qui obtiennent de bons résultats au regard de leur héritage naturel. De la même manière, les actions de développement entreprises par la Banque mondiale ou les ONG sont quelquefois qualifiées à tort d'échec parce que les observateurs se polarisent sur des évaluations en chiffres absolus plutôt que filtrées. Les études actuelles ne reconnaissent pas les différences entre pays sur le plan de l'utilité physiologique et psychologique («utilité basale») de certains besoins humains, notamment l'alimentation, l'habillement, l'hébergement, l'énergie et les loisirs. Les données comparatives sur plusieurs pays, y compris celles limitées aux pays industrialisés, indiquent qu'une partie des écarts de développement économique observés entre les pays s'explique par l'adaptation climatique, mesures nécessaires au maintien de l'utilité basale. Quand on procède à certaines mesures du développement économique (par exemple, la consommation globale par habitant), le fait d'évaluer tous les pays (ou régions climatiques) du même niveau de référence, quel qu'il soit, risque de poser problème. Considérez le nombre de calories absorbées, par exemple. Les données européennes sur plusieurs dizaines d'années indiquent que les pays chauds absorbent significativement moins de calories que les pays froids (probablement à cause de la thermorégulation). Ces niveaux sont restés relativement constants au fil des ans malgré de fortes hausses du revenu par tête. Il est facile de faire des observations semblables pour d'autres comportements affectés par les conditions climatiques. Quand on cherche à mesurer le développement dans une perspective générale
d'utilité, on doit tenir compte des différences en termes d'utilité basale. Deux niveaux différents de consommation peuvent générer des niveaux d'utilité identiques, la différence étant due à la thermorégulation. Les Belges, par exemple, absorbent 50 % de calories de plus que les habitants des Bermudes (soit respectivement 3.850 contre 2.545). On ne nous fera pas croire que toute cette différence résulte uniquement des performances économiques de la Belgique ou que les Belges tirent de leur régime alimentaire une telle utilité absolue supplémentaire. Si l'on ajuste les mesures de développement économique pour tenir compte des différences d'utilité basale entre les pays, on risque de surévaluer le développement des pays détenant les valeurs absolues les plus faibles sur l'échelle originale. L'autre solution possible consiste à mettre davantage l'accent sur les mesures non sujettes à des changements d'utilité basale, ou aux mécanismes physiologiques ou psychologiques indirects. Les estimations sur les pénuries alimentaires dans le monde résultant d'études internationales (réalisées par des entreprises ou des gouvernements), par exemple, sont loin d'être satisfaisantes quand elles sont basées sur des critères de climat tempéré qui tendent à surestimer les besoins mondiaux (étant donné qu'il y a davantage de personnes vivant près de l'equateur que dans les zones tempérées). Dans la même optique, des subventions alimentaires basées sur des estimations erronées risquent de mettre en péril les économies agricoles locales. Les évaluations filtrées donnent une véritable idée de l'impact éventuel des politiques sur les pays dotés de ressources naturelles différentes. Elles permettent aussi d'évaluer l'influence des différences ethniques, religieuses, linguistiques ou culturelles sur les comportements sociaux (ou de montrer que cette influence n'a pas lieu d'être prise en compte) par une approche intégrant des variables physioéconomiques. En utilisant les mesures filtrées, on peut identifier les politiques qui remportent un «succès relatif» plutôt que celles qui réussissent en termes absolus, mais risquent d'être inappropriées ou trompeuses. Les limites de la standardisation des stratégies Aujourd'hui, on peut trouver un produit donné n'importe où sur la planète. La théorie de la convergence semble donc confirmée par les faits. Ainsi, les étudiants des universités françaises s'habillent, mangent et s'amusent comme les Américains de leur âge, ce qui n'était pas le cas il y a vingt ans. Les faits corroborent l'idée que les pays convergent vers des comportements identiques, sous réserve d'avoir le même climat et le même sol. Mais, si l'on étend cet échantillon à des pays présentant des caractéristiques physioéconomiques très disparates (comme le Tchad et la Finlande), on s'aperçoit que les différences de comportement peuvent s'expliquer par l'adaptation humaine. Le filtrage des données économiques à l'aide des facteurs physioéconomiques montre clairement que les pays peuvent développer, en équilibre, différents niveaux de comportement, qui sont davantage le reflet des effets physiologiques et psychologiques que des politiques économiques, de la culture ou des institutions sociales (elles-mêmes influencées par des forces physioéconomiques). La structure physioéconomique répond à la volonté d'utiliser davantage de variables non traditionnelles dans les études comparatives sur la culture et l'économie. Les théories néoclassiques de la croissance, par exemple, ne tiennent pas compte de la variance observée sur plusieurs groupements nationaux. L'introduction de variables physioéconomiques pourrait, dans une large mesure, résoudre ces difficultés. Le fait que la physioéconomie réfute la thèse de Levitt sur la «Terre plate» a des répercussions importantes pour le professionnel du marketing. Si les préférences des
consommateurs pour certains produits et modes de consommation sont fonction d'un facteur aussi fondamental que la physiologie, la standardisation des stratégies connaîtra certaines limites à long terme. Par exemple, la consommation d'alcool par adulte ne convergera pas dans tous les pays, quelles que soient l'excellence des actions et l'importance des budgets engagés par les services de marketing (et ce pour des raisons autres que simplement culturelles). En revanche, la physioéconomie propose d'autres méthodes de segmentation des marchés. Si la convergence doit se produire dans les pays ayant le même climat et le même sol, on peut au moins conjuguer ces facteurs avec des mesures économiques telles que le revenu par habitant. Peut-être l'élément le plus important pour terminer : les facteurs physioéconomiques devraient être pris en compte dans la sélection de nouveaux marchés par les entreprises. Généralement, les marchés les plus intéressants sont ceux dans lesquels il existe une forte demande latente et qui sont facilement accessibles (lire «Bien choisir ses marchés à l'étranger», L'Art du Marketing n^o1). En revanche, la demande latente intègre une composante physioéconomique significative. La mesurer uniquement à partir de facteurs tels que le revenu ou la pénétration par habitant risquerait de donner des résultats erronés. La hiérarchie physioéconomique Pour comprendre à quel point les facteurs physioéconomiques influencent nos comportements, on dispose de toute une série de procédures statistiques. La figure illustre les résultats d'une procédure de filtrage (par études décroissantes) basée sur la structure physioéconomique. L'histoire naturelle admet l'existence d'une hiérarchie causale, selon laquelle certains phénomènes naturels forment les conditions nécessaires (et constituent les précédents historiques) pour les suivants. Le soleil ou «climat solaire» est au sommet de la hiérarchie (facteur «le plus exogène») dans l'histoire naturelle, suivi par le climat physique (formation continentale et océanique). Les forces climatiques créent des variations au niveau de la biologie marine, de la végétation et des ressources zoologiques dans le monde. Chaque échelon de cette hiérarchie constitue la condition nécessaire au palier suivant : la culture dépend de l'existence d'une vie terrestre, qui elle-même est liée à l'existence d'une vie marine, qui suppose à son tour un climat particulier. Les minéraux viennent ensuite (bien que cela soit discutable) parce que nombre d'entre eux résultent de processus climatiques liés à l'existence de la faune ou de la flore ; de plus, leur mesure ou leur extraction se situe certainement après l'essor de la vie animale. Au-delà de ces facteurs purement exogènes, la hiérarchie des facteurs générés par l'homme présente plus de difficultés. Pour les besoins de l'illustration, la figure suit celle généralement adoptée par la majorité des historiens pour les systèmes sociaux actuels. Les religions modernes, par exemple, sont généralement plus exogènes que les langues modernes, qui sont elles-mêmes plus exogènes que les politiques économiques, les institutions sociales ou les systèmes politiques actuels. Ce cadre permet d'évaluer n'importe quelle activité par filtrage séquentiel. Le comportement étudié (par exemple, l'absorption de calories) est d'abord filtré par rapport au climat solaire. Le résidu obtenu (soit la part du comportement non corrélé au climat solaire) est à son tour filtré par rapport au climat physique, et ainsi de suite. Cette procédure est comparable à celle utilisée dans les études de séries temporelles pour mesurer les effets à court terme d'une politique sur un comportement économique variable en fonction des saisons. L'avantage de cette procédure de filtrage séquentiel, c'est qu'elle mesure directement la force explicative de chaque élément de la hiérarchie. On peut notamment évaluer dans quelle mesure une «éthique de travail protestante» explique la productivité de la main-d'oeuvre au-delà de la variance expliquée par les facteurs exogènes, «l'éthique du travail» pouvant elle-même s'expliquer par le climat. De la même manière, on peut vérifier si l'appartenance à une religion (catholique ou protestante) affecte le taux de suicides après avoir isolé les effets géographiques exogènes (les pays catholiques sont davantage concentrés vers
l'equateur). La mesure du climat solaire est égale à la latitude exacte au carré (pour tenir compte de la sphéricité de la Terre) ; le climat physique se mesure par l'altitude et la surface totale de la zone terrestre, et la vie marine par la longueur des côtes ; des mesures similaires sont utilisées pour la terre et les ressources minérales. Quant aux mesures culturelles, elles incluent la mesure des cinq plus grandes religions mondiales, d'un certain nombre de groupes religieux et de l'utilisation des principales langues coloniales. Enfin, les mesures politiques et économiques englobent plusieurs variables indicatrices de différents régimes (communisme, dictature d'extrême droite, démocratie, par exemple). La figure indique entre parenthèses les variations en pourcentage expliquées par chacun des niveaux de cette hiérarchie pour 30 mesures comparatives sur plusieurs pays. Ces mesures sont celles les plus fréquemment utilisées en démographie (mortalité, natalité, population, taux de croissance de la population), en sociologie (crime, suicide) et en économie (fabrication, extraction minière, consommation de biens de consommation durables, absorption de calories, production globale, épargne). Ces moyennes sont caractéristiques de nombreux comportements, mais pas de tous. Indépendamment de la façon dont est définie la «culture» (par groupe national, religieux ou linguistique), les pourcentages sont relativement constants. Néanmoins, certains comportements (taux d'inflation à court terme dans plusieurs pays) ne s'expliquent pas par la hiérarchie physioéconomique. Parmi tous les niveaux illustrés sur la figure, c'est le climat solaire qui explique généralement les plus grandes divergences de comportements, et plus de 70 % des écarts observés dans les comportements mentionnés ci-dessus, y compris le revenu par habitant, s'expliquent par des facteurs exogènes. Les variables culturelles n'expliquent que peu de variations au-delà de celles découlant déjà des ressources naturelles. Là encore, si l'on tient compte des effets climatiques, on constate que la religion n'a pas d'impact sur la productivité de la main-d'oeuvre ni sur l'éthique du travail. La hiérarchie physioéconomique Pour comprendre à quel point les facteurs physioéconomiques influencent nos comportements, on dispose de toute une série de procédures statistiques. La figure illustre les résultats d'une procédure de filtrage (par études décroissantes) basée sur la structure physioéconomique. L'histoire naturelle admet l'existence d'une hiérarchie causale, selon laquelle certains phénomènes naturels forment les conditions nécessaires (et constituent les précédents historiques) pour les suivants. Le soleil ou «climat solaire» est au sommet de la hiérarchie (facteur «le plus exogène») dans l'histoire naturelle, suivi par le climat physique (formation continentale et océanique). Les forces climatiques créent des variations au niveau de la biologie marine, de la végétation et des ressources zoologiques dans le monde. Chaque échelon de cette hiérarchie constitue la condition nécessaire au palier suivant : la culture dépend de l'existence d'une vie terrestre, qui elle-même est liée à l'existence d'une vie marine, qui suppose à son tour un climat particulier. Les minéraux viennent ensuite (bien que cela soit discutable) parce que nombre d'entre eux résultent de processus climatiques liés à l'existence de la faune ou de la flore ; de plus, leur mesure ou leur extraction se situe certainement après l'essor de la vie animale. Au-delà de ces facteurs purement exogènes, la hiérarchie des facteurs générés par l'homme présente plus de difficultés. Pour les besoins de l'illustration, la figure suit celle généralement adoptée par la majorité des historiens pour les systèmes sociaux actuels. Les religions modernes, par exemple, sont généralement plus exogènes que les langues modernes, qui sont elles-mêmes plus exogènes que les politiques économiques, les institutions sociales ou les systèmes politiques actuels. Ce cadre permet d'évaluer n'importe quelle activité par filtrage séquentiel. Le comportement étudié (par exemple, l'absorption de calories) est d'abord filtré par rapport au climat solaire. Le résidu obtenu (soit la part du comportement non corrélé au climat solaire) est à son tour filtré par rapport au climat physique, et ainsi de suite. Cette procédure est comparable à celle utilisée dans les études de séries temporelles pour mesurer les effets à court terme d'une politique sur un comportement économique variable en fonction des saisons.
L'avantage de cette procédure de filtrage séquentiel, c'est qu'elle mesure directement la force explicative de chaque élément de la hiérarchie. On peut notamment évaluer dans quelle mesure une «éthique de travail protestante» explique la productivité de la main-d'oeuvre au-delà de la variance expliquée par les facteurs exogènes, «l'éthique du travail» pouvant elle-même s'expliquer par le climat. De la même manière, on peut vérifier si l'appartenance à une religion (catholique ou protestante) affecte le taux de suicides après avoir isolé les effets géographiques exogènes (les pays catholiques sont davantage concentrés vers l'equateur). La mesure du climat solaire est égale à la latitude exacte au carré (pour tenir compte de la sphéricité de la Terre) ; le climat physique se mesure par l'altitude et la surface totale de la zone terrestre, et la vie marine par la longueur des côtes ; des mesures similaires sont utilisées pour la terre et les ressources minérales. Quant aux mesures culturelles, elles incluent la mesure des cinq plus grandes religions mondiales, d'un certain nombre de groupes religieux et de l'utilisation des principales langues coloniales. Enfin, les mesures politiques et économiques englobent plusieurs variables indicatrices de différents régimes (communisme, dictature d'extrême droite, démocratie, par exemple). La figure indique entre parenthèses les variations en pourcentage expliquées par chacun des niveaux de cette hiérarchie pour 30 mesures comparatives sur plusieurs pays. Ces mesures sont celles les plus fréquemment utilisées en démographie (mortalité, natalité, population, taux de croissance de la population), en sociologie (crime, suicide) et en économie (fabrication, extraction minière, consommation de biens de consommation durables, absorption de calories, production globale, épargne). Ces moyennes sont caractéristiques de nombreux comportements, mais pas de tous. Indépendamment de la façon dont est définie la «culture» (par groupe national, religieux ou linguistique), les pourcentages sont relativement constants. Néanmoins, certains comportements (taux d'inflation à court terme dans plusieurs pays) ne s'expliquent pas par la hiérarchie physioéconomique. Parmi tous les niveaux illustrés sur la figure, c'est le climat solaire qui explique généralement les plus grandes divergences de comportements, et plus de 70 % des écarts observés dans les comportements mentionnés ci-dessus, y compris le revenu par habitant, s'expliquent par des facteurs exogènes. Les variables culturelles n'expliquent que peu de variations au-delà de celles découlant déjà des ressources naturelles. Là encore, si l'on tient compte des effets climatiques, on constate que la religion n'a pas d'impact sur la productivité de la main-d'oeuvre ni sur l'éthique du travail.