You are on page 1of 289

ROGER L.

MARTIN
UN
NOUVEAU
SYSTÈME
DE PENSÉE
PETITES LEÇONS
DE STRATÉGIE ET DE MANAGEMENT
Traduit de l’anglais (États-Unis) par Marina Viyra
L’édition originale de cet ouvrage a été publiée aux États-Unis par Harvard Business Review Press
sous le titre : A New Way to Think. Your Guide to Superior Management Effectiveness.
© 2022, Roger L. Martin
Publié en accord avec Harvard Business Review Press
Tous droits réservés.

Édition : Léa Kerviche


Traduction/Relecture : Marina Viyra
Mise en pages : Straive
Couverture : Pete Garceau (adaptée par Carl Brand pour la version française ;
© MeSamong/Shutterstock)

© 2022, Pearson France pour l’édition française.

Publié par Pearson France


2, rue Jean Lantier
75001 Paris

ISBN : 978-2-3260-6096-8

Dépôt légal : novembre 2022

Achevé d’imprimer en octobre 2022 par GraphyCems, Espagne.

Aucune représentation ou reproduction, même partielle, autre que celles prévues à l’article L. 122-5
2° et 3° a) du Code de la propriété intellectuelle ne peut être faite sans l’autorisation expresse de
Pearson France ou, le cas échéant, sans le respect des modalités prévues à l’article L. 122-10 dudit
code.
À Marie-Louise, l’amour de ma vie.
Table des matières

Introduction

PARTIE 1 L’ENVIRONNEMENT CONCURRENTIEL


Chapitre 1 - La concurrence
Remettez en question la structure hiérarchique
Optez pour une organisation au service de la valeur
Placez la barre haut
Apportez de la valeur ajoutée en interne

Chapitre 2 - Les parties prenantes


La logique imparfaite de la valeur actionnariale
Laissez les clients prendre le contrôle
Le client d’abord : mode d’emploi

Chapitre 3 - La clientèle
Misez sur la force de l’habitude
Ancrez votre avantage cumulatif
Les quatre piliers de l’avantage cumulatif

PARTIE 2 LE PROCESSUS DÉCISIONNEL


Chapitre 4 - La stratégie
Étape n° 1 : arbitrez au lieu d’analyser
Étape n° 2 : concevez de nouvelles options stratégiques
Étape n° 3 : déterminez les conditions du succès
Étape n° 4 : identifiez les obstacles à la prise de décision
Étape n° 5 : concevez des tests pour les conditions indispensables
Étape n° 6 : réalisez les tests
Étape n° 7 : prenez votre décision

Chapitre 5 - L’analyse de données


Le commerce, une science comme une autre ?
Agissez dès que possible
Sortez du cadre établi
Construisez un récit convaincant

PARTIE 3 L’ORGANISATION DU TRAVAIL


Chapitre 6 - La culture d’entreprise
Les mécanismes du pilotage organisationnel
Contournez la résistance au changement
Changez la culture en douceur
L’instauration d’une culture gagnante à la Rotman School

Chapitre 7 - Le travail intellectuel


L’essor de l’usine à décision
La productivité de l’usine à décision
Redéfinissez le contrat de travail
Vers l’algorithme du savoir

Chapitre 8 - Les services internes de l’entreprise


Quels risques en l’absence de stratégie ?
Étendez la stratégie aux services internes
La stratégie de gestion des talents chez Four Seasons
Élaborez les stratégies pour les fonctions supports

PARTIE 4 LES ACTIVITÉS CLÉS DE L’ENTREPRISE


Chapitre 9 - La planification
Piège n° 1 : confondre plan et stratégie
Piège n° 2 : raisonner en termes de coût
Piège n° 3 : se référer à sa propre entreprise
Comment éviter les pièges

Chapitre 10 - La mise en œuvre de la stratégie


Détachez-vous du modèle stratégie-exécution
Reconnectez stratégie et mise en œuvre
Déployez la stratégie en cascade
Créez un cercle vertueux pour la stratégie

Chapitre 11 - La gestion des talents


Reconnaître la valeur des talents
Comment surmonter ces défis

Chapitre 12 - L’innovation
Faites face à de nouveaux défis
Planifiez votre processus de conception
Vers un nouveau Pérou

Chapitre 13 - L’investissement en capital


Le capital et sa liquidité
Comment les entreprises mesurent la création de valeur
Réalisez la valeur au moment de l’investissement
Changez d’approche
L’erreur courante dans le calcul de la création de valeur

Chapitre 14 - Les fusions-acquisitions


Soyez un fournisseur de capital de croissance avisé
Assurez une meilleure supervision managériale
Transférez les compétences spécifiques
Partagez les ressources précieuses
Comment expliquer l’engouement pour les fusions-acquisitions ?

Postface
Remerciements
Quelques mots sur l’auteur
Index
Introduction

Changez de perspective sur les


pratiques managériales

On dit souvent que la folie, c’est de répéter toujours la même action et de


s’attendre à des résultats différents. J’ai fréquemment rencontré ce genre de
folie au cours de mes 40 années d’expérience en tant que consultant en
stratégie.
Lorsque les cadres et les dirigeants constatent qu’un schéma, une
pratique répandue, une théorie ou une façon de penser – ce que j’appellerai
un « modèle » pour faire court – ne mène pas au résultat souhaité, ils en
déduisent de manière quasi automatique que le modèle en question n’a pas
été appliqué avec suffisamment de rigueur. Le remède consisterait donc à
appliquer ce modèle de nouveau, en y mettant plus d’énergie. Et lorsque
cela aboutit une nouvelle fois à un résultat insatisfaisant, la solution
consisterait à insister encore en faisant plus d’efforts. Vous cherchez à
maximiser la valeur pour l’actionnaire sans y parvenir ? Concentrez-vous
davantage sur la valeur actionnariale ! Vous cherchez à faire de la
performance une priorité, mais cela ne l’améliore point ? Faites-la passer
avant tout le reste ! Votre culture n’évolue pas dans la direction souhaitée ?
Alors, imposez un changement de culture encore plus brutal !
Face à un manque d’efficacité, les modèles existants sont extrêmement
tenaces, car nous les adoptons machinalement pour organiser notre pensée
et notre action. Comme l’indique John Sterman, professeur en dynamique
des systèmes à la MIT Sloan School, il ne s’agit pas pour les êtres humains
d’opter délibérément pour une modélisation, mais « seulement de décider
quel modèle choisir ». Quant à ce « choix » de modèle pour aborder une
problématique donnée, nous privilégions une façon de penser familière et
conventionnelle, car réfléchir sur la base de premiers éléments, comme il
nous arrive de le faire dans une situation nouvelle pour laquelle nous
n’avons pas de modèle est pénible, chronophage, voire absolument
effrayant. Dès lors, à la suite d’une situation inédite, nous appliquerons de
façon quasi certaine un modèle comparable à celui que nous avions alors
fini par utiliser. Nous préférons recourir à des modèles existants parce que
c’est à la fois plus simple et plus rapide. Cette prédisposition se trouve
systématiquement renforcée lors de nos études. Dès le départ, le système
éducatif nous enseigne des modèles – de multiplication, d’organisation de
paragraphes, de catégorisation des espèces – et nous les fait répéter en
pratique jusqu’à ce que cela devienne un réflexe.
Les écoles de commerce ne font pas exception. On y enseigne tout un
éventail de modèles : les cinq forces de Porter, le MEDAF, les 4P, la QEC,
le modèle de Black-Scholes, les PCGR, le CMPC, pour n’en citer que
quelques-uns. Des modèles concurrents se disputent la vedette au fil du
temps, puis, à l’instar de la sélection naturelle des espèces, une convergence
se dessine généralement sur une méthode prédominante dans chaque
domaine du management. Les vainqueurs ont tendance à devenir des
préjugés dans le monde des affaires. Utilisés à l’infini, ces champions
dictent des normes applicables par défaut dans les contextes pour lesquels
ils ont été conçus. Il n’est donc pas surprenant que, lorsque l’un de ces
modèles ne semble pas fonctionner, le manager ne le rejette pas, mais
assume, au contraire, sa responsabilité personnelle du fait de ne pas l’avoir
appliqué correctement. Il est extrêmement difficile – et socialement risqué –
de remettre en question un modèle établi et communément admis pour
commencer à en construire un autre en partant de zéro.
Cette remise en cause et cette construction font désormais partie des
tâches qui m’incombent, bien qu’il m’ait fallu un certain temps pour
comprendre, en travaillant avec mes clients, que cela relevait effectivement
de mes fonctions. Des cadres, surtout des PDG, me sollicitent pour les aider
à améliorer les performances de leur entreprise. Cela signifie généralement
qu’ils ressentent une certaine frustration ou inquiétude : quelque chose ne
fonctionne pas aussi bien qu’ils le souhaiteraient, sinon ils n’auraient tout
simplement pas fait appel à moi. Afin de les aider, je dois établir un
diagnostic des causes expliquant pourquoi leurs résultats ne correspondent
pas à leurs attentes. Au fil des ans, il m’est apparu clairement que, dans
presque tous les cas, les résultats décevants s’expliquaient non pas par un
manque de diligence dans la poursuite des objectifs, mais par l’inadéquation
du modèle utilisé.
Un exemple classique : un client m’a sollicité pour comprendre
pourquoi son programme de R&D générait des gains de plus en plus faibles,
alors que l’entreprise investissait toujours plus de temps et d’énergie pour
éliminer soigneusement les projets les moins prometteurs. Malgré toute
cette rigueur, l’entreprise n’avait pas réussi à présenter un produit
réellement révolutionnaire depuis plusieurs années. J’ai rapidement compris
que le modèle guidant implicitement la démarche de ce client reposait sur
l’idée qu’une présélection fondée sur l’analyse systématique des données de
marché disponibles était susceptible d’augmenter la productivité de la R&D
en disqualifiant les projets peu réalistes, et donc en libérant du temps et des
ressources pour les plus prometteurs.
En apparence, c’était logique. Cependant, en examinant ce processus de
plus près, je me suis rendu compte que la méthode du client impliquait de
prévoir les ventes futures sur la base des données qui existaient au moment
de la sélection. De ce fait, si les innovations ne s’éloignaient pas de l’état
des connaissances et des technologies du moment, les données semblaient
indiquer des projets qui, parce qu’ils répondaient aux critères de sélection,
seraient prometteurs. Inversement, pour des initiatives plus novatrices, par
manque de données correctes (car les idées étaient nouvelles), les
projections de ventes conséquentes étaient jugées spéculatives et avaient
tendance à être rejetées. En d’autres termes, le modèle en apparence
cohérent présentait une faille dans sa logique : il reposait sur la disponibilité
de données de marché qui étaient fiables, mais non pertinentes pour de
véritables innovations révolutionnaires.
L’entreprise pouvait-elle recourir à un autre modèle ? Selon Charles
Sanders Peirce, le philosophe pragmatiste américain, aucune idée nouvelle
dans l’histoire du monde n’a été prouvée par voie d’analyse a priori : si
vous voulez absolument démontrer les mérites d’une idée au cours de son
élaboration et si l’idée est vraiment révolutionnaire, vous allez la tuer dans
l’œuf parce qu’aucune preuve de son caractère novateur n’existe au
préalable. Par conséquent, le meilleur modèle de sélection des projets
innovants est celui qui vous permet de les évaluer en fonction de leur
cohérence – en expliquant pourquoi cette idée est bonne – et non sur la base
de données existantes. Ensuite, lors de l’avancement de chaque projet ayant
franchi l’épreuve de la cohérence, il convient de chercher des moyens de
créer des données qui vous permettent de tester cette idée au fil du
cheminement, de l’ajuster et, éventuellement, d’y renoncer.
Dans le cas de mon client, ainsi que de milliers d’autres comme lui,
poursuivre l’application du même modèle avec plus de persévérance ne
résoudrait pas le problème. La solution nécessitait d’adopter un nouveau
système de pensée. Il fallait trouver un modèle différent. C’est désormais le
cœur de mon métier. Plutôt que d’accepter le modèle du client, je prends du
recul pour comprendre ce qui, dans ce modèle, a empêché de trouver des
solutions à la problématique qu’il était censé résoudre. Et, plus important
encore, s’il n’y a pas une manière différente, plus efficace, de réfléchir à
cette problématique.
En portant un regard rétrospectif sur ma carrière, je me rends compte
que j’ai toujours éprouvé de la fascination pour les modèles en raison de
leur influence sur chacune de nos actions. Dès l’école élémentaire et tout au
long de mes études, j’ai mis les modèles enseignés par mes professeurs à
l’épreuve. Comment savaient-ils que le monde fonctionnait de cette façon ?
En étaient-ils sûrs ? Cela a-t-il fonctionné dans tous les cas ? C’est en
posant ces questions que je me suis formé et que j’ai obtenu ce que je
pensais être les réponses les plus adaptées. Même si mes questionnements
incessants ont dû être pénibles pour beaucoup de mes enseignants, patrons
et clients, bon nombre d’entre eux les ont également considérés comme
dignes d’intérêt et ont agi en fonction des réponses découvertes ensemble.
C’est ce qui m’a amené à écrire ce livre.

Les modèles, la Harvard Business Review et


un livre

Chaque fois que l’un de mes modèles alternatifs s’avère utile à de


nombreux clients et leur permet de résoudre un problème spécifique, j’écris
un article à ce sujet afin de faire profiter de mes conseils un public plus
large. La revue Harvard Business Review (HBR) est mon terrain de
prédilection et c’est avec son rédacteur en chef, David Champion, mon
partenaire éditorial préféré, que j’ai rédigé vingt articles depuis notre
premier billet coécrit en 2010.
Ces articles n’ont pas tous pour objet de critiquer un modèle dominant
qui échoue à produire les résultats escomptés et de proposer une meilleure
alternative. Cependant, David a remarqué un jour qu’un nombre conséquent
de nos textes traitaient effectivement de cette problématique et a lancé
l’idée d’y consacrer un livre entier. L’ouvrage que vous lisez maintenant est
le fruit de cette discussion. Dans chacun des quatorze chapitres,
indépendants les uns des autres, je compare un modèle dominant mais
défaillant avec une alternative qui, selon moi, est meilleure.
Je n’ai toutefois pas la prétention de croire que mon alternative serait un
bon modèle ou un modèle parfait. J’appartiens à l’école de
falsificationnisme1 de Karl Popper et d’Imre Lakatos. Tout comme eux, je
ne crois pas qu’il y ait de bonnes ou de mauvaises réponses, mais des
solutions plus ou moins pertinentes. Il convient toujours de recourir au
meilleur modèle disponible, tout en veillant à ce qu’il produise les résultats
qu’il prédit. Si c’est le cas, continuez à l’utiliser. Dans le cas contraire,
élaborez un modèle plus adapté qui donne des résultats plus en phase avec
vos objectifs. Mais sachez qu’à un moment donné, votre nouveau modèle
sera lui aussi dépassé et devra être remplacé par un modèle plus performant.
Je sais que de nombreux managers et cadres supérieurs ont une
formation scientifique qui les amène à croire à l’existence réelle d’une
bonne solution ou d’un bon modèle à appliquer dans une situation donnée.
Si vous le pensez également, je me dois alors de vous rappeler que les lois
de la physique d’Isaac Newton ont été largement enseignées comme étant
scientifiquement prouvées pendant plus d’un siècle, jusqu’à ce que le
monde découvre, grâce à Albert Einstein, qu’elles n’étaient pas
parfaitement exactes. Dans ce livre, je ne promets pas de décrire les
quatorze modèles qui sont bons à suivre. Je pense plutôt que ces modèles,
qui sont nouveaux ou différents des autres, présentent une plus grande
chance d’obtenir un résultat voulu que ceux auxquels ils se substituent. Je
serai vraiment reconnaissant au prochain concepteur qui améliorera chacun
de mes modèles.
Enfin, je tiens à reconnaître que, dans ce livre, j’utilise de manière
excessive l’exemple de l’entreprise Procter & Gamble (P&G) et mentionne
fréquemment son ancien PDG, Alan G. Lafley. Cela s’explique par ma
relation professionnelle exceptionnellement durable et fructueuse avec
P&G, car j’ai travaillé comme consultant pour cette entreprise pratiquement
sans interruption depuis 1986.
J’ai donc eu le plaisir de conseiller un certain nombre de ses PDG, de
feu John Smale à la fin des années 1980 à David Taylor qui vient de prendre
sa retraite, mais c’est avec A. G. Lafley, qui a occupé le poste de PDG à
deux reprises sur une période de treize ans, que j’ai tissé la relation la plus
singulière, la plus longue et la plus étroite. Nous étions partenaires de
pensée dans la mesure où deux des quatorze chapitres se fondent sur les
articles de la HBR que nous avons écrits ensemble. Nous avons également
rédigé à quatre mains le livre Playing to win.
Grâce à la nature unique de ma relation avec P&G, j’ai pu observer de
près de nombreuses situations sur lesquelles j’ai travaillé et qui illustrent
parfaitement les concepts présentés dans ce livre. Je préfère donc produire
ici ces exemples dont je maîtrise le contexte, plutôt que de recourir à des
récits de seconde ou de troisième main. En outre, l’entreprise P&G présente
également l’avantage d’être largement connue pour ses produits de
consommation grand public : il est sûrement plus facile pour les dirigeants
de s’identifier à P&G qu’à une société de services aux entreprises dont ils
n’ont probablement jamais entendu parler. Néanmoins, je suis tout à fait
conscient que de nombreuses autres entreprises illustrent tout aussi bien des
qualités louables dans le monde des affaires.
Pour rappel, ces quatorze chapitres ont été rédigés, à dessein,
indépendamment les uns des autres pour une lecture linéaire ou aléatoire.
Vous pouvez commencer par les chapitres qui vous intéressent le plus et en
garder d’autres en réserve pour les consulter lorsque la situation décrite se
présente. Cet ouvrage peut ainsi être considéré comme un manuel de
management. Cela étant, je suis à la fois universitaire et consultant, et ces
deux métiers se caractérisent par un intérêt marqué pour la systématisation
des idées : afin de structurer cet ouvrage, j’ai méthodiquement classé les
chapitres dans quatre catégories, ce qui m’a permis de proposer un
cheminement optimal. Il vous revient désormais de vous approprier ce livre.

L’environnement concurrentiel

La première catégorie concerne l’environnement ou plutôt le cadre dans


lequel fonctionnent la plupart des entreprises. Trois concepts présentés dans
la première partie relèvent, selon moi, de cette catégorie :
1. La concurrence. Le modèle classique repose sur l’idée que les
entreprises se trouvent en concurrence, avec comme principal objectif au
niveau du groupe l’organisation et le contrôle des entités des niveaux
hiérarchiques inférieurs. Selon un modèle plus efficace, la concurrence
s’exerce au contact direct avec la clientèle, au niveau du service
commercial. Par conséquent, celui-ci doit bénéficier du soutien de
chaque niveau hiérarchique supérieur afin de mieux satisfaire la
clientèle.
2. Les parties prenantes. Même s’il est remis en cause aujourd’hui, le
modèle dominant reste dans la pratique celui où la société existe pour
servir en premier lieu les intérêts des actionnaires. Selon un modèle plus
efficace, faire passer les actionnaires avant tout n’est pas le bon moyen
pour les rendre plus riches. En revanche, donner la priorité à la clientèle
mènera au succès de l’entreprise et à l’accroissement de la richesse des
actionnaires.
3. La clientèle. Le modèle dominant suppose que l’entreprise doit se
concentrer sur la fidélisation de la clientèle, facteur clé de succès. Selon
un modèle plus efficace, les habitudes inconscientes dans le
comportement du consommateur représentent un moteur beaucoup plus
puissant auquel il convient de s’intéresser, contrairement à la fidélité
tant convoitée par les entreprises.

Le processus décisionnel

La catégorie suivante concerne la manière dont les décisions sont prises à


tous les niveaux d’une entreprise. Cette question est abordée dans la
deuxième partie de l’ouvrage à travers deux concepts :
4. La stratégie. Le modèle traditionnel en matière de stratégie incite à se
concentrer sur l’interrogation : qu’est-ce qui est vrai ? Un modèle plus
efficace pour orienter et effectuer des choix stratégiques se focalise sur
la logique qui sous-tend ces choix, en se demandant : qu’est-ce qui
devrait être vrai ?
5. L’analyse de données. Le modèle traditionnel suppose que pour être
rigoureux, il faut se tenir à la prise de décision fondée sur des données.
Un modèle plus efficace fait apparaître que ce qui est vrai dans un
domaine peut conduire à des choix gravement erronés dans un autre. À
ce moment-là, l’imagination devient un atout majeur.

L’organisation du travail
Une fois les décisions stratégiques prises, les managers doivent trouver la
manière de les appliquer. La troisième partie aborde la question de la
structuration du travail. Trois concepts semblent avoir leur place ici :
6. La culture d’entreprise. Le modèle dominant part du principe que la
culture revêt une importance cruciale, à tel point que si elle n’est pas
propice au fonctionnement de l’entreprise, les responsables doivent agir
en imposant des modifications et/ou une réorganisation pour aboutir au
changement souhaité. Selon un modèle plus efficace, la culture ne peut
pas être changée de manière prescriptive ou formelle, en réorganisant les
rôles et les responsabilités. En revanche, elle peut être modifiée
indirectement, en influant sur la façon dont les individus travaillent les
uns avec les autres.
7. Le travail intellectuel. Le modèle dominant propose d’organiser le
travail intellectuel à l’instar du travail physique, c’est-à-dire sur la base
d’emplois à temps plein qui supposent une exécution d’un même
ensemble d’activités de manière itérative. Selon un modèle plus efficace,
le travail intellectuel devrait être organisé autour de projets limités dans
le temps.
8. Les services internes. Le modèle dominant suppose que le rôle des
services internes consiste à appliquer à la lettre les stratégies des unités
opérationnelles, ces dernières étant les seules à devoir en disposer. Selon
un modèle plus efficace, les services internes ont tout autant besoin de
stratégies pour être performants que les unités opérationnelles.

Les activités clés de l’entreprise

Après avoir structuré le travail des équipes, il convient d’approfondir un


certain nombre d’activités clés dans lesquelles s’engagent la plupart des
unités d’une entreprise. Cette catégorie comporte les six derniers chapitres
regroupés dans la quatrième partie :
9. La planification. Le modèle dominant place au même niveau la
planification d’activités et l’élaboration de stratégies. Or, la
planification consiste surtout à gérer les risques et à s’en accommoder
plutôt que de les assumer. Un modèle plus efficace considère
l’élaboration de stratégies comme un processus visant à choisir des
objectifs et des risques, plutôt que de chercher à contrôler les risques en
cheminant vers un objectif mal analysé.
10. La mise en œuvre de la stratégie. Le modèle dominant implique qu’il
convient d’abord de formuler ou de choisir sa stratégie, puis de la
déployer ou de la mettre en œuvre. Un modèle plus efficace ne
distingue pas la « stratégie » de son « déploiement ». Au contraire, les
deux concepts reposent sur la nécessité d’opérer des arbitrages dans un
contexte d’incertitude, de contraintes et de concurrence.
11. La gestion des talents. Selon le modèle dominant, la rémunération,
notamment sa part incitative versée en fonction de la performance,
reste l’élément le plus important pour attirer et retenir les talents
hautement qualifiés. Selon un modèle plus efficace, la clé pour attirer
et retenir ces talents consiste à traiter chaque employé talentueux
comme un individu ayant des besoins et des souhaits spécifiques.
12. L’innovation. Le modèle dominant repose sur l’idée qui voudrait que
l’effort et l’investissement doivent se concentrer sur la création d’un
produit innovant, qu’il s’agisse d’un objet, d’un service, d’un modèle
commercial, etc. Selon un modèle plus efficace, la conception de
l’action permettant à l’innovation d’être approuvée et lancée avec
succès est tout aussi importante que la conception du produit en soi.
13. L’investissement en capital. Le modèle dominant pour comptabiliser
un investissement en capital consiste à inscrire sa valeur et son coût au
bilan (en déduisant l’amortissement cumulé), à calculer la rentabilité
sur cette base et à prendre des décisions en conséquence. Un modèle
plus efficace traite cet investissement selon sa valeur résultant de la
conversion de cet actif disponible en un actif immobilisé et en calculant
les rendements sur la base de cette valeur immobilisée.
14. Les fusions et acquisitions. Selon le modèle dominant en matière de
fusions et acquisitions, une entreprise effectue une acquisition
principalement pour tirer profit d’un actif ou des installations de
l’entité acquise, qui présentent un intérêt particulier. Selon un modèle
plus efficace, toute acquisition doit principalement chercher à apporter
une plus grande valeur à l’entité acquise que celle générée par l’entité
au profit de l’entreprise.

Loin d’être ineptes, les quatorze modèles actuellement dominants sont,


au contraire, tout à fait judicieux. Je ne me fais donc pas d’illusions : la
description en une phrase des modèles alternatifs ne suffira pas à vous
convaincre de vous débarrasser du modèle dominant et d’adopter
l’alternative proposée. Cependant, j’espère avoir éveillé une curiosité qui
vous incitera à lire chaque chapitre dans son intégralité et à expérimenter au
moins un de mes modèles. Dans l’affirmative, je suis certain que vous
gagnerez réellement en efficacité dans votre travail de manager, car, à
l’instar de mon mentor, le théoricien du management Peter Drucker, ma
motivation première pour écrire est d’accompagner les cadres dans
l’optimisation de leurs performances.

1 NdT : issu d’une théorie philosophique du méthodologiste autrichien Karl Popper formulée en
1934 dans son ouvrage The Logic of Scientific Research, le falsificationnisme soutient que,
pour vérifier une idée, il faut essayer de la réfuter au moyen d’un contre-exemple.
Partie 1
L’environnement
concurrentiel
Chapitre 1

La concurrence

Les entreprises s’affrontent au niveau du service commercial,


pas du siège social.

L’image généralement véhiculée de la concurrence commerciale des


entreprises renvoie à une vision selon laquelle Boeing rivalise avec Airbus ;
General Motors défie Toyota, concurrente de Volkswagen ; Microsoft se
mesure à Amazon, un rival de Google ; Procter & Gamble s’oppose à
L’Oréal, concurrent direct de Unilever, lui-même en compétition avec
Johnson & Johnson ; et Coca-Cola rivalise avec PepsiCo. Il est tentant de
voir ces grandes entreprises comme des nations colonisatrices engagées
dans une immense bataille, luttant pour des territoires et défendant leur
position sur de multiples fronts. De nombreux PDG se reconnaissent
vraisemblablement dans cette image, à en juger par l’importance accordée
dans les médias à la part de marché des entreprises.
Or, ce ne sont pas les entreprises qui sont en compétition, mais les
produits et services qu’elles fournissent. La clientèle des avions
commerciaux à fuselage étroit pense que le Boeing 737 est un concurrent
direct de l’Airbus A320. Les acheteurs de berlines de taille moyenne
s’imaginent que la Chevrolet Malibu est en compétition avec la Toyota
Camry, qui rivalise à son tour avec la Volkswagen Passat. Les utilisateurs de
services en nuage considèrent qu’Azure est l’adversaire commercial d’AWS
qui, à son tour, se livre à une concurrence avec Google Cloud. Les
consommateurs de shampoings voient de même la compétition de Pantene
avec Fructis, puis Dove, puis Neutrogena. Qu’en est-il des boissons ?
Naturellement, pour les sodas allégés en sucre, c’est Coca light contre Pepsi
light. Pour les jus d’orange, c’est Minute Maid contre Tropicana. Pour les
boissons énergétiques, c’est Powerade contre Gatorade. Et pour l’eau en
bouteille, c’est Évian contre Vittel.
Ces exemples nous amènent à envisager le phénomène de compétition
commerciale de manière plus adéquate : la concurrence se produit au
niveau du service commercial plutôt qu’au siège social des entreprises.
Chaque client fait un choix parmi les produits ou services pouvant répondre
à ses besoins. Et cette clientèle n’a que peu de visibilité et un intérêt limité
quant aux équipes responsables de la présence du produit chez le détaillant,
sans parler des intermédiaires qui interviennent aux étapes de la fabrication,
du transport et de la mise en rayon. L’appartenance à une marque spécifique
ne sauvera pas, dans un point de vente, un produit ou un service aux yeux
de la clientèle, même si l’entreprise en question propose des produits
similaires qui connaissent un certain succès. Prenons l’exemple du système
d’exploitation Microsoft Windows. Même si la suite Office de Microsoft est
appréciée par de nombreux utilisateurs de Mac, ils ne se convertissent pas à
Windows pour autant.
Considérer la concurrence comme un phénomène qui se produit en
première ligne, là où se trouvent les consommateurs, plutôt que comme une
rivalité entre entreprises bouscule la plupart des représentations, conscientes
ou inconscientes, des managers en matière de mission, de stratégie, de
culture, d’organisation et de prise de décision. Comme je l’expliquerai un
peu plus loin, ce n’est pas tant la gestion de la complexité organisationnelle
qui devrait être vue comme le principal défi de la direction d’une entreprise,
mais plutôt le besoin de s’assurer de la maximisation de la valeur au niveau
du service commercial. Cela exige une approche moins fondée sur la
hiérarchie et plus respectueuse des idées des personnes en contact direct
avec la clientèle. Une telle approche, au lieu de chercher à optimiser
l’utilisation des ressources et des capacités existantes, serait plutôt
structurée autour de la compréhension des facteurs permettant d’apporter
directement de la valeur à la clientèle et serait motivée par cet objectif.
Dans ce contexte, les dirigeants doivent en premier lieu s’attacher à
déterminer la manière dont l’entreprise peut mobiliser ses ressources et ses
capacités en vue d’obtenir le meilleur résultat possible au niveau du service
commercial.
Remettez en question la structure
hiérarchique

Bien qu’un produit rivalise avec d’autres dans un point de vente, ce n’est
pas là que l’on trouve ce qui contribue à le rendre compétitif ; afin de créer
de nouveaux produits, les entreprises doivent réunir nombre de ressources
et de capacités. Par conséquent, leur structure organisationnelle devient
complexe.
La réponse classique aux défis entraînés par une telle organisation
consiste à créer une hiérarchie, un modèle de structure dans lequel des
dirigeants expérimentés et avisés s’enquièrent des réalités du terrain,
réfléchissent et s’informent, puis donnent des ordres à leurs subalternes,
qui, à leur tour, transmettent ces ordres à un niveau inférieur, et ainsi de
suite. C’est pourquoi chaque grand groupe dispose d’un certain nombre de
niveaux hiérarchiques situés au-dessus du service commercial. Prenons
l’exemple du shampoing Pantene. Au-dessus de cette marque se trouve
l’activité des Soins capillaires, ensuite, à un niveau encore supérieur, l’unité
opérationnelle du secteur Beauté, puis, au sommet, Procter & Gamble.
Naturellement, le fonctionnement d’une hiérarchie varie
considérablement en fonction des différences culturelles mais, quoi qu’il en
soit, dans la plupart des pays, on considère que le succès d’un système
hiérarchique dépend généralement de la qualité des décisions descendant en
cascade des personnes au sommet, qui, en toute logique, ont la meilleure
vision du déroulement global de la bataille, de l’endroit où il faut envoyer
leurs troupes et de la manière de les armer.
Cependant, si la concurrence se joue entre produits plutôt qu’entre
entreprises, la corrélation entre les décisions d’un PDG et le fait qu’un
client achète un produit à un moment donné est beaucoup moins évidente.
Pour les cadres éloignés de la ligne de front, les résultats individuels des
décisions de la clientèle sont loin d’être faciles à anticiper et à contrôler.
Cela modifie la dynamique du pouvoir interne : qui détermine ce qui a de la
valeur et ce qui n’en a pas ? Quelle est la relation des autres entités du
groupe avec les unités directement engagées dans des activités liées aux
produits et services ?
Optez pour une organisation au service de la
valeur

Si celui qui juge de la valeur d’un produit ou service n’est pas le


fournisseur, mais le consommateur au moment de l’achat, c’est alors le
service commercial de ce fournisseur qui se trouve en première ligne et qui
est donc le plus à même de déterminer ce qui a de la valeur aux yeux de la
clientèle. Afin de satisfaire les besoins de cette dernière, les autres services
de l’entreprise se doivent d’aider le service commercial, celui qui encaisse
les recettes. Pour ce faire, le niveau inférieur doit être vu comme un client
par le service qui l’encadre. À ce titre, ce niveau peut s’attendre à obtenir
des services d’une valeur supérieure à leur coût. Plus concrètement,
l’activité des Soins capillaires chez P&G doit apporter une nette valeur
compétitive à Pantene, grâce aux économies d’échelle réalisées sur les
activités de R&D menées dans ce domaine pour les six principales marques
du groupe au niveau mondial, ou par tout autre moyen.
Le même principe s’applique à toutes les entités qui se succèdent dans la
structure hiérarchique du groupe. Ainsi, à l’instar de l’activité des Soins
capillaires, qui doit créer une valeur supérieure au coût supporté au niveau
des équipes clients Pantene, l’échelon encore supérieur correspondant à
l’unité opérationnelle du secteur Beauté doit soutenir l’activité des Soins
capillaires avec le même objectif. Cette valeur peut être apportée en
développant une connaissance plus approfondie des consommateurs de
produits de beauté à travers les multiples marques de son portefeuille, qui
cumulent 13 milliards de dollars de chiffre d’affaires dans ce secteur. Pour
l’activité des Soins capillaires seule une telle masse de données est difficile
à obtenir. Enfin, P&G doit soutenir l’unité Beauté, qui doit soutenir
l’activité des Soins capillaires, qui soutient la marque Pantene. P&G peut y
parvenir grâce à son important rayonnement publicitaire, en permettant à
son unité Beauté d’acheter de la publicité pour le compte des Soins
capillaires en général et de Pantene en particulier, à un coût moins élevé.
Dans tous les cas, un niveau qui ne génère pas de valeur nette aidant en
définitive le produit à conquérir le client dans les points de vente est au
mieux superflu et, au pire, rend le produit moins compétitif. Si l’unité
Beauté de P&G est incapable de surcompenser les coûts que l’activité des
Soins capillaires a engagés pour soutenir Pantene, alors P&G devrait
envisager soit d’éliminer l’unité Beauté en tant que maillon de la chaîne (ce
qui dépendra de la valeur ajoutée qu’elle apporte éventuellement aux autres
activités des niveaux inférieurs), soit de transférer l’activité des Soins
capillaires dans une autre unité, voire de la céder à un autre propriétaire. Par
ailleurs, si l’appartenance de l’unité Beauté à P&G n’apporte pas
suffisamment de valeur ajoutée pour justifier les coûts de son affiliation au
groupe, ce dernier ne devrait pas détenir et contrôler cette unité. Aucune
entreprise ne peut être compétitive au niveau du service commercial, si
celui-ci se trouve paralysé par une hiérarchie qui ne lui procure pas
suffisamment de valeur pour contrebalancer ses dépenses.
Placez la barre haut

La valeur que les strates supérieures doivent fournir s’avère considérable,


car l’existence d’un niveau situé au-dessus du service commercial génère
obligatoirement un coût qui va grever sa compétitivité à double titre. Tout
d’abord, en matière de coordination : les équipes clients ne seront pas en
mesure de prendre des décisions importantes seules, sans consulter le
niveau supérieur, ce qui est susceptible d’entraîner des retards, voire
l’impossibilité de prendre une décision optimale pour leur activité
spécifique, indépendamment des décisions prises pour l’ensemble du
groupe diversifié. Deuxièmement, ce niveau supplémentaire dans la
structure générera des coûts directs relatifs aux managers et aux cadres, à
leurs assistants, aux notes de frais, aux espaces de bureau et au matériel
informatique nécessaires, ainsi qu’une multitude de frais annexes, qui sont
pris en charge en totalité grâce aux bénéfices nets des ventes des équipes
clients.
Alors, que peuvent faire les niveaux supérieurs pour mériter leur place
dans la chaîne ? Au sein de grands groupes, ils fournissent de nombreux
services, dont la plupart concernent des économies d’échelle et de gamme
sur le plan opérationnel, ainsi qu’un investissement cumulé dans les savoir-
faire reconnus de l’entreprise.
Échelle des opérations. Les exemples les plus parlants se présentent
plutôt dans le domaine de la fabrication et de la distribution. Dans la
distribution, par exemple, l’entreprise agroalimentaire mexicaine Frito-
Lay peut réaliser des économies d’échelle en livrant son pop-corn
Smartfood et ses biscuits Grandma’s Cookies directement chez le
détaillant, car elle livre déjà ses chips de pomme de terre, Lay’s, et de
maïs, Doritos, à une multitude de magasins. Il convient de noter au
passage que Lay’s détient quatre des cinq plus grandes marques de
chips américaines, tandis que Pringles est la seule autre entreprise qui
a réussi à percer dans ce top cinq grâce à la conception ingénieuse de
son produit empilable et suffisamment robuste pour une distribution en
entrepôt à moindre coût, alors que les chips classiques sont trop
fragiles pour ce type de distribution. Dans le domaine de la R&D,
Boeing est en mesure de fournir des services rentables en matière de
développement de nouveaux modèles d’avions commerciaux, car
l’entreprise dispose par ailleurs d’une importante activité de
fabrication d’aéronefs militaires. Les coûts de développement peuvent
donc être mis en commun grâce à cette activité duale (il existe une
version militaire de la plupart des avions civils de Boeing).
Investissement cumulatif. Dans le domaine de l’identité de marque,
le groupe L’Oréal a été en mesure de lancer sa ligne de cosmétiques
Age Perfect Cosmetics à un coût beaucoup plus faible que si cette
nouvelle activité avait été indépendante, car ce produit a pu capitaliser
sur la confiance de la clientèle vis-à-vis de la marque de beauté
L’Oréal Paris, mais aussi de la sous-marque Age Perfect, elle-même
issue de la ligne de soins de la peau destinée aux plus de cinquante ans,
Age Perfect Skincare, lancée vingt ans plus tôt. L’Oréal apporte une
valeur ajoutée à la ligne Age Perfect Cosmetics non seulement en
raison des économies d’échelle réalisées, mais aussi grâce à son
investissement cumulé destiné à bâtir la crédibilité des marques
L’Oréal Paris et Age Perfect aux yeux de la clientèle. En outre, le
groupe peut s’appuyer sur son investissement cumulé dans
l’acquisition d’expertise, notamment dans ce domaine d’activités, pour
concevoir de nouveaux produits Age Perfect Cosmetics et les
commercialiser. De la même façon, le groupe Procter & Gamble peut
capitaliser sur son expertise dans les fragrances au profit de marques
aussi diverses que Tide, Pampers, Always, Olay, Charmin, Pantene,
Cascade, Dawn et Swiffer1, car le groupe a longuement été et demeure
encore aujourd’hui le premier acheteur au monde de composés
aromatiques et, de ce fait, le plus avancé sur la courbe d’apprentissage
dans ce domaine.
Ce ne sont que quelques exemples d’application d’économies d’échelle
et d’investissement cumulé en vue de fournir un service aux équipes
commerciales à un coût plus intéressant grâce à la notoriété du groupe.
Beaucoup d’autres avantages existent par ailleurs, notamment au niveau du
recrutement, du renforcement des compétences et de la formation continue,
des relations avec les autorités publiques et de la conformité réglementaire.
Cependant, quel que soit le type de service apporté par chaque niveau, sa
valeur doit être supérieure aux coûts inévitables dudit niveau imposés aux
échelons inférieurs.
C’est un double défi. Tout d’abord, les responsables du niveau supérieur
doivent commencer par traiter les personnes du niveau immédiatement
inférieur comme leurs clients, c’est-à-dire comprendre leur quotidien et
leurs besoins en faisant preuve d’empathie. Cela peut sembler évident, mais
il est surprenant de constater à quel point les cadres peuvent être
déconnectés du monde réel à mesure que l’on monte dans la hiérarchie. Par
exemple, au milieu des années 2000, j’ai travaillé avec un grand
équipementier automobile. Je me suis rendu compte que, tous les six mois,
chaque cadre supérieur se faisait systématiquement livrer un véhicule
flambant neuf dans le parking des bureaux réservé aux cadres. Chaque jour,
ils arrivaient au volant de leur voiture, puis la récupéraient toute propre,
bien entretenue et, au besoin, le réservoir rempli. Par conséquent, ils avaient
fini par perdre le sens des réalités et ne se rendaient plus compte de
l’expérience que les clients vivaient lors de l’achat, du financement, de
l’entretien et de la conduite de leurs véhicules. Un changement d’état
d’esprit s’avérait nécessaire, et il devait venir d’en haut. Comment peut-on
s’attendre à ce que les cadres intermédiaires traitent comme des clients les
personnes des niveaux inférieurs si leurs supérieurs ne leur rendent pas la
pareille ? Pour remédier à ce problème, j’ai demandé à chaque membre de
la direction, y compris au PDG, d’effectuer des visites à domicile chez leurs
consommateurs, comme chez ceux des concurrents, afin de s’informer sur
les réalités aux frontières de l’entreprise.
Les dirigeants intelligents le font instinctivement. Pendant toute la durée
de son mandat de PDG chez Procter & Gamble, Alan G. Lafley avait pour
règle, lors de chaque séjour dans un autre pays, de demander à la branche
locale de P&G d’organiser une visite à domicile chez un consommateur et
une visite dans un point de vente chez un détaillant local. L’une de ses
visites en Chine, au cours de laquelle il s’est arrêté dans un village situé
dans l’ouest rural en bord de rivière pour discuter avec les femmes qui y
lavaient leur linge, est depuis devenue légendaire. Le message était clair : si
le PDG d’une multinationale trouve le temps pour des visites à domicile et
des contrôles en magasin, comment se fait-il que vous n’y parveniez pas ?
Une fois assurés que les responsables à tous les niveaux de l’entreprise
ont bien compris la psychologie et les besoins de leur clientèle, les cadres
dirigeants peuvent s’attaquer au deuxième défi.
Apportez de la valeur ajoutée en interne

Comment le groupe peut-il apporter une nette valeur ajoutée pour chacune
de ses activités en portefeuille, et comment s’assure-t-il que chacune de ses
activités est en mesure d’apporter de la valeur ajoutée au niveau
immédiatement inférieur dans la structure, et ce de haut en bas jusqu’aux
équipes clients ? De quelle façon le groupe P&G, par exemple, s’assure-t-il
de créer de la valeur nette pour ses cinq domaines d’activités différents :
Soin du linge et entretien de la maison ; Soin du bébé, de la famille et
hygiène féminine ; Beauté ; Rasage ; et Santé et bien-être ? De même, qu’en
est-il de la valeur produite par le groupe PepsiCo pour ses boissons
éponymes, ainsi que ses apéritifs Frito-Lay et ses produits céréaliers Quaker
? Ou encore de Microsoft et ses branches Productivité et processus
commerciaux, Cloud intelligent et Informatique personnelle ?
Pour répondre à ces questions, il convient de réfléchir tant à
l’acquisition de capacités et de ressources qu’au regroupement d’activités.
C’est le dilemme classique de la poule et de l’œuf. Pour pouvoir créer des
capacités à forte valeur ajoutée, il est impératif de connaître les
composantes du portefeuille pour lesquelles ladite valeur doit être créée.
Mais il est impossible de savoir quelles activités détenir en portefeuille sans
avoir déterminé au préalable s’il est possible d’apporter une valeur nette à
chacune d’entre elles. Les dirigeants d’entreprise doivent donc adopter une
démarche itérative lorsqu’ils configurent leur portefeuille, afin que les
activités soient en adéquation avec la logique de création de valeur.
Afin de décrypter les tenants et aboutissants de ce cycle itératif, prenons
comme point de départ un cas de figure général où chaque entreprise
diversifiée dispose déjà d’un portefeuille. À l’instar des stratégies
classiques définies pour une unité opérationnelle ou un produit, qui se
concentrent sur les questions de savoir « où jouer » et « comment gagner »,
l’entreprise au plus haut niveau doit élaborer un projet de création de valeur
pour les unités du niveau inférieur. Pour savoir où jouer, il convient de se
pencher sur les capacités stratégiques en vue de sélectionner celles dans
lesquelles il est nécessaire d’investir. Pour savoir comment gagner, il faut
décider de la façon d’exploiter les économies d’échelle ou l’investissement
cumulatif au sein des capacités choisies, afin d’en faire profiter les unités
des niveaux inférieurs de la structure. Ainsi, la direction et les managers de
chaque entité d’un niveau donné doivent se poser ces questions et pouvoir
justifier, arguments à l’appui, de la valeur qu’ils sont capables d’apporter au
niveau hiérarchique immédiatement inférieur. Ce type de questionnement
doit s’appliquer à chaque strate de l’entreprise, jusqu’à ce qu’on arrive à
celle située juste au-dessus du service commercial.
Ce premier cycle de révision de la stratégie globale, de haut en bas de
l’entreprise, devrait produire quatre constatations intermédiaires qui seront
affinées ensuite. En général, il faut deux à trois cycles pour obtenir un
portefeuille cohérent. Les quatre constatations concernent les points
suivants.

Capacités clés nécessaires aux équipes clients

Commencez par identifier les capacités stratégiques dans lesquelles vous


devez investir et la hauteur des investissements à réaliser en vue de soutenir
des améliorations ou des renforcements (qui sont à définir) apportés à
certaines activités (à définir également) au niveau des équipes clients.
Devriez-vous investir dans la création d’un réseau de distribution commun
au niveau d’une branche d’activités du groupe, qui permettrait de soutenir
plusieurs activités et différents produits ? Ou dans un département de R&D
commun, qui prendrait en charge différents produits relevant d’une seule
activité ? Quel serait le coût de ces capacités et ressources ?
A. G. Lafley s’était livré à cet exercice au milieu des années 2000, peu
après sa prise de fonction en tant que PDG chez Procter & Gamble. Début
2001, il a convoqué une réunion hors site avec son équipe de direction
mondiale pour déterminer les capacités clés qui étayaient alors le
portefeuille de P&G, désignées ensuite comme « renforts de base ». Plus
d’une centaine de propositions ont alors été émises, puis le processus
itératif a permis d’en réduire la liste au nombre de trois, avant d’étendre
ensuite à cinq le nombre des « renforts de base » retenus dans le cadre des
activités du groupe :
1. la capacité de mise sur le marché grâce à un portefeuille conséquent de
produits distribués par des équipes polyvalentes, localisées directement
chez le détaillant, au plus près des clients (à l’instar de l’équipe de P&G
implantée chez Walmart à Bentonville dans l’Arkansas, aux États-Unis)
;
2. la capacité de créer des innovations présentant de l’attrait et de l’intérêt
pour les consommateurs ;
3. une connaissance approfondie de la clientèle en vue de disposer
d’informations exclusives ;
4. la capacité de créer des marques fiables et séduisantes ;
5. la capacité d’opérer sur une grande échelle afin de mettre en œuvre les
actions décrites ci-avant de manière rentable.

Clients, produits et services à abandonner

Si le fait d’appartenir au groupe n’apporte pas de valeur ajoutée à certaines


activités du service commercial, ces activités doivent sortir du portefeuille
avant que le coût engendré pour pouvoir résister à la concurrence en point
de vente ne se traduise par une baisse de compétitivité et de rentabilité.
Étant donné que les coûts sont inévitables et que les avantages ne le sont
pas, il est dans l’intérêt du groupe et de l’activité concernée de régler cette
question au plus vite, même si parfois « faire le ménage » de cette façon
peut se transformer en projet à long terme.
Chez P&G, la définition des compétences et capacités essentielles à
l’entreprise a déclenché un processus étalé sur quinze ans, consistant à
rechercher de meilleurs propriétaires pour les activités auxquelles le groupe
ne pouvait pas contribuer suffisamment pour couvrir les coûts qu’elles
supportaient en raison de leur appartenance à celui-ci. Il s’agissait d’un
effort conséquent impliquant de nombreuses ventes à plusieurs milliards de
dollars. Les activités alimentaires (beurre d’arachide Jif, huiles Crisco,
chips Pringles et café Folgers) ont été cédées en raison de leur capacité
limitée à innover continuellement pour rester compétitives, même si la
plupart d’entre elles étaient les leaders du marché dans leur catégorie. Les
activités pharmaceutiques, de soins pour animaux de compagnie et de
salons de coiffure ont été vendues en grande partie parce que leur mise sur
le marché spécialisé passait par des canaux très différents de ceux dans
lesquels P&G détenait une expertise et pour lesquels il pouvait offrir un
effet de levier, à savoir dans l’alimentation, les médicaments et la grande
distribution. Les activités du secteur de la beauté présentant le plus de
faiblesses en matière d’innovation technologique, comme le maquillage, les
parfums et les colorants capillaires, ont été vendues également. Plus d’une
centaine de petites marques sont sorties du portefeuille, car elles ne
pouvaient pas, à leur humble niveau, tirer avantage des capacités
d’innovation et de création de P&G. En 2016, les soixante-dix marques
conservées en raison de l’intérêt qu’elles présentaient sur l’échelle
d’attractivité ont été regroupées dans dix catégories (au lieu de plus de vingt
auparavant), pour lesquelles P&G était en mesure de mettre à profit ses cinq
capacités clés.

Clients, produits et services à ajouter

Si le groupe peut apporter des avantages substantiels à une activité, qu’elle


soit ou non en portefeuille, une telle faculté devrait être considérée comme
un signal pour investir dans l’activité en question et élargir le portefeuille
dans cette direction. Ainsi, alors même que P&G s’engageait dans un
exercice monumental de rationalisation avec près de 30 milliards de dollars
de cessions, le groupe s’est consolidé dans les domaines où il pouvait
appliquer les avantages offerts par ses capacités clés. Il a acheté Clairol2
pour renforcer son activité déjà florissante dans la branche des soins
capillaires et a, par ailleurs, racheté les activités de santé grand public de
Merck afin d’accroître sa présence dans le domaine des soins de santé.
Contrairement à l’activité pharmaceutique cédée, qui nécessitait une force
de vente spécialisée dans un canal unique pour P&G (médecins et
hôpitaux), l’activité de santé grand public convenait parfaitement à son
canal de distribution principal. Avec l’acquisition de Gillette, P&G a fait
son entrée dans le secteur du rasage, une nouvelle activité qui a bénéficié de
toutes ses capacités clés. En prime, les produits d’hygiène Oral-B de
Gillette dans le domaine des soins bucco-dentaires s’intégraient
parfaitement et renforçaient l’activité existante de P&G dans cette branche
(lignes de produits dentaires Crest et Scope).

Maillons faibles à éliminer

Comme indiqué précédemment, si une entité au sein de l’entreprise est


incapable d’ajouter de la valeur nette aux activités situées à un niveau
inférieur, son niveau doit être éliminé, car il nuit à la compétitivité dans les
points de vente, que cela soit déjà perceptible ou non. Cependant, cette
suppression ne doit pas s’appliquer de manière symétrique. Si parmi les
groupes d’activités A, B, et C, situés au même niveau, le groupe A
n’apporte pas de valeur ajoutée aux activités situées au niveau inférieur,
cela n’implique pas un démantèlement automatique des groupes B et C, qui
sont utiles à d’autres activités de première ligne : il s’agit d’éliminer
uniquement le maillon défaillant A.
Chez P&G, cet élagage a dû être réalisé sur le plan géographique, au
niveau des présidents régionaux. Depuis une réorganisation importante
menée en 1998, six présidents régionaux (notamment des zones Amérique
du Nord et Europe occidentale) coordonnaient les activités de mise sur le
marché dans leurs régions respectives pour toutes les catégories de produits.
Or cette coordination avait un coût, entraîné à la fois par le fonctionnement
des organisations régionales des présidents, lesquelles n’étaient pas
négligeables, et par le temps et les efforts nécessaires pour que les
présidents de catégorie mondiale réalisent leurs objectifs dans les régions en
lien avec les services commerciaux régionaux. Par conséquent, en 2019,
pour les dix premiers pays représentant 80 % des ventes et 90 % des
bénéfices de P&G, le niveau des présidents régionaux a été supprimé et les
présidents de catégorie mondiale sont devenus directement responsables de
la mise sur le marché (tous les autres pays, nombreux mais plus petits, ont
été regroupés sous la responsabilité d’un seul dirigeant chargé de travailler
avec les présidents de catégorie mondiale, selon le schéma appliqué aux
présidents régionaux auparavant).
Un tel processus demande énormément de travail. La société n’a pas
besoin d’être grande et très diversifiée pour que la situation se complique
assez rapidement. Imaginez une entreprise peu diversifiée avec deux
groupes d’activités, chacune ayant deux lignes d’activités (quatre activités
en tout) avec deux catégories de produits distinctes pour chacune d’entre
elles (soit huit catégories de produits). Cela requiert des choix stratégiques
visant à créer une nette valeur ajoutée pour quatorze clients internes
différents. Si l’entreprise présente une structure plus horizontale mais un
peu plus diversifiée, avec un niveau hiérarchique en moins et en ayant,
outre le niveau global, trois activités et trois catégories de produits pour
chacune des activités, cela représente tout de même douze clients internes.
Au-delà, cela devient rapidement bien plus complexe.

•••

Étant donné que la plupart des entreprises n’élaborent pas leur stratégie
globale dans l’optique d’accroître leur compétitivité sur le terrain, leur
structure a tendance à s’alourdir rapidement tant en matière de coûts que de
processus décisionnels. L’objectif majeur porte donc sur la réduction des
coûts, la suppression de certains niveaux hiérarchiques et la
décentralisation, de manière à rapprocher le pouvoir décisionnel des
équipes clients. Si l’entreprise n’en prend pas l’initiative, certains fonds
spéculatifs faisant preuve d’un activisme actionnarial3 sortiront de l’ombre
pour lui imposer précisément ce type de scénario. Une telle rationalisation
est certainement préférable au statu quo.
Cependant, réduire la stratégie d’une entreprise à la suppression de la
lourdeur hiérarchique revient à perdre toute la valeur que la créativité, la
vitalité et l’imagination sont susceptibles de produire. C’est en structurant la
stratégie de l’entreprise de manière dynamique depuis les points de vente
vers le sommet que vous créerez des opportunités pour vos équipes clients,
et non pour celles de vos concurrents.

1 NdT : certaines de ces marques, non commercialisées en France, sont des marques majeures
aux États-Unis. Tide – lessive ; Olay –produits de beauté ; Charmin – papier hygiénique ;
Cascade – détergent pour lave-vaisselle ; Dawn – produits ménagers.
2 NdT : Clairol est une marque de produits de coloration pour cheveux.
3 NdT : fonds spéculatifs qui ont pour objectif d’inciter les sociétés dans lesquelles ils
investissent à opérer certains changements dans leur organisation ou leur management afin
d’en améliorer la profitabilité à court terme.
Chapitre 2

Les parties prenantes

Seule la stratégie « le client d’abord » permet réellement de


créer de la valeur pour les actionnaires.

Le capitalisme moderne peut être divisé en deux périodes majeures. En


1932 commence l’époque du capitalisme managérial, caractérisé par l’idée,
alors perçue comme radicale, que les entreprises doivent disposer de
managers professionnels. Puis, l’année 1976 marque l’avènement du
capitalisme actionnarial, qui part du principe que toute entreprise se doit de
viser l’accroissement de la richesse de ses actionnaires. D’après cette
logique, la poursuite de cet objectif serait profitable tant aux actionnaires
qu’à la société.
Les deux périodes ont été annoncées par des articles de recherche
fondamentaux. En 1932, Adolf A. Berle et Gardiner C. Means publient leur
illustre traité sur l’entreprise moderne, intitulé The Modern Corporation
and Private Property, dans lequel ils affirment qu’il faut dissocier la
propriété du contrôle de l’entreprise. Une telle séparation entraînerait la fin
de la domination exercée sur le monde des affaires par des PDG
propriétaires comme les Rockefeller, les Mellon, les Carnegie et les
Morgan. Le contrôle des entreprises reviendrait alors à des employés qui
constitueraient une nouvelle classe de PDG professionnels. Selon A. Berle
et G. Means, ce changement n’était pas à craindre, car il s’inscrivait dans
une nouvelle ère d’expansion économique marquée par l’audace (qui, en
définitive, a mis quelques années à démarrer en raison de la Grande
Dépression).
L’idée a fait son chemin. Bien que nous puissions encore constater
l’existence de PDG propriétaires, les gestionnaires professionnels ont fini
par envahir les bureaux de direction. Les entrepreneurs étaient encouragés à
créer de nouvelles entreprises, mais aussi à faire preuve de sagesse en
confiant leur gestion à des managers professionnels, plus fiables et moins
versatiles une fois que l’entreprise atteignait une taille significative.
Puis, en 1976, le capitalisme managérial essuie un revers cinglant avec
la parution de l’article de Michael C. Jensen et de William H. Meckling sur
la théorie de l’agence, « Theory of the Firm: Managerial Behavior, Agency
Costs and Ownership Structure », dans le Journal of Financial Economics,
qui est devenu l’article de revue économique le plus cité de tous les temps.
Ses auteurs affirment que les propriétaires sont lésés par les gestionnaires
professionnels et que ces derniers servent leurs propres intérêts financiers
au mépris de ceux des actionnaires. Cette situation est mauvaise pour les
actionnaires et néfaste pour l’économie ; les gestionnaires dilapident les
ressources de l’entreprise et de la société pour s’engraisser.
Ces critiques ont fait naître une nouvelle philosophie du capitalisme, les
PDG ayant rapidement compris qu’il fallait prêter serment d’allégeance à la
« maximisation de la valeur actionnariale ». Les conseils d’administration
en sont aussitôt venus à considérer que leur tâche consistait à aligner les
intérêts des cadres supérieurs sur ceux des actionnaires par le biais de la
rémunération en actions. L’actionnaire ne serait plus trompé : l’actionnaire
serait roi.
Mais les actionnaires sont-ils réellement mieux lotis depuis qu’ils ont
écarté les managers du centre du monde des affaires ? Pas vraiment. De
1933 à la fin de 1976, le taux de rendement annuel composé des
actionnaires du S&P 5001 était de 7,6 %, alors que les actionnaires étaient
censés jouer les seconds rôles face aux gestionnaires professionnels. De
1977 à 2020, ce taux s’est curieusement maintenu à 7,8 %. Ainsi, il est
difficile d’affirmer que tout a changé pour les actionnaires à la suite de ce
prétendu bouleversement. Ce constat invite à pousser le raisonnement un
peu plus loin : en admettant que les actionnaires représentent l’élément le
plus important, se concentrer sur l’augmentation de la valeur actionnariale
est-il nécessairement le meilleur moyen de s’assurer qu’ils en bénéficieront
? Voilà qui nous amène à revoir notre façon de considérer qui est prioritaire
parmi les parties prenantes : il faut savoir que seule la stratégie « le client
d’abord » permettra réellement de créer de la valeur pour les actionnaires.
En d’autres termes – et cela ne devrait surprendre personne – Peter Drucker
avait raison en affirmant que l’objectif premier d’une entreprise était de
conquérir et fidéliser les clients. Comme nous le verrons plus loin dans ce
chapitre, se concentrer uniquement sur les bénéfices est une garantie de ne
pas les obtenir.
Pour commencer, je vais passer en revue les problèmes découlant d’une
priorité accordée aux actionnaires.
La logique imparfaite de la valeur
actionnariale

Si le concept de maximisation de la valeur actionnariale a toujours paru


séduisant par sa simplicité, sa concrétisation s’est avérée délicate pour les
gestionnaires. Cette difficulté est inévitable compte tenu de la façon dont la
valeur actionnariale est créée.
Les actionnaires détiennent une créance ordinaire sur les actifs et les
revenus d’une entreprise, ce qui signifie qu’ils obtiennent ce qui reste après
le paiement de tous les autres créanciers : les employés et leurs fonds de
pension, les fournisseurs, le gouvernement qui collecte les impôts, les
détenteurs de la dette et les actionnaires privilégiés (le cas échéant). La
valeur de leurs actions représente donc la valeur actualisée de tous les flux
monétaires qui se concrétiseront dans l’avenir, une fois ces paiements
déduits. L’avenir étant inconnaissable, les actionnaires potentiels sont
amenés à évaluer ce flux monétaire ; le cours d’une action sera donc
déterminé en fonction de leurs attentes communes. Tout actionnaire qui
s’attend à ce que cette valeur soit inférieure à la cote du moment vendra ses
parts. Tout actionnaire potentiel qui s’attend à ce que cette valeur soit
supérieure à la cote du moment achètera ces actions.
Cela signifie que la valeur actionnariale n’a pratiquement aucun lien
avec le présent. En effet, les bénéfices du moment tendent à représenter une
petite fraction de la valeur des actions ordinaires. Au cours des dix
dernières années, le ratio cours-bénéfice annuel moyen pour l’indice S&P
500 a été porté à 22, ce qui signifie que les bénéfices actuels représentent
moins de 5 % du prix des actions.
Dès lors que les attentes sur les performances futures d’une entreprise
sont optimistes, la valeur actionnariale est élevée. En mars 2021, l’action de
Tesla se négociait à un ratio cours-bénéfice légèrement supérieur à 135 en
raison de croyances selon lesquelles les revenus et l’importance de
l’entreprise allaient continuer à croître. À peu près à la même époque, le
ratio cours-bénéfice moyen des autres constructeurs automobiles américains
n’était que de 16, car les investisseurs se montraient beaucoup moins
optimistes quant à l’avenir à long terme des constructeurs classiques.
Pour les gestionnaires, les implications sont claires : le seul moyen sûr
d’accroître la valeur pour les actionnaires consiste à augmenter les attentes
relatives aux performances futures de l’entreprise par rapport à leur niveau
constaté. Malheureusement, les cadres ne peuvent pas procéder ainsi
indéfiniment. En voyant de bons résultats, les actionnaires, grisés,
relèveront leurs attentes, mais il arrivera un moment où les managers ne
pourront plus suivre. En effet, les études montrent que les actionnaires sont
à la fois excessivement enthousiastes si les perspectives sont bonnes et
excessivement pessimistes si elles sont mauvaises. C’est pourquoi les
marchés boursiers sont beaucoup plus volatils que les revenus des
entreprises qui les composent. Au cours des deux dernières décennies, le
ratio cours-bénéfice du S&P 500 a fluctué entre 123 (mai 2009) et un peu
plus de 5 (décembre 2017), pour remonter à 39 à l’automne 2021.
La plupart des dirigeants en sont conscients : ils finissent par
comprendre que la création ou la destruction de la valeur pour l’actionnaire
est un phénomène cyclique et, surtout, impossible à contrôler. Ils peuvent
faire grimper la valeur actionnariale pendant de courtes périodes, mais il
arrive un moment où les prix vont chuter de nouveau. Les dirigeants
investissent donc dans des stratégies à court terme en espérant se retirer
avant l’inévitable effondrement et critiquent souvent leurs successeurs pour
n’avoir pas su éviter des replis prévisibles. Ils peuvent également gérer les
attentes à la baisse afin d’être en mesure d’augmenter régulièrement la
valeur actionnariale sur une plus longue période. En d’autres termes,
incapables de gagner au jeu qu’on leur demande de jouer, les PDG le
transforment en un jeu qu’ils peuvent gagner et qu’ils gagnent
effectivement.
C’est pourquoi l’objectif de maximisation de la valeur actionnariale et la
politique de rémunération applicable qui l’accompagne nuisent aux
actionnaires. Les cadres responsables de la réalisation de cet objectif se
rendent compte qu’ils ne sont pas en mesure d’y parvenir. Les dirigeants
particulièrement brillants peuvent faire accroître les parts de marché et les
ventes, augmenter les marges et utiliser le capital de manière efficiente.
Mais aussi doués qu’ils soient, ils ne peuvent pas augmenter la valeur pour
les actionnaires si leurs attentes ne correspondent pas à la réalité. Plus un
PDG est incité à augmenter la valeur actionnariale, plus il sera tenté de
prendre des mesures vraiment préjudiciables aux actionnaires.
Laissez les clients prendre le contrôle

La meilleure formule d’optimisation consiste à déterminer les préférences


de vos clients et à s’efforcer de toujours les satisfaire. Bien sûr, les
entreprises sont confrontées à des contraintes évidentes dans ce domaine :
rendre les clients plus heureux en facturant des prix toujours plus bas pour
une valeur toujours plus grande les conduirait rapidement à la faillite. Les
entreprises doivent plutôt chercher à accroître la satisfaction de leurs clients
en garantissant également aux actionnaires un rendement acceptable de
leurs capitaux propres, ajusté en fonction des risques.
Prenons l’exemple de Johnson & Johnson. La marque possède la
déclaration de mission la plus éloquente du monde de l’entreprise, son «
credo » qui reste inchangé depuis sa proclamation en 1943 par le légendaire
président de J&J, Robert Wood Johnson. Le voici dans une version abrégée
:

Nous sommes responsables, en premier lieu, envers les patients, les


médecins et les infirmières, les mères et les pères de famille et tous
ceux qui utilisent nos produits et nos services. […]
Nous sommes responsables envers nos employés, qui travaillent avec
nous dans le monde entier. […]
Nous sommes responsables envers les communautés dans lesquelles
nous vivons et travaillons, comme envers la communauté mondiale.
[…]
Enfin, nous sommes responsables envers nos actionnaires. […] En
agissant selon ces principes, nous devrions assurer à nos
actionnaires un juste revenu de leurs investissements.

Ce credo énonce clairement la priorité de l’entreprise : les clients


d’abord, les actionnaires ensuite. Cependant, J&J se montre convaincu que
tant que la satisfaction des clients figure en tête de liste, les actionnaires
s’en sortiront très bien.
Le pari est jusqu’à présent réussi. Prenons l’exemple de la gestion par
l’ancien PDG James Burke des empoisonnements au Tylenol en 1982,
lorsque sept consommateurs de la région de Chicago sont décédés après
avoir ingéré des gélules de cet analgésique à base de paracétamol dont la
composition avait été trafiquée. La réponse de J&J est considérée comme
un cas d’école illustrant la réaction d’une entreprise qui « fait ce qu’il faut »
sans se préoccuper de l’impact sur ses bénéfices. Les décès s’étaient limités
à la région de Chicago, mais
M. Burke a rapidement lancé un rappel de toutes les gélules incriminées sur
l’ensemble du territoire américain, même si le gouvernement ne l’avait pas
exigé et que le Tylenol représentait un cinquième des bénéfices de J&J.
Après ce rappel, les ventes et la part de marché de l’entreprise ont chuté.
Les commentateurs, surpris que le PDG d’une société cotée en bourse
puisse tourner le dos à la logique de profit, ont couvert M. Burke d’éloges
pour sa position morale exemplaire. Un coup d’œil au credo révèle toutefois
que sa décision était moins liée à sa morale personnelle qu’aux objectifs
clairement définis de J&J. Nous pouvons en déduire que M. Burke, en PDG
consciencieux, a tout simplement suivi le credo : les clients passent en
premier, et les actionnaires, en quatrième ; il a donc agi en conséquence. Au
lieu de placer en tête de ses priorités la réalisation de bénéfices trimestriels
conformes aux prévisions, il l’a directement reléguée au dernier rang.
Sur le long terme, cette décision n’a absolument pas nui à J&J. En fait,
la fidélité des clients à l’égard du Tylenol a grimpé en flèche après que J&J
a démontré que la sécurité du consommateur passait avant tout, d’autant
que l’entreprise a par ailleurs été la première au monde à mettre en place
des emballages inviolables pour ses produits de santé en vente libre. En
mars 2021, la capitalisation boursière de J&J s’élevait à 418 milliards de
dollars, la plaçant environ au dixième rang mondial. J&J semble ainsi avoir
offert plus qu’un « juste revenu » à ses actionnaires à long terme.
D’autres entreprises ont également créé de la richesse pour les
actionnaires en choisissant de ne pas servir en priorité leurs intérêts. Procter
& Gamble, la plus grande entreprise de produits de consommation à
l’échelle planétaire, dont la capitalisation boursière était la quinzième du
monde à la fin de 2020, a depuis longtemps mis le consommateur au centre
de son univers. La déclaration de mission, de valeurs et de principes de
P&G, rédigée en 1986, décrit un ordre de priorités qui se rapproche de
façon frappante de celui de J&J :

Nous fournirons des produits et des services de marque d’un rapport


qualité/prix supérieur, qui améliorent la vie des consommateurs du
monde entier. À leur tour, les consommateurs nous récompenseront
en achetant nos produits, les propulsant en tête du marché, mais
aussi par la création de valeur et des bénéfices, permettant à nos
employés, actionnaires et aux communautés dans lesquelles nous
vivons et travaillons, de prospérer.

Dans ce cas, l’augmentation de la valeur pour l’actionnaire est tout sauf


prioritaire : elle résulte, entre autres, de l’effort déployé pour satisfaire le
client.
Cependant, il ne faut pas croire pour autant que les entreprises ayant
placé la création de valeur actionnariale au cœur de leurs objectifs ont
obtenu de piètres performances. Ainsi, General Electric (GE) et Coca-Cola,
deux vedettes parmi d’autres du mouvement en faveur de la valeur
actionnariale, dirigées respectivement par les célèbres Jack Welch et Robert
Goizueta, ont augmenté la valeur actionnariale relativement plus vite que le
S&P 500 pendant le mandat de ces PDG : le taux de croissance annuel
composé du rendement total pour les actionnaires de GE s’élevait à 12,3 %,
contre 10,4 % pour le S&P 500, et celui de Coca-Cola était de 15 %, contre
10,8 % pour le S&P 500. Même aujourd’hui, des années après cette période
faste, les deux sociétés restent dans les 150 premières au niveau mondial en
termes de capitalisation boursière. Cependant, aucune des deux n’a réussi à
créer davantage de valeur actionnariale sur le long terme que les grandes
entreprises qui disent clairement à leurs actionnaires de faire profil bas.
Le client d’abord : mode d’emploi

Comment se fait-il que les entreprises qui ne se concentrent pas sur la


maximisation de la valeur actionnariale obtiennent des rendements aussi
impressionnants ? Cela s’explique par le fait que leurs PDG sont libres de
se concentrer sur le développement de l’activité réelle plutôt que sur la
gestion des attentes des actionnaires. Lorsque Paul Polman a été nommé à
la tête d’Unilever en 2009, il a adressé aux actionnaires un message dur,
sujet à polémique, leur indiquant que l’entreprise avait sous-investi dans la
relation client à long terme, que ses investissements dans l’innovation
comme dans le développement de marques sous son propre nom se
révélaient également insuffisants, et qu’il allait donc placer l’innovation et
l’image de marque à long terme au-dessus des considérations à court terme
du marché boursier.
En outre, il prévoyait de faire d’Unilever un leader en matière de
durabilité, conformément aux attentes toujours grandissantes des
consommateurs. Et le PDG de conclure que si les actionnaires n’aimaient
pas son message, ils n’avaient qu’à vendre leurs actions. Certains avaient
alors craint que cette annonce ne fasse chuter les actions d’Unilever et ne
détruise l’entreprise. Cela n’a pas été le cas. L’action s’est négociée
légèrement à la baisse. Mais les actionnaires sortants ont été remplacés par
d’autres, qui se souciaient de la durabilité et du long terme à l’instar des
consommateurs. M. Polman est largement reconnu pour avoir redressé et
dépoussiéré un géant, ainsi que pour avoir permis au cours de l’action
d’augmenter de 266 % durant les dix années passées à la tête de
l’entreprise, et ce malgré avoir déclaré aux actionnaires qu’ils n’étaient pas
son unique préoccupation.
La politique de rémunération est un autre point essentiel qui fait la
différence. Lorsqu’une entreprise n’est pas encline à accroître la valeur
actionnariale, son conseil d’administration ne vient pas déranger son PDG
avec des questions de rémunération à base d’actions, qui peut être versée
soit à court terme soit au moment de la cessation de fonctions. Dans le
premier cas, cette mesure encourage les chefs d’entreprise à gérer les
objectifs à court terme au détriment de progrès réels. Dans le deuxième cas,
la rémunération conditionnée par le départ à la retraite n’incite les PDG
qu’à tenir bon jusqu’au bout : si l’entreprise s’écroule à l’arrivée tel un
marathonien, ce ne sera pas leur problème. Il suffit d’observer l’historique
du cours de l’action de GE pour s’en convaincre. En août 2000, un an avant
que son PDG Jack Welch ne prenne sa retraite avec une prime de départ
record de 417 millions de dollars, le cours de l’action culminait à près de 60
dollars. Fin 2002, soit un peu plus d’un an après le départ du PDG, ce cours
était tombé à environ 25 dollars. En 2021, il se situait dans une fourchette
de 10 à 13 dollars tandis que la société s’efforçait de résister au poids de sa
dette.
En revanche, chez P&G, la composition de la rémunération d’Alan G.
Lafley est représentative d’une entreprise dont la culture se fonde sur la
maximisation de la satisfaction des clients : environ 90 % de sa
rémunération totale était constituée d’options de souscription ou d’achat
d’actions (stock-options) ou d’actions restreintes. Bien que ce soit une
pratique relativement courante pour les PDG de nos jours, les stock-options
de M. Lafley étaient assorties d’une période d’acquisition particulièrement
longue – trois ans – et d’une durée de détention subséquente de deux ans.
M. Lafley a également choisi de conserver ses options deux fois plus
longtemps que nécessaire, ainsi que de ne vendre des parts que sous
contrainte d’un dispositif de vente planifiée. Quant aux actions restreintes,
qui représentaient une part importante de sa rémunération incitative, elles
n’ont pas été acquises avant ou même au moment de son départ : la période
d’acquisition débutait un an après, pour une durée de dix ans. S’il avait fait
en sorte que les attentes des actionnaires soient plus élevées au moment de
son départ pour retomber ensuite, il aurait nui à sa propre rémunération. Par
conséquent, pendant toute la durée de son mandat de PDG, il était
encouragé à assurer l’avenir de l’entreprise à très long terme, à préparer un
successeur de haut niveau et à laisser P&G en excellente santé.
De nombreux cadres s’opposeraient à des accords de rémunération
comme celui d’Alan G. Lafley, arguant qu’ils seraient injustement exposés
aux erreurs de leurs successeurs. C’est précisément là que la culture
d’entreprise entre en jeu. Le dispositif de rémunération de P&G aurait été
en effet injuste dans une culture dans laquelle la rémunération à base
d’actions et orientée vers le court terme fonctionne selon le principe du «
chacun pour soi ». Une telle mentalité rend difficile la mise en place d’une
rémunération à long terme, faisant ainsi prévaloir immanquablement des
intérêts personnels au détriment de l’intérêt général. À l’inverse, dans une
culture orientée client, une forme de rémunération comme celle de M.
Lafley est très cohérente et son instauration ne présente pas de difficultés.
Par ailleurs, elle encourage des comportements qui créent une véritable
valeur s’inscrivant dans la durée. Le successeur direct de M. Lafley a été
décevant. Par conséquent, lorsque le conseil d’administration l’a sollicité,
M. Lafley est revenu pour un nouveau mandat de PDG et, plusieurs années
plus tard, il a confié la société à David Taylor, qui s’est avéré excellent dans
cette fonction.
Même lorsque la culture est appropriée, que la maximisation de la
valeur pour le client constitue l’objectif principal et que la rémunération en
actions comporte des périodes d’acquisition excessivement longues, le
danger de céder aux sirènes de la maximisation de la valeur actionnariale
perdure. Chez P&G, M. Lafley a hérité d’un mécanisme de rémunération
mis en place un an auparavant, qui liait la récompense des cadres supérieurs
au rendement total pour les actionnaires (TSR pour total shareholder
return), ce dernier correspondant à l’augmentation du cours de l’action, à
laquelle s’ajoutent les dividendes (s’ils sont réinvestis en actions), sur une
période de trois ans. Dans le cadre de cette politique, le TSR de Procter &
Gamble était comparé à celui d’un groupe d’entreprises de référence ; si le
TSR se situait dans la moitié supérieure du groupe, les cadres de
l’entreprise recevaient des primes.
Cependant, M. Lafley a rapidement remarqué que d’excellents résultats
du TSR au cours d’une année donnée s’accompagnaient systématiquement
de mauvais résultats l’année suivante. En effet, les rendements totaux élevés
se trouvaient stimulés par une forte hausse des attentes ne pouvant
naturellement pas se renouveler d’une année sur l’autre. M. Lafley a fini par
comprendre que l’augmentation de la valeur actionnariale n’était pas
vraiment liée aux performances réelles de l’entreprise, mais plutôt à
l’imagination débordante des actionnaires spéculant sur son avenir. Cette
constatation l’a incité à remplacer le système de primes fondé sur le TSR
par celui fondé sur un indicateur appelé « TSR opérationnel », qui repose
sur une combinaison de trois mesures réelles de la performance
opérationnelle : la croissance des ventes, l’amélioration de la marge
bénéficiaire et l’augmentation de l’efficacité du capital. M. Lafley pensait
que si P&G satisfaisait ses clients, le TSR opérationnel augmenterait et le
cours de l’action se maintiendrait naturellement à long terme. De plus, le
TSR opérationnel, contrairement à celui fondé sur le marché, est un
indicateur sur lequel les présidents des unités opérationnelles de P&G
peuvent exercer une influence directe.

•••

Il va de soi que les entreprises qui accordent la priorité à la satisfaction du


client ne deviendront pas toutes des Procter & Gamble ou des Johnson &
Johnson. Je suis néanmoins convaincu que si davantage d’entreprises
changeaient ainsi leurs priorités, leur processus décisionnel gagnerait en
qualité, car le fait de penser au client oblige à se concentrer sur
l’amélioration des opérations et sur celle des produits et services fournis,
plutôt que sur les bénéfices pour les actionnaires. Cela ne signifie pas que la
rigueur en matière de coûts sera délaissée ; la recherche du profit ne
disparaîtra pas. Les managers aiment les bénéfices tout autant que les
actionnaires, car plus l’entreprise fait de bénéfices, plus il y a d’argent
disponible pour rémunérer ses gestionnaires. En d’autres termes, la
nécessité de préserver la progression du cours de l’action est une contrainte
naturelle quel que soit l’objectif visé, mais en faire l’enjeu principal crée la
tentation d’échanger la plus-value à long terme, liée aux opérations, contre
des gains temporaires dictés par les attentes des actionnaires. Pour amener
les PDG à se concentrer sur la création de valeur à long terme, il convient
de réinventer la mission de l’entreprise.2

1 NdT : Standard & Poor’s est un indice boursier composé de 500 grandes sociétés cotées sur
les marchés boursiers aux États-Unis.
Ce chapitre est adapté de l’article de Roger L. Martin, « The Age of Customer Capitalism »,
Harvard Business Review, janvier-février 2010.
Chapitre 3

La clientèle

L’habitude l’emporte le plus souvent sur le choix idéal.

En mai 2016, Instagram, l’application de partage de photos appartenant à


Facebook et leader dans sa catégorie, abandonne son icône d’origine, un
appareil photo rétro si familier pour les plus de 400 millions d’utilisateurs
du réseau social, pour le remplacer par un logo stylisé et minimaliste qui,
comme l’a expliqué le responsable du design, « évoque toujours un appareil
photo ». Pour justifier ce changement réalisé sous la pression croissante de
son rival Snapchat, le designer a précisé que l’ancienne icône « ne reflétait
plus vraiment l’esprit de la communauté, et [ils ont] pensé qu’il était temps
de proposer quelque chose de mieux ».
Le magazine américain AdWeek, la bible de l’industrie du marketing, n’a
pas tardé à donner son avis, univoque dès le titre : « Instagram’s New Logo
Is a Travesty. Can we change it back? Please? »1 Dans l’article de GQ, «
Logo Change No One Wanted Just Came to Instagram »2, les experts en
design du magazine ont qualifié le nouveau logo d’Instagram de «
franchement horrible », d’« affreusement laid » et de « bon à jeter », en
commentant ce changement comme suit : « Instagram a passé des années à
construire son identité visuelle avec son logo, à habituer les utilisateurs
pour qu’ils sachent où cliquer, puis, au lieu de capitaliser sur cet atout, il a
tout bazardé pour proposer une espèce de Chupa Chups à l’écran. »
Facebook n’était ni la première (ni la dernière) entreprise à essuyer des
critiques à la suite d’un changement d’identité ou après la relance d’une
image de marque. PepsiCo a subi pratiquement le même sort avec son Diet
Pepsi sans aspartame, aussi infame que la débâcle du New Coke : une
tentative de réinvention ratée, qui s’est traduite par de graves pertes de
revenus et la nécessité de faire machine arrière. La question à se poser est
donc la suivante : pourquoi des entreprises performantes succombent-elles
régulièrement à la tentation d’un changement d’identité aussi radical ? Il est
tout à fait compréhensible que certaines marques souhaitent adopter une
telle stratégie face à une situation désastreuse, mais Instagram, PepsiCo et
Coca étaient bien loin d’être au bord du gouffre. Il convient de noter que
Snapchat, qui a la cote chez les jeunes et dont la part de marché est
désormais particulièrement importante sur ce segment, conserve
précieusement son icône de fantôme, familier aux utilisateurs.
Je crois que la réponse provient d’une certaine confusion sur la nature
de l’avantage concurrentiel. D’après la plupart des théories les plus récentes
en matière de stratégie, le rythme rapide des changements dans les
entreprises modernes (particulièrement marqué dans le domaine des
applications) signifie qu’aucun avantage concurrentiel n’est pérenne. De ce
point de vue, les entreprises doivent continuellement se mettre à jour et
adapter leur modèle économique, leur stratégie et leur manière de
communiquer, afin de réagir en temps réel à la surabondance de choix face
à laquelle se trouvent des consommateurs toujours plus avertis. Pour
fidéliser vos clients et, mieux encore, pour en attirer de nouveaux, vous
devez rester au-dessus du lot et dans l’air du temps. Ainsi, Instagram a fait
exactement ce qu’il était supposé faire : évoluer de manière dynamique.
Un pari hasardeux, certes, mais de nombreux exemples prouvent la
pertinence d’une telle démarche. Prenons les cas de Southwest Airlines, de
Vanguard3 ou d’IKEA, toutes présentées comme des exemples d’entreprises
aux avantages concurrentiels durables dans un article de Michael Porter
intitulé « Qu’est-ce que la stratégie ? », paru en 1996 dans la HBR et
devenu incontournable depuis. Plus d’un quart de siècle plus tard et en dépit
du préjugé selon lequel un tel avantage ne peut perdurer, toutes ces
entreprises restent leaders dans leurs secteurs respectifs, en poursuivant des
stratégies et des objectifs en matière de gestion de marque qui demeurent
pratiquement inchangés. Même si Google, Facebook ou Amazon peuvent
trébucher et se faire écraser par un nouveau venu, leur position
concurrentielle est tout sauf précaire. De même, les responsables de Tide4
ou de Head & Shoulders (marques avec respectivement soixante-quinze et
soixante ans d’existence) seraient certainement surpris d’apprendre que
l’avantage concurrentiel de ces produits, vieux de plus d’un demisiècle,
n’ait pas été ou ne soit pas pérenne. Cela me conduit à vous révéler une
chose que vous devez savoir sur les clients, essentielle pour la stratégie :
l’habitude l’emporte le plus souvent sur le choix idéal.
Dans ce chapitre, je m’appuierai sur la recherche moderne en sciences
comportementales afin de proposer une analyse qui explique à la fois les
faux pas des entreprises, comme celui d’Instagram, et les succès, comme
celui de Tide. Je défends l’idée qu’une performance durable s’obtient non
pas en offrant au consommateur un choix parfait mais, plutôt, un choix
facile. Ainsi, même si c’est le rapport qualité-prix qui les attire en premier
lieu, ce n’est pas nécessairement ce qui les fait revenir. Dans cette
perspective différente, pour fidéliser les clients, il ne s’agit pas de s’adapter
constamment à l’évolution de leurs besoins pour leur offrir le meilleur
choix rationnel ou émotionnel, mais d’aider les clients à ne pas avoir à
choisir. Pour ce faire, vous devez créer ce que j’appelle un avantage
cumulatif.
Mais commençons par explorer d’abord ce qui se passe dans notre
cerveau lorsque nous faisons des achats.
Misez sur la force de l’habitude

Le préjugé classique sur l’avantage concurrentiel veut que les entreprises à


succès choisissent leur positionnement, ciblent un segment de clientèle et
organisent leurs activités de manière à mieux le servir. L’objectif consiste à
inciter les clients à renouveler leurs achats en adaptant l’offre à leurs
besoins. L’entreprise peut donc devenir compétitive de manière durable
grâce à la spécificité et la personnalisation en constante évolution de son
offre.
L’idée sous-jacente est que les consommateurs font des choix délibérés,
voire rationnels, et que, si leur décision d’achat de produits ou services peut
être prise de manière impulsive, elle reste néanmoins le fruit d’un
raisonnement plus ou moins conscient. Une bonne stratégie consiste donc à
comprendre ce raisonnement et à en tenir compte.
Cependant, l’idée que les décisions d’achat résultent d’un choix
conscient va à l’encontre de nombreuses recherches en psychologie
comportementale. Le cerveau humain n’est pas tant une machine analytique
qu’une machine à combler les vides : en se confrontant à un manque ou à
un trop plein d’information, il reconstitue rapidement les éléments qui font
défaut sur la base de l’expérience vécue. L’intuition – les réflexions, les
objections ou les désirs qui viennent à l’esprit de manière spontanée, mais
suffisamment forte pour inciter à agir – est le résultat final de ce processus.
Ce n’est pas seulement ce avec quoi nous comblons le vide qui détermine
notre jugement intuitif. Ce dernier se trouve fortement biaisé par la rapidité
et la facilité du processus cognitif lui-même, un phénomène que les
psychologues appellent la fluidité perceptive. Lorsque nous décrivons une
décision prise tout simplement parce qu’elle « semblait être le bon choix »,
le processus conduisant à cette décision est dit fluide.
La fluidité perceptive provient d’expériences répétées et augmente de
façon exponentielle avec le nombre de fois où l’expérience est vécue. La
perception et l’identification d’un objet se trouvent améliorées par une
exposition préalable à cet objet. En effet, lorsqu’un article se présente à
plusieurs reprises, les neurones qui codent la perception de caractéristiques
non essentielles à sa reconnaissance atténuent leurs réponses : ces dernières
deviennent plus sélectives et plus efficaces dans l’identification de l’objet.
Les stimuli répétés abaissent les seuils d’appréciation et d’identification,
nécessitant ainsi moins d’attention pour repérer les articles en question : les
nommer ou interpréter l’information à leur sujet s’effectue de manière plus
rapide et plus précise. De plus, les consommateurs ont tendance à préférer
les stimuli familiers à des stimuli nouveaux.
En résumé, les recherches sur le fonctionnement du cerveau humain
laissent entendre que notre esprit aime l’automaticité par-dessus tout, la
préférant de loin à l’idée de s’engager dans une réflexion consciente. S’il
avait le choix, il aimerait pouvoir faire les mêmes choses, encore et encore.
Si au fil du temps l’esprit développe l’idée que la lessive Tide rend les
vêtements plus propres et que Tide est par ailleurs disponible et accessible
dans les rayons du magasin ou sur Internet, acheter de nouveau Tide devient
un geste facile et habituel.
Par conséquent, la principale raison de choisir le produit leader sur le
marché est que c’est évidemment la chose la plus facile à faire : quel que
soit le canal de distribution par lequel vous effectuez vos achats, ce sera la
marque la plus attractive. Dans les rayons d’un supermarché, d’une grande
surface ou encore d’une pharmacie, elle sortira du lot. En outre, lorsque
vous verrez ce produit, il est fort probable que vous l’ayez déjà acheté
auparavant dans ce même rayon. L’option qui s’offre à vous le plus
naturellement du monde consiste à le racheter. De plus, chaque fois que
vous achetez un produit différent de la même marque, vous facilitez la prise
de décision à votre cerveau qui vous en est reconnaissant. Cette action
contribue à creuser légèrement l’écart en matière de facilité de choix par
rapport aux produits que vous n’avez pas encore achetés et, à chaque achat
et à chaque utilisation, cet écart se creuse davantage. Cette logique
s’applique aussi bien à l’économie classique qu’à l’économie numérique. Si
vous faites de Facebook votre page d’accueil sur votre navigateur, vous
allez en connaître le moindre recoin et le degré de familiarité avec cette
interface sera tout aussi élevé, si ce n’est plus, que lorsque vous vous
trouvez face à un mur de produits Tide dans un supermarché.
Le choix d’acheter la marque la plus connue et la plus familière instaure
progressivement un cycle au cours duquel la position de cette marque en
matière de part de marché ne cesse de progresser. Chaque fois que vous
choisissez et utilisez un produit ou un service donné, il s’en trouve
avantagé, et cet avantage s’accumule par rapport à d’autres produits ou
services.
En l’absence de changements qui impliquent une réévaluation
consciente, cet avantage cumulatif croît de façon inexorable. Il y a 35 ans,
Tide jouissait d’une petite avance – 33 % contre 28 % pour Surf d’Unilever
– sur le marché américain très lucratif des détergents pour le linge.
Lentement mais sûrement, les consommateurs de l’époque ont pris des
habitudes permettant à Tide de devancer Surf. Chaque année, cette
différence dans les habitudes s’est accrue, creusant l’écart entre les parts de
marché. En 2008, Unilever s’est retiré de l’activité en vendant ses marques
à une entité qui était alors un fabricant de détergents commercialisés sous
une marque de distributeur. Aujourd’hui, Tide détient une part de marché
supérieure à 40 %, ce qui en fait le leader incontesté du marché américain
sur ce segment. Son principal concurrent de marque détient une part de
moins de 10 % (pour comprendre comment les petites marques survivent
même dans cet environnement, voir l’encadré « L’avantage paradoxal de
l’infidélité des clients »).

L’avantage paradoxal de l’infidélité des clients


Si un consommateur est esclave de ses habitudes, il est difficile de le considérer
comme un client « fidèle » au sens où il s’attacherait à une marque de manière
consciente en partant du principe qu’elle répond à ses besoins rationnels ou
émotionnels. En fait, les clients sont beaucoup plus volages que ne le pensent de
nombreux spécialistes du marketing : souvent, les marques supposées dépendantes
des clients fidèles obtiennent les scores de fidélité les plus bas.
Par exemple, Colgate et Crest, les principales marques de dentifrice sur le marché
américain, diffèrent d’environ 75 points de part de marché. Les clients des deux
marques sont fidèles dans 50 % des cas (leur marque préférée représente ainsi la
moitié de leurs achats annuels de dentifrice). Le dentifrice Tom’s, une marque de niche
localisée dans le Maine qui propose des produits naturels, détient une part de marché
de 1 %, et ses clients seraient des inconditionnels de cette marque. Nous pourrions
nous attendre à des données selon lesquelles ce 1 % correspondrait principalement à
des acheteurs réguliers. Mais en réalité, les clients de Tom’s ne lui sont fidèles que 25
% du temps, soit la moitié du taux des grandes marques.
Alors comment des marques alternatives comme Tom’s surviventelles ? La réponse
peut sembler paradoxale, mais avec des taux de fidélité aux grandes marques de 50
%, le nombre de clients qui choisiront ponctuellement les petites marques sera tout
juste suffisant pour que ces dernières maintiennent leur activité. Cependant, elles ne
sont pas en mesure de surmonter la barrière de l’habitude des clients et, même si des
marques totalement nouvelles peuvent effectivement arriver dans la cour des grands et
devenir des leaders, il est extrêmement rare qu’une marque vue comme alternative
réussisse à devancer un leader confirmé.
Ancrez votre avantage cumulatif

Je ne me permettrai pas d’affirmer que le choix du consommateur n’est


jamais conscient ni que la qualité d’une offre n’est pas pertinente. Bien au
contraire, les clients doivent avoir une raison d’acheter un produit pour la
première fois. Parfois, une nouvelle technologie ou une nouvelle
réglementation donnent à une entreprise la possibilité d’attirer l’attention
sur un produit, soit en baissant sensiblement son prix, soit en proposant de
nouvelles fonctionnalités, ou encore en offrant une solution entièrement
nouvelle en réponse à un besoin des clients.
Des choix judicieux sur « où jouer » et « comment gagner » restent donc
essentiels à la stratégie. Une entreprise ne peut se développer sans avoir
pour base une offre supérieure à celle des concurrents partis à la conquête
des mêmes clients.
Mais pour accroître cet avantage concurrentiel initial, l’entreprise doit
investir pour que le consommateur se tourne vers son offre par réflexe et
non par choix. Sur cette base, il est possible de définir formellement
l’avantage cumulatif comme un effet bénéfique supplémentaire issu de
l’avantage concurrentiel initial de l’entreprise, qui peut être obtenu dès lors
que l’entreprise facilite le choix de son client en lui permettant d’opter de
manière toujours plus instinctive pour ses produits ou services.
Les entreprises incapables de créer un avantage cumulatif sont
susceptibles d’être distancées par les concurrents qui y parviennent. Un bon
exemple est celui de MySpace, dont l’échec est souvent cité pour étayer
l’idée que l’avantage concurrentiel ne peut, par définition, être pérenne. Ce
n’est pas mon avis, et je vais expliquer pourquoi.
Lancé en août 2003 et devenu le numéro un des réseaux sociaux en ligne
aux États-Unis en deux années seulement, MySpace a devancé Google en
2006 en se plaçant sur la plus haute marche du podium des sites les plus
visités du pays. Néanmoins, à peine deux ans plus tard, Facebook l’a
dépassé et l’a pulvérisé sur le plan de la concurrence à tel point que le site a
été vendu en 2011 pour 35 millions de dollars, soit une fraction des 580
millions de dollars que News Corporation avait versés pour l’acquérir en
2005.
Pourquoi MySpace a-t-il échoué ? La réponse est simple : l’entreprise
n’a même pas tenté d’obtenir et de conserver un avantage cumulatif. Tout
d’abord, il est notoire que MySpace avait permis aux utilisateurs de créer
des pages web personnalisées, de sorte que les pages individuelles
apparaissaient aux visiteurs comme un ensemble d’éléments disparates. Par
ailleurs, elle avait également placé des contenus publicitaires inappropriés,
notamment des annonces pour des services indécents, ce qui a irrité les
régulateurs. Quand News Corporation a acheté MySpace, la densité des
publicités a augmenté, encombrant davantage le site. Souhaitant attirer de
nouveaux utilisateurs, MySpace a déployé ce que Bloomberg Businessweek
a appelé « un nombre vertigineux de fonctionnalités : des outils de
communication tels que la messagerie instantanée, un espace de petites
annonces, un lecteur vidéo, un lecteur de musique, un karaoké virtuel, une
plateforme publicitaire en libre-service, des outils d’édition de profil, des
systèmes de sécurité, des paramètres de confidentialité, des listes de livres,
etc. » En conséquence, au lieu de faire de son site un lieu de plus en plus
convivial permettant des choix intuitifs, MySpace a maintenu ses
utilisateurs en suspens, déconcertés (voire inconsciemment inquiets) par ce
qu’ils allaient y trouver.
Comparons MySpace à Facebook. Depuis le premier jour, Facebook
acquiert et maintient un avantage cumulatif. Au départ, il présentait
certaines caractéristiques attrayantes dont MySpace ne disposait pas, ce qui
en faisait une offre de qualité, mais c’est la cohérence de son apparence et
sa fonctionnalité qui ont été les facteurs les plus importants de son succès.
Les utilisateurs doivent se conformer aux normes rigides de Facebook, mais
Facebook ne se conforme à rien ni à personne. Lorsqu’il a mis en place sa
désormais célèbre extension vers l’application mobile, il a veillé à ce que
l’expérience mobile des utilisateurs soit parfaitement cohérente avec leur
navigation sur ordinateur. L’introduction de nouveaux services ne met pas
en péril le confort et l’habitude. En offrant une expérience familière et
fiable, Facebook a accumulé les avantages pour devenir le réseau social en
ligne le plus addictif au monde. La décision de sa filiale Instagram de
changer son icône en fut donc d’autant plus déroutante.
Les quatre piliers de l’avantage cumulatif

MySpace et Facebook illustrent bien une double réalité : un avantage


durable est possible mais non garanti. Dans ce cas, de quelle façon le
prochain MySpace pourrait-il bâtir l’avantage cumulatif nécessaire pour
protéger, maintenir, améliorer et étendre son avantage concurrentiel ? Voici
les quatre règles de base à suivre.

Gagnez en popularité de toute urgence

Cette idée est loin d’être nouvelle : sous-jacente dans bon nombre des
meilleurs et des plus anciens ouvrages sur la stratégie, elle se concrétise
dans les travaux de Bruce Henderson, l’illustre fondateur du Boston
Consulting Group. Bruce Henderson s’est particulièrement intéressé à
l’effet bénéfique du volume cumulé de production sur les coûts : le
désormais célèbre concept de courbe d’expérience, qui suggère que plus
l’expérience de la fabrication d’un produit augmente, plus la gestion des
coûts par le fabricant devient efficace. Mais il soutenait également que les
entreprises devaient fixer leurs prix de manière agressive dès le début – en
amont de la courbe d’expérience, selon ses termes – et gagner ainsi
suffisamment de parts de marché pour obtenir des coûts plus bas, une part
relative plus élevée et une meilleure rentabilité. Le message était clair :
obtenir très tôt une bonne part de marché constitue un avantage de taille.
Les spécialistes du marketing ont compris depuis longtemps
l’importance d’un succès précoce. Lancée spécifiquement pour occuper le
marché du lave-linge automatique en pleine expansion, Tide est l’une des
marques de Procter & Gamble les plus appréciées, les plus réussies et les
plus rentables. Dès son apparition en 1946, elle a bénéficié immédiatement
d’une couverture publicitaire optimale pour cette catégorie de produits.
P&G a veillé également à ce qu’aucune machine à laver automatique ne soit
vendue sur le continent américain sans un échantillon gratuit de lessive
Tide, afin de commencer à habituer les consommateurs. Tide a très
rapidement remporté le concours de popularité et n’a cessé de progresser
depuis.
Les échantillons gratuits destinés à donner envie d’essayer de nouveaux
produits constituent une tactique répandue chez les spécialistes du
marketing. Une politique de prix agressifs est tout aussi populaire. Samsung
s’est imposé comme le leader mondial en termes de parts de marché dans le
secteur des smartphones en proposant des téléphones Android très
abordables que les opérateurs peuvent offrir gratuitement avec leurs
contrats de service. Dans le domaine des activités Internet, la gratuité est la
tactique de base pour créer des habitudes. Pratiquement toutes les grandes
entreprises ayant réussi sur Internet – eBay, Google, Twitter, Instagram,
Uber, Airbnb – offrent leurs services gratuitement aux utilisateurs pour que
leurs habitudes se développent et s’ancrent, puis ils vendent les données
ainsi accumulées sur leurs utilisateurs à un fournisseur ou à un annonceur
prêt à payer.

Concevez des produits addictifs

Le meilleur résultat s’obtient si votre offre déclenche une réponse


automatique. Il faut donc la concevoir à cette fin : ne laissez pas votre client
faire des choix totalement au hasard. Nous avons vu la manière dont
Facebook tire profit du soin qu’il apporte à la cohérence de son design
permettant aux habitudes de s’enraciner : l’utilisation de sa plateforme
dépasse même ce que l’on considère comme une habitude, car consulter son
fil d’actualités est devenue une véritable addiction pour un milliard de
personnes. Bien sûr, Facebook bénéficie d’effets de réseau de plus en plus
importants. Mais le véritable avantage, c’est que quitter Facebook suppose
de briser une dépendance extrême.
Le pionnier des smartphones, BlackBerry, est peut-être le meilleur
exemple d’une entreprise qui a délibérément conçu ses produits de manière
à entraîner une accoutumance. Son fondateur, Mike Lazaridis, a
intentionnellement créé l’appareil pour le rendre aussi addictif que possible
grâce au cycle au cours duquel (1) une vibration se fait sentir dans la poche,
(2) le BlackBerry sort de son étui, (3) le message est lu, et (4) la réponse est
saisie du bout des doigts sur le clavier AZERTY miniature avant d’être
envoyée. Le succès du BlackBerry a même valu à ce dernier le surnom de
Crackberry. La force de l’habitude était telle que même après qu’il a été mis
à mal par le passage à des smartphones à écran tactile et fonctionnant sur
des applications Internet comme l’iPhone, une partie des clients du
BlackBerry, fortement dépendants et qui avaient catégoriquement refusé de
changer leurs habitudes, ont supplié les responsables de la génération
suivante de recréer un BlackBerry ressemblant à leur ancien modèle.
Victorieux, ils l’ont retrouvé sous le nom réconfortant de Classic.
Comme l’a fait remarquer Art Markman, psychologue de l’université du
Texas, certaines règles doivent être respectées lors de la conception d’un
produit pour que l’habitude s’installe. Pour commencer, il faut veiller à
conserver la cohérence des éléments du design pour les rendre visibles de
loin, afin que les acheteurs soient en mesure de repérer votre produit
rapidement. Des couleurs et des formes distinctives, comme l’orange vif de
la marque Tide et le logo des chips Doritos, se conforment à cette règle.
Il faut également trouver des moyens de faire en sorte que les produits
s’intègrent à la vie quotidienne du consommateur afin d’encourager leur
utilisation. Lorsque P&G a lancé Febreze, les consommateurs ont apprécié
sa fonction sans pour autant que son utilisation ne devienne une habitude. Il
s’est avéré que la forme du récipient était en partie responsable du
problème, car elle rappelait un spray nettoyant pour vitres, ce qui incitait à
ranger le flacon sous l’évier. Son design a finalement été revu de manière à
pouvoir le placer dans un endroit plus visible, par exemple sur une étagère,
en augmentant ainsi son utilisation après l’achat.
Hélas, les modifications apportées au design finissent bien souvent par
détruire les habitudes au lieu de les maintenir. Il convient donc de viser des
changements permettant de rendre l’expérience d’achat routinière et
d’encourager un nouvel achat. L’idée du bouton Dash d’Amazon en est un
exemple intéressant : en créant un moyen simple pour les clients de
commander à nouveau des produits qu’ils utilisent la plupart du temps,
Amazon les aide à prendre des habitudes et les enferme dans un canal de
distribution particulier.

Innovez au sein de la marque

Comme indiqué plus haut, les entreprises qui s’engagent dans des initiatives
de « relance », de « reconditionnement » ou de « migration vers une autre
plateforme » courent un certain risque : ces démarches peuvent obliger les
clients à rompre leurs habitudes. Les entreprises doivent, bien évidemment,
veiller à ce que leurs produits soient à jour, mais des modifications,
notamment liées à l’évolution technologique, devraient idéalement être
introduites de manière à permettre à la nouvelle version d’un produit ou
d’un service de bénéficier des avantages cumulatifs de l’ancienne version.
Même les plus grands experts en la matière oublient parfois cette règle.
P&G, par exemple, qui a augmenté l’avantage cumulatif de Tide pendant
soixante-quinze ans grâce à des changements conséquents, a dû tirer
certaines leçons apprises non sans douleur en cours de route. La première
grande innovation relative aux détergents après le lancement de Tide a sans
doute été la création des produits liquides. La première action de P&G a été
de lancer une nouvelle marque, appelée Era, en 1975. Ne bénéficiant
d’aucun avantage cumulatif, elle n’a pas réussi à s’implanter en tant que
grande marque en dépit du fait que les consommateurs tendaient à
remplacer leurs produits en poudre par une lessive liquide.
Conscient que Tide, en étant la marque numéro un de sa catégorie,
bénéficiait d’un lien fort avec les consommateurs et d’un avantage
cumulatif non négligeable, le groupe P&G a décidé de lancer Liquid Tide
en 1984, en cohérence avec son emballage habituel et son image de marque.
Malgré son arrivée tardive sur le marché, le produit a fini par dominer le
secteur des détergents liquides. Après cette expérience, P&G a veillé à ce
que les innovations ultérieures s’inscrivent toujours dans l’univers de la
marque Tide. Lorsque ses chercheurs ont découvert comment incorporer
l’eau de Javel dans le détergent, le produit a reçu le nom de Tide plus
Bleach. La technologie révolutionnaire de nettoyage à froid est apparue
dans Tide Coldwater, et la dosette au format inédit trois en un a été lancée
sous le nom de Tide Pods. L’identité de marque n’aurait pas pu être plus
simple ou plus authentique : retrouvez votre Tide préféré, avec de l’eau de
Javel, pour un lavage à froid ou sous forme de dosettes. Ces changements
liés au confort et à une idée de continuité rassurante ont renforcé l’avantage
cumulatif de la marque au lieu de l’affaiblir. Les nouveaux produits
possèdent tous la même apparence que l’emballage traditionnel de Tide
avec sa couleur orange vif et son logo en forme de cible. Les rares fois dans
l’histoire de Tide où son look a été modifié, notamment avec un emballage
bleu pour le lancement de Tide Coldwater, l’effet sur les consommateurs a
été si négatif que la version précédente a rapidement fait son retour.
Il n’en demeure pas moins qu’un changement peut s’avérer absolument
indispensable pour garantir une offre pertinente de l’entreprise et pour
garder son avantage concurrentiel. Dans de telles situations, les sociétés
intelligentes réussissent à apporter ces changements tout en accompagnant
les clients pour les y habituer en douceur. Par exemple, Netflix était à
l’origine un service de livraison de DVD par courrier postal. L’entreprise
aurait fait faillite aujourd’hui si elle avait tenté de se développer dans une
logique de continuité, en refusant d’évoluer. Au contraire, elle a réussi sa
transformation pour devenir un service de streaming vidéo.
Bien qu’elle commercialise aujourd’hui une plateforme de
divertissement numérique complètement différente impliquant un nouvel
ensemble d’activités, Netflix a trouvé le moyen d’aider ses clients à intégrer
les nouveautés en mettant l’accent sur ce qui allait demeurer inchangé : en
gardant le même aspect et la même convivialité, Netflix reste un service
d’abonnement qui permet aux clients d’accéder aux derniers
divertissements sans sortir de chez eux. Ainsi, ils sont capables d’accepter
les éléments nécessaires à son évolution tout en conservant autant que
possible leurs habitudes. Savoir qu’un service est « amélioré » rassure les
clients, alors que devoir faire face à un service « nouveau », aussi génial
que ce terme puisse paraître aux responsables de marques et aux agences
publicitaires, peut effrayer le consommateur.

Communiquez en toute simplicité

L’un des pères de la science comportementale, Daniel Kahneman, a


caractérisé la prise de décision subconsciente, dictée par les habitudes,
comme une « réflexion rapide » et la prise de décision consciente comme
une « réflexion lente ». Cette dernière semble être privilégiée par les
spécialistes du marketing et les publicitaires, qui suscitent l’admiration du
secteur pour l’intelligence avec laquelle ils combinent et mettent en lumière
les nombreuses qualités d’un nouveau produit ou service. Il est vrai qu’une
publicité marquante et réalisée avec finesse incite parfois les clients à
changer leurs habitudes. Le consommateur à l’esprit conscient et caractérisé
par une réflexion lente, qui prête attention à ce type de publicité, peut se
dire : « C’est super ! Je le veux ! »
Mais si le public est distrait (comme la plupart du temps), une
communication artistique peut se retourner contre l’entreprise. Prenons
l’exemple d’une publicité pour l’un des modèles Galaxy de Samsung,
champion du marché des smartphones. Elle commence par montrer des
images successives de smartphones anonymes, qui se révèlent dans
l’incapacité (a) de démontrer leur résistance à l’eau,
(b) de protéger un enfant contre l’envoi accidentel d’un message
embarrassant et (c) de permettre de changer facilement la batterie. Ensuite,
elle présente triomphalement le Galaxy, qui ressemble aux trois téléphones
précédents, mais qui répond à tous ces défis.
Les téléspectateurs attentifs et réfléchis ont pu comprendre, à condition
d’avoir regardé toute la publicité, que le Galaxy en question différait des
autres téléphones par sa performance supérieure. Mais il est certainement
plus probable que les personnes à l’esprit impatient fassent un raccourci et
l’associent instinctivement à ces trois défauts. Au moment de l’achat, elles
peuvent être influencées par un argument inconscient : « Il ne faut pas
acheter l’appareil qui a des problèmes d’étanchéité, de changement de
batterie et d’envoi de messages indésirables. » En fait, la publicité peut
même inciter le client à acheter le produit d’un concurrent, comme
l’iPhone, dont le message sur l’étanchéité était à l’époque très simple à
comprendre.
Ne l’oublions pas : l’esprit humain est paresseux, il ne voudra pas
fournir un effort de concentration supplémentaire afin de parvenir à digérer
un message aussi complexe. Montrer simplement l’étanchéité du Samsung
Galaxy aurait été beaucoup plus efficace ou, mieux encore, présenter un
client qui achète un Galaxy et qui entend le vendeur expliquer que
l’appareil est parfaitement étanche. Un tel message indiquerait aux esprits
impatients ce qu’il leur reste à faire, c’est-à-dire se rendre dans une
boutique pour acheter le Samsung Galaxy. Bien entendu, aucune de ces
publicités ne serait susceptible de remporter un prix décerné par les
spécialistes du marketing qui s’intéressent à l’ingéniosité des slogans
publicitaires.

•••

De nombreux stratèges semblent convaincus que, pour conserver


durablement son avantage concurrentiel, une entreprise doit en permanence
faire de son offre le premier choix rationnel ou affectif du consommateur
conscient. Ils oublient, ou n’ont jamais compris, le rôle prédominant du
subconscient dans la prise de décision. Les produits et services faciles
d’accès, qui renforcent des habitudes d’achat confortables, l’emporteront au
fil du temps auprès des consommateurs impatients aux dépens
d’alternatives innovantes, mais peu familières, qui peuvent être plus
difficiles à identifier et nécessitent un changement d’habitudes. Il convient
donc de veiller à ne pas tomber dans le piège d’une mise à jour constante de
votre marque et de votre offre. Qu’il s’agisse d’un grand acteur établi, d’un
acteur de niche sur son marché ou d’un nouvel entrant sur un nouveau
marché, toute entreprise peut maintenir l’avantage initial fourni par une
offre d’une valeur supérieure en intégrant et en appliquant les quatre règles
de l’avantage cumulatif.5

1 NdT : Le nouveau logo d’Instagram est une caricature. Pouvons-nous récupérer l’ancien ? S’il
vous plaît ?
2 NdT : Un changement de logo dont personne ne voulait vient de se produire chez Instagram.
3 NdT : compagnie aérienne américaine à bas prix et société américaine de fonds
d’investissement, respectivement.
4 NdT : Tide est une grande marque de lessive américaine appartenant à Procter & Gamble.
Ce chapitre est adapté de l’article de Alan G. Lafley et de Roger L. Martin, « Customer
Loyalty Is Overrated », Harvard Business Review, janvier-février 2017.
Partie 2
Le processus
décisionnel
Chapitre 4

La stratégie

En stratégie, le plausible prime sur l’avéré.

Les planneurs stratégiques sont fiers de leur rigueur. Les stratégies sont
censées être guidées par les chiffres et des analyses approfondies, sans être
influencées par quelque biais, jugement ou opinion. Plus la feuille de calcul
est chargée, plus l’entreprise est confiante dans ses processus. Tous ces
chiffres, toutes ces analyses semblent scientifiques et, de nos jours, «
scientifique » est synonyme de « juste ».
Pourtant, si c’est le cas, pourquoi les managers opérationnels de la
plupart des moyennes et grandes entreprises redoutent-ils le rituel de la
planification stratégique annuelle ? Pourquoi ce processus est-il si
chronophage et se traduit-il si peu en actes ? Si vous parlez à ces managers,
il en ressortira probablement une frustration plus profonde : apparemment,
la planification stratégique ne permet pas de produire de nouvelles
stratégies. Au contraire, elle maintient le statu quo.
Face à ce constat, il est tentant de rejeter ouvertement l’approche
scientifique. Libérés de cette multitude de chiffres à passer au crible, on
s’en remet alors aux « ateliers d’idéation »1 hors site ou à des « jam
sessions » en ligne afin d’inciter à penser « hors du cadre ». Ces processus
peuvent générer des idées révolutionnaires mais, dans la plupart des cas, ces
trouvailles ne se transformeront jamais en choix stratégiques susceptibles de
guider une action productive. Pour citer un manager : « Si on garde ces
idées hors du cadre, c’est qu’il y a une raison. »
Afin de sortir de l’impasse, il faut donc changer la façon dont on conçoit
une approche stratégique efficace et, pour ce faire, il faut savoir qu’en
stratégie, le plausible prime sur l’avéré. Dans un langage plus scientifique,
cela revient à dire que développer une stratégie gagnante implique de créer
et de tester des hypothèses comportant de nouveaux liens de causalité, puis
de repérer les paramètres à modifier pour que ces hypothèses puissent être
validées. La formulation cohérente de nouvelles hypothèses constitue un
processus tout aussi scientifique que l’analyse structurée de données.
Dans ce chapitre, je présenterai une approche en sept étapes de
l’élaboration de stratégies, appuyée sur la formulation structurée d’un
ensemble d’hypothèses parfaitement coordonnées, ou options stratégiques,
parmi lesquelles les stratèges pourront choisir. Cette méthode permet
d’examiner les réalités à prendre en compte dans chaque situation pour
qu’une option puisse être retenue. C’est alors seulement qu’il sera possible
d’exploiter toute la puissance de l’analyse afin de déterminer laquelle parmi
les solutions « plausibles » est la plus facile à mettre en œuvre.
Étape n° 1 : arbitrez au lieu d’analyser

Dans l’approche traditionnelle, l’élaboration de stratégies a tendance à se


focaliser sur des problèmes ou des enjeux tels qu’une diminution des parts
de marché ou des bénéfices. Si cette situation perdure, l’entreprise tombera
dans le piège de l’examen des données au lieu de chercher et de tester des
solutions.
Pour éviter cet écueil, le plus simple est d’exiger que les stratèges
proposent deux solutions alternatives afin de résoudre le problème. Si vous
présentez ce dernier comme un choix à effectuer, quel qu’il soit, votre
analyse et vos émotions vous orienteront vers l’action qui apparaît
nécessaire et non vers une description ou une étude des enjeux. Cette
approche fondée sur des hypothèses s’applique donc dès que l’entreprise se
rend compte qu’elle doit prendre une décision et en assumer les
conséquences. Pour l’équipe de management, c’est le fameux
franchissement du Rubicon : le moment déclencheur du processus
d’élaboration de stratégies.
À la fin des années 1990, quand Procter & Gamble envisageait de
devenir un acteur majeur du secteur mondial de la beauté, le groupe s’est
heurté à un problème de taille : il lui manquait une marque de soins de la
peau crédible, alors que c’était le segment le plus important et le plus
rentable du marché. Le groupe n’avait que Oil of Olay2, une petite marque
d’entrée de gamme avec une clientèle vieillissante. P&G a franchi son
Rubicon en envisageant deux options : tenter de transformer Oil of Olay de
manière radicale pour en faire une concurrente sérieuse de marques telles
que L’Oréal, Clarins et La Prairie, ou bien dépenser des milliards de dollars
en vue d’acquérir l’un des grands noms du secteur des soins de la peau. Ce
cadre d’analyse a aidé les managers à internaliser les enjeux. À cet instant,
P&G a abandonné sa position d’observateur pour se retrouver face à une
décision cruciale.
Étape n° 2 : concevez de nouvelles options
stratégiques

Après avoir pris conscience de la nécessité de faire un choix, vous pouvez


vous tourner vers la grande variété de possibilités à étudier, notamment les
variantes de solutions déjà envisagées. Par exemple, P&G songeait à
développer la marque Oil of Olay dans la même fourchette de prix ou à la
faire monter en gamme, à chercher à acquérir le groupe allemand
propriétaire de Nivea ou à mettre la pression sur Estée Lauder pour
récupérer Clinique. Des options différentes peuvent exister également en
dehors des idées initiales. Ainsi, P&G pouvait aussi bien compléter la
gamme de sa marque de cosmétiques performante Cover Girl avec des soins
de la peau, en la transformant en une grande marque mondiale.
Dans le monde des affaires, concevoir des options stratégiques, surtout
quand elles sont réellement novatrices, constitue l’essence même de la
créativité. Aucun acteur du secteur de la beauté n’aurait pu imaginer que
P&G décide de réinventer complètement Olay et ose défier les marques de
prestige les plus connues. Pour trouver des solutions aussi inattendues, il
faut d’abord bien comprendre ce que revêt la notion d’option stratégique,
puis s’armer d’une équipe créative mais pragmatique, ainsi que d’un
dispositif efficace de gestion des débats.

Le but du jeu

Une option stratégique correspond tout simplement à une histoire qui décrit
le chemin d’une entreprise vers la réussite et qui se finit bien. Chaque
scénario présente un terrain de jeu correspondant au marché visé par
l’entreprise et explique comment celle-ci s’y prend pour gagner. L’histoire
doit être dotée d’une logique interne cohérente, mais n’a pas besoin d’être
étayée par des preuves à ce stade. Elle est sélectionnée dès lors que l’idée
paraît crédible. Présenter les différentes options sous forme de scénarios
sans exiger de preuve aide les participants à discuter de solutions
éventuellement viables mais qui n’existent pas encore. En effet, il est bien
plus facile de proposer un scénario autour d’une solution réaliste que de
fournir des données sur ses chances de réussir.
Il est souvent tentant de se contenter d’une hypothèse évoquée dans les
grandes lignes. Cependant, une option stratégique n’est ni une devise («
Viser l’international »), ni un objectif (« Être le numéro un »). Les équipes
doivent être encouragées à décrire précisément l’avantage qu’elles
souhaitent obtenir ou exploiter, le périmètre visé et les activités à travers la
chaîne de valeur qui produiraient cet avantage au sein de ce périmètre, faute
de quoi il est impossible d’analyser la logique sous-jacente d’une option et
de soumettre ainsi cette dernière à des tests. Dans le cas de Cover Girl,
l’avantage viendrait d’une marque forte et de la base de clients existante,
combinées aux capacités du groupe en matière de R&D et de mise sur le
marché international. Le périmètre serait limité à un segment plus jeune,
cœur de la clientèle de Cover Girl, en visant par ailleurs un développement
à l’international à partir du continent nord-américain où la marque était
solidement établie. Quant aux activités clés, elles auraient notamment pour
objectif de tirer parti d’un vivier de mannequins et de stars, égéries de la
marque.
Souvent, les managers me demandent : « Combien d’options devrions-
nous imaginer ? » La réponse dépend du contexte. Dans certains secteurs, il
n’y a que quelques scénarios avec une fin heureuse, alors que dans d’autres
secteurs, en particulier ceux qui sont en effervescence ou qui ciblent
plusieurs segments clients, il est concevable d’explorer un grand nombre
d’orientations. J’ai constaté que la plupart des équipes examinent avec
attention trois à cinq possibilités. Je me montre toutefois intransigeant sur
un élément : l’équipe doit absolument proposer plus d’une alternative. Dans
le cas contraire, elle n’aura jamais réellement amorcé le processus
d’élaboration de stratégies, car elle n’aura pas été confrontée à un choix.
Étudier une seule option ne conduit pas à produire une action optimale, ni,
d’ailleurs, la moindre action.
J’insiste également pour que le maintien du statu quo ou de la trajectoire
en cours soit considéré à l’instar des autres solutions. Procéder ainsi oblige
l’équipe à énoncer dans le cadre des étapes ultérieures les critères à remplir
afin que le statu quo soit une option viable, en éliminant ainsi l’idée
largement répandue selon laquelle « dans le pire des cas, nous pouvons
simplement poursuivre nos activités comme avant ». En effet, s’en tenir au
statu quo peut mener à un lent déclin. Le fait d’inclure ce scénario parmi les
hypothèses étudiées permet à l’équipe de l’analyser et de le remettre en
question.
Au sein de P&G, l’équipe a mis au point, outre le statu quo, cinq
options stratégiques. La première portait sur l’abandon d’Oil of Olay au
profit de l’acquisition d’une grande marque internationale de soins de la
peau. La deuxième était de maintenir le positionnement actuel d’Oil of Olay
en tant que marque d’entrée de gamme distribuée en grandes surfaces et de
renforcer son attrait auprès de sa clientèle mature en mettant à profit les
capacités en R&D du groupe pour améliorer l’efficacité anti-âge du produit.
La troisième option consistait à orienter Oil of Olay vers le circuit sélectif
(grands magasins et chaînes de parfumerie) en tant que marque haut de
gamme. La quatrième reposait sur l’idée de réinventer complètement Olay
pour renvoyer l’image d’une marque de prestige qui attirerait en priorité
une clientèle féminine plus jeune (de trente-cinq à cinquante ans), mais
serait proposée dans les grandes et moyennes surfaces traditionnelles par
des distributeurs partenaires désireux de créer une expérience « masstige »3
en disposant le produit sur un présentoir réservé à la marque. Enfin, la
cinquième option consistait à étendre la marque Cover Girl au domaine des
soins de la peau.

Les participants

Le groupe en charge d’imaginer les options stratégiques doit refléter une


grande diversité de compétences, de parcours et d’expériences. Sans cela, il
est difficile d’avoir des discussions suffisamment nourries avec des
propositions créatives à la clé. Il me paraît judicieux d’inclure des
personnes étrangères au statu quo, sans le moindre lien affectif avec celui-
ci. En général, cela implique la participation de jeunes cadres prometteurs.
Je trouve également que les suggestions les plus originales proviennent
fréquemment de personnes extérieures à l’entreprise, surtout si elles
travaillent dans un autre secteur. Enfin, outre les membres des équipes, il
apparaît crucial d’associer à ce processus des managers opérationnels. Cela
permet non seulement de mieux prendre en compte les aspects pratiques,
mais aussi de favoriser la connaissance de la stratégie retenue en définitive
et l’implication des équipes à l’égard de celle-ci dès le début du processus :
une entreprise dans laquelle les planneurs ne sont pas les exécutants est une
entreprise dans laquelle ce qui est exécuté ne correspond pas à ce qui était
planifié.
La taille optimale du groupe de discussion varie en fonction des
entreprises et de leur culture. Par exemple, les entreprises caractérisées par
leur politique d’inclusion sont susceptibles de constituer un groupe plus
large. Dans ce cas, il convient de créer des sous-groupes afin de discuter
d’options spécifiques, car dans un comité de plus de huit ou dix personnes,
les participants ont tendance à s’autocensurer.
Il n’est guère judicieux de choisir un membre de la direction en tant
qu’animateur, car il lui sera difficile de convaincre les autres qu’il ne joue
pas son rôle habituel de chef. Il vaut mieux choisir un salarié respecté avec
un niveau de responsabilité moindre, qui ne sera pas perçu comme ayant un
avis tranché sur l’orientation à prendre. On peut aussi faire appel à un
facilitateur externe qui a une certaine expérience du fonctionnement de la
société.

Les règles

Une fois nommés, les concepteurs doivent s’engager à distinguer la


première phase, c’est-à-dire la conception d’options stratégiques, des
phases ultérieures de test et de sélection. Les managers dotés d’un esprit
critique ont naturellement tendance à accueillir chaque idée nouvelle avec
une longue liste d’objections. L’animateur doit en permanence rappeler au
groupe qu’il sera toujours possible d’exprimer son scepticisme en temps
utile, mais que, pour commencer, il convient de s’abstenir de juger. Si un
participant persiste dans la critique, l’animateur devra lui demander de la
garder pour la phase suivante de la discussion, en la présentant sous forme
de condition. Par exemple, la critique selon laquelle « les clients
n’accepteront jamais des prix différenciés » devient alors une condition
selon laquelle « il faudrait que la clientèle accepte des prix différenciés »
pour que l’option proposée puisse fonctionner. Il est donc essentiel qu’au
début du processus, l’animateur ne rejette pas certaines propositions : cela
ouvrirait la porte aux critiques et à la mise à l’écart des différentes options.
Par ailleurs, le fait de rejeter une proposition qui tient à cœur à l’un des
participants peut pousser cette personne à se mettre en retrait de la
discussion.
Un certain nombre d’équipes de management essaient de concevoir des
options stratégiques au cours d’une séance de brainstorming unique,
organisée hors site. Ces séances restent utiles, surtout si elles se déroulent
dans un endroit inhabituel : cela permet aux participants de sortir de leur
routine et d’abandonner leurs réflexes. Néanmoins, j’ai également pu
observer des équipes tirer profit d’un processus étalé dans le temps. Cela
leur donne l’opportunité de réfléchir en faisant appel à leur créativité et de
structurer leurs idées. La méthode la plus productive est sans doute de
démarrer en demandant à chaque participant de prendre trente à
quarantecinq minutes pour esquisser au moins trois à cinq scénarios. Inutile
de rentrer dans les détails, il suffit de proposer une trame. Après cet
exercice, le groupe (ou les sous-groupes) peut étoffer ces propositions
initiales.
La conception d’options stratégiques repose sur la créativité, faculté
pouvant être stimulée par de nombreuses techniques considérées comme
efficaces. Il existe trois types de questionnements particulièrement
judicieux. Les questions de perspective externe permettent de partir des
atouts et des capacités de l’entreprise, puis de diriger le raisonnement vers
l’extérieur : qu’est-ce que cette entreprise fait le mieux et qui serait
susceptible d’être apprécié par une partie du marché et de générer une plus-
value ? Les questions de perspective interne incitent à chercher des
opportunités de marché : quels sont les besoins qui restent à satisfaire ?
Quels sont ceux pour lesquels les consommateurs ont du mal à s’exprimer ?
Quels créneaux sont délaissés par les concurrents ? Les questions de
perspective visionnaire font appel à un raisonnement par analogie : que
faudrait-il faire pour devenir l’équivalent de Google, Apple ou Walmart sur
ce marché ?
Pour s’assurer de disposer d’une base de travail intéressante, constituée
d’un ensemble d’options, il faut pouvoir faire le, voire les deux constats
suivants : soit maintenir le statu quo ne semble pas être une si bonne idée,
car une autre option au moins attire suffisamment l’attention du groupe
pour qu’il souhaite réellement remettre en question l’ordre établi ; soit une
option au moins suscite un certain malaise, car trop différente du statu quo
pour que le groupe s’interroge sur sa faisabilité ou les risques qu’elle
comporte. Si vous n’avez observé aucune de ces situations, c’est sans doute
le moment de faire un nouveau tour de table afin d’élaborer d’autres
options.
Chez P&G, c’est la quatrième solution décrite ci-dessus qui a fait l’objet
de réticences. Il s’agissait de la transformation d’une marque faible et bas
de gamme en une entité plus séduisante et capable de faire concurrence à
des produits haut de gamme commercialisés dans les grands magasins, en
aboutissant à la création d’un segment « masstige » totalement nouveau que
les distributeurs étaient susceptibles d’accueillir avec enthousiasme.
Étape n° 3 : déterminez les conditions du
succès

Cette étape a pour objectif de détailler ce qui doit être vrai pour que chaque
option représente un choix enthousiasmant. Il est à noter qu’il ne s’agit pas
d’argumenter sur ce qui est avéré. L’intention n’est pas d’explorer ou
d’évaluer la logique des différentes options, ni de prendre en compte des
données qui pourraient ou non la soutenir. Cela viendra plus tard. À ce
stade, toute prise en compte des données éloigne du cœur du sujet.
On n’insistera jamais assez sur l’importance de cette distinction.
Lorsque la discussion au sujet d’une option se concentre sur ce qui est
avéré, le participant le plus sceptique la contestera avec véhémence, en
espérant la mettre hors compétition. Son concepteur, lui, la défend et
réplique à grand renfort d’arguments pour protéger sa viabilité. Petit à petit,
les esprits s’échauffent, les avis deviennent plus tranchés, et les rapports,
plus tendus. Dans le même temps, aucun des protagonistes n’a saisi la
logique de la partie adverse.
Si, à l’inverse, le dialogue porte sur ce qui est plausible, alors le
sceptique pourrait déclarer : « Je serai convaincu par cette option, si je sais
que ce type d’offre intéresse la clientèle » ; ce qui est très différent de : « Ça
ne marchera jamais ! » Cela permet au défenseur de l’idée en question de
comprendre les réserves émises par le sceptique et d’apporter les preuves
nécessaires pour les lever. Ce dernier est, quant à lui, encouragé à préciser
l’origine exacte de ses doutes au lieu de tout rejeter en bloc.
J’ai contribué au développement d’un processus permettant de mettre en
évidence les critères qui doivent être remplis pour qu’une proposition en
matière de stratégie soit bel et bien pertinente (voir l’encadré « Évaluation
de la validité d’une option stratégique »). Ces critères sont répartis en sept
catégories avec un cadre d’analyse articulé autour du secteur, de la valeur
pour la clientèle, du modèle économique et des concurrents. Les managers
doivent commencer par énoncer clairement l’option stratégique à l’étude,
puis introduire une discussion en deux étapes.

Constituez une liste de conditions à remplir

La phase suivante a pour but de répertorier sous la forme d’une liste


exhaustive toutes les réserves émises par les participants quant aux
différentes options. Celle-ci comportera donc les conditions qui devront être
remplies afin que toutes les personnes présentes puissent affirmer qu’elles «
se sentent suffisamment convaincues pour concrétiser cette option ». Les
conditions devront être formulées en mode affirmatif plutôt que
conditionnel. Par exemple, à une tournure telle que « nos partenaires de
distribution devraient nous soutenir », on préfèrera la déclaration « nos
partenaires de distribution nous soutiendront ». Cela contribue à renforcer
l’aspect positif de l’option examinée, qui séduira le groupe si les conditions
préalables à sa réalisation se trouvent satisfaites.
Il faut s’assurer que la personne à l’origine de l’option étudiée ne
domine pas la conversation. Par ailleurs, chaque participant ayant émis des
conditions doit expliquer pourquoi celles-ci le rassurent sans avoir à
démontrer leur fondement.
Une fois que chaque membre du groupe a eu l’occasion d’ajouter une ou
plusieurs conditions à la liste, le facilitateur la lit à voix haute et pose au
groupe la question suivante : « Si toutes ces conditions étaient remplies, est-
ce que vous défendriez et soutiendrez la décision qui serait prise en
conséquence ? » Dans l’affirmative, on peut passer à l’étape suivante. Si
l’un des participants répond par la négative, il faut alors lui demander : «
Quelle condition supplémentaire faudrait-il respecter pour que cette option
puisse être considérée comme réaliste ? » Cette session de questions-
réponses devrait se poursuivre jusqu’à ce que chaque membre donne son
approbation.
Une fois encore, il est strictement interdit durant cette étape de
s’exprimer sur la véracité ou non des conditions évoquées. L’objectif
consiste simplement à identifier ce qui est plausible pour que chaque
participant se sente convaincu sur le plan intellectuel et affectif par chacune
des options étudiées.

Évaluation de la validité d’une option stratégique


Après avoir dressé la liste des options possibles, il faut déterminer les conditions qui
devraient être remplies pour conduire au succès de chacune d’entre elles. Le
diagramme ci-dessous représente un cadre d’analyse qui permet de faire apparaître
les conditions indispensables à leur réalisation, en adoptant une démarche de rétro-
ingénierie de l’option stratégique étudiée. L’application de ce modèle par le groupe
Procter & Gamble dans le contexte du changement de nom et de positionnement
d’Olay est expliquée ci-dessous.

Le cadre d’analyse
Quelles conditions, selon nous, devraient être remplies ou créées pour garantir la
réussite de cette option ?

L’option « masstige » d’Olay


La solution examinée correspondait au repositionnement d’Olay pour toucher une
clientèle plus jeune, avec la promesse de « combattre les sept signes de l’âge ». Dans
cette optique, il était nécessaire de collaborer avec des détaillants pour créer un
segment masstige, constitué de consommateurs désireux d’acheter en grande surface
un produit reprenant les codes du luxe. P&G a estimé que les conditions suivantes
devaient être réunies pour que cette option fonctionne.

* Conditions indispensables considérées par P&G comme les moins plausibles


La même approche doit être appliquée à la stratégie déjà en place. J’ai le
souvenir d’une discussion, il y a quelques années, sur l’option du statu quo.
Vers la fin du débat, le président de l’entreprise a bondi de son fauteuil et a
quitté la réunion au pas de course. Dix minutes plus tard, alors qu’il
regagnait la salle, ses collaborateurs lui ont demandé si tout allait bien. Il
leur a expliqué que cette discussion lui avait permis de comprendre à quel
point la logique de continuité était peu rationnelle et que cette révélation
l’avait incité à annuler, le jour-même de son lancement, une campagne
favorable au statu quo estimée à plusieurs millions de dollars.

Faites le tri

En général, l’exercice présenté ci-dessus dépasse du cadre imparti, et la liste


des conditions inclut aussi bien des conditions « indispensables » que des
conditions « accessoires ». Une fois la liste achevée, le groupe doit faire une
pause puis passer en revue chaque élément en répondant à la question
suivante : « Si toutes les conditions étaient remplies à l’exception de celle-
ci, l’option serait-elle éliminée ou toujours considérée comme viable ? » Si
la réponse aboutit à l’élimination, la condition revêt un caractère
indispensable et doit être conservée, tandis que dans le cas du maintien de
l’option malgré la suppression de la condition préalable étudiée, cette
dernière sera considérée comme non indispensable et pourra donc être
retirée de la liste.
L’objectif ici est de s’assurer que la liste constitue réellement un
ensemble de critères contraignants. C’est pourquoi, à l’issue de la première
sélection, il convient de demander : « Si tous ces critères étaient validés,
est-ce que vous défendriez et soutiendriez la décision qui serait prise en
conséquence ? » Si un participant répond par la négative, le groupe doit
alors revenir à la première étape de la discussion et ajouter toute condition
nécessaire qui aurait été initialement négligée ou retirée par erreur.
Après avoir élaboré un ensemble d’options et ajouté toutes les
conditions indispensables à chaque scénario, le groupe doit les présenter
aux cadres dirigeants pour approbation formelle de la décision définitive,
ainsi qu’à tous les collègues susceptibles d’y faire obstacle. Pour chaque
option, l’équipe doit soumettre à ces nouveaux intervenants les questions
précédemment posées à ses membres : « Si toutes ces conditions étaient
réunies, choisiriez-vous cette option ? Sinon, quels critères supplémentaires
incluriez-vous ? » Cet exercice vise à garantir que les paramètres liés à
chaque option sont clairement spécifiés à tous ceux qui disposent d’un
pouvoir décisionnel quant à la stratégie retenue, et ce en amont de la phase
d’analyse.
Étape n° 4 : identifiez les obstacles à la prise
de décision

Lors de cette étape, il convient de porter un regard critique sur la liste des
conditions. La tâche suivante consiste à évaluer lesquelles de ces conditions
sont le moins susceptibles d’être remplies, représentant ainsi un obstacle à
la décision en faveur de l’option étudiée.
Pour commencer, les participants doivent imaginer qu’ils pourraient
souscrire une garantie assurant la réalisation de l’une des conditions de la
liste. Dans ce cas, à laquelle d’entre elles l’appliqueraient-ils ? On peut en
déduire que le critère ainsi désigné constitue l’obstacle majeur. Le
deuxième critère bénéficiant d’une garantie représente le deuxième plus
grand obstacle, et ainsi de suite. Idéalement, cet exercice permet de classer
les obstacles liés à chaque option, dont deux ou trois suscitent de réelles
préoccupations dans l’équipe. En cas de désaccord sur la hiérarchie de
certains critères, il est recommandé de les déclarer ex aequo.
Vous devez prêter une attention particulière au participant le plus
sceptique à l’égard d’une condition spécifique ; cette personne représente le
principal obstacle à la sélection et la validation de l’option étudiée, peut-
être de façon légitime et justifiée, en particulier si l’option s’avère
problématique. Les membres doivent être encouragés à exprimer leurs
doutes et non à les taire. J’insiste sur la nécessité absolue d’ajouter à la liste
toute réserve, même émise par un seul participant, pour éviter qu’elle ne
remette l’analyse finale en question. La prise en compte des doutes
exprimés par chaque membre donnera confiance en ce processus et ses
résultats à l’ensemble de l’équipe.
Lorsque l’équipe Beauté de P&G a passé en revue les neuf conditions
déterminantes pour l’option masstige d’Olay, les participants étaient
convaincus par la validité de six d’entre elles : (1) le segment de clientèle
potentielle était suffisamment important pour constituer une cible attractive
; (2) le segment de marché était au moins aussi structurellement porteur que
celui des soins de la peau, distribués en grande surface ; (3) P&G pouvait
produire ces soins à un coût raisonnable afin de fixer un prix légèrement
inférieur à ceux pratiqués par les marques de prestige les plus accessibles;
(4) le groupe était en mesure de créer des partenariats avec des distributeurs
(s’ils y étaient favorables) ; (5) les concurrents du secteur de luxe n’avaient
aucun intérêt à copier cette stratégie et (6) les concurrents de la grande
distribution n’en auraient pas les moyens. Cependant, trois conditions
suscitaient des préoccupations particulières dans l’équipe, classées ci-après
en commençant par la plus forte : (7) la clientèle des grandes et moyennes
surfaces devait accepter un nouveau niveau de prix de départ nettement plus
élevé ; (8) les acteurs de la grande distribution devaient jouer le jeu afin de
créer un nouveau segment masstige ; (9) P&G devait être en mesure
d’apporter en grande surface un positionnement de marque, un
conditionnement produit et des dispositifs de promotion de vente en
magasin similaires à ceux des marques de prestige.
Étape n° 5 : concevez des tests pour les
conditions indispensables

Après avoir répertorié et classé les conditions qui constituent les obstacles
clés, le groupe doit tester la validité de chacune d’entre elles. Ce test peut
aussi bien se traduire par un sondage sur un millier de consommateurs que
prendre la forme d’une discussion avec un seul fournisseur. Il peut
impliquer le traitement de milliers de données ou bien se dispenser de tout
indicateur chiffré. Cependant, le test doit se conformer à un impératif :
l’ensemble de l’équipe doit reconnaître sa pertinence permettant à terme de
rejeter ou d’adopter l’option considérée.
Le participant le plus sceptique vis-à-vis d’une condition spécifique
devrait prendre les devants pour être le premier à concevoir un test et à
l’appliquer, car il aura en principe le plus haut degré d’exigence. Par
conséquent, si ce test est réussi, toute l’équipe sera également convaincue.
Bien entendu, il existe un risque que le sceptique fixe un niveau de preuve
inatteignable. Dans la pratique, il y a deux bonnes raisons pour que cela
n’arrive pas.
Premièrement, un extrême scepticisme signifie généralement que l’on a
le sentiment de ne pas être écouté. Dans un processus d’adhésion
traditionnel, les doutes sont considérés comme des obstacles à la décision, à
éliminer aussi vite que possible. L’approche fondée sur des hypothèses
permet de s’assurer que les participants se sentent réellement écoutés et
entendus. La seconde raison est liée à la menace d’une destruction mutuelle
assurée. Imaginons que j’aie des craintes sérieuses quant à l’option A et que
je préfère l’option B. Quant à vous, vous êtes quasiment convaincu par
l’option A et avez de nombreuses réserves sur l’option B. Si je suis
responsable des tests pour les conditions qui font obstacle à l’option A, tout
en sachant qu’il vous reviendra de concevoir les tests pour l’option B, j’ai
conscience que placer la barre trop haut vous incitera probablement à en
faire de même. L’attitude la plus intelligente est donc de faire preuve de
raison et d’équité.
Étape n° 6 : réalisez les tests

Il est généralement recommandé d’organiser cette phase grâce à ce que


j’appelle « le parti pris du moindre effort en matière de prise de décision »,
à savoir tester les conditions selon le degré d’incertitude attribué par le
groupe. La condition dont la validité est la moins probable doit donc être
testée en premier. Si les soupçons se révèlent justifiés, l’option à l’étude
peut être éliminée sans autre forme de procès. Si l’épreuve est réussie, on
teste alors la deuxième condition la moins susceptible d’être satisfaite, et
ainsi de suite. Le principe du moindre effort peut permettre une économie
de ressources considérable, car la phase de tests représente souvent la partie
la plus onéreuse et la plus chronophage du processus décisionnel.
C’est d’ordinaire à cette étape que vous pouvez faire appel à des
personnes extérieures à l’équipe stratégique : des consultants ou des experts
appartenant aux unités géographiques ou fonctionnelles concernées, qui
pourront vous aider à ajuster et à effectuer les tests définis comme
prioritaires. Veillez à ce qu’ils se concentrent uniquement sur les tests, car il
ne leur appartient pas de réviser les conditions. En réalité, l’avantage de
l’approche fondée sur des hypothèses réside notamment dans le fait qu’elle
vous permet de gagner en efficience et d’optimiser les coûts en matière de
ressources extérieures.
Cette approche est profondément différente des processus appliqués par
la plupart des consultants en stratégie, qui effectuent en parallèle une série
d’analyses plutôt générales, abondantes et coûteuses, qui s’avéreront pour la
plupart non essentielles, voire inutiles à la prise de décision. En outre, leur
ampleur se substitue à la profondeur : ces analyses transversales restent
superficielles, car le coût d’études approfondies et exhaustives constitue un
frein. Afin d’encourager la prise de décision et l’implication des équipes,
les managers ont besoin de s’appuyer sur des analyses à la fois minutieuses
et ciblées. Cela permet de lever les doutes susceptibles d’empêcher l’équipe
de choisir une option et d’explorer ces points avec suffisamment de détail
pour atteindre le niveau de preuve requis. C’est justement ce que permet
l’approche fondée sur des hypothèses.
Pour l’équipe de l’unité Beauté de P&G, c’est la fixation des prix qui
représentait la condition la plus incertaine de l’option masstige d’Olay. Le
test réalisé a démontré l’importance d’une approche véritablement
scientifique et guidée par des hypothèses pour générer des stratégies à la
fois efficaces et inattendues. Le directeur R&D d’Olay, Joe Listro, raconte
en ces termes le déroulement de cette expérience : « Nous avons testé le
nouveau produit Olay à différents niveaux de prix premium allant de 12,99
$ à 18,99 $, et nous avons obtenu des résultats très différents. À 12,99 $,
nous avons constaté une réaction positive et un taux d’intention d’achat
plutôt satisfaisant. Cependant, ceux qui manifestaient le désir d’acheter à ce
prix étaient des consommateurs de la grande distribution. Peu de clients des
grands magasins étaient intéressés par ce niveau de prix. Cela revenait à
renouveler notre clientèle au sein du même canal. À 15,99 $, les intentions
d’achat étaient en chute libre tandis qu’à 18,99 $, elles connaissaient une
forte hausse. Pour résumer, 12,99 $ était un très bon prix, 15,99 $ ne
convenait pas vraiment et 18,99 $ semblait optimal. »
L’équipe a pu conclure qu’au prix de 18,99 $, les consommateurs
venaient des grands magasins de prestige et des enseignes de parfumerie
sélectives pour acheter les produits Olay en supermarchés, en pharmacies et
dans les chaînes discount. Ce niveau de prix envoyait exactement le bon
signal. Pour les adeptes des grands magasins, le produit était de très bonne
qualité tout en gardant un niveau de prix justifié. Pour les consommateurs
de la grande distribution, ce prix premium signalait un produit
probablement bien meilleur que tous les autres du même rayon. À l’inverse,
celui de 15,99 $ ne trouvait pas preneur : cher sans pouvoir se démarquer
aux yeux de consommateurs de grande distribution et pas assez cher pour
les consommateurs de luxe. Ces différences étaient assez subtiles. Si le
groupe ne s’était pas autant appliqué à concevoir et effectuer des tests
fiables pour plusieurs niveaux de prix, il n’aurait probablement jamais pu
faire émerger de tels résultats.
Il est important de comprendre que les tests ne peuvent supprimer toute
incertitude. Même la meilleure des options comportera une part de risque.
C’est pourquoi il est également essentiel de prévoir de tester les paramètres
liés au statu quo : cela permet de comprendre que le maintien du statu quo
n’est pas sans risque. Au lieu de confronter l’option la mieux évaluée à une
solution fictive et sans risque, l’équipe peut comparer les risques de la
meilleure option à ceux du statu quo afin de prendre une décision adéquate.
Étape n° 7 : prenez votre décision

Dans le cadre classique de l’élaboration d’une stratégie, le choix final peut


être pénible et difficile. Les décideurs organisent d’ordinaire une réunion
hors site durant laquelle ils tentent de présenter leurs études de marché
abondamment commentées comme des options stratégiques. Compte tenu
de l’importance des enjeux et à défaut d’une explication claire pour chaque
option, les discussions se transforment souvent en âpres négociations entre
des cadres dirigeants empreints de préjugés. Ceux qui restent sceptiques
vis-à-vis de la stratégie retenue commencent à la discréditer dès la fin de la
réunion.
L’approche fondée sur des hypothèses, quant à elle, simplifie et
dédramatise cette phase de prise de décision. Le groupe n’a qu’à passer en
revue les résultats analytiques des tests, puis à choisir l’option la moins
exposée à des obstacles sérieux.
La stratégie ainsi choisie s’avère particulièrement audacieuse, alors
qu’elle aurait été sûrement tuée dans l’œuf lors d’un processus classique. La
marque Olay en est le parfait exemple. P&G a finalement décidé de lancer
un produit haut de gamme, Olay Total Effects, au prix de 18,99 $.
Autrement dit, la marque auparavant moquée pour son côté vieillot s’est vu
offrir une deuxième jeunesse en proposant désormais une gamme de
produits reprenant les codes du luxe, à un niveau de prix proche des
marques distribuées dans les grands magasins. Et cela a fonctionné. Les
partenaires de la grande distribution ont adoré ce produit et ont vu de
nouveaux clients l’acheter en magasin dans une nouvelle catégorie de prix.
Les éditeurs de magazines féminins et les dermatologues ont quant à eux
vanté la réelle valeur de cette gamme de soins efficaces au prix juste.
Le succès de la stratégie masstige a dépassé toutes les espérances du
groupe. P&G aurait pu se satisfaire d’une marque mondiale de soins de la
peau à un milliard de dollars. Mais en moins d’une décennie, Olay a réalisé
plus de 2,5 milliards de ventes annuelles grâce à la naissance de multiples
gammes de produits « de pointe » (d’abord Total Effects, puis Regenerist,
Definity et Pro-X), qui attirent toujours plus d’acheteurs de luxe et dont les
prix ont finalement atteint 50 $.

•••

En théorie, l’approche fondée sur des hypothèses semble facile. Cependant,


un grand nombre de managers éprouvent des difficultés à l’appliquer, non
pas en raison d’un fonctionnement complexe, mais parce qu’elle nécessite
un changement complet d’état d’esprit sur au moins trois points
fondamentaux.
Premièrement, au cours des premières phases, il faut éviter de se
demander « Que devrions-nous faire ? » et se focaliser plutôt sur « Que
pourrions-nous faire ? » Les managers, en particulier ceux qui se targuent
de leur capacité décisionnelle, se concentrent aisément sur la première
question et s’impatientent lorsqu’ils se penchent sur la seconde.
Deuxièmement, durant les étapes intermédiaires, les managers doivent
remplacer la question « Qu’est-ce que je crois vrai ? » par l’interrogation «
Qu’est-ce que je crois plausible ? » Pour ce faire, un manager doit pouvoir
imaginer que chaque option, y compris celles qui lui déplaisent, est une
excellente idée, ce qui n’est pas naturel. C’est pourtant nécessaire afin
d’être en mesure d’identifier les tests adéquats pour une option.
Enfin, en invitant l’équipe à se concentrer sur la détection des conditions
indispensables et sur la conception des tests, l’approche fondée sur des
hypothèses oblige les managers à ne plus se demander « Quelle est la bonne
réponse ? », mais plutôt « Quelles sont les bonnes questions à se poser ?
Quelles informations spécifiques devons-nous connaître afin de prendre la
bonne décision ? » L’expérience prouve que la plupart des managers
défendent bien leurs propres idées mais se montrent moins impliqués quand
il s’agit de poser des questions, en particulier sur les idées des autres.
L’approche fondée sur des hypothèses repose sur la capacité d’une équipe à
interroger les autres et permet de développer cette capacité. Cette faculté de
questionnement authentique doit être au cœur de tout processus qui se veut
scientifique.4

1 NdT : il s’agit de séances de brainstorming plus encadrées dont l’objectif est de générer de
nouvelles idées pour répondre à une problématique précise.
2 NdT : qui a été commercialisée en France sous le nom Oil of Olaz.
3 NdT : mot-valise constitué sur la base des mots « masse » et « prestige ».
Ce chapitre est adapté de l’article coécrit par Alan G. Lafley, Roger L. Martin, Jan W. Rivkin
et Nicolaj Siggelkow, « Bringing Science to the Art of Strategy », Harvard Business Review,
septembre-octobre 2012.
Chapitre 5

L’analyse de données

Créer des solutions innovantes exige de recourir à un esprit


créatif plutôt qu’analytique.

Dans le monde des affaires, la pratique et la recherche sont nourries par la


croyance selon laquelle l’analyse rigoureuse des données est indispensable
pour guider la prise de décisions stratégiques. L’explosion des mégadonnées
n’a fait que renforcer cette idée. D’après un récent sondage du cabinet EY
(anciennement Ernst & Young), 81 % des cadres se déclarent convaincus
que « les données devraient être au cœur de tout processus de prise de
décision », ce qui amène EY à conclure avec enthousiasme que « les
mégadonnées peuvent faire disparaître la dépendance à la prise de décision
fondée sur “l’instinct” ».
Cette perspective séduit particulièrement les managers. En effet, nombre
d’entre eux ont étudié les sciences appliquées. À défaut, ils détiennent
probablement un MBA, diplôme qui a vu le jour au début du xxe siècle alors
que Frederick Winslow Taylor commençait à développer « l’organisation
scientifique du travail », une méthode connue également sous le nom de «
taylorisme ».
Les titulaires de MBA envahissent désormais le monde des affaires :
rien qu’aux États-Unis, leur nombre s’élève à plus de 150 000 diplômés par
an. Depuis près de soixante ans, ces programmes s’efforcent de transformer
le management en une science exacte. Ce mouvement a notamment démarré
à la suite de la parution en 1959 de rapports virulents sur l’état des
formations commerciales aux États-Unis, publiés par les fondations Ford et
Carnegie. Aux yeux des auteurs de ces rapports (tous économistes), les
salles de cours étaient alors remplies d’étudiants médiocres et d’enseignants
qui refusaient la rigueur méthodologique caractéristique des sciences dures,
pourtant d’ores et déjà adoptée par d’autres sciences sociales telles que
l’économie. En résumé, les études de commerce n’étaient pas suffisamment
scientifiques. C’est notamment pour pallier ce problème que la fondation
Ford a soutenu la création de revues spécialisées et financé l’ouverture de
programmes de doctorat au sein de la Harvard Business School, du
Carnegie Institute of Technology de Pittsburgh (devenu l’université
Carnegie Mellon), de l’université de Columbia et de celle de Chicago.
Reste à savoir, toutefois, si nous n’avons pas été trop loin. Pouvonsnous
réellement réduire les décisions managériales et stratégiques à un exercice
d’analyse de données ? Je ne le pense pas, et cela me conduit même à
affirmer que créer des solutions innovantes exige de recourir à un esprit
créatif plutôt qu’analytique. Afin d’étayer cette affirmation et d’en
comprendre les implications, nous allons à présent nous pencher sur les
origines, ou plutôt les pères fondateurs de la science.
Le commerce, une science comme une autre
?

La science telle que nous la concevons aujourd’hui est née grâce à Aristote,
un disciple de Platon, qui était le premier à écrire sur la causalité et à
proposer une méthodologie pour démontrer son existence. C’est ainsi que la
« démonstration », ou preuve, est devenue la finalité de la science et le
critère décisif de la « vérité ». À ce titre, Aristote est l’inventeur de cette
approche d’exploration scientifique que Galilée, Bacon, Descartes et
Newton ont ensuite formalisée pour aboutir deux mille ans plus tard à la «
méthode scientifique ».
Il est difficile de ne pas reconnaître les effets de la science sur la société.
Les découvertes scientifiques du siècle des Lumières (profondément
ancrées dans la méthodologie aristotélicienne) ont conduit à la révolution
industrielle et à l’évolution économique mondiale qui en découle. La
science nous a permis de résoudre de nombreux problèmes et c’est grâce à
elle que nous vivons dans un monde meilleur. Il n’est donc pas étonnant que
nous considérions désormais des scientifiques tels qu’Einstein comme des
saints des temps modernes. Il n’est pas non plus surprenant d’estimer que la
méthode scientifique est dorénavant un modèle à suivre pour toute autre
forme de recherche et de parler des « sciences humaines et sociales » au
lieu des « humanités ».
Cependant, Aristote pourrait se demander si nous ne sommes pas
tombés dans l’excès à vouloir sans cesse appliquer la méthode scientifique.
Dans la définition de son approche, il a clairement établi les limites de son
utilisation, destinée à comprendre que selon l’ordre naturel, les choses « ne
peuvent être autres qu’elles ne sont »1. Pourquoi le soleil se lève-t-il chaque
jour ? Pourquoi les éclipses lunaires se produisent-elles au moment où elles
le font ? Pourquoi des corps tombent-ils immanquablement quand on les
lâche ? Ces faits échappent au contrôle des êtres humains, et la science a
pour objet l’étude de leurs causes.
Néanmoins, Aristote n’a jamais prétendu que tous les évènements
étaient inévitables. Au contraire, il était convaincu que les facultés
humaines de décision et d’action permettaient de faire des choix
susceptibles de changer radicalement le futur. En d’autres termes, il y a
dans ce monde un grand nombre de choses qui peuvent être autres qu’elles
sont, car elles sont le fruit d’une décision. « [Un] grand nombre des faits sur
lesquels portent les jugements et les observations [peuvent] avoir leurs
contraires. C’est sur des faits que l’on délibère et que l’on discute ; or les
faits ont tous ce caractère, et aucun acte, pour ainsi dire, n’a lieu
nécessairement »2, a-t-il écrit. Il considérait que cette infinité de possibilités
était guidée non pas par l’analyse scientifique, mais par l’imagination et la
persuasion humaines.
Cela est particulièrement vrai lorsqu’il s’agit de décisions portant sur la
stratégie commerciale et l’innovation. En effet, vous ne pouvez pas tracer la
voie de l’avenir ou apporter un changement seulement en analysant
l’histoire. Le comportement des clients ne peut être influencé par un produit
qui a été conçu en fonction de leurs comportements passés.
Pourtant, influer sur les habitudes et révolutionner l’expérience des
consommateurs, c’est précisément ce que font les grandes entreprises
innovantes. Steve Jobs, Steve Wozniak et d’autres pionniers de
l’informatique ont créé un produit complètement nouveau, qui a totalement
transformé notre façon de communiquer et de travailler. Le chemin de fer,
l’automobile et le téléphone sont autant d’exemples d’inventions à l’origine
de changements comportementaux et sociétaux majeurs que l’analyse de
données existantes à l’époque n’aurait jamais pu prédire. Bien entendu, les
créateurs s’appuient souvent sur des découvertes scientifiques dans le cadre
de leurs innovations, mais leur véritable génie réside dans leur capacité à
imaginer des produits ou des processus qui n’ont jamais existé.
Le monde réel ne se réduit pas à un résultat déterminé par des lois
scientifiques immuables. Par conséquent, agir comme si c’était le cas
revient à se refuser toute possibilité de réelle innovation. Une approche
purement scientifique du processus décisionnel en entreprise présente des
lacunes substantielles que les dirigeants doivent déceler.
Agissez dès que possible

La plupart des situations s’articulent à la fois autour des conditions


modifiables et des conditions immuables. La clé est de savoir les distinguer.
Pour ce faire, il faut vous poser la question suivante : cette situation
dépend-elle essentiellement de certains paramètres (c’est-à-dire de facteurs
que l’on peut améliorer) ou est-elle régie par des impératifs (des conditions
qui ne peuvent être changées) ?
Imaginons que, pour produire des bouteilles d’eau de source en
plastique, vous ayez le projet de construire une ligne d’embouteillage. La
méthode normalisée consiste à utiliser des « préformes » (tubes miniatures
en plastique épais), à les faire chauffer, à insuffler de l’air sous pression
pour les façonner en forme de bouteille, à les refroidir jusqu’à ce qu’elles
soient rigides et enfin à les remplir d’eau. Des milliers de lignes
d’embouteillage à travers le monde sont configurées de cette manière.
Certains paramètres ne peuvent être autres qu’ils ne sont : la température
exigée pour que la préforme puisse s’étirer, la quantité d’air comprimé
nécessaire pour le façonnage, la durée requise pour pouvoir refroidir la
bouteille et la vitesse exacte à laquelle on peut la remplir d’eau. Déterminés
par les lois de la thermodynamique et de la gravité, ces facteurs ne peuvent
évidemment pas être modifiés par les cadres de l’entreprise.
Pourtant, il y a énormément de choses que ces derniers peuvent changer.
Bien que des lois scientifiques gouvernent chaque étape, l’ordre de ces
étapes, qui prévaut dans l’industrie de l’embouteillage depuis des
décennies, n’a pas forcément à être respecté. C’est ce qu’a démontré
l’entreprise LiquiForm, en se demandant pourquoi ne pas combiner deux
étapes en une seule pour former la bouteille au moyen de la pression
exercée par le liquide dont elle est remplie, plutôt qu’avec de l’air. Cette
solution s’est révélée tout à fait réalisable.
Il est nécessaire que les cadres décomposent chaque situation faisant
l’objet d’une prise de décision en distinguant les conditions pour lesquelles
le changement est impossible de celles pour lesquelles le changement est
possible, puis testent la logique de leur analyse. Si selon l’hypothèse
initiale, un paramètre ne peut être changé, ils doivent se demander quelle loi
de la nature intervient dans ce cas précis. Si les arguments justifiant son
caractère impossible sont probants, le mieux est d’appliquer une méthode
qui permet d’optimiser la situation existante. Dans ce cas, il faut se laisser
guider par la science et utiliser ses instruments – les données et l’approche
analytique – afin d’orienter les décisions.
De la même manière, les cadres doivent mettre à l’épreuve la logique
sous-jacente à la classification des éléments qu’il est possible de changer.
Qu’est-ce qui laisse supposer que les comportements ou résultats sont
susceptibles d’évoluer ? Si la justification est suffisamment étayée, c’est
l’imagination et le design qui doivent être les guides. L’analyse de données
ne sera utilisée que pour mieux les servir.
Il est important de noter que l’existence de données n’est pas une preuve
suffisante de l’impossibilité d’influer sur les résultats. Les chiffres ne valent
pas la logique : en réalité, les succès commerciaux les plus remarquables
ont pour origine une décision prise à contre-courant des données probantes.
L’orientation prise par le président du groupe Lego Brand, Jorgen Vig
Knudstorp, en est la preuve. Alors qu’il occupait les fonctions de PDG de
Lego en 2008, les données à sa disposition indiquaient que les filles étaient
nettement moins intéressées par les fameuses petites briques que les
garçons qui représentaient 85 % des enfants amateurs de Lego. Toutes les
tentatives précédentes visant à attirer davantage de filles avaient échoué.
Par conséquent, la plupart des managers de l’entreprise ont cru que les filles
étaient, par nature, moins susceptibles de jouer avec des briques Lego. Ils
en conclurent que c’était un paramètre impossible à changer. Mais M.
Knudstorp voyait cela d’un autre œil. Selon lui, le problème venait du fait
que l’entreprise n’avait pas encore compris comment donner envie aux
filles de jouer à des jeux de construction. Son intuition a été confirmée par
le succès de la gamme Lego Friends, lancée en 2012.
Le cas de Lego démontre que les données, dans le meilleur des cas, ne
sont que des indices et qu’il n’est pas toujours évident de comprendre ce
qu’elles prouvent. En outre, l’absence de données n’exclut pas l’existence
de solutions : lorsqu’il est question de résultats et de comportements inédits,
il est tout à fait normal de ne pas disposer de preuves au préalable. C’est
pourquoi un chercheur rigoureux ne se contente pas de données, mais
s’intéresse également à ce qui pourrait se produire dans la limite des
possibilités existantes. Cela demande de faire appel à l’imagination, un
processus très différent de l’analyse.
Par ailleurs, la démarcation entre le possible et l’impossible est bien plus
fluctuante qu’il n’y paraît. Les esprits créatifs en repoussent toujours les
limites, remettant en question toute impossibilité.
Sortez du cadre établi

Imaginer de nouvelles options nécessite en premier lieu de sortir du cadre


de pensée habituel. Ne rien changer semble souvent la seule possibilité, et il
est difficile de se défaire de cette impression.
J’ai observé récemment un de ces pièges du statu quo lors d’une
collaboration avec un cabinet de conseil pour le compte d’organismes à but
non lucratif, confrontés à un « cycle de privation »3 : ils recevaient de
généreuses donations pour couvrir les coûts directs de projets spécifiques
mais rencontraient de grandes difficultés à obtenir du soutien pour leurs
coûts indirects. Par exemple, une grande fondation privée pouvait financer
dans l’intégralité l’élargissement à l’Afrique subsaharienne d’un
programme d’éducation des filles déjà mené avec succès par une
association en Amérique latine, mais ne prenait en charge qu’une partie
dérisoire de ses frais de fonctionnement et des coûts nécessaires pour la
mise en œuvre de ce programme. Cela s’explique par le fait que les
donateurs définissent généralement les taux de frais de gestion de manière
arbitraire, en limitant drastiquement le montant de ces coûts indirects à 10 à
15 % de leurs financements alors qu’ils représentent en réalité 40 à 60 % de
la facture globale pour la plupart des projets.
Les consultants de ce cabinet ont identifié cette problématique et ont cru
que le défi stratégique consistait à trouver la manière dont on pouvait
convaincre les bailleurs de fonds d’augmenter le pourcentage alloué aux
frais de gestion. Les consultants partaient du principe que les donateurs
voyaient les coûts indirects comme un mal nécessaire détournant une partie
des ressources destinées aux bénéficiaires finaux.
J’ai suggéré aux collaborateurs de ce cabinet de tester ce préjugé : plutôt
que d’avancer des arguments en faveur d’une meilleure prise en charge des
frais de gestion auprès des donateurs, leur demander en premier lieu leur
avis sur ces coûts. Leur réponse a surpris les consultants. Loin de vouloir
fermer les yeux sur cette contrainte financière des organismes concernés,
les bailleurs de fonds se sont au contraire indignés de leur propre rôle à cet
égard. C’est leur manque de confiance vis-à-vis de leurs bénéficiaires en
matière de gestion des coûts indirects qui leur posait problème. Une fois ce
malentendu dissipé, les collaborateurs ont rapidement mis au point un
éventail de solutions axées sur des procédures permettant de renforcer les
compétences des organismes à but non lucratif en matière de gestion afin de
mieux maîtriser les coûts et de gagner ainsi la confiance des investisseurs.
L’écoute et l’empathie à l’égard des parties prenantes semblent moins
rigoureuses ou scientifiques que l’analyse des données issues d’un sondage
officiel, mais elles sont considérées comme une méthode en pratique très
efficace pour recueillir des informations, notamment par les
anthropologues, ethnographes, sociologues, psychologues et autres
chercheurs en sciences sociales. De nombreux dirigeants d’entreprises, en
particulier ceux qui appliquent la « pensée design »4 et
d’autres approches de l’innovation centrées sur l’utilisateur, reconnaissent
l’importance de l’observation et de la recherche qualitative pour
comprendre le comportement humain. Dans le cas de Lego, les
interrogations de départ de M. Knudstorp concernant les stéréotypes de
genre ont incité à mener une étude ethnographique qui a duré quatre ans et a
conclu que les filles étaient globalement plus attirées par les jeux
coopératifs que les garçons. Un jeu de construction collectif était donc
susceptible de leur plaire.
Outil puissant, la recherche ethnographique ne constitue toutefois qu’un
point de départ pour la création d’un nouveau modèle. En définitive, il vous
appartient de jeter les bases des différentes options possibles et de susciter
l’adhésion de vos interlocuteurs. À cette fin, vous devez proposer un
nouveau scénario qui permettra de sortir d’un cadre devenu étriqué. Le
processus de création de scénario obéit toutefois à des principes totalement
différents de ceux qui régissent les sciences naturelles : ces dernières
expliquent le monde tel qu’il est, alors qu’une histoire peut décrire un
monde qui n’existe pas encore.
Construisez un récit convaincant

Bien que cela puisse sembler surprenant, Aristote, ce grand philosophe à


l’origine de l’approche scientifique, a également mis au point des méthodes
pour créer des récits captivants. Dans La Rhétorique, il décrit les trois
piliers de la persuasion.
L’ethos : le caractère de l’orateur et sa volonté de changer la situation
existante. Pour être efficace, l’auteur du récit doit faire preuve de
crédibilité et d’authenticité.
Le logos : la structure logique de l’argument. Pour la construire, il faut
fournir des arguments solides afin d’inciter à transformer les
problèmes en possibilités, les possibilités en projets et les projets en
actions.
Le pathos : la capacité d’empathie. Pour être en mesure de susciter
une forte mobilisation, le narrateur doit comprendre son public.

Une fusion à plusieurs milliards de dollars entre deux importantes


compagnies d’assurance nous offre un exemple d’utilisation de ces trois
éléments. Cette transaction entre deux concurrents de longue date a généré
des gagnants et des perdants, provoquant nervosité et agitation à tous les
niveaux de la nouvelle entité. Pour compliquer encore la situation, les deux
compagnies s’étaient développées par acquisition. Ce rapprochement
impliquait donc en pratique 20 ou 30 cultures d’entreprise différentes. Les
petits groupes hérités de ces développements jouissaient d’une certaine
indépendance et pouvaient résister aux efforts d’intégration nécessaires
pour dégager les synergies attendues. De plus, la crise financière mondiale a
éclaté juste après la fusion, entraînant une baisse du secteur de 8 %. Les
dirigeants de la nouvelle entité étaient ainsi confrontés au double défi d’un
marché en déclin et de réticences liées à la culture organisationnelle.
Rationnelle et réductrice, l’approche classique d’une intégration post-
fusion consiste à analyser les structures de coût existantes de chaque
organisation, puis à les combiner en les optimisant, ce qui entraîne des
licenciements pour supprimer les « doublons ». Cependant, le dirigeant de
la nouvelle entité a souhaité sortir des sentiers battus afin de bâtir une
nouvelle organisation à partir de zéro. Il a construit l’ethos en donnant à
tous ses salariés un objectif plus grand et plus valorisant qu’une intégration
post-fusion classique.
Néanmoins, il lui manquait le logos, une argumentation solide et
convaincante pour un avenir différent. Il a utilisé la métaphore d’une ville
florissante : à l’instar d’une cité, la nouvelle entreprise se développerait
comme un écosystème diversifié, de manière à la fois planifiée et
spontanée. Chacun aurait son rôle à jouer dans cette croissance. Ce
raisonnement a suffisamment stimulé l’imagination des salariés pour qu’ils
s’attèlent à la tâche de façon créative tant pour eux-mêmes que pour leurs
services au sein de l’entreprise.
Cette initiative devait également faire appel au pathos, à savoir créer un
lien affectif pour que les employés s’engagent à bâtir l’avenir ensemble.
Afin de les mobiliser, la direction du groupe a adopté une approche
novatrice en matière de communication. En général, les cadres annoncent le
programme d’intégration post-fusion à l’aide de discours, de présentations
et de courriels, autant de messages dont les salariés sont de simples
destinataires. Au lieu de cela, les responsables ont mis en place une série de
séances de travail collaboratif au cours desquelles les différentes unités de
l’entreprise se sont entretenues sur la dynamique de la ville florissante,
exploitant cette métaphore pour explorer les défis et concevoir de nouveaux
modes de travail au sein de leur périmètre d’activité. Comment évoluerait le
service « sinistres » au sein de cette ville ? Et le service financier ? En
réalité, les employés étaient en train de créer leurs propres scénarios,
imbriqués dans celui plus vaste construit par les dirigeants. Une telle
démarche était audacieuse, car tout à fait inhabituelle et ludique pour une
organisation aussi importante dans un secteur réputé conservateur.
Cette approche a rencontré un franc succès. Au cours des six mois qui
ont suivi, l’engagement des salariés a évolué d’un taux médiocre (48 %) à
un taux spectaculaire (90 %). Cela s’est traduit en résultats : alors que le
secteur était en difficulté, l’entreprise a augmenté son activité de 8 % et son
indice de satisfaction client a enregistré une forte progression avec une note
moyenne passée de six à neuf (sur une échelle de un à dix).
Cet exemple nous montre l’importance d’un autre procédé rhétorique :
une métaphore éloquente qui résume la trame de votre récit en une phrase.
Habilement formulée, elle renforce chacun des trois éléments de la
persuasion : elle rend votre argument logique – le logos – plus convaincant ;
accentue le pathos permettant de toucher le public ; enfin, un argument qui
convainc et qui motive renforce l’autorité morale et la crédibilité – l’ethos –
du dirigeant.

Trouvez la bonne métaphore

Tout le monde sait que les bonnes histoires s’articulent sur des métaphores
saisissantes. Comme l’écrivait Aristote lui-même, « nous connaissons [le
sens] des mots vulgaires. C’est donc surtout la métaphore qui nous apprend
quelque chose [de nouveau] »5. En réalité, il était convaincu que la maîtrise
de la métaphore était la clé du succès rhétorique. « C’est un plus grand
[talent] encore de savoir employer la métaphore. […] C’est la production du
génie »6, a-t-il écrit.
Il peut sembler ironique que cette proposition portant sur une théorie
non scientifique ait été scientifiquement démontrée. Des recherches en
sciences cognitives ont prouvé que la synthèse créative avait pour principal
moteur la fluidité d’association, c’est-à-dire la faculté mentale de connecter
deux concepts habituellement non liés afin de forger une idée nouvelle. Plus
ces concepts sont éloignés, plus l’association créative est puissante, et l’idée
qui en résulte, novatrice.
Une métaphore inédite permet de comparer deux éléments
habituellement indépendants. Par exemple, quand Hamlet déclare à
Rosencrantz « le Danemark est une prison »7, il associe deux éléments de
manière inattendue. Rosencrantz sait ce que signifie « Danemark » et ce
qu’est une « prison », mais Hamlet lui présente un nouveau concept qui ne
correspond ni au Danemark tel qu’il le connaît, ni à la prison telle qu’il
l’imagine. Ce troisième élément engendre une idée nouvelle, synthèse
créative produite par cette combinaison insolite.
Assembler deux notions éloignées aboutit souvent à la conception de
produits innovants. Le célèbre inventeur du revolver, Samuel Colt, a mis au
point le mécanisme d’action du barillet après avoir travaillé sur un navire
dans sa jeunesse, fasciné par la barre à roue du bateau que l’on pouvait faire
tourner ou bloquer à l’aide d’un système de taquet. Un ingénieur suisse a
créé la fermeture autoagrippante Velcro (constituée de deux bandes, l’une
recouverte de petits crochets et l’autre de fines boucles) après une
promenade en montagne au cours de laquelle il avait remarqué
l’extraordinaire pouvoir adhésif des bardanes qui restaient accrochées à ses
vêtements.
De plus, la métaphore favorise l’adoption d’une innovation en
simplifiant la compréhension et l’identification du nouveau produit par le
consommateur. Par exemple, l’automobile était initialement décrite comme
une « voiture sans chevaux » et la motocyclette présentée comme une «
bicyclette avec un moteur ». Quant au snowboard, il s’agissait d’une «
planche de surf pour la neige ». La toute première étape dans l’histoire du
smartphone, objet désormais omniprésent et indispensable, a été le
lancement en 1999 du BlackBerry 850 par la société Research in Motion.
Ce produit était alors vendu comme un pager qui permettait également de
recevoir et d’envoyer des courriels, une transposition rassurante pour les
premiers utilisateurs.
En comparaison, il suffit de constater l’échec du Segway pour
comprendre qu’il est bien plus difficile de construire un récit convaincant
sans avoir recours à une métaphore parlante. Développé par l’inventeur
brillant Dean Kamen et présenté comme révolutionnaire, cet appareil a été
financé par des centaines de millions de dollars en capital-risque.
Cependant, quasiment personne n’utilise ce véhicule qui recourt pourtant à
des technologies de pointe.
De nombreux facteurs peuvent expliquer ce fiasco, tels que le niveau de
prix élevé ou encore les exigences réglementaires, mais d’après moi, l’une
des raisons clés est que ces gyropodes ne ressemblent à aucun autre
équipement. Il s’agit d’une petite plateforme munie de roues parallèles, sur
laquelle l’utilisateur se tient debout et pratiquement immobile tandis qu’elle
avance. Les consommateurs ne pouvaient pas établir une analogie avec
d’autres objets de leur environnement. Il n’est possible ni de s’y asseoir
comme dans une voiture, ni de pédaler comme à vélo, ni de diriger le
véhicule à l’aide d’un guidon comme sur une motocyclette. Rappelez-vous
de la dernière fois où vous avez vu un Segway dans la rue : vous avez
probablement pensé que le conducteur devait être un amateur de gadgets et
qu’il avait l’air ridicule perché sur cet engin. Nous ne nous attachons pas à
ce produit, car il n’y a aucune expérience positive à laquelle nous puissions
le comparer. Il n’est pas question ici d’affirmer qu’il est impossible de se
passer de métaphore pour développer un argument aristotélicien. C’est
possible, mais bien plus délicat. C’est pourquoi une voiture sans chevaux
est plus facile à vendre qu’un Segway.

Faites votre choix

Lorsque vous faites face à une infinité de possibilités et devez prendre une
décision, il est judicieux d’élaborer trois ou quatre récits convaincants, dont
chacun sera porté par une métaphore saisissante, puis de les soumettre à un
processus de test qui vous aidera à établir un consensus autour de la
meilleure idée. Qu’est-ce que cela implique ?
Dans le monde de l’impossible, les tests consistent à accéder aux
données puis à les examiner avec attention. Parfois, il s’agit simplement de
rechercher les données disponibles, par exemple dans un tableau figurant
dans une base de données du Bureau of Labor Statistics américain8. En
d’autres occasions, il est nécessaire de fournir davantage d’efforts pour les
trouver, au moyen d’un sondage par exemple. Vous pouvez également être
amené à appliquer des tests statistiques reconnus afin de déterminer si les
données collectées confirment ou infirment l’hypothèse étudiée (par
exemple, les consommateurs préfèrent une plus longue durée de vie du
produit à un nombre supérieur de fonctionnalités).
En revanche, dans le monde du possible, dans lequel nous cherchons à
concevoir un produit nouveau, nous ne disposons pas de données à analyser
et devons donc les créer en expérimentant avec des prototypes. Cette
méthode consiste à fournir aux utilisateurs un produit qu’ils découvrent
pour la première fois, puis à observer et enregistrer leurs réactions. S’ils ne
réagissent pas comme prévu, il faudra creuser davantage pour comprendre
comment améliorer le prototype, puis répéter le processus jusqu’à obtenir la
confirmation qu’il fonctionne.
Bien entendu, certaines conceptions sont tout simplement mauvaises.
C’est pourquoi il est important d’alimenter différents récits. Si, pour chaque
scénario, vous élaborez une représentation claire de ce qui devrait être vrai
et conduisez des phases de prototypage, un consensus s’établira autour du
récit le plus convaincant en pratique. En outre, impliquer l’équipe dans ce
processus l’aidera à mieux prendre en charge la réalisation du récit
sélectionné.

•••

La science de l’analyse de données a rendu le monde meilleur, mais cela ne


signifie pas pour autant qu’elle devrait guider toutes les décisions
stratégiques. Lorsque nous sommes confrontés à une situation dans laquelle
les choses ne peuvent être autres qu’elles ne sont, nous pouvons et devons
utiliser la méthode scientifique pour comprendre ce monde immuable de
manière plus approfondie et plus rapide que n’importe lequel de nos
concurrents. Dans ce contexte, le développement d’une analyse de données
plus sophistiquée et l’enthousiasme à l’égard des mégadonnées sont des
atouts non négligeables.
Alors que si nous faisons appel à la science dans des situations où
certaines choses peuvent être modifiées, nous nous convainquons
involontairement que le changement est impossible, laissant ainsi le champ
libre à d’autres, qui inventeront un meilleur concept. Incrédules, nous les
observerons alors en pensant qu’il s’agit d’une anomalie vouée à
disparaître. Et quand nous prendrons conscience qu’un intrus a réussi à
prouver à nos anciens clients qu’une alternative existe, il sera déjà bien trop
tard. C’est le prix à payer dès lors qu’on applique l’analyse de données au
monde des affaires aveuglément au lieu de l’utiliser à bon escient.9

1 NdT : citation extraite de La Métaphysique d’Aristote (Livre V, 5, 1015a-1015b).


2 NdT : citation extraite de La Rhétorique d’Aristote (Livre I, 2, XIV).
3 NdT : le cycle de privation désigne un phénomène dans lequel les organismes à but non
lucratif sous-investissent continuellement dans leur structure organisationnelle afin de
satisfaire les attentes externes de faibles dépenses à titre de frais de gestion.
4 NdT : appelée également « design thinking », c’est une approche née dans les années 1970
aux États-Unis et issue de plusieurs courants de pensée en management, qui consiste à
appliquer la façon de penser et les méthodes de travail propres aux designers afin de favoriser
l’innovation et la créativité en entreprise.
5 NdT : citation extraite de La Rhétorique d’Aristote : traduite en français, avec le texte en
regard, et suivie de notes philologiques et littéraires par Norbert Bonafous, 1856. Livre
troisième, chapitre X, p. 335.
6 NdT : citation extraite de La Poétique d’Aristote (Nouvelle éd. revue et corrigée). Traduction
française par Ch. Batteux. 1875. Chapitre XXII, p. 37.
7 NdT : citation extraite des Œuvres complètes de Shakespeare, tome I, traduit en 1821 par
François Guizot.
8 NdT : bureau de données statistiques relatives à l’emploi et à l’économie aux États-Unis,
équivalent de l’INSEE en France.
Ce chapitre est adapté de l’article coécrit par Roger L. Martin et Tony Golsby-Smith, «
Management Is Much More Than a Science », Harvard Business Review, septembre-octobre
2017.
Partie 3
L’organisation du
travail
Chapitre 6

La culture d’entreprise

C’est uniquement en agissant sur les interactions entre


collaborateurs qu’il est possible de changer la culture d’une
entreprise.

La meilleure description du rôle et de l’importance de la culture


organisationnelle se trouve dans la synthèse des propos de deux des plus
grands spécialistes du management au monde. Selon Peter Drucker, « la
culture, quelle que soit la façon de la définir, est particulièrement tenace »
(la phrase qui lui est habituellement attribuée disant que « la culture mange
de la stratégie au petit déjeuner » est une pure invention). Puis il y a Edgar
Schein, professeur à la MIT Sloan, qui estime que « la culture détermine et
limite la stratégie ». Par conséquent, toute stratégie qui ne s’appuie pas sur
la culture organisationnelle en place est, de toute évidence, vouée à l’échec,
à moins que la culture ne puisse être changée. Cela représente un défi
colossal.
Alors, qu’est-ce que la culture organisationnelle, pourquoi est-elle si
tenace et en quoi limite-t-elle la stratégie ?
Il existe autant de définitions de la culture d’entreprise que de celles de
la stratégie, mais je la considère avant tout comme un ensemble de normes
installé dans l’esprit des collaborateurs, qui les guide dans l’interprétation
de situations et de décisions variées. La culture offre à un manager un
moyen de comprendre « comment les choses se passent ici », « ce qu’il faut
faire dans une telle situation » et « à qui prêter attention ». Les règles qui
forgent la culture d’entreprise se construisent à partir d’appréciations par
chaque individu de l’attitude et des propos de son entourage professionnel
face à des circonstances ou des décisions particulières, surtout dans des
situations aux conséquences extrêmes ou ayant un impact significatif sur les
personnes concernées, même si ces décisions ou événements sont de nature
exceptionnelle.
La force de la culture organisationnelle est déterminée par le degré de
similitude entre ces normes informelles au sein du personnel. Dans une
culture faible ou non partagée, elles varient d’une personne à l’autre, de
sorte que les interprétations d’une situation ou d’une décision donnée seront
différentes ou divergentes, alors que dans une culture forte, toutes les
personnes suivent des règles implicites très similaires et, de ce fait, adoptent
la même attitude.
Lorsqu’une nouvelle stratégie nécessite de changer de comportement et
de valeurs, une culture forte fait obstacle à ces changements parce que
toutes les réactions des collaborateurs continueront instinctivement à être
guidées par ces règles implicites. Par exemple, si une nouvelle stratégie
prévoit de personnaliser la prestation de service, mais qu’un service
standard est impérativement imposé par la culture d’entreprise, le client
recevra ce service standard.
Les PDG reconnaissent qu’un changement d’orientation stratégique,
quel qu’il soit, entraîne inévitablement une transformation culturelle de
l’organisation. Or la plupart de leurs démarches dans ce sens échouent,
faute d’avoir intégré de façon adéquate une réalité fondamentale en matière
de culture : c’est uniquement en agissant sur les interactions entre
collaborateurs que vous pourrez changer la culture de votre entreprise.
Dans les pages qui suivent, j’expliquerai pourquoi le changement
culturel ne peut s’opérer que par petites touches, en agissant sur la manière
de structurer et de préparer les réunions, de faire évoluer les interactions
entre collaborateurs et d’instaurer un dialogue constructif. Je décrirai ce à
quoi ressemblent ces changements et démontrerai leur capacité à
transformer en profondeur la manière de travailler ensemble qui, à son tour,
modifie les règles sur « comment les choses se passent ici », « ce qu’il faut
faire dans une telle situation » et ce « à qui ou à quoi il faut faire attention ».
À partir de ma propre expérience dans la conduite du changement culturel,
je montrerai que des altérations légères du fonctionnement, minimes et
indolores, ont une incroyable capacité à métamorphoser la culture d’une
organisation.
Commençons par examiner le rôle de la culture par rapport aux autres
facteurs du comportement organisationnel.
Les mécanismes du pilotage organisationnel

Ma philosophie du changement culturel repose sur la notion de mécanismes


de pilotage organisationnel – que j’ai présentée pour la première fois dans
un article de la HBR consacré à la mentalité d’une entreprise et intitulé «
Changing the Mind of the Corporation », il y a près de trente ans. Ces
mécanismes, qui agencent et canalisent les opérations et les actions d’une
entreprise, se répartissent en trois catégories :
1. Mécanismes formels. Il s’agit notamment des structures, des
procédures et des systèmes organisationnels qui sont conçus pour aider
l’entreprise à atteindre ses objectifs. Ils résultent de décisions
conscientes imposées aux collaborateurs de l’organisation. On parle ici
de la structure hiérarchique de l’entreprise, de la politique de
rémunération et du processus budgétaire.
2. Mécanismes interpersonnels. Ces mécanismes façonnent et régissent la
manière dont les collaborateurs interagissent en direct. Ils dépendent du
profil psychologique des personnes et varient de façon considérable. Par
exemple, une personne préfère-t-elle discuter ouvertement d’un conflit
ou, au contraire, éviter le sujet ?
3. Mécanismes culturels. Il s’agit de normes évoquées précédemment, qui
s’inscrivent dans un ensemble de règles informelles communes, grâce
auxquelles les personnes interprètent des décisions dans un contexte
donné et déterminent la façon d’y répondre. Chaque organisation
dispose de mécanismes culturels, lesquels, dans la plupart des cas, se
matérialisent de manière spontanée et ne sont généralement pas
documentés.

Comme le montre la figure 6.1, les trois catégories de mécanismes


s’inscrivent dans un système interdépendant.
FIGURE 6.1 Mécanismes de pilotage organisationnel
Source : Je remercie Diana Smith, une camarade avec laquelle j’ai suivi les cours du
théoricien du management et père fondateur de l’apprentissage organisationnel Chris
Argyris, d’avoir contribué à ma compréhension du fonctionnement systémique des
mécanismes de pilotage, comme le montre cette figure.

Prenons, par exemple, la structure hiérarchique typique de deux services


indépendants de vente et de marketing, placés chacun sous la responsabilité
d’un vice-président senior ou d’un vice-président exécutif qui, à son tour,
rend compte de ses activités directement au PDG ou au directeur des
opérations. Une telle structure génère fréquemment des conflits
interpersonnels (cf. figure ci-dessus, la flèche allant du formel à
l’interpersonnel) entre les équipes de ventes et les spécialistes du marketing.
Les vendeurs assurent que les marketeurs émettent des idées extravagantes,
et ces derniers prétendent que les vendeurs ne veulent travailler qu’avec des
produits qui se vendent facilement. Si le conflit s’envenime, les dirigeants
de l’organisation peuvent tenter une solution formelle (la flèche de
l’interpersonnel vers le formel), généralement en réunissant les deux
services en une seule fonction de marketing et de vente. Ainsi, les
mécanismes formels et les mécanismes interpersonnels s’influencent
mutuellement.
Les conflits interpersonnels entre vendeurs et marketeurs jouent
également sur les mécanismes culturels. Quand un marketeur vient voir les
vendeurs avec une idée, la règle implicite du vendeur stipule : « Repoussez
l’idée avec vigueur, car le marketing ne se rend jamais compte de ce qui
peut réellement être vendu. » Et lorsque de nouveaux vendeurs sont
embauchés, on leur conseille de se méfier des spécialistes du marketing.
Cela se répercute ensuite dans le domaine interpersonnel, où les
conversations sont susceptibles d’être plus conflictuelles, puisque la culture
renforce ce comportement caractéristique. Ainsi, les mécanismes de
pilotage fonctionnent comme un système avec des boucles de rétroaction
entre le formel et l’interpersonnel et entre l’interpersonnel et le culturel. Au
fur et à mesure que le temps passe et que l’entreprise croît, la rétroaction
constante entre les mécanismes les renforce, rendant ainsi le changement au
niveau organisationnel de plus en plus ardu.
Toute tentative de changement implique donc nécessairement une
modification de ces mécanismes de pilotage. Pour les PDG qui ont besoin
d’un changement organisationnel afin d’exécuter leur stratégie, il est
particulièrement judicieux de commencer par les mécanismes formels
(organigramme, mesures incitatives, etc.), en partie car il s’agit de
dispositifs qu’ils peuvent facilement contrôler, mais aussi parce qu’un
changement d’orientation politique peut requérir une modification des
droits et des responsabilités en matière de décision. Et comme il peut être
difficile pour les collaborateurs de s’adapter à de nouveaux mécanismes
formels, les PDG reconnaissent que les attitudes à l’égard de ces
changements, déterminées par la culture de l’entreprise, doivent également
évoluer en vue de s’aligner sur le nouveau dispositif mis en place. C’est là,
précisément, que les problèmes commencent, car la culture ne peut pas être
modifiée de manière frontale.
Contournez la résistance au changement

La culture émerge des interactions qui se produisent entre les


comportements individuels (niveau interpersonnel) et l’environnement
(niveau formel), un peu à la manière d’un réseau neuronal. C’est pourquoi il
est difficile d’exiger le changement culturel d’une organisation de manière
autoritaire – les PDG qui s’y essaient perdent généralement leur emploi. Le
cas de Camillo Pane en est la preuve. En prenant la direction de Coty Inc.
en 2016, il déclara publiquement que le géant des parfums et des
cosmétiques en difficulté devait commencer à « agir comme une start-up »
en adoptant « une mentalité de challengeur ». Malgré cette volonté affichée,
rien dans la culture ou dans les performances de Coty n’a changé au cours
des deux années qui ont suivi sa nomination, avant son licenciement en
novembre 2018.
Pour que la culture d’une organisation puisse s’ajuster aux changements
au niveau formel, il convient d’influer sur la manière d’interagir de ses
membres. Par exemple, une tentative de fusion du service des ventes avec
celui du marketing sur le plan formel ne fera qu’accroître la suspicion
mutuelle entre les membres respectifs des équipes, à moins que les normes
dans leurs interactions et attitudes, au niveau culturel, ne changent afin de
les rendre plus coopératifs. À défaut, les réactions résultant de la dynamique
des relations interpersonnelles et les normes culturelles en place se
combineront pour créer un blocage de la nouvelle structure
organisationnelle, obligeant ainsi l’entreprise à abandonner sa tentative de
changement.
L’échec de Nokia dans ce domaine constitue un exemple classique. Au
début des années 2000, Nokia était le premier fournisseur de téléphones
mobiles dans le monde, détenant plus du double de la part de marché de son
concurrent le plus direct. Cependant, avec l’avènement du smartphone,
BlackBerry a changé la donne. Jorma Ollila, le PDG de Nokia, était
conscient que sa société devait devenir plus entreprenante pour pouvoir
prospérer face au bouleversement annoncé, car d’autres grands acteurs du
secteur allaient inévitablement entrer en scène (Apple, Google et Samsung
n’ont, bien sûr, pas tardé à le faire). Il a donc engagé une restructuration
majeure de son entreprise en 2004. Il pensait qu’avec une bonne structure et
des mesures incitatives appropriées, les comportements individuels
évolueraient, faisant ainsi émerger une culture nouvelle. Au lieu de cela, les
employés de Nokia ont continué à se comporter et à interagir selon leurs
règles habituelles, tout en étant récompensés pour cela à leur niveau local,
puisque leurs supérieurs directs partageaient les mêmes règles culturelles et
agissaient en conséquence vis-à-vis de leurs subalternes. Ainsi, leur crainte
collective de l’échec se traduisait par la réticence des managers à prendre
des risques en raison des critiques émises par leurs supérieurs quant aux
dépenses engagées pour des projets qui avaient échoué en définitive : une
situation peu propice au développement d’un esprit entrepreneurial. Le
temps que cela transparaisse, le mal était fait. Comme M. Ollila le reconnaît
dans sa propre biographie : « Nous savions [en 2004] ce qui se passait, mais
notre erreur a été de ne pas avoir su réagir. » Évaluée autrefois à 300
milliards de dollars, Nokia a vendu son activité de téléphonie mobile pour
7,2 milliards de dollars en 2013 à Microsoft, qui l’a retirée du bilan puis
revendue à d’anciens employés de Nokia pour 350 millions de dollars en
2016. L’inaptitude de l’entreprise à améliorer sa culture lui a coûté très cher.
Alors, que doivent faire les PDG dans une telle situation ?
Changez la culture en douceur

La leçon à tirer d’expériences comme celle de Nokia est que les échanges
interpersonnels jouent un rôle central dans l’ajustement des mécanismes
culturels et formels. La culture ne change que si suffisamment de personnes
adoptent un comportement différent et que la nouvelle norme se trouve
intégrée. Certains changements peuvent paraître dérisoires, mais le simple
fait de réunir des participants lors d’une séance de brainstorming autour
d’une table ronde plutôt que rectangulaire est susceptible d’avoir un impact
positif sur la volonté des personnes de s’exprimer, en particulier les
collaborateurs les moins expérimentés qui ont peut-être plus l’habitude des
pressions concurrentielles en première ligne. Voyons maintenant quelques
exemples spécifiques de changements auxquels j’ai pu contribuer en
matière de relations interpersonnelles.

Préférez des échanges directs aux Power Point

Devenu PDG de Procter & Gamble en 2000, Alan G. Lafley a souhaité


s’attaquer à la culture bureaucratique qui s’était développée autour du
processus stratégique de l’entreprise. Ce dernier reposait sur un examen de
la stratégie de chaque branche par le PDG et les responsables des services
internes. Les attitudes des collaborateurs à l’égard de cet échange pouvaient
être résumées par l’expression « je ne fais que passer ». Une réunion était
considérée comme réussie si les présidents des unités opérationnelles en
ressortaient avec le moins de modifications possibles dans leurs
propositions.
Pour ce faire, les cadres arrivaient à la réunion armés d’une présentation
PowerPoint « blindée » et de dizaines de « fiches thématiques » contenant
des réponses à absolument toutes les questions qui pouvaient leur être
posées. Ces fiches, quel que soit leur nombre, étaient essentielles à la
réussite de l’équipe chargée de la présentation. Ce gigantesque exercice
d’anticipation demandait plusieurs semaines de travail aux équipes pour
préparer leur matériel de présentation. Au cours de la réunion, les présidents
des unités opérationnelles expliquaient le contenu de chaque diapositive
dans les moindres détails et répondaient aux questions de manière
exhaustive en développant longuement l’argumentaire de la fiche
thématique correspondante. Ces réunions pouvaient prendre une journée
entière.
Après avoir mené, à la demande de M. Lafley, une série d’entretiens
avec les présentateurs et les examinateurs, j’ai constaté que chaque partie
imaginait que l’autre trouvait cette procédure utile, mais qu’en réalité, elle
était loin de satisfaire qui que ce soit. Dans une illustration quasiment
parfaite du paradoxe d’Abilene (selon lequel les membres d’une famille
acceptent de faire 80 km pour aller dîner à Abilene, au Texas, bien
qu’aucun d’entre eux ne voit un quelconque intérêt à s’y rendre, car chacun
pense être le seul dans ce cas), les examinateurs avaient trouvé les réunions
à la fois désagréables et inutiles, mais croyaient que les présentateurs
tiraient profit de tout ce travail préparatoire.
Les présentateurs quant à eux trouvaient ces rendez-vous tout aussi
désagréables et inutiles, mais supposaient que cette pratique était précieuse
pour les examinateurs.
Alan G. Lafley et moi-même avons décidé que, pour faire évoluer la
dynamique de ces entretiens, nous devions mettre fin aux présentations
interminables des diaporamas et fiches thématiques. Sans exiger des
intéressés de revoir les supports, la durée ou la longueur de la présentation
dès la session d’automne 2021, nous leur avons simplement demandé de
nous faire parvenir leur diaporama une semaine avant. Ensuite, nous leur
avons adressé au préalable une sélection de sujets (limités à trois) que nous
souhaitions aborder lors de l’entretien, en leur précisant qu’aucune
préparation complémentaire n’était nécessaire. Comme nous ne voulions
pas nous retrouver face à un tout nouveau diaporama exhaustif axé sur les
points soulevés, nous avons insisté pour qu’ils n’apportent pas plus de trois
feuilles supplémentaires à la réunion.
Les équipes ont fait de leur mieux pour contrecarrer nos plans. Certaines
d’entre elles nous ont suppliés de les laisser présenter leur diaporama en
l’état. Beaucoup ont rassemblé sur les trois nouvelles pages autant
d’informations qu’ils pouvaient en taille de police huit, offrant des «
solutions » complètes aux problématiques que nous avions posées. Nous
avons toutefois insisté pour qu’il n’y ait pas de diaporamas et n’avons
manifesté aucun intérêt pour les réponses présentées dans ce format, en
demandant simplement d’avoir une discussion approfondie sur les sujets
stratégiques qui étaient vraiment importants pour l’activité en question.
Chaque réunion était difficile tant pour M. Lafley que pour son équipe qui a
dû lutter contre les présidents des unités opérationnelles pour ramener la
discussion à un format praticable. Mais certains ayant fait preuve de bonne
volonté nous ont permis de découvrir quelques idées auxquelles nous ne
nous attendions pas.
Il a fallu environ quatre ans pour que les unités opérationnelles
s’adaptent pleinement aux souhaits de M. Lafley, qui aspirait simplement à
une discussion nourrie sur la stratégie en vue d’explorer des idées
différentes : de nouvelles façons d’être compétitifs, de nouvelles voies de
croissance, des menaces existentielles. Il s’est assuré que les meilleures
têtes pensantes de l’entreprise se rencontrent pour un moment d’échange et
de partage au lieu de participer à un simulacre de concertation. Les normes
et les habitudes tacitement admises, relatives à l’élaboration de la stratégie,
ont changé en temps voulu pour soutenir pleinement un exercice de
réflexion productive qui reste d’actualité encore aujourd’hui.

Renforcez l’esprit d’équipe

Amcor, dont le siège est à Zurich, est la cinquième entreprise d’emballage


au monde. Chaque année, elle envoie une dizaine de cadres supérieurs, qui
dépendent directement de la direction mondiale du groupe (DM), afin de
suivre un programme de perfectionnement des cadres (PPC). Au cours de la
session 2020, j’ai travaillé avec l’équipe d’Amcor sur la conception et la
supervision du PPC à l’occasion d’un projet visant à transformer la culture
organisationnelle qui affecte la création de la stratégie.
Le programme repose principalement sur l’initiative stratégique
individuelle (IS) et dure six mois, pendant lesquels chaque participant
travaille sur une question, un enjeu ou une problématique stratégique réelle
de son entreprise, que la DM considère comme prioritaire dans le cadre des
activités professionnelles du participant. Ce dernier, au terme de ce
parcours, présente à son supérieur hiérarchique dans la DM les résultats de
son travail réalisé dans le cadre de son IS et soumet des recommandations
d’actions à mener. L’objectif implicite des participants des années
précédentes consistait à présenter leur IS aussi clairement que possible, et le
rôle de la plupart des examinateurs de la DM se résumait à critiquer la
présentation dans une approche scolaire. En fait, ce qui aurait dû être une
discussion ouverte sur la stratégie se transformait en une évaluation des
performances du participant.
Pour faire évoluer les usages liés à ce programme, nous avons créé
quatre sous-groupes de trois participants qui se rencontraient une fois par
mois afin que chacun aide ses deux condisciples à développer leur IS
respectives. Cette déviation minime du schéma habituel a eu des
conséquences significatives, car elle a donné aux participants la possibilité
de débattre de leur travail encore inachevé. Indépendamment de la qualité
de leurs idées, le fait de les partager leur permettait d’obtenir des conseils
judicieux. De plus, les contributeurs ne pensaient pas à corriger ou à
critiquer leur collègue, mais plutôt à commenter ses propositions de
manière pertinente et constructive.
Pour les quelques réunions précédant le contrôle final du programme par
la DM, nous avons fusionné les quatre sous-groupes de trois personnes pour
former deux groupes de six, afin que chacun puisse bénéficier de l’aide de
trois collègues supplémentaires pour lesquels le sujet était nouveau. Une
fois de plus, la consigne consistait à échanger des recommandations sur la
façon d’améliorer encore la stratégie de chaque membre du groupe. Lors de
la dernière étape, j’ai donné à tous, y compris au responsable de la DM, des
instructions claires et identiques : axer la conversation sur la façon de
stimuler l’IS plutôt que d’évaluer les résultats du travail du cadre
participant.
Il est trop tôt pour affirmer que ces mesures ont déclenché des
changements structurels, mais je suis optimiste, en partie parce que nous
venons de terminer le programme de stage 2021 avec un succès encore plus
grand. Les participants et leur direction s’accordent à dire que la qualité des
présentations relatives à l’IS s’est améliorée grâce aux réunions
supplémentaires axées sur le soutien par les pairs. Tous témoignent de la
richesse des discussions, dont la portée est plus large, ce qui fait apparaître
que l’exercice de développement de l’IS ressemble moins à une évaluation
classique en raison des améliorations en matière d’échanges interpersonnels
apportées dans le cadre de cette procédure.

Créez des échanges constructifs

Je suis intervenu en tant que consultant auprès d’une société figurant dans
le top 25 du classement de Fortune. Les relations entre son équipe de
direction et son conseil d’administration semblaient être sur la mauvaise
pente : le conseil remettait en question toutes les idées de l’équipe
dirigeante et exprimait ses réserves à chaque bonne nouvelle. Les dirigeants
venaient aux réunions comme on marche sur des œufs et, à chaque
mésentente, la déception grandissait des deux côtés rendant l’échange
suivant encore plus difficile. Les deux parties ont essayé quelques solutions
formelles comme des ordres du jour plus courts, plus de temps alloué aux
questions-réponses et des dossiers d’information plus complets. Sans
succès. Le président a demandé aux administrateurs d’adopter une culture
plus positive, mais cela n’a fait que susciter un sentiment général de colère
contre lui.
Le problème semblait avoir pour origine la culture d’opposition, « nous
contre eux », dans laquelle (comme avec les présidents d’unité chez P&G et
les participants du programme de perfectionnement des cadres chez Amcor)
une partie est venue offrir quelque chose à l’autre partie, qui se sentait
obligée de noter les performances plutôt que d’échanger des idées et des
points de vue. Les cadres dirigeants faisaient des présentations conçues
pour être aussi parfaites et complètes que possible et attendaient en retour
que le conseil d’administration les félicite pour leur prestation. Pendant ce
temps, les membres du conseil d’administration cherchaient désespérément
des moyens de contribuer à un sujet qu’ils connaissaient assez peu ; ils
finissaient donc inévitablement par relever des contradictions et des failles
dans le raisonnement, passant ainsi pour des pinailleurs.
J’ai recommandé à l’équipe de direction d’investir moins d’efforts pour
essayer d’impressionner le conseil d’administration dans son ensemble et de
penser plutôt à amener ses membres à partager leurs connaissances et les
idées issues de leurs propres expériences. L’entreprise étant confrontée à
une sorte de révolution technologique, j’ai encouragé les membres du
conseil à prendre le temps d’exposer leurs premières réflexions sur la
manière de réagir à un tel bouleversement. Puis le PDG a posé aux
membres du conseil d’administration la question suivante : « Sur la base de
vos expériences dans de nombreux secteurs, quels sont, selon vous, les
moyens les plus efficaces de se préparer à une perturbation majeure de ce
type pour être en mesure de la traverser ? Quels éléments avons-nous
éventuellement oubliés dans notre approche préliminaire ? »
Grâce à cette méthode, les membres du conseil d’administration
n’étaient plus dans la position inconfortable de devoir juger en quelque
sorte la performance de l’équipe de direction d’une entreprise qu’ils ne
connaissaient en réalité pas si bien. Désormais, ils allaient contribuer dans
leur domaine d’expertise. Plusieurs d’entre eux ont partagé leur expérience
vécue dans d’autres secteurs d’activité, que l’équipe de direction a aussitôt
trouvé précieuse sans avoir pu imaginer que raisonner par analogie aurait
ainsi pu leur être utile. Les membres du conseil d’administration se sont
engagés dans un dialogue avec les dirigeants de manière beaucoup plus
positive, en leur exprimant leur admiration quant à la qualité de leur
réflexion. Pour les cadres, qui craignaient de passer pour faibles et mal
préparés et qui avaient abordé les réunions avec beaucoup de
circonspection, la réaction des membres du conseil d’administration a été
une révélation.
Chaque intervention que je viens de décrire a transformé une partie des
règles implicites régissant une activité interne particulière des organisations
: l’évaluation des performances des unités chez P&G, le programme de
perfectionnement des cadres chez Amcor et les réunions du conseil
d’administration d’une société du haut du classement de Fortune. Tous ces
ajustements réalisés à un niveau spécifique se sont avérés importants et ont
entraîné des répercussions majeures au sein des entreprises concernées, sans
qu’il s’agisse de changements culturels à l’échelle de l’organisation tout
entière. Pour illustrer la manière dont de petites altérations dans la
préparation, la structure et le cadrage des échanges personnels ont
transformé la culture et la performance globales d’une organisation, je
m’appuierai sur ma propre expérience de changement de culture à la
Rotman School of Management de l’université de Toronto, dont j’ai été le
doyen de 1998 à 2013.
L’instauration d’une culture gagnante à la
Rotman School

Lorsque je suis arrivé à l’école de management Rotman de l’université de


Toronto au Canada, elle ne s’était toujours pas remise d’un conflit
embarrassant qui avait forcé le doyen précédent à démissionner et qui avait
divisé l’établissement en deux camps opposés. Selon le corps professoral, le
personnel, les étudiants et le public, la Rotman School était loin derrière la
Ivey Business School, qui dominait les écoles de commerce du Canada.
La culture de la Rotman School était toxique. Une partie du corps
enseignant et des étudiants laissaient entendre qu’il ne fallait pas faire
confiance au personnel administratif de l’école et de l’université, fermé à
tout changement. Ce dernier quant à lui considérait les professeurs et les
étudiants comme des râleurs éternellement insatisfaits. Par ailleurs, le corps
professoral et l’administration se méfiaient profondément des partenaires
extérieurs, y compris des anciens élèves, du monde des affaires canadien et
des médias de Toronto. Je savais que je devais changer les règles implicites
dans leur représentation collective afin de pouvoir nourrir un quelconque
espoir de voir l’école rayonner.
Comme je venais du milieu des affaires, tout le monde s’attendait à ce
que j’apporte des changements radicaux, que je réorganise l’école et que
j’instaure une sorte de « culture d’entreprise ». Cela n’a pas été le cas. La
structure organisationnelle en place à mon départ en 2013 n’était pas très
différente de celle que j’avais trouvée à ma prise de fonctions en 1998. La
structure de gouvernance est restée identique. Il y a eu quelques
ajustements, rien de plus. Je n’ai pas fait d’annonce audacieuse pour
l’arrivée d’une nouvelle culture ; en fait, je n’ai pas du tout parlé de culture.
Au lieu de cela, j’ai travaillé sans relâche sur le changement du
dispositif de pilotage de la communication interne, notamment la façon dont
je devais gérer les entretiens d’évaluation du corps enseignant, les conflits
au sein de l’établissement et les réunions avec le personnel clé au contact
avec des partenaires extérieurs.

Être à l’écoute des besoins de chacun

À l’époque, selon le système d’évaluation des enseignants imposé à la


Rotman School par l’université de Toronto (et à tous ses autres
départements), chaque membre du corps professoral devait soumettre au
doyen un rapport d’activité annuel précisant ses réalisations en matière de
recherche, d’enseignement et de prestations réalisées, c’est-à-dire
monographies ou articles publiés, invitations aux conférences honorées,
subventions ou prix d’excellence obtenus pour la recherche, cours
enseignés et appréciations données par les étudiants, prix de l’enseignement
remportés, comités scientifiques suivis, etc. En tant que doyen, je devais
produire une lettre d’évaluation type, informant les membres du corps
professoral de leur notation sur une échelle de sept points pour la recherche,
l’enseignement et les prestations réalisées, ainsi qu’au niveau global.
Sans changer ce mécanisme formel, j’y ai ajouté un échange direct, en
invitant chaque membre du corps enseignant à une réunion d’une heure
avec moi après la soumission de son rapport. Lors de cet entretien, je posais
trois questions :
1. Dans quelle mesure avez-vous atteint les objectifs que vous vous étiez
fixés l’année dernière ?
2. Quels sont vos objectifs pour l’année à venir ?
3. Avez-vous actuellement des besoins particuliers non satisfaits par
l’établissement et qui pourraient l’être afin de vous aider à atteindre vos
objectifs ?

Cette réunion avait pour vocation d’encourager les enseignants à se


considérer comme responsables de leurs réalisations et de leur faire
entendre que mon travail (et celui de l’administration) consistait à les aider
(dans la limite du raisonnable) dans la réalisation de leurs objectifs
professionnels. Il ne s’agissait pas pour eux de discuter du jugement du
doyen, mais pour ce dernier de découvrir ce que les enseignants
souhaitaient accomplir et de comprendre comment les soutenir dans leurs
projets. En effet, mon rôle me donnait la possibilité de m’immiscer dans des
procédures administratives afin de permettre aux membres du corps
enseignant de surmonter certains obstacles. Ces réunions ont révélé des
situations où le besoin d’une intervention était criant.
Je me souviens tout particulièrement d’un épisode survenu au début de
mon mandat. À l’instar de nombreuses écoles de commerce, le corps
professoral de la Rotman School se composait de deux types d’agents : les
enseignants-chercheurs titulaires, d’une part, et les chargés de cours non
titulaires ou enseignants chargés de travaux dirigés (TD), d’autre part, qui
n’étaient pas tenus de faire de la recherche, mais assuraient le plus d’heures
de cours par an. Dans la plupart des écoles, de nombreux enseignants-
chercheurs et personnels administratifs traitent les enseignants chargés de
TD comme des citoyens de seconde zone : telle est la culture de ces
établissements. Quand j’ai reçu Joan, une enseignante chargée de TD de
longue date, elle a été très directe quant à ce dont elle avait besoin : elle
voulait un ordinateur portable et l’administration de l’école avait refusé de
lui en fournir un.
Pour comprendre l’importance de cette demande, il faut savoir que
l’université possède un campus principal dans le centre-ville ainsi que des
campus dans les banlieues est et ouest de Toronto. Joan enseignait à la fois
au centre-ville et sur le campus ouest. Selon les règles de l’université, les
professeurs et les chargés de TD disposaient tous d’un ordinateur (fixe)
dans leur bureau (celui de Joan se trouvait au campus du centre-ville). Les
salles n’étant pas connectées à un système informatique en réseau à cette
époque, Joan devait transférer ses diaporamas de présentation de son
ordinateur de bureau sur des disquettes (un vieux souvenir, n’est-ce pas ?),
emporter les (bonnes) disquettes dans l’amphi, puis les charger sur le poste
de travail face à des étudiants impatients. Toutes ces tâches allaient
disparaître s’il était permis à Joan de remplacer son ordinateur de bureau
par un portable qu’elle pourrait déplacer en fonction de ses cours et
brancher sur le projecteur de n’importe quelle salle. Malgré le bon sens
manifeste d’une telle mesure, Joan a essuyé plusieurs refus successifs du
service informatique, car, selon lui, elle ne pouvait pas avoir d’ordinateur
portable en raison de la politique de l’université à l’égard des enseignants
non titulaires.
Quand j’ai annoncé à Joan qu’elle pouvait avoir son ordinateur portable,
elle m’a demandé si ce n’était pas une plaisanterie. Je lui ai assuré que
j’étais très sérieux. Lorsqu’elle s’est rendue au service informatique pour
obtenir un ordinateur portable, ils m’ont contacté pour me demander si la
politique avait changé et que tout le monde pouvait avoir un ordinateur
portable. J’ai rétorqué : « Non. Mais Joan en a vraiment besoin pour son
travail. » Cette décision a vite fait le tour de l’établissement, mais elle n’a
pas créé de précédent pour autant. Tout le monde avait compris qu’il
s’agissait non pas d’une nouvelle règle, mais d’une réponse personnalisée à
un besoin individuel.
Le fait d’instaurer un entretien axé sur l’aide aux professeurs dans la
réalisation de leurs objectifs au lieu d’évaluer leurs performances a
radicalement changé leur attitude envers l’administration. Au cours de mes
quinze années passées à la Rotman School, peu de membres du corps
professoral ont quitté leur poste, et quand j’ai eu besoin de leur soutien
(notamment à la suite de la crise financière mondiale), ils étaient là pour
moi et pour l’établissement. La nouvelle sur cette pratique s’est répandue et
j’ai même reçu des demandes de professeurs d’autres départements de
l’université, extérieurs à l’école, me sollicitant pour organiser un entretien
annuel avec eux.

Responsabiliser les personnes en conflit

Parmi les facteurs aggravants qui nuisent aux relations entre le corps
professoral et l’institution, on trouve l’idée selon laquelle l’administration
joue un rôle d’arbitre en cas de désaccord entre universitaires. Les
établissements supérieurs sont connus pour ces conflits, peut-être, comme
l’a dit Henry Kissinger, « parce que les enjeux sont petits ». Je me suis
rapidement retrouvé à recevoir des membres du corps enseignant qui
venaient se plaindre auprès de moi d’un autre professeur dans l’espoir que
j’intervienne en leur faveur.
Plutôt que d’instaurer une procédure formelle de résolution de conflits
ou de lancer un mot d’ordre pour inviter les enseignants à régler
directement leurs différends, j’ai changé la dynamique relationnelle lors de
ces entretiens, dans le cadre de ce que j’ai appelé en mon for intérieur une «
campagne pour un comportement adulte ». Lorsqu’un enseignant venait
dans mon bureau pour se plaindre d’un condisciple, je me levais avec
entrain et lui proposais d’aller ensemble voir son collègue afin de régler le
problème sans tarder. C’était généralement le contraire de ce que le
plaignant voulait, préférant exprimer ses griefs auprès de moi au sujet d’un
confrère sans donner la possibilité à ce dernier de s’expliquer. Le fait de
s’exposer aux arguments adverses en ma présence pouvait, somme toute, le
faire passer pour un imbécile.
Évidemment, personne n’a accepté ma proposition et, en quelques mois,
les enseignants ont cessé de venir critiquer leurs collègues dans leur dos. Je
ne suis pas naïf au point de penser que mon attitude a fait disparaître les
désaccords entre professeurs, mais elle a réellement permis de créer une
culture dans laquelle les personnes cherchaient à régler leur différend
directement au lieu de se précipiter chez le doyen : au cours de mes dix
dernières années à ce poste, aucun membre du corps enseignant n’est plus
venu se plaindre d’un collègue.

Renforcer les liens avec les partenaires extérieurs

Quand je suis devenu doyen, l’établissement avait : (1) peu d’interactions


avec le monde des affaires (l’année précédant mon arrivée, il y avait eu
deux événements, en tout et pour tout, auxquels l’école avait invité des
représentants de ce secteur) ; (2) une couverture médiatique quasiment
inexistante (les journalistes contactaient d’abord nos concurrents et venaient
nous voir uniquement par défaut) ; (3) une piètre relation avec ses anciens
élèves (avec moins de 15 % des coordonnées à jour des alumni et pas
grand-chose à leur proposer) ; (4) une visibilité scientifique très limitée en
dehors des revues spécialisées de référence (en produisant de temps en
temps le Rotman Magazine, le bulletin d’information de l’université envoyé
sans beaucoup d’effet aux quelques anciens étudiants dont nous avions les
adresses). La marge de manœuvre étant limitée sur le plan financier en
matière de nouveaux investissements, il m’appartenait donc d’influer sur les
attitudes et les normes autour de celles que nous avions déjà en place.
La démarche habituelle de l’institution se limitait à chercher du profit :
les interactions avec les anciens élèves et les entreprises servaient à lever
les fonds pour l’école ou à faire embaucher ses diplômés ; les interactions
avec les médias se limitaient à des critiques favorables et des reportages
mettant l’école en valeur afin que les anciens élèves et les entreprises se
sentent à l’aise à l’idée de s’associer avec nous. Lors de mes rencontres
avec les responsables de communication des entreprises, les représentants
des médias, les anciens élèves et les rédacteurs du magazine, j’ai tenu à
substituer à cette attitude ce que j’ai appelé la « doctrine du service
infaillible » : nous allions nous rendre aussi utiles que possible à nos
partenaires extérieurs, et ce de manière totalement désintéressée. J’ai
supposé que nous efforcer d’agir ainsi allait générer de bonnes retombées
pour l’établissement. Je ne savais ni quand ni comment cela allait se
produire, mais j’étais certain d’obtenir un jour des résultats positifs. Ainsi,
en discutant avec les membres de l’équipe, je leur demandais de me faire
part de leurs idées sur la manière dont ils pourraient être utiles à leurs
interlocuteurs externes et de m’indiquer de quelle façon toute autre
personne de l’établissement, y compris moi-même, pourrions les aider dans
cette tâche.
Parmi ces idées a figuré la mise en place d’une journée annuelle de
formation continue pour les diplômés, événement reconduit depuis tous les
ans. À l’époque, nous avons tenu à nos diplômés le discours suivant : «
Puisque le monde continue son évolution après l’obtention de votre
diplôme, nous vous donnons rendez-vous (disons, comme pour la révision
d’une voiture) dans un an pour vous fournir de nouvelles connaissances
accumulées au cours de l’année subséquente. Nous le ferons chaque année,
car nous considérons que cela relève de la responsabilité de votre école.
Vous n’aurez pas à verser un centime pour cette journée de formation, et
nous ne ferons pas d’appels aux dons, contrairement aux pratiques lors de
nos assemblées. »
Cette journée de formation est devenue un événement extrêmement
important et populaire et nous a rapprochés de nos anciens élèves. Elle a
également provoqué un effet inattendu : des personnes ne faisant pas partie
de nos alumni se sont intéressées au contenu proposé au point de vouloir y
participer. Notre première réaction a été de refuser les personnes
extérieures, car nous avons pensé que l’événement perdrait de sa valeur aux
yeux de nos anciens étudiants. Mais, après réflexion, nous avons décidé que
si nous leur demandions une participation financière en tant qu’auditeurs
libres, notre marge de manœuvre budgétaire serait plus importante, ce qui
nous permettrait à la fois d’améliorer l’offre et d’afficher la valeur dont
bénéficient nos anciens étudiants en termes monétaires. En relativement peu
de temps, des centaines de ces auditeurs libres déboursaient 1 000 dollars
pour notre journée annuelle de formation continue, et aucun ancien étudiant
ne s’en est jamais plaint.
À mesure que les discussions sur des projets de ce type étaient suivies
d’effets, le comportement de la Rotman School envers les intervenants
externes a changé, car les représentations communes des personnels de
l’établissement ont fini par converger vers une vision partagée, à travers le
prisme du service infaillible. Au fil du temps, nos efforts ont porté leurs
fruits, et notre visibilité et notre influence ont augmenté de façon
spectaculaire. Au cours de ma dernière année en tant que doyen, l’école a
organisé 122 événements qui ont attiré plus de 10 000 personnes. Notre
couverture médiatique dépassait celle de toutes les autres écoles de
commerce canadiennes réunies, la Rotman School étant citée au moins dix
fois par semaine dans la presse internationale (contre moins d’une fois par
mois en 1998). Nous avions des coordonnées à jour pour plus de 90 % des
anciens étudiants et une participation élevée dans un grand nombre
d’événements pour les alumni, dont notre journée annuelle de formation
continue. Notre magazine est apparu dans les kiosques de tout le Canada et
a rivalisé avec la California Management Review et la MIT Sloan
Management Review en presse payante. Nous avons accompli tout cela avec
un investissement annuel net (c’est-à-dire après les recettes des événements
et des abonnements) qui, lors de ma dernière année en 2013, était à peine
supérieur au budget alloué aux relations extérieures dont j’ai hérité en 1998.

•••

Lorsque les dirigeants tentent de changer la culture d’une organisation, ils


utilisent souvent les mauvais outils pour y parvenir : ils modifient les
procédures et les systèmes formels en accompagnant ces changements de
discours moralisateurs. Cette approche est vouée à l’échec, car la culture
d’entreprise ne dépend pas des systèmes et des processus internes ni des
croyances d’un dirigeant, mais repose sur la façon dont les individus se
comportent les uns avec les autres en fonction de leurs règles implicites et
du sens relationnel. Pour parvenir à un véritable changement de culture, les
dirigeants doivent se concentrer sur la manière dont ils structurent les
interactions humaines qui rythment la journée de travail d’une organisation,
en faisant preuve de cohérence. Cela nécessite d’investir du temps et de
renouveler en permanence les efforts. Les habitudes individuelles ne
changent pas du jour au lendemain, mais, lorsque de nouveaux
comportements émergent, les conséquences sont profondes et durables.1

Ce chapitre actualise et complète l’article de Roger L. Martin, « Changing the Mind of the
Corporation », Harvard Business Review, novembre-décembre 1993.
Chapitre 7

Le travail intellectuel

Le travail intellectuel doit s’organiser autour de projets, et non


de postes de travail spécifiques.

Les entreprises du monde entier sont confrontées à la problématique de la


gestion des travailleurs du savoir. En se livrant à une concurrence féroce
pour dénicher et retenir les meilleurs talents, elles accumulent souvent des
milliers de cadres. Cela fonctionne pendant un certain temps mais,
inévitablement, le plus souvent lorsque les conditions économiques
deviennent moins favorables, l’entreprise se rend compte que ces
travailleurs généreusement rémunérés ne sont pas aussi productifs qu’elle le
pensait et, dans une démarche visant à maîtriser les coûts, licencie à tout-va.
Peu de temps après, elle recrute de nouveau.
Ce cycle est extrêmement destructeur. Outre les coûts humains et
sociaux, une telle gestion des ressources par l’entreprise est extrêmement
inefficace, et ce manque d’efficacité est d’autant plus dommageable quand
il s’agit de capital humain, largement reconnu comme moteur de croissance
à notre époque. Il est particulièrement curieux de trouver, parmi les sociétés
qui s’engagent dans ce cycle, quelques modèles d’entreprises américaines
les plus respectées. General Electric, par exemple, a procédé à des
licenciements massifs de cadres dans les années 1980 et au début des
années 1990. Puis, après avoir progressivement renfloué ses rangs,
l’entreprise a annoncé une nouvelle vague de licenciement en 2001. En
2007, les effectifs sont revenus à la hausse puis les licenciements ont repris
de plus belle au moment de la récession. Colgate-Palmolive, MetLife1,
Hewlett-Packard et PepsiCo, entre autres, ont toutes suivi la même
trajectoire.
Pourquoi ces entreprises se trouvent-elles autant en difficulté face à ce
qui est censé être leur actif le plus performant ? Je crois que cela s’explique
par une mauvaise compréhension des similitudes et des différences entre le
travail manuel, que nous connaissons bien aujourd’hui, et le travail
intellectuel. La confusion est bien ancrée, malgré des années de recherche et
de débats sur l’économie de la connaissance. La plupart des entreprises
commettent notamment deux grandes erreurs dans la gestion des
travailleurs du savoir. La première consiste à croire qu’il faut gérer cette
main-d’œuvre à l’instar des ouvriers qui répètent les mêmes tâches jour
après jour. La seconde (qui découle en partie de la première) laisse entendre
que les connaissances sont intrinsèquement liées à la personne et que, à
l’inverse du travail manuel, elles ne peuvent pas être facilement codifiées et
transférées à d’autres collaborateurs.
C’est là qu’il convient de revoir la perspective du travail intellectuel : il
est impératif de l’organiser autour de projets, non de postes spécifiques.
Dans ce chapitre, j’expliquerai à quel point les croyances classiques sur le
travail, bien que compréhensibles, nuisent lorsqu’il s’agit de travail
intellectuel, et présenterai une façon de penser différente. Si les entreprises
adoptent massivement le modèle que je propose, nous pourrons peut-être
enfin dire adieu au cercle vicieux actuel d’embauche et de licenciement qui
caractérise la plupart d’entre elles.
Commençons par voir de plus près en quoi consiste le travail
intellectuel.
L’essor de l’usine à décision

Les travailleurs du savoir ne fabriquent pas de produits ni ne fournissent de


services de base. Mais ils produisent bien quelque chose, et nous pouvons
considérer que le fruit de leur travail se présente sous la forme de décisions
au sujet d’un article ou d’un service à vendre, ainsi que de son prix, du
client cible, de la stratégie publicitaire et de la logistique, du lieu de vente et
des effectifs requis.
À leur bureau ou dans des salles de réunion, chaque jour de leur vie
professionnelle, les travailleurs du savoir fabriquent des décisions à la
chaîne.
Leurs matières premières sont des données provenant soit de leurs
propres systèmes d’information, soit de fournisseurs externes. Ils émettent
de nombreuses notes et présentations qui abondent en analyses et
recommandations. Leur processus de production s’appelle la réunion. Il leur
permet de transformer leur travail en produits finis sous forme de décisions
ou de générer un travail d’affinage, soit en réalité une autre réunion
organisée en vue de prendre une décision qui n’a pas été adoptée
précédemment. Enfin, ils contribuent aux services de postproduction, c’est-
à-dire au suivi des décisions.
Ces « usines à décision » représentent sans doute le coût le plus élevé
pour les entreprises américaines, même pour les grands fabricants comme
Procter & Gamble, car les salaires de ces travailleurs dépassent de loin ceux
des employés de l’usine de production. Dans la poursuite du double objectif
d’efficacité et de croissance, les entreprises de la seconde moitié du xxe
siècle ont consacré des sommes de plus en plus considérables à la R&D, à
la gestion de marque, aux systèmes informatiques et à l’automatisation :
autant d’investissements nécessitant l’embauche d’une armée de travailleurs
intellectuels.
Je me souviens encore de ma collaboration avec le PDG de l’un des plus
grands fabricants de pain d’Amérique du Nord. Il venait de remplacer une
usine vétuste et gourmande en main-d’œuvre par la boulangerie industrielle
la plus moderne du continent. Il m’avait fièrement expliqué que
l’automatisation des fours et des machines de conditionnement avait permis
de réduire de 60 % les coûts directs du travail. Entre-temps, une foule de
nouveaux travailleurs du savoir onéreux – ingénieurs, informaticiens et
managers – sont venus rejoindre le siège social de l’entreprise et son usine
pour gérer les systèmes informatiques sophistiqués et les équipements de
pointe. La nouvelle usine n’était donc pas aussi parfaite qu’elle en avait
l’air. Les coûts variables liés au travail manuel avaient diminué, mais les
coûts fixes générés par le travail intellectuel avaient augmenté rendant
nécessaire le maintien de la capacité de production au plus haut, ce qui était
possible certaines années, mais pas d’autres.
Cette boulangerie industrielle n’était pas unique en son genre. En
échangeant les coûts directs contre des coûts indirects, les cols bleus, moins
nombreux mais plus productifs, ont été remplacés par des cols blancs, plus
nombreux et plus onéreux (voir l’encadré « Accroissement de la part du
travail intellectuel »).
Depuis que le terme « travailleur du savoir » a été introduit par Peter
Drucker il y a plus d’un demi-siècle, la part de ces employés sur le marché
du travail est devenue majoritaire. Et, à mesure que la Chine et d’autres
pays où le coût du travail manuel reste faible fournissent de la main-
d’œuvre toujours plus abondante, les économies développées dépendent de
plus en plus des travailleurs intellectuels dont la productivité pourrait alors
constituer le défi majeur pour le management d’aujourd’hui.

Accroissement de la part du travail intellectuel


Pour se faire une idée de l’ampleur de la montée en puissance des travailleurs du
savoir sur le marché moderne, il suffit d’examiner l’évolution du coût des marchandises
vendues (CMV) et des frais de vente, frais généraux et dépenses administratives (SGA
– selling, general and administrative expenses) dans les grandes entreprises. La
masse salariale des cols bleus, intégrée au CMV, et celle des cols blancs, qui relève
principalement des SGA, se reflètent de manière plutôt précise dans ces deux postes
de dépenses qui sont de loin les plus importants pour toute entreprise.
Le Dow Jones 30 (DJ30) a toujours été représentatif des grandes entreprises
américaines : en 2020, ses sociétés cumulaient un chiffre d’affaires de 2,8 trillions de
dollars et employaient environ 8 millions de personnes. En 1972, comme le montre le
graphique ci-après, les dépenses globales de DJ30 au titre du CMV et des SGA
représentaient respectivement 72 et 13 % des recettes. Les SGA ont commencé à
augmenter à la fin des années 1970 en proportion des recettes, tandis que le CMV a
commencé à baisser au cours de la décennie suivante. En 2020, leur part relative avait
changé de manière radicale, le CMV étant passé à 52 %, contre 20 % pour les SGA.

FIGURE 7.1 Revenus des entreprises du Dow Jones 30


La productivité de l’usine à décision

Dans tout processus de production, les deux moteurs essentiels à la


productivité sont l’efficacité de l’organisation du travail et la capacité de
l’entreprise à tirer les leçons de ses expériences. Ces facteurs sont bien sûr
interdépendants : la manière de structurer le travail influe sur l’aptitude à
acquérir des connaissances pratiques. Dans les usines à décision,
l’inadéquation entre la façon dont le travail est structuré et la réalité du
terrain conduit directement à une répartition inefficace des tâches. Les êtres
humains étant ce qu’ils sont, cette tension n’incite pas à partager les
connaissances. Essayons d’en comprendre la raison.

La structure de travail dans l’usine à décisions

Au sein de l’usine à décisions, l’unité de travail de base correspond à un


poste. À cet égard, les usines à décision suivent le modèle de l’usine de
production, selon lequel les dirigeants identifient généralement des tâches
spécifiques qui constituent la fonction d’un individu et qui doivent être
répétées quasi quotidiennement. Vous pouvez estimer le nombre de « tâches
» requises selon le volume de production souhaité, puis embaucher en
conséquence. Évidemment, la production reste toujours quelque peu
variable, mais, dans la mesure où il est possible de la prévoir, vous pouvez
la prendre en compte dans les contrats de travail. Certains employés
travaillent moins ou moins longtemps par rapport à d’autres, mais dans
l’ensemble, une telle structure repose sur l’idée que la production en usine
est stable.
Les tâches au sein de l’usine à décision reposent sur le même principe.
Par exemple, le vice-président du service marketing est supposé produire la
même quantité d’informations chaque jour. La description de poste est donc
rédigée en présentant un ensemble de tâches permanentes qui s’additionnent
pour occuper un emploi à temps plein. Le profil type de vice-président du
marketing indique que celui-ci sera responsable de la gestion des marques,
des activités promotionnelles, des études de marché, etc., le tout étant
présenté comme s’il fallait le faire jour après jour, semaine après semaine,
mois après mois.
Or c’est là que l’analogie entre les usines à décision et les usines de
produits s’arrête. En fait, le travail intellectuel s’articule principalement
autour de projets, et non de tâches routinières quotidiennes. Les travailleurs
du savoir connaissent donc de grandes variations entre les pics et les creux
d’activités au cours du processus décisionnel. Lors du lancement d’un
produit important, ou en cas de menace concurrentielle, l’emploi du temps
du vice-président du marketing sera chargé, voire surchargé si ces deux
réalités se chevauchent. Mais entre les projets, peu ou pas de décisions
seront à prendre, et le collaborateur n’aura rien de mieux à faire que de
rattraper le retard dans la lecture de ses courriels. Pourtant, personne ne
propose qu’il prenne des vacances pendant ces périodes d’accalmie, et
encore moins que l’entreprise cesse de lui verser son salaire.
Les cycles d’embauche et de licenciement des cols blancs sont la
conséquence malheureuse d’une telle approche du travail intellectuel.
Lorsque des effectifs sont totalement organisés autour de postes permanents
à temps plein, il est difficile de redéployer des ressources durant des
périodes d’activité très intense pour faire face au pic de la demande. En
général, le département RH doit créer un nouveau poste, en rédiger une
description, puis le pourvoir soit en transférant en interne une personne
présente dans les effectifs à temps plein, soit par un recrutement externe.
Les managers, quel que soit le secteur, ont tendance à embaucher en
fonction de ce qu’ils perçoivent comme pic de demande pour le travail
intellectuel dans leur domaine de responsabilité. Cela institutionnalise un
niveau important d’excédent de ressources humaines réparties par petits
groupes dans les usines à décision. C’est pourquoi la productivité de ce type
d’organisation est un défi permanent.
Bien sûr, il n’est certainement pas dans l’intérêt des travailleurs du
savoir d’aller voir leur chef pour déclarer qu’ils disposent d’une « capacité
excédentaire ». Au mieux, leur travail risque d’être jugé comme trop facile
et insuffisamment productif au moment des entretiens d’évaluation de
performance. Au pire, le chef pourrait décider de se séparer de ces
employés. Tout travailleur intellectuel a donc intérêt à avoir l’air occupé en
permanence. Il y a toujours un rapport à rédiger, une note à produire, une
consultation à mener ou une nouvelle option à explorer. Et c’est pour
soutenir cette apparence que le deuxième moteur de la productivité – le
transfert des connaissances – est corrompu.

Le savoir au sein de l’usine à décision

Comme décrit dans mon ouvrage sur la valeur de la pensée design en tant
qu’avantage concurrentiel, The Design of Business, l’acquisition des
connaissances passe par trois étapes. Au lancement de la fabrication d’un
nouveau produit ou à la création d’un nouveau service, l’entreprise se
trouve face à une véritable énigme, et le travail consiste à l’élucider.
Prenons comme exemple la première usine de fabrication de puces de
microprocesseurs d’Intel, lancée en 1983, et le premier parc à thème de
Disney à Anaheim en Californie, ouvert en 1955. Quel est le flux
opérationnel optimal dans une usine de fabrication ? Comment faut-il
organiser les files d’attente dans un parc tel que Disneyland ? Durant la
période initiale d’activité, l’efficacité laisse à désirer et des erreurs
s’accumulent, comme pour n’importe quelle énigme.
Au fil du temps et avec beaucoup de pratique, un socle de connaissances
forme ce qu’on peut appeler un schéma heuristique qui guide l’avancement
du processus. Après avoir travaillé à la conception de la première usine
d’Intel, les experts auront mis au point des procédés pour une dizaine
d’usines suivantes, qui ne seront plus approximatifs. Disney, en ouvrant ses
quatre nouveaux parcs Walt Disney World à Orlando, en Floride, aura puisé
dans son expérience d’Anaheim.
Dans les usines de production, l’acquisition des connaissances ne se
limite pas à la recherche et à la découverte. L’exploitation des opérations de
fabrication et de service à grande échelle consiste à maintenir la pression
jusqu’à ce que ce processus cognitif aboutisse à un algorithme, c’est-à-dire
une formule de succès garanti. C’est alors que l’expert peut être remplacé
par un manuel d’utilisation. Il suffit d’appliquer l’algorithme pour que le
travail soit effectué par des managers moins expérimentés. Cette culture est
à l’origine du succès d’entreprises emblématiques telles que McDonald’s et
FedEx. Seulement, le travail ne s’arrête pas une fois l’algorithme trouvé,
car le processus doit toujours être affiné et perfectionné dans une démarche
d’amélioration continue.
En revanche, au sein de l’usine à décision, le savoir a tendance à être
volontairement bloqué au stade empirique, là où le vécu et le discernement
sont impératifs pour faire de bons choix. Cela s’explique notamment par le
fait que l’acquisition des connaissances dans une usine à décisions revêt un
caractère plus complexe. De nombreuses dispositions font l’objet de
décisions prises pour la première fois dans des situations inédites, relevant
ainsi de la catégorie des énigmes. Par exemple, comment une entreprise
doit-elle s’y prendre pour entrer sur le marché nigérian, son premier marché
en développement ? Et comment s’implanter dans un autre pays ? Chaque
stratégie d’entrée devra être adaptée : même après l’élaboration de dix
stratégies d’entrée dans dix pays différents, il ne pourra y avoir de
cheminement optimal – et encore moins d’algorithme.
De plus, le travail qui s’articule autour des tâches comporte un risque
important. Si les travailleurs expérimentés transforment leurs savoirs issus
de leur cheminement cognitif en algorithmes, leur entreprise peut être
incitée à les remplacer par des personnes moins qualifiées et moins
onéreuses. C’est pourquoi de nombreuses entreprises peinent à faire en
sorte que leurs experts consacrent du temps à former les jeunes recrues, ne
serait-ce qu’en leur transmettant les bases de leur cheminement : les
professionnels aguerris ont toujours des choses plus urgentes à faire.
Bien sûr, un tel inconvénient existe aussi dans le monde du travail
manuel. Mais dans une usine classique, les connaissances s’acquièrent par
l’observation des procédés physiques. Depuis l’époque de Frederick
Winslow Taylor et de son chronomètre infernal, les cols bleus ont compris
que leur travail peut être observé et optimisé, et qu’il le sera. En revanche,
l’activité cérébrale des travailleurs du savoir se trouve hors d’atteinte,
inaccessible à l’observation extérieure.
Les cadres dirigeants des sociétés modernes savent que leur vivier de
travailleurs du savoir est supérieur à leurs besoins, mais ils ignorent à quel
niveau de l’entreprise ces employés se trouvent en excès. Ainsi, en étant
confrontés à une baisse des ventes ou à une autre difficulté, ils ont le réflexe
de tailler dans ces effectifs, en espérant faire disparaître une partie de
l’excédent sans subir de conséquences trop négatives.
Cependant, il existe une meilleure façon de gérer ces structures
onéreuses que sont les usines à décisions. Elle repose sur deux axes :
adopter la même méthode de gestion des ressources humaines que celle
mise en place par d’excellents cabinets de conseil et appliquer la même
éthique de la transmission des connaissances que celle que l’on trouve dans
les meilleures usines de production.
Redéfinissez le contrat de travail

Pour briser le cycle de l’embauche frénétique suivie de purges, la clé est


d’organiser le travail intellectuel par projet plutôt que par poste. Dans un tel
modèle, les collaborateurs à temps plein ne sont pas considérés comme
assignés à des fonctions spécifiques, mais mobilisés sur des projets où leurs
compétences sont requises. Les entreprises peuvent réduire le nombre de
travailleurs du savoir qu’elles emploient, puisque ceux dont elles disposent
seront mobiles, permettant ainsi de limiter de manière considérable les
périodes d’inactivité ou les dérivatifs destinés à combler les temps morts.
Prenons, par exemple, le cas d’une assistante-chef de marque chez
Dove, fraîchement recrutée par Unilever. Au début, elle peut considérer sa
fonction comme étant assez classique, à savoir aider son patron à
développer l’identité de la marque. Cependant, elle découvrira rapidement
que ses tâches sont très variées. Pendant un mois, elle peut s’atteler à fixer
le prix et à positionner une extension de marque. Deux mois plus tard, elle
peut être totalement absorbée par la gestion de défauts de production qui
entraînent des retards de livraison de l’article le plus vendu de la ligne
Dove. Puis tout devient calme jusqu’à ce que le patron la sollicite de
nouveau pour lui présenter un autre projet. En quelques mois, elle se rendra
compte que son travail consiste en une série de projets qui s’enchaînent de
manière plus ou moins cohérente.
Bien que l’idée de coordonner le travail intellectuel autour de projets
puisse sembler radicale dans le monde des organisations classiques, elle a
ses adeptes parmi les cabinets de services professionnels, dont le poids de
certains est devenu équivalent aux entreprises du secteur manufacturier. En
trente-cinq ans, Accenture, qui était à l’origine le « service d’intégration de
systèmes » créé par Arthur Andersen, s’est développé pour devenir une
entreprise indépendante dont le chiffre d’affaires approche celui de Merck.
Si le célèbre cabinet de conseil McKinsey était une entreprise cotée en
bourse, il se placerait à la 300e position du classement de Fortune 500.
Ces entreprises emploient presque exclusivement des travailleurs du
savoir. À la réception d’un projet, une équipe est constituée pour le mener à
bien puis, une fois le projet terminé, elle est démantelée et ses membres
sont affectés à d’autres projets. Sans avoir de poste attitré, les collaborateurs
possèdent des niveaux de compétences et des qualifications qui leur
permettent de remplir des fonctions spécifiques sur certains types de
missions.
Cette capacité à orienter des ressources avec agilité vers des projets au
fur et à mesure qu’ils se présentent permet à ces sociétés de conseil de
prendre en charge des initiatives que leurs clients ne peuvent gérer par eux-
mêmes parce que leur personnel est affecté à des postes permanents. Il est
vrai par ailleurs que, pour certaines activités, un cabinet de conseil détient
une expertise unique. Mais c’est surtout cette capacité à mobiliser
rapidement des effectifs sur une tâche à accomplir qui pousse des
entreprises à faire appel à leurs services. En effet, si ces cabinets se sont
développés aussi vite, c’est en partie grâce à leur organisation autour de
projets, alors que leurs clients appliquent le modèle du poste de travail.
Les cabinets de conseil ne sont pas les seuls à utiliser l’approche par
projet. Les studios hollywoodiens, par exemple, se sont toujours organisés
autour de projets cinématographiques. Une équipe se réunit pour planifier,
tourner, monter, commercialiser et distribuer un film. Lorsque les membres
de l’équipe terminent leurs tâches, ils sont affectés à d’autres projets.
Quelques grandes entreprises reconnaissent également la force et la
pertinence de ce modèle. Procter & Gamble, par exemple, fait partie des
premiers groupes à l’avoir adopté. En 1998, l’entreprise a procédé à une
restructuration majeure. Le principe de base consistait à passer de quatre
centres de profits régionaux intégrés à sept unités opérationnelles
mondiales, dont des unités de Soins pour bébés, de Soins du linge et de
Soins de beauté, aux côtés d’organisations de développement des marchés
chargées de distribuer les produits des sept unités dans leurs zones
géographiques respectives.
L’une des particularités de cette réorganisation a été la création du centre
de services partagés (CSP) au niveau mondial afin de mutualiser le service
informatique et celui des ressources humaines. La mutualisation de services
étant devenue une pratique courante, ce n’était donc pas le fait que P&G ait
pris cette mesure qui était extraordinaire, mais le mode de fonctionnement
du CSP en question.
En 2003, sous la direction de Filippo Passerini (qui a été président du
CSP jusqu’en 2015), P&G s’est engagé dans ce qui était alors la plus
grande opération d’externalisation de son histoire, en confiant environ 3
300 postes à IBM, HP et Jones Lang LaSalle. M. Passerini a transféré à ces
sociétés les employés du CSP qui effectuaient le travail le plus routinier et
le moins orienté vers les projets. Cela lui a permis d’imaginer une approche
plus innovante des fonctions maintenues au sein du CSP. L’approche
classique aurait été de les structurer selon les modalités d’un travail régulier
supposant un flux constant et des tâches similaires pour chaque poste.
Au lieu de cela, M. Passerini a décidé d’adopter le même
fonctionnement pour le CSP que celui mis en place par le groupe dont il est
resté partie intégrante, c’est-à-dire orienté vers les projets, qu’il a appelé «
organisation du travail selon le flux ». Si certains de ses collaborateurs
occupent toujours des emplois réguliers de façon permanente, une grande
partie d’entre eux est affectée à des projets très urgents ou très rentables.
Ces travailleurs du savoir ne s’attendaient pas à autre chose : ils ont compris
que plutôt qu’être rattachés à une unité opérationnelle donnée dans une
région spécifique, ils allaient faire partie des équipes formées pour des
missions stratégiques successives.
L’une de ces missions a été l’intégration de Gillette. En effet, son
acquisition en 2005 était de loin l’opération la plus importante que P&G ait
jamais réalisée : elle représentait un coût de 57 milliards de dollars et
nécessitait l’incorporation au groupe de 30 000 employés supplémentaires.
Le centre des services partagés se trouvait donc face à une difficulté
particulière, car il s’agissait de regrouper toutes les fonctions support,
notamment finances, ventes, logistique, fabrication, marketing, ainsi que les
systèmes d’information. M. Passerini a pu faire preuve d’agilité dans la
réalisation de cette tâche monumentale grâce à une organisation du travail
au sein du CSP pensée selon le flux. En conséquence, l’intégration a été
réalisée en quinze mois seulement, soit moins de la moitié du temps
normalement requis pour une acquisition de cette taille. Les synergies
dégagées étaient estimées à 4 millions de dollars par jour, se traduisant ainsi
par une économie de près de 2 milliards de dollars.
L’approche par projet dans le cadre du travail intellectuel est en cours de
déploiement dans l’ensemble de P&G. En 2012, le groupe a annoncé une
initiative visant à éliminer les coûts excédentaires des cols blancs et à gérer
plus efficacement les coûts restants. Chaque composante de la structure de
P&G définit le nombre de ses travailleurs du savoir affectés à des postes
réguliers et permanents d’une part, et le nombre de ceux qui occupent des
emplois organisés en fonction du flux d’autre part. La proportion de ces
derniers peut varier selon l’unité opérationnelle, mais elle doit être
supérieure à zéro.
Vers l’algorithme du savoir

Opter pour l’organisation des activités en fonction du flux contribuera


grandement à améliorer la productivité des travailleurs du savoir et à lever
les obstacles à la gestion des connaissances, sans toutefois pouvoir garantir
la codification et le transfert effectif de celles-ci.
Pour y parvenir, il faut convaincre les travailleurs du savoir d’aller un
peu plus loin. Le groupe P&G est également devenu un leader à cet égard,
en confiant à ses cadres dirigeants clés la responsabilité de structurer les
connaissances de l’entreprise. Depuis 1837, la société est un modèle en
matière de construction de marque, mais elle a longtemps considéré cette
activité comme une suite d’opérations mentales relevant du processus
cognitif des cadres expérimentés et extrêmement bien rémunérés.
L’apprentissage de ces opérations cognitives consistait généralement à
côtoyer un ou plusieurs de ces cadres afin d’assimiler progressivement un
ensemble de règles non écrites.
P&G a finalement décidé de ne plus se contenter d’une telle approche.
En 1999, Deborah Henretta, directrice générale de l’unité des adoucissants
pour le linge à l’époque, a parrainé un projet visant à codifier le
cheminement réalisé en matière de création de marques du groupe et à le
faire évoluer vers un algorithme. Le cadre conceptuel de construction des
marques devait permettre aux jeunes spécialistes du marketing chez P&G
d’apprendre plus rapidement la technique nécessaire pour créer l’identité de
la marque, réduisant ainsi le temps et le coût associés à cette tâche. Ce
cadre conceptuel a été jugé suffisamment utile pour être affiné par la suite,
ce qui a donné lieu à plusieurs versions dont une dernière mise à jour en
2021.
Le centre de services partagés (CSP) du groupe a scrupuleusement suivi
la même direction. Parmi les efforts déployés, on peut citer le travail
préparatoire intensif effectué en amont de l’exercice annuel de planification
stratégique par les responsables des finances et de la comptabilité dans
chacune des plus de vingt activités de P&G. D’ordinaire, un manager
s’appuyait sur son expérience pour déterminer les types d’informations
utiles à une équipe en fonction de son activité pour préparer le travail
stratégique, puis collectait ces informations auprès de diverses sources en
les classant d’une certaine façon.
Le CSP, dont le système informatique a été mis à contribution pour
fournir une grande partie des données, a remarqué que les demandes
émanant d’une catégorie spécifique de managers et effectuées à une certaine
période de l’année concernaient systématiquement un type de données
particulier. Il est finalement apparu que les documents préparatoires de tous
ces managers de la finance et de la comptabilité étaient très similaires en
termes de contenu, pouvant être facilement compilés par le CSP à partir
d’un algorithme ; en fait, la plupart de ces informations pouvaient être
assemblées puis générées par un logiciel conçu par le CSP. Plutôt que de
passer des heures à recueillir un ensemble de données, chaque manager
pouvait tout simplement envoyer un courriel au CSP pour demander un
dossier préparatoire relatif au processus stratégique à venir.
Réduire tout type de travail intellectuel à des algorithmes est impossible.
Néanmoins, les technologies actuelles d’apprentissage automatique
permettent d’aller très loin dans cette voie. En finance et en médecine
notamment, on assiste de plus en plus à l’application de l’intelligence
artificielle à l’analyse, voire à la prise de décision, un processus qui
incombe normalement aux êtres humains. L’entreprise chinoise Ant
Financial (récemment renommée Ant Group) recourt quasi
systématiquement à l’aide d’un logiciel pour décider des prêts à destination
des PME. Les algorithmes mis en place par l’entreprise peuvent examiner
les transactions commerciales et les communications d’un demandeur de
crédit grâce à l’accès aux données de Taobao, le site de vente en ligne de sa
société mère – le géant chinois Alibaba. Ces données peuvent servir pour
déterminer une cote de crédit en temps réel, permettant ainsi de traiter la
demande en quelques minutes pour un coût quasi nul. En médecine, la
radiologie présente un exemple typique d’utilisation de l’intelligence
artificielle : l’analyse des images par des scanners et des appareils à rayons
X s’avère très précise, facilitant le diagnostic sur l’état de santé des patients.

•••

Aucune organisation de la taille de P&G ne peut, du jour au lendemain,


devenir orientée vers des projets ou chercher à réduire chaque processus
cognitif à un algorithme. Ce n’est pas non plus souhaitable, car ce serait
excessif et très déstabilisant. Mais une organisation qui est structurée
exclusivement autour d’emplois fixes apparaît comme pratiquement
dépassée. De même, les connaissances dans les entreprises actuelles ne
peuvent progresser qu’à une vitesse limitée, et une grande partie des
collaborateurs sera toujours investie dans l’exécution des procédures
résultant de stratégies cognitives déjà en place. Mais certaines personnes
doivent être disponibles pour répondre au prochain défi. Il est essentiel
d’orienter cette ressource fondamentale qu’est la matière grise vers des
projets qui nourrissent la connaissance. Telle est la condition pour éviter à
l’entreprise le cercle vicieux de recrutements et de licenciements tout en
améliorant la productivité de ses travailleurs du savoir.2

1 NdT : compagnie d’assurance américaine.


Ce chapitre est adapté de l’article de Roger L. Martin, « Rethinking the Decision Factory »,
Harvard Busisness Review, janvier-février 2013.
Chapitre 8

Les services internes de


l’entreprise

Les services internes doivent disposer de leur propre


stratégie.

Récemment nommé à la tête de l’innovation d’un grand groupe diversifié


dans l’habillement, Stephen était chargé d’instaurer une culture créative à
travers un ensemble de marques assez traditionnelles et centrée sur les
opérations. « Par où devrions-nous commencer ? » avait-il demandé à la fin
d’un atelier consacré à l’innovation, en quête de conseils concernant le
choix de sa première tâche.
En réponse, il s’est entendu dire : « Par la stratégie. Commencez par
formuler de manière intelligible les choix critiques face auxquels se trouve
le service en charge de l’innovation. Cela aiderait l’équipe à définir la
direction à prendre et la manière d’y arriver.
— Notre équipe n’a pas besoin de stratégie, répondait-il alors en levant
les yeux au ciel. Les marques nous aiment. Elles savent qu’elles ont besoin
de nous. Créer une stratégie serait une perte de temps, alors que nous
sommes déjà débordés. En fait, notre charge de travail est supérieure à ce
que nous sommes en mesure de réaliser. »
Eh bien, être dépassé n’est-il pas la meilleure raison de commencer par
trouver une stratégie ? L’équipe de Stephen avait plus de travail qu’elle ne
pouvait en exécuter. Il faisait de son mieux pour servir l’entreprise et avait
du mal à suivre. L’équipe, en essayant de satisfaire tout le monde, faisait
inévitablement passer certaines tâches à la trappe. En niant le besoin de
faire des choix stratégiques en tant que responsable de service – notamment
sur la gestion des ressources par l’équipe, sur ses priorités, ainsi que sur les
sujets négligés, Stephen prenait de fait une décision. Il choisissait de ne pas
choisir. Par conséquent, son équipe ne parvenait pas à accomplir grand-
chose.
C’est une dynamique que j’ai souvent constatée en travaillant avec des
dizaines d’entreprises (dont certaines sont mentionnées dans ce chapitre)
dans divers secteurs et en étudiant leurs pratiques. La plupart des
entreprises acceptent l’idée que les structures et les unités opérationnelles
ont besoin de stratégies. Les dirigeants ne sont peutêtre pas très doués pour
les élaborer ou les mettre en œuvre, mais ils reconnaissent au moins la
valeur d’une formulation claire qui explicite la manière dont leur entreprise
va pouvoir gagner. En revanche, pour les services internes, notamment ceux
qui sont communs à l’ensemble de l’entreprise comme les services
informatique, RH, R&D, des finances, etc., la nécessité d’une stratégie reste
moins évidente. Dans de nombreuses sociétés, ces services se contentent
simplement d’exister, en servant l’entreprise de la manière et à l’échelle
imposées par les unités opérationnelles.
Cela m’amène à la seule chose qu’il faut absolument savoir sur les
services internes de l’entreprise : ils ont aussi besoin d’une stratégie. Faute
de leur en proposer une, ils finiront par adopter par défaut et de manière
inconsciente l’un des deux modèles organisationnels et culturels qui
risquent, l’un comme l’autre, de devenir un frein à la performance de
l’entreprise plutôt qu’un moteur de celle-ci. Dans ce chapitre, je décrirai ces
deux procédés involontaires, j’expliquerai pourquoi ils nuisent aux résultats
de l’entreprise et je présenterai un processus d’élaboration de la stratégie
qui aidera vos services internes à s’aligner sur celles du groupe et de ses
unités opérationnelles.
Quels risques en l’absence de stratégie ?

Chaque organisation dispose, d’une manière ou d’une autre, d’une stratégie,


qu’elle soit écrite ou implicite, issue ou non d’un processus officiel de
planification stratégique. La stratégie transparaît dans les initiatives et les
activités de l’organisation, car, par sa nature, elle sous-tend la logique qui
détermine les choix en faveur ou à l’encontre des opérations à mener, en
fonction des objectifs à atteindre. L’objectif peut être implicite. Il est
susceptible d’évoluer au fil du temps. Les choix peuvent avoir émergé sans
discussion ni réflexion. Les actions menées pour atteindre l’objectif peuvent
se révéler inefficaces. Mais la stratégie existe néanmoins.
Quand le service financier décrète que tous les investissements doivent
rapporter de l’argent dans les sept ans, il s’agit d’un choix stratégique. Cela
revient à faire le pari que les avantages plus ou moins immédiats d’un
rendement rapide l’emporteront sur les bénéfices supposés d’un
investissement à plus long terme. Lorsque le service informatique décide
d’externaliser le développement d’applications, c’est aussi un choix
stratégique. Il fait le pari que la réduction des coûts grâce à la sous-traitance
représente un moyen plus efficace de créer de la valeur que ne le permettrait
la conception d’applications en interne. Et lorsque le service RH estime
qu’il est nécessaire d’uniformiser les pratiques de recrutement au niveau
mondial, il procède également à un choix stratégique en décidant de viser
les avantages d’échelle grâce à une approche partagée plutôt que tirer profit
de la localisation par région (par exemple l’agilité et l’adaptation à la
culture locale).
Est-il vraiment important d’avoir une stratégie explicite pour faire ce
type de choix ? Je crois que oui, car sinon, les services internes de votre
entreprise risquent d’opter par défaut pour l’un des deux modèles de
comportement néfastes pour l’organisation, décrits ci-après.
Satisfaire toutes les demandes des unités
opérationnelles

L’exécution de toutes les demandes des unités opérationnelles peut être


qualifiée de stratégie servile, c’est-à-dire une stratégie qui part du principe
que les services internes sont à disposition de ces unités. Cette idée a été
résumée par un PDG ayant observé que « les unités opérationnelles
appliquent la stratégie avec le soutien des services internes ». Ce point de
vue semble intuitivement juste pour de nombreux managers. La raison
d’être d’une entreprise est de créer des produits et des services pour ses
clients. Il est donc logique que chaque unité opérationnelle qui fournit ces
produits ou services pilote la stratégie de son entreprise.
Mais n’oublions pas que les services internes ont également leur propre
clientèle, à savoir les unités opérationnelles, qui bénéficient de leurs
prestations. Des services qui essaient de plaire à tout le monde adoptent
inconsciemment la stratégie servile. En conséquence, ils finissent par
s’épuiser et par ne plus être à la hauteur. Ils deviennent uniformes et
impulsifs, perdant leur capacité à influencer l’entreprise et à accéder à ses
ressources. Ils ont du mal à recruter et à retenir les talents, car personne ne
veut travailler pour une entité inefficace au sein de la société.
Un service interne servile vit sous la menace constante d’être considéré
comme superflu. Ses ressources sont éparpillées et, de ce fait, aucune unité
opérationnelle n’en bénéficie réellement, ce qui incite parfois certaines
unités à créer leurs propres fonctions ou à rechercher un prestataire externe
plus efficace (ou, à tout le moins, meilleur marché).

Donner la priorité aux services internes

Compte tenu des ravages de la stratégie servile sur le personnel, il n’est pas
étonnant de voir de nombreux responsables des services internes, en
particulier dans les grandes structures, adopter une approche radicalement
différente en traitant les fonctions et les unités opérationnelles sur un pied
d’égalité en termes d’importance et de pouvoir.
Dans le cadre de cette stratégie impériale, les dirigeants placent le
travail des services internes au premier plan et accordent relativement peu
d’attention à la manière dont leur contribution s’aligne sur les besoins ou la
stratégie globale de l’entreprise. L’équipe des informaticiens crée un pôle
d’excellence dans les domaines de l’apprentissage automatique et de
l’analyse des données, aujourd’hui fers de lance du secteur informatique.
L’équipe chargée de la gestion des risques et de la conformité met en place
un dispositif complexe destiné à l’évaluation des risques et cherche ensuite
à s’immiscer dans les décisions de l’entreprise à chaque occasion. L’équipe
du service des finances instaure des systèmes de reporting sophistiqués qui
génèrent des montagnes de données financières sans se préoccuper de leur
utilité aux unités opérationnelles.
Tous les responsables de services que j’ai rencontrés qui appliquent
cette approche impériale assurent que leurs initiatives sont excellentes pour
leur groupe et pour ses activités. Cependant, ils peuvent rarement étayer
cette affirmation par des preuves autres que des exemples d’entreprises qui
se sont distinguées dans la fonction devenue leur domaine de spécialité :
l’informatique chez Google, la finance chez Goldman Sachs, les achats
chez Walmart et la logistique chez FedEx. Ils imitent ces géants sans se
soucier de savoir si la stratégie de leur entreprise ressemble de près ou de
loin à celle de l’organisation de référence. Pendant ce temps, les
responsables hiérarchiques frustrés se plaignent que les services internes
détournent les ressources des unités opérationnelles vers des activités qui ne
font guère de différence pour la compétitivité de l’entreprise sur le marché.
Le résultat, sans surprise, est une fonction qui se sert elle-même plutôt
que de servir ses clients, comme le ferait un groupe en position de
monopole. Dans un certain sens, ces fonctions détiennent effectivement un
monopole : les unités opérationnelles sont souvent interdites ou fortement
découragées par la direction générale de faire appel à des prestataires
externes pour des services RH, financiers ou autres. Le problème est que,
dans le cadre de la stratégie impériale, les services internes se retrouvent
trop facilement en proie aux pires tendances des monopoles classiques :
hypertrophie, arrogance et excès. Et, tout comme la plupart des monopoles,
ils subissent inévitablement un retour de bâton.
Or, ce n’est pas une fatalité. Les services de l’entreprise peuvent
grandement contribuer à sa compétitivité et, quand elles le font, leur apport
est souvent considérable. La fonction de recherche sur les produits chez
Procter & Gamble, par exemple, est essentielle pour permettre au groupe de
mieux connaître ses clients, car cette compétence constitue la clé de son
avantage concurrentiel et guide ses choix stratégiques. De même, la
fonction logistique chez le fabricant de papier et d’emballages WestRock
joue un rôle central dans les innovations en matière de livraison en vue
d’offrir une prestation souple et personnalisée, ce qui a permis à l’entreprise
de prendre une longueur d’avance sur ses concurrents.
En s’inspirant de ces exemples, les services internes doivent éviter les
stratégies involontaires et faire des choix clairs, précis et sans équivoque,
visant à renforcer et à préserver les capacités qui distinguent leur entreprise
sur le marché.
Étendez la stratégie aux services internes

Les deux premières questions à se poser pour un responsable de service lors


de l’élaboration d’une stratégie portent sur la définition du problème.
Premièrement, quelle est la stratégie implicite actuelle qui se reflète dans
les choix du service au quotidien ? Deuxièmement, quelles sont les priorités
stratégiques du reste de l’entreprise, et est-ce que ce service y joue un rôle
essentiel ?
Ces questions obligent les responsables de service à distinguer ce qui
fonctionne dans leur stratégie actuelle de ce qui ne fonctionne pas (que ce
soit implicite ou explicite). Peut-être leur stratégie est-elle déconnectée de
celle de l’entreprise, ce qui provoque un décalage entre les choix du service
et les besoins de l’organisation. En essayant de satisfaire tous les
départements de la société, le service peut ne pas soutenir suffisamment les
unités indispensables au succès général. Ou peut-être ce service n’aide-t-il
pas l’entreprise à développer des capacités organisationnelles pertinentes
permettant de mener à bien sa stratégie globale.
Cet exercice constitue une première étape importante, mais il ne faut pas
s’attarder sur ces questions. Il est souvent très tentant de mener de
nombreuses recherches et de documenter en détail ce que fait votre
organisation, en quoi consistent les fonctions chez vos concurrents, etc.
Cependant, explorer les moyens de résoudre un problème reste bien plus
utile que d’en faire une obsession. On peut raisonnablement s’attendre à ce
qu’un groupe de personnes intelligentes, en mobilisant leurs connaissances,
soient capables de répondre aux deux questions de manière satisfaisante
après quelques heures de discussion. Par exemple, les dirigeants d’un
constructeur automobile n’auraient pas besoin d’une analyse approfondie
pour déterminer si c’est la sécurité et la fiabilité ou bien l’image de marque
et le design qui constituent le principal défi pour leur entreprise.
Une fois le consensus atteint autour de la situation existante, l’étape
suivante consiste à envisager des solutions permettant de dépasser ce statu
quo. Cela implique de répondre à deux autres questions interdépendantes.

Où allons-nous jouer ?

En ce qui concerne les services internes, la réponse est relativement simple.


Les responsables doivent identifier leurs principaux clients au sein du
groupe (en général les unités les plus importantes pour la stratégie globale),
déterminer la prestation essentielle à fournir à ces clients (qui doit être
étroitement liée à l’avantage concurrentiel de l’entreprise) et définir quelles
activités de sa prestation seront externalisées et lesquelles seront assurées
en interne.
Supposons qu’un service RH identifie le manque de créativité des
designers comme le problème du moment au niveau de l’entreprise. Il peut
identifier ses principaux clients, à savoir les PDG des unités
opérationnelles, déterminer que sa valeur ajoutée réside essentiellement
dans le recrutement de jeunes designers et dans le développement de leurs
compétences, et décider que son activité fondamentale, à garder en interne,
serait la recherche de talents dans le domaine du design. Il peut alors choisir
de confier l’apprentissage et le développement des compétences à des
partenaires hautement qualifiés, comme les écoles de commerce et de
design, et de faire appel à des sociétés extérieures pour le recrutement et la
formation du personnel administratif.
En définissant ainsi leur terrain de jeu, les différentes fonctions peuvent
se concentrer sur les dimensions particulières de la stratégie globale de
l’entreprise. Prenons le cas d’une plateforme numérique qui poursuit une
croissance agressive en Chine et en Asie. Sa fonction RH devrait
probablement se focaliser sur ce défi, mais son département risque et
conformité pourrait s’intéresser davantage aux réglementations européennes
dont les évolutions pourraient menacer l’activité principale de l’entreprise.

Comment allons-nous gagner ?


Les stratèges d’entreprise ou d’unités opérationnelles peuvent décider
comment gagner de manière relativement simple : il suffit d’offrir une
proposition de valeur aux principaux clients qui soit meilleure que celle des
concurrents à l’égard des mêmes clients. General Electric doit trouver le
moyen de proposer une meilleure offre à ses clients professionnels que
Siemens ; Coca-Cola doit se démarquer de Pepsi aux yeux des
consommateurs de sodas. Dans chacun de ces cas, le concurrent est facile à
identifier et sa proposition de valeur et son modèle économique peuvent
être déterminés en observant ses produits et ses prix sur le marché, ainsi
qu’en étudiant ses rapports financiers.
Pour les services internes, la réponse à la question du comment gagner
est plus difficile à trouver. Il n’est pas toujours évident de déterminer la
valeur relative d’une fonction spécifique. Si l’entreprise de
télécommunications Verizon peut être tout à fait capable d’estimer la valeur
fournie par sa fonction réseau et la comparer à celle du service réseau de
son concurrent T-Mobile, elle aurait très probablement plus de mal à
comparer de la même manière les valeurs relatives de leurs fonctions RH ou
de leurs départements financiers. De plus, les services internes d’une
entreprise n’entrent pas réellement en compétition directe avec ceux d’une
autre entreprise du même secteur, parce que ces concurrents peuvent avoir
des stratégies totalement différentes qui nécessitent chacune des ressources
spécifiques. La fonction RH peut avoir une grande importance pour une
entreprise, tandis que la société concurrente valorisera davantage son
service des finances. Dans ce cas, l’entreprise orientée RH n’aura aucun
intérêt à se comparer à celle axée sur la finance. Les fonctions peuvent être
rapprochées de la sorte uniquement dans le cas où les stratégies des
entreprises présentent des similitudes. De même, il serait absurde que les
fonctions RH et finances se comparent. Souvent, le point de référence
pertinent se trouve chez un fournisseur externe.
Pour illustrer ce type de stratégie, examinons la gestion des talents chez
Four Seasons Hotels and Resorts.
La stratégie de gestion des talents chez Four
Seasons

Depuis des dizaines d’années, Four Seasons place au cœur de sa stratégie


globale sa capacité à proposer le luxe comme un service, avec son sens de
l’hospitalité et de l’accueil pour le bonheur et le bienêtre absolus de ses
clients. Le fondateur de la chaîne, Isadore Sharp, désigne dans son livre
paru en 2009 les employés de l’entreprise comme le moteur de cette
stratégie : « [Notre personnel de longue date] ne se contentait pas de faire
son travail, mais se préoccupait également du confort des clients et de sa
faculté à l’améliorer. Et notre capacité à attirer, faire progresser, motiver et
retenir ces collaborateurs a fait de notre [...] culture un atout rare. »
En effet, le service de gestion des talents de Four Seasons joue un rôle
majeur pour l’avantage concurrentiel de la société. En examinant la
démarche de M. Sharp et de l’équipe chargée des talents à travers notre
prisme de stratégie fonctionnelle, nous pouvons comprendre la manière
dont ils ont cerné leur problématique et les choix qu’ils ont faits en matière
de solutions.

Identifier le problème

Les coûts de la main-d’œuvre dans l’hôtellerie, comme c’est souvent le cas


dans le secteur tertiaire, représentent une part importante des dépenses
d’exploitation (environ 50 % actuellement). Par conséquent, les chaînes
hôtelières considèrent généralement que le coût de la main-d’œuvre doit
être optimisé. Les employés de première ligne des hôtels sont traités comme
des pièces interchangeables d’un mécanisme puissant et efficace. Il n’est
donc pas étonnant que, d’après le Bureau of Labor Statistics, le taux de
rotation annualisé des employés dans le secteur hôtelier en 2018 (c’est-à-
dire avant la pandémie de Covid-19) s’élevait à 73,8 %.
Le renouvellement des effectifs étant très important chez les
collaborateurs au contact direct avec les clients, la plupart des grandes
chaînes choisissent de se concentrer sur le recrutement d’excellents
directeurs généraux (susceptibles de rester plus longtemps), puis sur la mise
en place de mécanismes permettant d’embaucher rapidement une multitude
de nouveaux employés débutants chaque année. Le taux de rotation élevé
étant perçu comme une fatalité, les entreprises investissent rarement dans la
fidélisation du personnel de première ligne, car, selon elles, c’est une cause
perdue. Au lieu de cela, pour résoudre les problèmes de la main-d’œuvre,
les entreprises du secteur se concentrent sur l’optimisation des coûts en
rognant sur les heures de travail du personnel, en mettant en place des
protocoles pour augmenter la productivité, etc. (voir l’encadré « Les oubliés
de la stratégie »).
Isadore Sharp a découvert l’existence et le fonctionnement de toutes ces
normes à son arrivée dans le secteur de l’hôtellerie. Peu à peu, il a
commencé à s’y opposer. À l’époque, les chaînes hôtelières définissaient le
luxe essentiellement par son apparence : architecture et décor grandioses
allaient de pair avec un service obséquieux, uniformisé et standardisé. M.
Sharp pensait que le luxe ne pouvait être réduit à l’apparence, qu’il
concernait aussi la manière de traiter les personnes. Le personnel de
première ligne devait être la clé pour un service totalement différent :
chaleureux, accueillant et capable de se substituer à toute forme
d’assistance dont les clients disposaient à la maison et au bureau.
La stratégie type de gestion des talents dans l’hôtellerie (qui consiste à
accepter le renouvellement du personnel de première ligne comme un fait
inévitable et à s’efforcer de l’atténuer ; à investir uniquement dans la
fidélisation et la progression de l’équipe de direction) ne correspondait pas
à la nouvelle vision de M. Sharp pour son entreprise. Au fur et à mesure de
sa croissance, son équipe chargée des ressources humaines devait faire un
certain nombre de choix en vue de s’aligner sur la stratégie globale et de
renforcer les services au contact de la clientèle.
Les oubliés de la stratégie

Dans la première moitié du xxe siècle, les grandes entreprises partout dans le monde
étaient presque toutes organisées autour de fonctions, notamment la fabrication, le
marketing, les RH et la finance. Mais à partir de la fin des années 1950 et tout au long
des années 1960, la plupart d’entre elles ont adopté une structure organisée autour
des unités opérationnelles centrées sur les produits, en réponse à la nécessité pour
chaque ligne de produits de disposer d’une stratégie et d’une responsabilité claires,
afin de devancer les marques concurrentes.
La taille, la portée et l’échelle des entreprises ne cessant de croître, il devenait
compliqué de jongler avec le responsable de la fabrication, le responsable du
marketing et le responsable des ventes remplissant leurs fonctions respectives au sein
de chaque ligne de produits. Une nouvelle structure d’entreprise a vu le jour, dans
laquelle les unités opérationnelles des lignes de produits ont développé leurs propres
fonctions de manière indépendante. Chaque unité opérationnelle ou équipe produit
effectuait désormais ses propres tâches en matière de ressources humaines, de
comptabilité, de recherche et développement et de services logistiques, ce qui a donné
naissance aux conglomérats, une forme d’organisation des entreprises populaire dans
les années 1970 et 1980.
Quelques années plus tard, l’heure a sonné de se rendre à l’évidence : l’organisation
en conglomérat n’apportait pas suffisamment de valeur ajoutée aux entreprises pour
compenser les coûts de maintien de tous ces services internes dans chaque entité. Les
entreprises ont commencé à regrouper leurs nombreuses activités fonctionnelles, ce
qui a permis une plus grande spécialisation, efficacité et cohérence dans chaque
domaine.
Les services internes centralisés ont été conçus et organisés par fonction dans le but
de réaliser des économies ou d’ajouter de la valeur, ce qui n’aurait pas été possible si
ces services travaillaient de manière décentralisée et à plus petite échelle. Les achats
allaient devenir moins chers, le recrutement mondial allait être plus efficace, et la R&D,
plus performante à grande échelle, du moins en principe. Les services de marketing,
de RH et des finances allaient tous être organisés de manière plus rationnelle à travers
l’ensemble des activités. Malheureusement, au cours de cette évolution, les questions
de savoir ce que ces fonctions devraient (ou ne devraient pas) faire et comment elles
devraient penser la stratégie sont restées en grande partie sans réponse. La pratique
de la stratégie d’entreprise n’a pris forme que dans les années 1960, alors que la
transition vers la structure organisationnelle axée sur les produits était largement
achevée. En conséquence, la stratégie s’est entièrement concentrée sur les lignes de
produits, que ce soit en théorie ou en pratique, en laissant les services internes sur le
bas-côté.

Déterminer où jouer et comment gagner


L’équipe de gestion des talents de Four Seasons a identifié le personnel de
première ligne comme son client interne et, afin de se démarquer de ses
concurrents, elle s’est concentrée sur le recrutement, la fidélisation et la
motivation de ces employés. Plutôt que de sélectionner les candidatures sur
la base d’un CV ou par l’intermédiaire de recruteurs tiers, M. Sharp a
mobilisé les ressources nécessaires pour faire passer aux candidats cinq
entretiens préalables à l’embauche, dont le dernier avec le directeur général
de l’hôtel. Ce processus a permis une sélection plus minutieuse du
personnel, recruté pour son attitude plutôt que pour son expérience.
L’équipe chargée de la gestion des talents a également investi dans
l’allongement de la durée du contrat, faisant en sorte que le premier emploi,
au lieu de mener à une impasse, devienne un tremplin pour une carrière
professionnelle. Cela a enclenché un cercle vertueux : si l’ancienneté
moyenne chez Four Seasons approchait les vingt ans, l’équipe chargée des
talents pouvait se permettre d’investir pour le recrutement, la formation et
les récompenses de chaque collaborateur dix fois plus que ses concurrents,
dont les employés restaient au mieux un an. Cela permettait à Four Seasons
d’avoir des équipes bien mieux formées et plus expérimentées, sans que
leur coût global soit plus élevé.
En retour, Four Seasons a pu compter sur des employés plus heureux,
plus loyaux, plus compétents et plus longtemps en poste sous la direction
d’Isadore Sharp, ce qui lui a permis d’offrir un service de qualité supérieure
et d’obtenir de généreux bonus. L’entreprise a mis en place un système
rigoureux pour s’assurer que ses capacités de service étaient toujours au
rendez-vous. Sa politique de recrutement et d’embauche a été formalisée et
étendue. Ses dispositifs de formation sont devenus légendaires. Four
Seasons a prospéré sous la direction d’Isadore Sharp, devenant la chaîne
d’hôtels de luxe la plus importante et la plus rentable au monde. Et sa
stratégie en matière de talents a été un fort vecteur de succès.
Élaborez les stratégies pour les fonctions
supports

Toutes les stratégies destinées aux services internes ne sont pas aussi
directement liées à l’avantage concurrentiel d’une entreprise que celle
appliquée par le service de gestion des talents chez Four Seasons. Dans les
cas où le lien est plus ténu, il est tout de même important de comprendre les
choix du service et le rôle qu’il joue dans le succès global de la société. En
d’autres termes, les fonctions supports doivent être efficaces et rentables,
afin de permettre à l’entreprise d’investir dans les compétences décisives
pour son avantage concurrentiel. Si les fonctions supports font de mauvais
choix, elles mettent en péril la stratégie globale de l’entreprise.
Prenons comme exemple un service risque et conformité classique. Pour
certaines entreprises, une évaluation et une atténuation efficace des risques
permettent de se démarquer de la concurrence. Mais en général, ce n’est pas
le cas, même si cette fonction reste essentielle pour maintenir l’entreprise
en activité. La problématique de stratégie pour ce type de service peut alors
être formulée de plusieurs façons. Il peut s’agir de normes : comment
s’assurer que la formation en matière de conformité est suffisante pour
prévenir les catastrophes et éviter à l’entreprise de faire la une des journaux
? Ou bien la problématique peut concerner les parties prenantes : de quelle
manière faut-il forger la réputation de l’entreprise auprès des investisseurs ?
Ou encore, comment aider les managers à comprendre et à quantifier les
risques opérationnels ?
La fonction doit également choisir qui elle doit servir et par quel moyen.
Par exemple, elle peut décider de s’intéresser aux employés de première
ligne ou aux dirigeants de l’unité opérationnelle, à savoir le PDG ou le
conseil d’administration. Elle peut considérer tous ces groupes comme des
clients potentiels, mais elle doit déterminer lequel sera son consommateur
principal et auprès duquel elle doit élaborer une stratégie gagnante. Par
exemple, un département de conformité qui considère que les principaux
risques de l’entreprise concernent la santé et la sécurité est susceptible de se
concentrer sur les directeurs d’usines. Il peut également choisir de se
concentrer sur le conseil aux managers amenés à prendre des décisions en
matière d’exploitation (notamment sur l’aménagement de l’usine ou sur
l’équipement à utiliser) ou de se consacrer à la formation des collaborateurs
à la conformité.
Les compromis doivent être dégagés de la même façon concernant la
manière de gagner. Une fonction de conformité qui accompagne les
décideurs préoccupés par la sécurité pourrait assurer sa réussite en nouant
une relation de confiance avec ces décideurs et en creusant les sujets au lieu
d’utiliser une approche plus large et superficielle. Ainsi, cette fonction sera
considérée comme un partenaire fiable dans la prise de décision de haut
niveau. Si elle choisit de s’intéresser davantage à la formation à la
conformité des collaborateurs, sa démarche pourrait se traduire par une
offre personnalisée d’apprentissage en ligne, percutante, mais bien dosée,
permettant aux décideurs d’augmenter la fréquence des séances de
sensibilisation des employés aux risques tout en réalisant des économies en
termes de temps et de coûts, ce qui serait impossible dans le cadre d’un
cours classique ou d’utilisation de logiciels de formation grand public.

•••

Les fonctions internes de l’entreprise n’ont pas à être au service de grands


patrons, pas plus qu’elles ne doivent se transformer en petits tyrans
bâtissant leurs propres empires. À l’instar des unités opérationnelles, les
services internes peuvent utiliser la stratégie afin de guider et de coordonner
leurs actions, d’allouer leurs ressources de manière plus efficace et de
valoriser considérablement les atouts qu’ils présentent en matière de
compétitivité. Les services internes sont amenés à faire des choix
quotidiennement, tout comme le reste du groupe. Développer une stratégie
cohérente pour les orienter peut leur permettre de devenir des moteurs
essentiels de la réussite de leur entreprise.1
Ce chapitre est adapté de l’article coécrit par Roger L. Martin et Jennifer Riel, « The One
Thing You Need to Know About Managing Functions », Harvard Business Review, juillet-
août 2019.
Partie 4
Les activités clés de
l’entreprise
Chapitre 9

La planification

La planification ne remplace pas la stratégie.

Tous les cadres dirigeants savent combien la stratégie est importante, mais
presque tous la trouvent également effrayante parce qu’elle les pousse à
affronter un avenir incertain. Pire encore, choisir une stratégie amène à
prendre des décisions qui obligent à renoncer purement et simplement à
certaines possibilités et options. Il est légitime qu’un dirigeant puisse
craindre qu’un mauvais choix ne vienne compromettre sa carrière.
Il est donc tout à fait naturel de rendre ce défi moins intimidant en le
transformant en un problème qu’il est possible de résoudre avec des outils
ayant fait leurs preuves. Cela se traduit presque systématiquement par des
semaines, voire des mois passés à préparer un plan exhaustif des
investissements futurs dans les moyens de production et les actifs nouveaux
ou existants, avec un objectif à la clé : gagner une part de marché plus
importante ou se positionner sur un nouveau marché. Le plan est
généralement complété par des feuilles de calcul détaillées qui projettent les
coûts et les recettes dans un avenir assez lointain. À l’issue de ce processus,
tout le monde paraît bien plus rassuré.
C’est précisément la raison pour laquelle il est indispensable de
comprendre que la planification ne remplace pas la stratégie. À la rigueur,
la planification reste un très bon moyen de gérer des angoisses face à
l’inconnu, mais la peur et le malaise font partie intégrante et essentielle de
l’élaboration de la stratégie. En réalité, si vous êtes tout à fait à l’aise avec
votre plan stratégique, il y a de fortes chances qu’il ne soit pas très bon et
que vous soyez probablement tombé dans un ou plusieurs des pièges que je
vais décrire dans ce chapitre. Vous devez absolument ressentir de
l’appréhension et un manque de sérénité : une véritable stratégie consiste à
prendre des paris et à faire des choix difficiles. L’objectif n’est pas
d’éliminer les risques, mais d’augmenter ses chances de réussite.
Dans cette perspective, les managers reconnaissent qu’une bonne
stratégie n’est pas le fruit d’une recherche et d’une modélisation menées
scrupuleusement pendant des heures en vue d’aboutir à une solution logique
et presque parfaite. Il s’agit plutôt du résultat d’un processus simple et assez
direct qui consiste à réfléchir sur les moyens possibles d’atteindre votre
objectif, puis à évaluer si leur mise en œuvre est réaliste. Si les cadres
dirigeants adoptent cette démarche, alors peut-être – mais seulement peut-
être – pourront-ils conserver la stratégie à sa place, c’est-à-dire en dehors de
la zone de confort que représente la planification.
Piège n° 1 : confondre plan et stratégie

Lorsqu’on évoque le terme stratégie, on l’associe presque automatiquement


à la notion de plan, notamment en parlant de processus de « planification
stratégique » ou du « plan stratégique » qui en résulte. Le glissement
sémantique subtil de la stratégie vers la planification se produit parce que
cette dernière constitue un exercice tout à fait faisable et rassurant.
Tous les plans stratégiques se ressemblent et se composent généralement
de trois parties. La première concerne une vision ou une déclaration de
mission qui fixe un objectif plutôt exigeant et ambitieux. La deuxième porte
sur une liste d’initiatives que l’entreprise doit mener pour atteindre son
objectif, comme le lancement de produits, l’expansion géographique ou des
projets de construction. Cette partie a tendance à être bien structurée, mais
aussi extrêmement longue, sa seule limite étant généralement dictée par des
contraintes financières.
La troisième requiert la conversion des initiatives en éléments financiers
afin que le plan colle parfaitement au budget annuel. Les plans stratégiques
deviennent le préambule descriptif du budget, avec des comptes projetés
habituellement sur cinq ans afin d’avoir l’air « stratégique ». Cependant, la
direction ne s’engage généralement que pour la première année ; pour les
deux à cinq années suivantes, l’aspect « stratégique » revêt en réalité un
caractère « chimérique ».
Si cet exercice permet sûrement d’établir un budget de manière plus
méthodique et rigoureuse, il convient néanmoins de bien distinguer le
concept de stratégie de celui de planification. Cette dernière ne dit
généralement rien des choix écartés par l’organisation ni de la raison pour
laquelle l’entreprise prend de telles décisions. La planification ne remet pas
en question les hypothèses. Dans sa logique, elle repose principalement sur
la disponibilité de ressources financières : le plan comportera toutes les
actions que l’entreprise pourra mener dans la limite de ses moyens.
Confondre planification et stratégie est un piège classique. Même les
membres du conseil d’administration, qui sont censés veiller à l’intégrité
des dirigeants dans ce domaine, tombent dans le panneau. Après tout, ce
sont principalement d’anciens ou d’actuels gestionnaires qui jugent plus
prudent de superviser la planification que d’encourager les choix
stratégiques. En outre, la bourse s’intéresse davantage aux objectifs à court
terme décrits dans les plans qu’aux objectifs à long terme qui se trouvent au
cœur de toute stratégie. Ainsi, les analystes examinent les plans d’abord
pour déterminer si les entreprises sont en mesure d’atteindre leurs objectifs
trimestriels.
Piège n° 2 : raisonner en termes de coût

L’accent mis sur la planification oriente naturellement la réflexion vers les


coûts. En effet, ceux-ci se prêtent merveilleusement à la planification, car
l’entreprise les maîtrise dans leur ensemble. Dans le contexte de ses
dépenses, elle endosse généralement le rôle de consommateur. Elle décide
du nombre de collaborateurs à embaucher, de mètres carrés de locaux à
louer, de machines et outils à se procurer, de publicités à diffuser, etc.
Comme n’importe quel consommateur, une entreprise peut, dans certains
cas, décider de ne plus acheter un bien ou un service particulier. Ainsi,
même les coûts de licenciement ou de fermeture peuvent être contrôlés.
Bien sûr, il y a des exceptions. Les autorités publiques demandent aux
entreprises de payer les charges sociales pour chaque employé d’une part, et
de s’acquitter d’un certain nombre de services de mise en conformité
d’autre part. Mais les exceptions ne font que confirmer la règle : les coûts
imposés à l’entreprise par des tiers ne représentent qu’une fraction
relativement faible de l’ensemble des charges, et la plupart de ces dépenses
sont dérivées des coûts maîtrisés par l’organisation (les charges sociales,
par exemple, ne sont dues que lorsque l’entreprise décide d’embaucher un
salarié).
Les coûts sont rassurants, puisqu’il est possible de les planifier de façon
assez précise. Il s’agit d’un exercice important et utile, car les coûts hors de
contrôle peuvent endommager, voire détruire une entreprise. Le problème
de ces approches axées sur les coûts est que les gestionnaires qui en sont
familiers et qui suivent la logique de la planification tendent à traiter les
recettes de façon identique, en considérant qu’il est possible de les prévoir à
l’instar des coûts et de les faire apparaître au même titre dans le cadre d’un
plan et d’un budget global. Ce raisonnement conduit bien souvent à un
travail laborieux à réaliser en vue d’établir des prévisions de recettes par
vendeur, par produit, par canal et par région.
Mais lorsque les gains escomptés ne sont pas au rendez-vous, les
responsables se sentent désorientés, voire lésés. « Qu’aurions-nous pu faire
de plus ? se demandent-ils. Nous avons déjà passé tant d’heures à planifier !
»
Il existe une raison simple pour laquelle la planification des recettes ne
produit pas le même effet : si, en matière de coûts, le contrôle est aux mains
de l’entreprise, pour les recettes, ce sont les clients qui tiennent les rênes. À
l’exception de rares cas de monopole, les clients sont toujours les seuls à
décider de donner de l’argent à une entreprise, à son concurrent ou de n’en
donner à personne. Les entreprises peuvent se bercer d’illusions en pensant
maîtriser leurs recettes, mais dans la mesure où celles-ci relèvent de l’avenir
incertain, leur planification, leur budgétisation et leurs prévisions incarnent
une promesse chimérique.
Bien entendu, il est beaucoup plus facile de planifier l’avenir à court
terme pour les entreprises ayant des contrats à long terme avec leurs clients.
Par exemple, le fournisseur d’informations commerciales Thomson Reuters
génère la majeure partie de ses revenus annuels à partir d’abonnements
pluriannuels. Le seul montant variable du plan correspond à la différence
entre les ventes de nouveaux abonnements et le non-renouvellement des
contrats en cours. De même, si une entreprise dispose d’un long carnet de
commandes, comme c’est le cas de Boeing, elle sera en mesure de prévoir
les chiffres de ses ventes avec plus de précision – bien que les tribulations
du Boeing 737 MAX démontrent que même les « commandes fermes » ne
se traduisent pas automatiquement par des revenus assurés. À plus long
terme, toutes les recettes d’une entreprise dépendent directement du client.
Par conséquent, en termes de résultat net, la nature prévisible des
dépenses diffère radicalement de celle des chiffres de ventes. La
planification n’est pas en mesure de faire apparaître les recettes comme par
magie. Cela n’arrivera jamais. Les efforts que vous consacrez à
l’élaboration de plans en la matière vous détournent de la tâche beaucoup
plus difficile qui incombe à un stratège : celle de trouver des moyens
d’attirer et de fidéliser les clients.
Piège n° 3 : se référer à sa propre entreprise

Ce piège est peut-être le plus insidieux, car il guette même les gestionnaires
qui, après avoir réussi à éviter les écueils de la planification et des coûts,
tentent d’élaborer une véritable stratégie. Pour la définir et la structurer, la
plupart des dirigeants adoptent l’un des nombreux cadres classiques.
Malheureusement, deux de ces modèles les plus répandus peuvent conduire
l’utilisateur non averti à concevoir une stratégie entièrement axée sur les
paramètres que l’entreprise est capable de contrôler.
En 1978, Henry Mintzberg a publié un article marquant dans la revue
Management Science qui présentait ce qu’il avait appelé une stratégie
émergente. Il a ensuite popularisé ce concept auprès d’un public plus large
et non universitaire dans son livre à succès Grandeur et décadence de la
planification stratégique paru en 1994. L’analyse de Henry Mintzberg
frappe par sa simplicité et par sa pertinence. Il distingue la stratégie
délibérée, qui part d’une intention spécifique, de la stratégie émergente qui,
au contraire, se produit à la suite d’une variété d’événements non anticipés
auxquels l’entreprise doit réagir.
La pensée de Henry Mintzberg a été nourrie par son observation : il a pu
constater que les hommes surestiment leur capacité à prédire l’avenir et à le
planifier de manière précise et maîtrisée. En établissant une telle distinction
entre les deux concepts, il voulait encourager les managers à surveiller
attentivement les changements dans leur environnement et à adapter leur
stratégie délibérée en conséquence. En outre, il a mis en garde contre les
dangers de s’en tenir à une stratégie fixe face à des évolutions majeures de
l’environnement concurrentiel.
Bien que ce soient des conseils éminemment judicieux que tout
gestionnaire serait bien avisé de suivre, la plupart des managers ne le font
pas et se servent, au contraire, de l’idée selon laquelle une stratégie se
profile en fonction des événements pour déclarer qu’en raison du caractère
tellement imprévisible et volatile de l’avenir, faire des choix stratégiques
n’a aucun sens tant que le contexte n’est pas devenu suffisamment clair.
Remarquez combien cette interprétation est réconfortante : il n’est plus
nécessaire de se mettre dans une situation angoissante qui impose de
prendre des décisions sur des éléments inconnus et hors de contrôle.
En creusant un peu cette logique, on découvre des failles dangereuses.
Si l’avenir est trop imprévisible et trop changeant pour prendre des
décisions stratégiques, qu’est-ce qui peut amener un manager à croire qu’il
le sera beaucoup moins un jour ? Et comment ce manager reconnaîtra-t-il le
moment où la certitude est suffisamment élevée et la volatilité suffisamment
faible pour commencer à faire des choix ? Bien sûr, un tel postulat est
indéfendable, puisque le moment où l’avenir peut être considéré avec
certitude comme prévisible n’arrivera jamais.
Par conséquent, le concept de stratégie émergente est simplement
devenu une excuse bien commode pour éviter de se confronter à des choix
difficiles et pour reproduire des schémas qui semblent réussir à d’autres en
« suiveur rapide », et pour échapper ainsi à toute critique pour ne pas avoir
adopté une stratégie audacieuse. Se contenter d’imiter les concurrents ne
produira jamais un avantage unique ou valable. Mintzberg n’avait pas
envisagé ce concept dans cette perspective, mais c’est un résultat fréquent
de son application, car le principe de stratégie émergente s’inscrit dans les
zones de confort des managers.
En 1984, six ans après la publication de la théorie de Mintzberg, Birger
Wernerfelt a avancé une théorie sur les barrières de positionnement des
ressources dans son article « A Resource-Based View of the Firm », qui
introduisait un autre concept de stratégie, accueilli également avec
enthousiasme. Mais ce n’est pas avant 1990, suivant la parution dans la
HBR de l’un des articles les plus lus de tous les temps et portant sur les
compétences clés de l’entreprise, « The Core Competence of the
Corporation » de C. K. Prahalad et G. Hamel, que la théorie de B.
Wernerfelt, centrée sur les ressources, a été adoptée par les managers.
Selon la théorie des ressources, la clé de l’avantage concurrentiel d’une
entreprise réside dans la possession de ressources précieuses, rares,
inimitables et non substituables.
Ce concept est devenu extrêmement attrayant pour les cadres, car il
semblait indiquer que le rôle de la stratégie consistait à identifier et à
développer des « compétences essentielles » ou des « capacités stratégiques
». Notez que cela relève de l’univers rassurant de ce qui peut être connu et
contrôlé. Toute entreprise est capable de mettre en place une force de vente
technique, un laboratoire de développement de logiciels ou un réseau de
distribution et déclarer qu’il s’agit de sa compétence clé. Les dirigeants
peuvent investir aisément dans ces capacités et contrôler l’ensemble du
processus. Dans les limites du raisonnable, ils peuvent même garantir le
succès.
Il n’en demeure pas moins que les capacités stratégiques en ellesmêmes
n’incitent pas le client à acheter un produit ou un service. Il est possible d’y
parvenir uniquement en offrant un meilleur rapport qualité-prix à un
segment particulier de clients. Cependant, les clients et l’environnement
sont des éléments impossibles à connaître ou à commander. De nombreux
dirigeants préfèrent se concentrer sur les infrastructures à construire : c’est
un projet plus sûr. Et si cette stratégie ne donne pas de résultats, ils pourront
toujours tenir pour responsables des clients capricieux ou des concurrents
imprévisibles.
Comment éviter les pièges

Les entreprises tombées dans ces pièges sont faciles à identifier (voir
l’encadré « Êtes-vous bloqué dans la zone de confort de la planification ?
»). Dans ces entreprises, les conseils d’administration ont tendance à être
très à l’aise avec les planificateurs et à passer beaucoup de temps à
examiner et à approuver leurs prévisions. Les discussions dans les réunions
entre la direction et le conseil d’administration sont susceptibles de se
concentrer sur la manière de tirer plus de profit des revenus actuels plutôt
que sur les possibilités de générer de nouvelles recettes. Les principaux
indicateurs examinés portent sur les finances et les capacités ; les aspects
ayant trait à la satisfaction des clients ou à la part de marché (et surtout à
l’évolution de cette dernière) passent au second plan.
Comment une entreprise peut-elle éviter ces écueils ? Le problème étant
ancré dans l’aversion naturelle de l’être humain pour l’inconfort et la peur,
le seul remède consiste à adopter une discipline en matière d’élaboration de
stratégies qui soit en mesure de nous faire accepter la perspective d’une
certaine angoisse. Il s’agit de s’assurer que le processus d’élaboration de la
stratégie est conforme à trois règles de base. S’en tenir aux règles qui
suivent n’est pas évident – il est plus tentant de rester dans la zone de
confort – et ne débouche pas nécessairement sur une stratégie réussie. Mais
si vous pouvez les suivre, vous aurez à tout le moins la certitude que votre
stratégie ne sera pas mauvaise.

Êtes-vous bloqué dans la zone de confort de la


planification ?
Probablement : si vous disposez d’une grande équipe chargée de la planification
stratégique de l’entreprise.
Probablement pas : si, à supposer que vous disposiez d’un groupe de réflexion en
matière de stratégie globale, celui-ci est minuscule.
Probablement : si, outre les bénéfices, vos indicateurs de performance les plus
importants se fondent sur les coûts et les capacités.
Probablement pas : si, outre les bénéfices, vos indicateurs de performance les plus
importants se fondent sur la satisfaction des clients et la part de marché.

Probablement : si la stratégie fait l’objet d’une présentation au conseil par votre équipe
de planification stratégique.
Probablement pas : si la stratégie est présentée au conseil d’administration par les
cadres hiérarchiques.

Probablement : si les membres du conseil d’administration insistent sur le besoin


d’avoir la preuve que la stratégie va fonctionner avant de la valider.
Probablement pas : si les membres du conseil d’administration demandent une
description complète des risques liés à une stratégie avant de la valider.

Règle n° 1 : simplifiez la formulation de votre stratégie

Concentrez vos efforts sur les choix essentiels qui influent sur les décisions
des acteurs ayant un impact sur vos recettes, c’est-à-dire vos clients. Ils
décideront de dépenser leur argent chez vous si votre proposition de valeur
est plus intéressante que celle de vos concurrents. Deux critères sont
déterminants pour le succès : il convient de décider « où jouer » (quels
clients cibler en particulier) et « comment gagner » (que faire pour créer
une offre attractive pour ce segment client). Sans faire partie du groupe
cible ou faute de se trouver dans la zone où l’entreprise choisit de mener ses
activités, le client ne sera probablement même pas au courant de la
disponibilité et de la nature de son offre. Si le client connaît déjà
l’entreprise, le choix du « comment gagner » sera déterminant pour le
convaincre que le rapport qualité-prix proposé peut le satisfaire.
Armée d’une stratégie qui ne porte que sur ces deux aspects, l’entreprise
n’aura pas besoin de passer des heures à élaborer péniblement les
documents de planification. Il n’y a aucune raison pour que les choix
stratégiques d’une entreprise ne puissent pas être résumés en une page avec
des mots et des concepts simples. Définir les choix stratégiques en fonction
des options à prendre, à savoir « où jouer » et « comment gagner », permet
d’ancrer la discussion dans la réalité et rend plus probable que les managers
affrontent les défis stratégiques de l’entreprise au lieu de se réfugier dans
leur zone de confort, c’est-à-dire la planification.

Règle n° 2 : renoncez à la perfection

Comme constaté plus tôt, les managers pensent malgré eux que, à l’instar
de la planification des coûts, on s’attend à ce que la stratégie soit précise et
réellement prédictive. Autrement dit, elle doit être quasiment parfaite. Or,
étant donné que la stratégie porte principalement sur les recettes et non sur
les coûts, la perfection est une exigence impossible à satisfaire. Dans le
meilleur des cas, la stratégie augmente les chances de l’entreprise de
gagner. Les managers doivent bien assimiler ce principe pour ne pas se
laisser impressionner par le processus d’élaboration de stratégies.
Pour ce faire, les conseils d’administration et les chargés de conformité
doivent soutenir l’idée selon laquelle la stratégie implique d’accepter un
pari au lieu de la saper. À chaque fois qu’un conseil d’administration
demande aux dirigeants s’ils sont sûrs de leur stratégie ou que le service de
conformité les somme d’attester de la rigueur de leurs processus
décisionnels, cela ne fait qu’affaiblir la démarche d’élaboration stratégique.
Ces instances doivent reconnaître que l’avenir ne sera jamais prévisible et
contrôlable comme elles le souhaitent, puisque ce n’est tout simplement pas
ainsi que le monde fonctionne. À défaut, au lieu de la stratégie, elles
obtiendront une planification, suivie d’un tas d’excuses pour expliquer
pourquoi les bénéfices n’étaient pas au rendez-vous.

Règle n° 3 : explicitez les raisons de vos décisions

Le seul moyen sûr d’améliorer les chances de succès de vos décisions


stratégiques est de tester votre raisonnement. Quelles doivent être vos
croyances au sujet des clients, de l’évolution de votre secteur, de la
concurrence et de vos capacités pour que vos choix aient du sens ? Il est
essentiel de rédiger les réponses à ces questions, car l’esprit humain a
tendance à réécrire l’histoire et à affirmer que les événements se sont
déroulés en grande partie comme on les avait prévus plutôt que de se
rappeler la manière dont les paris stratégiques ont été pris et pour quelle
raison. Si la logique de la stratégie est notée puis comparée aux faits réels,
les managers pourront tout de suite voir à quel moment leur stratégie
échoue à produire les résultats escomptés et comment cela se manifeste,
afin de procéder aux ajustements nécessaires comme l’avait imaginé Henry
Mintzberg. De plus, en considérant la réussite et l’échec avec un certain
degré de rigueur, les managers seront en mesure d’améliorer la prise de
décisions stratégiques.
À mesure que les managers appliquent les présentes règles, ils verront
leur appréhension face à des choix stratégiques diminuer. Cela fonctionne
jusqu’à un certain point, mais cette méthode présente également des limites.
Si une entreprise est parfaitement à l’aise avec ses choix, elle risque de
passer à côté de changements importants dans son environnement. J’ai fait
valoir que la planification, la gestion des coûts et la focalisation sur ses
propres capacités sont des pièges dangereux pour le stratège. Pourtant, ces
activités restent essentielles ; aucune entreprise ne peut s’en passer. En
effet, si c’est la stratégie qui, en orientant les clients vers les produits de
l’entreprise, permet de générer des recettes, ce sont bien la planification, le
contrôle des coûts et les capacités qui déterminent si ces recettes peuvent
être obtenues de manière rentable. La nature humaine étant ce qu’elle est, la
planification et les autres activités domineront toujours la stratégie au lieu
de la servir, à moins de fournir un effort conscient pour l’en empêcher. Il y a
de peu de chances que vous fassiez cet effort si vous vous trouvez tout à fait
à l’aise avec la stratégie de votre entreprise.1

Ce chapitre est adapté de l’article de Roger L. Martin, « The Big Lie of Strategic Planning »,
Harvard Business Review, janvier-février 2014.
Chapitre 10

La mise en œuvre de la
stratégie

La stratégie et sa mise en œuvre, c’est la même chose.

La croyance selon laquelle la stratégie est distincte de sa mise en œuvre


s’est fermement ancrée dans la pensée du management au cours des vingt
dernières années. On ne connaît pas exactement son origine mais, en 2002,
au lendemain de l’éclatement de la bulle Internet, Jamie Dimon,
aujourd’hui PDG de JPMorgan Chase, a déclaré : « Je préfère de loin
l’application parfaite d’une stratégie moyenne à une idée géniale, mais mal
réalisée. » La même année, les auteurs du livre à succès Tout est dans
l’exécution, dont Larry Bossidy, l’ancien PDG d’AlliedSignal1, ont déclaré
que « très souvent, les stratégies échouent parce qu’elles ne sont pas bien
exécutées ».
Cependant, la doctrine selon laquelle la clé du succès d’une stratégie
réside dans sa mise en œuvre est aussi erronée qu’elle est populaire (et cette
notoriété nous décourage de remettre en question la validité du principe).
Supposons que vous ayez une théorie selon laquelle les corps célestes
tournent autour de la Terre mais que vous constatiez de plus en plus souvent
que cette théorie ne permet pas de prévoir correctement le mouvement des
étoiles et des planètes. Est-il plus cohérent de remettre en question la
véracité de votre théorie ou de continuer à proposer des explications
toujours plus compliquées, alambiquées et improbables pour interpréter les
écarts de résultats ? Adopter la doctrine des fameux PDG Dimon et Bossidy
au détriment du principe de simplicité vous ferait sérieusement tourner en
rond.
Hélas, c’est exactement ce qui se passe la plupart du temps quand les
gestionnaires essaient de comprendre pourquoi leur stratégie échoue,
surtout en cas de collaboration avec des cabinets de conseil. En réalité,
l’approche Dimon-Bossidy est d’un secours providentiel pour ces sociétés,
car elle leur permet de rejeter sur leurs clients la responsabilité de toute
erreur qu’elles pourraient commettre. Elles peuvent en effet affirmer : « Ce
ne sont pas nos conseils en matière de stratégie qui vous feront défaut, mais
votre façon de la mettre en œuvre (et pour vous aider à surmonter cette
difficulté, nous nous proposons d’effectuer pour vous quelques travaux
relatifs à la gestion du changement). »
Bien entendu, laisser les cabinets de conseil s’en mettre plein les poches
ne contribue en rien à améliorer les performances de la plupart des
entreprises. C’est le modèle selon lequel la formulation de la stratégie et son
application sont deux choses distinctes qui est problématique. En réalité, un
modèle vraiment efficace repose sur l’idée selon laquelle la stratégie et sa
mise en œuvre, c’est la même chose. Vous ne pouvez pas aborder la stratégie
isolément de son déploiement.
Dans ce chapitre, je m’efforcerai de vous montrer que la formule qui
impose de choisir entre une stratégie médiocre, mais bien appliquée et une
stratégie brillante, mais mal exécutée, est extrêmement trompeuse : elle
prône une vision étriquée, inefficace et susceptible d’entraîner des
conséquences négatives inattendues. Cependant, la bonne nouvelle est
qu’en renonçant à la pseudo-distinction entre la stratégie et sa mise en
œuvre, nous pouvons grandement influer sur le résultat.
Détachez-vous du modèle stratégie-
exécution

Nombre de personnes dans le monde des affaires pensent que la stratégie est
l’apanage des cadres supérieurs qui, souvent aidés par des consultants
externes, la formulent et en confient ensuite la mise en œuvre au reste de
l’organisation.
La métaphore qui nous aide à visualiser ce processus est celle du corps
humain. Le cerveau (la haute direction) pense et choisit, tandis que le corps
(l’organisation) exécute ce que le cerveau lui demande. Une action réussie
se compose donc de deux éléments distincts : la formulation par le cerveau
et l’exécution par le corps. Au stade de la formulation, le cerveau décide : «
Maintenant, je vais prendre cette fourchette. » Puis, au stade de la mise en
œuvre, la main obéit en saisissant la fourchette. La main ne choisit pas, elle
exécute. Le flux est à sens unique : du cerveau responsable de l’énoncé à la
main chargée de l’exécution. Cette main devient un « exécutant privé de
choix ».
Un spécialiste en neurosciences pourrait trouver cette simplification de
l’activité fonctionnelle contestable (ainsi que l’ordre réel des tâches), mais
c’est une image fidèle du modèle reconnu de la stratégie organisationnelle
dans lequel la stratégie consiste à décider, et la mise en œuvre, à réaliser.
Pour rendre ce concept plus concret, imaginez que vous êtes le PDG
d’une grande banque de détail. Avec votre équipe vous formulez votre
stratégie client. Vous transmettez votre formulation aux succursales de la
banque, et cette stratégie est appliquée au quotidien par les représentants du
service clientèle, qui sont donc les exécutants privés de choix. Ils suivent un
mode d’emploi qui leur indique comment traiter les clients, comment
réaliser les transactions, quels produits promouvoir et comment les vendre.
Le travail difficile consistant à faire tous les choix relatifs à ces opérations
est laissé à des personnes plus haut placées dans l’organigramme de la
société, jusqu’à vous-même. Ceux qui sont en première ligne n’ont
absolument rien à choisir : ils doivent simplement exécuter.
Le croyez-vous vraiment ? Je vais vous raconter un épisode que j’ai
vécu quand j’ai travaillé pour une grande banque de détail au début des
années 1980. La banque était en train de revoir sa stratégie et, en tant que
jeune consultant, j’ai demandé à suivre un guichetier (c’est ainsi qu’on
appelait les représentants du service clientèle à l’époque) pour mieux cerner
les opérations. On m’a proposé d’observer le travail de Mary, qui était la
meilleure employée de sa branche. En la côtoyant pendant quelques
semaines, j’ai commencé à percevoir son mode de fonctionnement. Avec
certains clients, elle restait polie et efficace sans dépasser le cadre
professionnel. Avec d’autres, elle prenait un peu plus de temps, leur
suggérant de transférer éventuellement une partie de l’excédent de leur
compte courant vers un compte épargne, plus rémunérateur, ou leur
présentant de nouveaux services proposés par la banque. Il y avait encore
d’autres clients auprès desquels elle s’enquérait des enfants, des vacances
ou de la santé, en évoquant relativement peu le sujet de la banque et des
finances. Les transactions s’effectuaient aussi bien lors de ces échanges
informels, mais prenaient beaucoup plus de temps. Mary semblait choisir
un traitement spécifique pour chacun de ses clients, en optant pour l’un des
trois modes différents.
Au bout d’un moment, je l’ai discrètement questionnée sur son
approche. « On peut classer les clients en trois catégories en fonction de
leurs préférences, m’a-t-elle expliqué. Il y a ceux qui n’aiment pas vraiment
la banque. Ils veulent que ce soit vite fait : entrer, faire leur dépôt ou
transfert et ressortir. Ils veulent que je sois aimable, mais que je gère les
transactions sans perdre une seconde. Si j’essayais de les conseiller sur le
plan de la finance, ils me diraient que ce n’est pas mon boulot.
« Il y a ensuite le deuxième type de client, celui qui ne cherche pas à
sympathiser avec moi, mais qui me considère comme sa gestionnaire de
services financiers attitrée. Ceux-là souhaitent que je surveille leurs autres
comptes. » En ouvrant un tiroir, elle m’a montré un tas de petites fiches. «
Pour ces clients, je constitue de petits dossiers pour suivre l’évolution de
tous leurs comptes. Cela me permet de leur offrir des conseils spécifiques,
car c’est ce qu’ils attendent de ma part. Si je leur posais des questions sur
leurs enfants ou leur opération de la hanche, ils auraient l’impression que je
leur fais perdre leur temps ou, pire encore, que je m’immisce dans leur vie
privée.
« Enfin, il y a des clients pour lesquels venir à l’agence constitue une
véritable sortie : ils y passent notamment pour rendre visite à leur
guichetière préférée. Si vous faites attention à ce qui se déroule dans la file
d’attente, vous verrez que certaines personnes laissent les autres passer
devant et patientent jusqu’à ce qu’un guichet spécifique se libère [ce qui
n’est arrivé qu’à Mary, d’après mes observations]. Ces gens-là veulent que
j’effectue leurs opérations bancaires, mais aussi que je m’intéresse à leur
vie. Si je ne le fais pas, cette sortie ne sera pas à la hauteur de leurs attentes,
et ils seront déçus par notre service. »
Intrigué, j’ai demandé à Mary de me montrer la page du manuel de
guichetier qui décrivait cette procédure de segmentation stratégique et les
modèles de service personnalisé. Mary a blêmi, car bien sûr, rien de tout
cela ne figurait dans le manuel. « C’est juste quelque chose que j’ai voulu
essayer, a-t-elle expliqué. Je veux que les clients soient heureux, alors je
fais tout mon possible.
— Mais pour le segment moyen, ai-je insisté, vous devez bien créer ces
fiches vous-même avec des bouts de ficelle alors que les systèmes bancaires
pourraient être conçus exprès pour cette tâche. D’autres guichetiers et
clients pourraient bénéficier de votre approche. Pourquoi ne pas en parler à
votre directeur d’agence et lui suggérer de procéder différemment compte
tenu de l’existence de ces trois segments ? »
(Bien sûr, les banques ont depuis fini par rattraper leur retard et mis en
place des fichiers informatisés sophistiqués sur la clientèle, qui ressemblent
beaucoup à ces fiches.)
C’en était trop pour Mary. « Pourquoi est-ce que je le ferais ? a-t-elle
rétorqué, soudainement impatiente. J’essaie simplement de faire mon boulot
du mieux que je peux. Ils ne sont pas intéressés par ce qu’une guichetière a
à leur dire. »
Mary a été positionnée comme un exécutant privé de choix. On lui avait
donné un manuel qui, en gros, disait : « La transaction, c’est tout ce qui
importe. Exécutez l’opération avec le sourire. » Mais sa propre expérience
et ses réflexions lui ont dicté une autre conduite. Elle a choisi de construire
et de mettre en œuvre son propre modèle de service client, comprenant que
le but ultime de la banque était de rendre la clientèle heureuse. Pour ce
faire, elle a dû rejeter son rôle de simple exécutante. Au lieu d’obéir au
manuel de guichetier et de fournir un service de qualité inférieure, elle a
décidé de faire ses propres choix sur son terrain. Elle avait décidé d’être
stratégique, si j’ose dire.
En même temps, Mary a compris tout aussi clairement qu’elle n’était
pas en mesure d’influencer les décisions prises au sommet de son
organisation. Bien qu’elle ait choisi de rejeter la dimension conventionnelle,
ses supérieurs ne l’ont pas suivie dans cette démarche, et la banque, qui
aurait pu bénéficier de l’analyse stratégique de Mary, en a ainsi été privée.
C’est un schéma que j’ai observé à maintes reprises tout au long de ma
carrière. Ce dont la haute direction a le plus souvent besoin – bien qu’elle
soit rarement capable de le reconnaître – c’est d’avoir quelqu’un qui parle
avec le personnel subalterne pour connaître ce qui se passe réellement au
sein de l’entreprise. La direction ne pouvait pas obtenir ces informations
ellemême, car elle avait créé un modèle dans lequel ses employés étaient
convaincus que leur avis n’intéressait personne.
Reconnectez stratégie et mise en œuvre

Le modèle stratégie-exécution échoue à plusieurs niveaux de l’organisation,


et pas seulement en première ligne. Les dirigeants se conforment eux aussi
aux exigences des conseils d’administration, des actionnaires, des
régulateurs et d’innombrables autres parties prenantes dont ils reçoivent les
ordres. Tout le monde, de la base jusqu’au sommet de l’organisation, fait
des choix dans un contexte de contraintes et d’incertitude. À chaque fois
qu’un employé de première ligne répond à une demande d’un client, il
prend une décision sur la façon de représenter l’entreprise : ce choix est
directement lié à la proposition de valeur fondamentale de celle-ci (voir
l’encadré « Un postulat ignoré »).
Par conséquent, si nous ne pouvons pas tracer une ligne de démarcation
nette au-delà de laquelle se produit la stratégie et en-deçà de laquelle
intervient sa mise en œuvre, à quoi sert de les distinguer, comme de
distinguer la formulation du déploiement ? La réponse est simple : cette
distinction ne présente aucune utilité. Il s’agit d’une différentiation
superflue qui n’aide en rien la structure. En revanche, elle est très
préjudiciable à l’entreprise.
Dans certains cas, les employés adoptent le modèle de l’exécutant privé
de choix et s’y tiennent à la lettre, en suivant des règles strictes et en se
mettant des œillères pour ne voir que ce qu’on leur a dit de voir. La manière
dont ils perçoivent les attentes de leurs supérieurs détermine leur
comportement. Ils tentent d’exécuter fidèlement les ordres plutôt que de
fonder leurs actions sur les intérêts du client au sein du périmètre général de
la stratégie de l’entreprise. Cela limite leurs choix, et leurs fonctions
tournent à la bureaucratie. Tout client qui a déjà reçu une réponse comme :
« Je suis désolé, je ne peux rien faire, c’est la politique de l’entreprise » ; ou
qui, en contactant une centrale d’appel à l’étranger, a entendu le
représentant lire au loin à voix haute un script sans aucun rapport avec le
problème auquel il était confronté, sait combien il est douloureux d’avoir à
traiter avec un préposé privé de choix.

Un postulat ignoré
La plupart des managers ont tellement l’habitude de croire que la stratégie et sa mise
en œuvre sont deux notions différentes qu’ils ne se préoccupent pas de savoir si cette
approche a du sens. L’idée que la stratégie et sa mise en œuvre sont liées n’est pas
nouvelle. Mais apparemment, nous n’avons pas assez prêté attention au grand
théoricien du management Kenneth Andrews, qui, dans son livre de 1971 consacré à
l’étude du concept de la stratégie, The Concept of Corporate Strategy, a établi la
distinction entre la formulation d’une stratégie et sa mise en œuvre comme suit : « La
stratégie d’entreprise comporte deux aspects revêtant une importance égale, en
pratique interdépendants mais distincts pour les besoins de notre étude de ce concept.
Le premier est sa formulation, le second, sa mise en œuvre. »
Malgré cette mise en garde sur le fait que la formulation et la mise en œuvre de la
stratégie sont des concepts « en pratique interdépendants » et « d’importance égale »,
cinquante ans plus tard, la théorie de la stratégie-exécution les distingue de manière
artificielle. Il est plus que temps de revoir ce raisonnement bancal de notre approche.
Faute de quoi, l’échec est quasiment assuré.

Pendant ce temps, aveuglés par la rigidité du modèle stratégieexécution


qu’ils en sont venus à pratiquer, les managers dans les hautes sphères font
des choix déconnectés de la réalité en partant du principe que le reste relève
d’une simple mise en œuvre. Ils sont incapables d’admettre que les
décisions prises au sommet généreront toute une série de choix difficiles en
aval. Si les employés font des choix judicieux et produisent des résultats
remarquables, la direction générale se voit reconnaître (et s’attribue
traditionnellement) le mérite d’avoir mis en place une excellente stratégie.
Si, à l’inverse, les résultats sont médiocres (en raison de mauvais choix de
la part de la direction, des employés, ou des deux), la mauvaise application
en sera sûrement tenue pour responsable. Pour les employés, c’est une
partie perdue d’avance : peu de reconnaissance si leur équipe gagne,
beaucoup de reproches si elle perd. Cette rigidité crée un sentiment
d’impuissance au lieu de développer un esprit d’équipe en quête du succès.
Les employés décident naturellement de se limiter au service minimum
plutôt que de réfléchir à la manière d’améliorer le fonctionnement de leur
entreprise au service des clients.
C’est un cercle vicieux. Se sentant ainsi déconnectés, les collaborateurs
ne cherchent même pas à partager les données sur les clients avec leurs
cadres supérieurs. Les cadres supérieurs doivent alors contourner le
problème de leur propre structure pour obtenir les données nécessaires à la
prise de décision en faisant appel à des consultants externes. Les employés
de première ligne trouvent les solutions de ces cabinets de conseil
incohérentes et peu convaincantes, puisque leurs données proviennent de
l’extérieur de l’organisation. Dès lors, ils se sentent encore plus déconnectés
de l’entreprise et plus fermement convaincus de travailler pour des crétins,
comme les personnages de Dilbert, une bande dessinée qui tourne en
dérision les managers les plus prétentieux et agaçants. La direction rejette la
faute sur les employés de première ligne, les employés de première ligne
rejettent la faute sur la direction et, finalement, l’hostilité gagne du terrain.
La direction impose des règles d’application et des modes de
fonctionnement d’une manière qui semble unilatérale et arbitraire, et les
travailleurs de première ligne agissent de façon contraire à l’esprit de la
stratégie en retenant les informations qui pourraient être utiles à la prise de
décision.
Dans cet univers froid et égocentrique, les relations entre les différents
niveaux de l’organisation n’évoluent pas ou se développent avec défiance.
La réflexion d’un individu se limite globalement à l’impact que les autres
membres de la structure auront sur sa capacité à réussir ; personne ne
réfléchit à son éventuelle contribution au problème. Enfin, la direction a
tendance à prendre une trop grande part de responsabilité dans la réussite en
prévoyant des stratégies de plus en plus complexes et des plans de mise en
œuvre de plus en plus rigides, tandis que les cadres moyens et inférieurs se
sentent impuissants en voyant cette démarche et renoncent à prendre leurs
responsabilités. Il s’agit là de quelques-unes des conséquences négatives
inéluctables de l’approche classique qui oppose la stratégie à sa mise en
œuvre.
Déployez la stratégie en cascade

Pour remédier à l’échec des stratégies, il faut cesser d’utiliser la métaphore


du corps humain. Au lieu de cela, il faut penser à l’entreprise comme si
c’était une eau vive dans laquelle les décisions relatives au choix tombent
en cascade, de haut en bas. Chaque série de rapides représente un niveau
dans la structure où des choix sont à faire et où chaque décision prise en
amont affecte le choix immédiatement en aval. Au sommet de l’entreprise,
les possibilités sont plus vastes et plus abstraites, impliquant des
engagements plus importants à long terme. En bas de l’échelle, les
décisions plus concrètes prises au jour le jour influencent directement le
service client et la satisfaction de la clientèle.
Au niveau du chef d’entreprise, la question peut se poser sur une
problématique assez large, par exemple : « Dans quelles activités allons-
nous investir ? » Le chef d’entreprise s’informe et réfléchit dans un
contexte global, en fonction des contraintes imposées par son conseil
d’administration, ses investisseurs, l’historique de l’entreprise, ses
ressources, etc. Puis il prend une décision.
Supposons que le PDG décide que son entreprise va investir
massivement dans le secteur de la banque de détail aux États-Unis. Par
conséquent, le président de l’unité opérationnelle correspondante pourrait se
demander : « Quels moyens nous permettront de nous positionner sur le
marché dans la banque de détail aux États-Unis ? » Les possibilités qui se
présentent à lui, même si elles ne sont pas encore bien définies, découlent
explicitement de la décision prise au-dessus. Afin que son entreprise
réussisse, il décide alors de proposer un service clientèle haut de gamme. À
partir de ce moment, d’autres options s’offrent à l’ensemble de
l’organisation. Le vice-président exécutif (VPE) des opérations de la
succursale pourrait se demander : « Quelles compétences devons-nous
développer pour être en mesure d’assurer dans la durée un service qui
apporte une meilleure expérience à nos clients ? » Si l’option porte sur la
fluidité des interactions avec le client au sein de la succursale, le
responsable de celle-ci pourrait réfléchir aux besoins en matière
d’embauche et de formation des représentants du service clientèle (RSC),
ainsi qu’aux conséquences sur leur emploi du temps. Enfin, le personnel
chargé d’accueil au guichet doit se poser la question suivante : « Que dois-
je faire là, tout de suite, pour satisfaire ce client en particulier ? »
Dans une grande entreprise, la liste de questions et de choix descendant
en cascade peut être très longue. Dans le cas de la banque, entre le VPE et
le responsable de la branche, il y aurait probablement deux managers
intermédiaires, au niveau régional et départemental. À mesure que la
cascade s’allonge, sa structure et ses principes de fonctionnement
deviennent déterminants. Pour que le processus décisionnel soit le plus
efficace possible, la décision prise à chaque niveau doit s’aligner
parfaitement sur les autres. Dans ce modèle, les collaborateurs sont
encouragés à faire des choix réfléchis dans le contexte des décisions prises
au-dessus. Cette approche repose sur la conviction que le fait de donner aux
personnes la possibilité de faire des choix dans leur domaine produira de
meilleurs résultats en rendant les employés plus satisfaits et les clients plus
heureux.
Le modèle de stratégie en cascade n’est pas aussi répandu que le modèle
de la stratégie-exécution, mais certaines des entreprises les plus prospères
au monde l’utilisent de manière implicite. Je voudrais revenir sur le cas de
Four Seasons Hotels and Resorts, l’une des principales chaînes hôtelières
haut de gamme au monde (voir au chapitre 8). Comme nous l’avons vu,
Isadore Sharp, son PDG, a pris très tôt la décision de construire sa chaîne
hôtelière sur la base d’une nouvelle définition du luxe. Il a décidé « de
redéfinir le luxe comme un service, un système capable de se substituer à
toute forme d’assistance dont les clients disposent à la maison ou au bureau
».
Le problème était, bien évidemment, de savoir comment amener les
employés à tous les niveaux de l’organisation à faire des choix permettant
d’atteindre cet objectif. En général, les employés des hôtels étaient mal
payés et considérés comme des personnes de passage que l’on peut
remplacer à tout moment. La plupart des chaînes hôtelières traitaient leurs
effectifs comme de simples exécutants : on leur indiquait ce qu’ils devaient
faire, quand et comment, tout en les surveillant de près. Or, ce modèle de
l’exécutant privé de choix aurait signé la mort de la vision de M. Sharp. Il
fallait, au contraire, que chaque employé, du valet de chambre au directeur
de l’hôtel en passant par le réceptionniste, prenne les décisions nécessaires
pour créer un ensemble de services convivial et accueillant pour les clients.
Il était impossible de rédiger des instructions étape par étape sur la manière
de développer le sens du service tel que le PDG l’avait imaginé. M. Sharp a
alors défini un contexte simple, facile à comprendre, dans lequel ses
employés pouvaient faire des choix éclairés. L’objectif de chacun à Four
Seasons devait être, selon ses mots, de « [traiter] les autres – qu’ils soient
clients, employés, partenaires ou fournisseurs – comme nous aimerions être
traités ».
Cette Règle d’Or, que M. Sharp a apprise (comme bon nombre d’entre
nous) dans son enfance, s’est révélée la véritable clé de voûte permettant
d’aligner les choix en cascade du Four Seasons dans l’environnement qu’il
a déterminé pour son entreprise. Si un hôte de Four Seasons avait des griefs,
chaque employé avait le pouvoir d’y répondre pour y mettre fin de la
manière qui lui semblait la plus logique et de traiter ce client avec la
sollicitude et l’attention qu’il souhaitait lui-même recevoir. Isadore Sharp
est également passé des mots aux actes, en traitant ses employés comme il
aurait voulu être traité et comme il voulait que ses hôtes le soient. Il a pu
réussir ce pari, comme il le disait, « en accordant autant d’attention aux
doléances des employés qu’à celles des clients, en améliorant les
équipements et les locaux de service à chaque modernisation d’un hôtel, en
supprimant la distinction hiérarchique dans les cafétérias et les parkings, en
responsabilisant non seulement la direction, mais l’ensemble du personnel
grâce à l’encouragement de l’autodiscipline, en plaçant la barre haut et en
demandant aux collaborateurs de rendre des comptes, et surtout en adhérant
à [son] credo : inspirer confiance ».
En résumé, il a réussi en laissant carte blanche à son personnel. Les
résultats du groupe sont remarquables. En 2019, Four Seasons figurait au
Top 100 annuel de Fortune, dans la catégorie des meilleurs employeurs
pour la vingt-deuxième année consécutive. L’entreprise fait partie des huit
seules organisations qui se distinguent de la sorte chaque année depuis la
création de ce classement. La société est également arrivée au premier rang
de sa catégorie dans l’indice annuel de satisfaction des clients des hôtels du
classement J. D. Power and Associates et figure régulièrement au palmarès
des lecteurs du magazine américain Condé Nast Traveler (Readers’ Choice
Awards).
Bien entendu, un tel degré d’autonomie nécessite quelques
encouragements. Les dirigeants comme le fondateur de Four Seasons
s’efforcent de créer un environnement dans lequel leurs subordonnés au
niveau de la cascade stratégique comprennent les choix qui ont été faits
ainsi que le mécanisme décisionnel sous-jacent. Les équipes de direction
doivent également se tenir prêtes à engager le dialogue, sans pour autant le
contrôler, sur les décisions prises en aval à tous les niveaux. Cette démarche
sera mieux acceptée si le leader explique à ses collaborateurs subalternes
que leurs décisions ne produisent pas des effets uniquement à leur échelon,
mais affectent par ailleurs les décisions qui sont prises en amont et qui
déterminent donc ensuite leurs choix (voir l’encadré « Une cascade de
décisions plus pertinentes »).

Une cascade de décisions plus pertinentes

Contrairement à l’approche stratégie-exécution, dans laquelle les dirigeants imposent


leurs décisions et s’attendent à ce que leurs employés les appliquent
automatiquement, le modèle de stratégie en cascade permet aux cadres supérieurs de
responsabiliser leurs effectifs en leur permettant de faire preuve d’esprit critique dans
les situations qu’ils rencontrent. Afin de rendre la prise de décision au niveau individuel
possible en pratique, un décideur « en amont » doit définir le contexte pour ceux qui se
situent « en aval ». À chaque strate de l’entreprise, le décideur peut aider ses
employés à faire des choix plus éclairés, en suivant les quatre étapes essentielles.
Expliquez et justifiez votre décision. Bien souvent, nous supposons à tort que notre
raisonnement est clair pour les autres parce qu’il est clair pour nous. Prenez le temps
de présenter de façon explicite votre choix, ainsi que les raisons et les hypothèses qui
le sous-tendent, tout en laissant la possibilité aux personnes qui se trouvent en aval de
poser des questions. Comprendre les tenants et les aboutissants de l’option retenue
permettra aux employés de se sentir impliqués plutôt que de s’y plier formellement.
Présentez clairement votre future décision. Vous devez formuler votre prochaine
décision telle que vous l’envisagez en vous engageant ensuite dans une discussion
avec les effectifs en aval pour faire de ce processus une action concertée, pilotée par
la hiérarchie. Les personnes en amont doivent guider et orienter celles qui sont en aval
pour ne pas les laisser prendre des décisions à l’aveugle.
Accompagnez, si nécessaire, la prise de décision. Le rôle d’un patron consiste,
entre autres, à assister ses subordonnés dans leurs choix. Le degré de soutien à
apporter variera d’une situation à l’autre, mais une proposition d’aide sincère devrait
toujours faire partie du processus.
Promettez de revenir sur votre décision et de l’adapter en fonction des
commentaires et avis recueillis auprès de vos collaborateurs. Vous ne pourrez pas
juger de la pertinence de votre décision tant que les choix correspondants n’ont pas été
arrêtés en aval et avant d’en percevoir les effets. En tant que responsable
hiérarchique, vous devez vous montrer véritablement ouvert à la discussion dans
l’optique de reconsidérer votre position.
Créez un cercle vertueux pour la stratégie

Le modèle de stratégie en cascade comporte une boucle de renforcement


positif qui constitue son élément fondamental. Les choix en aval étant
valorisés et les critiques encouragées, ce modèle donne la possibilité aux
employés de faire remonter les informations, ce qui permet d’améliorer la
base de connaissances des décideurs plus haut placés et de faire de
meilleurs choix à tous les niveaux de l’organisation. Chaque employé se
trouve ainsi non seulement doté des bras et des jambes du corps
organisationnel, mais également investi d’une fonction cérébrale. Il est à la
fois celui qui choisit et celui qui agit. Quand les collaborateurs se sentent
responsabilisés, toute l’entreprise en bénéficie.
Ce principe n’est pas nouveau. Les penseurs du management
progressiste débattent du renforcement de l’autonomie des travailleurs
depuis des décennies. Mais cela soulève une question importante : avec
toute cette délégation de pouvoir, pourquoi tant de personnes pensent-elles
encore que seule la mise en œuvre de la stratégie a de l’importance ? Une
des explications possibles est que les entreprises pour lesquelles ces
personnes travaillent n’arrivent pas à conférer une autonomie décisionnelle
à leurs employés. Mais si c’était le seul problème, il suffirait de déléguer
plus de pouvoir et tout serait réglé (autrement dit, utilisez encore ce bon
vieux modèle, mais appliquez-le avec plus de rigueur). Il ne s’agit pas
vraiment de faire gagner en autonomie les employés, mais plutôt d’une
tentative des dirigeants de les amener à adhérer à leurs idées. Lorsque les
responsables formulent leur stratégie, ils travaillent avec des consultants en
gestion du changement pour déterminer comment susciter l’adhésion dont
ils ont besoin. Ils organisent des ateliers et des présentations pour persuader
leurs employés, diaporamas à l’appui, de s’enthousiasmer pour leur
stratégie et de l’appliquer aussitôt sans se poser de questions.
Les cadres supérieurs qui se concentrent uniquement sur l’adhésion de
leurs subalternes ne songent pas à se demander : « Qu’est-ce que j’en
penserais si j’étais à leur place ? » S’ils le faisaient, ils trouveraient
probablement la démarche détestable. Elle viole la Règle d’Or telle qu’elle
est instaurée chez Four Seasons. Les employés n’aiment pas l’approche du
ralliement car elle crée une distinction artificielle entre la stratégie et sa
mise en œuvre. Ils sont censés rester impassibles et faire semblant
d’apprécier d’être traités comme des exécutants privés de choix, alors qu’ils
savent pertinemment qu’ils devront s’impliquer davantage pour que cette «
brillante » stratégie et le processus d’adhésion qui l’accompagne soient
couronnés de succès. Comme toujours, le modèle en amont et les décisions
qui en découlent limitent la réalisation pratique en aval. Or un modèle qui
crée deux catégories cloisonnées au sein d’une organisation – ceux qui
décident et ceux qui n’ont aucune voix au chapitre – fait de l’autonomie
décisionnelle un leurre.
Il est temps de revenir sur cette approche et de la revoir complètement.
Le monde des affaires peut être intimement convaincu qu’une bonne mise
en œuvre de la stratégie est la voie de la grandeur, mais en vérité, il serait
plus judicieux de faire évoluer cette vision des choses. C’est une condition
sine qua non pour libérer les employés subalternes des organisations du
fléau des séances en faveur d’une adhésion. C’est aussi le seul moyen pour
que le management responsabilisant puisse, enfin, tenir ses promesses.2

1 NdT : compagnie américaine aérospatiale, automobile et d’ingénierie qui a pris le nom de


Honeywell International Inc. après l’avoir rachetée.
Ce chapitre est adapté de l’article de Roger L. Martin, « The Execution Trap », Harvard
Business Review, janvier-février 2010.
Chapitre 11

La gestion des talents

Pour les meilleurs collaborateurs, être mis en valeur compte


plus que la rémunération.

Dans le modèle traditionnel de création d’entreprise, des entrepreneurs


talentueux et visionnaires empruntaient des capitaux, embauchaient de la
main-d’œuvre et achetaient des matières premières pour créer des produits
ou des services. Si leurs projets réussissaient et que leurs recettes étaient
supérieures au coût de revient, ils devenaient eux-mêmes capitalistes en
investissant les bénéfices réalisés (ou en empruntant sur cette valeur) afin
de développer leurs activités.
Ce modèle a changé avec les marchés de capitaux en pleine expansion à
la fin du xixe siècle. Les capitaux extérieurs destinés à faire croître les
entreprises sont devenus plus facilement disponibles et, petit à petit, le
modèle entrepreneurial a été remplacé, pour l’essentiel, par un modèle dans
lequel les gestionnaires professionnels agissaient pour le compte des
bailleurs de fonds.
Pendant une grande partie du xxe siècle, cette relation a été marquée par
des conflits dans lesquels les dirigeants, qui représentaient les intérêts des
investisseurs, s’opposaient aux syndicats, représentant la main-d’œuvre, au
sujet du partage entre le travail et le capital de la valeur créée par
l’entreprise.
Dans les années 1970, le modèle a encore évolué. Tout d’abord, il y a eu
une prise de conscience croissante du fait que les intérêts des investisseurs
et ceux des gestionnaires pouvaient être radicalement différents, d’où la
tentative de les aligner en mettant en place une rémunération liée aux
actions. Dans le même temps, l’importance du savoir-faire et des
compétences des managers dans le processus de création de valeur a été de
plus en plus reconnue, ce qui a amené les entreprises à se faire concurrence
sur le plan du recrutement des managers et d’autres spécialistes, tels que les
scientifiques et les programmeurs, considérés comme dotés de talents
remarquables, indispensables à la réussite. En conséquence, au cours des
quarante dernières années, ces travailleurs hautement qualifiés ont su capter
une part croissante de la valeur créée par les entreprises qu’ils gèrent, aux
dépens des fournisseurs de capitaux.
Reconnaître la valeur des talents

Les talents se trouvent en position de force dans la négociation car,


contrairement à la plupart des travailleurs, ils ne sont pas considérés comme
remplaçables et leur travail est tout sauf ordinaire. De nombreuses fonctions
dans une organisation peuvent être assurées par un employé quelconque,
parce que les tâches sont suffisamment définies et prévisibles pour
permettre à l’organisation de former différentes personnes à ces postes. En
revanche, la valeur apportée par un travail qui requiert un talent particulier
dépend directement du profil de la personne qui l’effectue. Un cinéaste
pourrait toujours tourner un film sans Julia Roberts en la remplaçant par
une autre comédienne, mais cela ne vaudra jamais un film avec Julia
Roberts. L’équipe de football américain des Green Bay Packers pourrait
jouer un match sans son célèbre quarterback Aaron Rodgers, mais elle
serait alors privée de la tactique d’attaque dont le joueur a la maîtrise. Un
laboratoire pharmaceutique qui ne peut plus faire appel à son meilleur
chercheur devra modifier son programme de recherche. Un fonds spéculatif
qui n’est plus en mesure de solliciter son meilleur conseiller en
investissement devra revoir sa stratégie.
Dans un monde qui se transforme en une économie de la connaissance,
les personnes détentrices d’une expertise et de compétences spécifiques,
qu’il s’agisse des cadres d’entreprise, des chercheurs, des ingénieurs
financiers, des gestionnaires de fonds, des artistes, des athlètes ou des
célébrités, s’imposent et deviennent des acteurs de plus en plus puissants.
Parallèlement, à mesure que l’innovation et la technologie permettent de
moderniser les marchés des capitaux, il est devenu plus facile pour les
entreprises d’obtenir des financements, ce qui a accéléré le déplacement du
centre de gravité du pouvoir des capitaux vers les talents. Les salaires des
employés d’exception se sont envolés au cours des quarante dernières
années dans de nombreux domaines, mais c’est chez les cadres dirigeants
aux compétences hors du commun que cette hausse reste inégalée : Steve
Ballmer a gagné la grande partie de sa fortune de 96 milliards de dollars
pour avoir été le premier gestionnaire responsable auprès de Bill Gates. Eric
Schmidt a gagné ses 19 milliards de dollars pour avoir pris les rênes de
Google pendant une décennie, et Meg Whitman, 6,4 milliards de dollars
pour avoir été PDG d’eBay pendant dix ans.
Il n’est pas surprenant que ces montants ahurissants aient fait naître une
croyance selon laquelle la rémunération serait la motivation première des
meilleurs talents, qu’ils y sont très attachés et qu’il est essentiel de leur
proposer une récompense de taille pour pouvoir les recruter et les retenir. Il
y a une part de vérité dans ce raisonnement. J’ai, bien sûr, rencontré
beaucoup de personnes qui ont réussi leur carrière et qui sont motivées par
l’appât du gain comme les PDG qui évaluent à la hausse la valeur perçue de
leur entreprise pour la vendre, les gestionnaires zélés des fonds spéculatifs
prêts à détruire des entreprises pour un gain à court terme, les banquiers
d’investissement qui, afin d’empocher de grosses commissions, incitent
leurs clients à acquérir des entreprises alors qu’ils ne devraient pas le faire
ou encore les consultants qui vendent à leurs clients des services dont ils
n’ont pas besoin.
Cependant, ce ne sont pas ces personnes que je veux évoquer.
Égocentrées, elles n’ont ni le talent ni la motivation nécessaire pour
permettre à leur organisation ou à leur équipe d’exceller dans la durée. Je
peux toutefois affirmer avec certitude qu’au cours de mes quarante années
de travail avec des personnes qui étaient parmi les meilleures dans leur
domaine, je n’ai en pas rencontré une seule qui soit uniquement, ni même
fortement motivée par la rémunération. Cela m’amène à vous proposer une
vision différente de la gestion des talents : pour un collaborateur vraiment
compétent, être mis en valeur compte plus que la rémunération. Comme je
l’expliquerai dans ce chapitre, lorsqu’il s’agit de gérer des talents de haut
niveau, le secret de la réussite consiste à faire en sorte que les personnes se
sentent appréciées à titre individuel et non comme des membres d’un
groupe, aussi prestigieux soit-il.
Commençons par l’histoire de Giles.
Le congé paternité de Giles

Il y a trente ans, lorsque je codirigeais le cabinet de conseil en stratégie


Monitor Company, Giles faisait partie de la dizaine de managers
internationaux de l’entreprise, appelés « gestionnaires de comptes globaux
», et commençait déjà à se distinguer parmi ses pairs. Il m’a sollicité pour
demander un congé paternité pour son premier né, une demande
aujourd’hui assez courante, mais qui l’était un peu moins à l’époque. J’ai
répondu sans hésiter : « Bien sûr, Giles. Vous êtes gestionnaire de comptes
globaux. À votre niveau, vous pouvez faire à peu près tout ce que vous
voulez. Prenez tout le temps qu’il vous faut. »
Il a répondu « OK » avant de partir, l’air renfrogné. J’ai été surpris. Il
avait formulé une demande, et je lui avais accordé ce qu’il voulait sans
discuter ni poser de conditions. Quel était le problème ? Puis j’ai compris.
Giles ne voulait pas être traité comme un membre d’une catégorie, même
s’il s’agissait du haut du panier de l’entreprise. Ils étaient une dizaine en
tout, mais il n’y avait pas deux Giles. Il voulait être considéré comme une
personne à part. Giles voulait s’entendre dire : « Nous nous soucions de
votre bien-être et de vos besoins. Si ce congé paternité vous tient à coeur,
nous sommes avec vous à 100 %. »
Le résultat aurait été le même : il allait disposer du congé, mais l’impact
psychologique aurait été très différent. Au lieu de se sentir réduit à n’être
qu’un membre quelconque d’un groupe, il se serait senti unique et valorisé.
Depuis cet incident avec Giles, j’ai constaté la même dynamique à de
multiples occasions. Si l’icône du basketball Michael Jordan avait instauré
ses propres règles au grand dam de certains de ses coéquipiers, c’est parce
qu’il ressentait le besoin de se sentir différent. C’est aussi la raison pour
laquelle le groupe de rock Van Halen insiste pour que l’on retire les M&M’s
bruns des récipients de bonbons dans sa loge. Des enfants gâtés qui font
leur cinéma, me direz-vous ? Je suis sûr qu’il y a un peu de cela. Mais ce
n’est pas le principal élément moteur.
Les personnes comme Michael Jordan passent leur vie à s’efforcer
d’être uniques. Elles sont plus performantes que les autres. Elles
s’entraînent plus, elles travaillent plus dur. Elles n’abandonnent jamais.
Elles placent la barre haut et acceptent de subir une plus grosse pression.
C’est pourquoi Giles était contrarié. C’était très décevant pour lui d’avoir
travaillé d’arrache-pied afin de se distinguer des autres pour être traité
ensuite comme un gestionnaire de plus – même si chaque année nous
embauchions des dizaines de MBA parmi les plus brillants, qui rêvaient
d’accéder à un tel poste.
Les collaborateurs comme Giles ne sont pas des employés lambda. Leur
apport à l’entreprise est unique et serait perdu s’ils partaient travailler
ailleurs. On ne peut pas enfermer des personnes de talent comme Giles dans
une case en espérant ainsi les contenter. Il faut leur créer une place à part,
même si cela implique d’adapter le reste de l’organisation. À défaut, tout le
monde en souffrira. Le cas du légendaire joueur de football américain
Aaron Rodgers en est une parfaite illustration.

L’expérience décevante d’Aaron Rodgers

Après dix-sept ans de carrière exceptionnelle en tant que quarterback des


emblématiques Green Bay Packers, Aaron Rodgers s’est imposé comme
l’un des plus grands joueurs de l’histoire de la Ligue nationale de football
américain (National Football League — NFL), une compétition dans
laquelle ce poste offensif est incontestablement le plus important pour le
succès d’une équipe. Dans le classement qui comptabilise les passes de
touchdown dans l’histoire du football américain, Aaron Rodgers se plaçait à
la cinquième position. Son évaluation de passeur, qui mesure l’efficacité
globale d’un quarterback, affiche le score le plus élevé de l’histoire de la
ligue chez les joueurs titulaires avec plus de cinq ans d’expérience. En
2011, pour la première fois en quatorze ans, il a mené les Packers à la
victoire de la grande finale du championnat de la ligue, le Super Bowl, et a
remporté le titre de meilleur joueur, trophée qu’il a décroché d’ailleurs trois
fois, se classant ainsi comme le deuxième meilleur joueur de la NFL.
En raison de sa performance exceptionnelle, Rodgers a été le sportif le
mieux payé de la NFL à deux reprises, d’abord en 2013 avec une rallonge à
son contrat de 110 millions de dollars (pour 2015-2019), puis en 2018 de
134 millions de dollars (pour 2020-2023). La rémunération ne posait donc
pas de problème : pendant des années, les Packers ont payé Rodgers comme
le meilleur des joueurs et leur star jouait le jeu à double titre en devenant le
représentant de l’équipe.
Mais, en avril 2020, lors de la constitution de l’équipe pour la NFL, le
directeur général des Packers, Brian Gutekunst, a décidé de choisir le jeune
espoir quarterback et successeur potentiel de Rodgers, Jordan Love, au lieu
de chercher à renforcer la puissance offensive de Rodgers en sélectionnant
un receveur éloigné. D’après les témoignages, Gutekunst n’a jamais
informé Rodgers de son projet. La presse spécialisée a continué à interroger
Rodgers sur la faiblesse des receveurs éloignés, d’autant plus que les
Packers n’en ont pas sélectionné un seul cette année-là. Dans une interview
du 3 septembre 2020, Rodgers s’est montré enthousiasmé par ses quatre
meilleurs receveurs, dont Jake Kumerow. Le lendemain, Gutekunst s’est
séparé de Kumerow, aussitôt recruté par les Buffalo Bills. Deux mois plus
tard, lorsqu’on lui a demandé s’il était possible que les Packers choisissent
un receveur avant la fin des sélections, Rodgers a répondu : « J’ai compris
que je devais rester à ma place. Je ne vais pas [défendre] qui que ce soit. La
dernière fois que j’ai défendu un coéquipier, il a dû rejoindre les Buffalo
Bills. »
Pendant cette saison, Aaron Rodgers a de nouveau remporté le titre de
meilleur joueur de la ligue et a mené les Packers au championnat de la
National Football Conference. Mais au cours d’un match éliminatoire, la
décision de l’entraîneur de ne pas tenter un touchdown à deux minutes et
neuf secondes de la fin de la partie a coûté la victoire aux Packers et a
permis à l’équipe adverse des Tampa Bay Buccaneers, menée par leur
grande vedette le quarterback Tom Brady, d’arriver au Super Bowl, qu’ils
ont fini par remporter.
Fin avril 2021, des rumeurs selon lesquelles Rodgers aurait décidé de ne
plus jouer avec les Packers ont commencé à circuler. Sans le confirmer, le
sportif poussé dans ses retranchements lors d’une interview a tout de même
mentionné à plusieurs reprises des « problèmes relationnels » dans la
gestion des Packers. Ensuite, il s’est abstenu de participer à la grande
majorité des activités habituelles pour préparer la saison, y compris au stage
d’entraînement. Il a finalement trouvé un accord pour réintégrer l’équipe,
mais à condition de pouvoir écourter ensuite son contrat afin de partir an
plus tôt, soit à la fin de la saison 2022. Raccourcir le contrat d’une superstar
au sommet de sa carrière sportive ne fait jamais partie des objectifs d’une
équipe de compétition.
Lors d’une conférence de presse suivant son retour, Rodgers a fini par
s’exprimer sur la raison de son mécontentement :

« L’organisation me considère comme un simple joueur. Je crois que,


compte tenu de mes exploits sur le terrain, de la façon dont je me
préoccupe de mes coéquipiers, de mon comportement dans les
vestiaires, de ma manière de mener l’équipe et de mon attitude plus
générale, je devrais avoir le droit [sic] d’exprimer mon avis un peu
plus souvent. Les règles sont les mêmes pour la plupart des gens,
mais de temps en temps, il y a des exceptions, et un type avec dix-
sept ans d’ancienneté dans une organisation et avec plusieurs titres
de meilleur joueur à son actif doit pouvoir participer à des
discussions à un autre niveau [c’est nous qui soulignons]. Je ne
demande rien de plus par rapport à d’autres grands quarterbacks de
ces dernières années. Je voudrais juste être au courant de ce qui se
passe. Si vous avez l’intention de vous séparer d’un joueur des plus
méritants, qui était notre deuxième meilleur receveur lors des
entraînements de l’année dernière, consultez-moi. Voyez ma
réaction. Je pourrais peutêtre vous faire changer d’avis. Mais ne
serait-ce que le fait de ne pas être exclu du débat donne déjà
l’impression d’être important, d’être respecté. »
Bien qu’Aaron Rodgers n’ait pas mentionné le nom de Tom Brady, il est
difficile d’imaginer qu’il n’avait pas à l’esprit sa performance lors de la
saison 2020. Après une carrière exceptionnelle de vingt ans avec l’équipe
des Patriots de la Nouvelle-Angleterre, Brady a rejoint les Buccaneers de
Tampa Bay, qui, contrairement aux Packers, n’avaient pas disputé de titre
depuis près de vingt ans. Tom Brady a permis à l’équipe de se qualifier pour
le championnat du Super Bowl. Entre-temps, il a également persuadé
l’équipe d’engager Rob Gronkowski, son receveur rapproché préféré, qu’il
avait convaincu de revenir sur le terrain, et Antonio Brown, un receveur
éloigné controversé mais extrêmement doué avec lequel Brady avait noué
une excellente relation pendant son bref passage chez les Patriots.
Si on se penche sur la défaite des Packers au championnat de la National
Football Conference, on imagine facilement que ce qui a pesé dans ce
match serré c’est que, contrairement à Tom Brady qui a reçu les armes
offensives qu’il souhaitait, les Packers ont refusé de faire revenir le
deuxième receveur préféré de Rodgers, Randall Cobb, parti jouer pour
Houston en 2020, son contrat avec les Packers n’ayant pas été renouvelé en
2018 à l’issue de sa huitième saison. Il n’est donc pas si surprenant que,
quand Aaron Rodgers a décidé de reprendre du service chez les Packers,
l’équipe ait annoncé qu’elle avait recruté Cobb pour la saison 2021. Mais
on s’attend désormais à ce que Rodgers mette fin à sa relation exclusive
avec l’équipe des Packers à l’issue de la saison 2022.
Maintenant, la vieille garde se rebiffe. En 2017, le propriétaire des
Texans Bob McNair a suscité la controverse et l’indignation des joueurs
lorsqu’il les a comparés à des « détenus qui dirigent la prison » dans la NFL
actuelle. En mai 2021, un ancien directeur général des Packers, Ron Wolf
(en poste de 1991 à 2000), a qualifié les meilleurs quarterbacks actuels de «
divas », en déclarant : « De mon temps, ils étaient engagés pour jouer en
position de quarterback. C’est pour cela qu’ils étaient payés et c’est encore
le cas aujourd’hui. Mais maintenant, ils veulent aussi choisir l’entraîneur et
leurs coéquipiers. »
Il faut reconnaître que personne n’est allé jusqu’à affirmer qu’Aaron
Rodgers avait demandé de choisir qui que ce soit. Cependant, il a demandé
de ne pas être traité comme n’importe quel autre joueur, et les conséquences
de la décision des Packers allant dans le sens contraire se feront clairement
sentir en 2022 au plus tard.
Comment surmonter ces défis

Réserver aux collaborateurs talentueux un traitement spécial n’est pas sans


risque. Si tous les managers qui se croient irremplaçables voulaient avoir
leur mot à dire à chaque occasion, ce serait le chaos. Par conséquent, si
vous voulez diriger une équipe de personnes hautement qualifiées, vous
devez trouver des moyens de les valoriser sans les laisser décider de tout.
Cette tâche s’avère plus facile qu’il n’y paraît, car bénéficier d’un
traitement particulier est autre chose que d’endosser des responsabilités. En
fait, les salariés exceptionnels souhaitent rarement prendre les rênes d’une
organisation. Revenons au cas de Giles. Il ne cherchait pas à influer sur la
politique de congés. Si j’avais manifesté plus d’empathie dans ma façon de
m’adresser à lui, il aurait apprécié ce traitement personnalisé sans se sentir
responsable de quoi que ce soit. Il avait besoin de voir son directeur le
reconnaître en tant qu’une personne à part : lui, Giles, et non un
gestionnaire comme un autre.
Si vous réfléchissez à la manière dont vous allez vous y prendre pour
faire sentir à vos salariés d’exception qu’ils ont vraiment quelque chose de
spécial à vos yeux, vous avez intérêt à connaître les trois choses à ne surtout
pas faire.

Ne rejetez pas les idées de vos meilleurs collaborateurs

Les spécialistes investissent énormément d’énergie et d’affect afin de


développer les compétences qui leur permettent d’obtenir d’excellents
résultats et de réussir au plus haut niveau. Dans le même temps, ces
personnes veulent avoir leur mot à dire sur la manière dont leurs
compétences seront utilisées et renforcées. Les griefs d’Aaron Rodgers à
l’encontre de son équipe portaient principalement sur le fait qu’il n’a pas eu
voix au chapitre dans des décisions déterminantes qui affectaient sa capacité
à mener les Packers à une nouvelle victoire au Super Bowl.
Prenons le cas d’Eric Yuan qui, pour obtenir un visa de travail pour les
États-Unis, avait essuyé huit refus avant que sa demande soit acceptée et a
dû améliorer sa maîtrise de l’anglais pour pouvoir décrocher un contrat dans
l’entreprise de visioconférence Webex. Il s’est ensuite démené pour offrir à
son employeur une prestation exceptionnelle, à tel point que, grâce à lui,
Webex est devenue une plateforme de visioconférence de premier plan.
Après son rachat par le géant du secteur des technologies Cisco Systems,
M. Yuan s’est vu offrir le poste de vice-président chargé de l’ingénierie.
Dans l’avènement du dispositif de visioconférence sur smartphone, M.
Yuan a vu à la fois une menace et une opportunité pour Webex. En 2010, il
a proposé à Cisco/ Webex de reconfigurer la plateforme pour la rendre
compatible avec les téléphones portables. Selon ses dires, sa proposition n’a
pas été retenue par l’entreprise. Moins d’un an plus tard, il a quitté Cisco/
Webex pour créer Zoom, application de visioconférence qui a ensuite
supplanté Webex en devenant leader du marché. Rares sont ceux qui
pensent que Webex a encore une chance de redevenir un adversaire de taille
pour Zoom.
Devez-vous pour autant écouter tout ce que vos talents ont à vous dire ?
Bien sûr que non, cela sèmerait le désordre. Sachez toutefois qu’un
collaborateur hautement qualifié ne supporte pas que son idée soit écartée
d’emblée. De plus, il dispose d’autres options, lesquelles peuvent vous
nuire ou même vous faire disparaître.

Ne bloquez pas la progression de vos perles rares

Compte tenu de leur investissement dans le développement de leurs


compétences, les meilleurs cadres sont extrêmement sensibles à la façon
dont leur talent est utilisé. Si une collaboratrice brillante a l’impression
d’être bloquée dans sa progression et de devoir attendre pour son
avancement de carrière ou sa promotion, elle fera bénéficier de ses
compétences une autre entreprise qui, selon elle, lui offrira de meilleures
opportunités et plus de souplesse. Il convient de faire preuve de perspicacité
pour décider des opportunités à offrir à vos talents et du meilleur moment
pour le faire. Sachez que votre meilleur collaborateur vous tiendra
également pour responsable s’il échoue parce que vous avez accepté de lui
confier des objectifs trop ambitieux. Pour fidéliser les talents, vous devez
leur permettre de continuer à évoluer et à apprendre, chacun à leur façon,
sans créer d’obstacle à leur réussite.
Cela oblige parfois à contrer le service des ressources humaines, qui a
tendance à vouloir traiter tout le monde de la même façon et à inscrire les
propositions d’avancement dans un calendrier rigide. Je me rappelle avoir
dû faire face à une vive opposition de la part du responsable des affectations
lorsque j’ai voulu confier à un consultant peu expérimenté un rôle de
premier plan dans un projet important. On m’a dit qu’il n’était pas prêt et
que ce serait injuste pour les collaborateurs plus anciens dans l’entreprise.
J’ai proposé de chercher d’autres possibilités pour les collaborateurs que
j’avais écartés de ce projet, en promettant de gérer toute conséquence
négative qui découlerait du fait d’avoir confié cette mission à un consultant
junior. Heureusement, tout s’est déroulé sans heurts et ce jeune cadre a été
projeté dans une fonction qui a permis de dissiper les doutes quant à ses
aptitudes.
Dans le cas d’Eric Yuan, en rejetant son idée et en le bloquant dans son
parcours, Cisco/Webex a perdu son talent essentiel et a créé un concurrent
qui lui a été fatal. En expliquant sa décision de quitter un emploi à haut
salaire et à haut statut dans une entreprise bien établie pour créer une startup
à haut risque, Eric Yuan a précisé : « Je n’avais pas d’autre choix que de
partir pour construire une nouvelle solution à partir de zéro. » Si vous
bloquez la progression de vos talents, vous pouvez être sûr qu’ils trouveront
le moyen de la débloquer par eux-mêmes.

Ne manquez pas de féliciter vos employés à haut


potentiel
D’après mon expérience, il est rare qu’un collaborateur réellement
exceptionnel demande à être félicité. Je dirai même qu’il ne le demande
jamais ou, tout au moins, il ne le fait pas directement. Fortement et
intrinsèquement motivés, ces talents de haut vol semblent ne jamais souffrir
du manque de reconnaissance ou avoir besoin qu’on leur envoie des fleurs.
Or c’est faux. Ces collaborateurs passent leur temps à relever des défis.
Pour accomplir leurs exploits, ils frôlent, voire subissent, des situations
d’échec régulièrement. C’est pourquoi vos meilleurs talents ont besoin de
reconnaissance. À défaut, ils éprouveront de la rancune et, déçus, prendront
leurs distances avec l’entreprise.
La difficulté consiste à repérer le moment où ils ont besoin de cette
reconnaissance, puis à personnaliser votre formule en choisissant des
compliments qui ne pourraient être adressés à personne d’autre. Un
commentaire prosaïque comme « vos résultats cette année sont excellents »
ne sera pas perçu de manière positive, même s’il s’accompagne d’une
récompense financière de taille. Votre reconnaissance doit faire directement
référence à des réalisations spécifiques et à l’évolution de votre
collaborateur à haut potentiel.
Lorsque j’étais doyen de la Rotman School of Management, nous avions
beaucoup d’excellents professeurs, mais seuls quelques-uns contribuaient
de manière vraiment extraordinaire à la renommée mondiale de l’école. J’ai
toujours veillé à leur tirer mon chapeau quand je voyais passer un article
flatteur dans la presse ou quand on me rapportait un commentaire positif
d’un étudiant ou des progrès réalisés par l’un de leurs doctorants.
C’est pourquoi j’ai grimacé lorsqu’un ami professeur m’a communiqué
un message reçu par courrier électronique du doyen de son école de
commerce. Il s’agissait d’une approbation pour un voyage en classe affaires
qui ne pouvait s’obtenir que par autorisation expresse du doyen. Mon ami,
qui faisait partie des enseignants les plus brillants, venait de subir une
importante intervention chirurgicale sur le cœur et avait écrit à son doyen
pour l’informer du fait que son médecin lui interdisait de voyager en classe
économique sur les vols intercontinentaux. Il expliquait par ailleurs qu’il
était attendu à un congrès universitaire en Europe pour recevoir un
prestigieux prix pour l’ensemble de sa carrière dans sa spécialité.
Il ne fallait pas être un génie pour décrypter le contenu implicite de ce
message qui aurait dû être compris ainsi : « Monsieur le doyen, vous n’êtes
probablement pas au courant, mais j’ai subi une opération cardiaque lourde
et malgré cela, je suis de retour au travail et prêt à représenter l’école. Et je
viens de recevoir le prix le plus prestigieux dans mon domaine. » Le doyen
a répondu en tout et pour tout : « Demande approuvée. » Il aurait pu se
donner la peine d’écrire : « Je suis vraiment désolé, je ne savais pas pour
votre opération. Je suis ravi d’apprendre que vous êtes bien rétabli. À titre
personnel et au nom de l’école, je tiens à vous féliciter pour cette nouvelle
consécration dans votre brillante carrière. Bien sûr, vous avez mon accord
pour votre demande. Je vais par ailleurs informer notre service de relations
presse de ce prix afin qu’ils publient un communiqué le jour de sa remise.
Je vous souhaite un agréable voyage et vous remercie encore pour tout ce
que vous faites pour la réputation de notre établissement. »
Mon ami m’a transféré cet échange avec une intention très claire,
comme s’il me disait : « Je ne demandais pas qu’il chante mes louanges.
Mais quelle froideur et quelle indifférence ! J’espère que tu n’as jamais fait
ça en tant que doyen, Roger. » Le doyen en question a-t-il commis une
erreur grossière en matière de gestion des ressources humaines ? Pas
vraiment. Mais quelle est la probabilité que mon ami l’aide à accomplir sa
prochaine mission ? Plutôt faible. Combien de temps aurait-il fallu pour
rédiger un courriel efficace du point de vue de la gestion des talents ? Pas
plus de cinq minutes.

•••

Les exigences en matière de gestion des talents dans l’économie


contemporaine peuvent sembler démesurées. Ces collaborateurs
d’exception peuvent demander une rémunération substantielle, tout comme
ils peuvent mettre en péril le succès de votre entreprise s’ils décident de
poursuivre leur carrière ailleurs. Cela dit, cette situation présente également
un côté très positif. En effet, ces collaborateurs permettent d’obtenir des
résultats qui n’auraient pas été possibles autrement, des résultats
exceptionnels, bien au-delà de la moyenne. Et dans la mesure où vous
comptez sur vos meilleurs éléments pour produire des performances
exceptionnelles, vous devez les traiter comme des personnes à part : ne
rejetez jamais leurs idées, ne faites jamais obstacle à leur progression et ne
ratez jamais l’occasion de les féliciter de leur réussite.1

Ce chapitre approfondit l’article de Roger L. Martin, « The Real Secret to Retaining Talent, »
Harvard Business Review, mars-avril 2022.
Chapitre 12

L’innovation

Le processus de conception et de mise sur le marché d’un


produit innovant est aussi crucial que l’innovation elle-même.

Durant la plus grande partie de l’histoire de l’humanité, le design était un


processus qui s’appliquait à la conception d’objets matériels. Raymond
Loewy a conçu des trains. Frank Lloyd Wright a dessiné des maisons.
Charles Eames a conçu des meubles. Coco Chanel a créé des modèles de
haute couture. Paul Rand a dessiné des logos. David Kelley a conçu des
produits, dont la fameuse souris de l’ordinateur Apple.
Quand il est devenu évident qu’à l’origine du succès de nombreux
produits résidait une conception intelligente et efficace, les sociétés ont
commencé à l’utiliser dans des contextes de plus en plus variés. Les
entreprises de haute technologie qui engageaient des designers pour
travailler sur le matériel informatique (notamment pour concevoir la forme
et la configuration d’un smartphone) leur ont demandé de se pencher sur
l’aspect et la convivialité des logiciels d’interface utilisateur. Ensuite, les
designers ont été mis à contribution pour améliorer l’expérience utilisateur.
Très vite, les entreprises se sont mises à traiter l’élaboration de leur
stratégie globale comme un exercice d’application du design. Aujourd’hui,
le design est même utilisé pour optimiser le fonctionnement de nombreuses
organisations et parties prenantes sur le plan systémique.
C’est le cheminement classique du progrès intellectuel. Chaque
processus de conception est plus complexe et plus sophistiqué que celui qui
le précède, mais ce sont les enseignements tirés de l’étape antérieure qui le
rendent possible. Les concepteurs pouvaient facilement se charger des
interfaces utilisateur graphiques pour les logiciels, car ils bénéficiaient de
leurs acquis professionnels dans la conception du matériel pour lequel ces
applications étaient destinées. Après avoir permis de meilleures expériences
pour les utilisateurs d’ordinateurs, les concepteurs pouvaient ensuite
s’attaquer aux expériences de terrain, comme, par exemple, les rendez-vous
de patients à l’hôpital. Et une fois le concept de l’expérience utilisateur
élaboré pour une organisation donnée, ils étaient les mieux placés pour
appliquer l’expérience holistique à un ensemble de structures.
Le design a fini par dépasser l’univers des produits manufacturés, ses
outils et méthodes ayant été adaptés et étendus à une nouvelle discipline
distincte : la pensée design. L’origine de ce concept peut sans doute être
attribuée à Herbert Simon1, le lauréat américain du prix Nobel d’économie,
qui dans son ouvrage devenu classique intitulé Les sciences de l’artificiel
(1969) ne considérait pas le design comme un processus physique, mais
plutôt comme une façon de penser. Richard Buchanan a fait une avancée
décisive dans ce domaine lorsque, dans son article de 1992 consacré à la
recherche de solutions grâce à la pensée design et intitulé « Wicked
Problems in Design Thinking », il a proposé de recourir au design pour
résoudre des défis tenaces et particulièrement difficiles.
Mais avec la complexité croissante du processus de conception, un
nouvel obstacle apparaît, portant sur l’acceptation par les parties prenantes
de ce que nous pourrions appeler le « produit conçu », qu’il s’agisse d’un
article, d’une expérience utilisateur, d’une stratégie ou d’un système
complexe. Et cela m’amène à aborder la dimension essentielle du domaine
de l’innovation : l’élaboration du processus de conception d’un produit
innovant est aussi cruciale que l’innovation elle-même. Dans ce chapitre,
j’expliquerai en quoi consiste ce nouveau défi et comment la pensée design
appliquée aux processus liés à l’innovation peut aider les créateurs à donner
vie aux projets qu’ils ont imaginés.
Faites face à de nouveaux défis

Le lancement d’une nouveauté qui ressemble aux autres produits de


l’entreprise, par exemple une version hybride d’un modèle existant de
voiture thermique, est généralement considéré comme un facteur positif.
L’entreprise a la possibilité de générer de nouvelles recettes sans y trouver
un quelconque inconvénient. Le nouveau véhicule ne bouleverse pas
l’organisation ou la façon de travailler des collaborateurs, de sorte que la
conception, par définition, ne menace ni les emplois ni la structure de
pouvoir en place.
Bien sûr, l’introduction d’une nouveauté sur le marché suscite toujours
des préoccupations. Le véhicule hybride peut ne pas trouver preneur, ce qui
serait coûteux et embarrassant et entraînerait éventuellement la sortie
progressive du portefeuille de l’entreprise d’autres véhicules de la gamme.
Cela génèrerait de l’angoisse chez les personnes qui soutiennent les
modèles plus anciens. Pourtant, les concepteurs prennent rarement en
compte ce genre d’inquiétude : leur tâche consiste à créer un nouveau
modèle vraiment ingénieux. La gestion des répercussions incombe à
d’autres, notamment aux services marketing ou RH.
Cependant, plus le produit conçu se complexifie et plus il relève du
domaine de l’immatériel moins le concepteur peut ignorer ses effets
d’entraînement potentiels. Le modèle économique de l’entreprise peut en
être affecté, voire nécessiter des modifications. Par conséquent, l’entrée
d’un nouveau produit requiert également une attention accrue de la part de
ses concepteurs.
Prenons un exemple : il y a une dizaine d’années, la compagnie
d’assurance MassMutual s’efforçait de trouver une manière originale de
convaincre les personnes de moins de quarante ans de souscrire un contrat
d’assurance vie, un produit très difficile à placer. L’approche traditionnelle
aurait consisté à concevoir un produit d’assurance-vie spécifique et à le
commercialiser de manière classique. Mais MassMutual a jugé que cette
méthode avait peu de chances de fonctionner. Au lieu de cela, la société a
travaillé en collaboration avec une entreprise de design, IDEO, pour
concevoir un type d’expérience client entièrement nouveau, axé plus
largement sur la pédagogie auprès du public en matière de planification
financière à long terme.
Lancée en octobre 2014, la « Society of Grownups » [Société des
adultes] a été conçue comme un « master de la vie adulte ». Plutôt que de
proposer des cours exclusivement en ligne, l’entreprise a élaboré un
dispositif multicanal qui comprenait des outils numériques de pointe
permettant aux apprenants d’établir un budget et de planifier les finances ;
des bureaux dotés de salles de classe et d’une bibliothèque, accessibles aux
clients ; un programme de cours portant sur tous les sujets, de
l’investissement dans un plan d’épargne retraite par capitalisation à
l’acquisition de grands crus. Cette approche a fortement perturbé les normes
et les procédures de l’entreprise, car elle nécessitait non seulement la
création d’une nouvelle marque et de nouveaux outils numériques, mais
aussi la mise en place de nouvelles méthodes de travail. Tous les aspects de
l’organisation ont dû être repensés en fonction de ce nouveau service
susceptible d’évoluer à mesure que les participants communiqueront à
MassMutual de nouvelles informations sur leurs besoins.
La problématique de l’intégration d’une conception inédite pèse encore
davantage sur les produits les plus complexes qui englobent tout un
écosystème commercial. Ainsi, la réussite du déploiement des véhicules
autonomes exige que les constructeurs automobiles, les fournisseurs de
technologies, les régulateurs, les pouvoirs publics, les entreprises de
services et les utilisateurs finaux collaborent d’une façon différente et
adoptent de nouveaux comportements. Comment les assureurs vont-ils
travailler avec les fabricants et les utilisateurs dans le cadre de l’analyse des
risques ? Comment les données recueillies par les voitures autonomes
seront-elles partagées en vue de gérer les flux de circulation sans porter
atteinte à la vie privée ?
Les innovations de cette envergure suscitent de l’appréhension. Il n’est
donc pas étonnant que de nombreuses approches et stratégies vraiment
originales finissent au fond d’un tiroir sans jamais être mises en œuvre.
Cependant, si vous divisez un changement à grande échelle en deux défis
simultanés et parallèles – le design du produit en question et le design de la
stratégie qui va lui donner une existence – vous augmentez vos chances de
réussite.
Planifiez votre processus de conception

L’élaboration du processus de conception s’est naturellement développée


sur la base d’une méthode itérative, mise en place dans le cadre du design
d’objets afin de tester des prototypes auprès du public pour mieux
comprendre et anticiper les réactions des consommateurs à un nouveau
produit. Selon l’approche traditionnelle, les concepteurs commençaient par
étudier le profil des utilisateurs pour créer une fiche produit, puis
travaillaient sans relâche pour que l’entreprise puisse lancer sur le marché
un produit au design enthousiasmant. Selon l’approche axée sur le design et
popularisée par IDEO, l’observation des utilisateurs revêtait un caractère
plus approfondi et constituait une démarche ethnographique plus que
quantitative et statistique.
À l’origine, c’était la distinction fondamentale entre l’ancienne et la
nouvelle approche. Mais IDEO a compris que, quelle que soit la finesse de
la compréhension des consommateurs, les concepteurs n’étaient pas
vraiment en mesure de prédire leurs réactions face au produit final. Les
concepteurs d’IDEO ont donc décidé de nouer le contact avec les
utilisateurs plus en amont, en leur présentant un prototype beaucoup moins
abouti afin de recueillir leur avis à un stade précoce. Ils ont ensuite répété le
processus en proposant des modifications par petites touches, améliorant
constamment le produit jusqu’à ce que l’utilisateur soit séduit. Lorsque le
client d’IDEO a lancé son produit, il savait que le succès était quasiment
garanti. Cet épisode a contribué à élever le prototypage précoce au rang des
meilleures pratiques.
Le processus itératif de présentation de prototypes n’a pas simplement
permis d’améliorer le produit. Il s’est également révélé être un moyen très
efficace d’obtenir l’engagement organisationnel et les financements
nécessaires à la commercialisation du nouveau produit. Ce dernier, surtout
s’il est jugé révolutionnaire, représente un enjeu important pour l’équipe de
direction qui donne son feu vert à son lancement.
Bien souvent, la peur de l’inconnu tue l’idée nouvelle dans l’œuf. Or,
grâce à la possibilité de présentation intermédiaire d’un modèle, une équipe
peut se sentir plus confiante dans son succès sur le marché. Cet effet se
renforce davantage lorsqu’il s’agit des modèles immatériels complexes.
Dans le cadre de l’élaboration de la stratégie d’entreprise, l’approche
traditionnelle consiste à demander au stratège, qu’il s’agisse d’un
collaborateur interne ou d’un consultant externe, de définir le problème,
d’imaginer la solution et de la présenter au cadre responsable. Souvent, ce
cadre peut avoir l’une des réactions suivantes : (1) cette proposition ne
traite pas les problématiques qui me semblent essentielles ; (2) ce ne sont
pas les options que j’aurais envisagées ; (3) ce ne sont pas les aspects que
j’aurais étudiés ; (4) cette solution ne me paraît pas convaincante. Par
conséquent, remporter l’adhésion des responsables de la stratégie tend à être
l’exception plutôt que la règle, surtout lorsque la stratégie suggérée s’écarte
sensiblement du statu quo.
Pour sortir de l’impasse, il convient de procéder à un échange
dynamique avec le décideur. Cela signifie que les concepteurs de la
stratégie doivent interpeller le cadre responsable sans tarder, en lui
demandant de confirmer leur démarche : « Sommes-nous d’accord sur le
fait que le problème à résoudre est le suivant ? Est-ce également votre point
de vue ? » Peu de temps après, il faut revenir vers le décideur pour une
nouvelle mise au point : « En tenant compte du problème tel que nous
l’avons défini ensemble, voici les options que nous voulons explorer. Dans
quelle mesure correspondent-elles à ce que vous avez éventuellement
envisagé ? Avez-vous quelque chose à y ajouter ? Pensez-vous que
certaines des possibilités que nous sommes en train d’étudier sont vouées à
l’échec ? » Plus tard, les concepteurs doivent se manifester pour une autre
précision, en disant : « Nous allons analyser les options qui, selon notre
dernière discussion avec vous, méritent d’être explorées. Nous souhaitons
nous assurer que c’est bien l’analyse que vous voudriez voir effectuée et
que nous n’avons rien oublié. »
Une telle démarche permet de franchir l’étape finale, à savoir
l’introduction d’une nouvelle stratégie, presque comme une simple
formalité. Le cadre qui doit donner son feu vert a contribué à définir le
problème, a confirmé les options et a guidé l’analyse. L’orientation
proposée ne surgit pas de nulle part. Elle a progressivement gagné la
confiance et l’adhésion des intéressés tout au long du processus de son
élaboration.
Lorsque le défi consiste à introduire de nouveaux éléments dans un
système existant, par exemple un nouveau type d’activité ou un nouveau
modèle d’enseignement, les échanges doivent aller plus loin et s’étendre à
l’ensemble des intéressés. Nous allons maintenant examiner l’élaboration
du processus d’introduction des innovations de ce type à l’aide d’une
expérience d’ingénierie sociale à grande échelle en cours au Pérou.
Vers un nouveau Pérou

Intercorp, l’un des plus grands groupes du Pérou, contrôle près de trente
sociétés dans un grand nombre de secteurs. Son PDG, Carlos Rodríguez-
Pastor Jr, a hérité de la société de son père, un ancien exilé politique qui, à
son retour au pays en 1994, a dirigé un consortium ayant racheté au
gouvernement l’une des plus grandes banques du Pérou, Banco
Internacional del Perú. Au décès de son père en 1995,
M. Rodríguez-Pastor Jr a pris le contrôle de la banque.
Mais il voulait être plus qu’un banquier. Il avait pour ambition de
parvenir à transformer l’économie du Pérou en développant sa classe
moyenne. Son entreprise, rebaptisée Interbank, allait offrir des opportunités
d’emploi au sein de cette catégorie de la population tout en répondant à ses
besoins. Il a toutefois compris dès le départ qu’il n’allait pas pouvoir
atteindre cet objectif en appliquant l’approche stratégique de « l’homme
providentiel », caractéristique des grands conglomérats familiaux qui
dominent souvent les économies émergentes. Pour y parvenir, il fallait
susciter de manière savamment orchestrée l’engagement de nombreuses
parties prenantes.

Implanter une culture de l’innovation

La première tâche consistait à rendre la banque compétitive. Pour trouver


des idées, M. Rodríguez-Pastor a décidé de se tourner vers la première
place financière du continent, les États-Unis. Il a persuadé un analyste
d’une maison de courtage américaine de le laisser participer à une visite
d’investisseurs dans les banques américaines, même si Interbank ne faisait
pas partie des clients du courtier.
M. Rodríguez-Pastor avait pris conscience du fait que, pour créer une
entreprise capable d’enclencher une transition dans la société, il ne pouvait
pas se contenter d’acquérir un certain nombre de connaissances par lui-
même et de les transposer à son retour chez lui. S’il se limitait à imposer ses
propres idées, l’adhésion des collaborateurs reposerait largement sur son
autorité personnelle, une situation peu propice à la transformation sociale. Il
avait besoin que ses managers apprennent eux aussi à développer leur
créativité afin qu’ils puissent également repérer et saisir les occasions de
faire avancer son projet ambitieux. Il a donc convaincu l’analyste
d’autoriser quatre de ses collègues à participer à la visite.
Cet épisode met en lumière l’approche participative de Carlos
Rodríguez-Pastor à l’élaboration de la stratégie. Sa démarche lui a permis
de constituer une équipe de direction solide et innovante, de placer la
banque sur un pied d’égalité avec la concurrence et de diversifier
l’entreprise dans une gamme d’activités destinées à la classe moyenne :
supermarchés, grands magasins, pharmacies et cinémas. En 2020, Intercorp,
le groupe construit autour d’Interbank, employait quelque 75 000 personnes
et affichait des recettes prévisionnelles de 5,1 milliards de dollars.
Au fil des ans, M. Rodríguez-Pastor a accru son investissement dans la
formation de l’équipe de direction. Chaque année, il envoie des cadres
suivre des programmes dans des organismes de formation d’excellence
(comme la Harvard Business School et IDEO) et travaille avec ces
institutions pour développer de nouveaux programmes pour Intercorp en
rejetant les options improductives et en affinant des solutions ayant fait
leurs preuves. Par exemple, Intercorp a été l’une des premières entreprises
au monde à lancer, en collaboration avec IDEO, son propre centre de
conception, La Victoria Lab. Situé dans un quartier en plein essor de Lima,
il constitue le cœur d’un pôle d’innovation urbain qui ne cesse de croître.
Mais M. Rodríguez-Pastor ne s’est pas contenté de la création d’un
groupe d’activités innovantes ciblant les consommateurs de la classe
moyenne. L’étape suivante de son plan de transformation sociale consistait
à faire sortir Intercorp du domaine traditionnel des affaires.

Investir dans la valeur de l’éducation


Un bon système éducatif est essentiel à l’épanouissement de la classe
moyenne. Or le Pérou était très en retard dans ce domaine. Les écoles
publiques du pays étaient dans un état déplorable, et le secteur privé
n’offrait guère mieux pour mener les enfants vers un avenir meilleur. Si
aucun changement n’intervenait dans ce domaine, un cercle vertueux de
productivité et de prospérité avait peu de chances de se mettre en place. M.
Rodríguez-Pastor en a conclu qu’Intercorp devait faire son entrée dans le
secteur de l’éducation avec une proposition de valeur à destination des
parents de la classe moyenne (voir l’encadré « Le processus de conception
du projet Innova »).
Obtenir l’acceptation sociale d’une telle initiative relevait d’un véritable
défi, d’autant que le secteur de l’éducation est toujours un champ de mines
où s’opposent les intérêts des différents acteurs. La réussite du projet des
établissements scolaires reposait principalement sur la qualité du processus
de sa conception. À cette fin,
M. Rodríguez-Pastor, en étroite collaboration avec IDEO, a commencé par
chercher l’adhésion des parties prenantes qui risquaient de se montrer
réticentes à l’idée qu’un grand groupe commercial puisse gérer des écoles.
Une telle proposition n’aurait pas fait l’unanimité, même dans un pays très
ouvert aux affaires comme les États-Unis.
La première initiative d’Intercorp a été de lancer en 2007 un prix «
Enseignant inoubliable » décerné au meilleur professeur de chacune des
vingt-cinq régions du pays. Ce prix a rapidement gagné en notoriété, en
partie parce que chaque lauréat remportait également une voiture. C’était
une façon pour Intercorp de manifester son intérêt pour l’amélioration de
l’enseignement au Pérou, tout en permettant aux enseignants, aux
fonctionnaires et aux parents d’accepter l’idée que son entreprise puisse
détenir un réseau d’écoles.
Ensuite, en 2010, Intercorp a acquis un petit établissement scolaire, San
Felipe Neri, géré par l’entrepreneur Jorge Yzusqui Chessman. Grâce à une
école en activité et deux autres au stade de projet, M. Chessman mettait déjà
en œuvre son plan de croissance. Mais l’expérience d’Intercorp en matière
de déploiement d’activités à grande échelle au Pérou pouvait mener son
entreprise bien au-delà de ses espérances. Il fallait toutefois revoir le
modèle en place, pour lequel il y avait un besoin d’enseignants hautement
qualifiés très difficiles à trouver au Pérou. M. Rodríguez-Pastor s’est réuni
avec IDEO et des responsables de ses autres entreprises, notamment un
expert en marketing de sa banque et un expert en installations de sa chaîne
de supermarchés, afin de créer un nouveau modèle, Innova Schools, qui
allait offrir une excellente éducation à un prix abordable pour les familles
de la classe moyenne.
L’équipe s’est lancée dans un processus de conception d’entreprise
centrée sur l’humain, qui a duré six mois. En explorant les besoins et les
motivations de centaines d’élèves, d’enseignants, de parents et d’autres
acteurs, l’équipe les a mis à contribution pour tester les différentes
approches et a sollicité leur avis sur l’aménagement de la classe et les
interactions au sein de celle-ci. Ce travail a permis d’aboutir à un modèle
fondé sur les nouvelles technologies qui intègre des plateformes telles que
la Khan Academy, pionnière américaine de l’enseignement en ligne.
L’enseignant y est positionné comme un facilitateur plutôt que comme
l’unique détenteur des savoirs.
La difficulté de la conception de ce dispositif résidait dans le fait que les
parents pouvaient s’opposer à l’apprentissage de leurs enfants sur
ordinateurs portables en classe et que les enseignants étaient susceptibles de
résister à l’idée d’accompagner les élèves dans l’apprentissage plutôt que de
leur imposer celui-ci. Après six mois de préparation, Innova a donc lancé
un projet pilote à grande échelle et a fait appel à des parents et à des
enseignants pour le façonner et le gérer.

Le processus de conception du projet Innova


Afin d’offrir un enseignement abordable au Pérou, le projet du réseau d’établissements
scolaires Innova Schools a démarré par des séances d’information à l’intention des
parents et des élèves sur son modèle d’apprentissage interactif.

Émergence d’un nouveau modèle


L’équipe a commencé par explorer le mode de vie et les motivations des nombreuses
parties prenantes concernées par le projet Innova, afin de déterminer comment créer
un système qui susciterait l’intérêt des enseignants, des élèves et des parents.
Les idées ont commencé à cheminer vers un modèle fondé sur les nouvelles
technologies et dans lequel le rôle de l’enseignant passerait du statut de « maître
omniscient » à celui de « guide bienveillant ». Par ailleurs, le projet avait pour objectif
de proposer un enseignement évolutif à un prix abordable. Après avoir testé des outils
informatiques, les enseignants ont fait leur retour d’expérience.
À mesure que cette stratégie se consolidait, Innova a organisé de nombreuses
réunions avec les enseignants, les parents et les chefs d’établissement pour obtenir
leurs avis sur la conception des salles de classe, discuter de la manière dont les écoles
pourraient évoluer et inviter les différents acteurs à participer à la mise en œuvre du
projet.
Des directives finales en matière de conception ont été données pour les salles de
cours, l’emploi du temps, les méthodes d’enseignement et le rôle de l’enseignant.

Novembre 2012 : lancement du programme pilote


Des programmes scolaires complets ont été testés dans deux classes de cinquième
dans deux écoles différentes. Les enseignants ont été formés de façon rigoureuse à la
nouvelle approche et le modèle a été ajusté à plusieurs reprises à la suite de leurs
commentaires émis en temps réel.

De 2013 jusqu’à présent : mise en œuvre et évolution du


programme
À ce jour, le modèle d’apprentissage fondé sur les technologies est déployé dans les
29 écoles d’Innova. Le programme continue à accompagner plus de 940 enseignants
dans l’application de cette nouvelle approche. De plus, l’entreprise organise
régulièrement des réunions en y conviant les parents, sollicite le retour d’expérience
des enseignants, des formateurs et des élèves, et adapte ensuite sa méthodologie et
son programme.

Ce projet a démontré non seulement que ce modèle plaisait aux élèves,


aux enseignants et aux parents, mais que certaines appréhensions étaient
totalement infondées : les parents ne se sont pas opposés à l’approche
pédagogique proposée et ont même insisté pour que les ordinateurs
portables ne soient pas retirés à la fin du projet pilote. En outre, 85 % des
élèves utilisaient les ordinateurs portables en dehors des heures de cours. Le
modèle a été amélioré grâce aux enseignements tirés du projet pilote, et tant
les parents que les enseignants sont devenus de fervents défenseurs du
modèle Innova dans le voisinage.
Rien ne vaut le bouche-à-oreille et, bientôt, les listes d’inscription
affichaient complet avant même que les écoles soient construites. La
méthode étant réputée innovante, les enseignants voulaient travailler dans
les établissements d’Innova, même si le salaire était inférieur à celui
proposé dans le secteur public. En 2020, plus de 50 000 élèves
fréquentaient la soixantaine d’écoles Innova.

La répartition de la richesse

Si Intercop avait voulu suivre la pratique commerciale répandue, elle aurait


dû se concentrer sur les quartiers riches de Lima, la capitale du pays, où une
classe moyenne émergeait tout naturellement. Mais M. Rodríguez-Pastor
comprenait que les provinces avaient également besoin d’une telle
population. Encourager son apparition nécessitait, à l’évidence, de recourir
à la création d’emplois. Intercorp pouvait les fournir notamment en
développant sa chaîne de supermarchés rachetée à Royal Ahold en 2003 et
rebaptisée Supermercados Peruanos.
En 2007, la chaîne a commencé à ouvrir des magasins en province.
Évidemment, les consommateurs locaux se sont montrés réceptifs à cette
nouveauté. Lorsqu’un magasin a ouvert à Huancayo, les clients, curieux,
ont fait la queue pendant au moins une heure pour pouvoir y entrer. Pour
beaucoup d’entre eux, c’était une première visite dans un supermarché
moderne. En 2010, 67 supermarchés étaient exploités dans neuf régions.
Aujourd’hui, la chaîne en compte 535 dans tout le pays.
Très tôt, Intercorp s’est rendu compte que les points de vente de ce type
risquaient d’appauvrir les communautés locales au lieu de les enrichir. Un
supermarché offrait, certes, des emplois bien rémunérés, mais il risquait de
nuire aux activités des agriculteurs et des producteurs locaux. Compte tenu
du fait que c’étaient des entreprises de petite échelle qui n’appliquaient pas
toutes les normes de sécurité alimentaire, il aurait été, certes, tentant de
s’approvisionner presque exclusivement à Lima. Cependant, les coûts
logistiques engagés réduiraient les marges bénéficiaires et, en évinçant les
producteurs locaux, la chaîne allait probablement détruire plus d’emplois
qu’elle n’en aurait créé.
Intercorp devait donc stimuler la production locale en nouant
rapidement des partenariats avec les producteurs locaux. En 2010,
l’entreprise a lancé le programme Perú Pasión, avec le soutien de l’ONG
Corporación Andina de Fomento et du gouvernement régional de
Huancayo. Perú Pasión aide les agriculteurs et les petits fabricants à
moderniser leurs capacités de production de manière à pouvoir
approvisionner leur supermarché local. Avec le temps, certains de ces
fournisseurs sont même devenus des fournisseurs régionaux, voire
nationaux.
Actuellement, Supermercados Peruanos s’approvisionne en 220 produits
auprès de 31 fournisseurs différents de Perú Pasión, parmi lesquels
Procesadora de Alimentos Velasquez, à l’origine une simple boulangerie de
quartier desservant quelques petites épiceries voisines. Elle a commencé à
fournir un magasin de la chaîne Supermercados en 2010, générant
seulement 6 000 dollars de ventes annuelles. Depuis ses débuts, la
boulangerie a vendu pour plus de 300 000 dollars de marchandises par
l’intermédiaire de Perú Pasión. Le producteur de produits laitiers
Concepción Lacteos est un autre cas de réussite. En 2010, il a commencé à
approvisionner le magasin local pour environ 2 500 dollars de chiffre
d’affaires annuel et, depuis cette date et avec l’aide de Perú Pasión, affiche
près de 600 000 dollars de ventes réalisées. En 2020, Intercorp a élargi son
programme pour créer un marché en ligne permettant aux petits producteurs
d’approvisionner l’ensemble des entreprises détenues par Intercorp, attirant
247 fournisseurs avec plus de 500 000 dollars de chiffre d’affaires dans sa
première année.
Le succès d’Intercorp dans la promotion de la classe moyenne au Pérou
dépendait de la conception intelligente de nombreux projets : une banque
sophistiquée, un système éducatif innovant et des entreprises adaptées aux
petites villes du Pérou. Mais la conception de l’introduction de ces
nouveaux projets au sein des activités existantes de l’entreprise revêtait la
même importance. Carlos Rodríguez-Pastor a soigneusement planifié les
étapes nécessaires à l’engagement et l’adhésion de tous les acteurs
concernés. Il a permis aux cadres de son équipe de direction d’approfondir
leurs compétences. Il a donné la possibilité à son personnel de développer
son savoir-faire en matière de conception. Il a réussi à convaincre les
enseignants et les parents qu’un groupe commercial était en mesure de
proposer un enseignement scolaire de qualité. Enfin, il s’est associé à des
producteurs locaux pour renforcer leur capacité à approvisionner les
supermarchés. Combinés à des projets bien conçus, ces actions
soigneusement élaborées ont permis de concrétiser la transformation sociale
du Pérou plutôt que de la laisser au stade d’une aspiration idéaliste.
Les principes de cette approche sont clairs et cohérents. Le processus de
conception est constitué de plusieurs actions opérationnelles, qui se
décomposent en de nombreuses petites étapes et non en quelques grandes
opérations. Tout au long de ce parcours et dans le cadre d’un projet
complexe, il est essentiel de privilégier les échanges avec les utilisateurs
concernés, afin de pouvoir renoncer aux mauvaises options et d’accroître la
confiance dans les approches considérées comme pertinentes pour la
réussite du projet en question.
La pensée design a émergé tout d’abord comme un moyen d’améliorer
le processus de conception d’objets matériels. Mais cette démarche va plus
loin. L’histoire d’Intercorp et d’autres entreprises semblables montre que les
principes de la pensée design peuvent se révéler encore plus efficaces
lorsqu’ils sont appliqués à la gestion des problématiques d’ordre immatériel
en vue de susciter l’intérêt et l’adhésion de certains acteurs à l’égard de
nouvelles idées et d’expériences innovantes.2

1 NdT : figure marquante de la recherche en design aux États-Unis, qui se donne pour mission
d’introduire la « pensée design » dans les diverses disciplines de gestion, notamment afin de
sensibiliser les dirigeants de demain.
Ce chapitre est adapté de l’article coécrit par Roger Martin et Tim Brown « Design for Action
», Harvard Business Review, septembre 2015.
Chapitre 13

L’investissement en capital

La valeur du capital est remise à zéro dès qu’il est immobilisé.

En 2013, Ellen Kullman, à l’époque PDG du géant de la chimie DuPont,


subissait des pressions de la part des actionnaires qui souhaitaient voir les
résultats du groupe s’améliorer. Elle a alors décidé de sortir du portefeuille
de l’entreprise l’activité de revêtements, à faible croissance et peu rentable.
Une société de capital-investissement, le groupe Carlyle, a déboursé 1,35
milliard de dollars pour acquérir l’activité dans sa totalité. L’unité
opérationnelle a été rebaptisée Axalta, et Carlyle s’est immédiatement lancé
dans une refonte majeure, notamment en réalisant des investissements assez
agressifs, surtout sur les marchés en développement.
Près de deux ans plus tard, Axalta se portait si bien que Carlyle l’a
introduite en bourse et a récupéré la quasi-totalité de son investissement
simplement en vendant une part de 22 % de l’entreprise. En 2016, soit trois
ans et demi après l’acquisition, Carlyle a vendu le reste de sa participation,
en réalisant une plus-value de 5,8 milliards de dollars sur son
investissement initial.
C’est un cas classique. Un cas qui a permis aux investisseurs en capital-
investissement comme Carlyle, KKR et Blackstone d’acquérir une
réputation de génies perspicaces capables de dégager une valeur cachée
dans les actifs les moins prometteurs grâce à une gestion rigoureuse,
combinée à une bonne gouvernance, à un contrôle minutieux des coûts et,
surtout, à l’absence de contraintes liées aux attentes à court terme des
investisseurs sur la place financière.
Il n’est donc pas surprenant que les investisseurs, toujours à la recherche
de rendements plus élevés, augmentent leurs participations dans les fonds
de capital-investissement. Les marchés financiers sont de plus en plus
considérés comme un jeu de dupes, et l’afflux des capitaux vers les sociétés
de gestion d’actifs permet à ces dernières de passer de l’achat d’unités
opérationnelles sous-évaluées à l’acquisition d’entreprises entières, dont les
actionnaires reprochent à la direction la médiocrité des résultats en termes
de performance.
Pourtant, les redressements tant salués du capital-investissement sont
traditionnellement menés par des managers ayant une longue expérience
des grandes entreprises cotées en bourse. Par ailleurs, les sorties se
produisent dans un délai relativement court de cinq à sept ans. Réduire les
coûts n’a rien de sorcier, et la plupart des pratiques de gestion et des outils
stratégiques appliqués par les gestionnaires d’actifs, comme la pensée
design et la méthode Six Sigma1, sont largement enseignés et bien connus.
Dans ces conditions, pourquoi les grandes entreprises cotées comme
DuPont sont-elles si disposées à laisser des opportunités aussi lucratives
partir dans le giron d’investisseurs privés ?
Ce phénomène s’explique par la manière dont de nombreuses
entreprises, mais pas toutes, bien entendu, évaluent leurs activités et leurs
projets. L’erreur fondamentale de nombreux dirigeants d’entreprise (l’erreur
qu’ils continuent de commettre, d’après les données actuelles) consiste à
comparer les estimations des futurs flux de trésorerie avec les montants
investis. Bien que cela puisse paraître tout à fait logique, la mesure de la
performance devient étroitement liée à une donnée historique qui perd très
rapidement de sa pertinence.
C’est pour cette raison qu’en matière de capital-investissement, il faut
toujours partir du principe que sa valeur est remise à zéro dès que le capital
est immobilisé. Comme je l’expliquerai dans ce chapitre, une fois
l’investissement réalisé dans un actif, les attentes de l’entreprise concernant
la valeur qu’il va créer sont, de fait, rendues publiques. Ainsi, si une société
cotée en bourse comme DuPont réalise un investissement important, par
exemple dans son unité de revêtements, peut-être pour construire une usine
de fabrication ou pour pénétrer un nouveau marché, ces attentes en matière
de création de valeur sont immédiatement intégrées dans le cours de
l’action. Si, par la suite, les résultats dépassent ces attentes, la valeur perçue
de l’investissement augmentera, entraînant ainsi une hausse du cours de
l’action. Si les résultats sont strictement conformes aux attentes, la valeur
n’évoluera pas et le cours de l’action (en l’absence d’autres facteurs) restera
inchangé. En revanche, si la performance ne répond pas aux attentes, le
cours de l’action de DuPont baissera, parce que le rendement du capital
n’aura pas été aussi élevé que prévu, même si l’investissement continue à
générer des revenus sur les liquidités injectées dans le projet.
Cela signifie que, pour mesurer la performance de leurs investissements,
les entreprises ne doivent pas tenir compte des montants immobilisés, mais
de la valeur actuelle de l’actif ou de l’infrastructure financés, qui intègre les
pertes ou les profits anticipés par le marché dans le cadre de ce projet.
Comme nous allons le voir dans ce chapitre, c’est l’incapacité des
dirigeants à prendre en compte cette réalité qui explique que les sociétés de
gestion d’actifs telles que Carlyle continuent à récolter d’énormes bénéfices
sur les activités qu’elles rachètent à des géants tels que DuPont. Je
commencerai toutefois par comparer les différents types d’actifs dans
lesquels les entreprises investissent, car le décalage entre la performance
des investissements telle qu’elle est perçue par le marché et la façon dont
cette performance est mesurée tient principalement à la nature des actifs en
question.
Le capital et sa liquidité

Une société a la possibilité d’investir dans de nombreux types d’actifs.


D’un côté, on trouve ce que j’appelle un capital disponible, c’est-à-dire les
liquidités et assimilés, comme les titres négociables, ce qui correspond en
réalité à tout actif admis à la négociation sur un marché et pouvant être
rapidement converti en espèces. Ces actifs sont généralement valorisés au
bilan à leur prix de marché, qui intègre l’ensemble des anticipations
existantes relatives à la valeur qu’ils vont créer.
De l’autre côté, on trouve le capital immobilisé qui a été incorporé dans
un actif et ne peut être converti rapidement en liquidités ou assimilés. Il
peut s’agir d’une installation de production, d’un réseau de distribution ou
d’un système logiciel, ou encore d’une marque ou d’un brevet. En l’absence
de prix de marché disponibles pour ces actifs, ils sont évalués à leur valeur
d’acquisition, à laquelle on retranche les charges cumulées de dépréciation
ou d’amortissement (calculées selon les normes comptables en vigueur).
Ces actifs représentent la majorité des investissements en capital de la
plupart des entreprises : ils permettent d’élaborer, de commercialiser et de
distribuer leurs produits ou services créateurs de valeur.
En général, les entreprises convertissent le capital disponible en capital
immobilisé. Quand, par exemple, une entreprise spécialisée dans les
produits chimiques construit une usine de polyéthylène, elle intègre le
capital qu’elle a reçu des banques ou des investisseurs en actions dans un
actif qui ne peut pas être vendu facilement pour obtenir des espèces. Si le
marché du polyéthylène se déplace vers le sud ou si les coûts d’exploitation
de l’usine sont plus élevés que prévu, cette usine pourra probablement être
cédée, mais avec une grosse perte à la clé. En revanche, si elle a été
construite intelligemment et jouit d’une bonne localisation, elle peut être
vendue en réalisant un gain non négligeable. Mais, dans tous les cas, elle ne
peut être vendue en tant qu’installation opérationnelle qu’à condition
d’avoir été entretenue et d’être adaptée à l’usage auquel elle est destinée.
Jusqu’ici tout va bien. Les investisseurs et les banques prêtent leurs
capitaux aux entreprises non pas pour qu’elles les investissent ensuite en
liquidités et en titres négociables, mais pour qu’elles achètent puis gèrent
efficacement des actifs productifs. Le professeur de stratégie Pankaj
Ghemawat soutient dans son ouvrage consacré au concept d’engagement
dans la réflexion stratégique et intitulé Commitment: The Dynamic of
Strategy, que la clé de l’avantage concurrentiel se trouve dans les
investissements qui engagent l’entreprise dans une capacité et un plan
d’action spécifiques. En clair, si vous achetez les bons actifs et les bonnes
infrastructures et que vous les exploitez correctement, ils créeront de la
valeur sous la forme d’un flux de trésorerie stable à long terme. Et moins
les actifs sont convertibles, plus ils créent de la valeur.
La théorie de Pankaj Ghemawat est étayée par des données empiriques.
Les économistes William Baumol, John Panzar et Robert Willig, dans leur
ouvrage méconnu mais instructif sur le marché contestable, intitulé
Contestable Markets and the Theory of Industry Structure, montrent que les
secteurs dans lesquels les principaux actifs productifs sont facilement
convertibles obtiennent de moins bons résultats que ceux caractérisés par ce
que les auteurs appellent les actifs irrécouvrables. Par exemple, dans le
secteur américain du transport aérien régulier, deux des actifs les plus
coûteux sont les avions et les postes de stationnement. Il se trouve que le
marché des avions et des postes de stationnement est très liquide : si un
nouvel entrant décide d’y investir, il peut également libérer ses capitaux
assez rapidement. Le problème survient lorsque le secteur se porte bien, car
les entreprises ont tendance à surinvestir en raison du coût d’engagement
relativement faible, entraînant ainsi une surcapacité chronique. Dans ce
contexte, il est difficile pour une entreprise de créer de la valeur de manière
constante et durable.
En définitive, le rôle des dirigeants d’entreprise est d’investir dans des
actifs qui ne sont pas immédiatement convertibles en espèces. C’est en
immobilisant le capital disponible reçu des investisseurs que les entreprises
créent de la valeur. Mais comment savoir objectivement si ces managers
font du bon travail ?
Comment les entreprises mesurent la
création de valeur

Alfred Rappaport, professeur de l’école de commerce Kellogg School of


Management (et auteur de l’ouvrage influent publié en 1986 sur la création
de valeur actionnariale Creating Shareholder Value), et la société de conseil
Stern Stewart ont joué un rôle déterminant dans la mise au point de
méthodes normalisées pour mesurer la richesse créée par les entreprises
pour leurs actionnaires. La valeur ajoutée actionnariale (VAA) proposée par
Alfred Rappaport et la valeur ajoutée économique (VAE) de Stern Stewart
sont deux notions très similaires qui ont pour objectif de comparer deux
indicateurs : le retour sur investissement et le coût moyen du capital,
pondérés pour refléter les proportions de financement par la dette et en
fonds propres. Pour simplifier mon propos, j’utiliserai ici la VAE, car cet
indicateur est devenu plus courant.
La VAE correspond au flux de trésorerie net attendu exprimé en
pourcentage et représentant la part de la valeur monétaire du financement
obtenu par l’entreprise à la fois par la dette et au moyen d’émission
d’actions, tel qu’inscrit à son bilan. Pour calculer la VAE, les gestionnaires
appliquent généralement le modèle d’évaluation des actifs financiers, en
utilisant des données accessibles au grand public. Si le rendement du capital
investi est supérieur à son coût, l’entreprise crée de la valeur ; s’il est
inférieur, la valeur est détruite.
Pour illustrer ce point, prenons l’exemple d’un géant des produits
pharmaceutiques, des dispositifs médicaux et des produits de soins de santé
et beauté grand public, l’américain Johnson & Johnson. En 2018,
l’entreprise a vendu pour 81,6 milliards de dollars de biens et de services et
a empoché 15,3 milliards de dollars de flux de trésorerie après impôts. Pour
générer ce flux, J&J a immobilisé 89,1 milliards de dollars de capitaux en
moyenne (90,8 milliards de dollars en début d’année et 87,4 milliards de
dollars en fin d’année) – fonds propres et souscription d’emprunts à long
terme – comptabilisés comme les fonds levés. Ainsi, J&J a obtenu un bon
rendement cette année-là, correspondant à 17 % de son capital investi. Au
cours de la même période, des cabinets d’analyse indépendants ont estimé
le coût moyen pondéré du capital (CMPC) de J&J à environ 6 %. Sa VAE
de 11 points était donc positive. On peut également considérer cette valeur
en termes purement monétaires. Si J&J a engagé près de 5,3 milliards de
dollars (soit 6 % de 89,1 milliards de dollars) correspondant au coût du
capital investi et a généré un flux de trésorerie de 15,3 milliards de dollars,
la valeur créée par l’entreprise s’élève à environ 10 milliards de dollars.
C’est ce qu’on appelle le flux de trésorerie résiduel (FTR), c’est-à-dire le
montant en numéraire, après déduction du coût du capital. Un FTR positif
indique que la société a créé de la valeur pour les actionnaires ; un FTR
négatif signifie qu’elle en a détruit.
En temps utile, les adeptes de la VAE ont commencé à transposer cette
analyse généralement appliquée au niveau de la société à chacune des unités
opérationnelles de J&J, afin d’identifier celles qui contribuent à la création
de valeur de l’entreprise ou celles qui, au contraire, lui en font perdre, car la
plupart des décisions d’investissement en immobilisation sont prises au sein
de ces unités (chez J&J, seuls 16 % de tous les actifs en valeur monétaire
sont détenus au niveau global de l’entreprise). Pour calculer la charge en
capital, les analystes commencent par trouver dans le rapport financier la
valeur comptable des actifs nets (valeurs immobilisées auxquelles s’ajoute
le fonds de roulement net) de chaque unité (en tenant compte également, si
on veut être plus précis, d’une part proportionnelle des biens de
l’entreprise). En multipliant ce chiffre ajusté par le coût moyen du capital
de l’entreprise, on obtient une valeur monétaire correspondant à la charge
en capital liée aux bailleurs de fonds (dette et capitaux propres) pour une
année et pour chaque unité opérationnelle.
Ce type d’analyse permet aux dirigeants d’entreprise de classer les
unités de leur société selon le flux de trésorerie résiduel, en partant des
championnes de la création de valeur et en terminant par celles qui sont
destructrices de valeur actionnariale. Par exemple, J&J divise son activité
en trois grandes branches : les produits pharmaceutiques (activité qui
comprend des médicaments largement prescrits tels que le Remicade et le
Xarelto et qui permet de dégager un résultat net d’exploitation de près de
8,9 milliards de dollars en utilisant environ 46 % des 89,1 milliards de
dollars de capital immobilisé) ; les dispositifs médicaux (notamment les
stents et les lentilles de contact qui rapportent 4,4 milliards de dollars de
flux pour 35 % du capital) ; et les produits grand public (pansements,
shampoing pour bébé, produits Neutrogena, etc., avec 2 milliards de dollars
de flux généré pour 19 % du capital déployé).
Les chefs d’entreprise ont rapidement adopté cette approche comme
base d’importantes décisions d’investissement et de désinvestissement : les
activités créatrices de valeur pour les actionnaires méritent des
investissements plus importants, tandis que les activités destructrices de
valeur justifient l’austérité, l’objectif étant de ne pas investir à perte.
Une telle réaction à ce nouvel outil de mesure n’a rien d’irrationnel à
première vue. Pourquoi se priver de financer des entreprises qui sont
rentables et de se montrer prudent avec celles qui ne peuvent même pas
couvrir les coûts d’investissement ? À bien y penser, n’est-ce pas ce que
veulent les actionnaires ? Ne devrait-on pas céder les activités en perte de
vitesse pour éviter une nouvelle année de destruction de valeur
actionnariale ?
Mais dans ce cas, comment expliquer que le cours de l’action de J&J ait
chuté en 2018, faisant perdre à l’entreprise environ 30 milliards de dollars
de sa valeur de marché ? Admettons qu’une partie de cette perte (23
milliards) reflète un repli global du secteur, cela veut tout de même dire que
les marchés ont cru que J&J avait détruit plus de 7 milliards de dollars de
valeur au lieu de créer les 10 milliards annoncés dans l’analyse. Si nous
partons du principe que le marché a toujours raison, il doit y avoir un
problème avec le mode de calcul que je viens de vous exposer. Cela
m’amène à partager avec vous une observation contre-intuitive sur le
capital dont vous devez absolument tenir compte.
Réalisez la valeur au moment de
l’investissement

Le cours de l’action d’une société reflète la valeur qui, selon les


investisseurs, devrait être générée par son portefeuille de projets. Imaginons
maintenant que J&J surprenne le marché en annonçant qu’un nouveau
médicament très attendu, dont la commercialisation paraissait jusque-là peu
probable à court terme, vient de recevoir l’approbation de l’autorité de santé
et que les bénéfices annuels de ce médicament sont estimés à quelque 6
milliards de dollars. Imaginons par ailleurs que les analystes financiers qui
suivent J&J confirment cette estimation. Toutes choses égales par ailleurs et
avec un coût du capital d’environ 6 %, ces 6 milliards de dollars de
bénéfices par an feraient probablement augmenter la capitalisation
boursière de J&J de 100 milliards de dollars.
Mais la valeur totale des actions de J&J n’augmenterait pas au rythme
de 397 millions de dollars par jour de négociation en bourse (252 jours par
an), ce montant représentant le gain journalier supplémentaire de J&J. Au
contraire, en apprenant la nouvelle, le marché actualiserait tous les flux de
trésorerie attendus en raison de l’arrivée du nouveau médicament et ferait
grimper la capitalisation boursière de 100 milliards de dollars
immédiatement. Cela fonctionne, bien sûr, si la communication est parfaite.
Si l’information est diffusée lentement et de manière partielle, il faudra
peut-être un certain temps pour que l’augmentation de 100 milliards de
dollars se concrétise. Mais, quoi qu’il en soit, la hausse significative due à
la bonne surprise est inéluctable dès lors que les autorités réglementaires
donnent leur approbation.
Je me permets d’insister, car c’est contre-intuitif, mais vous devez
absolument y penser : tout investissement dans un actif suscite des attentes
de création ou de destruction de valeur dans le futur, et cela doit se refléter
immédiatement dans la valeur du capital.
C’est précisément la raison pour laquelle le cours d’Alphabet se négocie
globalement à huit fois sa valeur comptable. Les investisseurs ont depuis
longtemps réévalué à la hausse le capital immobilisé dans l’activité de
recherche sur internet de Google – qui affiche une rentabilité spectaculaire
et à laquelle les calculs traditionnels attribueraient une VAE très élevée.
Mais cela ne suffirait pas à faire monter le cours de l’action d’Alphabet. La
seule chose qui fait grimper le prix d’une action est une nouvelle positive.
Les investisseurs ne relèveront la valeur du titre que s’ils découvrent que la
société a trouvé le moyen de générer un flux résiduel excédentaire après
avoir incorporé la charge financière liée à la valeur de l’actif dans le prix de
l’action et non dans l’investissement initial.
Rappelons maintenant comment le capital immobilisé est valorisé : il est
comptabilisé comme le montant payé pour acquérir l’actif, corrigé en
fonction de la dépréciation et de l’amortissement. Il apparaît anormal de
tenir compte des attentes en matière de valeur lorsque nous évaluons
l’ensemble du portefeuille d’une entreprise sans faire de même pour les
actifs de ce portefeuille, donc du capital immobilisé,
et ce au niveau de chaque unité opérationnelle ou de chaque projet.
En outre, sans inclure immédiatement la valeur susceptible d’être créée
grâce à un investissement dans les prévisions, la méthode classique suppose
que le prochain dollar investi aboutira au même rendement que le dollar
précédent. Autrement dit, si l’investissement déjà immobilisé dans une
activité détruit (ou crée) de la valeur pour les actionnaires, la participation
supplémentaire suivra la même trajectoire. Naturellement, cela peut être le
cas : il y a de fortes chances que les entreprises gagnantes aient choisi une
stratégie ou un modèle économique efficace, de sorte que le fait de doubler
la mise créerait effectivement encore plus de valeur pour les actionnaires.
L’inverse est également vrai : les entreprises perdantes peuvent très bien
avoir choisi une stratégie délétère, de sorte que le fait de redoubler d’efforts
ne ferait qu’accélérer la destruction de valeur.
Néanmoins, rien n’est déterminé à l’avance, et on peut rarement garantir
qu’investir un dollar supplémentaire en capital dans une entreprise au FTR
élevé au bilan (c’est-à-dire calculé selon la méthode conventionnelle) créera
également de la valeur. Cela dépend entièrement de la nature du projet
financé. Le problème, et c’est là qu’il convient d’être prudent, est que si
l’entreprise obtient déjà un FTR comptable élevé, cette tendance se
poursuivra très certainement après le financement supplémentaire, car il est
peu probable que cet accroissement du capital change la donne par rapport
aux investissements cumulés depuis le début. Ainsi, même si le nouvel
investissement détruit la valeur actionnariale, le FTR comptable global sera
encore élevé, laissant les cadres croire que s’engager dans l’entreprise reste
une bonne idée alors que ce n’est plus le cas.
De même, il n’est pas du tout évident qu’un dollar supplémentaire
investi dans une entreprise ayant un résultat comptable déficitaire ne créera
pas de valeur. Il est tout à fait concevable que, plus que toute autre chose,
l’entreprise ait besoin d’une injection de fonds. Cependant, à moins que cet
apport en capital mène à une performance spectaculaire, l’entreprise fera
sans doute face à un flux résiduel global encore négatif, car même si le
nouvel investissement crée effectivement beaucoup de valeur pour les
actionnaires, il ne peut probablement pas effacer d’un coup tous les
manquements des investissements antérieurs, ce qui amène les dirigeants à
penser, à tort, qu’il s’agit d’une mauvaise affaire.
Comment peut-on éviter cet écueil ?
Changez d’approche

Il convient de revoir le mode de calcul de la charge financière. Son résultat


doit refléter de façon immédiate les attentes en matière de valeur créée ou
détruite, et ce dès l’instant où le capital disponible est immobilisé.
Au niveau de l’entreprise, il s’agit d’un calcul assez simple : à tout
moment, le flux de trésorerie futur d’une société est divisé par la valeur de
marché de son financement (ses capitaux propres et sa dette combinés),
permettant ainsi d’obtenir un indicateur du rendement des flux de trésorerie
escompté rapporté à la capitalisation boursière. C’est le taux de rentabilité
qu’un investisseur pourrait espérer obtenir en achetant des actions à ce
moment précis.
Au niveau de l’unité opérationnelle, la valeur du capital immobilisé peut
être calculée en divisant le flux de trésorerie que génère cette unité par le
rendement des flux de trésorerie de la société mère rapporté à la
capitalisation boursière. La somme des valeurs en capital des différentes
unités opérationnelles correspond à la capitalisation boursière de
l’entreprise dans son ensemble. Les experts financiers peuvent observer que
cette approche ne tient pas correctement compte des différents niveaux de
risque systémique et des différentes structures du financement optimisées
pour chaque activité et projet au sein de l’entreprise, de sorte que le coût
moyen pondéré du capital pour chaque unité, et donc la charge en capital
qui en découle, nécessiterait de nouveaux ajustements. Mais, en général, il
s’agit là d’un problème mineur, car la plupart des investisseurs appliquent
par défaut le CMPC global de l’entreprise à chaque projet ou unité
opérationnelle.
Si la capitalisation boursière prend immédiatement en compte toutes les
données disponibles sur la valeur, y compris la valeur considérée comme
créée ou détruite du point de vue du marché, le FTR au moment de
l’investissement devrait être égal à zéro, et le coût du capital devrait être
équivalent au rendement attendu du capital par les nouveaux bailleurs de
fonds.
Une fois l’investissement réalisé, les nouvelles sur ce qui crée ou détruit
la valeur du capital amènent les gestionnaires et les analystes à revoir leurs
attentes concernant les flux de trésorerie futurs, et le nouveau consensus fait
évoluer le prix de l’action. Revenons à J&J et à l’hypothétique bonne
nouvelle du régulateur : la charge en capital pour l’activité dans laquelle le
médicament tant attendu a été introduit (disons, l’oncologie) aurait dû
aussitôt être augmentée de 6 milliards de dollars par an, correspondant au
montant que les actionnaires espèrent obtenir de l’activité dès l’instant où
l’annonce sur la nouvelle réglementation a été intégrée au prix du titre. Les
nouveaux investisseurs qui rachètent ce capital en acquérant des parts
auprès des actionnaires déjà engagés devraient payer pour cette valeur
supplémentaire. À l’inverse, si J&J avait indiqué qu’elle révisait ses
prévisions de bénéfices de fin d’année en oncologie à la hausse ou à la
baisse, disons de 10 %, cette information aurait conduit à un ajustement de
sa charge financière.
Voyons maintenant si cette approche peut expliquer pourquoi J&J a fini
par détruire environ 7 milliards de dollars au lieu de créer les 10 milliards
de dollars suggérés par les calculs de base de la VAE. Pour rappel, les
activités de J&J ont généré un flux de trésorerie de 15,3 milliards de dollars
en 2018. Les données du rapport annuel indiquent que l’entreprise a
immobilisé 89,1 milliards de dollars de capitaux pour obtenir ces
rendements.
L’erreur courante dans le calcul de la
création de valeur

La plupart des entreprises utilisent le retour sur investissement (RI) pour


évaluer les performances d’une activité. Mais, pour calculer le RI, il faut
estimer avec précision le coût du capital de l’entreprise, alors que de
nombreux dirigeants ne le font pas correctement car ils se concentrent sur la
valeur comptable (ou coût historique) de l’investissement plutôt que sur sa
valeur de marché au jour J (sur la base du cours de l’action de l’entreprise).
Le cas de Johnson & Johnson illustré à la figure 13.1 permet de comprendre
les écueils que présente cette approche.
Toujours est-il qu’à la fin de 2017, la valeur de marché de la dette à long
terme et des capitaux propres immobilisés de J&J s’élevait à 405,5 milliards
de dollars, ce qui excède d’environ 316 milliards de dollars sa valeur
comptable. C’est la valeur que l’immobilisation de 89,1 milliards de dollars
avait créée ou devait créer fin 2017, selon les informations dont disposaient
les investisseurs concernant les actifs, les plans de gestion et
l’environnement commercial de J&J. Toute personne souhaitant investir
dans l’entreprise à cette époque aurait été obligée de payer pour la valeur
supplémentaire alors immobilisée, comme reflété dans le prix. Cela signifie
que les investisseurs qui allaient acheter les parts de J&J le 1er janvier 2018
lorgnaient le rendement annuel de 405,5 milliards de dollars, et non les 89,1
milliards de dollars du bilan ; sinon, ils n’auraient pas investi à hauteur de la
valorisation de 405,5 milliards de dollars. C’est le rendement de chaque
nouveau dollar investi qui les intéressait, et ils s’attendaient à ce que ce
rendement corresponde, au minimum, au CMPC de 6 %. Alors, qu’ont-ils
obtenu ?
D’après l’analyse traditionnelle, J&J a connu une année exceptionnelle
en 2018. Les ventes ont augmenté de près de 7 %. Le rendement après
impôt du capital comptable était de 17 %, alors que le coût du capital
s’élevait à 6 %. Mais le rendement rapporté à la capitalisation boursière des
flux de trésorerie a été, comme le montre le tableau, bien moins
impressionnant, puisqu’il s’est établi à 3,8 %, soit plus de deux points au-
dessous du coût du capital de J&J. Cette différence représente une
destruction de la valeur actionnariale de 9 milliards de dollars (un peu plus
de 2 % des 405,5 milliards de dollars) sur l’année, ce qui explique
largement la disparition d’une tranche théorique des 7 milliards de dollars
englobée dans les 30 milliards de dollars de perte de la valeur de marché de
J&J. En vérité, comme le montre ce tableau, aucune des trois activités du
groupe n’a obtenu de retour sur investissement.
Figure 13.1 Différentes évaluations de J&J

•••

L’idée que la valeur du capital devrait toujours intégrer les attentes


actuelles peut contribuer à expliquer pourquoi les sociétés de capital-
investissement réussissent si bien. Les grandes entreprises qui évaluent les
performances de leurs activités sur la base de la valeur ajoutée économique
classique cherchent probablement à se défaire de ce qu’elles considèrent
comme des activités offrant peu de perspectives de création de valeur et ne
méritant donc pas qu’on leur consacre du temps ou de l’argent. Les
gestionnaires d’actifs y voient une opportunité d’arbitrage en matière
d’achat d’immobilisations à un prix qui reflète les attentes artificiellement
faibles de l’entreprise. Si les entreprises pouvaient vraiment comprendre
que les marchés de capitaux s’intéressent aux attentes et non aux
performances passées pour prendre leurs décisions d’investissement en
conséquence, les sociétés de gestion d’actifs perdraient probablement l’une
de leurs principales sources de profit.2

1 NdT : un ensemble de techniques utilisées dans l’objectif d’améliorer les processus de


production d’une entreprise afin d’atteindre un certain niveau de qualité.
Ce chapitre est adapté de l’article de Roger L. Martin « What Managers Get Wrong about
Capital », Harvard Business Review, mai-juin 2020.
Chapitre 14

Les fusions-acquisitions

Pour obtenir de la valeur lors d’une acquisition, il faut


commencer par en apporter.

En 2015, moins de dix ans après une crise financière planétaire, le monde
de l’entreprise a établi un record en matière de fusions et acquisitions. La
valeur des transactions a éclipsé le précédent exploit de 2007, qui avait déjà
surpassé celui de 1999. Et malgré une pandémie mondiale et l’instabilité
politique aux États-Unis et en Europe, l’heure est toujours à la fête. Le
volume de ces transactions a augmenté en 2016 par rapport à 2015, puis en
2017 par rapport à 2016. Six des sept meilleures années jamais enregistrées
pour les activités de fusionsacquisitions se situent entre 2015 et 2020.
La frénésie de ces opérations se reflète notamment dans l’émergence au
cours des années 1990 des sociétés d’acquisition à vocation spécifique, ou
SAVP, dont l’activité est longuement restée limitée avec moins de vingt
offres publiques initiales par an jusqu’en 2016. La création des SAVP a
ensuite explosé avec 248 introductions en bourse en 2020 et 435 au cours
des trois premiers trimestres de 2021. Ces sociétés, qui lèvent des capitaux
sans qu’il y ait d’entité existante en activité, se contentent de promettre une
acquisition future.
Cette hausse exponentielle semble ignorer les faillites retentissantes qui
se produisent en cascade à la suite de ces transactions. En 2015, lorsque
Microsoft passe par perte et profit 96 % de la valeur de l’activité de
téléphonie mobile acquise l’année précédente auprès de Nokia pour un
montant de 7,9 milliards de dollars, nous avons tous senti qu’il y avait un
problème. Même constat pour Google qui se débarrasse pour 2,9 milliards
de dollars de l’activité de téléphonie mobile qu’elle a acquise auprès de
Motorola pour 12,5 milliards de dollars en 2012 ; ou pour HP qui déprécie
de 8,8 milliards de dollars la valeur d’Autonomy rachetée pour 11,1
milliards ; ou pour News Corporation qui vend MySpace en 2011 pour
seulement 35 millions de dollars après l’avoir acquise pour 580 millions de
dollars tout juste six ans auparavant ; tout comme pour Yahoo qui brade
Tumblr pour un montant déclaré de 3 millions de dollars en 2019, à peine
six ans après avoir déboursé 1,1 milliard de dollars pour l’acquérir, soit une
perte de 99,7 % de la valeur.
Cependant, ces résultats ne sont pas si désastreux comparés aux
catastrophes liées aux fusions-acquisitions qui se sont produites en 2021. À
quelques mois d’intervalle, l’opérateur télécom américain AT&T a enchaîné
les cessions en vendant ses filiales, à savoir DirecTV pour un montant de 16
milliards de dollars en février, puis Time Warner pour 43 milliards de
dollars en mai. La scission n’est pas une mauvaise chose en soi : en fait,
nombreux sont ceux qui ont félicité AT&T de s’être débarrassée d’activités
qui n’avaient absolument pas leur place dans son portefeuille. Cependant,
de telles opérations prennent un sens différent lorsqu’elles sont rapprochées
des prix d’achat : 48 milliards de dollars déboursés pour DirecTV en 2015
et 85 milliards de dollars pour Time Warner en 2018. Cela représente 74
milliards de dollars de capital actionnarial jeté par les fenêtres en moins de
six ans. Sans surprise, les actionnaires ont réclamé et obtenu la tête du PDG
qui a conclu ces transactions, Randall Stephenson, mis à la retraite en 2021.
Fort heureusement, il existe des opérations réussies dans ce domaine.
L’achat de NeXT en 1997 pour un montant qui semble aujourd’hui
dérisoire, soit 404 millions de dollars, a permis de sauver Apple et ouvert la
voie à la plus grande accumulation de valeur actionnariale jamais réalisée.
L’achat d’Android pour 50 millions de dollars en 2005 a donné à Google la
plus forte implantation dans l’activité des systèmes d’exploitation pour
smartphones, l’un des marchés de produits les plus demandés au monde.
L’acquisition progressive de la compagnie d’assurance GEICO par Warren
Buffett, entre 1951 et 1996, est devenue la pierre angulaire de la société
d’investissement Berkshire Hathaway. Et même s’il est encore trop tôt pour
tirer des conclusions, l’acquisition de TD Ameritrade par Charles Schwab
en 2020 semble de bon augure pour la suite. Mais ce sont des exceptions
qui confirment la règle démontrée par presque toutes les études : les
fusions-acquisitions s’apparentent à un jeu de dupes, dans lequel 70 à 90 %
se soldent par un échec cuisant.
Pourquoi le bilan est-il aussi mauvais ? La réponse, étonnamment
simple, à cette question sous-tend un raisonnement contre-intuitif qu’il faut
absolument prendre en considération dans le cadre des fusions-acquisitions
: pour obtenir de la valeur, il faut commencer par en apporter. Les
entreprises qui se concentrent sur ce qu’elles vont gagner dans une
acquisition ont moins de chances de prospérer que celles qui se focalisent
sur leur contribution à l’entité acquise (cette idée fait écho à celle d’Adam
Grant, qui note dans son livre Give and Take que les personnes qui
cherchent plutôt à donner qu’à recevoir dans le cadre de leurs relations
réussissent en fin de compte mieux que celles qui s’attachent à maximiser
leur propre profit).
Par exemple, lorsqu’une entreprise se sert d’une acquisition pour
pénétrer un marché attractif, elle occupe généralement la position de «
preneur ». C’était le cas dans tous les exemples désastreux cités ci-avant.
AT&T voulait faire son entrée sur le marché de la distribution de télévision
par satellite et de la création et diffusion de contenus. Microsoft et Google
voulaient se lancer dans l’équipement pour smartphones ; HP, dans la
technologie de recherche d’entreprise et l’analyse de données ; News
Corporation, dans les réseaux sociaux. Lorsqu’un acheteur arrive en mode «
preneur », le vendeur peut augmenter son prix afin de profiter de cette
transaction et en tirer toute la valeur future cumulée, surtout si un autre
acheteur potentiel entre dans l’équation. AT&T, Microsoft, Google, HP,
News Corporation et Yahoo ont payé le prix fort pour leurs acquisitions, ce
qui a d’emblée grevé la rentabilité du capital investi. De plus, aucune de ces
entreprises ne connaissait vraiment son nouveau marché, ce qui constitue un
facteur aggravant ayant contribué à l’échec final de ces opérations,
puisqu’elles n’avaient rien apporté aux entités acquises.
En revanche, disposer d’un atout qui pourra rendre la société achetée
plus compétitive change la donne. Tant que l’entité à acquérir reste
incapable d’améliorer ses résultats seule ou, encore mieux, grâce à un autre
acquéreur, c’est bel et bien vous, et non pas le vendeur, qui récolterez les
fruits de sa progression. Il existe quatre manières pour un acquéreur
d’améliorer la compétitivité de sa cible : fournir le capital de croissance de
façon plus intelligente, assurer une meilleure supervision managériale,
transférer des compétences spécifiques ou partager des ressources
précieuses. Étudions ces méthodes de plus près.
Soyez un fournisseur de capital de
croissance avisé

Un investissement intelligent constitue une méthode efficace de création de


valeur dans les pays où les marchés des capitaux sont moins développés. La
réussite remarquable des conglomérats indiens tels que les groupes Tata et
Mahindra en est l’exemple, car ils acquièrent (ou créent) des entreprises
plus petites en finançant leur croissance d’une façon que les marchés de
capitaux indiens ne pratiquent pas.
Une telle démarche s’avère plus compliquée dans les pays où les
marchés des capitaux sont mieux développés. Ainsi, aux États-Unis, les
fonds activistes poussent souvent les groupes diversifiés au démembrement
parce que ces derniers se trouvent dans l’incapacité de démontrer que leur
activité dans le domaine des services bancaires aux entreprises permet de
stimuler la compétitivité de leurs propres activités. C’est ainsi que les
grandes entreprises comme ITT, Motorola et Fortune Brands, mais aussi
d’autres moins importantes telles que Timken et Manitowoc, ont éclaté en
plusieurs sociétés indépendantes. Même General Electric s’allège de façon
spectaculaire. L’une des transactions les plus importantes de 2015 a été la
fusion à 68 milliards de dollars de DuPont et Dow Chemical. Elle s’est
soldée peu de temps après par la scission de DowDuPont en trois entités, à
la suite des pressions incessantes de fonds activistes sur DuPont. Plus
récemment, lorsqu’IBM a fait part de son intention de se scinder en deux
entreprises à la fin de l’année 2021, cette annonce a été accueillie avec
enthousiasme.
Cependant, même dans les pays développés, investir intelligemment
offre des possibilités de création de valeur. Dans de nouveaux secteurs à
croissance rapide mais soumis à une incertitude concurrentielle forte, les
investisseurs qui connaissent bien leur domaine sont réellement capables
d’apporter de la valeur à l’entreprise. Dans le domaine de la réalité
virtuelle, par exemple, les développeurs d’applications étaient persuadés
qu’Oculus, après son rachat par Facebook en 2014, allait devenir une
nouvelle plateforme grâce aux ressources que fournirait l’acheteur. Ils ont
donc développé des applications à cette fin, augmentant ainsi ses chances
de succès.
Un autre financement judicieux consiste à faciliter la consolidation d’un
secteur fragmenté afin de réaliser des économies d’échelle. C’est l’un des
outils de prédilection des sociétés de capitalinvestissement, qui leur a
permis de remporter des milliards. Dans ce cas, le meilleur bailleur de fonds
est généralement l’acteur le plus important du secteur, car c’est lui qui
permet de réduire les coûts de production à chaque acquisition (jusqu’à ce
que les rendements d’échelle atteignent leur maximum). Bien sûr, tous les
secteurs fragmentés ne sont pas à même de réaliser des économies d’échelle
ou de gamme comme en témoigne l’expérience douloureuse du groupe
Loewen (Alderwoods après sa faillite). Loewen a agrégé des activités de
pompes funèbres pour se positionner comme le plus grand acteur nord-
américain dans ce secteur. Or sa taille seule ne lui a pas permis d’obtenir un
avantage compétitif suffisamment important sur ses concurrents locaux ou
régionaux.
Les économies d’échelle ne sont pas nécessairement liées à l’efficience
opérationnelle. Elles résultent souvent de l’accumulation du pouvoir de
marché. Après avoir éliminé les concurrents, les grands acteurs peuvent tout
à fait augmenter leurs prix. Toutefois, si telle est leur stratégie, ils finissent
inévitablement par jouer au chat et à la souris avec l’autorité chargée de la
concurrence, qui obtient parfois gain de cause, comme c’était le cas lors des
fusions prévues de GE avec Honeywell1, de Comcast avec Time Warner,
d’AT&T avec T-Mobile, ainsi que de DirecTV avec Dish Network.
Assurez une meilleure supervision
managériale

La deuxième façon d’accroître la compétitivité d’une entité acquise est de la


doter d’une meilleure orientation stratégique, d’améliorer son organisation
et de renforcer sa rigueur opérationnelle. Là aussi, c’est probablement plus
facile à dire qu’à faire.
La prestigieuse marque automobile Daimler-Benz (devenue Mercedes-
Benz Group en 2022), dont le siège social est en Europe, a cru qu’elle
pouvait considérablement améliorer la direction générale de la société
américaine Chrysler, plus modeste du point de vue de sa performance et de
son marché : cette expérience malheureuse lui a coûté 36 milliards de
dollars. De même, GE Capital était certaine de pouvoir optimiser le
management de nombreuses sociétés de services financiers qu’elle a
achetées dans le cadre du processus visant à la faire passer du statut de
division dont l’activité est marginale à celui de plus grande unité de GE.
Tant que le secteur des services financiers américains connaissait une
croissance spectaculaire par rapport à l’ensemble de l’économie du pays, il
semblait que GE avait raison : l’approche managériale de l’entreprise était
plus efficace et apportait de la valeur à ces acquisitions. Cependant, quand
cette période faste a pris fin au moment de la crise financière mondiale, GE
Capital a failli fragiliser l’ensemble du groupe. Elle a peut-être amélioré
quelque peu les opérations des sociétés acquises, mais toute cette
amélioration paraît dérisoire compte tenu de l’augmentation considérable
du niveau de risque qu’elle avait pris.
Bien que le conglomérat américain Berkshire Hathaway possède une
longue expérience dans l’acquisition d’entreprises et dans l’amélioration de
leurs performances grâce à la supervision de leur direction, Warren Buffett
a malgré tout reconnu avoir payé beaucoup trop cher la fusion qui a donné
naissance à Kraft Heinz, réalisée en collaboration avec le fonds brésilien 3G
Capital.
Un autre conglomérat américain, Danaher, offre peut-être l’exemple le
plus convaincant en ce qui concerne la valeur ajoutée par le contrôle du
management. Depuis sa création en 1984, la société a réalisé plus de 400
acquisitions, affichant ainsi un chiffre d’affaires de 27 milliards de dollars
et une capitalisation boursière supérieure à 230 milliards de dollars à la fin
de 2021. Les experts, tout comme la direction de Danaher, attribuent ce
succès quasi ininterrompu à la culture du Danaher Business System, qui
tourne autour de ce que l’entreprise appelle « les quatre P : personnes, plan,
processus, performance ». Ce système est installé, géré et contrôlé dans
chacune de ses unités, sans exception. Pour qu’il soit efficace, il faut, selon
Danaher, renforcer l’avantage concurrentiel de la société acquise et ne pas
s’arrêter à l’amélioration de l’organisation et au contrôle financier accru.
Par ailleurs, sa mise en œuvre doit non seulement être discutée, mais surtout
faire l’objet d’un suivi permanent.
Transférez les compétences spécifiques

Un acquéreur peut tout à fait améliorer les performances d’une société


rachetée de façon concrète en lui transférant directement des compétences,
des capacités ou des actifs spécifiques, liés en règle générale aux fonctions,
notamment par le redéploiement de certains métiers. Les compétences en
question doivent être essentielles à l’avantage concurrentiel et mieux
développées chez l’acquéreur que chez l’entité acquise.
Un exemple marquant est le transfert par Pepsi-Cola à Frito-Lay, après
leur fusion en 1965, de compétences en matière de gestion d’un système
logistique de livraison directe en magasin, un savoirfaire indispensable pour
réussir dans le contexte concurrentiel de la catégorie des snacks. Plusieurs
responsables de cette fonction chez PepsiCo ont été affectés à la supervision
des opérations chez Frito-Lay. En revanche, l’acquisition de Quaker Oats
par PepsiCo en 2000 a été moins satisfaisante : la plupart des ventes de
Quaker s’effectuaient suivant la méthode classique de livraison en entrepôt,
pour laquelle PepsiCo ne présentait aucun avantage en matière de
compétences.
L’achat d’Android par Google fournit un exemple plus récent d’un
transfert réussi. Considéré comme l’un des plus gros fabricants de logiciels,
Google a été en mesure de stimuler le développement d’Android, en
contribuant à ce qu’il devienne le principal système d’exploitation pour
smartphone. Il convient toutefois de noter que le géant américain a échoué à
faire de même dans le cas de Motorola, dont l’activité plus centrée sur le
matériel informatique ne permettait pas à Google de se démarquer par des
compétences spécifiques.
Cette méthode visant à apporter de la valeur exige à l’évidence une
certaine proximité dans les activités entre l’entité rachetée et son acquéreur.
Sans avoir une connaissance parfaite du nouveau domaine d’activité,
l’acquéreur peut penser que ses compétences seront précieuses, alors
qu’elles ne le seront pas. Et même si c’était le cas, il peut s’avérer difficile
de transférer ces compétences de manière efficace, surtout si l’entreprise
acquise ne leur réserve pas un bon accueil.
Partagez les ressources précieuses

Enfin, le quatrième moyen d’ajouter de la valeur à la société acquise


implique pour l’acquéreur de partager une capacité ou un actif, plutôt que
de le transférer. Dans ce cas, il ne déplace pas le personnel et ne réaffecte
pas les biens ou les capitaux, mais se contente de les mettre à disposition.
Procter & Gamble fait bénéficier aux sociétés acquises des compétences
de son équipe client et de son potentiel en matière d’achat média, deux
unités multifonctionnelles localisées au même endroit. Cela permet même à
ses acquisitions les plus importantes d’économiser au moins 30 % des
dépenses publicitaires. Le groupe partage également avec certaines de ses
acquisitions la renommée d’une de ses marques, comme Crest pour la
brosse SpinBrush et le fil dentaire Glide (cette approche n’a toutefois pas
fonctionné pour l’acquisition en 1982 par P&G de Norwich Eaton
Pharmaceuticals, dont le canal de distribution et le dispositif de promotion
des ventes différaient de ceux de P&G).
Microsoft a partagé son importante capacité de vente de la suite Office
aux acheteurs de PC en y incluant le logiciel Visio après avoir acquis la
société en 2000 pour près de 1,4 milliard de dollars. Cependant, cette
multinationale informatique n’avait aucune ressource utile à partager avec
la division de téléphonie mobile rachetée à Nokia.
Dans cette forme de « don », la clé du succès se trouve dans la bonne
compréhension de la dynamique stratégique sous-jacente et dans
l’assurance du partage véritablement effectif. Dans le cadre de la fusion
d’AOL avec Time Warner en 2001, considérée comme la plus grosse
transaction de tous les temps avec ses 164 milliards de dollars mis en jeu,
des arguments assez vagues ont été avancés pour expliquer la manière dont
le groupe de médias pouvait faire profiter de son expertise en matière de
contenus le fournisseur de services Internet. Or, l’économie du partage
n’avait pas de sens dans ce cas de figure. La création de contenu est une
activité très sensible à la notion d’échelle : plus la diffusion est large, plus
l’activité est rentable pour son créateur. Si Time Warner avait partagé son
contenu exclusivement avec AOL, qui détenait alors environ 30 % du
marché des fournisseurs d’accès à Internet, elle aurait accru la compétitivité
d’AOL, mais se serait fait du tort en se fermant aux 70 % restants du
marché. De plus, même si elle s’était contentée de réserver un tel traitement
de faveur à AOL, les autres acteurs du secteur auraient probablement
boycotté ses contenus en représailles.
Comment expliquer l’engouement pour les
fusionsacquisitions ?

Les exemples qui précèdent font apparaître que très peu d’opérations de
fusions-acquisitions créent de la valeur. Celles qui y parviennent exigent
généralement une gestion prudente et une excellente compréhension des
facteurs qui sont déterminants pour faire croître la valeur de l’entité
acquise. À vrai dire, peu d’acquéreurs possèdent vraiment la capacité
d’acheter. Alors pourquoi tant d’entreprises persistentelles à vouloir utiliser
les fusions-acquisitions comme stratégie ?
Comme c’est souvent le cas sur le marché, il faut chercher la réponse à
cette question dans des incitations perverses. Le système dans lequel les
PDG opèrent introduit deux distorsions favorisant les fusions et acquisitions
hasardeuses. Premièrement, l’avènement, depuis les années 1990, de la
rémunération en actions de performance encourage fortement les PDG à
parier sur la réussite d’une telle transaction : si l’acquisition fait grimper le
cours de l’action, un gain personnel pour le PDG est substantiel. En outre,
les parts de rémunération sont fortement corrélées à la taille de l’entreprise,
et une acquisition permet à cette dernière de grossir. Même une acquisition
ratée peut s’avérer rentable pour le PDG. L’alliance de Mattel-Learning
Company avec HP-Autonomy, parmi les plus désastreuses de l’histoire
récente, avait coûté aux PDG Jill Barad et Léo Apotheker leurs postes
respectifs. Néanmoins, Jill Barad est partie avec une indemnité de 40
millions de dollars, tandis que Léo Apotheker a perçu 25 millions de
dollars.
L’origine de la deuxième distorsion (du moins aux États-Unis) peut
surprendre, car elle provient de l’organe chargé d’édicter les règles
comptables, le Financial Accounting Standards Board (FASB). Avant
l’éclatement de la bulle Internet, en 2001, les biens incorporels étaient
amortis sur une période de quarante ans. Après cette date, des actifs estimés
à des milliards de dollars ont été jugés sans valeur, de sorte que le FASB a
décidé qu’à l’avenir, les commissaires aux comptes d’une société
déclareraient les éventuels actifs immatériels dépréciés et, le cas échéant,
leur imposeraient d’en enregistrer immédiatement le montant sous la forme
d’une charge de dépréciation.
Contre toute attente, ce changement a rendu les acquisitions plus
attractives, les bénéfices de l’acquéreur n’étant plus effacés chaque année
par un amortissement automatique. Par conséquent, aujourd’hui, il suffit à
un PDG de convaincre le commissaire aux comptes que l’actif acquis n’est
pas déprécié et qu’une acquisition n’aura pas d’impact négatif sur les
bénéfices, même si elle revient à un prix exorbitant. En général, cela reste
assez facile, tant que l’activité principale de la société se porte bien et que
sa capitalisation boursière est supérieure à sa valeur comptable.

•••

Compte tenu des biais systématiques en faveur des fusionsacquisitions,


auxquels on peut ajouter un sentiment de supériorité flatteur pour l’égo des
dirigeants qui réalisent ce type d’opérations ou encore l’intérêt direct des
conseillers financiers, il est probable que nous continuerons d’assister à des
transactions destructrices de valeur de plus en plus nombreuses dans les
années à venir. Cela ne doit pas nécessairement vous dissuader de recourir à
ce genre de stratégie. Si vous changez votre manière de voir les fusions et
acquisitions, vous aurez à votre disposition un instrument très efficace pour
développer l’activité de votre entreprise. Le secret est d’arrêter de croire
que les sociétés cibles sont des mines d’or. Considérez plutôt les fusions-
acquisitions comme une entente mutuelle, où l’acquéreur aide l’entité
acquise à réaliser pleinement son potentiel de création de valeur en lui
offrant de nouvelles opportunités, une gestion plus intelligente et un accès à
des ressources complémentaires.2
1 NdT : société américaine qui intervient principalement dans le nucléaire, l’aérospatial,
l’automatisation du bâtiment et la défense.
Ce chapitre est adapté de l’article de Roger L. Martin « M&A: The One Thing You Need to
Get Right », Harvard Business Review, juin 2016.
Postface

J’espère que ce livre vous a permis de réfléchir ou, plus précisément, de


changer de perspective. Sans doute, un ou plusieurs des quatorze modèles
dominants vous aura déjà déçu, faute de vous convenir. J’espère vous avoir
convaincu de cesser de vous reprocher d’avoir mal utilisé ces modèles, car
il y a fort à parier que ce n’est pas votre faute, mais celle du modèle en
question.
Je ne m’attends pas à ce que vous adoptiez sur-le-champ un des modèles
alternatifs que j’ai présentés dans chaque chapitre uniquement sur la base de
mon argumentation. Mais j’espère sincèrement que vous allez au moins en
essayer un, puisque c’est la meilleure façon d’avancer et d’apprendre.
Aucune découverte n’est possible si on persiste à appliquer une approche
inadaptée qui s’avère inefficace. Cela ne fait que confirmer qu’elle ne tient
pas ses promesses. C’est en mettant des modèles à l’épreuve pour en
observer les effets, puis, si votre expérience n’aboutit pas aux résultats
escomptés, en essayant un modèle différent que vous allez amorcer une
dynamique d’apprentissage positive.
À mesure que vous progressez, gardez bien à l’esprit que le maître, c’est
vous : vos modèles vous appartiennent. Si vous vous reprochez avec
insistance l’échec dans l’application d’un modèle donné tout en persistant à
l’utiliser avec plus de zèle, alors c’est votre modèle qui vous domine,
comme si vous lui aviez conféré un monopole sur l’utilisation de votre
cerveau. Si, au contraire, vous tenez votre modèle pour responsable de la
production des résultats qu’il promet et que vous l’abandonnez quand il ne
vous donne pas satisfaction après quelques tentatives, alors c’est vous qui
êtes aux commandes. Débarrassez-vous des modèles qui ne vous
conviennent pas.
Il va de soi qu’il convient d’accorder aux modèles existants
suffisamment de chances de succès. Ils ne sont pas devenus dominants sans
raison. Mais je vous recommande de faire preuve d’une impatience
raisonnable. Un modèle représente en effet une forme de promesse qui
semble vous dire : « Si vous faites appel à moi, voici les résultats que vous
allez obtenir. » Comme n’importe quel produit, s’il ne tient manifestement
pas ses promesses, vous ne devez pas vous sentir obligé de continuer à vous
en servir.
Cependant, je suis réaliste : un certain nombre des modèles que je
propose seront enterrés avec moi faute d’avoir été généralisés. Mon
approche de la mise en œuvre de la stratégie, décrite au chapitre 10, est
probablement celle sur laquelle je parierais le moins. Mon pessimisme est
dû à deux échanges plutôt déprimants que j’ai eus récemment à ce sujet : le
premier, avec un chercheur en management, qui fait partie des quelques
théoriciens les plus éminents au monde dans ce domaine ; l’autre, avec une
spécialiste de terrain, responsable de la formation et du développement des
compétences dans une importante entreprise technologique de la région de
la baie de San Francisco. Dans les deux cas, nous parlions de l’adage
fréquemment cité selon lequel « une idée médiocre bien réalisée vaut mieux
qu’une mauvaise mise en œuvre d’une idée géniale », que mes deux
interlocuteurs avaient utilisé, le chercheur dans un tweet et l’experte dans
une déclaration de principes de l'entreprise pour laquelle elle travaillait.
Je leur ai posé une question essentielle sur la cohérence de cette
affirmation : comment pouvaient-ils savoir qu’une idée est « géniale » si
elle est « mal réalisée » ? On peut tout à fait imaginer comment on obtient
la confirmation d’avoir eu « une idée médiocre qui a été bien mise en œuvre
», puisque les résultats seront conformes aux attentes, c’est-à-dire
médiocres. Tout comme on peut très bien imaginer la façon dont on apprend
que quelque chose a été mal réalisé : les résultats seront bien plus décevants
que prévu. Mais comment savoir que l’idée était excellente en ayant comme
seul paramètre observable sa mise en pratique ratée ?
L’experte de terrain a été incapable de me répondre. En réalité, elle ne
savait absolument pas de quelle manière elle pourrait déterminer si l’idée en
question était « géniale ». Quand je lui ai demandé comment, dans ce cas,
elle pouvait soutenir ce principe appliqué dans sa société, alors qu’elle ne
pouvait même pas définir le concept d’une idée géniale, elle a rétorqué que
ce principe était important car il garantissait l’orientation de l’entreprise
vers l’action. Malheureusement, il ne lui est pas venu à l’esprit que ce
principe garantissait aussi l’aiguillage de l’action vers des idées médiocres.
Pire encore, elle n’a montré aucun intérêt pour l’examen de la viabilité ou
de la pertinence du modèle qu’elle cautionnait.
Le chercheur, bien sûr, avait une réponse, puisque les chercheurs en ont
toujours une. Pour lui, la qualité d’une idée doit être jugée par un panel
d’experts qui se prononcent sur son caractère « nouveau » et «
techniquement brillant ». En ce qui concerne la notion de « bien réalisé »,
dans l’environnement des affaires, cela se traduit par le succès commercial.
Lorsque je lui ai fait remarquer qu’il n’existait pas de corrélation démontrée
entre l’opinion des experts sur la nouveauté ou l’excellence technique d’un
côté et le succès commercial de l’autre, il a simplement reformulé l’énoncé
d’une manière différente, comme suit : « La créativité reflète le potentiel
d’une idée, et la mise en pratique montre jusqu’à quel point ce potentiel a
été réalisé. » Naturellement, sa réponse ne contenait aucune définition de la
notion de potentiel ni la façon dont celui-ci pouvait être mesuré. Je n’ai pas
cherché à en savoir davantage.
Il est évident que le modèle a pris le contrôle tant de l’universitaire que
de l’experte de terrain. Et évidemment, tous deux travaillent assidûment sur
la question de savoir pourquoi la concrétisation pratique d’excellentes idées
était aussi médiocre et sur les améliorations à apporter aux « modalités de
mise en œuvre ». Je suis certain qu’ils vont explorer cette problématique
pendant encore un très long moment sans parvenir à une quelconque
solution.
J’espère pour vous que votre esprit sera, au contraire, un peu plus ouvert
concernant chacun des quatorze modèles proposés. Imaginez un instant
qu’une approche à laquelle le monde des affaires est très attaché est en
réalité défaillante et, au lieu de l’appliquer, expérimentez un autre modèle.
Si votre expérience s’avère peu concluante, je suis tout à fait d’accord pour
que vous reveniez au modèle dominant. Seulement, l’évolution des
méthodes managériales dépend du nombre de personnes prêtes à tester ces
quatorze modèles alternatifs. Vous faites partie de ces personnes. C’est
uniquement en se confrontant aux effets produits par ces modèles que vous
serez en mesure de découvrir des conséquences que je n’ai pas anticipées et
de faire progresser ces modèles, ce qui permettra au management de gagner
en efficience et en efficacité. C’est bel et bien dans cet objectif que j’ai écrit
ce livre.
Remerciements

Je souhaite remercier de nombreuses personnes et j’ai dû jouer à pile ou


face pour décider par qui commencer : côté pile pour mon éditeur, côté face,
pour mes coauteurs. Pile !
J’adresse ma profonde gratitude à David Champion, mon principal
réviseur à la Harvard Business Review (HBR) depuis douze ans. Notre
collaboration a démarré par un article que j’avais soumis à la HBR en 2009
(publié en 2010) et qu’il a été chargé de réviser. J’avais déjà écrit huit textes
pour cette revue, en collaboration avec différents réviseurs, et j’ai donc
pensé que j'allais encore en rencontrer un nouveau après cet article.
Cependant, cette expérience s’est révélée tellement agréable et productive
que j’espérais me tromper. Et cela a été le cas. La HBR a continué à confier
la révision de mes articles à David, et en 2021, nous comptions vingt
publications réalisées ensemble. Parmi ces vingt articles, onze, auxquels
s’ajoute un douzième publié en 2022, font partie des quatorze chapitres de
ce livre. De plus, en ce qui concerne les deux chapitres restants, David m’a
aidé à développer le sujet de la culture d’entreprise en partant de mon
article paru dans la HBR de 1993 et à rédiger un chapitre supplémentaire,
entièrement nouveau.
David est un réviseur formidable et un partenaire de travail idéal. La
plupart du temps, mes textes sont trop longs et leur contenu est trop dense :
David m’aide à retenir les idées les plus convaincantes et à trouver la
meilleure façon de les présenter. Avec lui, je me perfectionne, et c’est la
meilleure chose qui puisse arriver à un écrivain au cours d’une
collaboration avec son réviseur.
De plus, c’est lui a eu l’idée d’écrire ce livre. Il a décelé un fil
conducteur qui parcourt l’ensemble des textes que nous avons coécrits et je
crois que le résultat est convaincant. Merci du fond du coeur, David.
Cinq chapitres ont été à l’origine rédigés sous forme d’articles pour la
HBR en collaboration avec d’autres auteurs, qui ont tous apporté leur
précieuse contribution à la rédaction.
J’ai rédigé deux chapitres à quatre mains avec mon ami et collègue de
longue date, Alan George Lafley. Ce n’est point surprenant, compte tenu de
son intérêt bien connu pour deux des sujets évoqués dans ce livre, à savoir
la clientèle et la stratégie d’entreprise (respectivement, chapitres 3 et 4).
Nous nous connaissons depuis plusieurs dizaines d’années, et il est difficile
d’attribuer à coup sûr la paternité de chaque idée à l’un de nous deux, car
ces idées résultent sans doute d’une réflexion commune.
Deux autres coauteurs ont participé à l’élaboration du chapitre 4. Tout
d’abord, mon collègue au sein de Monitor Company Jan Rivkin, qui, parti
ensuite pour d’autres horizons, a mené une carrière universitaire
extrêmement brillante à la Harvard Business School. C’est lui qui m’a
inspiré pour produire l’article sur la stratégie d’entreprise. À l’époque de
Monitor, j’ai eu le privilège de lui faire découvrir le processus d’élaboration
de stratégie. Il l’a transmis à ses étudiants de HBS, qui ont accueilli cet
enseignement avec beaucoup d’enthousiasme. Compte tenu de ce succès,
Jan en est venu à penser que ce serait un excellent sujet d’article pour la
HBR. Son ami proche Nicolaj Siggelkow, un professeur de stratégie
d’entreprise remarquable à la Wharton School et grand spécialiste dans ce
domaine, a pleinement participé à la rédaction également. Nous formions
tous les quatre une équipe formidable, et je suis profondément
reconnaissant à mes trois coauteurs pour leurs contributions à ce chapitre.
Tony Golsby-Smith est le coauteur de l’article original de la HBR
présenté dans le chapitre 5 (L’analyse de données). Originaire d’Australie,
Tony a fondé Second Road, une société de conseil en innovation à Sydney.
J’ai eu la chance de le rencontrer grâce à mon travail dans le domaine de la
pensée design. Au cours de notre collaboration, il m’a convaincu que le
monde des affaires gagnerait à comprendre la pensée d’Aristote, susceptible
d’améliorer les résultats en matière de créativité et d’innovation. À un
moment donné, nous avons décidé d’écrire ensemble un article pour la
HBR. C’était l’article le plus long de tous ceux que j’ai soumis au
magazine, il m’a pris beaucoup de temps, mais il en valait la peine.
Ensuite, je souhaite remercier Jennifer Riel, ma collègue de longue date
avec laquelle nous avons coécrit l’article original de la HBR présenté dans
le chapitre 8 (Les services internes de l’entreprise) et également notre
ouvrage sur la prise de décision, Creating Great Choices. Ensemble, nous
avons si souvent accompagné les services internes des organisations dans la
mise en place d’une stratégie qu’il nous a paru que le monde avait besoin de
ce premier article sur le pourquoi du comment de la stratégie fonctionnelle
au sein d’une entreprise moderne. Travailler avec Jennifer sur un article qui
jette les bases d’un sujet aussi important que celui-ci était vraiment
gratifiant.
Enfin, je remercie vivement Tim Brown, mon collègue de longue date
dans le domaine de la conception et coauteur de l’article original publié
dans la HBR présenté dans le chapitre 12 (L’innovation). Nous avons
exploré les sujets au croisement du design et de la stratégie pendant de
nombreuses années, et ce chapitre notamment est le fruit de cette
collaboration.
Je réitère mes remerciements les plus sincères à vous tous, Alan, Jan,
Nicolaj, Tony, Jennifer et Tim. Votre contribution a été fondamentale pour
ce livre.
C’est ma huitième publication chez Harvard Business Review Press
(HBR Press). J’ai de la chance de travailler avec une équipe éditoriale
extraordinaire, que je remercie chaleureusement pour notre collaboration.
Jeff Kehoe est le responsable des acquisitions pour l’ensemble de mes
ouvrages. Adi Ignatius, rédacteur en chef et éditeur de HBR Press, a
toujours été un formidable soutien à mon travail, pour HBR Press comme
pour la HBR. En outre, je suis très reconnaissant à toute l’équipe, dont Sally
Ashworth, Julie Devoll, Stefani Finks, Erika Heilman, Felicia Sinusas et
Anne Starr, pour leur professionnalisme sans faille.
C’était aussi un grand plaisir de renouveler ma collaboration avec
l’équipe publicitaire de Barbara Henricks et Jessica Krakoski du cabinet
Cave Henricks à l’occasion de la sortie de ce livre.
Enfin, je tiens à remercier mon épouse, Marie-Louise Skafte. La période
la plus active pour moi en matière d’écriture et de réflexion correspond à
2013, l’année où j’ai rencontré Marie-Louise. Je ne pense pas que ce soit un
hasard ! Merci, Marie-Louise, d’être ma partenaire d’exception, mon
soutien, ma muse.
ROGER MARTIN, FORT LAUDERDALE, FLORIDE
Quelques mots sur l’auteur

En 2017, Roger L. Martin a été élu meilleur théoricien du management au


monde par Thinkers50, un classement réalisé tous les deux ans et considéré
comme l’Oscar de la pensée managériale. Des entreprises internationales,
notamment Procter & Gamble, Lego et Ford, lui font confiance pour ses
conseils en matière de stratégie.
Roger Martin est professeur émérite de gestion stratégique à la Rotman
School of Management de l’université de Toronto. Il a été le doyen de la
Rotman School de 1998 à 2013, année où il a été élu meilleur doyen au
monde par Poets & Quants, le site internet consacré aux écoles de
commerce.
Roger Martin a publié douze ouvrages, dont Creating Great Choices,
coécrit avec Jennifer Riel, Getting Beyond Better, coécrit avec Sally
Osberg, et Playing to Win, coécrit avec Alan G. Lafley. Ce dernier a
remporté le prix du meilleur livre au palmarès Thinkers50 de 2013. En
outre, il a écrit trente articles pour la Harvard Business Review.
Diplômé d’une licence avec spécialisation en économie en 1979 à
l'université de Harvard, Roger Martin a obtenu son MBA à la Harvard
Business School en 1981. Il vit aux États-Unis, dans le sud de la Floride,
avec sa femme Marie-Louise Skafte.
Index

A
Abilene (paradoxe d’) 100
Accenture 122
Actifs irrécouvrables 209
Actionnaire
activisme actionnarial 26
contre l’actionnaire 31
freins 29
reconsidération 28
roi 28
versus fidélisation client 29
Activités clés de l’entreprise 9
déploiement de la stratégie 9
fusions et acquisitions 10
gestion des talents 9
innovation 10
investissement en capital 10
planification 9
Airbnb 48
Airbus 13
Airbus A320 13
Alderwoods 225
Algorithme du savoir 125
Alibaba
Taobao 126
AlliedSignal 159
Alphabet 213
Amazon 13
AWS 13
Dash 50
position concurrentielle 41
Amcor
culture d’entreprise 102
Analyse de données VI, 77
sortir du cadre 82
Andersen, Arthur 122
Andrews, Kenneth 165
Android 48
AOL 229
Apotheker, Léo 230
Apple 98
fusion-acquisition 222
innovation 189
Mac 14
NeXT 222
Approche scientifique 78
Aristote 78, 79, 87
ethos 85
logos 85
pathos 85
Assistant-chef de marque 122
Ateliers d’idéation 57
AT&T 222, 223, 225
DirecTV 222, 225
Time Warner 222
Avantage concurrentiel 40
investissement 208
Avantage cumulatif 43
Liquid Tide 51
piliers 47

B
Ballmer, Steve 177
Barad, Jill 230
Baumol, William 209
Berkshire Hathaway 226
Berle, Adolf A. 27
BlackBerry 98
dépendance au produit 49
métaphore 88
Blackstone 205
Boeing 13, 151
Boeing 737 13
Bossidy, Larry 159
Brady, Tom 180
Brown, Tim 203
Buchanan, Richard 190
Buffett, Warren 222, 226
Bureau of Labor Statistics 89
Burke, James 32

C
Capital
coût moyen pondéré 210
disponible 207
fournisseur de capital de croissance 224
immobilisé 208, 213, 215
Capitalisme moderne 27
capitalisme actionnarial 27
capitalisme managérial 27
Carlyle 205
Axalta 205
Carnegie 27, 77
Cession de marque 23
choisir 24
Champion, David 5
Chanel, Coco 189
Chrysler 226
Cisco Systems 184
Client V, 39
achat raisonné 45
comme gestionnaire 31
connaissance 22
habitudes 41
infidèle 44
interne 140
placée au centre 14
politique du client d’abord 34
responsable des recettes 151
satisfaction 31, 37
Cobb, Randall 182
Coca-Cola 13, 136
Coca light 13
Minute Maid 13
Powerade 14
valeur actionnariale 33
Colgate-Palmolive 44, 113
Colt, Samuel 88
Comcast 225
Comment gagner 21, 45, 155, 156
Communication 52
Complexité organisationnelle 14
Concepción Lacteos 202
Concurrence 7, 11
échelle d’opération 18
entre produits 15
environnement concurrentiel 7, 11
investissement cumulatif 18
redéfinition 14
Conglomérats 139
Contrat de travail 121
Coty Inc 98
Courbe d’expérience 47
Culture d’entreprise VI, 36, 93
conflits 109
culture gagnante 105
débats 103
esprit d’équipe 102
évolution 99
fusion 85
interactions 98
orientée client 36
partenaires extérieurs 110
pilotage organisationnel 95
résistance au changement 97
Culture d’université 105
Culture organisationnelle stratégie 93
Cycle de privation 83

D
Danaher 226
Décision (prise de) 52
Décision d’achat 42
Dépendance 49
Design 49
Design thinking. Voir Pensée design
Dimon, Jamie 159
Dish Network 225
Disney 119
Dow Chemical 224
Drucker, Peter 10, 29, 93, 116
DuPont 205, 206, 224
DowDuPont 224

E
Eames, Charles 189
Eaton Pharmaceuticals 228
eBay 48, 177
Échantillons 48
Einstein, Albert 5, 78
Empathie 19
Ethos 85

F
Facebook 39, 43, 46, 225
dépendance au produit 49
habitude de consommation 47, 48
Oculus 225
position concurrentielle 41
versus MySpace 46
Falsificationnisme 5
Familiarité 1, 42
FedEx 133
Fiabilité 22
Financial Accounting Standards Board 230
Fluidité d’association 87
Fluidité perceptive 42
Fonctions supports 141
Ford 77
Fortune Brands 224
Four Seasons Hotels
and Resorts 140, 170
gestion de talents 136
stratégie en cascade 168
Frito-Lay 18
Doritos 18
fusion-acquisition 227
Grandma’s Cookies 18
Lay’s 18
Smartfood 18
Fusions-acquisitions 221
partage des ressources 228
supervision managériale 226
transfert de compétences 227

G
Gates, Bill 177
General Electric 113, 136, 224, 225
GE Capital 226
valeur actionnariale 33
General Motors 13
Chevrolet Malibu 13
Gestion de talents VII, 175
être à l’écoute 183
progression 184
rémunération 176
valorisation 185
valoriser 178
Ghemawat, Pankaj 208
Goizueta, Robert 33
Goldman Sachs 133
Golsby-Smith, Tony 90
Google 13, 46, 48, 98, 133, 177, 213, 223
fusion-acquisition 222, 227
Google Cloud 13
position concurrentielle 41
scission 221
Grande Dépression 27
Grant, Adam 223
Gratuit 48
Gronkowski, Rob 182
Gutekunst, Brian 180

H
Habitude 45
design 49
installation 49
Tide 43
Hamel, Gary 153
Hamlet 87
Harvard Business Review 4, 5, 6, 38, 40, 53, 76, 90, 95, 112, 143, 153, 157, 173, 187, 203, 219, 231,
239, 241
Haut de gamme 75
Henderson, Bruce 47
Henretta, Deborah 125
Hewlett-Packard 113, 123, 222, 223
HP-Autonomy 222, 230
Honeywell 225

I
IBM 123, 224
Identité de marque 122
déclinaison 50
L’Oréal 18
IDEO 191, 193, 196, 198
Image de marque changement (échec) 39
changement (succès) 40
Infidélité client
avantage paradoxal 44
Innova 198
Innovation 22, 189
avantage cumulatif 50
culture de l’innovation 196
Instagram 39, 48
changement de logo 39, 40
Intel 119
Intercorp
Banco Internacional del Perú 195
culture de l’innovation 196 éducation 197
Interbank 195, 196
Perú Pasión 201
répartition de la richesse 200
Supermercados Peruanos 201
Victoria Lab 197
Intuition 42
Investissement
capacités stratégiques 22
cumulatif 18
en capital 205, 207, 208, 215
ITT 224

J
Jensen, Michael C. 28
Johnson & Johnson 13
calcul de la création de valeur 217
déclaration de mission 31
investissement 210
Neutrogena 13, 211
Remicade 211
satisfaction client 32, 37
Xarelto 211
Johnson, Robert Wood 31
Jones Lang LaSalle 123
Jordan, Michael 178
JPMorgan Chase 159

K
Kahneman, Daniel 52
Kamen, Dean 88
Kelley, David 189
Khan Academy 198
KKR 205
Knudstorp, Jorgen Vig 81, 84
Kraft Heinz 226
Kullman, Ellen 205
Kumerow, Jake 180

L
Lafley, Alan G. 6, 53, 76, 101
culture d’entreprise 99, 100, 101
détermination des capacités clés 22
performance de l’entreprise 37
rémunération 35, 36
satisfaction client 37
visite chez le consommateur 20
Lakatos, Imre 5
Lazaridis, Mike 49
Lego 84
Lego Brand Group 81
Lego Friends 82
LiquiForm 81
Listro, Joe 73
Loewen 225
Loewy, Raymond 189
Logo (changement) 39
Instagram 39
Snapchat 39
Logos 85
L’Oréal 13
Age Perfect Cosmetics 18
Age Perfect Skincare 18
Fructis 13
identité de marque 18
investissement cumulatif 18
Love, Jordan 180

M
Mahindra 224
Managers professionnels versus PDG propriétaires 28
Manitowoc 224
Markman, Art 49
Martin, Roger L. I, 38, 53, 76, 90, 112, 127, 143, 157, 173, 187, 203, 219, 231, 241
MassMutual 191
Masstige 61, 64, 67, 68
P&G 70
Mattel Learning Company 230
McKinsey 122
McNair, Bob 182
Means, Gardiner C. 27
Meckling, William H. 28
Mellon 27
Merck 122
Métaphore
choisir 89
manquante 88
rassurante 88
MetLife 113
Microsoft 13, 99, 221, 223
Azure 13
Cloud intelligent 21
Office 14, 228
productivité et processus commerciaux 21
Windows 14
Mintzberg, Henry 151, 157
Mise sur le marché 22
Modèle 1
changement 4
dans l’éducation 2
études de commerce 2
inadapté 3
remise en cause 2
Monitor Company 178
Morgan 27
Motorola 222, 224
Mutualisation des services 123
MySpace 46, 222
avantage cumulatif 46
versus Facebook 46

N
National Football League 179
Netflix
innovation 51
News Corporation 46, 222, 223
Newton, Isaac 5
Nokia 98, 99, 221, 228
Nouveauté 1, 42

O
Ollila, Jorma 98
Options stratégiques 58
Organisation du travail 8, 91
culture d’entreprise 8
services internes 9
travail intellectuel 8
Où jouer 21, 45, 155, 156

P
Pane, Camillo 97
Panzar, John 209
Parties prenantes V, 27
Passerini, Filippo 123
Pathos 85
Pensée design 84, 190, 203, 206
avantage concurrentiel 119
PepsiCo 13, 21, 113
changement d’image (échec) 40
Frito-Lay 21
fusion-acquisition 227
Gatorade 14
Pepsi 136
Pepsi light 13
Quaker Oats 21, 227
Tropicana 13
Pérou 195
Pilotage organisationnel mécanisme culturel 95
mécanisme formel 95
mécanisme interpersonnel 95
Planification VI, 147
coûts 149
imparfaite 156
piège 148, 149, 151, 154
versus stratégie 148
zone de confort 154
Platon 78
Polman, Paul 34
Popper, Karl 5
Prahalad, C. K. 153
Primes (système de) 37
Principe de simplicité 159
Prix 48
Procesadora de Alimentos Velasquez 201
Processus décisionnel 8, 55
analyse de données 8
stratégie 8
Processus de conception 189, 190, 193, 197, 198, 199, 202, 203
Procter & Gamble (P&G) 6, 13, 16, 17, 20, 22, 23, 24, 25, 35, 36, 48, 59, 127
achats 24
Always 19
approche par projet 123
Cascade 19
cession de marque 23
Charmin 19
Clairol 24
Crest 44, 228
culture d’entreprise 36, 99
Dawn 19
déclaration de mission 33
Febreze 49
Gilette 24, 124
haut de gamme 75
Head & Shoulders 41
innovation 50, 51
masstige 68, 70
mutualisation des services 123
Olay 19
Oral-B 24
Pampers 19
Pantene 13, 19
Pringles 18
satisfaction client 37
services internes 133
stratégie 58, 59, 61
structure hiérarchique 15
Swiffer 19
Tide 19, 41, 43, 48, 50
travail intellectuel 115
Prototypes
confiance 193
précoces 193
tests 193
Proximité des détaillants 22

R
Rand, Paul 189
Rappaport, Alfred 209
R&D 18
Récit 85
métaphore 87
Rémunération des dirigeants 35
Responsabilités 172
Retour sur investissement 216
valeur comptable moyenne 218
valeur de marché 218
Riel, Jennifer 143
Rivkin, Jan W. 76
Rockefeller 27
Rodgers, Aaron 179
Rodríguez-Pastor, Carlos 195, 196, 197, 198, 200, 202

S
Samsung 98
Galaxy 52
prix 48
Sanders Peirce, Charles 3
Satisfaction client 31, 37
bénéfice actionnaires 37
Schein, Edgar 93
Schmidt, Eric 177
Segway 88
Service commercial 14
Services internes 129, 130, 134
Sharp, Isadore 137, 138, 140, 141, 168, 169
Siemens 136
Siggelkow, Nicolaj 76
Simon, Herbert 190
Six Sigma (méthode) 206
Smale, John 6
Snapchat 39
pérennité du logo 40
Sociétés d’acquisition à vocation spécifique 221
S&P 500 28, 30, 33
Stephenson, Randall 222
Sterman, John 1
Stewart, Stern 210
Stratégie V, 57
analyse scientifique 57
arbitrer 58
cercle vertueux 172
choisir ses options 60
choix 135, 140
délibérée 152
déploiement 167
émergente 152
établir des conditions 65
fonctions supports 141
mise en œuvre VII, 159
nouvelles options 59
objectif 60
obstacles 70
participants 62
perspective externe 64
perspective interne 64
perspective visionnaire 64
prise de décision 74
règles 63
statu quo 61
stratégie en cascade 168, 170, 171, 172
stratégie-exécution 164, 165, 168, 170
stratégie impériale 132
stratégie servile 131
test 71, 72
versus mise en œuvre 160
versus planification 148
Structure hiérarchique 15
au service de la valeur 16
coordination 17
éloignée de la clientèle 15
empathie 19
prise en charge des coûts 17
Supervision managériale 226

T
Tata 224
Taylor, David 6, 36
Taylor, Frederick Winslow 77
Taylorisme 77
Tesla 30
Thomson Reuters 151
Time Warner 225, 229
Timken 224
T-Mobile 225
Tom’s 44
Toyota 13
Toyota Camry 13
Travail intellectuel 113
organisation 124
reconsidération 114
structuration 117
usine à décision 114, 117
versus travail manuel 114
Tumblr 222
Twitter 48

U
Uber 48
Unilever 13, 34
cession de marque 44
Dove 13, 122
Surf 44
Usine à décision 114
productivité 117
structuration 117

V
Valeur
calcul 216
création de valeur 209
ajoutée actionnariale 210
ajoutée économique 210
Velcro 88
Volkswagen 13
Volkswagen Passat 13

W
Walmart 22, 133
Webex 183
Welch, Jack 33
prime de départ 35
Wernerfelt, Birger 153
Whitman, Meg 177
Willig, Robert 209
Wolf, Ron 182
Wright, Franck Lloyd 189

Y
Yahoo 222, 223
Yuan, Eric 183, 185
Yzusqui Chessman, Jorge 198
Z
Zoom 184

You might also like