You are on page 1of 378

Gérard Dréan

L'industrie informatique
Structure, économie,
perspectives

(Masson, 1996)

i
Table
Table ..............................................................................................................ii
Introduction ....................................................................................................v
Quelques réalités des entreprises...............................................................vi
Mythes et idées reçues.............................................................................viii
Un modèle de l’industrie...........................................................................ix
A la recherche des lois de fonctionnement................................................xi
Structure de l’ouvrage.............................................................................xiii
Première partie
Les faits.................................................................................................................xvi
Chapitre 1
Naissance de l'industrie (1951-1968)..................................................................xviii
Les débuts (1951-1963).........................................................................xviii
Le 360 et la fragmentation du matériel (1964)......................................xxiii
Résumé.................................................................................................xxvii
Chapitre 2
Les crises d’adolescence (1968-1980).................................................................xxx
Le temps des procès (1968 - 1982).........................................................xxx
L'« unbundling » (1969-1972) et la fragmentation des services.........xxxiv
Remous dans le bas de gamme................................................................xlii
FS ou la fin d'une illusion (1971 - 1975)................................................xlvi
Vers la maturité (1976 à nos jours).......................................................xlviii
Chapitre 3
Une autre informatique apparaît (1975-1993)..........................................................l
Les débuts de la micro-informatique (1975-1981)......................................l
Le PC, un monde enfin ouvert....................................................................li
Le monde Unix........................................................................................lvii
Le panorama en 1993................................................................................lx
Chapitre 4
La structure de l'industrie......................................................................................lxii
Typologie des acteurs.............................................................................lxiii
Correspondance entre secteur et marché...............................................lxvii
Structure de dépenses et modèles d’entreprise.....................................lxxiii
Synthèse................................................................................................lxxvi
Conclusions.........................................................................................lxxvii
Chapitre 5
Structure et performances..................................................................................lxxix
Les taux de croissance...........................................................................lxxx
Profitabilités comparées.......................................................................lxxxi
Facteurs de profitabilité...........................................................................xci
Conclusions...........................................................................................xciii
Deuxième partie
Les matériels et les mécanismes économiques.....................................................xcv

ii
Chapitre 6
Les mécanismes économiques..........................................................................xcviii
Quelques notions d’économie industrielle.............................................xcix
La concurrence et les structures industrielles.........................................cvii
Les secteurs de l’industrie informatique.................................................cxii
Chapitre 7
Les composants, un secteur concentré..............................................................cxxiii
Historique............................................................................................cxxiii
Le segment et le secteur........................................................................cxxv
Les problèmes techniques....................................................................cxxvi
Economie de la production..................................................................cxxix
Concurrence, prix et parts de marché................................................cxxxiv
Perspectives...........................................................................................cxlv
Chapitre 8
Les matériels, un secteur dispersé..........................................................................cli
Historique.................................................................................................cli
Technologie et économie........................................................................cliii
Segmentation et options stratégiques.......................................................clv
Les caractéristiques du secteur.............................................................clviii
La miniaturisation et ses limites.............................................................clix
Evolution des structures industrielles......................................................clx
Un secteur en pleine santé....................................................................clxiii
Chapitre 9
La différenciation des entreprises........................................................................clxv
La personnalité des entreprises.............................................................clxvi
L’approche relativiste de l’organisation................................................clxxi
Personnalités et structure.....................................................................clxxx
Personnalités par secteur...................................................................clxxxiv
Troisième partie
L’immatériel.......................................................................................................cxcii
Chapitre 10
Le labyrinthe du logiciel et des services............................................................cxciv
Services et produits...............................................................................cxcv
Les diverses formes de logiciel...............................................................ccv
Conclusions..........................................................................................ccxiv
Chapitre 11
L'industrie du progiciel......................................................................................ccxvi
historique et situation..........................................................................ccxvii
Caractéristiques du secteur....................................................................ccxx
Les formes de progiciel......................................................................ccxxiii
Le développement des progiciels......................................................ccxxvii
Economie de la production et structure sectorielle...........................ccxxxii
Les acteurs du progiciel...................................................................ccxxxix
Résumé et perspectives.......................................................................ccxliii

iii
Chapitre 12
Les systèmes d’exploitation et la standardisation.............................................ccxlv
Fonctions et structure des systèmes d’exploitation.............................ccxlvi
Standardisation, innovation et concurrence............................................ccli
L’évolution des systèmes et la place d’Unix........................................cclvii
Perspectives........................................................................................cclxiii
Conclusions..........................................................................................cclxx
Chapitre 13
L’univers des services.......................................................................................cclxxi
Services en informatique et services informatisés............................cclxxiii
Les services de substitution et l’histoire du Service Bureau.............cclxxvi
Les services de support ..................................................................cclxxxiii
Le panorama des années 90.................................................................ccxcii
Conclusions........................................................................................ccxcix
Quatrième partie
Vers un nouvel ordre industriel............................................................................ccci
Chapitre 14
L’informatique éclatée.......................................................................................ccciv
Intégration et dés-intégration des entreprises........................................cccv
Dés-intégration et homogénéisation de l’industrie...............................cccix
Conclusion........................................................................................cccxxiv
Chapitre 15
Les mécanismes intégrateurs........................................................................cccxxvii
Les systèmes et le problème de l’intégration.................................cccxxviii
Partenariats et alliances................................................................cccxxxviii
Vers une recomposition ?...................................................................cccxlv
Conclusions..........................................................................................ccclii
Chapitre 16
Les frontières de l'informatique........................................................................cccliv
Les télécommunications....................................................................ccclxiv
L’évolution à long terme...................................................................ccclxxi
Annexe A
Tableaux des chapitres 4 et 5.......................................................................ccclxxvii
Catégories par spécialisation..........................................................ccclxxvii
Parts de marché...............................................................................ccclxxxi
Analyse par segment de marché.....................................................ccclxxxii
Structure de dépenses..................................................................ccclxxxviii
Croissance du chiffre d’affaires ..........................................................cccxc
Profitabilité par catégorie..................................................................cccxcii
Bibliographie.......................................................................................cccxcvii

iv
Introduction

Les origines de ce livre. Mythes et idées reçues. Un modèle de l’industrie. A la


recherche des lois de fonctionnement. Structure de l’ouvrage. Prolongements possibles.

Ce livre s’adresse à tous ceux qui ont le besoin ou le désir de comprendre le


fonctionnement de l’industrie informatique, qu’ils en soient eux-mêmes acteurs ou
qu’ils en utilisent les productions, ou qu’ils s’interrogent sur les impacts de cette
industrie sur la Société et sur la vie quotidienne. Je souhaite qu’il soit lu également par
ceux qui s’intéressent au fonctionnement des structures industrielles en général, en
espérant qu’ils pourront trouver dans mon approche et dans mes thèses des pistes
utilisables pour analyser d’autres pans de l’activité économique.

Le sujet central de ce livre est l’analyse des forces et des mécanismes qui
gouvernent en profondeur l’évolution de l’industrie informatique, afin de proposer une
grille de lecture des événements qui en font l’actualité ainsi qu’une perspective
raisonnée de son devenir. Son but est de montrer l’ordre caché derrière l’apparent
désordre actuel. A la lumière de quelques phénomènes technologiques et économiques
fondamentaux, il cherche à éclairer les mutations en cours et à venir de cette industrie,
l’évolution prévisible de ses produits et ses interactions avec le reste de l’économie.

Cet ouvrage n’est pas un nouveau livre sur les produits et les techniques
informatiques. Mais en analysant les stratégies des offreurs et la dynamique à laquelle
ils obéissent, il éclaire les motivations qui les poussent à transformer le potentiel
technologique en une offre de produits spécifique. A travers les contraintes qu’elle
impose aux acteurs et les opportunités qu’elle leur présente, la structure industrielle
détermine l’offre informatique. Les produits et services disponibles sur le marché
peuvent être analysés comme les instruments visibles de la concurrence entre firmes
productrices. Ils reflètent autant les motivations et les préférences de celles-ci que
l’action réputée impersonnelle de l’évolution technologique ou de la demande du
marché.

De la même façon, cet ouvrage n’aborde pas les questions liées à la mise en œuvre
et aux applications de l’informatique, ni à son influence sur l’économie ou la culture en
général. Mais par extension, en aidant à prévoir l’évolution des produits et des services
informatiques, il peut contribuer à éclairer l’évolution de leurs utilisations et plus
généralement de leur impact sur les autres industries et l’ensemble de notre cadre de vie.

Cet ouvrage se distingue également des ouvrages d'économie au sens habituel. On


n’y cherche pas à établir dans la rigueur scientifique de nouvelles lois susceptibles
d'application générale, mais on se contente d'utiliser de façon pragmatique les outils
proposés par d'autres pour comprendre la réalité d’un sous-ensemble particulier de
l'économie. Son originalité est peut-être d’utiliser de façon coordonnée des disciplines
généralement considérées comme disjointes.

v
Comparé à d’autres ouvrages d’économie industrielle, l’objet de celui-ci – une
industrie particulière – est assez précis pour que les considérations théoriques y restent
toujours confrontées à l’expérience du dirigeant d’entreprises. Il est en même temps
assez large pour ne pas être une monographie purement factuelle et comporter l’amorce
de développements théoriques. Il n’est pas interdit de penser que la même démarche et
les mêmes concepts pourraient se révéler utiles à la compréhension d’autres industries
complexes, voire être le point de départ de contributions plus générales à l’étude des
structures industrielles.

Quelques réalités des entreprises

Comme pour tous les livres, le point de départ de celui-ci est mon expérience
personnelle, et plus précisément trois convictions acquises dans ma vie professionnelle.
La première est que les firmes sont différentes les unes des autres non seulement par
leurs productions et leurs résultats, mais aussi par leurs motivations, leur façon de
fonctionner et les possibilités d’action qui leur sont ouvertes. Deuxièmement, la
conviction que n’importe quelle firme ne peut pas réussir dans n’importe quel projet.
Enfin, le constat que les deux vérités ci-dessus sont méconnues de l’immense majorité
des observateurs et des commentateurs, alors qu’elles contribuent fortement à expliquer
la réalité industrielle.

En 1981, je quittais IBM, encore au sommet de sa puissance, pour prendre des


fonctions de direction dans une importante société de services en informatique. Je
m’attendais à devoir m’adapter à des habitudes différentes, mais j’allais être surpris par
la magnitude et la durée du choc culturel. Je quittais un monde structuré par un système
de gestion extrêmement perfectionné et une culture d’entreprise fédératrice, où les
décisions étaient collectivement réfléchies au point de s’imposer d’elles-mêmes à
chacun, et où les conflits étaient explicités et transcendés pour le plus grand profit de
l’entreprise. J’entrais dans un monde de décisions rapides, reposant plus sur l’intuition
des dirigeants que sur un quelconque travail d’état-major, car le peu d’état-major
existant était accaparé par les tâches de gestion quotidienne, et indisponible et mal
préparé pour une réflexion prospective.

Au lieu d’un concert où chacun jouait avec confiance sa partie spécifique, mais où
la cohérence de l’ensemble n’apparaissait qu’à des niveaux très élevés, je découvrais
des entreprises où la responsabilité de profit était déléguée et revendiquée jusqu’au plus
bas de l’organisation. Dans cette structure, les décisions stratégiques comme les
décisions opérationnelles étaient largement décentralisées, et le système de gestion
relativement simple et peu formalisé. Des unités différentes adoptaient ainsi des
comportements et des méthodes hétérogènes, entraînant des conflits entre groupes de
cultures différentes, et des divergences entre dirigeants quant à la stratégie, à
l’organisation et aux systèmes de gestion.

Il n’a fallu qu’un peu de temps et d’humilité pour comprendre que ces différences
ne sont pas des déviations fortuites qui demandent une remise en ordre rapide, mais
reflètent des différences fondamentales entre des activités de nature différentes. Aussi,
tenter de les éliminer en imposant un même ensemble de valeurs et de méthodes, par
exemple celles qui ont fait le succès du leader de l’industrie, aurait été non seulement

vi
impossible, mais vraisemblablement néfaste. Réussir dans des formes de prestations
différentes exige des organisations, des cultures, des styles de management, des
systèmes de gestion différents.

Ces conflits allaient se révéler critiques quelques années plus tard au moment de
mettre en œuvre des réorientations stratégiques rendues nécessaires par l’évolution du
marché. Cette expérience confirmait ce que j’avais déjà ressenti quelques années plus
tôt à l’occasion de la séparation tarifaire du logiciel et des services. En abordant ces
marchés avec sa culture et son organisation traditionnelles, IBM allait droit à l’échec
alors qu’elle ne faisait que continuer à appliquer les méthodes qui avaient jusque là fait
son succès. Des prestations suffisamment différentes pour exiger des principes
d’organisation et de gestion différents ont beaucoup de mal à coexister dans une même
entreprise.

Plus tard encore, je devais retrouver des problèmes voisins dans des négociations
portant sur l’ouverture de certains services de télécommunications. A l’époque, France
Télécom et quelques farouches nationalistes prêtaient à IBM l’intention de dominer les
réseaux mondiaux et prônaient en l’espèce une position très restrictive, en l’occurrence
contraire aux intérêts des Sociétés de Service que je représentais. Or on pouvait tout
aussi bien penser, comme c’était mon opinion, que l’intérêt d’IBM n’était pas d’entrer
en concurrence avec les grands opérateurs, et qu’elle n’en avait d’ailleurs pas non plus
la capacité. Ou bien ses dirigeants en étaient conscients et elle se tiendrait pour
l’essentiel en dehors du marché des services de télécommunications, ou elle céderait
aux avocats de l’entrée sur ce marché et finirait par échouer en ayant perdu beaucoup
d’argent et d’énergie. Dans un cas comme dans l’autre, il était inutile de prendre des
mesures restrictives.

Faute de comprendre les différences entre les secteurs d’activité, chacun prêtait à
l’autre des motivations et des intentions qui pouvaient lui être étrangères, voire
aberrantes. On projette volontiers sur les autres ses propres motivations, de même qu’on
croit volontiers qu’une firme qui a réussi dans un domaine pourra ipso facto réussir dans
n’importe quel autre. En réalité, les règles du jeu et les facteurs de succès sont si
différents selon les secteurs d’activité que les entreprises doivent adopter des
comportements très différents pour y réussir.

En résumé, l’informatique est une industrie hétérogène au sein de laquelle


coexistent des firmes de natures différentes, qui obéissent à des systèmes de forces
économiques et concurrentielles différents. C’est une erreur fondamentale de considérer
l'informatique comme un secteur homogène où les mêmes critères de succès seraient
valables pour tous les acteurs. Nul ne songerait à étudier l'industrie des transports en
général, sans distinguer le chauffeur de taxi de la Régie Renault ou d'Air France, en
prêtant à tous les acteurs les mêmes problèmes, les mêmes objectifs et les mêmes
critères de réussite. De la même façon, il est impossible de tenir un discours pertinent
sur l’industrie informatique sans en comprendre la diversité et la structuration.

vii
Mythes et idées reçues

L’hétérogénéité de l’industrie a pour conséquence une incompréhension


réciproque qui s’étend naturellement aux observateurs extérieurs. La presse commet
souvent des analyses et des prédictions erronées qui n’en sont pas moins reprises et
répétées pour alimenter une littérature d’« industrie-fiction » souvent assez fantaisiste. A
la racine commune de ces erreurs de jugement et de pronostic, on trouve une
méconnaissance des motivations des entreprises, et des contraintes que les lois de
l’économie et de la concurrence imposent à leurs actions.

Jadis, l'informatique était une industrie modèle par sa croissance, sa profitabilité,


son dynamisme commercial, ses pratiques de management, etc. Mais une société
appelée IBM la dominait de toute la hauteur de sa part de marché, qui oscillait suivant
les années, les méthodes d'évaluation et les arrière-pensées des commentateurs, entre 65
et 80%.

Cette domination, jointe à l'envahissement progressif de la société par


l'informatique, alimentait inquiétudes et pronostics. Il était admis qu'IBM dominerait le
monde si rien n'était entrepris pour l'en empêcher, et que seuls les Etats avaient ce
pouvoir. Selon les augures, IBM exploiterait les technologies de la téléinformatique
pour couvrir la planète d'un réseau qui se substituerait à la fois aux centres
informatiques des entreprises et aux grands opérateurs de télécommunications,
établissant ainsi sa domination mondiale. Cette vision accréditait l'idée d'un « combat
des chefs » inéluctable entre IBM et ATT, et justifiait l'engagement des Etats et des
entreprises de télécommunications dans une véritable croisade. La littérature
d’industrie-fiction se nourrissait alors du mythe de « Big Brother ».

On sait ce qu'il est advenu de la domination d'IBM et des services de


« distribution d'énergie informatique ». La montée des mini-ordinateurs puis des micro-
ordinateurs a permis aux utilisateurs de s'équiper de moyens propres au lieu de recourir
à des moyens partagés, et a entraîné la disparition du marché de la « distribution
d'énergie informatique » entre 1975 et 1983. IBM a enregistré des pertes
impressionnantes en 1991, 1992 et 1993, ne cesse de réduire ses effectifs et ne
représente plus qu'environ 30% du marché de l'informatique. Le grand combat entre
IBM et ATT n'a pas eu lieu et plus personne ne l'attend.

Aujourd'hui l'informatique est en crise. Les sociétés jadis les plus prospères
connaissent des années noires tandis que de nouveaux venus comme Intel ou Microsoft
affichent une santé insolente. A un monde de concurrence sans équivoque a succédé un
enchevêtrement d'alliances, où coexistent entre les mêmes entreprises des rapports de
coopération et des rapports de compétition, et où on ne sait plus clairement qui est allié
et qui est concurrent. L'innovation et la création des standards ont échappé aux grands
fournisseurs de matériels, qui semblent livrer des combats d'arrière garde plutôt que
contribuer aux progrès de l'informatique. L’industrie-fiction ne produit plus que des
scénarios-catastrophe.

Pourtant les mythes ont la vie dure. Alors même que le marché du traitement
partagé avait disparu sans espoir de retour, nombreux étaient vers la fin des années 80

viii
ceux qui, avec l'enthousiasme des néophytes, en prédisaient la naissance sous les
espèces des « Services à Valeur Ajoutée ». Ce mythe se prolonge encore de nos jours
par l'annonce de la fusion imminente de l'informatique et des télécommunications, alors
que la téléinformatique existe depuis plus de 35 ans et que les télécommunications
prennent chaque année un peu plus de retard sur les performances des systèmes
informatiques.

Les idées actuellement les plus à la mode ne sont objectivement guère plus
fondées que les mythes des années 80. On pleure sur la mauvaise santé de l'industrie
informatique en oubliant qu'elle donne naissance à une avalanche de produits de plus en
plus performants à des prix sans cesse plus bas, ce qui est le meilleur signe d'une vitalité
exemplaire. On annonce que le marché du matériel est en chute libre, alors qu'il
représente près des deux tiers du marché total et affiche toujours une croissance
suffisante pour attirer de nouveaux offreurs. On dit « pour gagner de l'argent, il faut
sous-traiter la fabrication », mais à qui si toutes les entreprises adoptent la même
stratégie ? On prédit que les constructeurs ne trouveront leur salut que dans les services
car « seuls les services sont profitables ». Outre que cette dernière affirmation est
objectivement fausse, à quels matériels s'appliqueraient alors ces services ?

Dans leurs tentatives de réponse, la plupart des commentateurs continuent à


s’appuyer exclusivement sur des considérations technologiques, et se contentent de
lieux communs, d'idées reçues et de schémas simplistes quant aux mécanismes
économiques et à la dynamique des entreprises. Or pour qu’un événement se produise, il
ne suffit pas qu’il soit rendu possible par la technologie ; encore faut-il qu’une
entreprise y voie son intérêt et ait la capacité de le faire survenir. L’évolution de
l’industrie n’est pas un processus impersonnel, mais résulte des efforts déployés par les
fournisseurs pour exploiter le potentiel technologique au service de leurs objectifs
économiques.

Un modèle de l’industrie

L’ambition du présent ouvrage est donc de contribuer à une meilleure


compréhension de l'industrie informatique en l’examinant à la lumière des lois qui
gouvernent toutes les entreprises. De nombreux observateurs et commentateurs tentent
d’arriver à ce résultat en extrapolant les grandes tendances qu’ils peuvent déceler à
partir d’une vue d’ensemble de l’industrie. Des prédictions antérieures reposant sur cette
approche ont été souvent démenties, et je pense donc nécessaire d’aller au contraire
creuser sous la surface pour comprendre les forces motrices de l’industrie et pour
démonter ses mécanismes internes.

Ce faisant, il est essentiel de reconnaître l’hétérogénéité et la complexité de cette


industrie. Elle secrète toute une gamme de produits et de services de différentes natures,
et laisse place à une grande variété de fournisseurs qui en offrent des sélections et des
combinaisons différentes. A chacun de ces produits ou services correspond un certain
processus de production qui en détermine l’économie particulière. Inversement, chaque
produit ou service est offert par un certain nombre de firmes différentes, qui entrent en
lutte dans une arène concurrentielle formée par le marché de ce bien. Dans chacun des
secteurs ainsi définis, la structure du marché et l’économie de la production se

ix
combinent pour définir une forme particulière du jeu concurrentiel et donc des règles du
jeu et des conditions de succès.

L’industrie se segmente ainsi en secteurs obéissant à des logiques économiques et


concurrentielles différentes, qui conduisent à des structures différentes, en particulier en
termes de parts de marché et de profitabilité. Ces différences appellent à leur tour
différents types de stratégie et de comportement concurrentiel selon les règles du jeu de
chaque secteur.

La nature particulière des produits d’une firme non seulement gouverne la forme
de son appareil de production, mais détermine en profondeur l’organisation et la culture
de l’entreprise, qui constituent en quelque sorte sa personnalité. Il existe une
correspondance étroite entre la nature de la production d’une entreprise et un certain
nombre de ses caractéristiques fondamentales, de même que l’anatomie, la physiologie
et même la psychologie d’un sportif correspondent à la discipline qu’il pratique. Un
haltérophile n’est pas constitué comme un coureur de marathon, et un champion du
marathon à toutes chances de ne pas briller au lever de poids, voire de régresser au
marathon dès qu'il commencera à s'entraîner aux poids et haltères. Les armes et les
stratégies gagnantes dans une arène ne sont pas forcément gagnantes dans les autres et
peuvent même y être des handicaps. De la même façon, les mêmes recettes de
fonctionnement qui font le succès de tel constructeur de matériels peuvent conduire à
l’échec telle société de services, et réciproquement.

Les entreprises concernées ne sont pas toujours conscientes de cette relation


étroite entre leurs prestations et leur personnalité, mais la concurrence est là pour
sanctionner celles qui méconnaissent cette réalité. Dans chaque secteur, les firmes qui
réussissent sont celles dont la structure et la culture sont le mieux adaptées aux besoins
spécifiques du secteur. Un secteur d’industrie est caractérisé non seulement par la nature
de ses produits, mais aussi par un certain type d’entreprise et une certaine forme des
règles du jeu concurrentiel.

Pour chaque firme, la possibilité de réussir dans un secteur nouveau est


conditionnée par sa structure et sa culture existantes. Toute tentative d'aborder un
domaine de production trop éloigné de la personnalité actuelle se soldera la plupart du
temps à la fois par un échec dans le nouveau domaine et une régression dans le domaine
traditionnel. Les spécialisations acquises tendent ainsi à se perpétuer, et avec elles la
structuration de l'industrie en secteurs, qui sont autant d'arènes différentes où des acteurs
différents jouent à des jeux différents avec des armes et des stratégies différentes.

En même temps, les produits et les services des différents secteurs doivent tôt ou
tard être assemblés en systèmes, que ce soit à l’étape industrielle suivante ou chez
l’utilisateur. Tous les secteurs interagissent entre eux, et leurs frontières sont en
permanence remises en question. Bien que la plupart des acteurs de l’informatique
n’opèrent que dans un nombre restreint de secteurs, certains sont présents dans un grand
nombre d’entre eux, par choix stratégique ou par tradition historique. Il importe
d'examiner comment ce qui se passe dans une arène influence ce qui se passe dans les
autres, comment un acteur doit s'organiser pour jouer dans plusieurs arènes et quelles
sont ses chances de réussite.

x
L’observation de l’industrie à partir de l’intérieur conduit ainsi à en proposer un
modèle pragmatique qui ressemble par bien des côtés à celui de l’évolution naturelle en
biologie. Des entreprises différentes les unes des autres, et offrant des paniers de
prestations différents, sont en concurrence sur le marché. Pour réussir, elles adoptent des
comportements qui se traduisent en particulier par leurs offres, et qui sont déterminés
par des facteurs spécifiques à chaque firme (sa personnalité). Le marché réagit à ces
comportements, et ces réactions déterminent l’évolution des firmes, leur place dans
l’industrie et leur comportement ultérieur.

A la recherche des lois de fonctionnement

A ce stade pragmatique de ma réflexion, il était nécessaire de me tourner vers la


théorie afin de valider le modèle ci-dessus et de l’enrichir en précisant les lois de
fonctionnement des marchés, les mécanismes de structuration de l’industrie, de prise de
décision dans l’entreprise, les règles d’organisation interne, etc. Cette analyse devrait
former une base solide pour comprendre le comportement des acteurs industriels, tel
que le dictent leurs rôles, leurs intérêts et leurs contraintes, et enfin proposer une vision
raisonnée et cohérente de l’industrie et de l’offre informatiques ainsi que de leur
évolution.

Précisons que ce travail n’avait aucune ambition théorique. Partant d’une industrie
à propos de laquelle je constate des incompréhensions et des interrogations, il s’agit
simplement de démonter et d’expliquer ses mécanismes à l’aide des outils théoriques
disponibles. Mon objectif n’est pas d’établir des lois économiques nouvelles, mais de
rechercher dans les théories existantes les éléments qui permettent d’expliquer ce que je
constate dans la réalité.

Trois considérations principales ont guidé mon exploration de la littérature.


D’abord le sujet central de ce livre, c’est à dire le comportement des entreprises. Ce
comportement a deux faces : en amont, il résulte de décisions internes à l’entreprise,
dont l’étude renvoie à la théorie des organisations et de la décision ; en aval, il
déclenche des interactions avec le marché, dont l’étude relève de la micro-économie.
Autrement dit, les bases théoriques auxquelles le présent ouvrage fait appel sont à
cheval sur l’économie et la théorie des organisations.

Mis à part les grands concepts et les mécanismes économiques fondamentaux,


l’économie classique et néoclassique est ici de peu d’utilité puisque ses paradigmes de
base que sont la concurrence « pure et parfaite » et l’équilibre général ignorent en fait
les notions d’entreprise, de différenciation des produits et de concurrence. Ce n’est
guère qu’à partir de 1975 que la discipline appelée « économie industrielle » s’est donné
pour tâche l’étude du système productif et des stratégies de ses composantes. A ce jour,
ce domaine a donné lieu à un très grand nombre d’études partielles portant sur tel ou tel
point particulier, mais à peu de véritables synthèses qui puissent constituer une théorie
générale des structures industrielles. Encore ces quelques ouvrages synthétiques
reconnaissent-ils des lacunes, dont certaines concernent des phénomènes très visibles
dans l’industrie informatique.

xi
De son côté, la littérature sur les organisations et la décision s’arrête le plus
souvent à la frontière de l’entreprise et n’aborde que rarement les influences réciproques
entre les choix internes et le fonctionnement du marché. D’une façon générale, la
séparation de ces deux disciplines est une faiblesse essentielle au regard de l’objet de cet
ouvrage. L’économie schématise trop la firme, et l’organisation tient trop peu compte de
l’environnement.

Un deuxième critère d’orientation dans l’exploration de la littérature tient à mon


observation fondamentale que les entreprises sont différentes les unes des autres et
obéissent à des modèles de comportement différenciés. Pour expliquer ces différences, il
n’y a évidemment que peu à attendre des théories qui reposent précisément sur le
postulat inverse. Or une part importante de l’économie industrielle considère les
entreprises comme des « boîtes noires » conformes à un modèle de comportement
simplifié identique pour toutes, par exemple la maximisation du profit. De même, la
plupart des ouvrages sur l’organisation considèrent plus ou moins implicitement que les
règles d’organisation ne dépendent pas de l’activité de la firme. Il a fallu attendre les
théories « relativistes » introduites vers 1950 et synthétisées pour la première fois par
Lawrence et Lorsch (1968) pour reconnaître que « le type d’organisation requis varie
suivant la nature des biens ou services fournis, les moyens mis en œuvre et
l’environnement économique à un moment donné ».

Le troisième critère de choix tient à mon expérience personnelle, qui est celle d’un
d’acteur et non d’un théoricien. Parmi les développements théoriques qui sont censés
décrire les décisions de l’entreprise, que ce soit avec l’œil de l’économiste ou avec celui
de l’organisateur, un très grand nombre ne ressemblent ni de près ni de loin à la façon
dont les décisions sont réellement prises. En particulier, dans le monde réel, je n’ai
jamais vu utiliser le raisonnement et la formalisation mathématiques dans des décisions
de gestion. Je ne crois pas raisonnable de croire que les responsables d’entreprise
procéderaient inconsciemment à des raisonnements de nature mathématique, comme les
planètes décrivent des trajectoires elliptiques sans savoir ce qu’est une ellipse. J’incline
au contraire à penser que toute description des choix en entreprise qui exige ce type de
formalisme a toutes chances d’être très éloignée de la réalité.

Certains peuvent trouver commode de représenter sous forme mathématique des


comportements où celles-ci n’interviennent pas, mais cette commodité ne vaut que pour
une petite communauté d’économistes et certainement pas pour la majorité du public
visé par le présent ouvrage. De plus, la formalisation mathématique n’est en général
possible qu’au prix d’hypothèses qui introduisent des écarts entre la réalité et sa
représentation. Pire encore à mes yeux, on pare ainsi des apparences de la rigueur et de
l’exactitude un domaine où règnent en réalité l’incertitude, l’approximation, l’intuition
et les réactions viscérales. Recourir au formalisme mathématique pour décrire le
comportement des décideurs dans une entreprise est au mieux inutile, au pire trompeur.

J’ai donc pris le parti d’utiliser la densité de mathématiques dans un


développement comme indicateur (négatif...) de sa pertinence par rapport au présent
ouvrage, et de considérer comme rédhibitoire la présence de tout autre symbole que les
quatre opérations de l’arithmétique. Bien entendu, je me suis appliqué la même
discipline, qui vaut au présent ouvrage d’être totalement vierge de formules
mathématiques.

xii
Au total, ces filtres successifs ont laissé passer étonnamment peu d’apports
théoriques applicables à mon propos, et ont bien entendu favorisé des ouvrages plutôt
récents, pragmatiques et présentés sous forme littéraire. C’est ainsi que tout en tirant
parti de certains apports de la théorie économique, j’ai été amené à m’appuyer fortement
sur les travaux de Porter sur les stratégies concurrentielles. De même, mon analyse du
comportement des entreprises doit beaucoup aux travaux de Lawrence et Lorsch sur
l’organisation, et aux thèses « comportementalistes » illustrées par March et Simon.

Malheureusement, mon exploration de la littérature théorique ne m’a pas toujours


permis de découvrir une explication satisfaisante de tous les phénomènes constatés dans
le réel. Il m’a fallu alors dépasser quelque peu mon objectif initial et prendre le risque
de suggérer des approches théoriques appropriées.

Structure de l’ouvrage

Ce livre est structuré en quatre parties.

Dans la première, nous prendrons soin de procéder à une reconnaissance préalable


du terrain que nous voulons couvrir, en consacrant les trois premiers chapitres à
l'évolution passée de la structure et des pratiques de l'industrie informatique. Nous y
verrons comment le marché s'est segmenté et comment se sont constituées et ont évolué
les règles des différents jeux. Puis nous examinerons dans le Chapitre 4 la structure
réelle de l'industrie au début des années 90, et dans le Chapitre 5 les performances
récentes des entreprises.

Ces constats, comme toutes les analyses qui suivent, considèrent l’industrie
informatique à l’échelle planétaire en ignorant délibérément les éventuelles différences
nationales ou régionales. L’immense majorité des entreprises qui la composent opèrent
en effet au plan international, et les frontières des états ne définissent pas vraiment des
marchés distincts. De la même façon, les politiques industrielles nationales menées par
certains états sont considérées ici comme des épiphénomènes qui ne doivent pas
distraire des mécanismes fondamentaux.

L’industrie informatique apparaît comme peuplée d’une part de quelques


entreprises généralistes offrant une vaste gamme des produits et services, et d’autre part
d’une multitude de spécialistes. Nous commencerons par analyser le fonctionnement de
ces derniers, en les rangeant par commodité dans quatre catégories : les composants, les
matériels, les progiciels et les services.

La seconde partie mène en parallèle la présentation des concepts et des outils


principaux d’analyse de l’industrie avec l’analyse des secteurs correspondant aux
matériels. S’appuyer sur les cas concrets des deux premiers secteurs pour introduire les
notions fondamentales de cet ouvrage permet de limiter les rappels théoriques
préalables qui pourraient être fastidieux.

Le Chapitre 6, de nature économique, rappelle les principaux mécanismes de la


concurrence et de la formation des structures sectorielles, en les appliquant aux quatre
domaines principaux définis ci-dessus. Le secteur des composants (Chapitre 7) nous

xiii
fournira l’exemple d’un secteur concentré et l’occasion de décrire les mécanismes d’une
concurrence de type monopoliste, qui conduit à un partage du marché à parts fortement
inégales entre un petit nombre d’offreurs. Celui des matériels (Chapitre 8) nous fournira
l’exemple de secteurs dispersés où règne une concurrence à base de niches et de
stratégies diversifiées, conduisant à la coexistence d’un grand nombre d’offreurs de
taille comparable. En même temps que ces notions de base, nous aborderons la
dynamique et les perspectives spécifiques de chacun de ces secteurs.

Le Chapitre 9 complète cette analyse en montrant comment les différences entre


les formes de production et les dynamiques concurrentielles impliquent des
organisations, des systèmes de management et des cultures différentes, c’est à dire une
différenciation des personnalités d’entreprise selon le secteur.

Dans la troisième partie, les concepts de concentration et de dispersion, ainsi que


de différenciation des entreprises, sont appliqués à l’analyse du progiciel et des services.

Il sera d’abord nécessaire de préciser ce que recouvrent exactement les termes


« logiciel » et « services » souvent abusivement associés au sein d’un pseudo-secteur
« immatériel ». Nous verrons au Chapitre 10 que le logiciel englobe une large gamme
d’activités allant des produits logiciels aux services de développement à façon, et que
l’économie de la production de progiciel est en tout point plus proche de celle des
produits industriels que des services. Assimiler les progiciels et les services au sein d'un
même secteur n'a pas plus de sens que n'en aurait l’étude d’un secteur « carburants et
taxis ».

L'industrie du progiciel fera l’objet du Chapitre 11. Nous utiliserons les notions de
concentration et de dispersion introduites dans les chapitres 6 à 9 pour montrer que cette
industrie s’analyse en fait comme un complexe de sous-secteurs de type plus ou moins
fortement concentré, individuellement soumis à leur propre dynamique concurrentielle,
mais en interaction avec les autres sous-secteurs. Nous traiterons à part dans le Chapitre
12 le cas particulièrement important des systèmes d’exploitation, à propos duquel nous
parlerons de la problématique de la standardisation et de la place du système Unix.

Dans le Chapitre 13, nous verrons comment les services, généralement traités
comme un secteur homogène, forment en réalité un ensemble de secteurs diversifiés où
jouent des logiques économiques variées. Les règles du jeu de ces secteurs impliquent
des comportements différents selon les prestations, et obligent les offreurs à s’adapter en
permanence à une demande mouvante alors que les spécificités culturelles sont dans ce
domaine particulièrement critiques.

La dernière partie de l’ouvrage prolonge les conclusions des chapitres précédents


pour proposer une vue globale de l’industrie.

Le Chapitre 14 synthétise les tendances identifiées dans les quatre domaines


analysés précédemment, et décrit leurs effets au niveau de l’industrie tout entière. On y
décrit les forces qui poussent à l’éclatement de l’industrie informatique en secteurs
spécialisés, avec d’une part les promesses de l’extension de la structure du monde PC à
toute l’informatique, et d’autre part les problèmes difficiles que cet éclatement pose aux
firmes généralistes.

xiv
Le Chapitre 15 s’intéresse aux forces qui peuvent pousser à une recomposition. Il
évoque les problèmes que pose aux utilisateurs l’éclatement de l’industrie informatique,
comment les Directeurs Informatiques peuvent réagir et l’offre s’organiser pour traiter
ces problèmes. Les services d’intégration apparaissent alors comme particulièrement
critiques, ce qui nous conduira à examiner la thèse selon laquelle les produits
disparaîtraient derrière les services. Nous verrons aussi comment les acteurs pallient
leur spécialisation en tissant des alliances plus ou moins formelles. Nous évaluerons la
signification industrielle de ces alliances et leur influence probable sur la structure
industrielle.

Enfin, nous esquisserons dans le Chapitre 16 un scénario d’évolution globale de


l’industrie informatique, en examinant en particulier les interférences entre
l’informatique et les autres industries, au premier rang desquelles les
télécommunications. Comment chacun des secteurs est-il affecté par son rapprochement
avec des secteurs jusque-là étrangers à l'informatique ? Quelle est la place de l’industrie
informatique dans les industries de l’information ? Comment la structure des autres
industries est-elle affectée par l’invasion des technologies informatiques ? Peut-on tirer
de la théorie économique des perspectives à plus long terme pour l’industrie
informatique ?

En refermant cet ouvrage, souhaitons que le lecteur ait acquis une meilleure
compréhension des mécanismes cachés qui régissent l’évolution de l’industrie
informatique, et qu’il puisse ainsi mieux décoder une avalanche de nouvelles et
d’événements quelquefois difficiles à interpréter. Que cette compréhension l’aide non
seulement à satisfaire une légitime curiosité personnelle, mais aussi à mieux assumer
ses responsabilités professionnelles, qu’elles soient celles d’un Directeur Informatique
ou d’un utilisateur, d’un dirigeant de l’un des multiples acteurs de cette industrie, d’un
commentateur, d’un enseignant ou d’un leader d’opinion, voire d’un responsable
politique.

xv
Première partie
Les faits
Assurons-nous bien du fait avant de nous inquiéter de la cause.
Fontenelle

Les états futurs de l’industrie informatique résulteront du jeu des forces naturelles
à partir de son état actuel, qui s’explique lui-même par le jeu passé de ces mêmes forces.
Un examen historique de l’évolution des différentes prestations qui composent
l’informatique, des modalités de leur fourniture par les divers acteurs de l’industrie, des
positions et des stratégies des différents fournisseurs, nous permettra d’identifier les
grands courants qui traversent l’industrie. A l’inverse de bien des ouvrages qui
commencent par énoncer et développer des théories pour chercher ensuite des cas où
elles s’appliquent, nous pourrons ainsi cerner les faits avant de rechercher les théories
qui les expliquent. Il s’agit en somme de bien examiner la surface avant de commencer
à creuser.

Le découpage que nous retiendrons pour les quarante et quelque années d’histoire
de l’industrie informatique, en trois chapitres couvrant respectivement sa naissance
(1951-1968), les crises d’adolescence (1968-1980) et l’apparition d’une autre
informatique (1975-1993), est lié au sujet central de cet ouvrage, qui est la structure
même de l’industrie. En effet, les années 1969 à 1975 ont vu une série d’événements
mettre en cause cette structure, et leurs prolongements se sont répercutés jusque vers le
début des années 80. Ensuite, à la fin cette période naissait la micro-informatique, qui se
distingue de l’informatique traditionnelle au moins autant par sa structure industrielle
originale que par ses technologies.

Dans ce survol historique, il sera beaucoup question d'IBM. Il serait anormal qu’il
en fût autrement, puisque cette société représentait à elle seule, au moins jusqu’en 1985,
environ les deux tiers de l’industrie informatique tout entière. Mais sa domination ne
s’est pas seulement traduite par sa part de marché. Dans toute cette période, ses actions
ont affecté l'ensemble du secteur, et les actions des autres acteurs ont été dans une large
mesure décidées par rapport à IBM. En ce sens, IBM a été plus qu'un concurrent, un
élément essentiel de l'environnement des autres acteurs.

Il se trouve également qu'IBM a traditionnellement été un acteur très rationnel qui


consacre beaucoup d'efforts à une réflexion stratégique organisée de façon méthodique.

xvi
Cette réflexion n'est pas menée exclusivement par quelques services spécialisés, mais
implique l'ensemble du management ainsi que des groupes d'experts opérationnels. De
ce fait, elle s'appuie non seulement sur des études approfondies, mais aussi sur la grande
variété de tendances et d'opinions présentes en permanence dans la compagnie, qui
constitue par sa taille même une forme de microcosme. Contrairement à une image
réductrice, IBM a toujours été un vivier de réformes et de réformateurs que le
management a su entretenir plus ou moins consciemment, et s'est toujours montrée
capable de donner leur chance aux francs-tireurs et de prendre l'initiative de
changements majeurs.

Même si, comme nous le verrons, certaines décisions n'ont eu pour objet que de
résoudre des problèmes internes, la place dominante d'IBM a fait retentir ces décisions
sur tous les secteurs homologues de l'industrie. L'annonce du 360 en 1964, la séparation
des tarifs (unbundling) en 1969/70, l'annonce du PC en 1981 ou, a contrario, l'abandon
du projet FS en 1975 ont ainsi pris le caractère d'actes fondateurs pour l'ensemble de
l'industrie. C'est autour de ces événements que je structurerai le rapide historique qui
suit.

xvii
Chapitre 1
Naissance de l'industrie (1951-1968)
La mécanographie accouche de l’informatique. Logiciels et services « gratuits ».
Tarifs, profits, progrès et foisonnement. Le 360, ancêtre des systèmes « ouverts ».
Frontières technologiques et intégration. Standards et fragmentation du matériel.
Boîtes ou systèmes ? Un secteur concentré.

Les débuts (1951-1963) 1

En tant qu'industrie, l’informatique est née en 1951 avec la mise sur le marché de
l'UNIVAC 1 par la Société Remington Rand. Avant cette date, Il existait d’une part une
industrie des machines mécanographiques, et d’autre part des expériences de réalisation
de calculateurs à programme enregistré, qui allaient donner naissance aux ordinateurs
mais ne faisaient pas l’objet d’une activité industrielle à proprement parler.

Les matériels mécanographiques reposant sur l'utilisation de cartes perforées et


comprenaient différentes machines spécialisées, essentiellement mécaniques bien que
certaines aient fait appel à des dispositifs électroniques dès 1946. Ces matériels étaient
commercialisés par quelques constructeurs dont IBM, Remington Rand, Burroughs,
NCR aux USA, Bull ou ICT en Europe.

Pendant et après la deuxième guerre mondiale, plusieurs calculateurs


expérimentaux furent construits par des Universités ou des centres de recherche. C'est
ainsi qu'apparut le concept de programme enregistré, et que la technologie électronique
devint le fondement de l'informatique. Si l'on admet que la caractéristique distinctive
d'un ordinateur, par rapport aux simples calculateurs, est d’être commandé par un
programme enregistré en mémoire, la première réalisation d'un véritable ordinateur date
de 1948, avec le SSEC construit par IBM.

Il n'est pas surprenant que les Sociétés IBM et Remington Rand, qui participaient
à ces travaux précurseurs, aient été les premières à percevoir le potentiel commercial de
cette nouvelle technologie. Remington Rand mit sur le marché l’ordinateur UNIVAC
dès 1951. IBM suivit, après bien des hésitations, avec le 701 en 1952, le 702 et le 650
en 1953 . Ces deux Sociétés furent vite imitées par les autres constructeurs de matériels
2

1 Pour une bonne couverture de la période qui va des origines à l'année 1963, voir le livre de René
Moreau « Ainsi naquit l'informatique » (Dunod - 1981)
2 Pour un historique détaillé du développement des premiers ordinateurs IBM, voir l'excellent
ouvrage de Charles Bashe, Lyle Johnson, John Palmer et Emerson Pugh, « IBM's Early Computers » (The
MIT Press, 1986). Cet ouvrage présente de façon fascinante l'ensemble des choix technologiques et
commerciaux, ainsi que les conflits d'opinion et les rivalités de personnes et d'organisations, qui ont sous-
tendu les développements de produits et les changements d'organisation IBM depuis ses premiers pas
dans le calcul automatique jusqu'en 1962.

xviii
à cartes perforées, et bientôt tous les constructeurs de matériels mécanographiques
(Burroughs et NCR aux USA, BULL en France et ICT au Royaume-Uni) eurent un
département ordinateurs. Très rapidement, ces firmes furent rejointes par des grandes
Sociétés d'électricité ou d'électronique comme General Electric, RCA, Honeywell,
Westinghouse, Bendix, … Plus tard apparurent des firmes nouvelles qui débutaient dans
les ordinateurs en se spécialisant sur des marchés particuliers, comme Control Data en
1957 ou Digital Equipment en 1962.

L’informatique est donc au départ une activité secondaire des firmes


mécanographiques et des grandes firmes d’électronique. Les pratiques commerciales qui
accompagnent la mise sur le marché des premiers ordinateurs sont naturellement celles
de la mécanographie : le constructeur fournit le matériel, et il appartient à l'utilisateur
d'en assurer la mise en œuvre, avec une aide plus ou moins soutenue du constructeur.

L’exploitation des matériels mécanographiques était manuelle et reposait sur la


mise en œuvre de procédures spécifiques à chaque application. La définition de ces
procédures était de la responsabilité des utilisateurs, mais faisait généralement l'objet
d'une assistance importante fournie gratuitement par le constructeur. Cette approche se
transpose aux ordinateurs, mais pour ces derniers l’assistance des constructeurs est
d’autant plus importante que la technique en est nouvelle. Pour faire face à cette
demande croissante et diversifiée, IBM structure ses activités d'assistance aux clients en
créant l’organisation technico-commerciale en 1962.

Par contre, l'offre de logiciels est initialement rudimentaire. Les tout premiers
ordinateurs d’IBM et de Remington Rand sont fournis « nus ». Conformément à la
tradition scientifique qui a présidé à leur développement, ce sont les utilisateurs eux-
mêmes qui développent les logiciels nécessaires et les échangent entre eux, depuis les
assembleurs et les routines mathématiques jusqu'aux codes les plus complexes. Le seul
apport original d'IBM avant 1960 est le langage FORTRAN et les compilateurs
associés, qui accompagnent les ordinateurs scientifiques dès 1957. Le besoin de
logiciels généraux se faisant jour progressivement, IBM formalise son organisation et
ses méthodes de développement de programmes en 1961 (Bald Peak Conference), en y
appliquant des disciplines de gestion dérivées de celles en usage pour les matériels.

A partir des années 1961-1962, chaque annonce de nouveau matériel inclura celle
d'un système d'exploitation plus ou moins perfectionné, mais en tout état de cause
spécifique à ce matériel et à son domaine d’applications prévu. Mais l'offre
commerciale et contractuelle continue à reposer exclusivement sur les matériels. Seul le
matériel et son entretien font l'objet d'une facturation, les logiciels, la formation et
l'assistance à la mise en œuvre étant fournis « gratuitement ». En réalité, le coût global
de ces services est bien évidemment pris en compte dans la tarification du matériel.
C’est à l'échelon commercial local que se négocie avec chaque client la fourniture de
ces services, puisque rien ne spécifie quels logiciels (gratuits) chaque client est en droit
de commander, ni quelle nature et quel volume d'assistance technique (gratuite) il est
fondé à recevoir.

Dans la période 1956-1964, l'informatique connaît un développement


spectaculaire même si elle ne s’implante que dans un nombre restreint de grands
organismes. Des pionniers expérimentent de nouveaux domaines et de nouvelles formes

xix
d'utilisation comme la téléinformatique, le traitement d'informations non numériques, la
conduite de processus ou diverses formes d'intelligence artificielle. Dans tous ces
domaines, les premières réalisations opérationnelles voient le jour vers 1960 sous des
formes souvent ambitieuses. Il est à peine exagéré de dire que tous les domaines
d'applications et toutes les formes d'utilisation de l'informatique connues aujourd'hui ont
été expérimentés dès cette époque.

A cette floraison d'applications répond un progrès technologique très rapide, qui


se traduit par un foisonnement de matériels mis sur le marché à un rythme soutenu. A
cette époque, chaque matériel est généralement remplacé par un successeur plus
performant moins de deux ans après sa mise sur le marché. Comme cette période est
celle de la découverte de l'informatique, chacun des matériels successifs incorpore des
concepts nouveaux et des fonctions nouvelles qui le rendent différent de ses
prédécesseurs. La conception globale de chaque ordinateur reflète les limitations
technologiques du moment, si bien que chaque avancée dans un domaine central comme
les technologies des circuits ou des mémoires, ou dans un domaine périphérique comme
les bandes magnétiques, est l'occasion de s'affranchir d'une limitation globale, et se
traduit souvent par l'introduction d'un nouvel ordinateur présentant des incompatibilités
avec ses prédécesseurs.

Conformément aux habitudes prises en mécanographie, ces matériels sont


proposés principalement en location, ce qui correspond à l'intérêt des utilisateurs
compte tenu de l'évolution extrêmement rapide. Le matériel reste ainsi le plus souvent la
propriété du constructeur, son entretien revenant donc à ce dernier et étant couvert par la
redevance de location. Ce mode de facturation, et l'importance de l'assistance technique
fournie aux clients, permettent aux constructeurs de se présenter d'abord comme des
fournisseurs de services. Le slogan des constructeurs « nous vendons des services et non
des matériels » remonte aux années 1950 et n'a été inventé ni en 1970 avec
l'introduction des services facturables, ni en 1992 avec la création de divisions de
conseil et d'assistance.

La logique concurrentielle

L'industrie informatique naissante est ainsi constituée d'acteurs généralistes dont


chacun offre une architecture d'ordinateurs propre, voire plusieurs pour les plus grands,
fournit la totalité des éléments nécessaires à chaque client et en assure l'intégration.

La gratuité des logiciels et des services fournis par les constructeurs ne laisse pas
de place à des offreurs indépendants, si ce n'est de façon marginale pour des logiciels ou
des services suffisamment différenciés. La diversité et la rapide évolution des matériels
donnent de toute façon aux constructeurs un avantage déterminant dans la fourniture de
tous les services liés aux matériels, qu'il s'agisse de maintenance, de formation ou
d'assistance technique. L'existence d'un tarif d'entretien séparé n'est qu'une disposition
administrative destinée aux rares clients acheteurs de matériels et ne donne pas

xx
naissance à une offre de maintenance tierce. De plus, la prédominance de la location
exclut l'existence de services indépendants d'entretien et celle de services financiers
comme le crédit-bail. Inversement, cette formule expose en permanence le fournisseur
au risque de remplacement de son matériel par un matériel concurrent en cas
d'insatisfaction du client.

La seule forme de services facturée par les constructeurs est le « Service


Bureau », qui consiste à traiter les travaux des clients sur les matériels du prestataire. Il
permet le partage d'ordinateurs et de compétences et s'adresse principalement aux petits
clients, ainsi qu’à des projets occasionnels ou demandant des compétences spéciales.
Cette activité résulte simplement de l'équipement en ordinateurs du Service Bureau
mécanographique classique, qui existait depuis plusieurs décennies. C'est dans cette
activité de traitement à façon que s'engageront les premières Sociétés de Services
indépendantes. Il faut noter que, contrairement aux autres formes de service qui restent
gratuites, le Service Bureau est en concurrence avec l’installation d’un ordinateur chez
le client, et non une offre complémentaire.

Le tarif des matériels est de façon majoritaire un tarif de location donnant droit au
logiciel et aux services. Il est dit « fonctionnel » parce qu'assis sur le service rendu plus
que sur les prix de revient. Il existe maints exemples qu'une machine A moins puissante
qu'une machine B, et donc offerte à un tarif inférieur, soit construite en ajoutant à B un
dispositif de ralentissement ou autre limitation, qui en augmente le prix de revient par
rapport à celui de B. La machine B plus puissante est donc à la fois plus chère pour le
client et moins coûteuse pour le constructeur.

La tarification fonctionnelle permet au constructeur d'empocher la totalité de la


différence entre la valeur d'usage que présente le produit pour son utilisateur et le coût
de revient de ce produit. Elle est en cela cohérente avec à la théorie économique, mais
ne peut durer que dans une situation de type monopoliste due à de fortes barrières à
l’entrée, car un concurrent potentiel peut, en renonçant à une partie de la marge, offrir
des produits de même valeur d'usage à un tarif inférieur.

A l'inverse, les tarifs pratiqués par le concurrent dominant, c'est à dire celui qui
jouit globalement de l'avantage concurrentiel maximal, constituent une référence pour
les autres offreurs comme pour le marché. Tant qu'un offreur peut pratiquer des prix
légèrement inférieurs à ceux du concurrent dominant pour des produits comparables, il
est assuré d'obtenir une part de marché et (dans la mesure où ses coûts sont
raisonnables) d'atteindre la rentabilité. Ce phénomène de « price umbrella » a assuré à
l'ensemble de l'industrie une bonne prospérité jusqu'à ce que certains offreurs

xxi
déclenchent une guerre des prix, principalement à la fin des années 60 avec le
phénomène des « mini-ordinateurs ».

Les profits élevés réalisés sur le matériel permettent aux constructeurs de


maintenir une importante activité de Recherche et Développement, avec pour résultat
une avalanche de produits nouveaux. Ils leur permettent également de consacrer
beaucoup d'efforts au développement du marché en expérimentant des applications
nouvelles et en assurant leur promotion, en éduquant le public visé, en assistant les
utilisateurs pour la mise en œuvre, … Mais bien entendu, même si dans une certaine
mesure les tarifs élevés et les efforts de promotion d'IBM servent aussi les autres firmes,
la profitabilité potentielle du secteur ne se réalise qu'au prix d'efforts soutenus, comme
le constateront à leurs dépens un certain nombre de firmes qui ont abordé ce secteur et
ont été contraintes de s'en retirer rapidement.

Mais cette évolution foisonnante et extrêmement rapide porte en elle les germes
d'une désintégration.

D'une part, dès le début des années 60, chaque machine se présente comme un
catalogue d'unités connectables et personnalisables, réalisant des fonctions différentes à
l'aide de technologies différentes. Chaque système comprend sa propre gamme d’unités
de calcul, de mémoires, de bandes magnétiques, de mémoires à disques, d’imprimantes,
de contrôleurs de communications, … qui ne peuvent le plus souvent pas être utilisées
dans d’autres systèmes. Les grands constructeurs vont chercher à s'organiser pour gérer
séparément les différents types d'unités selon leur technologie, tout en se donnant la
possibilité de les assembler en systèmes de façon très libre. Ainsi une seule gamme
d'unités de bande par exemple pourra se connecter à toutes les unités de calcul,
maximisant à la fois la rentabilité des investissements de développement pour le
constructeur et la souplesse de configuration pour le client. Cette tendance aboutira à
l'annonce du système IBM 360 en 1964, qui marque le début de la standardisation.

D'autre part, la diversification des applications et des modes d'utilisation, ainsi que
leur caractère évolutif, entraîneront une explosion et une diversification des besoins
d'assistance et de formation. En même temps, le poids et la diversité du logiciel
croîtront de façon spectaculaire. Ce qui n'était au départ que services annexes deviendra
pour le constructeur un poste de dépenses majeur en même temps qu'un facteur
concurrentiel souvent déterminant. Le souci de gérer ces activités de façon rationnelle
aboutira à l'annonce de l'« unbundling » par IBM en 1969, qui ouvrira le marché du
logiciel et des services.

xxii
Le 360 et la fragmentation du matériel (1964) 3

Une architecture ouverte

En Avril 1964, IBM, qui domine largement toute l'industrie informatique, annonce
la gamme 360. Cette annonce est une des étapes marquantes de l'histoire de
l'informatique. Non seulement les concepts et les standards nouveaux qu'elle définit sont
restés valides jusqu'à ce jour et sont encore à la base des ordinateurs actuels, mais elle
introduit la notion même de standard au cœur de l'industrie informatique, alors que
jusque là les seuls standards concernaient les langages évolués FORTRAN et COBOL.
En ce sens, après le bouillonnement des premières années, cette annonce marque le
début d'une ère « classique » qui ne sera contestée que par la montée du phénomène
micro autour de 1980.

Avant le 360, IBM commercialise au moins cinq gammes d'ordinateurs


incompatibles entre elles : une famille d'ordinateurs scientifiques à mots de 36 bits
(7040/7044, 7090/7094), une famille d'ordinateurs de gestion à mots de 6 caractères
(7070, 7074), plusieurs familles d'ordinateurs de gestion adressables par caractères
(1401, 1410/7010, 1440, 1460, 7080), une famille d'ordinateurs personnels scientifiques
adressables par caractères (1620, 1710) et une famille d'ordinateurs de gestion des
communications (7740, 7750).

L'objectif est de remplacer toutes les lignes d'ordinateurs existantes par une
gamme unique compatible, au sens où tout programme exécutable par l'un des
processeurs peut être exécuté par tout autre processeur doté d'une capacité mémoire au
moins égale et d'unités d'entrée-sortie équivalentes. De plus, la conception de cette
gamme doit être telle que tous les développements futurs de l'informatique, qu'il s'agisse
de l'évolution des technologies, de l'invention d'organes nouveaux ou de fonctions
nouvelles, ou encore de l'émergence de nouvelles applications ou de nouveaux modes
d'utilisation, puissent s'y intégrer sans en remettre en cause les options fondamentales.

Pour cela, IBM introduit une distinction conceptuelle entre « architecture » et


« structure » de ses machines. L'« architecture » du système 360 est constituée par
l'ensemble des règles et conventions d'utilisation, dont par exemple la représentation des
informations, le mode d'adressage, le jeu d'instructions, … La « structure » de chaque
machine concerne les caractéristiques d'une réalisation particulière de l'architecture.
L'architecture 360 est unique, mais elle est réalisée sous forme de structures variées.

Par exemple, dans les modèles les plus puissants de la gamme, toutes les
instructions sont reconnues et exécutées directement par les circuits, les transferts
d'informations se font par blocs de 8 octets , les fonctions de calcul et celles de gestion
4

3 Pour un historique détaillé du développement de la gamme 360 et de ses successeurs immédiats,


voir l'excellent ouvrage de Emerson Pugh, Lyle Johnson et John Palmer « IBM's 360 and Early 370
Systems » (The MIT Press, 1991), qui fait suite à l'ouvrage « IBM's Early Computers » et couvre la
période 1960 à 1975.
4 Un octet (en anglais « byte ») est un ensemble de 8 positions binaires ou bits, capable de prendre
256 valeurs distinctes, et utilisé comme le plus petit élément d’information dans l’architecture 360, et
dans toutes les architectures suivantes. Un octet peut représenter par exemple un caractère choisi parmi un

xxiii
des entrées et sorties sont réalisées en parallèle par des organes physiquement distincts,
alors que dans les modèles d'entrée de gamme de nombreuses instructions sont simulées
par programme, les transferts se font octet par octet, certaines fonctions logiquement
distinctes sont exécutées par le même organe. Tous les modèles reconnaissent
néanmoins le même jeu d'instructions et peuvent exécuter les mêmes programmes, mais
avec des niveaux de performances et de coût différents.

Par ailleurs, il faut pouvoir connecter aux unités de traitement des périphériques
extrêmement divers tant par leurs fonctions que par leurs performances, et dont
l'évolution doit être indépendante de celle des unités centrales. A cette fin, IBM imagine
de distribuer les fonctions entre unités de traitement et unités de gestion des entrées-
sorties, de telle sorte que les fonctions spécifiques à telle ou telle unité soient réalisées
par une unité de contrôle associée à cette unité, les composants centraux du système se
bornant à lui transmettre les informations de commande nécessaires. Le développement
d’une nouvelle fonction ou d’une nouvelle unité d'entrée-sortie peut ainsi devenir une
activité autonome qui ne demande pas de modifications aux autres unités du système.

L'annonce du Système 360 préfigure ainsi la notion de systèmes ouverts en


séparant les notions d'« architecture » et d'« implementation » et en introduisant la
notion d'interface standard entre unités. Ce faisant, IBM ouvre involontairement la voie
aux offreurs de compatibles.

Des frontières modifiées

Le découplage entre une architecture unique et des réalisations variées est rendu
possible par l'introduction du « microcode », forme de logiciel qui réalise les fonctions
de l'architecture non réalisées directement par les circuits. Un modèle particulier de la
gamme se caractérise par une certaine répartition des fonctions entre le matériel
proprement dit (les circuits) et une couche de logiciel associée à ce matériel, le
microcode. Une évolution technologique, la correction d'une défaillance ou l'adjonction
d'une fonction nouvelle se traduiront le plus souvent par une modification dans le
microcode, qui pourra être reportée dans le matériel lors de l'introduction ultérieure de
nouvelles machines.

Le microcode est utilisé en particulier pour réaliser des « émulateurs » qui


permettent aux machines de la série 360 d'exécuter de façon assez performante les
instructions de machines antérieures. La même possibilité peut être offerte sous forme
de simulation purement logicielle, mais au prix d'une perte notable de performances ;
L'utilisation d'une couche intermédiaire plus plastique que les circuits mais accédant
directement à leurs fonctions élémentaires permet à la même machine de présenter
plusieurs physionomies (ou architectures) différentes à des niveaux de performances
comparables. L'introduction du microcode établit par ailleurs un niveau intermédiaire
entre les fonctions directement réalisées par les circuits et celles réalisées par

jeu de 256, dont les lettres majuscules et minuscules, les chiffres, les signes de ponctuation et des
caractères spéciaux.

xxiv
programmation, et tend à rendre purement conventionnelle la traditionnelle distinction
entre matériel et logiciel.

Comme précédemment, les relations contractuelles d'IBM avec ses clients


reposent exclusivement sur le matériel, dont le logiciel et les services sont des
compléments « gratuits ». Mais avec le 360, le « matériel » est en réalité un mélange de
matériel et de logiciel (baptisé microcode pour la circonstance), dont les proportions
sont variables d'un modèle à l'autre et variables dans le temps pour des modèles
équivalents. Cette continuité entre matériel et logiciel se prolonge de l'autre coté de la
frontière attribuée au matériel, puisque le système d'exploitation (Operating System)
devient vite une partie intégrante de l'offre du constructeur (bien que toujours
« gratuit »). Il est en effet inconcevable de faire fonctionner un ordinateur de la
complexité du 360 sans son système d'exploitation, alors que c'était encore monnaie
courante avec les générations précédentes. Plus significativement, les perfectionnements
progressifs du système d'exploitation s'accompagnent souvent de la définition de
nouvelles instructions « machine » réalisées en microcode.

Au total, avec le système 360, la distinction entre matériel et logiciel devient floue
et en tous cas perd de son importance en termes opérationnels. Il serait plus pertinent de
considérer d'une part l'ensemble formé par le matériel et son système d'exploitation,
composé d'un mélange de matériel et de diverses variétés de logiciel, dont le
constructeur est maître et dont l'utilisateur ignore les détails, et d'autre part les logiciels
d'application qui concernent l'utilisateur. A l'intérieur du complexe formé par le matériel
et le logiciel de base, la frontière entre circuits et programmes résulte d'un arbitrage
technico-économique valable pour un état particulier des technologies, voire pour un
modèle particulier de la gamme, et doit rester sous le contrôle du constructeur. Cette
conception, qui exclut de séparer l’industrie du matériel et celle du logiciel de base,
explique la réticence d'IBM à séparer totalement la facturation du logiciel au moment de
l'unbundling, et influencera fortement le projet FS au début des années 70 . Bien que
5

cette attitude ait été reprochée à IBM comme un abus de position dominante, la validité
de cette vision n'est pas à démontrer puisque les microprocesseurs utilisés aujourd'hui
dans les micro-ordinateurs contiennent une quantité importante de logiciel.

Sur le plan technologique, IBM choisit (le premier parmi les grands constructeurs)
la nouvelle technologie des circuits intégrés pour la réalisation du 360, et se met à
fabriquer ses propres composants. Jusque là, les constructeurs d’ordinateurs achetaient à
des fabricants de composants électroniques les tubes à vide puis les transistors utilisés
dans la fabrication des ordinateurs. La fabrication des composants était ainsi extérieure
à l’industrie informatique. Toutefois, dès 1956, IBM avait décidé de fabriquer elle-
même les mémoires à tores de ferrite, et avait à cette occasion constaté sa capacité à
produire en masse des composants de façon plus fiable et plus économique que ses
fournisseurs habituels, puis avait pris un leadership dans le domaine du « packaging » à
partir de 1959.

Le passage des composants discrets aux circuits intégrés rend la conception des
circuits partie intégrante de la conception de l'ordinateur lui-même. Il est donc naturel

5 voir les chapitres suivants

xxv
que les constructeurs entreprennent de développer et d'utiliser leur propre technologie
de composants, se séparant ainsi des fabricants de composants électroniques
traditionnels et couvrant désormais l'ensemble de la filière, depuis le silicium brut
jusqu'au système opérationnel installé chez le client avec les logiciels et les services
nécessaires. Avec le système 360, s'ouvre l'apogée de l'intégration industrielle des
constructeurs de matériel informatique.

L'impact sur la structure du secteur

A l'origine, les grands choix architecturaux qui ont présidé à la définition du 360
n'ont été qu’indirectement déterminés par des considérations concurrentielles, même si
l'ensemble du programme avait évidemment pour but de maintenir la compétitivité
d'IBM, et si in fine l'annonce en a été précipitée par les menaces d'Honeywell, de
General Electric et de Control Data, qui lancèrent tous trois de nouveaux systèmes très
compétitifs en 1963. Il s'agissait bien plus de structurer de façon optimale le travail des
différents laboratoires de développement d'IBM, en permettant la gestion et l'évolution
séparée des différentes composantes tout en faisant bénéficier de ces développements
l'ensemble de la gamme IBM. En d'autres termes, le but recherché était l'économie
d'échelle maximale au niveau de l'investissement en Recherche et Développement.
Simultanément, la définition d'une architecture standard permettait aux clients d'évoluer
dans la gamme et de profiter des progrès technologiques sans remettre en cause leurs
investissements passés. Elle réunissait enfin tous les utilisateurs dans une même
communauté, facilitant les échanges entre eux et accélérant la diffusion des innovations.

Au plan de la structure de l'industrie, cette annonce allait néanmoins avoir des


conséquences profondes, qui n'avaient probablement pas été prévues ou à tout le moins
étaient sous-estimées par les responsables de la décision.

Dès que l'architecture 360 se sera diffusée largement et paraîtra devoir rester
stable plusieurs années, elle constituera un standard de fait sur la base duquel des
entreprises tierces construiront leurs propres offres. Celles-ci seront soit des
compléments, c'est à dire des éléments que le leader ne fournit pas, soit des substituts,
c'est à dire des éléments qui entrent en concurrence avec les offres homologues d'IBM.

En établissant des standards généraux d'interconnexion entre les unités d’un


système informatique, IBM ouvre à d'autres entrepreneurs la possibilité d'offrir des
matériels connectables aux siens et pouvant aussi bien entrer en concurrence avec les
matériels IBM que les compléter. Des firmes peuvent ainsi se spécialiser sur un type
d'unité pour lequel elles pensent disposer d'un avantage concurrentiel tout en bénéficiant
de l'effet d'entraînement du leader du marché.

De fait, une concurrence différenciée niche par niche voit progressivement le jour
au fur et à mesure que l'architecture 360 pénètre le marché et donne des signes
d'universalité et de pérennité. Apparaissent d'abord des unités connectables compatibles
(bandes Telex en 1967, disques Memorex en 1968, imprimantes, puis écrans), puis des

xxvi
mémoires compatibles enfichables dans les unités centrales IBM. En 1975, apparaissent
enfin des unités centrales compatibles (Amdahl) lorsque la pérennité de l'architecture a
été validée par 10 ans d'existence et confortée pour une durée au moins égale par les
annonces du système 370 (1970), puis de la mémoire virtuelle (1972), toutes deux
extensions compatibles de l'architecture 360. Sans vraiment le vouloir, IBM a inventé
les systèmes ouverts.

A la fin des années 1970, chaque élément des systèmes IBM est en concurrence
avec plusieurs équivalents non IBM parfaitement compatibles, produits par des
entreprises spécialisées, et concurrentiels tant au plan des performances et de la fiabilité
qu'à celui des prix. Cette nouvelle forme du jeu concurrentiel ne touche les autres
constructeurs qu'à proportion de leur succès, la motivation pour développer un
compatible étant fortement croissante avec la part de marché du matériel que le
compatible peut compléter ou remplacer. Vers cette même date, une partie du marché
commence à croire à la stabilisation durable des architectures d'ordinateurs et se tourne
vers l'achat des matériels plutôt que leur location. Apparaissent alors les premières
sociétés de crédit-bail informatique, tandis que se dessine la perspective d'un marché
actif des ordinateurs d'occasion.

Cet éclatement du secteur informatique pose aux constructeurs généralistes, et


principalement à IBM, une question fondamentale de stratégie : doivent-ils rechercher
leur avantage concurrentiel dans l'architecture du système, la cohérence des composants
qu'ils proposent et le service rendu au niveau global, ou au contraire dans la qualité et le
prix de chacune des unités composantes prises isolément ? Ce choix entre une
« stratégie de systèmes » (system strategy) et une « stratégie de boîtes » (box strategy) a
de profondes implications d'organisation et de pratiques commerciales, et a alimenté à
l'intérieur d'IBM un débat souterrain qui domine les décisions stratégiques depuis le
début des années 1970. La stratégie de systèmes allait de soi jusqu'à l'annonce du 360
qui fut un de ses points culminants, avec celle du 370 et de l'architecture SNA de 6

gestion des communications en 1974. Les tenants de la stratégie de boîtes


(principalement les fonctions finance et fabrication) allaient alors progressivement
prendre le dessus sur les avocats de la stratégie de systèmes (surtout présents dans le
développement et les ventes), surtout après la renonciation d'IBM au projet FS qui
représentait un extrême de la stratégie de systèmes .
7

Résumé

L’industrie informatique est née de la conversion à l’ordinateur de l’industrie


mécanographique. Activité mineure au départ, l’informatique a pris une place de plus en
plus grande au sein de chacune des firmes qui composent cette industrie, au fur et à
mesure qu’elles mettaient sur le marché des ordinateurs de bas de gamme destinés à
remplacer le matériel classique pour un prix comparable. C’est en 1962 que le chiffre
d’affaires réalisé par IBM dans les ordinateurs dépasse son chiffre d’affaires en matériel
mécanographique. Vers la fin des années 60, les constructeurs de machines

6 Systems Network Architecture


7 voir le chapitre suivant

xxvii
mécanographiques se sont mués en constructeurs d’ordinateurs conservant une activité
de mécanographie résiduelle, qui ne tardera pas à disparaître totalement.

D’autres sociétés ont également abordé ce domaine. A la fin des années 50, de
grandes Sociétés d'électricité ou d'électronique comme General Electric, RCA,
Honeywell et d'autres créent à leur tour en leur sein une activité de fabrication
d’ordinateurs, mais la plupart de ces tentatives avorteront plus ou moins rapidement. En
revanche, des firmes nouvelles qui débutent dans les ordinateurs en se spécialisant sur
des marchés particuliers, comme Control Data (1957) ou Digital Equipment (1962)
connaîtront une meilleure fortune.

L’industrie informatique que nous connaissons aujourd’hui est pour l’essentiel


composée d’une part des descendants des mécanographes du début du siècle, d’autre
part de firmes plus récentes qui n’ont jamais eu d’autre activité que l’informatique. Au
total, l’informatique est affaire de firmes spécialisées dans ce domaine, et peut donc
bien être considérée comme une industrie autonome. L’exception notable est formée par
les acteurs japonais comme Fujitsu, NEC, Hitachi, Toshiba, ou européens comme
Siemens ou Olivetti, pour lesquels l’activité informatique n’est qu’une partie d’un
groupe diversifié.

De plus, l’industrie informatique s’est détachée de l’industrie électronique dans


les années 60 en entreprenant de fabriquer elle-même les composants des ordinateurs.
Les firmes d’informatique sont donc totalement intégrées dans le sens vertical, en ce
sens qu’elles incorporent l’ensemble de la filière qui conduit du silicium brut à
l’ordinateur ; elles sont également intégrées en termes de prestations, leur production
finale incluant tout ce qui est nécessaire à leurs clients pour réaliser un système
informatique.

Les entreprises d’informatique des années 60 se conforment toutes à un même


modèle, celui de la firme intégrée offrant tous les éléments nécessaires à la mise en
place de systèmes complets, avec le logiciel, l’assistance et la maintenance
correspondante. La facturation de cet ensemble de matériels et de services étant assise
exclusivement sur le catalogue du matériel, il n’existe pas d’offre indépendante de
logiciel ou services, hormis le service bureau qui est déjà engagé sur la voie de la
régression.

Pendant cette période, l'informatique forme bien un secteur au sens de Porter . 8

Tous les constructeurs offrent en effet des paniers de prestations comparables, et pour
chaque utilisateur l'ensemble de l'offre d'un constructeur (matériel, logiciel et services)
peut se substituer à celle d'un de ses concurrents. Même le Service Bureau constitue une
alternative à l'acquisition d'un ordinateur en propre. En revanche, jusqu'au milieu des
années 60, il n'existe pas de secteurs indépendants de logiciels ou de services.

Le secteur présente toutes les caractéristiques d'un secteur concentré. La recherche


de l'innovation et les dépenses de commercialisation liées au développement du marché
entraînent des investissements élevés. Les coûts de transfert entre produits concurrents,
c'est à dire les coûts de conversion supportés par les clients en cas de passage d'une

8 voir le chapitre 6.

xxviii
architecture à une autre, sont élevés et augmentent progressivement avec le stock de
programmes d'application et les effectifs d'informaticiens.

Ce secteur, par définition naissant, présente les caractéristiques habituelles des


secteurs en phase d'introduction et de début de croissance :
–produits différenciés, pas de normes, changements fréquents de conception,
–domination de la fonction Recherche et Développement,
–séries de production courtes, coûts de commercialisation élevés, forte part de main
d'œuvre qualifiée,
–faible élasticité de la demande par rapport aux prix, stratégie de prix à base
d'écrémage, profits et marges élevés,
–faible nombre de firmes dans le secteur.

IBM, qui occupait déjà une position dominante dans le secteur des matériels
mécanographiques, maintient cette domination dans l'informatique où sa part de marché
atteindra dépassera les 50% (ou les 70% selon les auteurs) au début des années 1960.
Les forces concurrentielles de ce secteur naissant, en particulier l'importance de la R et
D et les gros besoins de capitaux pour financer non seulement cette R et D et la
croissance, mais aussi le parc locatif, favorisent en effet les firmes les plus importantes
et disposant de la plus forte assise financière. Parmi un faible nombre de grands offreurs
de matériels et services, IBM offre la gamme la plus complète, la plupart de ses
concurrents ne couvrant qu'un segment particulier de besoins du marché avec une
gamme plus étroite.

L'annonce du 360 donne à IBM un avantage suffisant sur ses concurrents


généralistes d'avant 1964 pour entraîner à terme le retrait (RCA, GE, Honeywell) ou le
regroupement (UNIVAC/Burroughs, NCR/ATT, ICT/Fujitsu) de la plupart d'entre eux.
Mais en même temps naît une autre concurrence visant spécifiquement les secteurs où la
volonté d'universalité et de compatibilité d'IBM la rend vulnérable à la concurrence de
constructeurs spécialisés. La fin des années 60 voit les prémices d’une désintégration de
l’industrie selon le type de matériel et selon le marché visé.

xxix
Chapitre 2
Les crises d’adolescence (1968-1980)

Prééminence d’IBM et réactions diverses. Beaucoup de procès pour rien. IBM se


scinde en deux. Apparition des mini-ordinateurs. L’« unbundling » et la fragmentation
des services. FS ou la fin des illusions. Vers la maturité ?

L'annonce du 360 a renforcé la domination d’IBM sur l'industrie informatique, en


donnant à ce système un statut de standard de fait. Dans le même temps, les premiers
succès de la gamme 360, sa modularité et sa probable longévité ont suscité l'émergence
de nouvelles formes de concurrence comme le crédit-bail, les systèmes d’occasion et les
matériels compatibles, alors que naissent les premières sociétés indépendantes de
conseil et de développement informatiques. Il en résulte un état de tension croissante
entre IBM et ces nouveaux concurrents, qui vont tenter d’utiliser l’arme juridique pour
accélérer la restructuration de l’industrie à leur profit. De son coté, tout en assurant sa
défense proprement dite, IBM s’engage dans des projets de réforme structurelle visant à
la mettre à l’abri de nouvelles attaques juridiques. En ce sens, les procès, la séparation
des tarifs, la mise en place d’une organisation séparée pour le bas de gamme et le projet
« Future Systems » sont liés.

Un point commun à toutes ces entreprises est que toutes ont échoué pour
l’essentiel, ou du moins que leurs résultats ont été très éloignés des espérances
qu’avaient nourries leurs initiateurs, qu’il s’agisse d’IBM elle-même, de ses concurrents
ou des pouvoirs publics. Voyons-y une indication que la dynamique intrinsèque de
l’évolution d’une industrie tolère mal d’être bousculée par des accélérations forcées.

Le temps des procès (1968 - 1982)

En aggravant les craintes qu'IBM accentue encore sa domination sur l'industrie


informatique, l'annonce du 360 a conduit le Gouvernement des Etats-Unis à commencer
une enquête préliminaire en 1964. Parallèlement, IBM sera entre 1969 et 1973 la cible
d’une vingtaine de procès intentés par des firmes privées, et en 1973 d’une action de la
Communauté Européenne . 9

9Ces procès, et en particulier celui du Gouvernement des USA, font l’objet de plusieurs livres dont
deux écrits par des juristes ou des économistes qui ont été associés aux deux parties.
Pour l’accusation : DeLamarter RT : Big Blue - IBM’s use and abuse of power (Donald Mead,
1986)
Pour la défense : Fisher FM, McGowan JJ, Greenwood JE : Folded, Spindled and Mutilated -
Economic Analysis of US vs IBM (MIT Press, Cambridge, 1983)

xxx
Control Data ouvre le feu en Décembre 1968 en accusant IBM d'avoir annoncé
prématurément le 360/90 dans le seul but de dissuader les clients de commander le
Control Data 6600. Cette action ne vint jamais devant la justice et se termina en Janvier
73 par un accord amiable prévoyant en particulier la cession par IBM à Control Data de
son activité de Service Bureau. Il est remarquable que les dispositions de cet accord
aient eu si peu de rapport avec les motifs de la plainte.

Le Ministère de la Justice des USA intente son propre procès en Janvier 1969.
Sous le prétexte de contester certaines pratiques prétendument illégales, il s'agit en fait
d'attaquer la position dominante d'IBM quelles qu'en soient les causes. Il est à peine
exagéré de dire que pour nombreux des promoteurs de cette action, l'important n'est pas
tellement de savoir si IBM s'est rendu coupable d'actes de concurrence déloyale, mais
bien de mettre un terme à sa position dominante quelles qu'en soient les raisons. Cette
action prend une importance particulière à cause de la nature du plaignant, de
l'importance des enjeux et de la subtilité juridique de l'argumentation.

Mentionnons deux débats cruciaux de ce procès, qui touchent des questions de


fond de droit et de théorie économique. Le premier concerne l’évaluation de la part de
marché d’IBM. Si le numérateur de cette fraction, le chiffre d’affaires d’IBM, est bien
connu, il est plus difficile de déterminer quel doit être son dénominateur, autrement dit
quelles sont les limites du marché concerné (« relevant market »). Pour IBM, le marché
est constitué de l’ensemble des matériels, logiciels et services informatiques, dont elle
estime sa part à environ 30% avec une modestie bien opportune. Pour ses accusateurs,
le « relevant market » doit être restreint aux matériels compatibles IBM, dont il est
facile de montrer qu’IBM occupe plus de 90%. C’est comme si le gouvernement
français intentait un procès à Hermès en l’accusant de monopoliser le secteur des
foulards Hermès au détriment des fabricants de copies ! Plus au fond, mais de façon non
exprimée, la position du Ministère de la Justice sous-entend que le standard 360 a
échappé à IBM pour devenir partie du domaine public.

Le second débat est de savoir si une position dominante est en soi condamnable et
si de ce fait des comportements par ailleurs licites pour des acteurs secondaires doivent
être interdits à IBM. Dans le livre de DeLamarter, l’un des plus critiques envers IBM
qui aient été publiés, il est frappant que le seul grief sérieux, auquel l’ouvrage est
pratiquement entièrement consacré, est que les tarifs d’IBM sont établis de façon à tirer
un profit plus élevé des matériels les moins soumis à la concurrence, et de consentir des
marges moindres sur les autres matériels. La plupart des économistes et des hommes
d’entreprise considéreront cette politique comme allant de soi. Devient-elle un crime
quand elle est pratiquée par IBM ? Plus profondément, dans la mesure où les lois
antitrust sont faites pour encourager la concurrence, est-il légitime d’interdire à un
acteur le comportement même que ces lois sont censées protéger ?

Entre 1969 et 1971, plusieurs procès sont intentés par des sociétés de crédit-bail à
la suite de DP Financial and General, et sont tous abandonnés plus ou moins rapidement
dès que les premiers jugements sont rendus à l'avantage d'IBM. Une deuxième vague est
ensuite intentée par des Sociétés de matériels compatibles à la suite de Telex.

L'affaire Telex est le seul cas où IBM ait été formellement (mais provisoirement)
déclaré coupable de pratiques abusives (alors que Telex était condamné pour vol de

xxxi
secrets industriels). Un premier jugement fut rendu en ce sens en Septembre 1973, puis
la condamnation d’IBM fut annulée par une Cour d'appel en 1975. Entre-temps une
douzaine de petites firmes avaient pris modèle sur Telex et intenté des actions du même
type en demandant, conformément à la législation antitrust, des dommages-intérêts
égaux au triple des dommages prétendument subis (« treble damages »). Pour une firme
en difficulté, traîner en justice une IBM harcelée de procès dont un du Gouvernement
des Etats-Unis apparaissait alors comme un moyen assez sûr d'aboutir à une transaction
financièrement providentielle. Le renversement du jugement Telex en 1975 durcit
l'attitude d'IBM et tarit rapidement ce flot de procès dont le bien-fondé juridique était
pour le moins léger et dont le nombre ne doit pas faire illusion.

Le procès du Gouvernement commença en Mai 1975 après 6 ans d’instruction, et


après que 14 juges indépendants aient conclu à des non-lieux sur les mêmes chefs
d’accusation. Il donna lieu pendant encore 6 ans à des échanges assez surréalistes où
abondèrent les erreurs de fait et de droit, les incohérences dans la position de
l’accusation et les aberrations de procédure. Il n'aboutira à aucune conclusion formelle
jusqu'à ce que les poursuites soient déclarées non fondées (« without merit ») en Janvier
1982.

Cet ensemble de procès constitue une mise en examen de la structure de l'industrie


informatique et propose des dispositions visant à modifier cette structure. Même si
aucune de ces actions n'a abouti, elles ont collectivement formé une partie importante
du cadre dans lequel ont été prises les décisions de l'industrie informatique entre 1969 et
1975. A cette dernière date presque toutes les actions avaient trouvé leur conclusion,
toujours dans un sens favorable à IBM, et le procès intenté en 1969 par le Ministère de
la Justice des USA entrait dans un profond sommeil jusqu'à son abandon en 1982.
L'action intentée postérieurement par la Communauté Européenne en 1980 et conclue
en 1984 apparaît comme une aberration sans importance.

En 1973, alors que l'ambiance était (provisoirement) euphorique pour les


adversaires d'IBM, la Communauté Européenne commença sa propre enquête. Celle-ci
devait aboutir à une action en abus de position dominante intentée en Décembre 1980,
alors que toutes les charges avaient été abandonnées aux USA, y compris la plainte du
Ministère de la Justice qui allait être retirée un an plus tard. Déçus dans leurs espérances
aux Etats-Unis, certains plaignants espéraient obtenir satisfaction en Europe grâce aux
différences entre la législation communautaire et celle des USA, et en comptant sur un
certain anti-américanisme à la mode en Europe. L'action de la Communauté Européenne
commençait donc comme une mascarade. Elle devait se terminer dans la bouffonnerie
en Août 1984, quand la Communauté Européenne abandonna les poursuites en échange
d'un engagement pris par IBM de publier et de tenir à jour des informations sur son
standard SNA de gestion de réseau, qu'elle publiait déjà ou aurait publié de toute façon
comme pour tous ses autres logiciels majeurs. Cet engagement en trompe l’oeil
permettait à la Communauté Européenne de se sortir d’une mauvaise querelle tout en
sauvant les apparences. Il n’en fut pas moins célébré comme une grande victoire sur
IBM, que cette dernière se garda bien de minimiser.

Quel est le bilan de cet épisode de querelles juridiques ? Les actions d'IBM ont
certes été quelque peu entravées pendant une dizaine d'années où les juristes ont exercé
un contrôle tatillon sur toutes les décisions d'organisation, de produits et de politique

xxxii
commerciale. De même, la tarification séparée du logiciel et des services a
incontestablement été accélérée, même s'il est probable qu'elle aurait été introduite tôt
ou tard. La combinaison de ces deux effets a permis le démarrage de nombreuses
sociétés de logiciel et de services, ainsi qu'une émancipation progressive des clients
favorable à la multiplication des concurrents, à l'érosion de la part de marché d'IBM et à
l'accélération du progrès technique. Vers la fin de la période des procès, IBM faisait
remarquer avec ironie que la plupart des firmes dont le Gouvernement des Etats-Unis et
la Communauté Européenne recueillaient les plaintes pour abus de position dominante
n'existaient pas au moment où IBM était censée monopoliser l'informatique. De
quelques centaines de firmes en 1964, l'industrie informatique est passée à environ
20000 firmes en 1980 et 50000 en 1992.

L'examen du rythme de croissance annuel d'IBM ne fait pas apparaître de


corrélation évidente avec le déroulement des procès. Après les années noires de 1969 et
1970, il revint se stabiliser autour de 15% de 1972 à 1974, amorça une décroissance de
1975 à 1977 et connut des oscillations entre 9 et 15% de 1978 à 1982. La conclusion
des procès en 1982 s'accompagna d'une remontée du taux de croissance à 18%, mais
pour entamer aussitôt une décroissance inexorable qui après quelques soubresauts entre
1987 et 1990 allait conduire à des taux négatifs en 1991 et 1992. Sur l'ensemble de cette
période, la part de marché d'IBM passait de plus de 70% à environ 30%, démentant les
prédictions des augures selon lesquelles la domination d'IBM aboutirait inéluctablement
à une situation de monopole que seule une action vigoureuse de la justice pourrait
éviter. En réalité, en même temps que l'action juridique échouait, d'autres forces
économiques naturelles entraient en jeu pour limiter l'expansion de l'acteur dominant et
remodeler le visage de l'industrie en le rééquilibrant.

En revanche, les procès n'ont eu que très peu d'influence profonde sur la culture et
les habitudes d'IBM. Toutes les personnes qui étaient en contact avec l’extérieur
(commerciaux, acheteurs, managers, …) certifiaient par écrit chaque année avoir relu
les « Règles de Conduite dans les Affaires ». Tous les actes commerciaux étaient passés
au crible par les services de politique commerciale, pour qui il était rigoureusement
impensable de s'écarter du tarif officiel ou des délais de livraison fixés par les usines.
Pour les collaborateurs et les clients d’IBM, qui étaient témoins et quelquefois victimes
des manœuvres plus souples (pour employer un euphémisme) de leurs concurrents, il
était impensable que ceux-ci aient le front de reprocher à IBM des actes de concurrence
déloyale, et inimaginable que des gens sérieux, comme étaient censés l'être le
Gouvernement des Etats-Unis ou la Justice, puissent y accorder crédit. Aussi l'ensemble
du personnel IBM n'a jamais douté qu'IBM finirait par avoir gain de cause. Cette
confiance s'est légèrement érodée quand il apparut avec le temps que l'action du
Gouvernement US était sérieuse, ce qui pouvait faire craindre n'importe quelle issue
tout aussi irrationnelle, et elle a un peu vacillé à la suite du premier verdict dans l'affaire
Telex fin 73.

Au total, que ce soit à travers les différents jugements rendus ou les autres formes
d'aboutissement des actions engagées, la conclusion générale est que la structure de
l'industrie informatique des années 70 résultait du jeu normal des forces économiques et
concurrentielles, et non de machinations ou d'abus de pouvoir. Mais en même temps le

xxxiii
jeu de ces mêmes forces permettait l'apparition de nouveaux acteurs, qui allait conduire
à l'explosion de l'industrie et au déclin progressif de la domination d'IBM.

L'« unbundling » (1969-1972) et la fragmentation des services

Motivations et principes

Les premières années du 360 ont été difficiles dans le secteur des logiciels :
retards dans le développement, besoins en mémoire très supérieurs aux prévisions pour
obtenir des performances acceptables, nécessité d'un haut niveau d'assistance et de
formation pour pallier les problèmes rencontrés par les utilisateurs. IBM découvre que
la structure même de son offre fait du logiciel de base un élément critique du système, et
commence à concevoir des inquiétudes quant aux coûts croissant des logiciels et de
l'assistance technico-commerciale, qui pèsent sur la tarification du matériel et sur sa
compétitivité.

Une fois les difficultés initiales surmontées, vers la fin de 1967, les besoins des
clients, et donc leurs demandes de logiciels et d'assistance continuent à se diversifier et
à croître. En réponse à cette demande apparaissent des offres de logiciels et de services
en provenance de sociétés spécialisées. Ces offres ont sur les offres homologues des
constructeurs l'inconvénient de ne pas être gratuites. Elles ont en revanche l'avantage de
pouvoir faire l'objet d'un contrat clair et de ne pas être soumises à la bonne volonté du
constructeur, ainsi que de proposer des compétences applicatives, d'organisation ou de
choix de système que les constructeurs n'offrent pas ou peu.

Vers cette même date, une partie du marché commence à croire à la stabilisation
durable des architectures d'ordinateurs et se tourne vers l'achat des matériels plutôt que
leur location. Apparaissent alors les premières Sociétés de crédit-bail informatique,
tandis que se dessine la perspective d'un marché actif des ordinateurs d'occasion. Se
pose également la question de la fourniture des services traditionnellement liés à
l'acquisition d'un ordinateur dans le cas où le fournisseur est une société financière ou
un vendeur d'occasion.

Enfin, IBM est à ce moment la cible de plusieurs procès. Bien que ces actions ne
concernent que marginalement le logiciel et les services d’assistance, IBM pense sans
doute que « lâcher du lest » dans ces derniers domaines l'aidera à mieux tenir sa position
dans celui du matériel et met donc à l'étude, au début de 1969, la facturation séparée
(« unbundling » ou « tarification dissociée »). Cette nouvelle politique est annoncée aux
USA en Juin de la même année pour s’appliquer immédiatement à l'ensemble de la
gamme. IBM Europe annonce 9 mois plus tard (Mars 1970) que ces nouvelles
dispositions ne sont applicables dans l’immédiat qu’aux nouveaux matériels, et seront
étendues à toute la gamme à partir de Juillet 1972, après une période de transition de 15
mois.

Il est amusant à ce propos que des détracteurs d’IBM lui aient reproché (et que
certains lui reprochent encore maintenant) d’avoir fait preuve de malveillance en

xxxiv
pratiquant une politique de « bundling » jusqu'en 1969. En réalité, jusqu’à ce qu’IBM
prenne l’initiative de facturer séparément le logiciel et les services, aucun constructeur
ne les avait offerts isolément. IBM ne faisait que se conformer aux pratiques unanimes
de l’ensemble de la profession, et à aucun moment n’a regroupé des prestations jusque-
là facturées séparément. Son originalité a été au contraire de prendre l’initiative de
l’« unbundling » et de l’appliquer avec une certaine rigueur bien avant les autres
constructeurs.

Comme l'annonce du 360, cette initiative d'IBM répond plus à des objectifs
propres qu'à la pression directe de la concurrence. Il s'agit d'une part de mieux contrôler
les activités de développement de logiciels et d'assistance aux clients en les adaptant
mieux à la demande, d'autre part d'obtenir un avantage indirect dans un conflit juridique
portant sur le matériel. Comme pour l'annonce du 360, les décisions qui en résultent
contribueront néanmoins à façonner le visage de l'industrie informatique dans son
ensemble.

L'analyse des dispositions prises et de la façon dont elles seront mises en œuvre
éclaire l'attitude d'IBM à l'époque vis à vis du logiciel et des services, attitude qui
n'évoluera que lentement par la suite.

Jusque là, IBM fournissait, pour un prix global attaché au matériel, un panier de
services (logiciels, formation, assistance technique) dont il déterminait unilatéralement
l'étendue pour chaque client. La maintenance du matériel était soit incluse dans le tarif
de location, soit couverte par un contrat de maintenance donnant lieu à facturation
séparée en cas d'achat du matériel. Aucune disposition contractuelle n'existait pour la
maintenance du logiciel, ni pour la formation et l'assistance, ce qui présentait l'avantage
de la gratuité, mais excluait tout engagement formel et toute garantie quant à ces
éléments. Rappelons qu'IBM offrait en outre et de façon séparée des prestations de
traitement en Service Bureau, à travers sa filiale SBC aux USA, via son organisation
10

commerciale normale dans le reste du monde.

L'« unbundling » n'affecte directement ni le Service Bureau ni la maintenance du


matériel, mais porte sur les secteurs du logiciel, de l'assistance technique et de la
formation. Pour chacune de ces activités, une partie reste « gratuite », c'est à dire incluse
dans le prix du matériel, et une partie devient facturable.

Le logiciel

Pour le logiciel, restent inclus dans le prix des matériels les logiciels « nécessaires
à l'exploitation » de ceux-ci, c'est à dire les systèmes d'exploitation ou SCP (Systems
Control Programs). Cette décision reflète d'une part l'hypothèse que l'utilisation de tout
ordinateur exige un système d'exploitation, et d'autre part la volonté d'IBM de conserver
un contrôle complet sur ces systèmes. Deviennent facturables séparément les logiciels
remplissant une fonction particulière à telle ou telle application ou forme d'utilisation et
non essentiels à l'exploitation, qui sont rangés dans la catégorie des Produits-
Programmes (Program Products ou PP).

10 Service Bureau Corporation

xxxv
Cette facturation du logiciel n'implique pas de modifications dans l'organisation et
les systèmes de gestion. Les sources de programmes restent pour l'essentiel les
Divisions de développement de produits pour les SCP, les Centres de compétence par
industrie (intégrés aux Divisions de Marketing) pour les PP. Les décisions relatives au
logiciel peuvent donc être prises de façon centralisée comme pour les autres produits.
La mise sur le marché des logiciels suit les mêmes règles que celle des autres produits, y
compris la définition de leur tarif. Ils font l'objet d'annonces formelles similaires à celles
des matériels et figurent dans le même catalogue. Ainsi, leur commercialisation et leur
gestion respectent les habitudes établies et ne posent pas de problèmes particuliers de
mise en œuvre.

Dès l'origine donc, IBM a assimilé le logiciel au matériel et en a fait un produit


comme les autres. Par la suite, le domaine du logiciel gratuit a été progressivement
réduit jusqu'à disparaître. A partir des années 1980, tous les logiciels offerts par IBM
sont facturés, et on peut rétrospectivement considérer que la distinction initiale entre
SCP et PP n'a été qu'une disposition transitoire. Parallèlement, les prix du logiciel ont
été progressivement augmentés, et la conjugaison des deux phénomènes a entraîné une
croissance spectaculaire de la part du logiciel dans les revenus et les profits d'IBM. Mais
le logiciel n'a pas pour autant été géré comme un secteur indépendant. IBM ne vend que
des logiciels qu'elle aurait développés de toute façon pour soutenir la vente de ses
matériels. En revanche, si IBM est resté dominant dans le logiciel de base, elle a
accumulé les faux départs et les échecs dans le logiciel d'application – comme d'ailleurs
les autres constructeurs – au point de s'en être pratiquement retirée.

L'assistance technique

Pour l'assistance technique, la distinction entre une partie « gratuite » et une partie
facturable pose des difficultés plus sérieuses. Cette assistance est fournie pour l'essentiel
par les Ingénieurs Technico-Commerciaux, qui apportent également une aide technique
aux Ingénieurs commerciaux dans leur action commerciale. Sauf à introduire une
spécialisation interne qui serait dommageable pour l'image et l'action commerciale
d'IBM, la séparation entre assistance facturable et assistance gratuite, quel qu'en soit le
principe, doit donc être gérée par chacun des Ingénieurs pour ses propres activités.

Les groupes d'études chargés de l'unbundling passeront beaucoup de temps à


tenter de définir pour le Technico-Commercial une frontière qui soit à la fois assez
simple pour être gérable et satisfaire les juristes, et assez réaliste pour ne pas entraîner
une catastrophe commerciale. Ce débat interne se poursuivra pendant plusieurs années,
sur un ton souvent très vif, et donnera lieu à plusieurs changements successifs de
politique.

La règle retenue pour la première annonce aux USA est draconienne : elle pose en
principe que l'aide (gratuite) apportée par le Technico-Commercial à l'action
commerciale doit se dérouler exclusivement dans les locaux d'IBM. Toute présence du
Technico-Commercial chez un client est donc réputée avoir pour but d'assister ce client,
et est de ce fait facturable. Comme de plus les nouvelles pratiques commerciales sont
aux USA applicables dès leur annonce, les Ingénieurs Technico-Commercial reçoivent
l'ordre de ne plus se présenter chez leurs clients dès le lendemain de l'annonce, tant

xxxvi
qu'un contrat de services d'assistance facturable n'a pas été signé avec le client par
l'Ingénieur Commercial en charge du compte.

Cette décision, qui montrait de la part de ses auteurs une totale méconnaissance de
la réalité du terrain, provoque bien entendu une levée de boucliers non seulement des
clients, mais aussi de tout l'appareil commercial d'IBM. Elle correspond également, sans
que la relation de cause à effet puisse être prouvée, à un ralentissement de la croissance
du chiffre d'affaires qui tombe de plus de 25% par an en 1967 et 1968 à moins de 5% en
1969 et 1970.

Au bout d'un certain temps, la Direction d'IBM devra reconnaître son erreur et
rechercher les moyens de la corriger sans pour autant paraître renier les principes qu'elle
avait édictés quelques mois plus tôt. Le principe de la solution finalement retenue est
d'extraire une partie des effectifs Technico-Commerciaux des Agences commerciales et
de les regrouper dans des Centres dont l'activité sera par définition facturable. L'activité
des Agences est considérée comme gratuite par principe, à l'intérieur de certaines limites
assez imprécises. L'idée semble être que si les Centres peuvent faire état d'un niveau
suffisant de facturation, cette facturation servira en quelque sorte d'alibi pour faire
accepter par les juristes et les autorités extérieures un certain laxisme au niveau des
Agences.

Mais cet appauvrissement des forces commerciales est mal ressenti sur le terrain,
et même si le faux pas initial finit ainsi par être maladroitement corrigé, il n'en a pas
moins gravement entaché l'image d'IBM et ses relations avec la clientèle,
ainsi – pourquoi ne pas le dire ? – que la confiance d'une grande partie d'IBM dans ses
propres dirigeants.

Dans le reste du monde et en particulier en Europe, rien n'a été annoncé au


moment de cette expérience malheureuse sinon la poursuite de l'étude. Celle-ci s'oriente
dans une voie plus souple : distinguer dans les activités du Technico-Commercial celles
qui sont au bénéfice d'IBM (préparation des propositions et participation à leur
présentation par exemple), qui ne seront pas facturables même si elles ont lieu chez le
client, de celles qui sont au bénéfice du client (aide à l'exploitation ou à l'écriture de
programmes par exemple), qui seront facturables même si elles ont lieu dans les locaux
IBM.

La mise en œuvre de cette politique suppose que soit établie une nomenclature
réaliste des tâches du Technico-Commercial, indiquant pour chacune son caractère
gratuit ou facturable selon le bénéficiaire principal. Une difficulté, ou une possibilité de
souplesse, existe du fait que certaines activités comme l'établissement et le suivi du
planning d'installation, ou encore la sélection des solutions techniques, peuvent être
considérées comme bénéficiant à la fois à IBM et à son client. D'une position ou ces
activités sont définies comme facturables, IBM Europe, sous la pression des USA qui
sont en train de tenter de corriger leur propre décision, glisse rapidement vers une
position où ces activités intermédiaires sont gratuites.

Dans toute cette période de lancement, le souci principal d'IBM est de facturer une
partie de l'assistance technique qu'elle fournit à ses clients en tout état de cause, et non
pas de développer une offre de services nouveaux. La part facturée doit être suffisante

xxxvii
pour aboutir à un contrôle plus efficace des activités du personnel technico-commercial
et pour satisfaire les contraintes juridiques, mais sans pour autant nuire à la
commercialisation du matériel. A aucun moment il n'est envisagé d'ériger cette activité
d'assistance technique en un centre de profit plus ou moins indépendant. IBM applique
d'ailleurs à ces services une politique de tarifs élevés cohérents avec ses pratiques de
rémunération, mais dissuasive pour les clients qui restreignent progressivement leur
recours à IBM aux tâches exigeant une excellente connaissance des produits et/ou des
logiciels. Des politiques analogues, généralement encore moins précises, seront
adoptées par les autres constructeurs, qui dans leur ensemble tiennent à préserver leur
souplesse et leur capacité à utiliser l'assistance comme un argument de vente du
matériel.

La formation

Dans le cas de la formation, les modalités pratiques d'une facturation partielle


posent un problème intermédiaire entre celui du logiciel et celui de l'assistance. Les
cours sont en effet répertoriés dans un catalogue et dispensés dans des centres
spécialisés. Il est donc possible de les traiter comme des produits en attachant un prix à
chacun une fois pour toutes. La décision quant au caractère facturable est ainsi confiée à
un échelon central et non laissée (comme c'est le cas pour l'assistance) à l'appréciation
de chaque intervenant.

Le principe de facturation retenu par IBM est le suivant : les cours promotionnels
ou d'information générale restent gratuits, et en principe réservés aux entreprises ayant
commandé du matériel ou envisageant de le faire, tandis que tous les cours techniques
ou professionnels sont payants et ouverts à tous. Dans la pratique, ce système se traduit
d'abord par une réorganisation du répertoire des cours afin que le contenu réel de chacun
le range sans ambiguïté dans l'une ou l'autre des deux catégories. A part ces ajustements,
la nouvelle politique de facturation est, jusque vers 1975, plaquée en quelque sorte sur
la structure habituelle du curriculum et la formation reste gérée comme partie de
l'activité commerciale.

A la suite du choc pétrolier de 1973, IBM entreprend une vaste opération de


réduction de ses services centraux. Alors que le Technico-Commercial est protégé non
par son caractère facturable, mais par son appartenance aux Agences commerciales, les
services de formation sont paradoxalement classés parmi les « indirects » et sont donc
fortement incités à réduire leurs effectifs. Pour se défendre, et défendre les intérêts
d'IBM, la fonction Formation entreprend alors un programme de réformes visant à
redéfinir sa place et sa mission dans l'ensemble d'IBM et, sur cette base, à maximiser sa
contribution aux objectifs globaux de l'entreprise.

Le résultat le plus significatif est de définir sans ambiguïté la mission de la


formation comme de contribuer à la commercialisation du matériel, avec deux objectifs
principaux : alléger la tâche des Ingénieurs Commerciaux par une meilleure information
des clients et rendre les clients autonomes dans les tâches de mise en œuvre par la
formation technique de leur personnel. L'indicateur retenu pour mesurer l'efficacité de la
formation des clients est le nombre d'années d'Ingénieur Commercial ou Technico-
Commercial économisées grâce à la formation du personnel client. On ne saurait mieux

xxxviii
exprimer que l'objectif majeur de l'activité de formation reste le support aux ventes de
matériel, indépendamment de son caractère facturable.

Pour améliorer sa productivité, ainsi d'ailleurs que celle des élèves, IBM remplace
entre 1976 et 1980 une grande partie des cours magistraux par des ouvrages
d'autoformation, quand la matière enseignée ne demande pas une interaction fréquente
entre l’élève et l’instructeur, ce qui était le cas de la quasi-totalité des cours gratuits. Ne
subsistent alors sous forme magistrale que de brefs séminaires de présentation des
produits à un extrême, des cours techniques avancés comprenant une forte dose de
travaux pratiques à l'autre extrême, plus quelques cours intermédiaires dont l'audience
relativement faible ne justifie pas d'investir dans l’autoformation. La quasi-totalité des
instructeurs peut alors se consacrer à des cours de haut niveau qui présentent le triple
avantage d’apporter la contribution maximale à l’objectif d’autonomie technique des
clients, de présenter pour les instructeurs le plus haut intérêt professionnel et de pouvoir
être facturés très cher.

La croissance spectaculaire du chiffre d'affaires de la formation clients à la fin des


années 70 n'a été que la conséquence de cette stratégie de support maximal aux ventes
de matériel. A partir du moment où il est établi que chaque client formé équivaut à une
économie de charge de travail et de dépenses pour IBM, il devient souhaitable de
former le plus grand nombre de clients possible. Le chiffre d'affaires est ainsi une
mesure et un sous-produit d'une activité fondamentalement vouée au support du
matériel. IBM a certes accueilli avec plaisir la forte rentabilité financière de cette
activité, mais à aucun moment la formation n'a été pilotée en fonction de critères
financiers indépendants.

Organisation et stratégie

Aux Etats-Unis, les nouvelles modalités de service ne posent pas de problèmes


d’organisation fondamentaux, IBM ayant abandonné ses activités de Service Bureau
depuis la fin du procès Control Data. En Europe se pose au contraire la question des
relations des nouvelles activités facturables avec le Service Bureau, l’ensemble
constituant l'offre habituelle des sociétés de services concurrentes d’IBM. Ce problème
rejoint celui de la vocation des services facturables : support au ventes ou profit. Faut-il
conserver des stratégies et des organisations différentes pour le service bureau, la
formation et l'assistance ? Faut-il appliquer pour la formation et l'assistance une
stratégie de développement indépendante du matériel en les rapprochant du Service
Bureau ? Ou bien au contraire orienter le service bureau vers le soutien aux ventes de
matériel en acceptant si nécessaire une dégradation de sa croissance et de son profit ?
Autrement dit, IBM doit-elle mettre en place une organisation comparable aux Sociétés
de Service spécialisées? Si oui quelles doivent en être les frontières et la stratégie ?

Dans la période 1970-1974, cette question est posée de façon lancinante à


l'occasion d'un certain nombre de changements d'organisation, sans recevoir de réponse
claire. Après bien des péripéties, on revient vers la fin des années 70 à l'organisation et à
la stratégie qui étaient en place en 1968. Cette décision signifie implicitement que si la
vocation du Service Bureau reste le profit, celle des autres services est toujours le
support aux ventes de matériel. Cette situation restera stable jusqu'à la fin des années

xxxix
80, et n’évoluera de façon significative qu'en 1987 avec la création de l'organisation
« Intégration de Systèmes ».

Conçue au départ comme une action défensive contre l'explosion des coûts de
logiciels et d'assistance, ainsi que comme une manœuvre politique vis à vis des
concurrents et du Gouvernement US, la tarification dissociée s'est traduite par la
facturation d'activités dans lesquelles IBM était déjà présente pour soutenir son activité
principale de matériels. Mais loin d'entrer dans le domaine des services de façon
agressive, IBM a utilisé la facturation pour limiter son implication dans les tâches qui
n'étaient pas essentielles pour le soutien du matériel. Elle a en quelque sorte créé un
marché pour ce qu'elle ne veut pas faire, donc un marché sur lequel elle ne sera pas
concurrentielle.

Pour ce qui lui semble critique pour le matériel, elle a soit maintenu la gratuité,
soit exploité un avantage déterminant (par exemple la connaissance du matériel pour la
formation technique) pour s'assurer de fournir le service malgré les prix élevés que lui
imposent ses pratiques de rémunération et de tarification. C'est pourquoi jusqu'à un
passé très récent les effectifs consacrés aux services ont toujours été gérés comme partie
des effectifs et des coûts commerciaux, et que jamais n'a été créée une organisation
réellement autonome dont l'évolution aurait été fonction de sa rentabilité propre. Le
revenu de services a longtemps été un sous-produit et non un objectif.

Si IBM a néanmoins voulu maintenir un certain niveau de chiffre d'affaires dans


les services, c'était initialement pour témoigner de la réalité de sa politique de
facturation. Le marché et les autorités concernées n'auraient pas compris qu'après avoir
défini comme facturable une partie du support aux clients, IBM cesse de fournir ce
support (à supposer que cela soit possible) pour ne fournir que la part gratuite. Lors de
la mise en place de la nouvelle politique, un niveau suffisant de facturation a été
considéré comme une sorte d'alibi nécessaire à une utilisation souple du Technico-
Commercial par les Agences. De plus, certains de ces services, comme la formation des
clients ou plus tard l'intégration de systèmes, sont critiques pour le matériel et IBM tient
à en fournir un certain volume, dont le chiffre d'affaires est une mesure commode.

Le déroulement de cette affaire montre aussi que la culture traditionnelle d'IBM


est profondément hostile à la facturation des services reposant directement sur le
personnel. Cette aversion se rattache à deux raisons fondamentales remontant toutes
deux aux « basic beliefs » qui ornent le bureau de tous les cadres d'IBM depuis qu'ils
ont été formulés par le vieux Tom Watson dès 1914. Dans la culture IBM, le culte du
service client et la recherche de l'excellence excluent de facturer au client les
interventions du personnel chargé de l'assister. De même, le respect des individus et la
politique de gestion du personnel qui en découle interdisent de lier la rémunération d'un
membre d'IBM au fait qu'un client accepte ou non de se voir facturer le temps de ce
collaborateur. Si IBM a toujours considéré que sa véritable force et sa vocation sont
dans le matériel, c'est en grande partie parce que le matériel permet le plus grand
découplage entre le chiffre d'affaires de l'entreprise et le travail de chaque collaborateur
pris individuellement. Pour cette raison, IBM préfère vendre des produits que des
services, parmi les services du temps machine que du temps homme, et dans les services
de personnel préfère vendre de la formation plutôt que de l'assistance.

xl
Emergence d’un secteur des services

La facturation même partielle des services ouvre des marchés aux sociétés de
services indépendantes, en particulier dans le domaine des applications ou pour des
tâches d'un niveau incompatible avec les tarifs des constructeurs. Un nouveau secteur
des services « intellectuels », portant essentiellement sur le développement de
programmes d'application et la mise en place de systèmes complets, se crée tant comme
une évolution naturelle des Sociétés de Service Bureau que par apparition de nouvelles
firmes spécialisées. Jusqu'aux années 90, ce secteur se développera rapidement en
profitant en particulier de la pénurie de personnel compétent.

La croissance spectaculaire du secteur des services contraste avec la modestie du


secteur des progiciels avant les années 80. Pour les types de systèmes alors disponibles,
les logiciels d’usage général sont fournis par les constructeurs de matériel et sont très
liés aux spécificités de celui-ci, tandis que les besoins applicatifs sont le plus souvent
satisfaits par des développements spécifiques. Une bonne part des prestations de
services est constituée par le développement de logiciels sur mesure. Si certains
prestataires disposent progressivement de cadres préprogrammés ou de modules
réutilisables sur lesquels ils fondent leur publicité, ces logiciels sont le plus souvent
inutilisables sans une assistance soutenue de leur auteur, et ne sont que le fondement
d’une prestation de développement spécifique. Cette continuité qui a longtemps existé
entre le développement spécifique et le logiciel préprogrammé explique que progiciel et
services soient encore aujourd’hui souvent assimilés alors que nous verrons qu’il s’agit
de deux activités foncièrement différentes au plan économique.

Un secteur indépendant du logiciel commence néanmoins à se créer à partir de la


fin des années 60, mais ce n'est que dans les années 80 qu'il se développera de façon
spectaculaire avec les micro-ordinateurs.

En matière de formation, la voie choisie par IBM de se concentrer sur les cours
pratiques de haut niveau liés aux produits, et de leur appliquer sa politique traditionnelle
de prix élevés, ouvre un large champ aux entreprises indépendantes de formation, dont
IBM souhaite favoriser le développement. Par exemple, sa politique exclut d'offrir des
cours de programmation sous forme magistrale bien que l'existence de tels cours (offerts
par des tiers) contribue positivement à son objectif principal d'autonomie technique des
utilisateurs. La stratégie choisie par IBM en matière de formation a ainsi été très
favorable aux entreprises indépendantes, pour lesquelles IBM crée la demande et établit
un régime de prix élevés, tout en n'étant présente que dans des segments très
particuliers.

L'unbundling a eu un sérieux impact à long terme sur l'ensemble de l'industrie


informatique. N’oublions pas en effet que pendant toute la période 1969-1985, le

xli
marché IBM représente entre 50% et 70% du marché potentiel total des services
informatiques. Il a permis l'essor des sociétés de services indépendantes et l'apparition
d'une industrie du logiciel, bien que timide et peu distincte des sociétés de services
informatiques au début. Il a poussé les utilisateurs à devenir de moins en moins
dépendants d'un constructeur dominant, ce qui a contribué, avec la standardisation des
matériels, à la désagrégation de l'offre des grands constructeurs et à l'essor des offreurs
spécialisés et des intégrateurs indépendants. Au total, par ses effets indirects,
l'unbundling a contribué à la réduction progressive de la part de marché d'IBM.

Remous dans le bas de gamme

Les minis et le déclin du Service Bureau

L'annonce du 360 a donné à IBM un avantage suffisant sur ses concurrents


généralistes d'avant 1964 pour entraîner à terme le retrait (RCA, GE, Honeywell) ou le
regroupement (Univac/Burroughs, NCR/ATT, ICT/Fujitsu) de la plupart d'entre eux.
Mais en même temps naît une autre concurrence visant spécifiquement les secteurs où la
volonté d'universalité et de compatibilité d'IBM la rend vulnérable à la concurrence de
constructeurs spécialisés, au premier chef le secteur du calcul scientifique.

Dans ce secteur, non seulement il est possible de développer des matériels plus
étroitement adaptés en s'affranchissant des contraintes d'une architecture universelle,
mais le besoin de support technique peut être réduit grâce à la compétence de base des
utilisateurs. De plus, les acheteurs sont souvent des laboratoires jaloux de leur
indépendance et très enclins à se démarquer à la fois des services centraux dont ils
dépendent et du constructeur le plus lié à ces services centraux. C'est en exploitant ces
caractéristiques, et en utilisant souvent des pratiques commerciales agressives
contrastant avec les manières à la fois policées et condescendantes d'IBM, que
fleurissent des sociétés spécialisées dans les « mini-ordinateurs », comme Digital
Equipment en 1965, Data General en 1969, Prime, Modcomp, Hewlett-Packard, etc.
Control Data elle-même, plus connue par la suite pour ses super-ordinateurs, avait
ouvert cette voie en 1958 avec l’une de ses premières machines le Control Data 160.

Le phénomène « mini-ordinateurs » est de nature plus marketing que technique,


car mis à part leur adaptation à un type d'application particulier, ces machines ne
mettent pas en œuvre une technologie ou des principes différents de ceux des machines
comparables des constructeurs généralistes. Du strict point de vue technique, les
modèles d'entrée de gamme de la série 360 ou 370, ainsi que leurs cousins S/38 ou
AS/400, méritent autant le qualificatif de « mini-ordinateurs » que leurs concurrents de

xlii
chez Digital Equipment ou Hewlett-Packard. C'est pourquoi il est littéralement absurde
de s'étonner que « les constructeurs traditionnels aient été absents des débuts de la mini-
informatique ». Celle-ci est par définition un ensemble d'attaques ponctuelles menées
par de nouveaux entrants contre les constructeurs établis, avec des arguments et des
méthodes de nature commerciale, et non pas une innovation de nature technologique qui
aurait échappé aux constructeurs traditionnels.

Contrairement à ce que veulent faire croire les fabricants de minis, il n'y a pas
opposition entre des constructeurs de « mainframes » rétrogrades et des constructeurs de
minis progressistes. Il y a d’un coté des constructeurs généralistes offrant une gamme
étendue de matériels plus ou moins universels sur une large échelle de puissances, et de
l’autre des constructeurs spécialisés qui ne couvrent qu'une partie sélectionnée de
l'éventail des applications et de l'échelle des performances, couverte également par les
généralistes, quelquefois même avec des matériels et des approches commerciales
spécialisés. Dans les secteurs communs, chacun se bat avec des arguments différents,
mais il s'agit purement d'arguments commerciaux destinés à vendre des solutions
voisines et non, comme on a voulu le faire croire, de deux conceptions opposées de
l'informatique.

L'émergence des minis fait apparaître de nouveaux acteurs, mais ne modifie pas
en profondeur les forces concurrentielles (au sens de Porter) ni la structure du secteur,
contrairement à ce qui se passera pour les micro-ordinateurs. Les constructeurs de
minis, tout comme IBM, offrent dans leur créneau des configurations complètes et un
service complet de formation, d'assistance et d'entretien, adapté bien entendu au
segment qu'ils visent. Tout en étant en concurrence avec les constructeurs généralistes,
ils se conforment aux règles du jeu établies par eux. Le phénomène mini n'est que la
médiatisation accidentelle d'une tendance générale de l'informatique, à savoir
l'apparition permanente de matériels de plus en plus performants à des niveaux de prix
de plus en plus bas.

Avec le succès, le pionnier des minis (Digital Equipment) deviendra lui-même un


constructeur généraliste en étendant sa gamme vers le haut jusqu'aux niveaux de
performance des grands ordinateurs IBM, et même en abordant le domaine des
applications de gestion. C'est en appliquant la même stratégie qu'IBM que Digital
Equipment en deviendra le premier concurrent : gamme large, logiciel système propre , 11

offre incluant l'ensemble des services requis par les utilisateurs, etc. Comme tel, Digital
Equipment connaît maintenant les mêmes problèmes qu'IBM après avoir été le plus
performant de ses challengers.

La montée des minis aura son impact le plus important en matière de services
avec l'érosion du marché du Service Bureau. La disponibilité de matériels puissants à
bon marché permet aux utilisateurs de s'équiper de moyens propres adaptés à leurs
besoins au lieu de recourir à des moyens partagés. C'est ainsi que le Service Bureau
disparaît progressivement entre 1975 et 1983 dans sa presque totalité, entraînant la

11 L’auteur du présent ouvrage s’efforçant d’écrire en français, on n’y utilise pas le terme hélas
pourtant répandu de « système propriétaire ». Quand IBM (ou tout autre) propose un système qui est
propre à ses matériels, c’est IBM qui est propriétaire du système et non le système qui est propriétaire (de
quoi d’ailleurs ?).

xliii
disparition, la régression ou la reconversion des entreprises qui s'y étaient spécialisées.
N'en subsistent que les services qui reposent sur des compétences ou des bases de
données très spécialisées, ou qui impliquent par nature le partage d'informations entre
les firmes utilisatrices .
12

La Division des Systèmes Généraux

IBM a toujours voulu être présente dans le segment des ordinateurs de bas de
gamme, afin de s'implanter très tôt chez le maximum de clients et de suivre leur
évolution en comptant sur leur fidélité. C’est pourquoi elle avait introduit dès 1957 des
machines comme le 610, l'un des premiers ordinateurs scientifiques destinés à un usage
individuel, suivi par le 1620 en 1959, le 1440 en 1962, ou encore le système 3000
annoncé en 1961 (en Europe seulement) et qui connut un éphémère succès commercial
avant d'être retiré du marché à la fin de la même année.

Après 1964, tout en offrant des réalisations d'entrée de gamme du 360, les
concepteurs de petits systèmes se heurtèrent aux limites de cette architecture. Toute
architecture générale, quelle qu'elle soit, a en effet des exigences qui déterminent un
coût plancher pour sa réalisation dans un état donné des technologies, et donc un niveau
de prix en dessous duquel elle ne peut être réalisée de façon économique . De plus, les
13

petits systèmes ont des besoins spécifiques peu compatibles avec l'architecture générale
360 telle qu'elle avait été conçue en 1964, en particulier dans le domaine de la
convivialité, puisqu'ils doivent pouvoir être entièrement mis en œuvre par une seule
personne non informaticienne.

C'est pourquoi l'annonce du 360 n'empêcha pas IBM de continuer à mettre sur le
marché, pour des besoins spécifiques, des systèmes non conformes à cette architecture
et incompatibles entre eux : le 1800 pour le contrôle de processus dès 1964, puis son
successeur le Système/7 en 1970, le 1130 pour le calcul scientifique personnel en 1965
(avec le premier OS individuel sur disque), le Système/3 pour la gestion des petites
entreprises en 1969. Dans ce segment des petits systèmes, par définition non couvert par
l'architecture 360 et son effet unificateur, se perpétuait la dynamique anarchique des
années antérieures.

Grâce au progrès technologique, le prix des petits systèmes n'a cessé de diminuer
en même temps que leurs fonctionnalités se développaient. De plus, il apparut vite que
les méthodes commerciales traditionnelles, reposant sur des contacts commerciaux et un
support technique individualisés, s'appliquaient mal à un marché de masse où la valeur
de chaque vente est relativement faible. L’élargissement du marché, joint à la baisse des
prix unitaires, demandait de plus en plus des formes de commercialisation et de support
technique différentes.

12 Paradoxalement, ce marché moribond du traitement soulèvera vers 1986-1988 l'intérêt vite déçu
des entreprises de télécommunications sous l'appellation médiatique de « Services à Valeur Ajoutée ».
Voir chapitre 16.
13 Un problème analogue se pose d'ailleurs en haut de gamme à cause des limitations de
l'architecture.

xliv
C'est pour permettre dans ce domaine une rupture avec la tradition IBM que fut
créée la « General Systems Division » (GSD) en 1974. Cette Division, qui regroupait
toutes les fonctions de développement, de fabrication, de vente et de support pour les
petits systèmes, était directement rattachée à la Direction du Groupe et comportait dans
chaque pays une organisation entièrement séparée de celle de la « Data Processing
Division » (DPD) en charge des systèmes 360/370. Pour la première fois, IBM se
scindait en entités industrielles indépendantes et concurrentes, comme elle en était
menacée par les actions en justice alors en cours. Quitte à devoir être découpée, IBM
traçait elle-même les pointillés...

Au départ tournée vers les segments de marché non couverts par la gamme 360 et
vers la mise en place de nouvelles formes de commercialisation de masse, la GSD allait
progressivement se poser en concurrente de la DPD sur des marchés de plus en plus
étendus. Ayant en effet la maîtrise de sa ligne de produits, par principe non conformes à
l'architecture 360/370, elle allait chercher à accompagner ses clients dans la croissance
de leurs besoins en faisant évoluer vers le haut ses gammes introduites en 1974, voire en
développant des systèmes très innovants et puissants comme le Système/38 en 1980.
Dans le même temps, DPD continuait à prolonger vers le bas sa gamme 360/370,
principalement pour répondre aux besoins de ses grands clients en équipements locaux.
GSD avait un avantage déterminant dans les petites entreprises par ses pratiques
commerciales, et DPD un avantage dans les grands comptes par la cohérence de sa
gamme. Mais la concurrence était suffisamment sérieuse pour que de nombreuses
tentatives soient entreprises pour la gérer au niveau de chaque pays, sans grand succès il
faut le dire. Pour les clients, il y avait bien deux IBM en concurrence, ce que certains
déploraient tandis que d'autres s'en félicitaient.

Cette situation allait durer jusqu'en 1983, date à laquelle IBM recombina DPD et
GSD et revint à une organisation unifiée pour la commercialisation, au sein de laquelle
peuvent donc se faire les arbitrages commerciaux entre produits concurrents issus de
divisions de développement relativement autonomes. Le dernier des grands procès,
celui du Ministère de la Justice des USA, venait de se conclure par l'arrêt des poursuites,
déclarées non fondées par leur auteur. IBM présentait de nouveau au marché un visage
unique, mais les nouvelles formes de commercialisation et les nouveaux canaux de
diffusion mis en place par GSD demeuraient. IBM avait renoncé à se faire ouvertement
concurrence, mais avait pris l'habitude de vendre ses produits à travers tous les canaux
de distribution disponibles : ventes directes, agents, revendeurs, sociétés de services,
etc.

Il est probable que cet exercice de concurrence interne a été enrichissant pour
IBM, donnant raison à ceux qui critiquaient la position du Gouvernement US en
prédisant que plusieurs petites IBM seraient beaucoup plus efficaces qu'une grande, et
donc plus dangereuses pour les concurrents. Rétrospectivement, la fusion de 1983 entre
DPD et GSD peut être considérée comme un pas de clerc à la lumière de la
réorganisation majeure qui est en cours depuis 1991.

xlv
FS ou la fin d'une illusion (1971 - 1975)

Au début des années 1970 se déroula à l'intérieur d'IBM un projet dont la nature et
le contenu détaillé sont restés un secret bien gardé. Il s'agit du projet FS (Future
Systems), quelquefois également désigné par AS (Advanced Systems).

Que ce projet n'ait pas été plus largement connu de la profession est d'autant plus
remarquable qu'il a impliqué en 1973/1974 près de 2000 personnes. Il faut dire que des
précautions exceptionnelles (même pour IBM) avaient été prises pour en assurer la
totale confidentialité. Dans la meilleure tradition des services secrets, le projet était
cloisonné de telle sorte que l'immense majorité des participants n'en connaissaient que
la petite partie strictement nécessaire à l'exécution de la tâche particulière qui leur était
confiée, de sorte que très peu de gens ont pu avoir une vue d'ensemble du projet et
comprendre ses implications stratégiques. Vingt ans plus tard, je pense pouvoir en
évoquer quelques aspects généraux sans trahir le secret auquel j'ai été tenu.

Outre la nécessité de donner des successeurs à la série 360, la motivation profonde


du projet est la crainte que soient mises sur le marché des unités centrales compatibles,
comme il existe déjà des disques, des bandes, des terminaux, des mémoires
additionnelles, etc. IBM consacre traditionnellement une part importante de ses
dépenses à la R&D générale, à la promotion de l'informatique en général, à l'action
commerciale …, dont les coûts sont répartis sur les coûts de l'ensemble des produits et
donc inclus dans leur tarification. Les offreurs de produits compatibles ne supportent
pas ces coûts généraux, tout en bénéficiant largement de leur effet d'entraînement sur le
marché, et peuvent donc offrir leur produits à des prix inférieurs. Contrainte d'ajuster
vers le bas les tarifs des produits ainsi mis en concurrence, IBM réduit la base sur
laquelle elle peut répartir ses dépenses générales, ce qui tend à augmenter le prix des
produits restants et donc à motiver le développement de nouveaux compatibles.

Il y a donc deux possibilités stratégiques : ou bien accepter une concurrence par


les prix unitaires qui force IBM à réduire ses dépenses de développement du marché et
d'une façon générale son train de vie au point même de remettre en question la politique
dite « de plein emploi », ou bien utiliser sa compétence en matière de systèmes et son
leadership sur le marché pour maintenir un avantage concurrentiel au niveau de
l'ensemble du système, et compenser ainsi des prix plus élevés pour chacune des unités.

C'est pour définir le plan d'action par lequel pourrait se concrétiser cette deuxième
stratégie qu'une Task Force est réunie à Armonk au deuxième trimestre 1971. Ses
objectifs sont :
–de proposer une architecture de systèmes et un plan de développement de produits
qui permettent de prendre une avance concurrentielle importante par un saut
technologique majeur,
–de rendre obsolètes les ordinateurs existants,

xlvi
–de redonner une base technologiquement justifiée à un regroupement tarifaire des
prestations et au retour à une tarification fonctionnelle.

Il faut souligner le très grand soin avec lequel IBM voulait vérifier que toute
modification de la structure de son offre, qu'il s'agisse de matériels, de logiciels et de
services, serait justifiée par des arguments technologiques incontestables et non
seulement commerciaux ou financiers. A cette époque, IBM était en effet la cible de
plusieurs procès dont celui du Gouvernement des Etats-Unis, et était plus soucieuse que
jamais de ne rien faire qui puisse sembler susceptible d'être interprété comme un abus
de position dominante.

Le groupe de travail se fixe rapidement un autre objectif majeur, celui de faciliter


le développement d'applications. Pour cela, le nouveau système doit posséder toutes les
caractéristiques et fonctions susceptibles de réduire le coût de développement dans des
proportions voisines de la réduction attendue des coûts du matériel. Sinon, les
constructeurs ne pourraient capter qu'une part décroissante de la dépense informatique
des entreprises. Au contraire, un système présentant des avantages décisifs dans ce
domaine jouirait d'un avantage concurrentiel déterminant et justifierait des tarifs élevés
tant que son avance technologique autoriserait une tarification « fonctionnelle ».

Le résultat est une proposition d'architecture révolutionnaire combinant un grand


nombre d'idées très innovantes pour l'époque. IBM pense alors posséder une avance
déterminante dans la production en masse des mémoires de très grande capacité (semi-
conducteurs et disques), dans la gestion par logiciel de hiérarchies de mémoires et dans
la maîtrise des technologies de microcode. Tout le système est donc conçu autour d'une
capacité de mémoire apparemment infinie, réalisée par une hiérarchie de supports
physiques entièrement gérée par la machine . Cette capacité de mémoire apparemment
14

illimitée, jointe aux faibles coûts projetés pour les mémoires, rend possible l'utilisation
d'un système d'exploitation unique pour toute la gamme, incorporant toutes les
techniques nécessaires pour favoriser le développement des applications et l'exploitation
des centres informatiques dans tous les modes opératoires.

Pour tenir compte de l'évolution (en cours et à venir) des modes d'exploitation, le
groupe de travail propose une redistribution radicale des fonctions traditionnelles du
matériel et des logiciels système entre différentes couches de câblage et de microcode.
Certaines fonctions logicielles complexes se retrouvent ainsi câblées au coeur du
système, et la plupart des fonctions jusque là assurées par le système d'exploitation et
ses extensions deviennent câblées ou microcodées, avec la possibilité de plusieurs
niveaux de microcode.

Au final, la « machine » proposée inclut tout ce qui était le logiciel de base pour
les systèmes antérieurs dont le 360, y compris la gestion des communications et la
gestion des bases de données. De même, l'« unité centrale » inclut une grande quantité
de mémoire à semi-conducteurs et d'unités de disques, ainsi que l'équivalent d'une
bonne partie des unités de contrôle de transmission et d'entrée-sortie. Outre les

14 Dans un tel système, chaque élément d'information est repéré par une référence fixée une fois
pour toutes. Le système peut déplacer l'information entre les différents supports de façon invisible pour
l'utilisateur, et la restituer à l'utilisateur quel que soit le support sur lequel elle réside.

xlvii
programmes d'application pour lesquels IBM n'a pas d'ambition, seules les unités
d'entrée-sortie (terminaux) et les appareils de stockage de très grande capacité restent
physiquement séparées et donc vulnérables. Cette structure très intégrée reposant sur
des composants spécifiques doit permettre de maintenir son unité au secteur face aux
attaques ponctuelles des matériels compatibles.

Le projet, qui vers la fin de 1974 occupait à plein temps la quasi-totalité des
ressources de développement d'IBM, est arrêté au début de 1975, et remplacé par une
politique d'évolution compatible conservant la base 360/370. Les raisons de l'arrêt du
projet n'ont évidemment pas été rendues publiques, même à l'intérieur d'IBM. D'une
façon synthétique, on peut les résumer comme suit.

Dans leur souci d'exploiter au maximum tous les développements en cours ou


prévisibles, les concepteurs du système avaient accumulé les paris technologiques, dont
un grand nombre était critique pour l'ensemble du système. Même si chacun de ces paris
apparaissait isolément comme raisonnable, un simple calcul de probabilités montrait
que les chances de réussite de l'ensemble étaient faibles. Il était donc hautement
probable que le projet connaîtrait de grosses difficultés donc des retards. De fait, alors
que le groupe de travail de 1971 avait proposé une annonce mi-75 (4 ans plus tard), la
date d'annonce prévue en 1974 était début 78 (toujours 4 ans plus tard ! !).

Par ailleurs, malgré les outils prévus pour faciliter la migration des anciennes
applications, la conversion à FS posait un problème sérieux de coût, de logistique et de
charge du personnel client. A l'inverse, éviter ces problèmes en continuant d'utiliser FS
en mode 370 privait les utilisateurs de la plupart des avantages du nouveau système. Il
était donc à craindre qu'au moment ou FS arriverait sur le marché, son avantage par
rapport aux compatibles 370 développés entre temps ne soit pas déterminant aux yeux
des clients. Or l'énormité même du travail à accomplir pour développer FS avait tari tout
autre développement à l'intérieur d'IBM, laissant un champ libre aux annonces des
autres constructeurs. Enfin, l'éventail des possibilités alternatives ouvertes aux clients
était beaucoup plus large qu'à l'époque du 360 et comprenait maintenant non seulement
l'utilisation de matériels concurrents compatibles ou non, mais aussi celle de matériels
IBM d'occasion à bas prix.

Quelles que soient les raisons qui ont motivé à l'époque la Direction d'IBM à
accepter « l'échec le plus coûteux de son histoire », cette décision a une signification
profonde : IBM renonçait ainsi à son projet explicitement formulé de revenir à la
structure industrielle du début des années 60, où son leadership technologique lui
conférait un quasi-monopole sur tous les secteurs de l'industrie. L'annonce du 3033 en
1977 signifiait que l'informatique ne connaîtrait plus de révolutions mais des évolutions
progressives. De plus, en renonçant à FS, IBM renonçait à être maîtresse du jeu et
admettait d'être un acteur parmi d'autres, participant à un jeu concurrentiel dont elle ne
fixait plus les règles.

Vers la maturité (1976 à nos jours)

Le « monde » IBM évolue ainsi dans les années 70 vers une structure plus
complexe faite de sous-secteurs où des offreurs secondaires sont en concurrence avec le

xlviii
leader dans le créneau qu'ils ont choisi (par exemple les compatibles ou le matériel
d'occasion), ou offrent des éléments complémentaires que le leader a choisi de ne pas
fournir (par exemple dans le domaine des logiciels ou des services). Dans ce « monde »
multifournisseurs, IBM doit lutter non seulement contre Univac et Control Data, mais
aussi contre Amdahl, Hitachi, Memorex, etc.

Ce mouvement vers une fragmentation du secteur ne touche guère que le monde


IBM 360 et plus tard ses successeurs 370, 4300, 30xx. Dans la concurrence entre les
divers « mondes », cette situation tend à rendre le « monde IBM » plus attrayant. D'une
part il s'enrichit des apports des fournisseurs complémentaires, d'autre part la
concurrence des compatibles et du matériel d'occasion provoque une élévation de la
qualité et de la diversité des produits, accompagnée d'une baisse des prix malgré les
efforts du leader. Pour Bull ou Unisys, des firmes comme Amdahl, Hitachi, Memorex
ou Computer Associates sont objectivement des alliés d'IBM.

Dans un même mouvement, le leader voit augmenter la part de marché occupée


par son architecture et les produits qui en dérivent, et sa propre part de ce marché
diminuer en même temps que ses marges bénéficiaires et l'influence qu'il peut exercer.
Cette pression concurrentielle directe sur IBM l'oblige à baisser ses prix, érode sa part
de marché et ses marges, et se répercute indirectement sur les autres constructeurs (les
autres « mondes ») à travers la concurrence entre eux et IBM.

xlix
Chapitre 3
Une autre informatique apparaît (1975-1993)

La révolution micro-informatique. IBM se crée un monde concurrent. Spécialisation


et créativité. L’illusion du grand public. Deux mondes disjoints. Unix, standard ou
laboratoire ? Où va l’informatique ?

Les débuts de la micro-informatique (1975-1981)

Les premiers ordinateurs personnels apparaissent sur le marché en 1975, issus de


la convergence de développements dans trois domaines principaux :
–les circuits intégrés, apparus au milieu des années 60 et qui se sont constamment
perfectionnés avec l'arrivée des mémoires monolithiques et du microprocesseur au
début des années 70,
–les écrans d'entrée-sortie, qui existaient dès le début des années 60, mais dont le
coût a considérablement baissé alors que leurs possibilités s'enrichissaient,
–les disques amovibles, introduits dès 1962 mais qui ont connu une révolution avec
l'arrivée du « floppy disk » utilisé à partir de 1971 à l'intérieur de certains grands
ordinateurs.

Si ces bases technologiques sont le fait des grands constructeurs d'ordinateurs et


de composants, la naissance de la micro-informatique résulte d'une floraison
d'initiatives individuelles consistant à assembler un processeur, un écran, un clavier et
un disque pour constituer un système.

Alors que les tentatives antérieures de constructeurs traditionnels dans


l'informatique personnelle visaient les utilisateurs professionnels, les nouveaux offreurs
visent le marché des amateurs, au sens où il existe des amateurs de haute fidélité ou de
modélisme. Les tout premiers micro-ordinateurs sont d’ailleurs vendus en kit dans des
magazines pour amateurs d’électronique. C'est pourquoi le secteur naissant de la micro-
informatique adopte d'emblée une structure qui ressemble à celle de la haute fidélité :
des petits constructeurs indépendants spécialisés dans l'assemblage de matériels à partir
de composants du marché, et diffusant leurs produits par les canaux de la grande
distribution sans autre service que celui du distributeur. Des chaînes de distribution
spécialisées se créent, comme Computerland en 1976. De nouvelles entreprises entrent
dans la concurrence, comme Texas Instruments, Osborne ou Sinclair, offrant chacune
son système particulier. Des entreprises de logiciel voient le jour, comme Microsoft,
Digital Research, Software Arts ou Micropro, qui offrent les premiers traitements de
texte et les premiers tableurs prêts à l’emploi en 1979.

Dès cette période 1976-1981, Apple se positionne en leader de la micro-


informatique en offrant un système intégré original visant le grand public non

l
informaticien. Autour de ce système se développe une panoplie de logiciels d'un
nouveau type dont les meilleurs exemples sont le traitement de textes (Wordstar 1979)
et le tableur (Visicalc 1979). De plus, au lieu de se contenter de diffuser des matériels au
meilleur coût via des distributeurs, cette société, sous l'impulsion de ses fondateurs, se
pose en prophète et en église d'une nouvelle culture. Ainsi se crée autour d'Apple une
mystique de la micro-informatique « conviviale » opposée à la grande informatique
sclérosée, qui se teinte des accents d'une croisade contre le grand méchant IBM. Ce
discours va gagner progressivement le milieu des entreprises, même si le micro-
ordinateur lui-même n'y pénètre en réalité qu'à dose homéopathique.

Le PC, un monde enfin ouvert

IBM avait toujours cherché à être présente dans l'informatique personnelle, avec
le 610 puis le 1620 dans les années 50, le 1130 (premier ordinateur individuel utilisant
un système sur disque) en 1965, et même le premier portable en 1975 avec le 5100. Elle
est pourtant restée étrangère au nouveau phénomène micro jusqu'en 1981, bien que la
nouvelle religion y ait fait un nombre croissant d’adeptes dont la voix était de plus en
plus forte. Il est probable que l'identification générale de la micro-informatique avec le
marché du grand public a joué son rôle en détournant de ce secteur l'attention des
dirigeants d'IBM pendant plusieurs années, malgré la montée en puissance visible
d'Apple.

IBM finit par réagir, mais d'une manière tout à fait inhabituelle. Le Personal
Computer lancé par IBM en 1981 utilise un processeur Intel, des disques Tandon et un
système d'exploitation sous-traité à Microsoft. Comme les pionniers de la micro en
1975, IBM ne réalise que l'assemblage et la commercialisation en gros, la vente au
détail étant réalisée par des distributeurs indépendants. Mieux encore, le système
comprend un système de « bus » permettant l'adjonction de cartes d'extension fournies
par d'autres constructeurs. De même, le système d'exploitation retenu (MS-DOS) facilite
le développement et l'incorporation de logiciels par des tiers. Bref, le PC, contrairement
à toutes les autres machines d'IBM, est un système délibérément ouvert aux logiciels et
aux extensions d'autres fournisseurs. On explique généralement cette démarche
inhabituelle par l'urgence, mais il est probable que là encore la conviction qu'il s'agissait
d'un marché sans relation avec les marchés traditionnels de la Compagnie a joué son
rôle.

En quelque sorte, IBM prend la voie Tandy plutôt que la voie Apple, qui (peut-
être inconsciemment) aspire à être le fournisseur de micro-informatique, comme IBM
est le fournisseur de référence de grande informatique. Pour devenir l'anti-IBM, Apple a
suivi le modèle IBM, comme Digital Equipment quelques années plus tôt à l'occasion
du phénomène des minis. Pour s'opposer à Apple, IBM se pose au contraire comme
catalyseur d'une galaxie d'entreprises indépendantes, en comptant sur leur créativité et
leur dynamisme pour faire de son matériel le standard de fait.

Cette manœuvre était-elle simplement une solution provisoire destinée à occuper


le marché en attendant de reprendre la main avec de véritables produits « maison » ? Le
lancement du PS/2 et de l'OS/2 en 1988 tendraient à le faire penser, mais entre-temps
trop de systèmes et d'extensions compatibles avec le PC ont été commercialisés, trop de

li
logiciels ont été écrits pour qu'un retour en arrière soit possible. A supposer que
l'intention d'IBM ait été de faire revenir le marché à des systèmes « maison », il est clair
que ce retour ne s'est pas produit.

Un monde éclaté

Lorsqu'en 1977 Apple affiche l'ambition de prendre le leadership de la micro-


informatique naissante, c'est en respectant la structure de type concentré de
l'informatique traditionnelle. Encore aujourd'hui, la Société Apple fournit, directement
ou à travers sa filiale Claris, la quasi-totalité des éléments installés par les utilisateurs de
l'architecture Apple, et contrôle complètement l'évolution des matériels et des logiciels
de base, même si elle en sous-traite en partie la réalisation.

A l'inverse de l'action fédératrice d'Apple, les modalités choisies par IBM pour
entrer dans ce marché encouragent une structure éclatée où coexistent de nombreux
fournisseurs de matériel dont aucun n'exerce plus de leadership sur le secteur, où les
différentes unités de l'ordinateur sont produites par des constructeurs différents, où les
producteurs de matériel et ceux de logiciel forment deux secteurs distincts, et où seul le
distributeur est l'interlocuteur obligé du client.

Les fournisseurs choisis par IBM pour les composants et le système d'exploitation
acquièrent rapidement et durablement une situation de quasi-monopole. Intel fournit les
trois-quarts des processeurs utilisés dans des PC, le reste étant fourni par des
fournisseurs de « clones » parmi lesquels IBM. Symétriquement, le système
d'exploitation MS-DOS de Microsoft équipe la quasi-totalité des PC après avoir éliminé
ses prédécesseurs. Au contraire, de nombreuses sociétés se lancent sur le marché des
unités centrales, qu'elles construisent en assemblant un processeur, un écran et des
disques acquis auprès de firmes spécialisées, et qu'elles équipent du système MS-DOS
acquis chez Microsoft. Dès 1982, on estime à 60 le nombre de marques de compatibles
PC à base de processeurs Intel, et le volume total de leurs ventes dépasse déjà celles
d’Apple. A part IBM, aucune de ces firmes n'atteindra jamais une part de marché
supérieure à 15% et la plupart se contenteront de moins de 3%.

Ce nouveau marché de la microinformatique attire aussi bien les constructeurs


traditionnels que des entreprises d'équipement de bureau, ainsi que d'innombrables
nouveaux venus. Il devient rapidement le théâtre d'une concurrence féroce qui a pour
résultat une baisse spectaculaire et continue des prix. Dans le même temps, le progrès
technologique des composants, qu'il s'agisse des processeurs ou des disques, entraîne
une hausse continue et non moins spectaculaire des performances. Parallèlement, les
volumes de production élevés dont jouissent Intel et Microsoft (plusieurs dizaines de
millions de puces ou d'exemplaires de MS-DOS par an) permettent une baisse continue
des prix de ces composants fondamentaux.

Ces différents effets de la dynamique concurrentielle se conjuguent pour aboutir à


une extraordinaire variété de l'offre et à des prix sans aucun rapport avec ceux de
l'informatique traditionnelle. Le tableau suivant, inspiré de travaux du Meta Group,

lii
permet de comparer les coûts par Mips et par Mega-octet de mémoire centrale pour
15 16

les PC et les grands ordinateurs.

Evolution des coûts


$/Mips micros mainframes ratio
1990 700 100000 >140
1995 60 55000 >900

$/MByte micros mainframes ratio


1990 90 6000 >65
1995 6 1500 250

Ces écarts considérables, et qui de plus se creusent avec le temps, pourraient


donner l'impression d'univers différents faisant appel à des technologies radicalement
différentes. Or il n'en est rien. Ces écarts spectaculaires sont simplement dus aux
volumes de production pour les secteurs monopolistes comme les composants ou les
progiciels, à l'intensité de la concurrence pour les secteurs dispersés comme le matériel.
Il va sans dire que pour les acteurs de ces derniers secteurs où ne joue aucun effet de
monopole, le bas niveau de prix s'accompagne d'un train de vie modeste et de marges
faibles.

Par sa diffusion et ses prix modérés, le micro-ordinateur ouvre les vannes de la


créativité individuelle dans le domaine du logiciel et de toutes les formes d'extension
(cartes, unités connectables …). Alors que la grande informatique était par nécessité la
chasse gardée de grandes organisations, le développement d'un logiciel micro ou même
d'une carte d'extension ne demande, outre une bonne idée, que des investissements
faibles et modulables, facilement accessibles à un individu ou une petite équipe.
D'innombrables petites entreprises se lancent avec des produits très spécialisés, dont
beaucoup ne durent que peu de temps ou restent des acteurs modestes, tandis que
d'autres prospèrent dans leur créneau ou deviennent des acteurs dominants.

On assiste donc à une floraison d'extensions et de logiciels de toutes sortes,


réalisant en particulier toutes les idées touchant la convivialité qui avaient été négligées
par le milieu de l'informatique traditionnelle, mais que permet la structure des micro-
ordinateurs. Grâce à des solutions techniques souvent innovantes et séduisantes, les
micro-ordinateurs prennent dans ce domaine une sérieuse avance sur les systèmes
traditionnels. Le monde Apple conserve une avance due en grande partie à ses options
techniques un peu élitistes en faveur d'un processeur puissant et d'une grande mémoire.
Apple est également le premier à offrir dans ses matériels (Lisa en 1983 et surtout le
Macintosh en 1984) les concepts révolutionnaires inventés dans les années 60 et
développés au Palo Alto Research Center de Xerox, comme la souris, les fenêtres et les

15 Million d’instructions par seconde : unité de vitesse de traitement.


16 Million d’octets : unité de capacité mémoire.

liii
icônes. Il faudra attendre 1984 pour qu’apparaissent sur la famille PC des interfaces
graphiques vaguement comparables à celle qu’offre depuis longtemps Apple, et 1990
pour disposer sur PC avec Windows 3 d’un système graphique concurrentiel.

Toutes ces entreprises cherchent à toucher le marché le plus large possible, mais la
plupart n'ont pas les moyens de mettre en place leur propre réseau de vente et de
distribution. Quant aux grands constructeurs traditionnels, leur réseau commercial n'est
adapté ni à la clientèle des PC ni à la logistique requise pour de grandes quantités à
faible coût unitaire. C'est pourquoi se mettent en place des organismes de distribution
qui vont de la boutique au rayon d'un magasin grande surface généraliste en passant par
le réseau spécialisé en microinformatique. Les modalités de distribution deviennent
rapidement un argument de vente au même titre que les caractéristiques du matériel.

En revanche, la montée de la microinformatique est sans grand effet sur le secteur


des services informatiques. Les sociétés existantes se contentent d'acquérir la
compétence nécessaire pour incorporer éventuellement des micro-ordinateurs dans les
systèmes qu'elles développent pour leurs clients. Les besoins de services spécifiques
aux micro-ordinateurs sont pris en charge principalement par les distributeurs
spécialisés (dont certains se trouvent être des filiales de Sociétés de Service).

L'industrie de la micro-informatique apparaît ainsi comme la juxtaposition de


secteurs spécialisés et complémentaires :
–les composants,
–les matériels,
–les systèmes d'exploitation,
–les progiciels applicatifs,
–la distribution.

Contrairement à la structure de l'informatique traditionnelle, chaque acteur se


spécialise dans une seule de ces activités, et très rares sont les firmes qui opèrent dans
plusieurs secteurs. Les exceptions les plus frappantes sont Microsoft qui est présent
dans les deux domaines de progiciels, et IBM qui est présent dans l'ensemble des
secteurs dont les composants, et persiste à tenter de revenir à une structure traditionnelle
avec le complexe PS/2 et OS/2, ou encore les constructeurs de matériel qui choisissent
d'être leurs propres distributeurs, à l'instar de Dell.

Le monde des PC se distingue également du monde traditionnel par la nature du


leadership qui s'y exerce. Dans le monde traditionnel, le leader incontesté est un

liv
fournisseur de matériel, en l'occurrence IBM. Dans le monde du PC, alors que des
dizaines de firmes se partagent le marché des matériels sans qu'aucune n’y atteigne une
part de marché de 20%, Intel et Microsoft sont en position de monopole dans leur
secteur et dominent le « monde du PC » dans la mesure où ce sont leurs produits qui
donnent son unité au secteur, et leurs décisions qui en déterminent l'évolution globale.

Au total, la montée de la micro-informatique se traduit par une structure


industrielle radicalement différente de celle qui prévaut pour l'informatique
traditionnelle. La séparation entre la fabrication et la distribution est de règle, la plupart
des fabricants écoulant leurs produits à travers plusieurs canaux et la plupart des
distributeurs commercialisant les produits de plusieurs fabricants différents. Les
entreprises ne produisant que des logiciels sont nombreuses. Parmi les fabricants de
matériel, la plupart ne produisent qu'un type d'unité spécifique comme les disques, les
imprimantes, les unités centrales, voire des cartes d'extension ou des unités particulières
comme des scanners ou des modems. On a pu caractériser l'informatique contemporaine
comme une « informatique éclatée » (titre d'un livre de J.M. Desaintquentin et B
Sauteur ) ; ce qualificatif s'applique aussi bien à la structure même de l'industrie.
17

Comme cela avait été en partie vrai pour le 360, IBM a créé avec le PC une
industrie qu'elle ne contrôle pas et où elle occupe une place minoritaire. Certes
l'ensemble des compatibles PC et PS/2 représentent en 1992 près de 90% du marché
contre 10% pour Apple et 2% pour les autres architectures (Commodore, Atari), mais
dans ces 90% IBM est minoritaire (bien que premier) avec environ 15% des ventes
totales, alors qu'elle en représentait 32% en 1986. Dans l'intervalle, les fournisseurs de
compatibles ont exploité les progrès de la technologie pour diminuer les prix de marché
de façon continuelle et spectaculaire, au prix de leur survie pour certains.

Des marchés disjoints

Au moment où s'ouvrent les années 80, la micro-informatique est encore pour


l'essentiel une affaire de grand public. Seul Apple et sa cohorte d'adeptes de la vraie foi
commencent à prophétiser que la micro-informatique détrônera un jour la grande
informatique dans les entreprises. Dans la pratique, les deux secteurs et les deux
marchés ne communiquent pas : les fournisseurs de micro et les fournisseurs de grande
informatique sont des entreprises distinctes appartenant à deux mondes différents, tandis
que les clients de micro sont des particuliers et que les clients de la grande informatique
sont les entreprises. Cette idée que la micro-informatique s'adresse à un marché séparé a
survécu longtemps puisque même IBM a cru nécessaire de mettre sur le marché un PC
Junior en 1983, avant de le retirer faute de ventes en 1985.

Il est permis de penser que ce mirage du grand public, s'il a coûté beaucoup
d'argent à pas mal d'entreprises plus ou moins éphémères, a néanmoins joué un rôle
positif. Que se serait-il passé si les promoteurs de la microinformatique – les Steve Jobs,
les Bill Gates – avaient pensé qu'ils entreraient un jour en compétition directe avec les
grands comme IBM qui dominaient l'informatique de l'époque ? La conviction d'opérer
dans un marché nouveau disjoint du marché de la grande informatique leur a
probablement donné l'audace nécessaire. Parallèlement, la même conviction que la

17 Masson - 1991

lv
microinformatique s'adresse au grand public et non aux entreprises en tient écartés les
constructeurs traditionnels, qui pourtant possédaient les technologies nécessaires et
avaient déjà lancé des ordinateurs personnels destinés à l'usage professionnel. Le
démarrage réussi de la microinformatique résulte en partie d'une même erreur
d'appréciation de son potentiel par les pionniers qui l'ont promue et par les grands
constructeurs qui l'ont négligée.

L'entrée d'IBM dans le marché des ordinateurs personnels change radicalement


l'image du micro-ordinateur en lui conférant en quelque sorte une caution de sérieux, et
élargit considérablement son marché en lui ouvrant les entreprises. Mais la diffusion des
micro-ordinateurs y concerne principalement des formes d'utilisation et des populations
d'utilisateurs que l'informatique traditionnelle n'avait pas ou peu abordées, comme le
traitement de texte dans les secrétariats ou l'aide à la décision individuelle des cadres.

Que ce soit dans les entreprises ou dans le grand public, la micro-informatique a


jusqu'ici essentiellement permis de satisfaire des besoins d'informatique personnelle qui
n'étaient pas satisfaits par les systèmes centraux. Quand arrive la micro-informatique,
les besoins centraux des entreprises sont largement satisfaits, et l’informatique s’apprête
à aborder les besoins individuels avec les technologies de temps partagé. C’est ce
dernier domaine que la micro-informatique à conquis avant que les grands ordinateurs
aient pu s’y implanter. La diffusion des traitements de texte et des tableurs n'a pas retiré
aux systèmes centraux une charge de travail existante, elle a permis de satisfaire
autrement une demande latente non encore satisfaite. Au passage, elle a rendu obsolète
le concept de « distribution de puissance informatique » et a porté le coup de grâce à ce
marché où opéraient encore de nombreuses sociétés de services.

Le remplacement des grands systèmes par des micro-ordinateurs est encore resté
marginal par rapport au nombre total de grands systèmes installés. Faire migrer des
applications existantes vers des micro-ordinateurs suppose que ceux-ci puissent être
assemblés en complexes équivalents aux grands systèmes en fonctions et en puissance.
Cela exige aussi un investissement considérable en redéfinition et redéveloppement
d'applications, que le gain potentiel de coût d'exploitation n'a que rarement justifié aux
yeux des utilisateurs de grands systèmes. De plus, une telle opération implique un risque
que peu de Directions informatiques ont estimé raisonnable de courir.

Mais l'avantage des micros continue à s'accentuer avec les années et accroît la
pression concurrentielle pour faire profiter toute l'informatique des coûts que permet la
diffusion à très grande échelle. Il faut pour cela trouver des moyens simples et

lvi
performants de répartir les applications entre systèmes interconnectés, ou de construire
des grands systèmes avec les mêmes composants que les PC. Tel est l'enjeu réel des
développements en cours dans le domaine des architectures client-serveur, des systèmes
distribués et des multiprocesseurs.

Or la dynamique innovatrice du secteur des micros engendre des solutions de plus


en plus satisfaisantes à ces problèmes techniques qui ont jusqu'ici limité l'expansion des
micros vers le haut. En particulier, un troisième « monde » dont nous n'avons pas encore
parlé, le mouvement Unix, joue un rôle clé dans ce processus d'innovation malgré sa
relativement faible importance en termes de volumes.

Le monde Unix

Au début des années 80, alors que le raz de marée des PC commence tout juste à
déferler, quelques firmes au premier rang desquelles Sun Microsystems, cherchent à
pénétrer sur le marché sans devoir consentir l'investissement considérable que
représente l'écriture et la maintenance d'un système d'exploitation. Or un système appelé
Unix jouit d'une grande popularité dans les milieux scientifiques que visent justement
ces nouveaux fournisseurs.

Le système d'exploitation Unix est une adaptation sur petits ordinateurs du


système Multics de General Electric, développée en 1969 sur l'initiative des
18

Laboratoires Bell. Pendant longtemps, son utilisation a été confinée à certaines


universités américaines (en particulier celle de Berkeley) où il a constitué un terrain
d'études et d'expérimentation pour l'enseignement et la recherche informatiques, et où
sont nées de nombreuses extensions et versions concurrentes. Le souci d'échanger
facilement ces développements a toujours été très présent dans ce milieu, conduisant en
particulier à la réécriture du système dans un langage de haut niveau (le langage C) en
1973.

Au début des années 80, Unix se présente comme un système disponible, non
protégé par un constructeur, conçu pour permettre une évolution facile, et bénéficiant de
la dynamique d'innovation des centres de recherche les plus actifs. Son existence permet
aux constructeurs qui l'adoptent de se reposer sur une source indépendante de logiciel de
base pour concentrer leurs efforts et leurs investissements sur le matériel. Par la suite,
presque tous les constructeurs inscriront à leur catalogue des systèmes Unix à côté de
leurs systèmes propres, mais en les faisant bénéficier d'efforts de promotion très

18 Multics, développé en 1960, était un système de « time-sharing » permettant à de nombreux


utilisateurs indépendants d'exploiter simultanément un grand ordinateur de façon interactive à travers une
interface relativement conviviale pour l'époque.

lvii
variables selon qu’ils entrent plus ou moins en concurrence avec leurs matériels
traditionnels.

Contrairement au lancement du PC, le démarrage industriel d'Unix ne


s'accompagne d'aucun changement majeur de la structure de l'industrie, En particulier, il
n'y a pas constitution d'un secteur autonome pour les composants. Les nouveaux venus
comme Sun développent leurs microprocesseurs spécifiques tandis que les constructeurs
traditionnels (Hewlett-Packard, IBM, Digital Equipment) utilisent dans leurs systèmes
Unix leurs microprocesseurs existants avant de développer à leur tour des
microprocesseurs spécifiques à Unix.

Assez rapidement, le développement des processeurs destinés à supporter Unix


s'oriente vers l'utilisation des concepts Risc (Reduced Instruction Set Computer ). Mais 19

à l'origine, chaque constructeur de matériel Unix considère la possession d'un


processeur original comme faisant partie de ses avantages concurrentiels et s'en réserve
l'utilisation. Ce n'est que récemment que la logique monopoliste de l'industrie des
composants a commencé à agir avec la constitution de groupements ou de consortiums
au sein desquels les principaux fabricants de composants Risc tentent de regrouper
d'autres constructeurs de matériels afin d'augmenter leur échelle de production, quitte à
perdre l'exclusivité de leurs composants. Néanmoins, en 1993, la diffusion de chacun de
ces microprocesseurs ne dépasse pas les quelques centaines de milliers d'exemplaires
(500000 pour le Sparc de Sun, 200000 pour Mips de Silicon Graphics ou Precision
Architecture de Hewlett-Packard), ce qui est infime par rapport à la diffusion des
processeurs Intel et très en dessous de l'échelle optimale de production . 20

Dans le domaine du système d'exploitation, l'espoir qu'avaient nourri certains


constructeurs de faire l'économie de son développement sera vite déçu. En 1983, ATT,
propriétaire de droit d'Unix qui jusque là en avait permis une diffusion libérale, réagit à
la vogue commerciale soudaine du système en demandant des redevances importantes.
La raison même du choix d'Unix, sa disponibilité peu onéreuse sous forme source, est
ainsi battue en brèche après coup. De plus, la qualité industrielle inégale des réalisations
issues des laboratoires universitaires contraint les constructeurs à des réécritures ou des
développements complémentaires, ce qui avive encore les habituelles querelles d'école
entre partisans des différentes versions d'Unix.

Chaque constructeur s'oriente donc vers le développement d'un système propre


constitué d'un assemblage d'éléments standard et d'éléments originaux, tout en restant
fidèle au rêve d'un système d'exploitation universel et en participant à des efforts
permanents de standardisation à travers des organismes neutres tels que XOpen, ou des
alliances comme OSF et plus récemment COSE . Il faut bien voir que l'intensité de
21 22

l'effort de normalisation est la contrepartie directe, ou l'envers de la médaille, du

19 Architecture de processeur favorisant la simplicité et donc la vitesse d’exécution grâce à un


répertoire d’instructions restreint et homogène, les opérations complexes étant réalisées par combinaison
de ces instructions simples.
20 voir chapitres suivants
21 Open Systems Foundation
22 Common Operating System Environment

lviii
foisonnement des solutions alternatives et des querelles qui résultent de ce
foisonnement. Si rien de ce genre n'existe dans le monde du PC, c'est simplement parce
que toute l'industrie s'est rangée très tôt, à tort ou à raison, derrière MS-DOS.

Au total, la structure actuelle du monde Unix (et Risc) est plus proche de la
structure traditionnelle que de celle du monde PC. Comme dans le monde traditionnel,
la concurrence se joue principalement entre des acteurs qui offrent chacun une solution
informatique complète constituée par sa propre combinaison d'un matériel utilisant un
processeur spécifique et d'un système d'exploitation propre bien que dérivé d'Unix. La
structure du monde Unix ne se distingue de la structure classique que par la
multiplication des alliances visant à partager les éléments coûteux en investissements
comme les composants ou les modules de système d'exploitation, et par l'activité de
normalisation intensive. Le phénomène des alliances et le mouvement de normalisation
des systèmes sont le plus souvent présentés comme touchant l'ensemble de
l'informatique, alors qu'ils se limitent largement au monde Unix et ne portent au sens
strict que sur le dixième du marché.

La diffusion d'Unix est plus rapide que la croissance d'ensemble de l'informatique,


mais reste modeste aussi bien en nombre par rapport aux micros qu'en valeur par
rapport à l'ensemble. On estime le nombre de systèmes Unix installés en 1992, toutes
versions confondues, à environ 2.5 millions contre plus de 130 millions de micro-
ordinateurs (MS-DOS et Apple), et la part de marché d'Unix dans le marché total à
environ 13% en valeur. Mais l'importance stratégique potentielle d'Unix est bien
supérieure à sa place quantitative. C'est du monde Unix que sont en train d'émerger les
éléments pratiques de résolution des problèmes liés au remplacement des grands
systèmes par des complexes de systèmes ou de microprocesseurs issus des micros, et
surtout de niveau de prix comparable.

Contrairement à une opinion répandue, le monde Unix est tout le contraire d'un
monde standardisé. C'est au contraire dans le monde Unix que la concurrence spécifique
aux systèmes d'exploitation est la plus intense, puisque dans le monde traditionnel elle
est partiellement éclipsée par la concurrence sur les matériels et qu'elle n'existe plus
dans le monde PC depuis l'adoption généralisée de MS-DOS et maintenant de Windows.
C'est justement parce que le besoin de standards y est criant et qu'aucun offreur ne
domine le marché que le monde Unix consacre tant d'efforts à la standardisation.

Mais à l'inverse, grâce à ces efforts, c'est du monde Unix que sortent les standards
de toute l'industrie. L'innovation étant l'autre face de la concurrence, le monde Unix est
le foyer d'innovation privilégié pour tous les domaines liés aux systèmes d'exploitation,
entre autres la structure des systèmes, le multiprocessing, les systèmes distribués, la
disponibilité et la sécurité, etc. De plus, le niveau de puissance de la plupart des
systèmes Unix est comparable à celui des « minis » traditionnels, et les offreurs d'Unix
ont une motivation concurrentielle immédiate pour doter Unix de toutes les fonctions
des mini-ordinateurs, elles-mêmes dérivées des grands systèmes, ainsi que pour attaquer
le marché des grands systèmes via le développement de multiprocesseurs. La
dynamique propre du monde Unix et sa position à la charnière de l'informatique

lix
traditionnelle et de la microinformatique en font la matrice des bouleversements encore
à venir .23

Le panorama en 1993

L'histoire de l'industrie informatique, ainsi que le jeu combiné de la dynamique


concurrentielle et du progrès technologique, ont conduit à une structure industrielle
relativement complexe où coexistent trois mondes industriels ayant chacun sa logique
propre :
–un monde traditionnel hérité des années 60, encore fortement concentré malgré une
fissuration progressive,
–le monde du PC né en 1981, dont la structure majoritairement fragmentée a conduit
à de nouvelles normes de prix et d'accessibilité de l'informatique,
–le monde Unix, passé du stade universitaire au stade commercial vers 1983, creuset
où s'élaborent les techniques informatiques de demain.

Selon leur appartenance à ces trois mondes, les acteurs industriels sont plus ou
moins spécialisés et forment des secteurs plus ou moins identifiables. Les acteurs du
monde traditionnel et ceux du monde Unix offrent en général une palette de prestations
incluant le matériel, les logiciels de base et les services, alors que la spécialisation par
nature de prestations est la règle du monde PC. Dans le monde traditionnel et le monde
Unix, la concurrence entre les acteurs porte sur la totalité de ce panier de prestations y
compris les composants, et donc chaque acteur développe et produit ses propres
processeurs et ses propres systèmes d'exploitation, même si dans ce dernier domaine le
monde Unix se réclame d'un même système standard. Le monde PC a adopté une
architecture de processeur unique et un système d'exploitation unique, et la concurrence
entre acteurs d'un même secteur se concentre sur les produits spécifiques de ce secteur.
Enfin, chacun des acteurs de ces trois mondes peut viser un marché plus ou moins
vaste : la totalité du marché informatique pour les constructeurs les plus traditionnels
dont IBM est l'exemple, des niches plus ou moins étroites pour les offreurs plus récents.

Ces trois mondes sont encore plutôt juxtaposés que concurrents, quoi qu'en aient
dit les chantres du « petit chaudron » et même si quelques acteurs sont présents à la fois
dans deux ou trois. En 1992, on peut estimer que l'informatique traditionnelle
représentait encore 45% des ventes, la microinformatique 41% et le monde Unix 13%.
Ni le monde PC ni le monde Unix n'offrent encore aux grands systèmes d'alternative
techniquement viable et suffisamment crédible pour vaincre l'inertie des organisations
utilisatrices, justifiée par les enjeux et les coûts de conversion. Le concept client-serveur
n'est pas encore considéré comme mature par la majorité des utilisateurs. Dans le monde
Unix, la floraison des solutions alternatives et les incompatibilités qui en résultent
(malgré les efforts de normalisation) ont pour conséquence une complexité des choix
qui rebute encore le gros du marché, hormis quelques niches comme celle de stations
graphiques pour lesquelles ces difficultés ont été localement résolues. Il n'y a pas eu
mouvement d'ensemble de l'industrie vers une structure nouvelle, mais juxtaposition de
trois mondes différents.
23 voir Chapitre 12

lx
Néanmoins, ces trois mondes s'influencent mutuellement. La chute des prix des
micros tire vers le bas les prix des stations Unix, qui par continuité tirent vers le bas le
prix des systèmes traditionnels. La montée en régime des micros et des stations a
fortement ralenti la progression des grands systèmes et fait régresser le marché des
mini-ordinateurs qui avaient été les vedettes des années 70/80.

Mais, en même temps que la baisse des prix se poursuit dans les micros et aggrave
encore la différence avec les prix de l'informatique traditionnelle, les performances et la
richesse fonctionnelle des petits systèmes se rapprochent de celles de systèmes
traditionnels, en particulier grâce aux développements liés à Unix. Les tensions
concurrentielles s'exaspèrent, et les mondes où règne la concurrence interne la plus
dynamique acquièrent de plus en plus d'avantages concurrentiels, précisément dans les
domaines où la concurrence est la plus vive : les prix pour les micros, les systèmes
d'exploitation pour le monde Unix.

La situation actuelle est instable. Il paraît probable que la fin du siècle verra la
fusion des trois mondes en une structure unique où régnera la logique sectorielle et
concurrentielle du monde PC, et qui offrira des solutions techniques combinant le
meilleur d'Unix, du monde PC et du monde traditionnel. Quelle sera la structure de ce
nouveau monde ? Quelles formes d’intégration ou de spécialisation y seront dominantes
parmi les quatre dimensions de spécialisation possibles : par type de matériel, par
marché, par nature de prestation ou par stade de production ?

Dans le même temps où se produit cette évolution, l’informatique envahit tous les
secteurs d’activité. Des produits courants comme les voitures automobiles, les appareils
ménagers, l’audiovisuel ou les jeux contiennent de plus en plus d’« intelligence ». Le
destin de l’informatique est-il de devenir invisible en s’intégrant complètement dans les
produits spécialisés par fonction ? Et dans le même mouvement, l’industrie
informatique est-elle destinée à se fondre dans les autres industries et à disparaître en
tant que telle ? L’ensemble de ces questions sera reprise dans la quatrième partie après
que nous aurons analysé secteur par secteur les mécanismes profonds qui président à la
structuration de l’industrie.

lxi
Chapitre 4
La structure de l'industrie

A la recherche d’une structure. Généralistes et spécialistes. Produits principaux et


produits annexes. Les secteurs correspondent-ils aux marchés ? Structure de dépenses
et modèles d’entreprises.

L’objet du présent chapitre est d’analyser quelques chiffres concernant les firmes qui
composent l’industrie informatique, afin d’en établir une typologie et de tenter d’y
discerner les signes d’une structure et de comportements types.
Dans leur ensemble, les statistiques qui sont régulièrement publiées concernant
l’industrie informatique ne s’attachent pas à définir de façon précise une typologie des
firmes. La plupart d’entre elles postulent une décomposition traditionnelle du marché en
grands segments comme les grands systèmes, les moyens systèmes, les PC, les stations
de travail, les matériels périphériques, les logiciels et les services. Mais à cette
segmentation du marché ne correspond pas nécessairement une spécialisation des
firmes. Dans la réalité, la majorité des firmes opèrent dans plusieurs de ces segments.
Par exemple, presque toutes les firmes de grands et moyens systèmes fournissent
également des logiciels et des services. A l'inverse, beaucoup de commentateurs
regroupent dans un même secteur les progiciels et les services, ce qui n'aurait de sens
que si la majorité des firmes présentes dans l'un était aussi présente dans l'autre.
Certains analystes rangent un peu hâtivement les acteurs de l’industrie informatique
dans des secteurs parallèles aux secteurs de marché ci-dessus, en affectant plus ou
moins arbitrairement à chacun un segment de marché dominant. Cette approche
simplificatrice ignore la composition réelle des offres des différents intervenants et la
fréquence relative des diverses combinaisons. Pour obtenir une image plus exacte de
l’industrie informatique, nous devons analyser le contenu de l’offre de chaque entreprise
pour identifier des groupes de firmes offrant des paniers de prestations similaires. Si de
plus il s’avère que les firmes qui composent chacun de ces groupes présentent d’autres
points communs, nous pourrons penser que la structure ainsi définie est significative.
Rares sont les sources qui fournissent une analyse raisonnablement fiable de la
composition du chiffre d’affaires d’un nombre suffisant d’entreprises. Nous utiliserons
un classement (publié chaque année par la revue Datamation), où le chiffre d'affaires
des 100 premières Sociétés d'informatique américaines est ventilé selon dix rubriques
qui désignent autant de natures de produits, donc de segments de marché : grands
systèmes (large), moyens systèmes (mid), PC, stations de travail, périphériques de
communication (com), autres périphériques (péri), logiciels (soft), maintenance, autres
services (serv) et autres prestations (other).
Comme toutes les statistiques, celles-ci sont évidemment imparfaites. Premièrement,
elles ne sont malheureusement disponibles que pour les fournisseurs américains. Nous
avons néanmoins complété cet échantillon de 100 sociétés américaines par 10 grandes
entreprises japonaises et européennes pour lesquelles les données se trouvaient
disponibles (Fujitsu, Hitachi, NEC, NTT, British Telecom, CAP Gemini, Canon,

lxii
Nomura, Finsiel et Racal)[1]. Notre échantillon totalise ainsi un chiffre d’affaires
informatique de près de 272 milliards de $, soit 80% d’un marché mondial que d’autres
statistiques, comme celles de McKinsey que nous utiliserons par la suite [2], évaluent à
338 milliards pour la même année. Il manque essentiellement quelques grandes firmes
européennes comme Siemens, Olivetti, Bull et ICL, ou japonaises comme Toshiba,
Matsushita ou Mitsubishi, ainsi que de nombreuses sociétés de services très actives en
Europe. Nous examinerons par la suite dans quelle mesure ces omissions pourraient
modifier nos conclusions relatives à la structure du secteur.
Remarquons au passage qu’il est inexact de considérer que le chiffre d’affaires total
de l’industrie informatique est égal à la somme des chiffres d’affaires des firmes
mentionnées. En effet, les fabricants de périphériques et les sociétés de progiciels
vendent une part importante de leur production aux constructeurs de matériel qui
refacturent ces prestations à leurs propres clients.
Deuxièmement, les activités de fabrication de composants d’une part, de distribution
d’autre part, ne sont pas reconnues comme partie intégrante de l’industrie informatique.
Les entreprises spécialisées dans ces domaines ne figurent pas dans le classement. Si
Intel et Motorola sont mentionnées, c’est uniquement pour leurs activités secondaires
dans les grands systèmes et les cartes d’extension pour le premier, les systèmes moyens
et les périphériques de communication pour le second.
Enfin, les chiffres fournis ne sont certainement pas rigoureux. Ils reposent
essentiellement sur les déclarations des entreprises, qui se réfèrent à des définitions
implicites des produits probablement différentes de l'un à l'autre. Par exemple, le fait
que certains constructeurs de matériel ne déclarent aucun revenu de maintenance peut
impliquer qu’ils facturent cette activité avec le matériel et non qu’ils en soient absents.
Nous nous garderons donc d’interpréter ces chiffres comme autre chose que des ordres
de grandeur. Compte tenu du caractère général de nos conclusions, nous considérerons
néanmoins que l'image de l'industrie qu’ils permettent de dessiner est probablement un
reflet assez fidèle de la situation mondiale.

Typologie des acteurs


Sur les 110 firmes de notre échantillon, 76 soit 70% du nombre total ne sont
présentes que dans 1 ou 2 segments. A l'opposé 11 firmes sont présentes dans 7
segments ou plus et occupent près de 60% du marché total alors que les 76 spécialistes
se contentent de 29%. Entre les deux, 23 firmes sont présentes dans 3 à 6 segments,
pour une part de marché totale de 12% (voir tableau ci-dessous). Donc, bien que les
firmes spécialisées soient largement majoritaires en nombre, plus de la moitié du chiffre
d’affaires de l’industrie est réalisé par un petit nombre de généralistes.

Firmes par nombre de secteurs couverts

nb segments 9 8 7 6 5 4 3 2 1
firmes 3 4 4 4 1 6 12 37 39
part marché 34% 21% 4% 2% 0% 3% 7% 14% 15%

lxiii
Les généralistes
Les 11 principaux généralistes sont les offreurs historiques, tous issus de l’activité
de constructeur de matériel : IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard,
Hitachi, NCR/ATT, Unisys, Wang, Data General et Texas Instruments.
La part du matériel dans leur chiffre d’affaires va de 39% pour Unisys à 83% pour
Hitachi, mais en ajoutant la maintenance à l’activité matériel, on obtient un total qui va
de 60% pour Unisys et 64% pour IBM à 89% pour Wang et Data General, et 91% pour
Hitachi. L’histoire de ces firmes généralistes autorise à considérer comme significatif le
total du matériel et de la maintenance, puisque toutes ces firmes ne maintiennent que
leur propre matériel et qu’aucune n’offre de prestations de tierce maintenance.
La part de la maintenance chez ces généralistes varie d’ailleurs considérablement :
de 0 pour Fujitsu et Texas Instruments à 31% pour Digital Equipment et Data General et
42% pour Wang. On peut avancer deux explications possibles à ces variations : d’une
part les techniques de maintenance et la politique de facturation utilisées par chaque
firme peuvent aboutir à des proportions différentes entre le CA maintenance et le CA
matériel correspondant ; d’autre part certaines firmes dont les ventes de matériel ont
connu une récession marquée peuvent avoir encore un parc installé important dont la
maintenance engendre un chiffre d’affaires hors de proportion avec les ventes courantes
de matériel ; c’est probablement le cas de Wang et de Data General.
Ces 11 généralistes restent donc dominés par leur activité d’origine de constructeur
de matériels. Parmi les autres firmes, présentes sur moins de 7 segments, deux
présentent cette même caractéristique sans être clairement spécialisées dans un segment
de matériel particulier : ce sont Control Data et Wyse, que nous regrouperons avec les
généralistes

Généralistes
Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
IBM 12.7 8.9 11.9 2.9 17.6 12.3 3.4 11.8 10.0 8.5
Fujitsu 22.0 12.0 13.0 7.5 17.5 15.5 3.0 0.0 9.5 0.0
NEC 20.0 12.9 25.9 1.0 11.9 13.0 0.0 5.5 9.7 0.0
Digital Equipment 0.3 17.6 3.2 7.9 5.6 21.2 1.8 31.2 11.1 0.0
Hewlett-Packard 0.6 10.5 5.7 12.1 3.3 36.2 5.0 2.2 4.7 19.8
Hitachi 35.6 3.7 7.9 2.0 8.6 30.0 4.0 8.3 0.0 0.0
ATT/NCR 1.4 4.9 9.6 0.0 2.7 21.8 31.7 16.4 11.5 0.0
UNISYS 0.3 0.0 0.1 0.1 0.1 0.0 0.0 0.2 0.2 0.1
Wang 0.0 0.2 0.1 0.0 0.0 0.1 0.0 0.4 0.1 0.0
Data General 0.0 0.3 0.1 0.1 0.0 0.1 0.0 0.3 0.1 0.0
Texas Instruments 0.2 0.1 0.2 0.0 0.0 0.2 0.0 0.0 0.2 0.1
Control Data 0.2 0.0 0.0 0.3 0.2 0.0 0.0 0.3 0.1 0.0
Wyse 0.0 0.0 0.2 0.2 0.0 0.6 0.0 0.0 0.0 0.0

Au total, les 13 firmes qui figurent dans le tableau ci-dessus peuvent être
considérées comme des généralistes. Ces 13 firmes représentent 59% du chiffre
d’affaires total de l’échantillon de 110 firmes. Au niveau mondial, il faudrait y ajouter
Siemens-Nixdorf, Toshiba, Olivetti, Bull, ICL et Mitsubishi, respectivement numéros 8,

lxiv
10, 12, 13, 17 et 26 par ordre de chiffre d'affaires, ce qui augmenterait encore la part des
généralistes dans le marché global.
Pour la plupart de ces généralistes, les activités de progiciels et de services sont des
prestations annexes qui ne sont fournies qu’en relation avec leur activité principale de
vente de matériel et ne représentent pas plus de 20% de leur chiffre d’affaires. Apprécier
le caractère « annexe » d’une prestation comporte une part de subjectivité. Par exemple,
des firmes considérées comme spécialisées en matériel comme NCR, Unisys ou Control
Data réalisent entre 11% et 17% de leur CA en services hors maintenance. Le cas de
Control Data est particulièrement intéressant, dans la mesure où cette Société a filialisé
une part de son activité de services dans la société Ceridian, mais en conserve
néanmoins une part supérieure à 12% de son propre chiffre d’affaires.
On peut donc penser qu’une proportion de 12 à 15% de services représente le niveau
normal de l’assistance annexe aux matériels et qu’une proportion inférieure ne permet
pas de considérer la firme correspondante comme réellement mixte. Or, dans le cas
d’IBM les services hors maintenance ne représentent que 10% du chiffre d’affaires, soit
moins que pour les cinq firmes précitées. Mais bien que ce chiffre caractérise une
activité de services purement annexe, et plutôt moins importante relativement au
matériel que celle des autres constructeurs, la taille d’IBM lui donne la première place
sur le marché des services et conduit souvent à la considérer comme une société de
services au même titre que les firmes spécialisées.

Les firmes spécialisées


Bien qu’en partie subjective, cette distinction entre prestations principales et
prestations annexes vaut pour toutes les entreprises. La simple présence d’un acteur sur
un segment ne signifie pas nécessairement qu’il y est un acteur important, ni que la
production correspondante représente une part importante de son activité. Par exemple,
le chiffre d’affaires de Microsoft, que tout le monde s’accorde à ranger parmi les
spécialistes du progiciel, comprend 8% de services et 1% de matériel à coté des 91% de
progiciel. De même, Lexmark est indiscutablement spécialisée dans les périphériques
(précisément les imprimantes) qui représentent 98% de son chiffre d’affaires, les 2%
qu’elle réalise en PC étant anecdotiques.
Sauf à accepter de ranger parmi les généralistes Microsoft, Lexmark et de
nombreuses autres sociétés, nous devons donc considérer comme spécialisées des
firmes qui offrent une prestation principale accompagnée de prestations annexes à la
prestation principale. Pour les firmes offrant principalement des produits (matériels ou
progiciels), les prestations annexes pourront être des services de maintenance ou
d’assistance à l’utilisation de ces produits, voire des progiciels liés à ces produits ou des
matériels périphériques acquis auprès de tiers et revendus comme partie intégrante d’un
système complet. Symétriquement, des sociétés de services peuvent intégrer à leur offre
des matériels qu’elles achètent pour les revendre, ce qui est une situation courante pour
celles qui pratiquent l’intégration de systèmes.
En tenant compte de ces remarques, on peut classer parmi les spécialistes non
seulement les 39 firmes présentes sur un seul segment, mais également 45 de celles qui
sont présentes sur 2, 3 ou 4 segments. Nous aboutissons ainsi à un total de 84 firmes
spécialisées qui se répartissent comme suit, et dont la liste détaillée pour chaque

lxv
spécialité, avec le pourcentage de leur chiffre d’affaires réalisé dans chacun des
segments, est donnée en annexe A (tableaux A-II à A-XII) :

Nombre de spécialistes par segment

lge mid PC stat soft péri com maint serv other


1 segment 0 1 4 0 8 7 4 0 14 1
>1 segment 3 2 5 3 7 8 3 1 12 1
total 3 3 9 3 15 15 7 1 26 2

La plupart de ces affectations sont évidentes, mais certains cas demandent une
explication complémentaire. Dans les catégories de spécialistes en systèmes centraux
coexistent deux types de firmes : celles qui ne commercialisent que les unités de
traitement en laissant leurs clients s’adresser à d’autres fournisseurs pour les
périphériques et les services (comme Convex, Stratus et la plupart des constructeurs de
PC), et celles qui offrent des systèmes plus complets entraînant des chiffres d’affaires
non négligeables dans ces segments annexes. Sont dans ce dernier cas Amdahl pour les
grands systèmes, Tandem pour les moyens, Apple ou CompuAdd pour les micros. On a
également admis qu’un chiffre d’affaires important dans la maintenance ou les services
n’est pas nécessairement révélateur d’une activité réellement mixte, c’est à dire où les
services seraient commercialisés indépendamment des matériels.
Notons enfin que Motorola et Intel n’apparaissent dans les statistiques de
Datamation que pour leurs activités de fournisseurs de systèmes moyens et les
périphériques de communication pour le premier, de grands systèmes et de cartes
d’extension pour le second. Bien que primordial dans le domaine de l’informatique, leur
rôle principal de fabricant de composants n’est pas pris en compte dans ce classement et
la présence de ces deux firmes parmi les spécialistes respectivement des
communications et des périphériques ne doit pas faire illusion, surtout dans le cas
d’Intel.

Les firmes mixtes


En dehors des 13 « généralistes », il reste 13 firmes plus ou moins réellement
mixtes, qui se répartissent comme suit (voir en annexe tableau A-XII) :
– 1 (Prime Computervision) est une Société de matériel qui offre maintenance,
logiciel et services associés, et aurait pu être rangée parmi les spécialistes des
stations de travail, si ce n’est que son activité importante de maintenance concerne
des matériels distincts hérités du rachat de Prime ;
– 1 (Ask) offre principalement du logiciel, complété par du matériel et des
services ;
– 3 (Dun and Bradstreet, Reynolds & Reynolds, National Computer Systems)
complètent par du matériel et du logiciel une offre centrée sur le service et la
maintenance ;
– 4 (Lockheed, NTT, Datapoint, British Telecom) offrent de façon à peu près
équilibrée du matériel et des services ;

lxvi
– 3 (Finsiel, Sterling Software, Nynex) offrent de façon à peu près équilibrée du
logiciel et des services ;
– 1 (MAI), offre de façon à peu près équilibrée des services et de la maintenance.
A part Prime/Computervision, dont l’histoire est celle d’un constructeur de matériel,
la part des services dans l’offre des firmes mixtes est élevée. De fait, presque toutes sont
au départ des sociétés de services qui ont greffé sur cette activité une offre de matériel
ou de progiciel.
Les différences entre les années 1992 et 1993 font intervenir à la fois des évolutions
réelles de la composition de l’offre des firmes et des reclassements d’activités
identiques dans des catégories différentes. Sous cette deuxième rubrique, on trouve
typiquement des regroupements du matériel périphérique avec les systèmes centraux
concernés, des ventilations différentes entre maintenance et autres services, voire des
regroupements de la maintenance avec les matériels ou les logiciels maintenus. Les
seules entreprises qui changent de catégorie en 1993 sont Ceridian qui isole une part
importante de matériel et devient donc mixte, et Gerber qui en précisant sa production
entre dans la catégorie des périphériques.

Correspondance entre secteur et marché


Examinons maintenant comment sont servis les différents marchés. Pour chacun des
dix segments principaux retenus par Datamation, considérons toutes les firmes qui y
réalisent un chiffre d'affaires non nul. Ces firmes peuvent appartenir à toutes les
catégories définies ci-dessus, mais elles seront le plus souvent soit des généralistes, soit
des spécialistes du segment concerné. Le graphique ci-dessous montre pour chacun des
segments la part respective des généralistes, des spécialistes du segment et des autres
firmes (spécialistes d’autres segments ou firmes mixtes). Le détail des chiffres figure en
annexe (tableaux A-XIII et A-XIV).

Généralistes et spécialistes
Large 3

Mid 3
9 ++
PC

Stat 3

Soft 15 ++

Peri 15 ++

Comm 7+

Maint 1

Serv 27 ++ Spec
2 Autres
Other
Gen
0 10000 20000 30000 40000 50000 60000
CA 1992 (M$)
Données Datamation - Analyse GD
G. Dréan - 1997

lxvii
Les treize généralistes dominent largement les segments des grands et des moyens
systèmes, ainsi que le segment maintenance. Ils ne sont clairement minoritaires que
dans le segment des services hors maintenance. Pour les PC, les stations et les
périphériques, les spécialistes du segment occupent ensemble presque tout le reste du
marché, ne laissant qu’une place marginale aux spécialistes des autres segments et aux
firmes mixtes. Ce phénomène de bipolarisation est moins net pour le software, les
périphériques de communication, la maintenance et les services. Dans le segment
maintenance, c’est même la firme spécialisée qui n’occupe qu’une part de marché
marginale, laissant la seconde place aux spécialistes des autres segments et aux firmes
mixtes.
Une analyse plus détaillée segment par segment est donnée en annexe. Les tableaux
A-XV à A-XXIII contiennent, pour chacun des segments, la liste des firmes de
l’échantillon des 110 qui y sont présentes, classées dans l’ordre décroissant de leur part
de ce marché donnée en colonne 2. Pour chaque firme sont rappelées sa catégorie de
spécialisation ainsi que la part du segment considéré dans le chiffre d’affaires
informatique de la firme, qui mesure son degré de spécialisation relativement à ce
segment.

Grands systèmes (tableau A-XV)


Quatorze (14) firmes sont présentes, dont 10 des 13 généralistes, qui réalisent
ensemble plus de 90% du chiffre d’affaires avec des spécialisations inférieures à 36%.
Les 3 véritables spécialistes occupent ensemble moins de 10% de ce marché, et une
seule autre firme (Intel) est marginalement présente.
Les cinq plus fortes parts de marché sont occupées par des généralistes, qui sont en
ordre décroissant IBM, Fujitsu, Hitachi, NEC et Unisys. Le marché des grands systèmes
est donc dominé par ces 5 offreurs, qui réalisent ensemble près de 85% du chiffre
d'affaires. Les spécialistes n’apparaissent qu’à partir de la sixième place, avec des parts
non supérieures à 6%.
Au total, les firmes spécialisées dans les grands systèmes sont trop peu nombreuses
et occupent une trop faible place sur le marché correspondant pour pouvoir être
considérées comme formant un secteur autonome. On peut s’attendre à ce que le
comportement concurrentiel des offreurs de grands systèmes ne soit pas régi par des
facteurs propres à ce segment, mais par des stratégies généralistes qui englobent
également les autres marchés sur lesquels opèrent les offreurs dominants.

Systèmes moyens (tableau A-XVI)


La situation est presque identique à celle des grands systèmes, au nom de certains
acteurs près. Dix-sept (17) acteurs opèrent sur ce segment, dont 10 des 13 généralistes
qui réalisent 88% du chiffre d’affaires. La part de marché totale des trois seuls
spécialistes est ici aussi inférieure à 9%. Quatre (4) autres firmes sont présentes
(Reynolds and Reynolds, Ask, Motorola et Sun), avec des parts de marché allant de 0.2
à 1.2%.
Ici encore, les cinq plus fortes parts de marché sont occupées par des généralistes,
qui sont en ordre décroissant IBM, Digital Equipment, Fujitsu, NEC et Hewlett-
Packard, et réalisent ensemble près de 80% du chiffre d'affaires. Les spécialistes

lxviii
n’apparaissent qu’aux sixième, huitième et douzième places, avec des parts inférieures à
5%. Comme pour les grands systèmes, on ne peut pas parler de secteur autonome.
Il est tentant de regrouper grands et moyens systèmes, où la situation et un grand
nombre d’acteurs sont identiques, et entre lesquels la séparation est d’ailleurs assez
arbitraire. Sur le segment composite sont présentes 23 firmes dont 12 des 13
généralistes qui y occupent les six premières places par ordre de part de marché, et un
total de 89%. Les spécialistes de l’un ou de l’autre, au nombre de six, n’apparaissent
qu’à partir de la septième place avec une part maximale de 3.5%. Les autres firmes n’y
jouent qu’un rôle modeste avec des parts de marché inférieures à 0.5%.
Cette image ne serait probablement pas remise en question si nous prenions en
considération l’ensemble de l’industrie mondiale. En effet, la catégorie des généralistes
s’étendrait alors à des firmes comme Bull, Olivetti et ICL, et sa domination en serait
encore renforcée puisqu’il n’existe hors de notre échantillon que très peu d’autres firmes
présentes dans les grands ou les moyens systèmes. De plus, il est probable que presque
toutes les firmes productrices de ce type de systèmes ont une taille suffisante pour
figurer dans notre échantillon et que l’extension à des firmes de taille inférieure
n’introduirait pas de modifications notables.

PC (tableau A-XVII)
La situation est visiblement différente pour le segment des micro-ordinateurs. Douze
des 13 généralistes figurent parmi les 25 firmes présentes, mais ne totalisent que 51% de
ce marché. En revanche, 9 firmes spécialisées en occupent 47% et apparaissent dès la
deuxième et la troisième place (Apple et Compaq). Les firmes mixtes autres que les
généralistes jouent là aussi un rôle mineur.
Le segment est donc satisfait par deux types de firmes : d’une part des spécialistes
pour lesquels la micro-informatique représente plus de 65% de leur activité, et d’autre
part des firmes pour lesquelles ce segment représente une part minoritaire (moins de
30%) de leur activité.
Si nous prenions en compte la totalité de l’industrie informatique mondiale, on
verrait alors apparaître sur ce segment d’une part les quelques autres généralistes non
américains, mais aussi un grand nombre d’entreprises trop petites pour figurer dans
l’échantillon retenu par Datamation. En nombre d’acteurs, ceci donnerait une très nette
majorité aux firmes spécialisées, et il est fort possible que ceci ait même pour effet
global de donner aux firmes spécialisées la plus grande part du chiffre d’affaires.
On peut donc considérer qu’il existe un secteur autonome d’offreurs spécialisés en
micro-ordinateurs, qui comprend d’ailleurs un grand nombre de petites firmes. Ce
secteur est en concurrence sur le marché avec celui des grands généralistes.

Stations (tableau A-XVIII)


Le cas des stations de travail est en quelque sorte intermédiaire entre celui des
moyens ou grands systèmes et celui des PC. Dix-neuf (19) firmes y sont présentes dont
10 des 13 généralistes, qui représentent encore 63% du marché. Par contre, bien qu’il
n’y ait que trois véritables spécialistes (Sun, Silicon Graphics et Intergraph), ceux-ci
totalisent 32% du marché et y occupent respectivement les première, sixième et

lxix
huitième place, les autres places jusqu’à la onzième étant tenues par sept généralistes et
Prime/Computervision qui s’intercale à la neuvième.
Là encore, on peut donc considérer qu’il existe un secteur autonome d’offreurs
spécialisés en stations, en concurrence sur le marché avec les grands généralistes. Mais
contrairement au cas des PC, ce secteur spécialisé est formé d’un petit nombre de
firmes. Prendre en considération l’ensemble de l’industrie mondiale ne modifierait
probablement pas cette conclusion.

Software (tableau A-XIX)


Une différence importante avec les segments précédents est le nombre des acteurs
présents, qui s’élève à 57 soit plus de la moitié de l’échantillon. De plus, il existe de
nombreuses firmes petites ou non américaines qui sont actives dans ce domaine, si bien
que prendre en considération toute l’industrie renforcerait encore cette particularité. On
peut dire que la majorité des firmes qui composent l’industrie informatique sont
présentes dans le segment du software.
C’est en particulier le cas des généralistes, qui représentent ensemble 57% du chiffre
d’affaires software de notre échantillon, alors que 15 spécialistes en représentent 30% et
que 32 autres firmes, spécialisées dans d’autres domaines ou réellement mixtes,
totalisent 13%. Deux généralistes occupent les premières places, IBM avec 32% et
Fujitsu avec 10%, mais les spécialistes apparaissent rapidement : Microsoft troisième
avec 8%, Computer Associates cinquième avec 5%, Novell sixième avec 3%.
Il existe donc bien un secteur autonome pour le software, toujours en concurrence
avec les généralistes, mais la bipolarisation est moins nette que pour les PC ou les
stations. Entre 38 firmes dont la part d’activité software est inférieure à 30% et 14
firmes clairement spécialisées à plus de 70% s’échelonnent cinq firmes avec des
spécialisations comprises entre 40 et 60%, le reste étant généralement fait de services. Il
s’agit de Nynex, Ask, Sterling Software, Finsiel et Oracle.

Périphériques dont communication (tableaux A-XX et A-XXI)


La situation dans les périphériques, où 41 firmes sont présentes, est intermédiaire
entre celle des PC et celle du software. Là encore, 11 des 13 généralistes occupent au
total un tout petit peu plus de la moitié du marché, IBM venant en tête avec 15%. Mais
15 spécialistes en représentent 40%, la part de marché du plus important d’entre eux
étant supérieure à 7%, tandis que 17 autres firmes, mixtes ou spécialistes d’autres
domaines, totalisent 8%.
Pour les périphériques de communication, le nombre d’acteurs (18) est moindre que
pour les autres périphériques, et ceci pour chaque catégorie. Seuls 7 des 13 généralistes
sont présents, avec 49% du marché, plus 7 spécialistes pour 35% du marché, et 4 autres
firmes pour les 16% restants (dont British Telecom et NTT).
Il faudrait d’ailleurs isoler non seulement les périphériques de communication, mais
aussi distinguer les unes des autres les diverses familles fonctionnelles comme les
imprimantes, les disques, les cartes d’extension, les terminaux, … qui forment des
marchés plus distincts les uns des autres que ne le sont par exemple les grands
ordinateurs, les systèmes moyens et les stations. Dans chacun de ces segments, à coté

lxx
des généralistes toujours plus ou moins présents, on trouve un grand nombre de
spécialistes qui jouent un rôle important malgré leur taille souvent modeste.

Maintenance (tableau A-XXII)


Vingt-huit (28) firmes, dont 10 des 13 généralistes, déclarent un chiffre d’affaires en
maintenance. Les 10 généralistes réalisent ensemble 84% du chiffre d’affaires total et
occupent en particulier les 7 premières places. Une seule firme, Bell Atlantic, peut être
considérée comme spécialisée en maintenance avec 77% de son chiffre d’affaires pour
20% de software et 3% de services ; elle apparaît à la huitième place avec une part de
marché de 3%. Dix-sept (17) autres firmes, généralement spécialisées en matériel ou en
services, se partagent 13% du marché.
Il existe probablement hors de l’échantillon, en particulier hors des USA, quelques
autres firmes spécialisées en maintenance, mais leur part du marché total est
certainement modeste. On ne peut donc pas considérer la maintenance comme un
secteur autonome, mais comme une prestation annexe aux autres prestations, bien que
quelques firmes s’y soient exceptionnellement spécialisées.

Services (tableau A-XXIII)


C’est dans ce domaine que les intervenants sont le plus nombreux avec 63 mentions
sur les 110 firmes de notre échantillon. C’est aussi en matière de services que le nombre
(26) et la part (42%) des spécialistes sont le plus élevés. Cette particularité est
probablement encore plus affirmée au niveau de l’ensemble de l’industrie mondiale, car
il existe, en Europe comme aux USA, une multitude d’entreprises de service trop petites
pour figurer dans l’échantillon des 110, mais dont le chiffre d’affaires cumulé est loin
d’être négligeable. Onze des 13 généralistes sont présents et occupent ensemble 32% de
ce marché, en particulier IBM qui occupe la première place avec 14%. Mais 27 autres
firmes de notre échantillon, pour qui le service est également une activité secondaire,
réalisent quand même 26% du chiffre d’affaires.
On constate que les services attirent de très nombreuses firmes de taille très variable,
et représentent en particulier un secteur autonome bien qu’en concurrence avec les
généralistes.

Conclusions
En règle générale, on ne peut pas associer à chacun des segments de marché un
groupe de firmes qui réaliserait l’essentiel du chiffre d’affaires de ce marché et ne serait
que marginalement présente sur les autres. Les secteurs de l’industrie ne peuvent donc
pas être définis par une correspondance simple avec les segments de marché. Il en
découle en particulier que les comportements des offreurs sur la plupart de ces marchés
ne sont pas déterminés par des considérations propres à ce marché, mais par une
stratégie plus générale. Par exemple, les marchés des grands et des moyens systèmes
sont largement dominés par des acteurs pour qui ces marchés ne représentent qu'un part
minoritaire de leur offre, et pour qui le champ de la concurrence est significativement
plus vaste. Il est donc important de bien distinguer les notions de « segment de marché »
(l'ensemble des acheteurs actuels ou potentiels d'un produit[3]) et celle de « secteur
d'industrie » (ensemble des firmes qui fabriquent des produits étroitement

lxxi
substituables[4]), et à l'intérieur d'un secteur de distinguer des catégories différentes
d'acteurs selon par exemple leur degré de spécialisation.
L’analyse des prestations des 110 firmes dont la décomposition de l’activité est
connue nous permet d’en répartir la grande majorité en huit secteurs :
– les généralistes (IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard,
Hitachi, NCR/ATT, Unisys, Wang, Data General, Texas Instruments, Control Data
et Wyse), auxquels s’ajoutent au niveau mondial Siemens, Toshiba, Olivetti, Bull,
ICL et Mitsubishi ;
– les firmes spécialisées par niche de systèmes conventionnels (Amdahl, Cray,
Convex pour les grands systèmes, Tandem, Sequent et Stratus pour les systèmes
moyens) ;
– les constructeurs de PC (Apple, Compaq, Dell, AST, Gateway 2000, Packard
Bell, Commodore, Tandy, CompuAdd), plus un grand nombre de firmes
européennes, japonaises et américaines de moindre importance ;
– les constructeurs de stations (Sun, Silicon Graphics, Intergraph) ;
– les firmes de software (Microsoft, Computer Associates, Novell, Lotus, Oracle,
Wordperfect, Borland, Legent, Autodesk, SAS, Cadence, Adobe, Mentor
Graphics, Informix, Sybase), et un grand nombre de firmes de moindre
importance, principalement américaines ;
– les constructeurs de périphériques (Canon, Seagate, Xerox, Conner, Quantum,
Maxtor, Lexmark, Intel, Storage Technology, Western Digital, Micropolis, EMC,
Tektronix, Kodak), avec un grand nombre de firmes de moindre importance,
américaines, japonaises et européennes ;
– les constructeurs de périphériques de communication (Northern Telecom,
Motorola, Racal, 3COM, Synoptics, Cabletron, Digital Communications), plus un
grand nombre de firmes de moindre importance, américaines, japonaises et
européennes ;
– les sociétés de services (EDS, Computer Sciences, Andersen Consulting, ADP,
CAP, TRW, First Data, Nomura, Price Waterhouse, Ceridian, PRC, SHL, Ernst
and Young, Coopers and Lybrand, Systematics, General Electric, Martin Marietta,
Boeing, Shared Medical Services, Science Applications, Policy Management,
Litton, Grumman, Fiserv, Computer Task Group, American Management
Systems), et un grand nombre de firmes de moindre importance dans le monde
entier.
Pour obtenir un panorama complet, il faut ajouter deux autres secteurs spécialisés :
celui des composants et celui de la distribution. Intel et Motorola quitteront alors le
secteur des périphériques où les range artificiellement le classement de Datamation pour
rejoindre celui des composants.
Par ailleurs, il faudrait séparer les constructeurs de périphériques en différents
secteurs selon la nature des produits, comme le classement Datamation le fait pour les
périphériques de communication. Un secteur des mémoires comprendrait des firmes
comme Seagate, Conner, Quantum, Maxtor, Storage Technology, Western Digital,
Micropolis et EMC, alors qu’un secteur « sorties sur papier » pourrait comprendre
Canon, Xerox, Lexmark et Kodak en concurrence avec Hewlett-Packard. De la même

lxxii
façon, le secteur des services devrait être décomposé en secteurs spécialisés, tant est
grande la variété des formes de services.

Structure de dépenses et modèles d’entreprise


Une piste pour affiner notre classification consiste à analyser la composition des
dépenses des entreprises. Les statistiques fournies par McKinsey donnent pour un
certain nombre de firmes les pourcentages de leur chiffre d’affaires qu’elles consacrent
à la R&D d’une part, aux dépenses commerciales et d’administration d’autre part. Il est
facile d’en déduire la ventilation de leurs dépenses totales (revenu moins profit) entre
Recherche et Développement, frais administratifs et commerciaux, et enfin coût de
revient des produits vendus. En rapportant ces catégories de dépenses aux dépenses
totales plutôt qu’au revenu, on élimine les différences de profitabilité qui
augmenteraient la dispersion des pourcentages.
Ces ratios sont donnés en annexe dans le tableau A-XXIV pour l’année 1993 prise
comme exemple. Les firmes sont rangées par ordre décroissant du ratio des coûts de
production.
Observons que ces ratios varient dans des plages très larges : de moins de 20% à
près de 90% pour les coûts de production, de 0 à près de 30% pour la R&D, de 6 à plus
de 70% pour les dépenses commerciales et d‘administration. Or il paraît évident que des
firmes qui consacrent 85% de leur chiffre d’affaires à la production contre 4% à la R&D
et aux dépenses commerciales sont très différentes de firmes pour lesquelles la
production ne représente que 25% du CA contre 15% à la R&D et 45% au commerce et
à l’administration. De telles différences révèlent certainement des formes d’entreprises
radicalement différentes et obéissant à des logiques de comportement différentes qui
doivent le faire considérer comme appartenant à des secteurs distincts.
Or l’examen des chiffres fait clairement apparaître une répartition des firmes en
groupes relativement homogènes.
Les fabricants de PC et de périphériques spécialisés pour PC (Western Digital,
Quantum, Conner, Seagate, Maxtor, Micropolis) ont les coûts de production les plus
élevés, avec des ratios compris entre 65% et 90% des dépenses totales, et ceci de façon
constante chaque année. Pour la plupart de ces firmes, la R&D se situe entre 2 et 4%
pour les constructeurs de PC, qui se contentent d’assembler des produits standardisés,
entre 4 et 8% pour les constructeurs de périphériques qui développent des produits
originaux. Les coûts de ventes et d’administration se situent entre 6 et 10% pour les
firmes qui pratiquent une commercialisation indirecte à travers des revendeurs, tandis
que les firmes comme Dell ou Compaq ont des ratios plus élevés. Au total, ces ratios
caractérisent une stratégie d’entreprise reposant sur un petit nombre de produits
standards et une concurrence par les prix plutôt que par les produits. Le seul
constructeur spécialisé dans les micro-ordinateurs qui s’écarte de ce schéma est Apple,
dont les ratios se rapprochent de ceux des constructeurs traditionnels.
A l’autre extrême, le progiciel a les coûts de production les plus faibles, toujours
inférieurs à 50% du CA et la plupart du temps inférieurs à 35%. Corrélativement, les
dépenses de vente et d’administration sont les plus élevées, en étant toujours supérieures
à 30% sauf pour SAP, et dépassant souvent 50%. Les coûts de R&D représentent
typiquement entre 8 et 20% du chiffre d’affaires, le cas d’Ultimate étant probablement
une erreur dans les chiffres.

lxxiii
Les différences entre ces types d’entreprise apparaissent encore plus clairement sur
les diagrammes suivants, où chaque firme est représentée par un point ayant pour
coordonnées son pourcentage de R&D (en abscisse) et de dépenses de vente et
d’administration (SG&A) en ordonnée, et ceci pour l’année 1993. Les trois zones en
grisé représentent les plages où se concentrent la plupart des firmes de micro-
informatique (en bas à gauche), de progiciel (en haut à droite), et les généralistes (zone
intermédiaire), pour l’ensemble de la période considérée.

Dépenses 1993

0,8

0,7

0,6
pro
gici
0,5 els

SG&A 0,4

0,3 généraliste
s
0,2

PC
0,1

0
0,00% 5,00% 10,00% 15,00% 20,00% 25,00%
R&D
Données McKinsey - Analyse GD
G. Dréan - 1997

En ignorant pour l’instant quelques cas aberrants comme ceux d’Apple, dont nous
avons déjà vu qu’il appartient en fait à la catégorie des généralistes, ou encore
d’Ultimate et de Novell, nous voyons que ces plages sont suffisamment étroites et
disjointes pour représenter des types d’entreprises différenciés. De plus, on constate que
ces plages sont très stables dans le temps pour les dernières années, le seul mouvement
notable étant une dérive de la zone des PC vers le bas et la gauche, reflétant sans doute
une rigueur de gestion croissante avec le temps.
Le cas du progiciel appelle quelques commentaires. Ses coûts de reproduction très
faibles entraînent automatiquement des valeurs élevées pour les deux autres types de
dépenses que sont la R&D et les dépenses générales, situant donc la zone du progiciel
en haut et à droite du diagramme. Mais les points représentant les différentes entreprises
restent assez dispersés. Il est probable que les dimensions importantes de la zone du
progiciel s’expliquent essentiellement par le fait que dans ce secteur, la distinction entre
développement, production et commercialisation a été interprétée différemment selon
les entreprises. Par exemple, la frontière entre R&D et production n’a peut-être pas été
située de façon identique par toutes les firmes, ou encore les dépenses de documentation
ont pu être considérées comme des coûts de développement par les uns, comme
dépenses commerciales par d’autres. C’est pourquoi il ne faut sans doute pas attacher
une importance excessive aux points aberrants que nous mentionnions plus haut.

lxxiv
Mis à part ces inexactitudes possibles, la position des firmes sur le diagramme, et
leurs déplacements éventuels au cours du temps, représentent assez bien leur mode de
fonctionnement et leurs choix stratégiques. Le pourcentage de R&D tendra à être
d’autant plus élevé que la firme cherche à offrir des produits originaux, par opposition à
une activité de pur assemblage de produits standard. La part de dépenses commerciales
et d’administration reflète également pour une part l’originalité des produits, qui tend à
exiger un effort commercial particulier, mais surtout le mode de commercialisation
direct ou indirect, le poids des dépenses publicitaires et d’une façon générale le train de
vie de l’entreprise.
Ces explications aident à interpréter la place des autres firmes. Les constructeurs de
systèmes spécialisés ont des taux de SG&A comparables à ceux des généralistes, sauf
Amdahl et Cray qui ont des taux inférieurs, tandis que leurs taux de R&D sont presque
tous supérieurs à ceux des généralistes. C’est en particulier les cas des offreurs de
stations de travail. Les fabricants de périphériques ont des dépenses de vente et
d’administration plus modestes, probablement parce qu’une part plus ou moins
importante de leur production est commercialisée indirectement à travers les offreurs de
systèmes, tandis que leur taux de R&D les rapproche soit des généralistes soit des
micros suivant la vocation de leurs produits.

Dépenses Services
80,00%

70,00%

60,00%

50,00%

SG&A 40,00% Policy Mgmt 91, 92

Shared Med 91
30,00% ADP

VOLMAC 91 Nat Comp 93


20,00%
Policy Mgmt 93

10,00% Hoskyns 91 SEMA 91


CTG 92
Science Apps 93
0,00%
0,00% 5,00% 10,00% 15,00% 20,00% 25,00%
R&D
Données McKinsey - Analyse GD

Les services se répartissent sur tout le plan, confirmant ainsi qu’il s’agit d’un
ensemble d’activités très hétérogène. C’est aussi pour cette catégorie que la proportion
de firmes qui publient ces informations est la plus faible, ce qui peut laisser planer des
doutes sur la fiabilité des quelques chiffres publiés, pour les mêmes raisons d’ailleurs
que pour les progiciels. Néanmoins, on peut observer que des sociétés comme Hoskyns
ou Sema, qui offrent des services d’intégration ou de développement, se situent dans
une zone voisine de celle des PC, alors que la structure de dépenses des firmes de

lxxv
traitement comme Policy Management, ADP ou Shared Medical Systems les rapproche
des généralistes voire du progiciel.

Synthèse
En combinant cette approche de classification avec l’analyse des combinaisons de
prestations, on est conduit aux conclusions suivantes :
Il existe un modèle spécifique aux firmes spécialisées dans le progiciel, qui sont
généralement totalement absentes du marché des matériels, et n’offrent que le minimum
de prestations annexes comme la maintenance ou les services. Ces firmes ont une forte
activité de R&D et une activité commerciale hypertrophiée, mais un coût de production
faible en valeur relative.
Les firmes où le matériel domine appartiennent à deux types distincts :
– un type classique avec une activité de R&D suffisante pour développer des
produits propres, et une forte activité commerciale. Ce type comprend les
généralistes historiques et leurs concurrents plus spécialisés dans certains types de
matériel dont les périphériques associés aux systèmes classiques, ainsi qu’Apple
dans le secteur de la micro.
– un type lié à la micro-informatique compatible, avec des activités de R&D, de
vente et d’administration réduites à leur plus simple expression, donc une
domination absolue de la production.
Les constructeurs généralistes appartiennent au type classique et cherchent à offrir à
la fois une large gamme de matériels y compris des périphériques, ainsi que la
maintenance, les logiciels et les services associés à ces matériels. Ce modèle est celui
des premiers temps de l’informatique ; pour les firmes qui suivent ce modèle, l’objectif
principal est toujours de fournir à leurs clients des systèmes complets, même si les
différentes prestations sont devenues plus ou moins indépendantes sur le plan tarifaire et
commercial, ainsi que dans l’organisation interne des entreprises. Il est également suivi
par des firmes comme Prime, les fournisseurs de stations de travail, ainsi que par Apple
en micro-informatique.
Les constructeurs de matériel spécialisé ont choisi de se limiter à une niche précise,
qu’il s’agisse d’unités centrales ou de périphériques. En règle générale, ces
constructeurs essaient de ne fournir que le minimum de logiciel ou de prestations
annexes. Les plus anciens, comme Tandem, Stratus, Evans & Sutherland ou Memorex
se rattachent au type classique tandis que les constructeurs de compatibles IBM et de
périphériques associés se conforment au modèle qui est devenu la règle dans la micro-
informatique à partir de 1981. On retrouve la séparation historique entre le monde
traditionnel et le monde PC, le monde Unix comme le monde Apple fonctionnant plus
comme le monde traditionnel que comme celui de la micro-informatique compatible.
Dans le domaine des services apparaissent deux types extrêmes : celui des services
« intellectuels » dont la structure de coûts ressemble à celle du matériel micro-
informatique avec des coûts de production élevés et des coûts de R&D et de
commercialisation faibles, et à l’opposé celui des services « de traitement » dont la
structure de coûts ressemble à celle du progiciel avec des coûts de R&D et de

lxxvi
commercialisation élevés. Non seulement cette catégorie regroupe deux formes
d’entreprises diamétralement opposées, mais les similitudes de structure de coûts avec
d’autres secteurs semblent paradoxales : les services de développement de logiciel se
comportent comme les firmes de matériel micro et non comme celles de progiciels,
tandis que les services de traitement se comportent plus comme des firmes de progiciel
que comme des firmes de matériel.
La structure de dépenses des firmes mixtes rapproche certaines de l’un des modèles
dominants ci-dessus. Par exemple, MAI se rattache normalement au modèle de la
micro-informatique, Datapoint à celui des constructeurs classiques et Ask Computers à
celui du progiciel.

Conclusions
L’examen des chiffres, malgré les réserves sur leur fiabilité et la représentativité
partielle de l’échantillon, nous a permis de rattacher la plupart des 110 firmes à un petit
nombre de modèles d’entreprise. Mais ces catégories ne sont pas exactement parallèles
à la segmentation conventionnelle du marché.
A chaque segment de marché est bien associée une certaine population d’entreprises
qui s’y sont spécialisées. L’ensemble de ces spécialistes constitue d’ailleurs la majorité
des entreprises d’informatique. Mais il existe également un groupe de généralistes, dont
chacun est présent dans presque tous les segments en concurrence avec les spécialistes,
et qui bien que moins nombreux réalisent plus de la moitié du chiffre d’affaires de
l’industrie. En dehors des spécialistes et des généralistes, il existe relativement peu de
firmes dont l’activité principale se partage entre deux ou trois segments. Dans la plupart
des cas il s’agit de firmes dans une situation transitoire, par exemple des entreprises de
systèmes « clés en mains » qui restreignent leur offre au progiciel (comme
Computervision ou Ask), ou à l’inverse des entreprises de services qui complètent leur
offre par des matériels spécialisés. En tout état de cause, ces entreprises mixtes ne
tiennent qu’une place marginale dans les segments de marché où elles sont présentes.
La plupart des segments sont donc servis par des entreprises appartenant à des
groupes différents, et certains groupes sont caractérisés par leur présence sur plusieurs
segments. Autrement dit, la définition classique d’un secteur d’industrie comme
« l’ensemble des firmes produisant un certain produit » ne nous permet pas de répartir
les firmes en groupes homogènes et raisonnablement disjoints.
La principale distinction est donc entre généralistes et spécialistes, ceux-ci se
distinguant à leur tour selon leur activité. En analysant de plus près la structure de
dépenses de chaque entreprise, nous avons isolé parmi ces spécialistes deux
personnalités très typées : les constructeurs de matériels microinformatiques et de
périphériques associés, avec des dépenses commerciales et de R&D réduites au
minimum, et à l’opposé les producteurs de progiciel, avec des dépenses de R&D
importantes et des frais commerciaux et généraux hypertrophiés. Les entreprises de
services forment une population hétérogène, où certaines ont une structure de dépenses
voisine de celle des matériels microinformatiques et d’autres une structure voisine de
celle des progiciels.
Ce critère définit trois types de spécialistes : le progiciel à un extrême (avec les
firmes de service spécialisées dans le traitement), le matériel micro-informatique (avec

lxxvii
les services d’assistance et de développement) à l’autre extrême, et les entreprises des
autres catégories avec des profils plus équilibrés qui ne diffèrent pas radicalement du
profil des généralistes. Les spécialistes des grands ou des moyens systèmes, comme
ceux des stations de travail et Apple, se rangent dans cette catégorie des entreprises plus
conventionnelles.
Notons enfin que les spécialistes des grands systèmes et des moyens systèmes, ainsi
que ceux de la maintenance, sont peu nombreux et ne tiennent qu’une place modeste sur
les segments de marché correspondants.
Ces conclusions seraient globalement inchangées si nous considérions l’ensemble de
l’industrie mondiale et non un échantillon des plus grandes firmes principalement nord-
américaines. La plus grande différence serait l’apparition parmi les grands acteurs de
firmes non spécialisées en informatique comme Fujitsu, NEC, Hitachi, Siemens, Canon,
etc. Il s’agit d’un phénomène typiquement japonais et un peu européen, puisque aux
USA les groupes non spécialisés ne jouent plus un rôle de premier plan en informatique
depuis leurs tentatives des années 60. Par ailleurs, la prise en compte des petits acteurs
accentuerait encore le contraste entre des secteurs concentrés comme les matériels
conventionnels, qui comporte peu d’acteurs en dehors des grands, et des secteurs
dispersés comme le matériel micro-informatique, le progiciel ou les services, où les
petites firmes sont légion.

[1]
A la date de rédaction du présent chapitre, cet ensemble de données enrichies n’est disponible
que pour l’année 1992. C’est pourquoi l’étude qui suit repose sur les données relatives à cette année, bien
que le classement Datamation 93 ait été publié en Juin 1994. Nous mentionnerons les différences
significatives entre 1993 et 1992, qui ne remettent pas en question la typologie qui suit.

[2]
McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994).

[3]
Kotler, Principles of Marketing

[4]
Porter, Competitive Strategy

lxxviii
Chapitre 5
Structure et performances

La croissance par secteur. Réflexions sur les profitabilités comparées. Cycles de


production et dispersion des profits. Il n’y a pas de bons et de mauvais secteurs.
Profitabilité et services. Profitabilité et croissance.

Les observateurs s’étonnent souvent de la diversité des performances des firmes


du secteur informatique. Alors que jusque vers la fin des années 80, l’informatique était
réputée être une industrie prospère, les catastrophes s’y succèdent depuis quelque
temps. Les firmes naguère les plus florissantes traversent des années de déclin de leur
volume d’affaires et de pertes financières qui leur imposent de douloureuses
restructurations. Dans le même temps, d’autres firmes généralement plus jeunes, plus
petites et plus étroitement spécialisées alignent année après année des taux de croissance
de 30% et plus, et des marges nettes supérieures à 20%.

A partir de ce constat, tel qu’il s’exprime dans les résultats publiés par les
entreprises, l’objet du présent chapitre est de déceler les corrélations qui peuvent
apparaître entre les types d’entreprise et les performances, que nous caractériserons par
deux indicateurs : le taux de croissance du CA et le taux de profit net. Les sources
utilisées sont les statistiques publiées par le Groupe McKinsey dans la série de ses
rapports sur l’industrie informatique, dont les éditions récentes couvrent les années
1985 à 1993 . Nous en avons éliminé les firmes dont l’activité informatique représente
24

une trop faible part du total pour que le taux de profit soit représentatif de cette activité.

Dans les analyses qui suivent, nous utilisons la classification des entreprises selon
la nature de leur production que nous avons présentée au chapitre précédent. Cette
analyse diffère de celles qui sont régulièrement publiées dans la presse, et qui
s’attachent à l’évolution des segments de marché, c’est à dire des différents produits et
services qui composent l’offre informatique indépendamment de leur source. Pour les
entreprises qui sont spécialisées dans chacun de ces segments, leur taux de croissance
reflète pour l’essentiel l’évolution de la demande du marché pour les produits du
segment, et au niveau individuel l’adéquation des produits de chaque entreprise à cette
demande. La croissance est donc une caractéristique plus liée au marché qu’au type
d’entreprise, sauf s’il est possible de mettre en évidence des cas où une entreprise
évolue de façon différente des autres entreprises du même secteur, et où cette différence
de comportement correspond à une différence de personnalité.

Les taux de profit, en intégrant les coûts de production et donc les caractéristiques
économiques de chaque entreprise, peuvent en revanche fournir des indications sur le

24 McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994)

lxxix
mode de fonctionnement concurrentiel des différents secteurs, comme nous le verrons
au chapitre suivant. Enfin, nous avons vu dans le chapitre précédent que chaque
segment est servi par des entreprises de nature différente, et qu’à l’inverse il existe des
entreprises qui opèrent sur plusieurs segments. Il est donc intéressant de comparer dans
chaque segment de marché le comportement des spécialistes à celui des généralistes et
des firmes mixtes.

Les taux de croissance

Le taux de croissance du chiffre d’affaires des firmes est l’indicateur de


performance le plus facilement disponible et le plus souvent utilisé comme mesure du
succès. Il est en effet admis que l’entreprise qui croît le plus vite est celle qui satisfait le
mieux la demande du marché, et qu’ainsi la croissance est la juste récompense du
savoir-faire. De plus, celui qui croît le plus vite gagne des parts de marché au détriment
des autres et acquiert ainsi de nouveaux avantages concurrentiels qui nourriront ses
succès futurs.

Cet indicateur est néanmoins très imparfait. D’une part, il intègre l’effet des
fusions et acquisitions, des séparations d’entreprises en unités distinctes, et plus
généralement de toutes les autres variations possibles du périmètre des entreprises. Par
ailleurs, le taux de croissance n’est pas nécessairement un bon indice de la santé de la
firme. Une entreprise peut à la fois croître vite et perdre de l’argent, donc se condamner
à régresser voire à disparaître ; à l’inverse, une réduction drastique du périmètre
d’activité, et donc du chiffre d’affaires, peut être une bonne façon de restaurer la
profitabilité. Enfin, comme nous le verrons par la suite, il existe des secteurs où la part
de marché n’est pas un avantage en soi, et donc où la croissance n’est pas
nécessairement l’objectif prioritaire. Pour toutes ces raisons, nous privilégierons par la
suite l’étude de la profitabilité par rapport à celle de la croissance.

Les taux de croissance des firmes de notre échantillon, pour les années 1986 à
1993, figurent en annexe dans le tableau A-XXV.

Très globalement, il apparaît que la croissance au niveau de l’entreprise est le plus


souvent forte pour les périphériques de communication, les services et le progiciel,
faible ou négative pour les généralistes et les firmes mixtes, très erratique pour les PC,
les autres périphériques et les stations de travail. Les plages de variation sont très larges
dans chaque catégorie, avec souvent à la fois des maxima élevés et des minima
fortement négatifs. On ne décèle pas de relation simple entre secteur et croissance de
l’entreprise. Il ne suffit pas de se spécialiser dans un segment porteur comme les PC, les
périphériques, les services ou le progiciel pour y bénéficier automatiquement de la
croissance de la demande ; et à l’inverse, opérer dans un secteur globalement en
régression comme celui des généralistes ou des systèmes conventionnels ne condamne
pas forcément chaque entreprise à la régression.

La constat le plus évident est que les généralistes et la plupart des firmes mixtes
connaissent une régression depuis 1990, et en tous cas croissent moins vite que les

lxxx
firmes spécialisées dont elles réunissent les productions. Les chiffres semblent indiquer
que le simple fait d’offrir une gamme étendue de produits et des services diversifiés
mais étroitement coordonnés est devenu un handicap par rapport à une stratégie de
spécialisation sur tel ou tel de ces produits ou services. L’exception que constitue
Hewlett-Packard confirme a contrario cette thèse : cette société s’est constamment
distinguée des autres grands généralistes traditionnels en fonctionnant comme un
conglomérat de divisions spécialisées indépendantes plutôt qu’en s’efforçant d’offrir
une gamme intégrée. En tout état de cause, la place des généralistes dans l’industrie
informatique est en régression, comme d’ailleurs celle des autres firmes mixtes.
L’informatique devient progressivement dominée par les firmes spécialisées.

Profitabilités comparées

Les analyses qui suivent portent sur le profit net après impôt des entreprises.
L’avantage essentiel de cet indicateur est d’être facilement disponible au niveau global
de chaque entreprise. A l’inverse, il est sans signification pour notre étude dans les cas
où l’activité informatique n’est qu’une partie non individualisée de l’ensemble des
productions de l’entreprise, comme c’est le cas par exemple des grands groupes
japonais ou de nombreuses sociétés de service. Nous avons donc éliminé les firmes qui
ne sont pas spécialisées en informatique et celles dont la profitabilité n’est pas publiée.

Le taux de profit net après impôt n’est qu’un des indicateurs possibles de
profitabilité. De nombreux analystes lui préfèrent le taux de rentabilité du capital investi
(ROIC) ou la rentabilité des actifs (return on assets), dont le sens économique est plus
clair . Malheureusement, ces indicateurs sont beaucoup moins facilement disponibles
25

pour un nombre suffisant d’entreprises que le profit après impôts. De plus, c’est à cette
dernière notion de profitabilité, c’est à dire le bénéfice par rapport au chiffre d’affaires,
que s’intéressent en général la plupart des commentateurs non économistes.

Rappelons toutefois le sens économique de ce ratio, dont la définition est


fondamentalement comptable, et précisément fiscale. Le bénéfice net après impôts est
ce qui reste du revenu de l’entreprise après qu’elle a payé son personnel, ses
fournisseurs et ses créanciers, amorti ses immobilisations conformément aux règles
comptables et payé ses impôts. Ce bénéfice net peut servir d’un part à rémunérer le
capital investi, c’est à dire les actionnaires, et d’autre part à augmenter les
investissements de l’entreprise par rapport à ce qui peut être financé par les
amortissements des investissements passés. On voit que le niveau de profit « normal »
d’une entreprise dépend principalement de ses besoins en investissements et de son
rythme de croissance. Une activité exigeant de forts investissements matériels et en
croissance rapide, comme les composants, exige des taux de profit élevés, tandis qu’une
activité faiblement capitalistique, comme c’est le cas de la plupart des services, peut
s’accommoder de profitabilités plus modestes, même en période de croissance.

25 Comme nous le rappellerons au Chapitre 6, la théorie économique montre que sous certaines
conditions dites de concurrence « pure et parfaite », le marché tend vers un état d’équilibre où, dans
toutes les entreprises, le taux de rentabilité des capitaux est égal au taux d’intérêt du marché.

lxxxi
Analyse par catégorie

Pour chaque catégorie, les graphiques suivants montrent les taux de profit
minimum et maximum atteints chaque année par les firmes de l’échantillon, ainsi que la
médiane de la catégorie (le niveau tel que le nombre de firmes ayant un profit supérieur
est égal à celui des firmes ayant un profit inférieur) et la moyenne de la catégorie (total
des profits nets divisé par le total des chiffres d’affaires). Le détail des chiffres est
donné en annexe (tableaux A-XXVI à A-XXXV).

Ces graphiques et ces chiffres doivent être interprétés avec précaution. Certaines
catégories comme les grands et les moyens systèmes, les stations ou les périphériques
de communication ne sont représentés que par très peu de firmes. Les valeurs
maximales et minimales peuvent être aberrantes par rapport aux autres valeurs, et
donner une fausse idée de la distribution des profitabilités autour de la médiane. Un
écart important entre la moyenne et la médiane peut indiquer un avantage ou un
désavantage de taille potentiel, mais peut aussi être dû à des résultats aberrants pour une
firme importante. C’est pourquoi les commentaires doivent se référer aux tableaux des
valeurs détaillées données en annexe.

Les spécialistes des grands systèmes (tableau A-XXVII) sont en trop faible
nombre (3) pour être décrits autrement qu’en termes d’histoires individuelles. Dans les
années fastes (1985 à 1988), leurs résultats sont parmi les meilleurs de toute l’industrie
informatique. Ils entament une chute spectaculaire à partir de 1991. En regardant de
près, on voit que Convex et Amdahl chutent ensemble de plus de 8% à zéro ou moins en
1991, tandis que Cray qui était déjà tombé en 1989 de plus de 20% aux environs de
13% les rejoint autour de zéro en 1992. Amdahl continue sa chute en 1993, rejoint par
Convex, tandis que Cray remonte à près de 7%.

Profitabilité - grands systèmes

30%
Moyenne
20% Mediane
10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des moyens systèmes (tableau A-XXVIII) est également le lieu


d’histoires individuelles mouvementées. Stratus est le seul à bien tirer son épingle du
jeu en permanence. Tandem plonge en 1993 après avoir vacillé en 1991 et 1992,
Sequent et Pyramid oscillent entre le meilleur et le pire tandis que Norsk Data touche le

lxxxii
fond depuis 1989, et ne redresse sa profitabilité en 1993 qu’en perdant près de 40% de
son chiffre d’affaires. Là encore, les firmes sont trop peu nombreuses (5) pour qu’on
puisse tirer quelque enseignement statistique. L’allure générale des plages est voisine de
celle des généralistes, avec des dispersions encore plus grandes en 1991 et 1992.

Profitabilité - moyens systèmes

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Pour les spécialistes de matériel de type traditionnel, l’année 1991 marque une
rupture. Dans les années 1985 à 1990, le profit médian pour toutes ces catégories est
voisin de 10%. On constate de très bonnes réussites dans des niches particulières (Cray,
Pyramid), et à l’exception de Norsk Data, seules les firmes en phase de démarrage sont
dans le rouge. A partir de 1991, les profits commencent à baisser. Les maxima
deviennent modestes à l’exception de Stratus, et nombreuses sont les firmes déficitaires.

Profitabilité - micros

30% Moyenne
Médiane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des spécialistes PC (tableau A-XXIX) contient entre 8 et 10 firmes


selon les années. Elle présente une évolution plus stable bien qu’on y constate une
même tendance défavorable à partir de 1991. Les dispersions sont relativement faibles
sauf en 1985, et s’élargissent un peu en 1992 à cause des pertes importantes d’Everex et

lxxxiii
Commodore. En 1993, si on excepte le désastre de Commodore, aucune autre firme ne
descend sous -1.4%, ce qui correspond à une plage analogue à celle de 1991. De 1986 à
1992, le profit moyen varie dans une bande étroite entre 3 et 6 %, mais tend à baisser
depuis 1991. Le maximum, voisin de 13% (Compaq) en 1990, est en baisse régulière
(8.5% pour AST en 91, 7.3% pour Apple en 92, 6.4% pour Compaq en 1993).

Profitabilité - stations

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Les spécialistes des stations (tableau A-XXX) sont eux aussi en très faible nombre
(3) et se situent dans des plages toujours étroites, avec une tendance générale à la baisse
et des niveaux moyens comparables à ceux des PC. Compte tenu de la taille de
l’échantillon, cette catégorie de spécialistes ne semble pas se comporter différemment
de celle des PC.

Profitabilité - périphériques

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des périphériques (tableau A-XXXI) comporte entre 9 et 17 firmes


selon les années. On y rencontre également des histoires individuelles assez
mouvementées (Memorex Telex, Maxtor, Storage Technology, Tandon). Chaque année,
une firme au moins frôle ou dépasse les 10% alors qu’une ou plusieurs sont dans le

lxxxiv
rouge, mais les positions individuelles des firmes varient considérablement d’année en
année. On ne perçoit de tendance clairement défavorable qu’en 1993, où la majorité des
firmes est en pertes, et où presque toutes voient leur profit baisser, sauf EMC qui
dépasse allègrement 16%, le deuxième n’atteignant que 8%.

Profitabilité - communications

30%

20%

10%

0%

-10%
Moyenne
-20% Mediane

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Les 3 spécialistes des communications (tableau A-XXXII) se distinguent par leurs


excellentes performances depuis 1990, même si une firme a connu des pertes en 1990.

Profitabilité - progiciels

30%

20%

10%

0%

-10%

-20%
Moyenne
-30% Mediane
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des progiciels (tableau A-XXXIII), qui compte ici entre 13 et 16


firmes selon les années, présente une physionomie assez différente des précédentes. En
particulier, on n’observe pas de rupture nette en 1991. Le profit médian passe par un
creux relatif de 1990 à 1992, mais pour revenir à son niveau antérieur en 1993, tandis
que la moyenne se maintient en permanence au-dessus de 10%. La dispersion est en
permanence élevée, avec des maxima toujours supérieurs à 20% et dépassant même les
25% depuis 1989. Mais on observe aussi chaque année depuis 89 des résultats négatifs
(sans tenir compte des startups), dont certains lourdement comme Mentor Graphics et

lxxxv
Ultimate depuis 1991, Informix en 1990, Borland en 1989, 1991 et 1992. Même Novell
qui était en tête en 1991 et 1992 à plus de 25% devant Microsoft passe dans le rouge en
1993. Notons néanmoins que si les minima sont fortement négatifs, le nombre de firmes
déficitaires est chaque année faible : une sur 13 en 1989, 3 en 1990, 1991 et 1992. Les
moyennes se situent toujours au-dessus de 10% sauf en 1991.

Profitabilité - services

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Le secteur des services (tableau A-XXXIV) est représenté par 14 à 21 entreprises


selon les années. Sa physionomie est différente à la fois des catégories de matériel
(grands et moyens systèmes, PC, stations et périphériques) et de celle des progiciels.

Comme pour les PC, le profit moyen pour l’ensemble des services est
remarquablement stable entre 4 et 6%, avec une très légère tendance à la baisse depuis
1992. La dispersion est toujours relativement faible malgré le grand nombre de firmes,
et aussi malgré l’hétérogénéité du secteur. En 1990 et en 1992, une seule firme était
dans le rouge, et toutes les autres se situaient au-dessus de 2%. En 1991, les trois
dernières firmes se situaient à -9%, -3% et 0%, et les 18 autres au-dessus de 2%. Ce
n’est qu’en 1993 que la situation commence à se dégrader un peu plus.

Si on distingue les sous-secteurs, les profits moyens sont tout aussi stables : entre
9% et 11% pour le traitement, entre 4% et 5% pour le développement de 1985 à 91,
avec une chute en 1992.

Les maxima récents se situent entre 13 et 15% de façon régulière, et pour les
années antérieures Volmac apparaît comme un phénomène exceptionnel en atteignant
21% avant 88 et 19% en 1989, alors que son suivant immédiat est toujours dans la plage
des 13 à 15%. Ces performances élevées sont toujours le fait de sociétés de traitement
applicatif nord-américaines telles que Shared Medical Systems, First Data, ADP, Policy
Management, les offreurs de services plus classiques se contentant de profits presque
toujours inférieurs à 8%. Depuis 1989, le secteur connaît chaque année une ou deux
sociétés en pertes (parmi celles de l’échantillon).

lxxxvi
Profitabilité - généralistes

30%

20%

10%

0%

-10%
Moyenne
-20% Mediane
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La situation des généralistes (tableau A-XXVI) est bonne jusqu’en 1987 sauf pour
Wang et Data General, tandis que Bull est tout juste positif. On constate à partir de 1989
une tendance générale à la baisse : Digital Equipment et Bull sont dans le rouge à partir
de 1990, IBM à partir de 1991, et Unisys de 1989 à 1991. La seule entreprise qui obtient
un résultat à peu près stable est Hewlett-Packard qui passe néanmoins de 7% en 1985
(troisième rang) à 5% en 1992 et 6% en 1993, ce qui est pour ces deux années la
meilleure performance de la catégorie.

Profitabilité - firmes mixtes

30%
Moyenne
20% Mediane
10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Depuis 1989, les firmes mixtes (tableau A-XXVII) ont des profitabilités
moyennes presque toujours négatives, et des maxima modestes inférieurs à 9% qui se
réduisent à 4.3% en 1992. L’année 1993 semble aberrante avec MAI qui, après des
pertes considérables de 1989 à 1992, remonte soudain au chiffre exceptionnellement
élevé de 24% (mais en ayant perdu en 1993 près de 60% de son chiffre d’affaires 1992).
Mis à part ce point aberrant, la majorité des firmes est dans le rouge en 1991 et 1992, et
de façon souvent très lourde. La tendance générale est défavorable, et il semble clair que

lxxxvii
les résultats des firmes mixtes sont toujours moins bons que ceux des firmes
spécialisées dans les prestations individuelles qui composent leur portefeuille.

Une première conclusion générale est que pour presque toutes les combinaisons
de catégorie et d’année, les plages de variation du profit net sont assez larges voire très
larges. Les moyennes sont de ce fait peu représentatives, et les caractéristiques
individuelles de chaque firme comptent au moins autant que le secteur ou la catégorie à
laquelle elle appartient. Il faut de plus tenir compte du nombre de firmes représentées,
qui est quelquefois trop faible pour qu’on puisse en tirer des conclusions significatives.

Profitabilité par secteur - 1993

Comm Soft Stat Mid Sces PC Gen Péri Mixed Large


30%

20%

10%

0%

-10%

-20% Moyenne

Mediane
-30%

Données McKinsey - Analyse GD

Le graphique ci-dessus reprend les plages de profitabilité de l’année 1993 pour


l’ensemble des catégories, rangées par ordre de médianes décroissantes. On constate
que chaque catégorie, à part celle des périphériques de communications, contient des
firmes qui gagnent de l’argent et des firmes qui en perdent, ce qui est vrai chaque année.
Autrement dit, il n’y a ni catégorie maudite ni catégorie miracle ; certaines firmes
arrivent à gagner de l’argent avec des grands systèmes traditionnels, et d’autres arrivent
à en perdre dans les progiciels. Mais pour citer McKinsey : « des compagnies ayant des
stratégies viables et bien exécutées peuvent réussir dans n’importe quel segment ». Il
n’est pas totalement inutile d’ajouter qu’à l’inverse, une stratégie non viable mal
exécutée conduit à l’échec quel que soit le segment.

Néanmoins, même en tenant compte de la diversité des situations individuelles,


les différentes catégories s’ordonnent autour de profitabilités moyennes très différentes.
Progiciels et périphériques de communications se maintiennent au-dessus de 10% ; les
stations, les services et les systèmes moyens se placent dans la zone plus normale de 3 à
6% ; PC, généralistes et périphériques tournent autour de zéro tandis que les firmes
mixtes et les grands systèmes sont dans le rouge.

Notons que cette situation est très différente de celle de 1987 que nous avons
choisie comme représentative de l’ordre qui prévalait à la fin des années 80. Si les
dispersions étaient également élevées, les profits moyens par catégorie étaient beaucoup
plus homogènes et généralement supérieurs. La baisse des profits moyens a été

lxxxviii
relativement faible dans les stations, les systèmes moyens et les services, forte pour les
PC, les généralistes et les périphériques et dramatique pour les firmes mixtes et les
grands systèmes.

Profitabilité par secteur - 1987

Comm Soft Stat Mid Sces PC Gen Péri Mixed Large


30%

20%

10%

0%

-10%

-20%
Moyenne
Mediane
-30%

Données McKinsey - Analyse GD

La dispersion des profits

On peut s’interroger sur les raisons de la grande variabilité des résultats entre
firmes d’une même spécialisation. Un premier cas est celui des entreprises débutantes
(startups), dont les premières années sont des années d’investissements assortis de
pertes d’exploitation souvent lourdes, comme pour Convex, Sequent ou Teradata en
1985, ou Exabyte et Sybase en 1987. Une grande dispersion des résultats peut aussi
révéler l’hétérogénéité d’un secteur qui regroupe des activités présentant des
caractéristiques différentes. Dans le domaine des périphériques, les périphériques de
communication ont un comportement différent des autres mais la distinction entre les
périphériques micro et les autres ne montre pas de différences frappantes. Pour les
services en revanche, si l’évolution générale des sous-secteurs est parallèle, les services
de développement occupent toujours clairement la partie basse de la plage des profits, et
les services de traitement la partie haute.

Dans les segments homogènes et après élimination des startups, la dispersion des
résultats doit être rapprochée des modalités de gestion des firmes. Les directions des
entreprises consacrent en permanence des efforts considérables à rechercher un résultat
satisfaisant. Il faut donc admettre que, sauf exception, des résultats négatifs ne sont pas
le signe de l’incapacité ou de la négligence du management, mais d’une impossibilité
profonde de faire mieux dans les limites de l’exercice comptable considéré, et ceci après
avoir exploité toutes les opportunités de redressement réellement disponibles.

Dans les chapitres ultérieurs, nous serons amenés à analyser les relations
temporelles entre la formation des dépenses et la formation des revenus dans
l’entreprise. Contentons-nous ici de rappeler que dans la réalité industrielle, l’entreprise
décide des dépenses, mais c’est le marché qui décide des recettes. Plus précisément,
l’entreprise commence par engager des dépenses dans l’espoir d’un revenu futur, et ce

lxxxix
n’est que plus tard qu’elle constate les revenus correspondants. Les produits de chaque
exercice comptable servent en partie à payer la production de ces produits eux-mêmes,
mais aussi à investir pour préparer les exercices suivants. Si le chiffre d’affaires d’un
exercice se révèle inférieur aux attentes, il est généralement impossible de réduire les
dépenses dans les mêmes proportions sans réduire les investissements de l’exercice et
compromettre ainsi l’avenir même de l’entreprise.

Ce raisonnement nous conduit à formuler l’hypothèse qu’une grande dispersion


des profits dans un secteur homogène est liée à des situations où les engagements de
dépenses sont devenus irréversibles au moment où on constate les revenus
correspondants. Ceci est vrai en particulier lorsque les investissements sont importants
et ne portent leurs fruits qu’après un délai long. On dira alors que le « cycle de base » de
l’entreprise est long. Si au contraire les investissements sont faibles ou produisent
rapidement du chiffre d’affaires, le « cycle de base » de l’entreprise est court et il est
possible d’ajuster les dépenses au revenu sans trop compromettre l’avenir. Dans de tels
secteurs, les entreprises pourront généralement éviter des pertes trop importantes même
en cas de chute significative du chiffre d’affaires.

A l’inverse, quand par chance le revenu se révèle supérieur aux prévisions, ceci
n’entraînera que relativement peu de dépenses supplémentaires pour les firmes à cycle
long qui réaliseront ainsi des profits élevés. Les entreprises à cycle court ne pourront
réaliser ce revenu qu’en consentant des dépenses supplémentaires qui ramèneront le
profit au voisinage du niveau prévu.

En résumé, une grande dispersion des profits pour une période donnée
caractériserait des secteurs où le cycle dépenses-recettes est long et où le coût marginal
est une faible part du coût moyen.

Appliquée à l’évolution dans le temps des plages de profitabilité, cette hypothèse


conduirait à formuler les prédictions suivantes :
–pour un secteur naissant, les profits moyens sont faibles et la dispersion est grande.
Au fur et à mesure que les acteurs progressent sur la courbe d’apprentissage, la
moyenne augmente tandis que les limites de la plage se resserrent.
–un ralentissement de l’activité se traduit par une baisse des revenus par rapport aux
prévisions, et donc une baisse générale des profits, donc du profit moyen. Dans les
secteurs à cycle long, les entreprises ne pourront ajuster leurs dépenses que très
partiellement ; le profit moyen baissera donc de façon significative et certaines
entreprises connaîtront des pertes importantes qui se traduiront par un effondrement
du minimum. Dans les secteurs à cycle court, les entreprises pourront mieux ajuster
leurs dépenses ; de ce fait, la baisse du profit moyen et surtout du minimum sera
moins prononcée.
–une firme ne peut être durablement dans le rouge que dans un secteur à cycle long,
où les espoirs que représentent ses investissements justifient sa survie. Dans un
secteur à cycle court, une firme déficitaire doit (et peut plus facilement qu’une
entreprise à cycle long) se redresser rapidement ou disparaître. Au niveau de
l’ensemble, un secteur à cycle court ne verra pas le point minimum rester loin sous la

xc
barre du profit zéro, tandis que dans un secteur à cycle long le point minimum pourra
stagner à des valeurs fortement négatives.

Facteurs de profitabilité

Pour terminer cette exploitation des statistiques, examinons deux questions


relatives à la profitabilité des firmes.

Profitabilité et part de services

Selon une idée reçue, de nombreuses firmes de matériel cherchent à développer


leur activité de services afin d’améliorer leur profitabilité. Cherchons donc s’il existe
une corrélation entre le bénéfice net et la part des services dans le chiffre d’affaires, en
remarquant d’ailleurs au préalable que les services autres que le traitement applicatif
n’ont pas une profitabilité notablement meilleure que celle des PC ou de certains
périphériques.

Sur le graphique suivant figurent les firmes qui offrent du matériel, des services
ou les deux. L’année concernée est 1992. Nous avons éliminé les cas extrêmes qui
correspondent à des situations anormalement déficitaires, par exemple les startups.

Net% 30%

20%

10%

0%

-10%

-20%

-30%
0% 20% 40% 60% 80% 100%
Part Services

Pour les entreprises de services spécialisées, qui apparaissent à l’extrême droite


avec une part de services égale à 100% ou voisine, les profits se concentrent entre -1%
et 13% (sauf Ceridian et Grumman plus déficitaires). A l’autre extrémité, pour les
firmes dont la part de services est inférieure à 20%, les profits présentent une grande
dispersion entre -30 et 25%, mais la grande majorité des firmes se situe entre -2 et 17%,
dans une plage qui recouvre celle des entreprises de services. Les cas intermédiaires
restent dans la même plage que les pures entreprises de services, sans que se dessine une
tendance apparente vers le haut ou vers le bas.

Le coefficient de corrélation entre le taux de profit et la part de services est


d’ailleurs égal à 0.16, ce qui indique une corrélation très faible entre ces deux facteurs.
Contrairement à une idée bien ancrée, il n’y a donc aucune raison statistique (et nous

xci
verrons plus tard qu’il n’y a aucune raison logique) de penser que développer les
services permet aux constructeurs d’améliorer leurs résultats. L’observation des chiffres
réels peut tout au plus inciter à penser que viser une part de services supérieure à 20%
semble une façon de limiter les risques de pertes, mais tout en plafonnant également les
gains possibles.

Relation entre profit et croissance

La dernière question que nous aborderons à partir des statistiques est celle de la
relation entre la profitabilité et le taux de croissance des firmes. Dans leurs analyses, les
chercheurs de McKinsey ont conclu que les résultats financiers ne sont pas liés à la
croissance du revenu, et de fait le coefficient de corrélation calculé sur l’ensemble des
firmes est faible.

Mais cette conclusion reste-t-elle vraie pour chacune des catégories d’entreprises
prises isolément, dont nous avons des raisons de penser que les dynamiques sont
différentes ? Le tableau ci-dessous donne les coefficients de corrélation catégorie par
catégorie, en distinguant les périodes 1986-1988 d’une part, 1989-1993 d’autre part.
Cette séparation renvoie au fait que les années 1988-1989 semblent marquer une rupture
dans le comportement de plusieurs secteurs. Lorsque le nombre d’observations pour une
catégorie et une période est inférieure à une quinzaine, la valeur du coefficient de
corrélation a été considérée comme non significative (ns). Nous avons utilisé la
décomposition en sous-catégories selon le poids des coûts de production.

On voit que si la conclusion de McKinsey à l’absence de corrélation est vérifiée


pour les services de développement, les services de traitement et les stations, il existe
sur l’ensemble de la période une corrélation positive bien qu’assez modeste entre
croissance et profit pour tous les autres secteurs. La comparaison des périodes 1986 à
1988 d’une part, 1989 à 1993 d’autre part est surprenante : les PC et les périphériques
passent d’une corrélation nulle à une corrélation relativement forte alors que les
généralistes et les services de développement suivent l’évolution inverse, et que les
services de traitement passent d’une corrélation fortement négative à une corrélation
positive.

Corrélation profit-croissance
86-88 89-93 86-93

general 0.57 0.26 0.41


large ns ns 0.54
midrange 0.43 0.72 0.66
PC 0.08 0.61 0.40
stations ns ns -0.10
périph micros 0.09 0.51 0.43
comm ns ns 0.61
périph autres 0.19 0.41 0.33
services dévpt 0.56 0.04 0.19
services fm ns ns 0.40

xcii
services traitement -0.72 0.43 0.08
mixed 0.62 0.56 0.57
software 0.50 0.56 0.52

On peut penser que l’explication de ce constat se rattache au schéma de


fonctionnement des firmes que nous avons évoqué plus haut pour expliquer les
variations de profitabilité. La plupart des entreprises règlent leurs actions, et en
particulier leurs engagements de dépenses, sur un budget annuel dont la partie recettes
représente les espoirs ou les ambitions de la firme pour l’exercice considéré, et dont la
partie dépenses est calculée de façon à produire par différence un résultat considéré
comme acceptable. Le budget de chaque exercice tient compte des résultats des
exercices précédents : si ceux-ci sont satisfaisants, le budget tendra en général à les
prolonger en reproduisant les ratios actuels. Sinon, le budget visera une amélioration
soit en faisant l’hypothèse d’une accélération de la croissance du revenu, soit en
restreignant les dépenses autorisées. A ce stade, les firmes se fixent des objectifs de
profit qui dépendent de leur situation et peuvent varier d’une firme à l’autre, le taux de
croissance de chaque firme n’étant que l’un des paramètres de cette situation. Dans
l’hypothèse où chaque firme réaliserait exactement ses plans, on voit qu’il n’y aurait pas
nécessairement une corrélation étroite entre profit et croissance.

Dans la réalité, à cause du décalage temporel entre dépenses et recettes


correspondantes, les dépenses réellement engagées sont le plus souvent assez voisines
du budget, tandis que les recettes peuvent s’en écarter de façon plus significative. Une
croissance des recettes supérieure à l’hypothèse retenue pour le budget tendra donc à
améliorer la profitabilité d’autant plus que le cycle de base de l’entreprise est plus long,
et une croissance inférieure aura l’effet inverse.

Selon ce modèle, les secteurs où les profits sont dispersés devraient aussi
présenter la plus grande corrélation entre profit et croissance, sans toutefois que cette
corrélation atteigne une valeur très élevée. Cette hypothèse se vérifie bien dans le cas
des généralistes et des systèmes moyens pour les corrélations élevées, des stations et des
services (hors facilities management) pour les corrélations nulles, des grands systèmes
dans le cas intermédiaire. Les résultats sont moins clairs pour les PC où la corrélation
est moyenne et la dispersion faible, et les progiciels où la corrélation est également
moyenne, mais la dispersion grande.

On peut aussi penser qu’une faible corrélation, voire une corrélation


paradoxalement négative, peut correspondre à des prestations en difficulté ou en
régression dans certaines périodes. Certaines firmes peuvent alors adopter une stratégie
de repli qui préserve leurs marges en acceptant une diminution de leur chiffre d’affaires,
tandis que d’autres firmes qui poursuivent des objectifs de croissance obtiennent des
résultats déficitaires.

Conclusions

L’analyse des performances des entreprises de notre échantillon ne valide que très
imparfaitement les idées reçues. On y lit bien les difficultés et la régression des

xciii
généralistes ainsi que de la majorité des constructeurs traditionnels, en particulier depuis
la rupture de 1988, et corrélativement la montée en puissance des spécialistes. D’une
industrie dominée par une poignée de généralistes, l’informatique devient
progressivement l’affaire d’un grand nombre de spécialistes offrant chacun un élément
du système. Cette transition est actuellement au voisinage de son point de basculement,
puisque les généralistes réalisent encore environ la moitié du chiffre d’affaires total de
l’industrie.

Il ne semble pas que cette évolution laisse beaucoup de place à des firmes mixtes,
qui fonderaient leur stratégie sur l’association de prestations sélectionnées trop peu
nombreuses pour en faire des généralistes. Un grand nombre d’entreprises offrent des
services ou du logiciel à titre annexe en support de leurs produits principaux, mais les
performances réalisées par les quelques rares firmes alliant à parts voisines matériel et
services, ou progiciel et services, ne sont pas de nature à leur susciter beaucoup
d’émules. En particulier, contrairement à une idée répandue, nous n’avons pas constaté
de lien entre une part importante de services, au-delà des 10 à 15% annexes aux
produits, et une amélioration de la profitabilité.

Au-delà des différences évidentes dans les prestations, nous avons pu déceler des
comportements différents selon les secteurs, que la structure des dépenses contribue à
expliquer. En particulier, il nous est apparu que les modalités de la relation temporelle
entre les dépenses nécessaires à la mise sur le marché d’un produit et les recettes
provenant de ce produit ont une influence profonde sur le fonctionnement de la firme.
Cette relation est liée au cycle de production, et donc à la nature de chaque produit ainsi
qu’à la stratégie mise en œuvre par chaque firme. Les différences entre productions à
cycles courts et productions à cycles longs semblent assez bien rendre compte de la
dispersion des profits et de la corrélation (ou l’absence de corrélation) entre profit et
taux de croissance.

Mais, quelles que soient les caractéristiques globales qu’il est possible d’attacher à
chaque secteur pris en particulier, cette analyse met en lumière la grande dispersion des
résultats à l’intérieur de chaque catégorie, et donc l’importance des stratégies
individuelles, de leur adaptation au secteur et de la qualité de leur exécution.

xciv
Deuxième partie
Les matériels et les mécanismes économiques
A ... E ... I ... Cela est vrai ... Vive la science !
Molière

Dans la suite de cet ouvrage, nous allons rechercher des explications rationnelles
aux phénomènes que nous observons dans l’industrie informatique. Résumons tout
d’abord les grandes constatations structurelles qui se dégagent du survol historique et
statistique qui précède.

L’informatique à ses débuts est un produit unique, dans la mesure où toutes les
firmes offrent des paniers de prestations complets équivalents. De plus, assez
rapidement, les firmes d’informatique se trouvent toutes spécialisées dans ce produit.
L’informatique se constitue ainsi comme un secteur bien délimité, puisque formé de
firmes spécialisées, et homogène puisque composé de firmes toutes conformes au
modèle intégré. Après que les principales firmes aient absorbé l’activité de fabrication
des composants dans les années 60, le secteur acquiert son autonomie totale par rapport
aux industries électriques et électronique, tout en restant homogène.

Le nombre de firmes actives dans l’industrie informatique croît par rapport à la


mécanographie dont elle était issue, grâce à l’entrée de nombreux concurrents dont seuls
les plus spécialisés y survivent. Ceci n’entame pas la suprématie croissante d’un acteur
dominant, IBM, qui occupe en permanence entre 60% et 70% du marché. Jusque vers la
fin des années 60, l’industrie conserve pour l’essentiel sa structure homogène et
concentrée, avec un relativement petit nombre d’acteurs dominés par une firme
nettement majoritaire.

A partir du début des années 70, on assiste à une désintégration progressive de


l’industrie selon plusieurs dimensions : par nature de prestations à la suite de la
facturation séparée des services, par niche de marché avec les minis et les compatibles,
et plus tard désintégration verticale d’une partie du secteur avec l’apparition de
fournisseurs spécialisés dans les composants ou les sous-ensembles. Cette
désintégration s’accentue encore dans les années 80 avec la montée d’un nouveau pan
de l’industrie, dont la structure est éclatée dès l’origine, et qui conquiert
progressivement une part importante du territoire de l’informatique traditionnelle.
Simultanément, les technologies informatiques se diffusent dans tous les secteurs
d’activité et modifient radicalement certaines industries au point d’estomper les
frontières avec ces secteurs.

Cette évolution a structuré les acteurs de l’industrie informatique en classes


d’entreprises assez bien définies, mais qui ne correspondent qu’imparfaitement à la

xcv
structuration du marché selon les produits et services offerts. Les firmes spécialisées
sont les plus nombreuses, mais la plupart des segments de marché sont dominés par une
poignée de firmes qui offrent chacune la quasi-totalité des formes de produits et de
prestations. En dehors de ces généralistes, il existe peu de firmes offrant une
combinaison particulière de prestations, et les combinaisons représentées sont elles-
mêmes en petit nombre. Ces classes d’entreprises définies par leurs prestations semblent
se rattacher à leur tour à quelques grands modèles qui se distinguent par la structure de
leur compte d’exploitation et leur comportement en réaction aux aléas du marché.

Les moteurs de cette évolution ont été dans tous les cas les décisions des firmes, et
celles de l’acteur dominant qu’a été IBM ont été particulièrement déterminantes. Ces
décisions ont eu constamment pour objectif d’exploiter le potentiel de progrès
technologique au mieux des intérêts propres de la firme. Les initiatives des
organisations extérieures à l’industrie, en particulier des pouvoirs publics, n’ont eu en
fin de compte que peu d’effet. En revanche, les réactions des marchés ont favorisé les
offres les plus en harmonie avec la demande, et sanctionné voire éliminé les entreprises
dont le comportement était trop en désaccord avec les attentes des clients.

Tel est, brièvement résumé, l’ensemble de faits dont nous nous proposons de
rechercher les causes. Comment expliquer cette tendance à la désintégration ? Pourquoi
seules certaines combinaisons de prestations semblent-elles viables ? Peut-on justifier
dans chaque secteur les tailles relatives et les parts de marché des acteurs présents ?
Comment expliquer la disparition de la suprématie d’IBM et les difficultés actuelles des
généralistes ? Quelle relation logique lie les types d’entreprise aux choix de prestations
et les performances aux types d’entreprise ? Comment décrire les interactions entre
l’informatique et les autres industries ?

Ces questions sont fondamentalement des questions d’économie. C’est donc


d’abord vers la théorie économique que nous sommes tentés de nous tourner pour
rechercher les explications les plus fondamentales. Mais nous constaterons qu’il
n’existe pas de chapitre de la théorie économique qui soit capable d’expliquer
complètement la structuration d’un secteur productif et l’évolution de cette structure.
Plus grave encore, les paradigmes centraux sur lesquels repose l’essentiel de la science
économique ignorent par construction des notions que l’intuition et l’expérience
désignent comme fondamentales pour la structuration de l’industrie, dont la
différenciation des produits, le comportement spécifique des firmes, la concurrence
entre producteurs ou l’évolution technologique. Ceci nous obligera à forger en partie
nos propres outils d’analyse.

Quant aux questions liées à la coexistence de prestations de nature différente au


sein d’une même entreprise, qui contribuent à expliquer la spécialisation des firmes,
notre conviction est qu’elles ne relèvent pas seulement du calcul économique, mais font
intervenir des incompatibilités plus fondamentales de nature qualitative. C’est pourquoi

xcvi
nous essaierons de faire apparaître les liens qui existent entre la nature des productions
d’une part, l’organisation et la culture de l’entreprise d’autre part.

xcvii
Chapitre 6
Les mécanismes économiques

Un modèle évolutionniste de l’industrie. Ajustement de la production, échelle de


production et structure. Oligopoles, monopoles et concurrence imparfaite. Forces
concurrentielles et rentabilité. Industrie, secteurs et métiers. Concentration, dispersion
et profitabilité. Les frontières de l’informatique. Evolution sectorielle et cycle de vie.

L’étude économique de la structure de l'industrie et du comportement des firmes


productrices est l’objet d’une discipline appelée « économie industrielle », qui se donne
pour objet d’analyser et de justifier, dans chacun des secteurs industriels :
–le nombre et la taille des entreprises présentes, qui déterminent en particulier le
degré de concentration,
–la diversification horizontale des entreprises, c’est-à-dire leur propension à offrir
une gamme de produits diversifiée et à opérer sur plusieurs marchés,
–l’intégration verticale des entreprises, c’est-à-dire leur propension à assurer elles-
mêmes l’ensemble des opérations successives nécessaires à la production de leurs
produits.

Cette discipline n’existe en tant que telle que depuis les années 70, bien que son
objet ait été abordé antérieurement, par exemple par Marshall ou Chamberlin . Nous en 26

retiendrons en particulier une thèse fondamentale qui rejoint l’un des postulats
empiriques du présent ouvrage : la structure industrielle résulte de l’action de la
concurrence et des forces économiques.

Nous poserons donc en principe que les différentes caractéristiques liées à la


structure de l’industrie ne sont ni le fruit du hasard, ni celui de phénomènes extérieurs
au cadre de l’économie, mais qu’ils peuvent s’expliquer par l’action de lois
économiques qu’il convient de rechercher. C’est à un résumé des principaux acquis de
la théorie économique applicables à notre propos qu’est consacré le présent chapitre,

26 Pour le lecteur qui souhaiterait une vue plus complète de l’économie industrielle, le livre de
Rainelli “Economie Industrielle” (Dalloz, 1993) présente une bonne synthèse récente et contient de
nombreuses références.

xcviii
ainsi qu’à une analyse plus précise des phénomènes de concurrence inspirée des thèses
de Porter.

Quelques notions d’économie industrielle

L’évolution des structures industrielles

Les entreprises tirent leur subsistance de la vente de produits et de services , pour 27

la production desquels elles disposent de ressources. Les marchés sur lesquels


l’entreprise se procure ces ressources et vend ses produits, ainsi que l’environnement
technologique, juridique, institutionnel et économique, forment le milieu dans lequel
évolue l’entreprise.

Les marchés étant par hypothèse limités, les firmes productrices sont en
concurrence entre elles. Bien que la concurrence sur les marchés des facteurs de
production soit quelquefois importante, la concurrence la plus déterminante a lieu sur le
marché où l’entreprise offre ses produits. Ce marché permet à la demande de
sanctionner le comportement des offreurs en agissant directement sur les performances
économiques et la santé financière des entreprises. Celles-ci essaient d’anticiper cette
sanction en s’organisant pour offrir des produits susceptibles de satisfaire le marché. A
travers la sélection immédiate des produits, le marché sélectionne ainsi les organisations
et les formes d’entreprise les mieux adaptées à la satisfaction permanente de la
demande. C’est cette sélection indirecte des firmes qui détermine la structure de
l’industrie.

Pour atteindre leurs objectifs, les firmes doivent prendre une multitude de
décisions d'importance variable, et qui s'inscrivent dans des cycles temporels différents.
En particulier, la nature et le prix des produits offerts sur le marché à un instant donné
résultent en grande partie de décisions prises longtemps auparavant, sur la base d’une
projection subjective de la demande, interne à chaque firme productrice et fortement
influencée par les caractéristiques de la firme, et qui peut se révéler notablement
différente de la demande réelle. Au moment où l’offre et la demande se rencontrent sur
le marché, l’offre de produits a été déterminée par les firmes productrices sur des bases
internes et prévisionnelles, et la demande qui s’exprime effectivement à cet instant peut
s’écarter considérablement des hypothèses qui ont présidé à la détermination de l’offre.

Si par exemple une firme met sur le marché en 1994 un produit dont la conception
et le développement ont duré un an, avec l’espoir que les ventes de ce produit soient

27 Dans cet ouvrage, nous utiliserons fréquemment le terme «produit» pour désigner aussi bien des
services que des produits. La distinction entre ces deux notions sera examinée dans les chapitres suivants,
principalement le chapitre 11 «Le labyrinthe du logiciel et des services».

xcix
importantes au bout de deux ans, on peut au mieux espérer que la définition du produit
intègre l’idée que la firme se faisait en 1992 de la demande à ce moment et de la
demande en 1996. En tout état de cause, la demande réelle en 1994 n’a contribué en rien
dans la définition du produit. Si Sperry Rand et IBM ont créé les ordinateurs en 1951 et
Apple les micros en 1977, ce n’est évidemment pas parce que le marché du moment le
demandait.

L'offre de produits et de services résulte donc des décisions que prennent les
acteurs industriels en fonction de leurs possibilités, de leurs objectifs, de l'image qu'ils
ont de leur environnement concurrentiel et de l'idée qu'ils se font du marché. En
particulier, la fixation des niveaux de prix, qui joue un rôle déterminant dans la
concurrence entre firmes et technologies rivales, procède de la stratégie concurrentielle
de chaque firme. C’est la raison pour laquelle, contrairement à la vision habituelle, nous
pensons réaliste de considérer que, au moment où se passent les transactions sur le
marché, il n'existe pas de relation causale directe allant de la demande vers l'offre. En
d’autres termes, dans le court terme des échanges, l’offre précède la demande.

En revanche, à travers le marché, la demande agit rétroactivement sur l’offre et


sur l’évolution de la firme et du secteur.

Au niveau le plus immédiat, le marché sanctionne le comportement des


entrepreneurs en achetant les produits de ceux qui ont su faire les meilleurs choix et les
mettre en œuvre de la façon la plus efficace aux yeux des clients potentiels. De ses
résultats commerciaux et de ceux de ses concurrents, ainsi que des autres réactions des
clients, la firme tire des indications sur la demande réelle du marché. En cas de résultats
insuffisants, elle a la possibilité d’ajuster immédiatement ses prix et certaines conditions
commerciales, mais modifier les quantités produites ou les caractéristiques du produit
exige un certain temps pendant lequel la position relative de la firme va se dégrader.

Si de graves écarts entre l’offre et la demande persistent, et s’ils ont un effet


négatif important, les organes de direction de la firme vont en rechercher les causes
pour essayer de les corriger. La firme cherchera à réduire ses coûts de fonctionnement
avec d’autant plus d’énergie qu’elle se sent en difficulté. Elle réagira à l’échec d’un
produit non seulement en concevant des produits différents, mais aussi en modifiant son
processus de conception des produits, ne serait-ce qu’en remplaçant les responsables des
échecs. Elle peut ainsi remettre en question les moyens et les procédés de production,
les méthodes de travail, les systèmes de gestion, les structures, les comportements et les
individus. Elle peut aussi constater que les actes de l’entreprise ne sont pas conformes
aux intentions des dirigeants, et réexaminer ses mécanismes d’information, de
commandement et de contrôle.

Pour chacun des offreurs, la demande qui s'est réellement concrétisée pour ses
produits, en volume et en prix, détermine son revenu, son équilibre financier et donc sa
viabilité et sa survie. Les offreurs dont les produits rencontrent durablement une forte
demande prospéreront et croîtront, tandis que ceux qui se trompent trop souvent devront
jeter l'éponge et disparaître.

Les performances financières, qui conditionnent la survie de la firme, mesurent


donc à la fois l'adaptation de l'offre au marché et celle de la firme à son environnement.

c
La sélection naturelle opère ainsi à trois niveaux : celui de la sélection des produits par
le marché, celui de la sélection des organisations et des comportements à l’intérieur de
chaque firme, et enfin celui de la sélection des firmes et des modèles d’entreprise.
L'industrie évolue ainsi selon un processus en quelque sorte darwinien dans lequel le
marché joue le rôle de l'environnement et la personnalité profonde des firmes celui du
matériel génétique, chaque firme déterminant son comportement d'offreur selon sa
personnalité.

Un schéma évolutionniste
Secteur

Secteur

Firme Nombre d'acteurs


Firme Taille des acteurs
Différentiation
Firme Intégration
Firme
Personnalité
Stratégie
Comportement
concurrence sélection

Le Marché

Ce modèle est analogue à celui de la sélection naturelle en biologie. Chaque


entreprise y est assimilée à un organisme vivant dont le comportement résulte d'une
recherche active de la meilleure adaptation possible à son environnement, mais est
contraint et partiellement déterminé par ses caractéristiques internes : compétences,
ressources, organisation, systèmes de management, système de valeurs, schémas de
comportement …, que nous désignerons d'une façon générale comme sa «personnalité».
En déterminant l'évolution de chacun des offreurs en fonction du succès de ses produits,
le marché effectue également une sélection entre les différentes personnalités
d'entreprise, de même qu'à travers le comportement des individus l'environnement
sélectionne le matériel génétique. C’est ainsi que peuvent apparaître et évoluer des
« espèces » d’entreprises.

La théorie classique de la production

L’ensemble de la théorie économique contemporaine , qui résulte des 28

développements inaugurés par Adam Smith au XVIIe siècle, gravite autour du modèle de

28 Les lecteurs qui souhaiteraient rafraîchir leurs connaissances en économie sont invités à se
reporter à un ouvrage didactique classique, par exemple l’excellent « Economics » de Samuelson
(McGraw Hill), qui a fait l’objet de nombreuses éditions.
La plupart des manuels reflètent l’état des principaux courants de la pensée économique aux
alentours des années 50, et contiennent de nombreuses références bibliographiques. Dans le présent
ouvrage, nous ne mentionnerons les références que pour des travaux plus récents ou peu connus.

ci
référence de l’économie néoclassique. Ce modèle suppose un très grand nombre
d’agents, chacun très petit par rapport au marché et tous conformes à un modèle unique,
l’« homo economicus », qui est lui-même un modèle simplifié du comportement humain
individuel.

La théorie économique classique et néoclassique étudie les transactions entre ces


agents économiques en supposant que la taille de chacun est négligeable par rapport à
celle du marché. Ceci implique l’existence d’un très grand nombre de producteurs et
d’acheteurs pour chaque bien, dont chacun est trop petit pour influencer les prix sur le
marché. Le prix du bien se fixe par confrontation de la demande globale et de l’offre
globale et devient une donnée pour chaque producteur.

Réciproquement, au prix du marché, chaque producteur peut écouler toute la


quantité du bien qu’il peut produire, à condition que cette quantité reste une très faible
part de l’offre et de la demande totale. S’il essaie de vendre au-dessus du prix de
marché, il ne vendra rien. S’il essaie de vendre au-dessous du prix de marché, il ne
vendra pas plus et il perdra de l’argent. Si on excepte les tâtonnements qui sont
nécessaires au début de chaque séance pour découvrir le prix de marché, le prix n’est
pas un paramètre concurrentiel et la seule variable d’ajustement possible pour chaque
producteur est la quantité qu’il produit.

Chaque producteur dispose de certains moyens de production qui peuvent être


caractérisés par une « fonction de production » liant le coût de revient à la quantité
produite. Le coût total de production pour une certaine quantité est généralement formé
d'une partie fixe indépendante du volume de production et de coûts variables
dépendants du volume. Dans la majorité des cas réels, le coût variable augmente à partir
d'un certain seuil de volume (loi dite « des rendements décroissants »), si bien que le
coût moyen par unité produite commence par décroître quand la quantité augmente, puis
recommence à croître au-delà d'une quantité « optimale ». Autrement dit, pour un
appareil de production donné, il existe un volume de production optimal qui minimise le
coût moyen donc maximise le profit du producteur puisque le prix de vente est donné
par ailleurs.

La quantité optimale de production et le coût moyen correspondants peuvent être


différents pour chaque producteur selon son appareil de production, qui peut plus ou
moins bien exploiter les technologies disponibles. De la même façon qu'il existe une
quantité optimale de production pour un appareil de production donné, il existe une
échelle optimale de production pour un produit et un état donné des technologies. C’est
celle qui assure le coût de production unitaire le plus bas possible en utilisant au mieux
les technologies disponibles, et qui procure ainsi une rentabilité maximale pour les
producteurs qui fonctionnent à cette échelle.

L’augmentation des capacités productives et l’exploitation de nouvelles


technologies nécessite des investissements. Une industrie attirera de nouveaux offreurs
et de nouveaux investissements tant que la rentabilité des capitaux investis dans cette
industrie est supérieure au taux d’intérêt du marché. Ces nouveaux offreurs et les
quantités supplémentaires offertes vont faire baisser les prix et les profits. Dans le cas
inverse, les offreurs et les capitaux tendront à déserter ce secteur tant que l’égalité de
ces deux taux ne sera pas rétablie.

cii
Au total, le secteur va tendre vers une situation d'équilibre « à long terme » où :
–les prix et les quantités échangées correspondent au point d'équilibre entre les
intérêts des offreurs et ceux des acheteurs,
–chacun des offreurs opère à une échelle au moins égale à l'échelle optimale de
production,
–la rentabilité des capitaux investis est égale au taux d'intérêt du marché.

Il faut noter que l’existence d’un état d’équilibre n’implique pas que l’économie
réelle fonctionne dans cet état. Dans la réalité, il est possible que l’équilibre soit déplacé
par l’évolution des technologies avant même d’être atteint. De fait, il est extrêmement
rare de constater des équilibres stables, surtout dans un domaine aussi mouvant que
l'informatique. D'une façon générale, et même si la théorie économique tend à
privilégier l'étude des états d'équilibre, plus faciles à traiter par des outils
mathématiques, nous en retiendrons plutôt les conclusions relatives aux mécanismes et
aux tendances d'évolution.

Oligopoles, monopoles et concurrence imparfaite

Le raisonnement de l’économie classique suppose que dans tous les états de


l’économie, y compris l’équilibre à court terme et l’équilibre à long terme, la quantité
produite par chaque offreur est insignifiante par rapport à la quantité totale échangée, ce
qui revient à dire que l’échelle optimale de production est extrêmement faible par
rapport à la taille du marché. Ce raisonnement ne tient plus dès que l’échelle optimale
de production devient égale à une part significative du marché, et il s’effondre quand le
coût moyen est indéfiniment décroissant, ce qui définit une échelle optimale de
production infinie.

Or ces derniers cas sont moins rares que les économistes classiques ne veulent
l’admettre. Si par exemple le coût variable est le même pour chaque unité produite, le
coût moyen de chaque unité est égal à la somme de ce coût variable et du quotient du
coût fixe par la quantité produite, et donc d'autant plus faible que la quantité est élevée.
Or, dans les activités de production industrielle, cette hypothèse est généralement vraie
pour un très large intervalle de volumes, voire acceptée comme valable quel que soit le
volume dans les décisions de management. Dans ce cas, le même raisonnement que ci-
dessus montre que le premier qui prend un avantage sur ses concurrents finira par les
éliminer tous. De plus, dès qu’un offreur atteint une part de marché suffisante, ses
actions peuvent avoir une influence sur le prix de marché, et il peut manipuler les prix
dans le cadre de sa stratégie concurrentielle.

En première approximation, on peut néanmoins dire que le rapport entre l'échelle


optimale de production (EOP) et la taille globale du marché détermine la structure finale
du secteur. Si l'EOP est très faible par rapport à la taille du marché, de nombreux
offreurs peuvent fonctionner de façon durablement profitable, et la situation
concurrentielle se rapproche de la concurrence « pure et parfaite » chère aux
économistes. Si au contraire l'EOP est égale ou supérieure à la taille du marché, on a
une situation de monopole où un seul offreur peut survivre. Dans les cas intermédiaires

ciii
où la taille du marché est un petit multiple de l'EOP, on se trouve dans une situation dite
d'oligopole où un petit nombre de firmes se disputeront le marché.

Le cas du monopole, où le bien n’est offert que par un seul producteur, a été très
tôt formalisé et traité. Contrairement aux offreurs sur les marchés concurrentiels, le
monopoleur a le pouvoir de fixer unilatéralement le prix du bien. On montre qu’il peut
maximiser son profit en limitant les quantités offertes et en vendant à un prix supérieur
à celui qui prévaudrait en situation concurrentielle. Il est protégé de l'entrée de
concurrents par le niveau des investissements que ceux-ci devraient consentir pour
mettre en place un appareil de production compétitif. Ceci lui permet le plus souvent de
réaliser de façon durable un profit supérieur à celui qui correspond au taux d'intérêt des
capitaux investis (les économistes parlent alors de « rente »).

Mais ce faisant, le monopole ne satisfait que partiellement la demande, et introduit


une sorte de rationnement et des prix anormalement élevés par rapport à ce que
permettrait une concurrence « pure et parfaite ».C’est pourquoi les économistes
classiques considèrent que les monopoles entraînent une dégradation de l’efficacité de
la machine économique et que les pouvoirs publics doivent soit empêcher leur
constitution ou les briser quand ils existent, soit les soumettre à des réglementations qui
rétabliront la conformité à l’intérêt général.

La notion d'échelle économique de production est fondamentale pour la


compréhension d'un secteur d'activité, car elle détermine à la fois le nombre des firmes
qui pourront y opérer de façon viable, la forme de la concurrence qui y régnera et le
niveau de profitabilité que ces firmes pourront espérer. Elle constituera pour notre
modèle le premier critère de distinction entre firmes et entre secteurs. Nous la
retrouverons d'ailleurs parmi les considérations principales dans l'analyse de la
dynamique concurrentielle.

La structure industrielle en économie classique

La théorie classique décrit les agents producteurs comme étant en concurrence sur
des marchés pour la fourniture de biens. Le paradigme du marché autorise a priori tout
agent à intervenir à tout moment sur tous les marchés comme offreur aussi bien que
comme demandeur. On constate néanmoins que pour la plupart des biens certains
acteurs sont toujours offreurs et d’autres sont toujours demandeurs. A chaque bien (ou
marché) est donc associé un groupe relativement stable d’agents producteurs de ce bien,
qui forment l’« industrie » associée au marché. Dans la mesure ou l’ensemble des
demandeurs du bien n’est lui-même qu’une partie de l’ensemble des agents, on utilise
également le terme de « marché » pour désigner « l’ensemble des acheteurs réels ou
potentiels du produit ». A chaque produit correspond ainsi un marché et une industrie.
29 30

La théorie postule aussi que chaque décision de vente ou d'achat est indépendante
des autres décisions du même agent sur ce marché et sur les autres marchés. A chaque
bien correspond un marché et vice-versa, et les marchés sont totalement indépendants
29 Kotler, Principles of Marketing
30 Il s’agit là d’une autre acception du mot marché, qui dans le vocabulaire économique habituel
désigne le dispositif physique ou institutionnel qui permet les transactions entre vendeurs et acheteurs

civ
les uns des autres. Les phénomènes économiques peuvent alors être étudiés séparément
pour chaque bien ou marché. L’économie est vue comme une juxtaposition de marchés
disjoints correspondant chacun à un bien isolé. Les interactions entre ces marchés se
résument aux arbitrages que font d’une part les consommateurs en affectant leurs
ressources à l’acquisition de différents biens, d’autre part les producteurs en affectant
les facteurs de production.

Dans cette vision, deux producteurs distincts produisent soit des biens identiques
totalement substituables l’un à l’autre, soit des biens totalement différents et
indépendants l’un de l’autre. De plus, un producteur est implicitement associé à un
produit et un seul. S’il offre plusieurs produits, la théorie économique classique les
traite indépendamment en supposant implicitement que l’offreur se comporte sur chaque
marché de la même façon que s’il opérait exclusivement sur ce marché. La théorie
classique postule ainsi une structure industrielle faite de la juxtaposition de groupes de
firmes tels que toutes les firmes d’un groupe offrent un même produit, et que tous les
groupes, donc tous les produits, sont indépendants les uns des autres.

Cette structure hypothétique ne correspond évidemment pas à la réalité. Il est


extrêmement rare que deux firmes différentes offrent exactement le même produit.
Chaque producteur s'emploie à rendre son offre différente de celle de ses concurrents.
Sauf sur certains marchés alimentaires ou de matières premières, qui n'entrent pas dans
notre propos, il n'y a pas de produits rigoureusement identiques. Les produits sont tous
plus ou moins différents et plus ou moins substituables les uns aux autres, si bien que
regrouper des produits réels en familles homogènes assimilables aux produits abstraits
de la théorie économique comporte une grande part d’arbitraire.

La notion de produit ou de bien est elle-même moins évidente qu’il n’y paraît :
par exemple, un service de transports entre Paris et Lyon n’est pas substituable à un
service de transports entre New York et Chicago. Ce n’est donc pas le même produit
bien que ce soit le même secteur d’industrie. Deux produits, même voisins, ne sont
jamais identiques, et à l’inverse deux produits très différents peuvent s’influencer
réciproquement, par exemple les progiciels et les unités de disques . De plus, des 31

produits différents sont souvent liés entre eux au stade de leur utilisation ou au stade de
leur production. Par exemple, la demande sur le marché des progiciels dépend du
nombre d’ordinateurs en service, et la demande en composants électroniques dépend de
la demande en ordinateurs. Ces interdépendances sont d’autant plus significatives qu’on
se propose d’étudier une industrie comme l’informatique, où coexistent un grand
nombre de types de produits liés entre eux par des relations complexes.

Jusque vers 1930, la théorie économique représente le monde comme une


juxtaposition de marchés appartenant à l’un ou l’autre de deux types : ceux dont le
fonctionnement est correctement approché par le modèle de la concurrence pure et
parfaite, et ceux dont le fonctionnement obéit au modèle du monopole.

31 Cette influence est d’ailleurs multiforme : d’une façon générale, la consommation de progiciels
crée une demande de capacité de stockage sur disques, mais il existe des logiciels de compression de
données qui réduisent cette demande.

cv
La tentative la plus ambitieuse de formaliser un modèle général est due à
Chamberlin (The Theory of Monopolistic Competition, 1933). Dans ce modèle, on
considère que chaque producteur offre un bien dont il a le monopole, et que deux biens
offerts par deux producteurs différents ne sont ni totalement identiques ni totalement
différents, mais présentent un certain degré de substituabilité caractéristique de ce
couple de biens. Les cas de la pure concurrence et du monopole deviennent des cas
particuliers, le premier correspondant au cas où les produits de nombreux producteurs
sont totalement substituables, le second au cas où le produit d’un certain producteur n’a
aucun substitut. Dans le cas général, le comportement de chaque offreur ressemble plus
à celui d’un monopoliste qu’à celui du producteur infiniment petit de la théorie
classique, d’où le nom de « concurrence monopoliste » donné à ce modèle.

Malheureusement, ni Chamberlin ni ses disciples n’ont pu en faire dériver un


système analytique suffisamment opérationnel pour servir de base à une théorie
nouvelle. La difficulté est dans la définition de la demande de chaque produit : puisque
tous les produits sont plus ou moins substituables entre eux, et donc plus ou moins
concurrents, la courbe de la demande pour chaque produit (ou sur chaque marché, ou
pour chaque offreur) est liée à tous les autres marchés, produits, et offreurs. Or on n’a
imaginé à ce jour aucune façon de décrire les interrelations entre produits qui soit à la
fois suffisamment rigoureuse et suffisamment simple pour servir de base à une
redéfinition des notions de concurrence, de marché et d’industrie. Autrement dit,
l’approche de Chamberlin, toute séduisante qu’elle soit, ne nous est que de peu d’utilité
pour résoudre le problème que nous posons dans le présent ouvrage.

La théorie économique s’avoue ainsi impuissante à fixer des critères rigoureux


permettant d'isoler une partie quelconque du système économique pour l'étudier
indépendamment du reste. Chamberlin lui-même avait écrit : « En toute rigueur, ni un
marché ni un secteur ne peuvent être définis de façon objective. Le monde économique
peut être considéré comme un réseau de marchés et de secteurs interdépendants, dont les
frontières sont choisies de façon à rendre la représentation commode, mais qui sont
essentiellement arbitraires ».

La concurrence et les structures industrielles

Pour analyser plus finement les phénomènes concurrentiels qui président à la


structuration de l’industrie, il nous faut recourir à des sources qui décrivent la
concurrence de façon plus exhaustive et détaillée que ne le fait la théorie économique.
Nous utiliserons pour cela les ouvrages de Michael Porter, qui sont devenus la référence
dans ce domaine . Tout en reprenant les concepts économiques appropriés, comme ceux
32

d’obstacles à l’entrée ou d’échelle optimale de production, l’analyse de Porter les


complète par de nombreuses autres considérations issues de l’expérience des
entreprises, et présente ainsi une synthèse de l’étude du comportement des firmes en
situation de concurrence.

32 Les deux ouvrages de référence de Porter sont « Competitive Strategy » (1980) et « The
Competitive Advantage » (1985), tous deux publiés par The Free Press, New York. Le premier a été
publié en français sous le titre « Choix Stratégiques et Concurrence » (Economica, 1982) et le second
sous le titre « L'Avantage Concurrentiel » (InterEditions, 1986).

cvi
Nous devrons toutefois en adapter les concepts et les outils au propos du présent
ouvrage. Les ouvrages de Porter s’adressent aux responsables d'entreprise afin de les
aider à formuler des stratégies efficaces compte tenu de leurs activités et de leur
environnement particuliers. Dans cet esprit, ils cherchent à recenser de façon exhaustive
les facteurs susceptibles d'être pris en compte, même si leur analyse doit rester
incomplète ou imprécise. A l’inverse, Porter admet implicitement que ses lecteurs se
situent à l’intérieur d’une firme particulière appartenant à une structure industrielle
donnée et que chacun d’entre eux sait de façon pragmatique quelles sont les firmes dont
il doit tenir compte dans l’établissement de sa stratégie concurrentielle.

Nous pourrons simplifier le modèle proposé par Porter en ne retenant que les
éléments qui sont en relation directe avec la structure industrielle. Certains facteurs
peuvent se révéler importants pour la détermination de la stratégie d'une firme en
particulier, mais peuvent être considérés comme mineurs pour l'étude de la structure
globale ; nous pourrons donc sans dommage les évacuer de notre modèle. De même,
nous pourrons ignorer les facteurs qui ne concernent pas l’industrie informatique, ou qui
agissent de la même façon sur toutes les firmes.

Les cinq forces de Porter

Selon Porter, la concurrence dans une industrie donnée est gouvernée par l'action
de cinq forces fondamentales :
–la menace de nouveaux entrants,
–la rivalité entre les concurrents existants,
–la pression exercée par les produits de remplacement,
–le pouvoir de négociation des clients,
–le pouvoir de négociation des fournisseurs.

Forces concurrentielles

entrants M. Porter - Competitive strategy (1980)


potentiels

fournisseurs rivalité clients

déterminent:
intensité de la concurrence
substituts
structure de l'industrie
profitabilité potentielle
stratégies possibles

évoluent le long du cycle de vie

cvii
Chacune de ces forces synthétise de nombreux facteurs se rattachant au produit ou
service concerné, au système de production, à la firme productrice ou au secteur
d'industrie. De l'interaction de ces cinq forces dépendent en particulier l'intensité de la
concurrence et le niveau de profitabilité potentiel du secteur, le nombre de concurrents
en présence et la répartition des parts de marché, les règles du jeu concurrentiel et
l'éventail de stratégies possibles.

Notion de secteur

S'appuyer sur l'étude de la concurrence pour comprendre la structure de l'industrie


exige que l’analyse soit conduite secteur par secteur. Le choix des clients, et donc la
concurrence, ne joue pleinement qu'entre firmes offrant des produits substituables l'un à
l'autre dans le sens où ils peuvent satisfaire un même besoin du client. Des produits non
substituables entre eux définissent donc autant de secteurs disjoints qui se structurent
indépendamment les uns des autres, au moins en première analyse. Par exemple, le
secteur des imprimantes ou celui des progiciels de traitement de texte sont aussi
distincts de celui des ordinateurs que le secteur des disques compacts l'est de celui des
composants électroniques.

Porter utilise le terme d’« industry » pour désigner « un groupe de firmes qui
fabriquent des produits étroitement substituables ». C'est en somme l'ensemble des
acteurs qui luttent entre eux pour un marché donné et que structure le jeu des forces de
la concurrence. Ce terme a été assez heureusement remplacé par celui de « secteur »
dans la traduction française, car ce qu’il désigne est beaucoup plus étroit que ce
qu’évoque habituellement le mot « industrie ». Dans cette acception, le présent ouvrage
adopte le terme de « secteur » en conservant au mot « industrie » son sens plus large et
plus flou. Cette notion de secteur est différente de la notion de marché ou de segment de
marché, qui se définit comme « l'ensemble des acheteurs réels et potentiels d'un
produit » (Kotler, Principles of Marketing, 1980).

Selon cette définition, l'informatique ne constitue pas une industrie ou un secteur


unique, mais elle est composée d'un grand nombre de secteurs correspondant à autant de
produits substituables. Les produits d'Intel ne sont pas substituables à ceux de Lotus, ni
ceux d'EDS à ceux de Compaq. Parmi les matériels, imprimantes et unités de disque
forment deux secteurs distincts, de même que les tableurs et les traitement de texte
parmi les logiciels. Au sens de Porter, non seulement les composants, les matériels, le
logiciel et les services constituent des secteurs distincts, mais ces secteurs eux-mêmes
doivent être décomposés à leur tour en sous-secteurs, qui peuvent obéir à des logiques
de production et à des dynamiques concurrentielles différentes, et revêtir de ce fait des
structures différentes.

Comme les économistes classiques, Porter reconnaît qu’il est difficile de fixer
exactement les bornes d'un secteur, comme d’ailleurs de séparer les candidats à l’entrée
des concurrents existants ou de distinguer les produits de remplacement des produits
courants. Mais la nature même de son propos l’autorise à éluder explicitement la
question. Le praticien auquel il s’adresse sait quels sont pour lui les produits et les
concurrents pertinents, et peu importe au fond le tracé exact des frontières du secteur

cviii
pourvu que tous les concurrents soient pris en compte d’une façon ou d’une autre, selon
l’importance de la menace qu’ils représentent.

Nous devrons donc adapter ce modèle pour identifier des critères objectifs et
généraux de structuration de l’industrie, et tenir compte des relations de covariance ou
d’antagonisme entre certains produits, et donc les secteurs correspondants, ainsi que du
fait que la plupart des firmes offrent plusieurs produits et opèrent de ce fait dans
plusieurs secteurs.

Par exemple, la plupart des firmes de progiciel sont présentes dans plusieurs
domaines d'application, et presque toutes les firmes de matériel offrent aussi des
services. Lorsque de nombreuses firmes sont présentes dans une même configuration de
secteurs élémentaires, on peut considérer que cette situation définit un secteur
composite, mais il est souvent utile de prendre en compte le fait que certains de ces
secteurs sont en réalité la juxtaposition de secteurs élémentaires pouvant soit obéir à des
logiques différentes, soit se situer à des phases différentes d'évolution sectorielle.

La bonne méthode consiste à faire porter l'étude d'abord sur les secteurs aussi
« élémentaires » que possible, correspondant à des produits incontestablement
substituables. Ce n'est que dans un deuxième temps, après avoir étudié des secteurs
« purs » au sens des corps purs en chimie, que nous pourrons tenir compte des
similitudes et des interrelations entre secteurs.

Dans une première approche, nous nous en tiendrons aux quatre grandes
catégories traditionnelles que sont les composants, les matériels, les logiciels et les
services, tout en cherchant s’il existe des différences dans l’action des forces
concurrentielles à l’intérieur de ces catégories.

Forces concurrentielles et rentabilité

Le modèle classique de l’équilibre économique indique que chaque secteur


d’industrie tend vers une situation où la rentabilité des capitaux investis est égale au
taux d’intérêt du marché, donc est la même pour toutes les firmes et tous les secteurs.
Le taux de profit de la firme, exprimé en pourcentage du chiffre d'affaires après impôts,
est égal au produit du taux de rentabilité des capitaux par le rapport des capitaux au
chiffre d’affaires. Il en résulte que, dans l’hypothèse de concurrence « pure et parfaite »,
la profitabilité moyenne d'un secteur ne dépend que de l'intensité capitalistique de ce
secteur. Il sera élevé pour des activités fortement capitalistiques comme les composants
électroniques, et faible pour des activités comme les services de conseil et d'assistance,
mais dans tous les cas juste suffisant pour rétribuer les capitaux investis au taux du
marché.

Ceci suppose, entre autres hypothèses, que les offreurs puissent librement entrer et
sortir du marché sans encourir de dépenses particulières, et faire varier leur production
par quantités infinitésimales.

La présence de barrières à l’entrée ou à la sortie, ou celle de paliers de variation de


production, modifie ces conclusions. De nouveaux offreurs n’apparaîtront que si la
rentabilité du secteur est suffisamment élevée pour justifier leur investissement initial et

cix
le risque qui lui est associé. A l’inverse, en présence d’obstacles à la sortie, les offreurs
malchanceux ne quitteront pas le secteur tant que leur rentabilité restera suffisante pour
les dissuader de payer le prix de la sortie. Au total, la présence de barrières à l’entrée
tend à maintenir la profitabilité du secteur au-dessus de la moyenne et celle de barrières
à la sortie en dessous. Dans un cas comme dans l’autre, le processus de convergence est
enrayé et les rentabilités des firmes présentes peuvent rester durablement différentes les
unes des autres.

Les mêmes considérations régissent également le nombre d’offreurs présents dans


chaque secteur et l’intensité de la concurrence qui y règne. La présence d’obstacles à
l’entrée tend à réduire le nombre de concurrents et constitue un facteur de concentration
du secteur, tandis que celle d’obstacles à la sortie tend à maintenir le nombre de
concurrents à un niveau artificiellement élevé, et constitue un facteur de dispersion du
secteur. Par ailleurs, la concurrence tend à être d’autant plus vive que le les concurrents
sont nombreux. S’il est possible de sortir facilement du secteur, les firmes en difficulté
pourront abandonner plutôt que continuer la lutte. Si par contre, pour une raison ou une
autre, les firmes engagées dans un secteur rencontrent des difficultés pour le quitter,
certaines choisiront de se battre « dos au mur » en exaspérant la concurrence.

La menace de nouveaux entrants et la concurrence entre offreurs existants


contribuent donc à déterminer la rentabilité d’un secteur. De la même façon, la menace
de produits de remplacement fixe une limite supérieure au prix du produit et donc à la
rentabilité possible, tandis que le pouvoir de négociation des clients et de fournisseurs
détermine la mesure dans laquelle les firmes du secteur peuvent imposer leurs
conditions et ainsi conserver la valeur qu’elles créent. En résumé, pour les firmes qui y
sont présentes, un secteur est d’autant plus favorable que les obstacles à l’entrée sont
élevés, les obstacles à la sortie faibles, la menace de produits de remplacement lointaine,
le pouvoir relatif des clients et des fournisseurs limité.

Types de secteurs
Obst. entrée
concentration
rentabilité
secteur concentré secteur très concentré
concurrence vive concurrence modérée
profits moyens profits élevés
profits risqués profits stables

secteur très dispersé secteur dispersé


concurrence intense concurrence vive
profits faibles profits faibles
profits risqués profits stables

facilité sortie
sécurité

L’obstacle à l’entrée le plus important est une échelle économique de production


élevée. Une telle situation impose au candidat éventuel à l'entrée des investissements et

cx
des besoins en capitaux importants, ainsi qu’un volume minimal de production et des
prix-plafond qui sont ceux des firmes déjà en place, augmentant ainsi son risque. On
retrouve ici la théorie économique qui montre que l'échelle optimale de production est
d'autant plus élevée que le rapport entre les frais fixes et les frais variables de
production est élevé.

Les secteurs de l’industrie informatique

Les frontières de l’informatique

Bien que la théorie économique conclue à l’impossibilité d'isoler une partie


quelconque du système économique pour l'étudier indépendamment du reste, le réalisme
nous contraint à délimiter le champ de la présente étude de façon plus précise que nous
ne l’avons fait jusqu’ici.

Nous pouvons définir l’industrie informatique comme « l’ensemble des


organisations qui produisent des biens ou des services entrant dans la composition des
systèmes informatiques ou utilisés dans leur mise en œuvre ». Cette définition suppose à
son tour que nous puissions définir de façon précise ce qu’est un système informatique,
ce qui n’est pas si évident qu’il n’y paraît.

Informatique et ordinateurs ont longtemps été synonymes, mais la baisse


constante du coût des composants a permis d’intégrer des éléments d’ordinateurs à
toutes sortes d’objets dont la plupart existaient avant l’informatique, et dont certains
appartiennent à la vie courante. Les avions, les voitures, les appareils photographiques,
les instruments de musique, les téléphones, les machines-outils contiennent des
microprocesseurs plus ou moins nombreux et plus ou moins puissants. Doit-on pour
autant considérer ces objets comme des systèmes informatiques et les industries
aéronautique, automobile, photographique, musicale, téléphonique, … comme des
branches de l’industrie informatique ? Dans le même esprit, où ranger les calculettes, les
jeux électroniques ou les simulateurs de vol ?

Pour le moment, nous déciderons arbitrairement de focaliser notre étude sur les
ordinateurs dits « universels », tout en retenant que les technologies et les composants
de l’informatique sont aussi utilisés dans d’autres machines, mais à des fins particulières
correspondant aux fonctions propres à ces machines. Ce n’est qu’après avoir examiné
l’industrie informatique dans ce sens étroit que nous reviendrons sur la question des
objets informatisés et que nous essaierons de comprendre les phénomènes industriels
qui se situent aux frontières de l’informatique stricto sensu.

La définition de l’industrie informatique que nous avons retenue nous invite à


établir un inventaire des produits et services qui « entrent dans la composition des
systèmes informatiques ou sont utilisés dans leur mise en œuvre ».

Vus par leurs utilisateurs, les systèmes informatiques (que nous assimilons aux
ordinateurs) sont toujours constitués par des matériels interconnectés, sur lesquels
s’exécutent des logiciels qui en définissent les fonctions applicatives. La part matérielle
peut être aussi simple que la combinaison d’une unité centrale, d’un écran, d’un clavier

cxi
et d’une imprimante, ou bien comprendre tout un réseau de centres de traitement
comportant chacun de nombreuses unités de calcul et de stockage, et accessible à partir
de milliers de terminaux. Il existe une grande variété de matériels qui se distinguent par
leur fonction primaire (calcul, stockage, lecture et production d’informations sous
différentes formes physiques, communication entre systèmes informatiques, …), ainsi
que par les modalités et les performances d’exécution de ces fonctions. Ces divers
matériels peuvent être acquis séparément auprès de fournisseurs concurrents.

Les logiciels définissent concrètement les services que le système informatique


rend à ses usagers. Tout système informatique contient donc une part importante de
logiciels, que l’on range habituellement en plusieurs catégories : logiciels système
directement liés aux matériels, programmes utilitaires réalisant des fonctions de service,
applications générales communes à de nombreux utilisateurs, applications spécifiques à
un groupe particulier. Tous ces logiciels peuvent être obtenus de différentes façons :
certains logiciels généraux sont préparés par des entrepreneurs et peuvent être acquis sur
le marché comme n’importe quel autre produit ; on parlera alors de « progiciels ». Ils
peuvent à l’opposé être développés spécifiquement pour un utilisateur particulier, qui
peut confier ce travail à son propre personnel ou à une société de services. Notons dès à
présent que contrairement au matériel qui implique une relation classique simple entre
fournisseur et client, le logiciel peut donner lieu à trois modes de relation économique
différents : celui de la production industrielle pour les progiciels, celui du service ou
celui de l’autarcie pour les développements spécifiques.

Outre le développement de logiciels, d’autres services interviennent dans la


composition ou la mise en œuvre des systèmes informatiques : services de
communications, d’intégration, de formation, de gestion, de maintenance, etc. De plus,
à la décomposition « horizontale » perçue par les utilisateurs se superpose une
décomposition « verticale » correspondant à une spécialisation des étapes de
production, qui fait intervenir les matières premières, les produits intermédiaires, les
services aux entreprises productrices d’informatique, etc.

A ce point, notre tentative de donner des bornes claires à l’industrie informatique


rencontre une deuxième difficulté : parmi tous les biens et services utilisés par les
systèmes informatiques, et parmi les secteurs qui les produisent, lesquels doivent être
retenus comme faisant partie de l’industrie informatique ? Il est clair par exemple que
même si les ordinateurs sont enfermés dans des boîtiers métalliques, ceci ne suffit pas à
faire de la métallurgie une branche de l’informatique. Mais à l’inverse, de nombreux
commentateurs fusionnent volontiers l’industrie des télécommunications et celle de
l’informatique. Dans la mesure où un très grand nombre de systèmes informatiques
incorporent des services de télécommunications fournis par les opérateurs spécialisés,
nous devons nous demander si les services de télécommunications entrent dans notre
définition.

Là encore, notre position sera utilitaire et non dogmatique. En cas de doute, il


semble plus utile à l’analyse de considérer deux secteurs comme distincts et d’en étudier
explicitement les relations quitte à conclure à leur similitude, plutôt que de postuler a
priori qu’ils n’en forment qu’un. Dans ce cas précis, les services de télécommunications
offrent une fonction de transport de l’information qui n’est pas spécifique aux systèmes
informatiques. Même dans le cadre de ces systèmes, la fonction de transport peut être

cxii
réalisée par d’autres moyens comme la poste ou les transports routiers, qui sont ainsi
substituables aux télécommunications et pourraient eux aussi être candidats à entrer
dans le champ de notre étude.

D’une façon générale, nous adopterons les règles empiriques suivantes :


–écarter les industries pour lesquelles l’informatique est un client minoritaire et non
le client dominant,
–écarter les industries qui existaient avant l’informatique, c’est à dire avant 1950.

Nous retiendrons ainsi une définition étroite de l’industrie informatique, qui ne


contient en particulier pas les télécommunications, considérées comme une industrie
distincte. Dans la suite de notre étude, nous examinerons les firmes qui jouent un rôle
important en informatique sans que ce soit leur activité dominante, ainsi que les firmes
dont l’informatique influence fortement l’activité – deux critères qui s’appliquent aux
télécommunications – pour voir les implications de cette proximité et reprendre plus
tard la question de leur rapprochement éventuel.

Les facteurs structurants

L’échelle économique de production

Une échelle optimale de production élevée, provenant par exemple d’un ratio des
coût fixes aux coûts variables très élevé, constitue le plus important des obstacles à
l’entrée. Cette situation est de façon extrême celle des composants électroniques où les
investissements sont de l'ordre du milliard de dollars alors que les coûts marginaux sont
très faibles. C’est aussi celle des progiciels dont le coût de reproduction par exemplaire
est très faible alors que le coût (fixe) de développement peut être élevé.

Pour les matériels, la situation dépend de la stratégie adoptée. Un constructeur


peut se contenter d'assembler de façon artisanale des composants et des unités qu'il
acquiert sur le marché, auquel cas ses frais variables seront prédominants et son échelle
de production faible. Les économies d'échelle apparaissent lorsqu'il passe à une
production plus industrielle exigeant des investissements, ou lorsqu'il produit lui-même
tout ou partie des composants qu'il utilise.

Les services ne se laissent pas appréhender de façon simple. Certains comme les
services de conseil et d'assistance sont caractérisés par une échelle de production très
faible et donc sont exempts d'obstacles à l'entrée. D'autres, comme les
télécommunications, exigent des investissements matériels considérables entraînant des
frais fixes élevés et une échelle de production constituant un obstacle quasi-
infranchissable. Dès maintenant, nous voyons que le secteur des services est très
hétérogène et devra faire l'objet d'une subdivision en sous-secteurs.

Un autre obstacle à l'entrée d'un nouveau concurrent est formé par les coûts que
les clients doivent consentir pour changer de produit, ou les autres inconvénients liés à
ce changement. Ces obstacles dépendent de la différenciation du produit, de la fidélité
de la clientèle existante, et des coûts de transfert pour le client. Le candidat à l'entrée

cxiii
peut réduire ces coûts en choisissant de copier des produits existants, en particulier
lorsque ceux-ci font l'objet d'un standard ou d'une norme. Cet obstacle à l'entrée sera
donc important en l'absence de normalisation, faible pour les services et les matériels
standardisés et très faible pour des services banalisés comme l'assistance technique ou le
développement de logiciels.

Les obstacles à la sortie

Dans le cas de l’informatique, la principale source d’obstacles à la sortie est


l’utilisation d’actifs spécialisés qui perdent toute valeur en cas de cessation de la
production. D’autres sources potentielles sont les relations stratégiques réelles ou
supposées avec d’autres activités de l’entreprise, ou encore des restrictions
gouvernementales. Concernant ce dernier point, les gouvernements qui ont soutenu une
industrie nationale ont voulu s’assurer l’existence d’un constructeur national
généraliste. En continuant à le soutenir au moment où tous les généralistes sont en
difficulté, ils ont contribué à maintenir un nombre de généralistes plus élevé que ne le
voudrait la simple logique concurrentielle.

Le besoin de capitaux

Le besoin de capitaux est directement lié à la structure des coûts pour l'activité
considérée et se rapproche donc de l'échelle de production, si ce n'est qu'il s'agit ici du
besoin en valeur absolue alors que l'échelle de production se rattache au besoin en
capitaux à travers son rapport aux coûts variables. Par exemple, les composants et les
progiciels ont tous deux une échelle de production élevée, mais le besoin en capitaux de
l'activité progiciels est beaucoup plus faible en valeur absolue.

Le besoin en capitaux est une barrière à l'entrée particulièrement sévère lorsque


ces capitaux sont destinés à financer des coûts irrécupérables (« sunk costs »), c'est à
dire qui ne peuvent être éliminés même en cas d'arrêt total de la production. C'est le cas
par exemple des dépenses de recherche et de développement et de commercialisation,
ou des coûts de construction de l'appareil de production dans la mesure où cet appareil
ne peut être utilisé à d'autres fins et n'a donc pas de valeur d'usage en cas d'arrêt de la
production. Cette dernière situation peut résulter d'une évolution rapide des technologies
de production, par exemple dans le cas des composants électroniques.

La propriété des technologies

Une firme qui dispose de technologies originales peut rendre difficile l’entrée de
concurrents en leur interdisant d’accéder à ces technologies grâce à des brevets ou tout
autre dispositif de protection. Même en l’absence de telles dispositions de propriété
industrielle, l’investissement et le temps nécessaire à l’acquisition d’un niveau de
compétence concurrentiel peuvent représenter un obstacle à l’entrée non négligeable.

Ce type de barrières à l’entrée forme un obstacle majeur dans le secteur des


composants, et intervient aussi pour les services « intellectuels » où la compétence est
déterminante. La situation est plus confuse pour les progiciels, pour lesquels la

cxiv
protection juridique n’est pas pleinement efficace et constitue un problème majeur
d’actualité.

Le pouvoir des clients

La motivation des clients à négocier âprement avec les fournisseurs, et leur


pouvoir relatif dans ces négociations, sont d’autant plus élevés que :
–les clients achètent des volumes élevés par rapport à la taille des vendeurs,
–le coût des achats est une part importante des dépenses des clients,
–les produits sont peu différenciés et les coûts de transfert faibles,
–les clients sont financièrement fragiles,
–les clients ont la possibilité de produire eux-mêmes les biens concernés (menace
d’« intégration vers l’amont »),
–le produit n’est pas critique pour l’activité des clients,
–les clients disposent d’une bonne information sur les produits, le marché et les
fournisseurs.

Dans leur grande majorité, les fournisseurs informatiques s’adressent à une


clientèle diversifiée qui couvre toutes les branches d'activité et ne forme pas un groupe
ayant des caractéristiques particulières. L’importance des achats pour le client est très
variable selon les applications et les secteurs de clientèle, mais reste la plupart du temps
moyenne. Les coûts de transfert sont élevés pour les matériels non standard, faibles pour
les matériels standard et la plupart des services, mais sont très élevés pour certains
services à caractère monopoliste comme les télécommunications. La menace
d'intégration amont n’existe que pour la majorité des services, où elle est importante.

A l’intérieur de l’industrie informatique, nous pouvons appliquer l’analyse ci-


dessus aux cas où les produits d’un secteur sont utilisés par un autre secteur. En
éliminant le cas banal, non spécifique à l’informatique, de l’utilisation d’ordinateurs à
des fins de gestion ou d’aide aux activités internes de la firme, les deux cas à examiner
sont celui de la fourniture de composants aux constructeurs et de la fourniture de
matériels et progiciels aux offreurs de certains services.

Nous avons vu que le secteur des composants et fortement concentré alors que
celui des matériels est dispersé. De plus, les composants représentent une part critique
des matériels, et les fournisseurs de composants peuvent exercer une menace crédible
d’entrée dans le secteur du matériel. En revanche, les constructeurs de matériel ne
forment un débouché critique que pour ceux des fournisseurs de composants qui sont
hautement spécialisés en informatique. Le secteur des composants jouit donc d’un
pouvoir important sur ses clients les constructeurs de matériel et peut dans une large
mesure leur imposer ses conditions et empocher la plus grande part de leur valeur
ajoutée combinée.

Dans le cas des offreurs de services qui incorporent à leurs prestations du matériel
ou du progiciel, comme c’est le cas des services de traitement, de l’intégration de

cxv
systèmes, ou du facilities management, les deux secteurs sont dispersés. Mais d’une part
ces achats sont plus critiques pour les sociétés de service que pour les constructeurs, et
d’autre part les constructeurs peuvent exercer une menace permanente d'intégration en
aval des services, alors que l’inverse est peu crédible. Le pouvoir des fournisseurs de
matériels et progiciels est donc relativement supérieur à celui de leurs clients les
offreurs de services. Cette conclusion doit néanmoins être tempérée par le rôle de
prescripteur et de distributeur que peuvent jouer ces derniers.

Secteurs concentrés et secteurs dispersés

Nous pouvons maintenant compléter la distinction entre secteurs que nous avions
ébauchée au chapitre précédent à partir de l’échelle optimale de production.

Une grande échelle optimale de production due à des frais fixes élevés par rapport
aux frais variables, et/ou une forte différenciation des produits entraînant pour le client
des coûts de transfert élevés en cas de changement de fournisseur, constituent de fortes
barrières à l'entrée et font du secteur un secteur concentré où la concurrence se joue
entre un petit nombre de grandes firmes. Un exemple typique est celui des
microprocesseurs.

Une échelle de production élevée va de pair avec des coûts fixes élevés et un fort
besoin de capitaux, que nous ne considérerons donc pas comme des facteurs de
structuration indépendants. D’autres facteurs qui poussent à la concentration d’un
secteur sont principalement l’utilisation de technologies protégées ou peu répandues et
l’absence d’obstacles à la sortie.

Dans les secteurs concentrés, les firmes peuvent espérer atteindre une profitabilité
élevée, mais la part de marché joue un rôle déterminant. Plusieurs études ont cherché à
comprendre s’il existe une configuration stable des parts de marché, en partant du
principe que la concurrence est la plus intense entre firmes de taille comparable et doit
devenir plus modérée entre firmes de taille très différente. De façon empirique, on
constate souvent une tendance vers une configuration où un leader occupe 55% à 65 %
du marché, un challenger environ 30%, avec quelques firmes secondaires se partageant
quelque 10 à 15% . C’était par exemple le cas de l’informatique jusqu’aux années 80
33

avec IBM dans le rôle du leader, et c’est maintenant les cas des microprocesseurs avec
Intel, des progiciels système et de chacun des principaux logiciels utilitaires avec
Microsoft, ou des logiciels de réseau avec Novell.

A l'opposé, de faibles barrières à l'entrée entraînent une structure dispersée où 34

opèrent de nombreuses firmes concurrentes. Les parts de marché y sont plus faibles, la

33 Ce constat a été érigé en règle par Henderson, du Boston Consulting Group, sous le nom de
« règle de 3 et 4 », qui s’énonce « dans une industrie stable, il n’y a que trois concurrents significatifs et
leurs chiffres d’affaires sont dans les rapports 4-2-1 »
34 Nous avons préféré le terme « dispersé » à « fragmenté » pour traduire le mot « fragmented »
utilisé par Porter. D’une part c’est un meilleur antonyme de « concentré », et d’autre part ce choix nous
permet de réserver le mot « fragmenté » pour désigner une industrie où les différents biens sont produits
par des firrmes spécialisées distinctes, par opposition à une industrie « intégrée ». Voir les chapitres 14 et
15.

cxvi
firme la plus importante ayant rarement plus de 15% du marché et les 10 premières ne
totalisant le plus souvent pas 50%. La profitabilité potentielle y est également faible,
même pour les firmes les plus performantes. Cette situation peut être due à une échelle
optimale de production réduite grâce à des frais fixes modérés, ainsi qu'à une
banalisation ou une standardisation des produits qui facilite le changement de
fournisseur. Elle est aggravée par l’utilisation de technologies banales ou la présence
d’obstacles à la sortie.

Notion de métier

Plusieurs secteurs au sens de Porter (groupe de firmes qui fabriquent des produits
étroitement substituables) peuvent se caractériser par des appareils de production très
voisins et donc avoir en commun tous les facteurs de structuration qui se rattachent au
système de production, alors même que leurs produits ne sont pas substituables. Nous
utiliserons le terme de « métier » pour désigner un tel groupe de secteurs. C’est par
exemple le cas de l’assemblage des matériels, qui peut concerner aussi bien des
imprimantes que des unités de calcul ; c’est aussi le cas des progiciels, puisqu’un
tableur et un gestionnaire de communications, bien que non substituables, font
néanmoins appel au même processus de production.

Le jeu des forces concurrentielles au niveau d’un métier se situe quelque part
entre un secteur au sens strict et une industrie au sens large. En effet, la similitude de
l’appareil de production poussera certains acteurs d’un même métier à être présents dans
plusieurs secteurs, voire à tirer de cette présence un avantage concurrentiel et à protéger
cet avantage en établissant des liaisons entre des produits appartenant a priori à des
secteurs distincts. Ce phénomène a dominé le secteur des matériels avant que la
standardisation ne vienne isoler les différents types d’unités les uns des autres et
permettre le cloisonnement entre sous-secteurs. Il joue maintenant un rôle de plus en
plus visible dans les progiciels où les leaders comme Microsoft ou IBM, et leurs
challengers immédiats comme Lotus ou Novell cherchent à couvrir un domaine
d’application aussi étendu que possible. Nous reviendrons sur cette problématique dans
le chapitre consacré au progiciel. En revanche, le fonctionnement du marché, et en
particulier les effets de substitution entre produits concurrents et la répartition des parts
de marché, doivent bien être analysés secteur élémentaire par secteur élémentaire.

Produits et secteurs informatiques

A ce stade de notre étude, on peu donc prévoir que le secteur des composants se
caractérise par un faible nombre d'acteurs et une rentabilité élevée, celui des matériels
par un assez grand nombre d'acteurs et une rentabilité moyenne, celui des services par
un grand nombre d'acteurs et une rentabilité faible. Pour les secteurs des matériels et des
progiciels, il ne nous a pas été possible de caractériser de façon simple des facteurs tels
que la différenciation des produits et les coûts de changement de fournisseur. La
structuration de ces secteurs doit donc tenir compte du phénomène de standardisation :
un haut degré de normalisation des produits abaisse les barrières à l'entrée, donc
augmente le nombre de concurrents et diminue la profitabilité potentielle par rapport à
un secteur où les concurrents offrent des produits plus différenciés.

cxvii
Le secteur des progiciels présente un caractère paradoxal à l’observateur
superficiel, car tout à la fois les obstacles à l'entrée et à la sortie y semblent faibles, et
les économies d'échelle y sont très fortes, la plus grande part des coûts étant supportée
en phase de développement. On y constate d’ailleurs la coexistence d’un grand nombre
de firmes avec des profitabilités très élevées. La réalité est que les firmes de progiciels
ne constituent pas un secteur unique, mais autant de secteurs que de domaines
d’application (systèmes d’exploitation, gestion de réseaux, traitement de textes,
tableurs, utilitaires, …), ces nombreux secteurs formant un métier unique. La dispersion
n’est ici qu’apparente et concerne le niveau du métier. Chaque secteur élémentaire obéit
à une logique de concentration, ce qui explique les fortes rentabilités constatées.

Le secteur des services est encore plus hétérogène puisqu’il contient des types de
services divers assis sur des appareils de production très différents dans leurs
caractéristiques économiques, en particulier leur échelle de production. Même en
première approximation, les services ne peuvent pas être analysés comme un secteur
homogène, ni même comme un métier au sens d’un ensemble de firmes dont les
appareils de production ont des caractéristiques voisines. Ceci explique la diversité des
situations dans un domaine où coexistent des métiers et des secteurs différents, comme
nous le verrons au chapitre 13.

Attrait et rentabilité
Obst. entrée
concentration
rentabilité
très attractif
télécoms
composants
mat original
temps partagé progiciels
traitement infogérance
backup
dévelopt
mat standard maintenance intégration

formation
assistance
conseil
peu attractif
facilité sortie
sécurité

G. Dréan - 1994

Cycle de vie

Les cinq forces de la concurrence évoluent dans le temps, et avec elles la structure
et les caractéristiques des secteurs, qui connaissent en général un cycle de vie passant
par les phases d'introduction, de croissance, de maturité et de déclin. En règle générale,
au fur et à mesure que le secteur évolue vers la maturité et le déclin, le pouvoir des
clients augmente, les produits se standardisent, la concurrence tend à s'intensifier et la
profitabilité à diminuer. Mais il arrive que certains des sous-secteurs nouvellement créés
reprennent le cycle à son début et présentent une structure très différente de celle du
secteur dont ils sont issus.

cxviii
Pour illustrer cette analyse, appliquons-la à la totalité du macro-secteur
informatique, en reportant l’étude de chaque branche au chapitre concerné.

Le premier groupe de facteurs d’évolution est lié au marché. La clientèle


desservie par l’informatique est en expansion constante, mais à des rythmes différents
selon qu’il s’agit des grandes organisations, des petites entreprises, des professions
libérales et des particuliers. A ces différentes populations correspondent d’ailleurs des
besoins et des comportements d'achat différents, qui contribuent à une segmentation
croissante des marchés et ouvrent en permanence aux offreurs de nouvelles opportunités
de spécialisation. Parallèlement, les besoins évoluent dans le sens d’une diversification
des applications, ainsi que des attitudes des utilisateurs vis à vis de la personnalisation et
de l'intégration de leurs systèmes. Les grandes entreprises souhaitent majoritairement
disposer de systèmes sur mesure, les plus petites et les utilisateurs individuels veulent
des systèmes standard prêts à l’emploi. Ces différences créent des demandes différentes
en matière de progiciels et de services, donc à nouveau des opportunités de
spécialisation.

Une croissance rapide permet à la concurrence de s’orienter vers la conquête de


nouveaux clients, tandis qu’un ralentissement contraint chacun des acteurs à rechercher
sa croissance au détriment des autres, avivant ainsi la concurrence. L’informatique est
globalement passée d’un régime de croissance rapide à un régime de croissance ralentie,
mais des poches de décroissance et de poches de croissance rapide coexistent avec des
zones de croissance moyenne.

La pénétration du marché est variable selon les segments. Elevée pour les grands
organismes et les petites entreprises très techniques, elle est encore moyenne pour les
autres petites entreprises, et relativement faible pour les travailleurs individuels et les
particuliers. Selon le produit et le marché, le taux de pénétration peut correspondre à la
phase d'introduction, à la phase de croissance, de maturité ou de déclin. Il en va de
même des phénomènes d’apprentissage des acheteurs, dont les niveaux de compétences
sont extrêmement divers.

Un deuxième groupe de facteurs d’évolution se rattache à l’évolution


technologique, qui peut apporter des innovations dans le produit ou les processus de
production, des modifications de l'échelle de production ou des innovations dans le
domaine commercial. Pour l’informatique, les phénomènes les plus significatifs ont lieu
dans le domaine des composants, où la miniaturisation continuelle augmente en
permanence le rapport des frais fixes aux frais variables, ce qui élève à chaque
génération l'échelle optimale de production, le besoin de capitaux et les obstacles à
l'entrée. Du coté commercial, l’importance croissante de la vente directe à des individus
ou des services, plutôt qu’à des organes spéciaux de grandes entreprises, confère à
l’activité de distribution un poids croissant dans l’ensemble du secteur.

Au total, ce rapide examen des facteurs principaux confirme l’hétérogénéité du


macro-secteur informatique et indique des pistes de segmentation. Tant que le marché
reste globalement en expansion, la maturation du secteur est compensée par
l’éclatement du marché en segments distincts qui offrent aux firmes productrices des
opportunités de concentration, donnant ainsi naissance à de nouveaux secteurs qui
peuvent avoir des caractéristiques différentes de celui dont ils sont issus. Un secteur en

cxix
phase de maturité peut ainsi donner naissance à un secteur nouveau où jouera la
dynamique d’une phase d’introduction. La notion de cycle de vie n'a pas grand sens
pour l'ensemble de l'informatique : les progiciels multimédia sont en phase
d'introduction alors que les grands et moyens systèmes entrent en phase de déclin et que
le service de traitement à façon a dépassé la phase de déclin. La position dans le cycle
de vie constitue un nouveau facteur de différenciation interne à l’informatique, qui
contribue à enlever toute pertinence à une analyse globale.

cxx
Chapitre 7
Les composants, un secteur concentré

Un survol de l’industrie des semi-conducteurs. Technologie, production et formation


des coûts. Les arbitrages technico-économiques. Mémoires et processeurs. Coûts fixes,
coûts variables et échelle de production. Concurrence et structure sectorielle. Coûts
irrécupérables et formation des prix. Les configurations stables et la répartition des
parts de marché. Risc contre Cisc. Vers la fin du progrès ?

Toute l’évolution de l’informatique trouve son moteur dans le progrès des


technologies électroniques. Or c’est essentiellement dans les composants que se réalise
ce potentiel. De même que leurs performances gouvernent l’ensemble des performances
des systèmes informatiques, nous devons nous attendre à ce que l’économie de leur
production exerce une influence déterminante sur la structure de l’ensemble de
l’industrie.

Dans ce chapitre, nous allons appliquer au métier de production de composants


électroniques les éléments théoriques que nous avons résumés dans le chapitre
précédent. Pour cela, nous commencerons par rappeler l’historique et la structure
actuelle de ce secteur d’activité, puis les considérations technologiques qui gouvernent
la production des composants et l’économie du secteur.

Nous nous limiterons aux circuits intégrés (mémoires et microprocesseurs), qui


constituent la part la plus « noble » des ordinateurs et qui ont l’influence la plus
marquée et la plus originale sur l’évolution du secteur industriel. Parmi les autres
composants, les plus critiques sont les affichages, où la technologie des écrans plats
s’apparente à celle des mémoires et profite des développements de la micro-
électronique, et les diverses unités d’entrée-sortie et de stockage d’informations, où la
micro-électronique s’allie à la mécanique de haute précision.

Historique

A l'origine, les ordinateurs utilisaient les mêmes composants électroniques que les
autres matériels et les constructeurs s'approvisionnaient auprès de fabricants tels que
General Electric, RCA, Sylvania, Raytheon … pour lesquels l’informatique n’était
qu’un client très marginal. L'industrie informatique naissante était ainsi distincte de
celle des composants, qui existait avant elle. De nombreux fournisseurs de composants
tenteront d'ailleurs de prendre pied dans l'informatique, et tous abandonneront tôt ou
tard.

Autour de 1960, les constructeurs de matériel informatique commencent


progressivement à produire eux-mêmes tout ou partie des composants de leurs
machines. Ce mouvement va de pair avec l'apparition de composants spécifiques
comme les mémoires, puis avec celle des circuits intégrés dont la conception ne peut

cxxi
plus être séparée de celle des matériels où ils sont utilisés. A partir de 1964, à la suite
d'IBM, chaque constructeur d'ordinateurs conçoit et produit lui-même l'essentiel des
composants qu'il utilise. En même temps que l’industrie informatique se détache ainsi
de l’industrie électronique généraliste, la production de composants s’intègre dans
l'activité de chacun des constructeurs. Cette intégration reste à ce jour une
caractéristique du monde de l'informatique traditionnelle.

En sens inverse, les microprocesseurs développés par les constructeurs


informatiques trouvent des applications dans d’autres industries. C’est pour répondre à
ces besoins que se créent de nouvelles entreprises spécialisées comme Intel en 1968.
Ces deux mouvements se rejoignent lorsque IBM décide d’utiliser des composants Intel
dans ses micro-ordinateurs lancés en 1981, faisant revenir le monde du PC à la situation
initiale où les constructeurs de matériels achetaient leurs composants à des fournisseurs
extérieurs. Cette spécialisation entre l'industrie des composants et celle des matériels
dans le monde du PC a été confirmée aussi bien par la floraison des constructeurs qui
utilisent les composants Intel que par l'apparition de fournisseurs de composants
compatibles tels AMD ou Cyrix. Le point le plus remarquable est sans doute que,
malgré les efforts d'IBM pour revenir sur le marché des composants pour PC, la
domination d’Intel n'ait fait que se renforcer.

Non seulement le monde du PC, mais aussi l’alternative Apple se conforme au


même modèle en utilisant des processeurs construits par Motorola. C’est donc
l’ensemble du monde des micro-ordinateurs qui repose sur l’utilisation de
microprocesseurs fournis par des firmes spécialisées distinctes des constructeurs de
matériel. L’exception – de taille – est IBM qui produit une grande partie des composants
qu’elle utilise, sur la base d’accords de licence avec Intel.

Par contre, le monde Unix a conservé la structure du monde traditionnel, chacun


des principaux constructeurs (Sun, Hewlett-Packard, IBM, Digital Equipment, Silicon
Graphics) utilisant son propre processeur. Il se trouve que dans leur majorité, ces
constructeurs ont choisi d'utiliser pour leurs machines Unix des processeurs utilisant les
concepts Risc (Reduced Instruction Set Computer). Dans chaque cas, la conception et la
fabrication du processeur font l'objet d'un partenariat entre le constructeur de matériel et
une ou plusieurs firmes spécialisées en micro-électronique. C'est ainsi que Motorola est
associé à IBM, Hitachi à Hewlett-Packard, Texas Instruments et Fujitsu à Sun et
Mitsubishi à Digital Equipment. Par ailleurs, autour de chaque processeur, se sont
formés des consortiums regroupant des constructeurs de matériel qui utilisent ce
processeur dans leurs machines. En ce sens, la structure industrielle attachée aux
composants Risc, semblable au départ à celle du monde traditionnel, commence à
présenter certains des traits du monde PC. Mais chaque constructeur majeur de matériel
Unix continue néanmoins à considérer la possession d'un processeur original comme
faisant partie de ses avantages concurrentiels.

Dans les dernières années, un nombre croissant de constructeurs de matériels,


généralistes ou spécialisés, offrent des systèmes construits à partir de composants du
commerce, et certains constructeurs traditionnels comme NCR ou Unisys ont même
abandonné la fabrication de composants pour utiliser ceux d’Intel. Ce mouvement
semble représenter une tendance de fond que nous allons chercher à expliquer dans la
suite de ce chapitre.

cxxii
Le segment et le secteur

Le tableau suivant donne la liste des 10 premiers fournisseurs de composants


électroniques pour ordinateurs en 1992. La colonne « composants » donne leur chiffre
d’affaires dans ce domaine en millions de $, et la colonne « semi-conducteurs » leur
chiffre d’affaires total en composants électroniques, toutes applications confondues.

Tableau I Chiffre d’affaires des composants


composants semi-conducteurs
Intel 4690 5064
Motorola 1464 4635
NEC 1158 4976
AMD 637 637
Hitachi 616 3902
Texas Instruments 530 3052
Mitsubishi 487 2307
Toshiba 457 4765
National Semiconductors 395
Philips 287 2108

Remarquons que, sauf pour Intel et AMD, les composants informatiques ne sont
qu’une part minoritaire de la production totale de semi-conducteurs. On estime que pour
1992, le chiffre d’affaires total de l’industrie des semi-conducteurs a été de 59 milliards
de $ (pour 130 milliards de composants électroniques), dont 27 milliards (45%) destinés
aux ordinateurs. Ces 27 milliards se répartissent en 25% environ pour les
microprocesseurs, 30% pour les mémoires et le reste pour les autres composants (puces
spécialisées, cartes, …).

Certains fournisseurs sont en même temps des généralistes de l’informatique


comme Texas Instruments ou les japonais NEC, Hitachi et Toshiba, mais pour toutes ces
firmes, les activités de production de composants et celles de construction d’ordinateurs
sont gérées de façon totalement indépendante, sur le modèle du conglomérat et non sur
celui des constructeurs généralistes intégrés.

Rappelons aussi que plusieurs constructeurs d’ordinateurs fabriquent leurs propres


composants, mais n’apparaissent pas dans ce tableau puisque leur production est
réservée à leurs propres besoins et n’est pas commercialisée. Le plus important est bien
sûr IBM, dont la production de composants est comparable en valeur à celle d’INTEL
même si sa composition est assez différente, et qui se place donc dans les tout premiers.
C’est aussi le cas de Digital Equipment, Hewlett-Packard, Sun et Silicon Graphics. Mais
il faut noter que toutes ces firmes se sont alliées à des fournisseurs de composants plus
spécialisés ou plus importants : IBM à Motorola pour son programme PowerPC, Digital
Equipment à Mitsubishi, Hewlett-Packard à Hitachi, Sun à Fujitsu et Texas Instruments,
Silicon Graphics à NEC. De plus, toutes ces firmes s’orientent vers la fourniture de
leurs composants sur le marché.

cxxiii
Les problèmes techniques

Rappels de technologie

Les puces électroniques utilisées dans les ordinateurs sont de petits rectangles de
silicium sur lesquels sont gravés des circuits. Les dimensions des cotés de ces rectangles
sont de l'ordre de un à trois centimètres. Les circuits électroniques gravés sur la puce
peuvent réaliser des fonctions de mémorisation et de traitement d’information. Certaines
puces ne contiennent que de la mémoire, tandis que les microprocesseurs contiennent
principalement des circuits de traitement, ainsi que la mémoire directement nécessaire
au fonctionnement de ces circuits. Nous reviendrons plus loin sur cette différence entre
les puces mémoire et les microprocesseurs, qui joue un rôle important dans la
dynamique de l’industrie.

La largeur des traits gravés sur le silicium, pour constituer par exemple un
conducteur, caractérise un niveau de technologie. Les microprocesseurs récemment mis
sur le marché ont une largeur de trait inférieure à 1 micron (µ), c'est à dire un millième
de millimètre. Pour les puces les plus récentes, cette largeur est de l’ordre de 0.5µ. Il est
difficile de se représenter ce que signifient ces dimensions. Imaginons qu’une puce
comme le PowerPC soit agrandie de façon à permettre le passage d'êtres humains au
lieu d'impulsions électroniques. Il faudrait pour cela remplacer les traits de 0.5µ par des
sentiers de 1 mètre de large. La puce aurait alors la taille d’un carré de plus de 20 km de
coté, et la distance moyenne entre deux sentiers voisins (la largeur des plates-bandes ou
l’épaisseur des haies) serait de 6 mètres. La complexité de tels circuits est donc
équivalente à celle d'un labyrinthe de couloirs de 1 m de large qui couvrirait totalement
la région parisienne selon une grille de 6 mètres sur 6, et sur 4 à 6 niveaux. Cette
complexité contribue à expliquer l'importance des dépenses de recherche et
développement nécessaires à la conception des microprocesseurs.

La finesse de gravure des traits et l’écartement entre deux traits voisins


déterminent la densité des circuits. Elle est limitée principalement par trois facteurs :
–les lois de la propagation des électrons dans les solides, qui pour de très faibles
distances font intervenir des phénomènes quantiques encore mal connus,
–les phénomènes de rayonnement et d’interférence électromagnétique entre circuits
voisins,
–la précision des techniques de photolithogravure utilisées pour la fabrication.

Avec les technologies actuelles, une puce typique contient 4 millions de bits de
mémoire, ou environ 3 millions de transistors pour les microprocesseurs. Avec une
largeur de trait de 0.35µ, les puces mémoire de la prochaine génération contiendront 16
millions de bits, et les microprocesseurs une dizaine de millions de transistors.

Les limites théoriques sont encore lointaines puisqu'on sait aujourd'hui faire
fonctionner en laboratoire des éléments de quelque nanomètres (millionièmes de
millimètre) soit 100 fois plus fins que les circuits actuels du commerce, donc
potentiellement 10000 fois plus denses. Au niveau de la fabrication, on commence à
maîtriser en laboratoire les techniques qui permettront de graver industriellement des

cxxiv
circuits de 0.1µ, ce qui représente l’horizon actuel des techniques de fabrication et
annonce des puces à 256 millions de bits ou plus de 100 millions de transistors.

Les performances globales de la puce sont déterminées d’une part par son
architecture, d’autre part par la vitesse d'horloge, qui détermine le nombre de
changements d'état des composants actifs par unité de temps. L’architecture d’une puce,
qui définit en particulier le répertoire d’instructions qu’elle sait reconnaître et exécuter,
influe aussi sur ses performances à travers les facteurs suivants :
–la quantité d'information qui circule en parallèle entre les différents blocs
fonctionnels de la puce (32 bits pour la plupart des puces courantes, 64 bits pour les
plus modernes),
–la quantité d'information qui circule en parallèle entre la puce elle-même et le reste
de l'ordinateur, et qui peut être différente de celle qui circule à l'intérieur,
–la possibilité d'exécution simultanée de plusieurs opérations à l'intérieur de la puce.
Une puce est dite « superscalaire » si elle contient plusieurs unités de traitement
capables d’exécuter en parallèle des instructions différentes, et « pipeline » si les
étapes successives d’une même instruction sont exécutées par des unités différentes,
ce qui permet à plusieurs instructions successives d’être simultanément en cours
d’exécution. Ces deux approches peuvent se combiner dans une même puce.

Une puce, définie par son architecture et sa technologie, peut fonctionner à des
vitesses d'horloge différentes. La vitesse maximale est limitée par les possibilités
d'évacuation de la chaleur dégagée par la puce. En effet, comme dans tout conducteur, la
circulation de l'électricité produit de la chaleur. Plus la densité des circuits et la vitesse
d'horloge sont élevées, plus le dégagement calorifique par unité de surface est grand
(certains circuits actuels rayonnent autant qu'un matériau chauffé à 1200°C, soit 6 fois
plus qu'une plaque de cuisson). Il est possible de diminuer le dégagement calorifique et
la consommation en réduisant la tension de fonctionnement, mais ceci diminue
également l’intensité des signaux et il faut alors veiller à ce que ceux-ci puissent être
distingués du bruit électronique présent dans les circuits. Les puces les plus récentes
fonctionnent sous une tension de 3.3 volts contre 5 volts pour la génération précédente.
La réduction progressive des tensions de fonctionnement est une constante de
l’évolution technologique.

Une puce donnée peut fonctionner dans une assez large plage de vitesses. Plus que
de la puce proprement dite, la vitesse d’horloge maximale est directement fonction de la
capacité d’évacuation de la chaleur, qui dépend elle-même de l’environnement dans
lequel la puce est destinée à fonctionner. Un ordinateur portable ne peut comporter
aucun dispositif particulier d’évacuation de la chaleur, et les puces qui lui sont destinées
ne pourront pas dépasser une certaine densité et une certaine fréquence. Au contraire, un
gros ordinateur peut contenir un dispositif de refroidissement très puissant qui autorise
les densités et les fréquences d’horloge maximales pour la technologie électronique
considérée.

cxxv
La fabrication des puces

Pour fonctionner correctement, une puce ne doit pas comporter de défauts


susceptibles de perturber le déplacement des impulsions électriques. A l'échelle humaine
que nous avons utilisée ci-dessus, les hôtes de notre labyrinthe s'y déplaceraient à 600
mètres par seconde et ne devraient rencontrer aucun obstacle susceptible de les gêner
dans les couloirs larges de 1 mètre. Autrement dit, la qualité de fabrication des puces
électroniques actuelles doit être la même que celle d'une surface de 20 km de côté où ne
subsisterait aucune irrégularité supérieure à quelques dizaines de cm. Ceci impose que
la production des composants se déroule en atmosphère extrêmement purifiée.

Le cycle de production commence par la fabrication d’un cristal cylindrique de


silicium pur à partir de silicium fondu. Les techniques actuelles permettent d’obtenir des
cylindres de 20 cm de diamètre et 1,5 mètre de long. Ce cylindre est ensuite découpé en
tranches d’environ un demi-millimètre d’épaisseur, sur chacune desquelles seront
fabriquées simultanément de nombreuses puces identiques.

Sur la tranche de silicium, les circuits sont formés d’un certain nombre de
couches, (typiquement entre 5 et 15) portant chacune un dessin particulier réalisé avec
une substance chimique particulière (dopant ou conducteur métallique). Chacune de ces
couches est créée en un cycle comprenant quatre opérations principales : dépôt d’une
résine photosensible, photolithographie, gravure et dopage. Les tranches sont ainsi
soumises à une série de traitements chimiques et thermiques successifs permettant de
graver les motifs correspondants aux différents niveaux et aux différents réactifs utilisés
dans la fabrication, et de déposer les substances constituant les circuits. Ce processus
utilise une succession de masques, qui doivent être positionnés avec une exactitude
cohérente avec la dimension des circuits eux-mêmes, c’est à dire au dixième de micron
près. La fabrication exige donc des équipements permettant des positionnements stables
à des précisions inférieures au micron, enfermés dans des salles anti-vibrations elles-
mêmes construites dans des bâtiments antisismiques. Les réactifs utilisés, en général
sous forme gazeuse, sont nombreux, souvent toxiques, et doivent eux-mêmes être
exempts de toute impureté de taille supérieure à 0.2µ. C’est dire que leur circulation
exige des systèmes très particuliers.

A l'issue du processus, chaque puce est testée individuellement afin de marquer et


d’éliminer ultérieurement celles sur lesquelles figurent des défauts dus aux
imperfections du silicium ou du processus de fabrication. La tranche est alors découpée
en puces, les puces défectueuses sont éliminées et les puces satisfaisantes sont munies
de leurs connecteurs et enrobées de résine protectrice. Le pourcentage de puces
satisfaisantes, ou rendement, est la principale mesure de la qualité du processus.
Habituellement faible au début de la production, il peut ne se stabiliser à un niveau
acceptable qu'après de nombreux mois.

cxxvi
Economie de la production

Les déterminants de la performance et des coûts

Lorsqu’ils conçoivent une nouvelle puce, les fabricants cherchent évidemment à


obtenir la meilleure performance au moindre coût. Or le prix de revient d’une puce est
en gros proportionnel à sa surface et inversement proportionnel au rendement du
processus de fabrication. Par contre, ce prix de revient est à peu près indépendant du
contenu fonctionnel de la puce : en dehors des coûts de développement, le prix de
revient d’une puce de 16 Mégabits est à peu près le même que celui d’une puce de 4
Mégabits, et le coût d’un processeur est le même pour 3 millions de transistors que pour
1 million, en supposant bien entendu la même surface et le même rendement. Le coût
par fonction (par bit de mémoire ou par fonction logique) est donc d’autant plus faible
que la densité est grande. C’est ce mécanisme qui explique la recherche de densités sans
cesse plus élevées et, par voie de conséquence, la baisse continuelle des coûts du
traitement de l’information, au rythme de 20% par an.

La dimension des puces résulte principalement d’un arbitrage entre le rendement


d’une part, le contenu fonctionnel et les considérations pratiques de conditionnement
d’autre part. Plus une puce est grande, plus elle peut être riche en fonctions et plus le
coût par fonction peut être faible. A l’inverse, le rendement du processus est en gros
inversement proportionnel à la probabilité de trouver un défaut sur une puce, qui étant
donnée l’origine des défauts est elle-même proportionnelle à la taille de la puce.
Supposons par exemple que chaque tranche de silicium contient en moyenne après
traitement 5 petits défauts répartis au hasard. Si on a fabriqué sur cette tranche 100
puces identiques de 1 cm de coté, cinq au maximum contiennent chacune un défaut et
devront être éliminées, et le rendement sera donc de 95%. Si on avait fabriqué sur cette
même tranche 10 puces de 4 cm de coté, il est toujours probable que 5 d’entre elles
contiendraient un défaut, et le rendement ne serait plus que de 50%. Incidemment, si on
voulait utiliser toute la tranche pour un seul composant géant, on n’en réussirait qu’un
de temps en temps et de manière non prévisible. Ce phénomène pousse à produire des
puces de petites dimensions.

Mais, quelle que soit la densité des circuits, il est impossible de réduire les
dimensions des puces en dessous de certaines limites. Leur raccordement au monde
extérieur, en l’occurrence le reste de l’ordinateur, se réalise en effet à travers quelques
centaines de connecteurs (typiquement entre 200 et 500) qui doivent trouver leur place
sur la puce, et lui imposent une dimension minimale qui varie suivant le nombre de
connecteurs et la technologie de raccordement utilisée. De plus, ce nombre de
connecteurs croît avec le nombre de bits traités en parallèle, et plus généralement avec
la richesse fonctionnelle de la puce. Dans la pratique, ceci explique que la taille des
puces se situe entre un peu moins d’un centimètre et environ 2.5 cm de coté, et que ces
dimensions aient peu de chances d’évoluer considérablement quoi qu’il arrive.

Le progrès des technologies électroniques se traduit donc d’abord par une


croissance du contenu de chaque puce, en capacité de mémoire et en nombre de
fonctions logiques, et subsidiairement par des vitesses de commutation plus rapides et la
possibilité d’opérer à des tensions faibles. L’enrichissement fonctionnel des puces

cxxvii
logiques peut se traduire par des performances accrues sous réserve d’une architecture
appropriée. Ce sont les technologies annexes de refroidissement qui déterminent pour
chaque niveau de technologie électronique les vitesses d’horloge possibles et donc les
performances réelles de la puce dans un environnement donné.

Mémoire et logique

Il existe entre les puces mémoire et les puces logiques ou microprocesseurs des
différences fondamentales qui ont des implications industrielles importantes.

Alors que de nombreux circuits sont actifs simultanément sur une puce logique,
une toute petite partie d'une puce mémoire est active à un instant donné. Un processeur
présente donc un plus grand risque d’interférences entre circuits voisins et un
dégagement calorifique plus élevé que celui d’une puce mémoire de même technologie
et de même vitesse. Pour une même largeur de trait, la densité des circuits et la vitesse
de commutation peuvent être plus élevées pour une puce mémoire que pour une puce
logique. A titre d’exemple, la même technologie 0.5 microns est utilisée pour des
processeurs comme le PowerPC de 2.8 millions de transistors et pour des puces
mémoire de 16 Mégabits. En ne comptant qu’un transistor par bit, la densité de la puce
mémoire (1 cm sur 2) est de 80000 transistors par mm 2 alors que celle du processeur est
d’environ 20000 transistors par mm2.

Une puce mémoire remplit une fonction simple, celle de stocker et de restituer sur
demande des informations représentées par des éléments binaires. Au plan fonctionnel,
deux puces mémoire de générations ou de technologies différentes ne se distinguent que
par leur capacité et leur vitesse. La structure d’une puce mémoire est donc hautement
répétitive et relativement stable d'une génération à l'autre, ce qui limite les efforts et les
coûts de conception. De plus, le test d’une puce mémoire est une opération relativement
simple et presque identique d’une génération à l’autre.

Au contraire, les puces logiques réalisent des fonctions complexes et variables


d’une puce à l’autre. Chaque nouvelle technologie impose le développement d’une
nouvelle puce, car il serait sans intérêt de se borner à fabriquer la même puce en plus
petit. Chaque saut technologique permet en gros de placer deux à trois fois plus de
transistors par puce. Or une puce logique contenant trois fois plus de transistors que la
précédente ne peut pas en être dérivée de façon simple, mais implique une nouvelle
architecture. La nature même des puces logiques demande des programmes de test très
complexes, qui devront être refaits pratiquement ex nihilo à chaque génération.

Pour toutes ces raisons, les puces mémoire sont plus simples à concevoir et plus
faciles à fabriquer que les puces logiques. Dès que la R&D technologique permet de
fabriquer des puces d’une densité correspondant à une nouvelle génération, la
technologie peut être utilisée dans des puces mémoire qui sortiront les premières sur le
marché. Utiliser cette même technologie pour des puces logiques demande des
investissements et un délai supplémentaire pour concevoir les microprocesseurs et
construire le système de support au développement et les procédures de test. Ce délai est
également utilisé pour qualifier complètement la technologie et résoudre les problèmes
de fabrication et de rendement. Les mémoires peuvent ainsi être constamment en avance

cxxviii
d'une génération technologique par rapport aux processeurs, si bien que l’évolution à
court terme des microprocesseurs peut facilement être prédite à partir de celle que l’on
observe dans le domaine des mémoires, le décalage temporel étant d’environ deux ans.

On commence par exemple à voir sortir des lignes pilotes des puces mémoire à 64
Mégabits, avec une largeur de trait de 0.35 microns, dont la densité est supérieure à
300000 transistors par mm2. Compte tenu de la plus faible densité des processeurs, cette
technologie permettra en 1996 de produire des puces de plus de 8 millions de transistors
pour la taille du PowerPC, et de 25 millions aux dimensions du Pentium.

Cette situation permet également aux fabricants de mémoires d’offrir l’utilisation


de leurs lignes de production à des firmes spécialisées dans les microprocesseurs, mais
qui se contentent de les concevoir et de les faire fabriquer par des tiers. Ces firmes
« fabless » (sans fabrication) peuvent ainsi limiter leurs investissements à la R&D
nécessaire à la conception du processeur, et faire apparaître la totalité des coûts de
fabrication comme des coûts variables.

La formation des coûts

Un trait fondamental du métier des composants est l’énormité des investissements


de production. Les lignes de production combinent en effet des matériels de très haute
précision faisant appel à des technologies de pointe, implantés dans conditions
exceptionnelles en termes d’environnement, qu’il s’agisse de la pureté de l’atmosphère,
de la stabilité physique des installations, de la circulation des fluides ou du contrôle des
températures. Une ligne de fabrication de puces avec les technologies actuelles coûte
entre 600 et 800 millions de $. Soulignons qu’il s’agit là de l’unité de production
industrielle élémentaire, en ce sens qu’une ligne de production moins coûteuse n’est pas
concevable, ou entraînerait des coûts unitaires de production prohibitifs. La capacité
d’une telle ligne élémentaire est d’environ un million de puces par mois.

Or les générations se succèdent à intervalles de deux ans et demi à trois ans.


Depuis le milieu des années 80, le coût d’une ligne de production a augmenté de plus de
50% à chaque génération technologique, et on s’accorde à penser que cette tendance va
continuer, faute d’une révolution dans les procédés, qui n’est pas actuellement en vue.
On sait déjà qu’une ligne de mémoires 64 Mégabits, qui seront sur le marché vers 1996,
ou de microprocesseurs de technologie équivalente qui apparaîtront en 1997/98, coûtera
notablement plus d’un milliard de $. Toshiba estime par exemple que la taille idéale
d’une usine de composants représente un investissement de près de 3 milliards de $
(300 milliards de yen) pour une production annuelle de même valeur.

En revanche, les matières premières sont soit bon marché comme le silicium qui
revient à environ 70$ le kilo sous forme pure, soit consommées en très faible quantité
dans chaque puce. On estime que le coût total des matières premières, des réactifs et des
fluides utilisés par la production des semi-conducteurs, y compris celle des masques, est
de l’ordre de 13% de la valeur de la production. La production utilise peu de personnel,
et les coûts salariaux, dans la mesure où il est légitime de les considérer comme des

cxxix
frais variables, sont relativement faibles . Le coût marginal de production de chaque
35

puce, c’est à dire le coût supplémentaire encouru pour produire une puce de plus, est au
total de l’ordre de 50 $ en moyenne, tous types de puce confondus.

Nous avons vu que plusieurs dizaines ou centaines de puces identiques sont


fabriquées simultanément sur chaque tranche de silicium, les puces défectueuses étant
éliminées en fin de fabrication. Le coût marginal par tranche est en gros proportionnel à
la surface de la tranche, quel que soit le contenu de celle-ci. Le coût par puce est donc
inversement proportionnel au nombre de puces par tranche d’une part, au rendement
d’autre part. Sous réserve que les problèmes de rendement aient été résolus, le coût
marginal d’une puce ne dépend donc que de sa surface et non de son contenu. Accroître
la densité des circuits permet donc d’en réduire le coût par fonction, et à densité et
contenu égaux une puce est d’autant moins chère qu’elle est petite. Par exemple, le coût
marginal du PowerPC (environ 100 mm2) est trois fois plus faible que celui du Pentium
(environ 300 mm2). Mais il faut rappeler que cette différence n’a qu’une signification
limitée, le coût variable de production ne représentant qu’une faible part du coût moyen
et du prix de vente.

Les coûts de recherche et développement couvrent non seulement la conception


de la puce, mais aussi la R&D sur les technologies, le développement des procédés de
fabrication, et le coût de la ligne pilote. Ces coûts ont été estimés par Intel à 500
millions de $ pour le processeur 486 et 750 millions pour le Pentium. Pour les
mémoires, le tableau suivant donne les estimations de Siemens en millions de $, aussi
bien pour la R&D (colonne 2) que pour la production (colonne 3). Ces chiffres sont
cohérents avec ceux qui sont donnés ci-dessus, compte tenu du fait que les
investissements de production prévus par ce fabricant comprennent plusieurs lignes
élémentaires.

Tableau II Coûts fixes de production des mémoires


R&D production introduction
64Kb 120 190
256Kb 400 180 1985
1Mb 350 1300 1988
4Mb 380 1600 1990
16Mb 510 3700 1993
64Mb 1000 6000 1996

Il convient enfin de noter que tous ces investissements sont par définition
irrécupérables (« sunk costs » en anglais), c’est à dire qu’ils perdent toute valeur en cas
de cessation de la production ou de passage à une nouvelle technologie.

35 Il serait plus logique de considérer les frais de personnel comme des coûts fixes récupérables,
dans la mesure où les effectifs sont peu sensibles au volume produit, mais les coûts correspondants
peuvent être annulés en cas de cessation totale de la production.

cxxx
Concurrence, prix et parts de marché

Traduisons en termes économiques les particularités de la production des


composants micro-électroniques à très haut niveau d’intégration, que nous venons de
décrire.

Configuration générale du secteur

Comme nous l’avons vu au Chapitre 6, le secteur des composants est un secteur


concentré caractérisé par des obstacles à l’entrée très élevés. On peut penser a priori que
peu d’entreprises peuvent consentir les niveaux d’investissements ci-dessus, et que donc
un tout petit nombre de firmes sera présent.

L’échelle économique de production est au moins égale à la production annuelle


d’une ligne, qui est de l’ordre de 1 million de puces par mois soit 12 millions par an, ce
qui est de l’ordre du quart du marché mondial. L’estimation de Toshiba citée plus haut,
qui s’applique à des technologies de production plus récentes, porterait même cette
échelle aux alentours de 30 millions de puces par an. De plus, les investissements de
R&D sont eux-mêmes importants, et il reste donc possible de réaliser des économies
d’échelle en juxtaposant des lignes de production de la taille ci-dessus. Dans toute la
gamme des valeurs raisonnables de la production totale, les coûts unitaires moyens sont
indéfiniment décroissants, et dans ce cas la théorie économique conclut même à la
formation d’un monopole.

Il semble que des ratios de cet ordre sont exceptionnels dans les autres industries,
surtout en ce qui concerne la relation entre l’échelle économique de production et la
taille totale du marché. A titre de comparaison, une étude de la taille efficace des
appareils de production réalisée en 1975 situe cette taille en dessous de 3% du marché
36

des USA pour presque toutes les industries, le maximum étant inférieur à 15% de ce
marché. En dehors du monopole strict, la littérature économique a peu étudié des cas
aussi extrêmes de concentration, ce qui nous oblige à admettre d’avance que nos
conclusions ne sont pas nécessairement généralisables à d’autres situations.

Or la structure réelle du secteur des microprocesseurs est celle d’un oligopole


asymétrique formé d’une demi-douzaine de firmes de tailles très inégales. En prenant
comme base l’ensemble des architectures, les parts de marché des trois premiers sont
respectivement 81%, 10% et 5%. Si on se limite aux compatibles Intel, les trois
premiers occupent 93%, 6% et 1% du marché. En même temps, ce secteur est le lieu
d’une concurrence sévère par les prix, et d’une poursuite continuelle des
investissements aboutissant au renouvellement des produits selon une périodicité de
l’ordre de 2 ans, avec à chaque fois des améliorations spectaculaires du ratio
performances/prix. Donc, si ce secteur est proche d’un monopole par la distribution des
parts de marché, il est très éloigné du monopole classique par la virulence de la
concurrence qui y règne.

36 Scherer et al : The Economics of Multi-Plant Operation, an international comparison study


(Harvard University Press, 1975)

cxxxi
Remarquons également que cette structure sectorielle caractérisée par des parts de
marché très inégales, avec un offreur dominant dépassant les 60%, est en réalité très
répandue. Elle caractérisait l’ensemble de l’informatique, qui formait alors un secteur
unique, jusque dans les années 80. Elle se rencontre encore aujourd’hui dans le cas des
progiciels système et des grands utilitaires. Plusieurs auteurs avaient déjà constaté que,
dans de nombreux secteurs, les configurations stables se caractérisent par des parts de
marché très différentes, et recherché une explication économique à ce phénomène, sans
toutefois aborder de cas aussi extrêmes.

Notons au passage que cette situation ne s’explique pas par la théorie des
« monopoles contestables ». Baumol et d’autres auteurs ont montré que si les barrières à
la sortie sont faibles, par exemple si les investissements consentis pour l’entrée peuvent
être récupérés en cas de sortie, la simple menace d’entrée de nouveaux concurrents
suffit à faire tendre les prix vers ceux qui résulteraient d’une concurrence pure et
parfaite. Or ici les coûts fixes sont non seulement très élevés, mais irrécupérables
(« sunk » en anglais) dans la mesure où ils sont encourus même si la firme décide de
cesser la production . Les actifs auxquels correspond l’essentiel des coûts fixes n’ont en
37

effet pas de valeur hors de leur utilisation pour la production de composants, et il est
peu probable qu’un concurrent les rachèterait en cas d’arrêt. Ces coûts irrécupérables
constituent de réelles et sévères barrières à l’entrée et font que les composants ne
forment pas un marché contestable. Il devrait donc se présenter comme un monopole
naturel, ou du moins tendre rapidement vers une situation de monopole.

Il est difficile de croire qu’un phénomène aussi fréquent n’a pas une solide
explication économique, plus convaincante en tous cas que la thèse classique de Gibrat
selon laquelle l’inégalité des parts de marché est simplement le fruit du hasard . En 38

effet, les simulations de l’« effet Gibrat » conduisent à des parts maximales de l’ordre
de 40% après plus de 100 ans, alors que dans notre cas la part du leader est très
supérieure, et que la distribution inégalitaire s’établit en quelques années.

Or il semble que tout se passe comme si le processus d’évolution vers le


monopole s’arrêtait en cours de route pour laisser plusieurs firmes secondaires subsister
durablement à côté de l’offreur dominant, entretenant ainsi une concurrence assez vive
pour se traduire à la fois par des prix bas et des investissements importants. Nous allons
essayer de montrer que ce type de configuration sectorielle est lié aux caractères
spécifiques du secteur que sont le rapport des coûts fixes aux coûts variables et la durée
du cycle des produits, et caractérise les secteurs fortement concentrés.

Echelle de production et rationalité limitée

L’échelle optimale de production est-elle vraiment infinie, c’est à dire égale par
définition à la taille du marché ?

37 Un exemple contraire est celui d’une liaison aérienne dont les actifs fixes, comme les avions,
peuvent être réutilisés sur d’autres liaisons en cas de fermeture de cette ligne.
38 On montre que si une population d’entreprises initialement égales évolue chaque année selon des
taux de croissance individuels distribués de façon aléatoire autour d’une valeur moyenne, leurs tailles
tendent vers une distribution inégalitaire.

cxxxii
Remarquons que la définition de l’échelle optimale de production dans la théorie
classique repose sur l’hypothèse que les firmes exploiteront complètement toute
possibilité de réduire le coût moyen de production à travers l’augmentation des
quantités produites, tant que la baisse des prix de vente reste inférieure à la réduction
attendue des coûts, et cela aussi minime que soit la différence.

Il n’est pas évident que, dans le monde réel, les industriels raisonnent de cette
façon. Le comportement postulé par les économistes supposerait que d’une part la
relation entre les coûts et les quantités soit connue avec certitude, et d’autre part que les
producteurs décident de simultanément baisser leurs prix et d’augmenter leur capacité
de production au prix de lourds investissements. Or dans la réalité la relation entre
volumes de production et coûts n’est pas connue avec certitude, et encore moins la
relation entre les prix et les quantités réellement vendues, surtout en situation
concurrentielle. Il est donc plus vraisemblable que les offreurs agissent avec plus de
prudence et ne s’engagent dans une baisse de prix que si le bénéfice qu’ils peuvent en
attendre est suffisamment certain.

Vu du coté de la demande, il est clair que lorsque l’écart de prix entre deux
produits substituables est faible, les autres facteurs de choix deviennent relativement
plus importants. Par exemple, un écart de prix inférieur à 15% n’est pas nécessairement
déterminant s’il existe d’autres facteurs de différenciation entre les produits. A ce
niveau, les offreurs chercheront à se différencier par d’autres caractéristiques ou à
pousser les volumes par des actions telles que la publicité plutôt que par la baisse des
prix.

Le comportement équivalent en termes de coût consiste à ne rechercher une


réduction de coûts par des quantités accrues que si cette réduction est suffisante. En
simplifiant, on peut considérer que le coût moyen est égal à la somme du coût variable,
supposé constant, et du quotient des frais fixes par la quantité. A partir du moment où ce
deuxième terme est inférieur à un certain seuil, disons 10% du coût variable, le potentiel
de réduction de coût qui subsiste est au maximum égal à ces 10%. En avenir incertain, il
est peu probable que les offreurs s’engagent dans des programmes d’action (et donc de
dépenses) visant à réduire encore le coût moyen en augmentant les volumes.

Appelons R le rapport des frais fixes au coût variable unitaire. Si le nombre


d’unités produites est égal à R, la part des frais fixes dans le coût moyen est exactement
égale au coût variable unitaire, et le potentiel de réduction par des volumes accrus est de
50%. Si par contre le nombre d’unités produites est égal par exemple à dix fois R, la
part des frais fixes dans le coût moyen est égale au dixième du coût variable unitaire,
soit au onzième du coût moyen, et le potentiel de réduction par le volume n’est plus que
de 9%. Dans le cas des coûts variables constants, nous pouvons donc remplacer la
notion d’échelle optimale de production par celle d’échelle économique de production,
qui se mesure par un petit multiple (entre trois et cinq) du rapport des coûts fixes au
coût variable unitaire. Dans le cas des composants dont la durée de vie commerciale est
de l’ordre de quelques années, l’échelle économique annuelle de production est ainsi du
même ordre de grandeur que le rapport des coûts fixes au coût variable unitaire.

Nous avons vu que pour la fabrication des composants, sans même tenir compte
des dépenses de R&D, les coûts fixes s’élèvent à 600 à 800 millions de $ pour une ligne

cxxxiii
de production, et que les coûts variables sont environ 50 $ par puce. Le rapport des
coûts fixes aux coûts variables unitaires, et donc l’échelle économique annuelle de
production se situe donc entre 10 et 20 millions, ce qui nous l’avons vu peut être
considéré comme l’ordre de grandeur de la production annuelle requise pour que le coût
moyen devienne pratiquement insensible au volume vendu.

Chronologie des coûts et des prix

Pour une génération de microprocesseurs, la chronologie des décisions est la


suivante. La firme productrice engage un effort de développement qui fixe les
caractéristiques fonctionnelles et physiques du produit ainsi que ses performances, puis
elle construit les moyens de production nécessaires. Ces phases préliminaires durent
deux à quatre années, au cours desquelles la firme accumule des dépenses qui
constituent des frais fixes irrécupérables. Lorsque l’appareil de production est
opérationnel, le produit est lancé sur le marché et l’offreur lui attache un prix de vente.
Le marché et la concurrence déterminent alors les quantités vendues, et donc les coûts
moyens et l’équilibre général du programme. En réponse au marché, l’offreur peut agir
sur les prix de vente, et dans une mesure limitée sur la part variable des coûts de
production. Mais le produit lui-même ainsi que les coûts fixes, la capacité de production
et le niveau des coûts variables unitaires sont devenus intangibles.

Autrement dit, dès qu’un microprocesseur a été introduit sur le marché, la seule
variable sur laquelle l’offreur peut agir à court terme pour lutter contre la concurrence
est le prix. Agir sur les caractéristiques du produit, ou modifier significativement ses
coûts, nécessite un nouvel effort de développement qui ne portera ses fruits éventuels
qu’au bout de plusieurs années et au prix de nouvelles dépenses irrécupérables.

L’analyse économique montre que, contrairement à une idée courante, les prix de
vente des biens ne sont pas directement déterminés par leur prix de revient, mais par le
marché. Certes, les mécanismes du marché eux-mêmes tendent à rapprocher ce prix du
coût marginal, mais du point de vue de chacun des offreurs, le prix de marché est
déterminé par le jeu de la concurrence, et il lui appartient d’ajuster ses coûts afin qu’ils
restent inférieurs aux prix de vente et permettent de dégager un profit.

Dans un secteur comme les composants, où les coûts sont essentiellement formés
de coûts fixes irrécupérables, l’indépendance des prix par rapport aux coûts est encore
plus marquée que dans tout autre. Supposons en effet que s’engage une guerre des prix
se traduisant par une baisse continuelle. Chacun des offreurs a intérêt à continuer à
produire tant que le prix de vente reste supérieur au coût marginal de production , qui 39

forme ainsi un le plancher en dessous duquel les prix ne sauraient descendre. Une telle
conduite semble suicidaire, car les offreurs ne pourraient plus financer les
investissements nécessaires à la génération suivante. Elle pourrait néanmoins apparaître
si certains acteurs estimaient avoir accumulé des profits suffisants pour financer leurs
nouveaux développements et voulaient accroître leur part de marché, ou encore si
certains acteurs renonçaient à investir et espéraient maximiser leur revenu résiduel en

39 En toute rigueur, jusqu’à ce que son revenu, qui est égal au produit du prix unitaire par la quantité
vendue, couvre le total des coûts variables et des coûts fixes récupérables.

cxxxiv
augmentant leur part de marché. En tout état de cause, la valeur de cette limite basse des
prix est très faible : quelques dizaines de dollars pour les puces électroniques.

Bien que ceci soit connu des économistes et d’un grand nombre de chefs
d’entreprise (mais pas tous...), il faut insister sur le fait le niveau des coûts fixes
n’intervient pas dans ce raisonnement, dans la mesure où ils sont irrécupérables. Au
moment où l’entreprise doit prendre ses décisions quant au prix des produits, rien ne
peut plus empêcher que ces coûts aient été encourus ni en modifier le niveau.
L’entreprise souhaite certes ardemment que ces coûts soient couverts par le revenu, mais
si la concurrence établit le prix à un niveau insuffisant, elle a quand même intérêt à
vendre à ces prix tant qu’ils restent supérieurs au coût marginal de production.
Autrement dit, les coûts fixes irrécupérables n’apparaissent dans la fixation des prix que
comme l’expression d’un souhait, et peuvent donc être éliminés du raisonnement
opérationnel.

Répartition du marché et prix de survie

Une particularité du marché des microprocesseurs est que sa taille globale,


autrement dit le nombre d’unités vendues, est peu sensible aux prix pratiqués. En effet,
le microprocesseur ne représente qu’environ 10% du prix de vente d’un micro-
ordinateur et les puces mémoire un pourcentage comparable. Si même le prix des
microprocesseurs était nul, ceci ne permettrait qu’une réduction de 10% du système
complet, et les volumes vendus n’en seraient que peu affectés. A l’inverse, le prix des
processeurs pourrait doubler ou même tripler sans que les ventes d’ordinateurs, et donc
le nombre de processeurs vendus, ne soient réduites dans les mêmes proportions.

Il en résulte que malgré le caractère hautement concentré du secteur et l’existence


d’un fournisseur dominant, la formation des prix des microprocesseurs n’obéit pas,
même de loin, à la logique classique du monopole. Celle-ci stipule en effet que les
offreurs fixent les prix au niveau qui maximise leur revenu total, c’est à dire le produit
du prix unitaire par le volume. Or, s’ils pouvaient s’entendre sur une telle stratégie, les
fournisseurs de composants auraient intérêt à fixer les prix à un niveau au moins cinq ou
six fois plus élevé que les niveaux actuellement pratiqués, car leur volume de ventes
total n’en serait certainement pas réduit dans les mêmes proportions, et donc leur revenu
serait supérieur.

La formation des prix dans ce secteur résulte donc entièrement de la concurrence


entre fournisseurs pour les parts d’un marché dont la taille totale est pratiquement
indépendante de leurs actions. Dans une telle lutte, tout ce qui est gagné par l’un est
obligatoirement perdu par un autre, ce qui augmente la probabilité de réaction de
l’offreur dominant à une attaque de ses challengers. Au total, personne n’a intérêt à
engager ou à poursuivre trop longtemps une guerre des prix qui aboutirait
vraisemblablement à une baisse des profits pour tous les acteurs, voire à la disparition
de certains d’entre eux. On peut faire l’hypothèse que tous les acteurs en sont
conscients, et qu’ils éviteront de s’engager dans cette voie suicidaire sans qu’il soit
besoin pour cela de collusion ou d’entente illicite.

cxxxv
Une configuration où quelques firmes se partageraient le marché en parts voisines
ne peut pas être stable. Dans un tel cas, chacun des offreurs opère à une échelle trop
faible pour réaliser toutes les économies d’échelle possibles, et il s’en trouvera au moins
un pour tenter d’augmenter ses volumes en agissant sur le prix, ce qui entraîne une
concurrence vive. Or, s’agissant par hypothèse d’un secteur où les coûts variables sont
faibles par rapport aux prix de vente, un faible avantage de volume procure des
ressources supplémentaires importantes. Leur bénéficiaire peut ou bien en sacrifier une
partie pour baisser les prix et accroître encore l’avantage de volume, soit les consacrer à
rechercher d’autres avantages à travers des améliorations du produit ou des services
associés, ou des actions de promotion. Tout avantage de taille est ainsi un avantage
concurrentiel qui peut être exploité pour accroître encore la taille. Une répartition
équilibrée des parts de marché dans un secteur concentré est donc instable.

Au contraire, si les parts de marché sont très différentes, ceux qui jouissent de
grandes parts seront moins enclins à les augmenter encore en baissant les prix. Tous les
auteurs s’accordent d’ailleurs à penser que le leader d’un secteur n’a généralement pas
intérêt à en détenir 100% en éliminant totalement la concurrence. Quant aux concurrents
qui n’ont que de faibles parts de marché, et sont de ce fait tout juste viables, il est
probable qu’ils hésiteront à prendre le risque de baisser encore leurs prix. La
concurrence tendra donc à se modérer, les prix à se stabiliser, et la configuration
deviendra stable.

La théorie classique des oligopoles montre que, pour conserver leur part de
marché et leur profit, le ou les offreurs dominants ont intérêt à fixer les prix au niveau
du coût de production des offreurs secondaires (le « prix limite »), ce qui décourage les
offreurs secondaires de chercher à augmenter leur part. On suppose que le coût de
production des offreurs dominants est inférieur à celui des offreurs secondaires, et que
donc les offreurs dominants réalisent un profit en vendant au prix-limite.

Ce raisonnement ne tient pas explicitement compte des coûts fixes, qui sont
intégrés dans le coût des offreurs secondaires et donc dans le prix-limite. Pour un
secteur où les produits sont renouvelés tous les deux ans au prix d’investissements
considérables, on comprend mieux le phénomène en disant que pour qu’une firme
survive, le revenu qu’elle tire des produits courants doit payer les coûts variables, les
frais commerciaux et de structure, et les investissements de R&D et de production
nécessaires à la prochaine génération. Sur la base de ses volumes de vente actuels pour
la génération courante et de ses estimations pour la suivante, chaque firme détermine
plus ou moins consciemment le « prix de survie » qui lui permet de rester dans la
course.

Or les dépenses de recherche nécessaires pour développer une nouvelle puce, ainsi
que le coût d’une ligne de production, sont en gros les mêmes pour toutes les firmes, et
leur contribution au prix de survie est donc inversement proportionnelle à la part de
marché de chaque firme. Le prix de survie des leaders est ainsi très inférieur à celui des
firmes marginales. En cas de guerre des prix, les leaders auront donc la capacité de
résister beaucoup plus longtemps et si nécessaire de réduire leurs prix à un niveau où ils
survivront alors que les firmes marginales auront disparu.

cxxxvi
Quand la répartition des parts de marché correspond à une situation acceptable
pour tous les acteurs, sans qu’elle soit nécessairement optimale pour chacun d’entre eux,
le comportement décrit ci-dessus tend à perpétuer cette structure au moins le temps
d’une génération technologique.

Qui peut raisonnablement tenter de remettre en cause cet équilibre, en ayant une
chance significative d’y parvenir, et comment peut-il s’y prendre ?

Un éventuel candidat à l’entrée trouve par définition un marché déjà occupé et des
prix déjà établis pour les produits existants. Pour avoir une chance de réussir, il doit ou
bien offrir un produit nettement meilleur pour un prix voisin, ou un produit comparable
pour un prix nettement inférieur, et même si possible conjuguer un avantage de prix
avec une supériorité du produit. En même temps, il doit rendre facile la migration des
utilisateurs actuels vers son produit.

Or les produits en place sont le résultat d’investissements qui se chiffrent en


centaines de millions de dollars. Quel que soit le génie du nouveau candidat, il est
utopique de penser qu’il pourra offrir un produit supérieur pour un investissement très
inférieur. Quant aux prix de marché, ils sont établis autour de quelques centaines de
dollars par unité, ce qui est proche du coût de production moyen du moins bien placé
des offreurs existants. Le candidat à l’entrée devrait donc vendre environ un million
d’exemplaires de sa nouvelle puce pour en couvrir simplement les coûts de
développement. Or pour prendre une place, il faudra soit dépenser plus soit vendre
moins cher, et de toute façon supporter les coûts variables, des frais commerciaux et de
gestion, des dépenses de publicité, … si bien que le point mort de l’entreprise atteint et
dépasse rapidement le million d’exemplaires vendus.

Devant cette équation, est-il raisonnable d’investir un milliard de dollars ou plus


pour être capable de produire dans deux ou trois ans, si tout va bien, un produit dont on
espère qu’il sera capable de concurrencer ceux que Intel, IBM/Motorola, Sun, Digital
Equipment et Silicon Graphics auront mis entre temps sur le marché ? L’homme
d’affaires avisé répondra que non et investira ses disponibilités dans d’autres
entreprises. Cette situation, que Porter désigne comme un cas de « prix dissuasif à
l’entrée » laisse prévoir qu’il n’y aura probablement plus de nouveaux entrants dans le
secteur des microprocesseurs.

Parmi les offreurs en place, le leader n’a pas intérêt à lancer une guerre des prix
qui le rapprocherait encore d’une situation de vrai monopole et pourrait l’exposer aux
foudres des pouvoirs publics et de la justice, et nous avons vu que les firmes marginales
ne peuvent survivre qu’en profitant de prix suffisamment élevés. Pour pouvoir
raisonnablement tenter de déstabiliser le leader, il faut posséder à la fois des volumes
déjà assez élevés pour supporter une baisse de prix, et les ressources intellectuelles et
financières propres à faire espérer le développement d’un produit supérieur. Il faut de
plus que le challenger possède des avantages technologiques dans la production qui lui
laissent penser que, pour les parts de marché qu’il peut raisonnablement espérer, son
prix de survie sera voisin de celui du leader, voire inférieur. Cette combinaison de
conditions ne peut se rencontrer que chez le numéro deux du secteur, à condition qu’il
ait l’ambition affirmée de devenir le numéro un. On peut penser que tel est le cas du
consortium PowerOpen formé entre IBM et Motorola.

cxxxvii
Les prix des composants

La formation des prix des composants traduit la concurrence d’un petit nombre
d’acteurs pour les parts de marché, et ne peut être dissociée de la stratégie et de la
tactique de ces acteurs. De plus, chaque acteur réagit aux actions des autres, et on peut
donc s’attendre à ce que les prix évoluent dans le temps.

Les décisions relatives aux prix viseront donc à optimiser l’économie du


programme de production non seulement sur l’ensemble de sa durée, mais peut-être plus
encore en deçà d’un horizon limité par l’incertitude quant aux réactions des concurrents
et du marché, ainsi que par la possibilité pour la firme d’agir de nouveau sur ses prix.
Enfin, si l’économiste peut se permettre de s’intéresser à l’équilibre global de
programmes pluriannuels, le chef d’entreprise doit se soucier des comptes de chaque
exercice et donc tenir compte d’effets comptables même si leur sens économique est
contestable.

Les coûts d’investissements consentis avant même le lancement du produit


apparaissent dans le compte d’exploitation à travers des amortissements annuels qui
sont soit constants, soit dégressifs. Or, au début de la vie commerciale d’un composant,
les capacités de production comme la demande sont généralement limitées et le
rendement des lignes de fabrication est encore faible, donc les quantités produites sont
faibles. La conjugaison de ces deux effets conduit à un prix de revient moyen apparent
très élevé au début et décroissant avec le temps, mais il ne s’agit que d’un effet
comptable dû aux conventions d’amortissement adoptées et dépourvu de sens
économique.

Néanmoins, le prix de vente devra être élevé si l’entreprise veut présenter des
comptes équilibrés. Heureusement, les performances du nouveau composant peuvent
probablement justifier un prix supérieur à celui de ses concurrents existants, et cela
d’autant plus que les coûts de transfert, c’est à dire les coûts de remplacement de
l’ancien composant par le nouveau, sont faibles.

Le prix le plus élevé envisageable est celui qui maximiserait le revenu total, c’est
à dire tel qu’une augmentation de ce prix aurait pour effet de diminuer la quantité
vendue d’un pourcentage supérieur au pourcentage de hausse de prix. Nous avons vu
que le manque d’élasticité de la demande place ce prix maximal à un niveau nettement
plus élevé que les prix actuellement pratiqués. Au total, l’intervalle dans lequel peuvent
a priori se situer les prix unitaires des composants est très large, de quelques dizaines à
quelques milliers de dollars. Dans la réalité, les prix observés s’échelonnent entre 100 et
1200 dollars, la majorité des microprocesseurs se plaçant entre 200 et 500 dollars.

Un composant plus performant mais totalement compatible pourra être introduit à


un prix élevé, alors que le prix d’un composant d’architecture nouvelle devra être
suffisamment faible pour compenser les coûts de transfert. En tout état de cause,
l’offreur aura tendance à fixer son prix initial au niveau le plus élevé auquel il pourra
écouler toute la production courante, et à ne baisser son prix que dans la mesure
nécessaire pour écouler une production supposée croissante. Le leader du marché
adoptera naturellement une stratégie prudente de compatibilité et de prix élevés, tandis

cxxxviii
que le ou les challengers choisiront probablement une stratégie de conquête, donc des
prix plus agressifs tout en se réservant une marge de réduction importante.

Un exemple typique est le Pentium d’Intel, qui a été introduit sur le marché à près
de 1500$ alors que son prédécesseur le plus proche, avec lequel il est totalement
compatible tout en étant deux fois plus rapide, était vendu moins de 500$. Un an plus
tard, le prix du Pentium est descendu aux alentours de 800$. Son véritable challenger
stratégique le PowerPC d’IBM/Motorola, a été introduit à moins de 500$ pour une
puissance analogue, mais il doit se conquérir un marché et ne peut se substituer
simplement aux processeurs existants. Quoi qu’en disent les fabricants, ces prix et leur
évolution n'ont que peu de chose à voir avec l'évolution du prix de revient, mais
résultent d'une adaptation des prix à la demande du marché et aux actions de la
concurrence.

A partir de son niveau initialement élevé, le prix baissera aussi longtemps qu’un
concurrent pensera qu’il a intérêt à fixer ses prix en dessous du prix courant, ce qui
implique qu’il en attende un supplément de volume tel que son revenu total augmente.
Nous avons vu que c’est justement ce processus qui conduit à une configuration stable
du secteur, à un prix supérieur au coût marginal de production. De plus, ne peuvent
survivre que les firmes qui tirent de leurs produits courants un profit marginal suffisant
pour couvrir les investissements nécessaires à la génération suivante, le profit marginal
étant défini comme la différence entre le revenu et les coûts variables de production. En
pratique, les entreprises considéreront que leurs prix planchers sont largement
supérieurs au coût marginal de production, s’écartant ainsi de la théorie économique. De
toute façon, chaque génération deviendra obsolète et cessera d’être commercialisée
avant que le prix atteigne son plancher, théorique ou pratique.

Sous l’effet de la concurrence, les prix suivent une trajectoire qui les ferait tendre
toujours vers une même valeur de l’ordre de 100 $, quelles que soient la richesse
fonctionnelle, les performances et la technologie de la puce, si le progrès technologique
ne permettait l’introduction d’une nouvelle génération qui fait repartir le cycle d’un
niveau plus élevé avant que les prix n’atteignent le prix-limite. Dans la réalité, les prix
des puces de la dernière génération s’échelonnent actuellement entre 1500 et 400 $,
plage qui se restreindra probablement à un intervalle de 600 à 300 $ par suite de l’action
du consortium PowerOpen. Les puces des générations précédentes, qui restent
utilisables pour des systèmes d’entrée de gamme ou des applications particulières,
valent entre 100 et 300 $.

Concepteurs et fondeurs

Dans ce qui précède, nous avons raisonné comme si tous les offreurs intégraient
toutes les étapes depuis la R&D jusqu’à la fabrication. En réalité, certains ne font que
concevoir et commercialiser des microprocesseurs dont ils confient la fabrication à des
tiers. Ces derniers, généralement producteurs de puces mémoire, consentent les
investissements de recherche technologique et de production, et leur échelle
économique de production est de plusieurs dizaines de millions de puces, tous modèles
réunis. Les concepteurs non-fabricants limitent leurs investissements à la conception du
processeur, et font apparaître la totalité des coûts de fabrication comme des coûts

cxxxix
variables. Certains concepteurs restreignent encore leur effort de recherche et
développement en offrant des copies plus ou moins conformes (des « clones ») de puces
existantes.

En supposant que l’investissement nécessaire à la conception d’un processeur,


hors développement de la technologie proprement dite, soit de 200 millions de $ et que
le coût variable unitaire en sortie de fonderie, c’est à dire le prix de vente du fondeur,
soit de l’ordre de 200$, le rapport des deux est égal à 1 million et l’échelle économique
de production est de quelques millions. Même rapproché du seul marché des
microprocesseurs et non de l’ensemble des composants, ce chiffre est suffisamment
inférieur à celui du fondeur pour donner place sur le marché à un nombre d’offreurs de
processeurs plus élevé que le nombre des fondeurs. Néanmoins, il faut remarquer
qu’aucun autre fournisseur qu’Intel n’a encore atteint ce seuil de 1 million de
processeurs vendus.

Les coûts de conception d’une puce peuvent rester relativement modestes dans un
certain nombre de cas particuliers. Le plus évident est celui où une puce existante est
simplement réalisée dans une technologie nouvelle ; nous avons vu que l’intérêt d’une
telle opération reste limité, puisque d’autres contraintes comme celles de la dimension
minimale empêcheront la nouvelle puce de tirer pleinement parti du potentiel de la
nouvelle technologie, qui ne peut être exploité que par des puces de conception
nouvelle. Néanmoins, cette approche permet de prolonger la vie commerciale des
architectures existantes et de concurrencer les nouvelles architectures par des clones
performants et bon marché d’architectures plus anciennes.

Cette démarche peut également s’appliquer à des puces auxiliaires dont le contenu
fonctionnel est figé et n’aurait rien à gagner d’une conception nouvelle. Enfin, un cas
particulièrement intéressant est celui des processeurs spécialisés dans des traitements
parallèles par nature, par exemple le traitement d’images. De telles puces sont formées
de cellules identiques fonctionnant en parallèle, et s’apparentent donc sur ce plan aux
puces mémoire ; chaque saut technologique n’impose pas de redessiner la cellule
élémentaire de traitement, mais permet d’en loger un plus grand nombre sur la puce et
ainsi de traduire de façon simple le progrès technologique en gain de coût et de
performances.

Pour les clones proprement dits, le prix de survie du cloneur est relativement élevé
même si ses coûts de développement sont réduits, car son coût variable est élevé du fait
qu’il sous-traite la production, et ses volumes faibles. Comme la puce copiée ne peut
être que celle du leader ou à la rigueur du challenger, le prix de survie du cloneur risque
d’être supérieur à celui de l’original, ou en tous cas voisin.

Même si les prix de survie sont comparables, la vie utile du clone est
nécessairement plus courte puisque leur mise sur le marché ne peut qu’être postérieure à
celle de l’original, le délai constaté étant de l’ordre d’une année. Quand le leader a mis
sur le marché le successeur du processeur cloné, il peut baisser les prix de ce dernier
jusqu’au coût marginal si nécessaire, en tous cas jusqu’au prix de survie du cloneur,
voire en dessous si le clone menaçait de prendre des parts de marché au nouveau
processeur. Au total, ni la séparation des rôles de concepteur et de fondeur, ni le
phénomène des clones ne modifient en profondeur la dynamique décrite ci-dessus. Il

cxl
s’agit de phénomènes dont la simple existence est significative car elle contribue à
conserver au secteur un semblant de « contestabilité » au sens de Baumol, mais qui ne
peuvent être que marginaux en volume.

Conclusions

Dans un secteur concentré comme les composants électroniques, les


configurations stables sont inégalitaires. Tout avantage de part de marché tend à
s’amplifier, si bien qu’un peu plus de chance ou de savoir-faire au départ, ou tout
simplement être le premier, aboutit à une situation de domination, sauf si le leader
commet de grosses erreurs ou si un de ses challengers consent les efforts nécessaires
pour le détrôner. En tout état de cause, les configurations équilibrées sont instables par
nature.

C’est le challenger qui détient la clef de la stabilité. S’il décide de mener une
stratégie agressive, ce qui suppose qu’il ait des raisons de penser que son prix de survie
est particulièrement bas, il déclenchera une guerre de prix dont le premier effet sera
d’accélérer l’élimination des offreurs marginaux.

En termes de profitabilité, nous avons vu que les plus gros offreurs sont aussi les
plus profitables. Comme de plus les parts de marché sont très inégales, la profitabilité
moyenne du secteur est très élevée, ce qui ne veut pas dire que toutes les firmes opèrent
à ce niveau de profit. Bien au contraire, les plus petites firmes survivent à la merci des
leaders, et sont condamnées à disparaître à terme si ces derniers décident de se livrer à
une concurrence par les prix.

Répétons ici que cette inégalité n’est ni fortuite, ni le résultat de manœuvres


déloyales de domination, mais constitue une caractéristique intrinsèque des structures
concentrées. La concurrence dans le secteur des composants, comme dans tous les
secteurs très concentrés, s’apparente à une compétition dont les prix sont connus
d’avance : le premier prix est une part de marché supérieure à 70%, le deuxième prix 10
à 15%, et le troisième 5%. La seule incertitude porte sur l’ordre d’arrivée, qui résulte de
l’action de la concurrence entre firmes. Qu’une firme occupe 80% du marché des
composants est une conséquence inéluctable de la dynamique concurrentielle. Il se
trouve que c’est Intel qui a gagné le gros lot. L’histoire aurait pu faire que ce soit IBM
ou Motorola ou un autre ; mais elle n’aurait pas pu faire que cinq, dix ou cinquante
fournisseurs se partagent le marché à parts égales.

Le potentiel de progrès technologique donne en permanence à chacun des


concurrents, voire à de nouveaux entrants, une possibilité de prendre l’avantage avec
une nouvelle génération de puces plus puissantes et moins coûteuses. Autrement dit,
même si le jeu de la concurrence conduit à désigner un vainqueur qui détiendra plus de
70% du marché, le titre est remis en jeu tous les deux ou trois ans. La mise est certes
importante (et nous verrons qu’elle ne cesse d’augmenter à chaque manche), et le leader
en place a plus de chances d’avoir pu la réunir ou de pouvoir l’emprunter. Mais tant
qu’il reste un potentiel technologique inexploité et un challenger crédible, le leader est
contraint à la modération dans ses prix et ne peut conserver sa place qu'en investissant
sans cesse pour exploiter le potentiel de progrès technologique. Dans un secteur

cxli
concentré où existe un potentiel de progrès technologique, la concrétisation de ce
potentiel est garantie par l'importance des enjeux pour le leader et ses challengers. La
concurrence prend la forme de paris successifs où les challengers misent des milliards
pour détrôner le leader, et ce dernier en fait autant pour conserver sa place.

Il ne faut donc pas s’étonner de la situation de quasi-monopole ni de la


profitabilité élevée dont jouit Intel, qui sont parfaitement conformes à la théorie
économique. Il ne faut pas non plus croire que de telles parts de marché, que ce soit
aujourd’hui Intel ou hier IBM, témoignent d’une volonté mégalomaniaque. En dehors
des romans, aucune entreprise n’a pour objectif de dominer le monde. Mais la
compétition étant ce qu’elle est, une d’entre elles gagnera nécessairement le gros lot et
fera ensuite tout pour le conserver.

Perspectives

Perspectives technologiques

Le progrès technologique se traduit principalement par l'augmentation de la


densité des circuits, la dimension des puces restant à peu près constante car déterminée
par les contraintes du processus de fabrication d'une part, du raccordement au monde
extérieur d'autre part. On attend vers la fin du siècle des puces mémoires de 256
millions de bits et des microprocesseurs de 30 millions de transistors, et le début du XXIe
siècle verra des mémoires de 1 milliard de bits et des processeurs de plus de 100
millions de transistors.

Pour que ce progrès soit effectif, encore faut-il que ce potentiel de transistors
puisse être utilisé de façon économiquement efficace, soit pour augmenter la vitesse de
traitement par un parallélisme accru, soit pour placer sur la puce des fonctions
nouvelles.

Dans le cas des mémoires, le progrès se traduit simplement par des capacités par
puce croissantes à chaque génération, entraînant une décroissance des coûts de stockage
par unité d’information. Pour les processeurs, l’exploitation du progrès technologique
impose une nouvelle conception des puces à chaque génération.

Une unité de calcul peut largement être réalisée avec quelques centaines de
milliers de transistors. Les super-ordinateurs des années 60 en contenaient au total
150000, répartis entre de nombreuses armoires, et le processeur Intel 386SX, encore très
répandu, en contient 275000. Jusqu’ici, l’évolution a consisté à intégrer sur un même
composant des fonctions jusque-là implantées sur des puces distinctes, voire des cartes
ou des meubles distincts. C’est ainsi qu’une puce de 1990 contenait dans 2 cm sur 2
toutes les fonctions qui emplissaient une salle des années 1960.

Dans les processeurs les plus récents, le potentiel de transistors est utilisé de
plusieurs façons. Tout d’abord pour augmenter le parallélisme et donc la performance,
en traitant 64 bits en parallèle au lieu de 32, ou en traitant simultanément plusieurs
instructions à des stades différents (architecture dite « pipeline »). Ces deux approches
font passer le nombre de transistors par unité de calcul aux alentours de 1 million. Au-

cxlii
delà, on peut implanter sur la même puce deux ou trois unités de calcul et la logique
nécessaire pour les gérer, comme dans le Pentium ou le PowerPC (architecture dite
« superscalaire »), et utiliser ainsi 3 millions de transistors. Enfin, on peut intégrer à la
puce des fonctions confiées jusque là à des composants séparés, comme le calcul en
virgule flottante, ou entièrement nouvelles comme la gestion de l’énergie consommée.

Il est clair que ce mouvement ne peut que continuer, et que des fonctions
actuellement réalisées sur des composants séparés vont trouver leur place à l’intérieur
du microprocesseur, en même temps que des fonctions nouvelles viendront s’y ajouter.
Mais alors que la simple augmentation du parallélisme n’implique pas nécessairement
de modifications dans les conventions de communication entre la puce et l’extérieur,
c’est à dire son jeu d’instructions, son enrichissement fonctionnel exige un
enrichissement parallèle de ce répertoire.

Cette évolution inéluctable ramène à ses justes proportions le débat actuel entre
les tenants des architectures dites Risc (« reduced instruction set ») contre Cisc
(« complex instruction set »). Rappelons que vers le milieu des années 70, un courant de
recherche s’est attaché à évaluer une nouvelle conception des ordinateurs où le
répertoire d’instructions exécutables par le matériel serait réduit à sa plus simple
expression, soit une dizaine d’instructions, toutes les opérations plus complexes étant
réalisées par programmation. L’idée était de simplifier le matériel afin de le rendre aussi
rapide et bon marché que possible, en espérant compenser ainsi le ralentissement qui
résulterait de l’exécution d’une couche supplémentaire de logiciel.

Ces idées ont été reprises dans les années 80 pour concevoir des microprocesseurs
destinés à supporter le système d’exploitation Unix. Depuis lors la querelle entre Unix
et les autres systèmes s’est doublée d’une querelle entre les tenants des machines Risc et
les constructeurs d’autres machines, baptisées pour la circonstance Cisc. Au début des
années 90, les puces Risc ont effectivement pris une génération d'avance dans
l’exploitation des technologies, dont on a pu croire qu'elle consacrait une supériorité
intrinsèque de l'approche Risc.

Or il apparaît maintenant que cette avance était simplement circonstancielle.


L'absence de contraintes liées à la compatibilité avec des processeurs existants ou à la
nécessité de prévoir la production en volume ont permis de tirer pleinement parti de la
simplicité architecturale inhérente au concept Risc pour concevoir de nouvelles puces et
les mettre sur le marché selon un cycle très court. C'est donc dans des processeurs
nouveaux de type Risc que se sont incarnées en premier les technologies
submicroniques, mais il fallait s'attendre à ce que ces technologies s'étendent à toute la
gamme.

Le processeur Pentium d'Intel, mis sur le marché en 1993, comble cet écart en se
situant au même niveau technologique et au même niveau de puissance, et en utilisant la
philosophie de conception Risc dans la réalisation d'un processeur doté d'un jeu
d'instructions riche et compatible avec ses processeurs existants. De leur coté, IBM,
Apple et Bull associés avec Motorola dans Power Open ont décidé d'utiliser les mêmes
composants Power dans des matériels de type PC et dans des matériels Unix. Le secteur
des processeurs pour PC et celui des processeurs Unix sont en train de fusionner.

cxliii
Jusqu’alors, le secteur des composants Risc pouvait être considéré comme un
secteur concurrentiel particulier d'où les processeurs de type Intel 80X86 étaient
absents, et où la dynamique de concentration ne jouait qu'à l'intérieur d'un marché de
taille encore faible. C'est maintenant dans un segment de marché unique allant des PC
aux systèmes Unix, en attendant de s'étendre aux grands systèmes, que va jouer la
dynamique concurrentielle de concentration caractéristique des secteurs fortement
monopolistes. Le round suivant se jouera non plus sur l'opposition factice entre Risc et
Cisc, mais sur la capacité des promoteurs des actuels Pentium, Power, Alpha, Sparc,
PARisc et Mips à continuer d'investir les quelques milliards de $ nécessaires pour
mettre sur le marché leurs successeurs. Il est clair que certains le feront, et offriront les
processeurs du futur à des niveaux de prix qui resteront ceux des composants micros,
c'est à dire de 200 à 400 $ indépendamment de leur contenu fonctionnel et de leurs
performances. Seuls subsisteront les offreurs qui sauront atteindre une part de marché
cohérente avec une échelle optimale de production qui se chiffre en dizaines de millions
d'unités.

Le débat Risc contre Cisc est donc en voie d’être rapidement dépassé. On voit
d’ailleurs mal comment une puce de plusieurs dizaines de millions de transistors, plus
riche en fonctions que tout un super-ordinateur des années 80, pourrait se contenter d’un
jeu d’instructions « réduit ». Des deux efforts d’origine, réduire le nombre d’instructions
différentes et simplifier la structure de chaque instruction, seul le second restera visible
au niveau de la puce. En revanche, il est probable que chacun des blocs fonctionnels qui
composent le processeur sera conçu selon la philosophie Risc avec un jeu d’instructions
réduit. Autrement dit, le concept Risc restera comme un ensemble de principes
architecturaux concernant la structure interne des processeurs, et non pas comme une
caractéristique distinctive de certains. Les quelques microprocesseurs qui survivront
seront en quelque sorte Risc à l’intérieur et Cisc à l’extérieur.

Perspectives industrielles

La dynamique concurrentielle garantit que l’exploitation du potentiel de progrès


technologique, qui est encore considérable, va continuer pendant au moins les 10
prochaines années, au rythme d’un doublement des densités tous les deux ou trois ans.
Cette évolution s’accompagne d’une complexité croissante des microprocesseurs et de
contraintes de production de plus en plus draconiennes, ce qui entraîne une croissance
des dépenses de R&D et des investissements de production, qui sont en gros doublés à
chaque génération. Par contre, le coût marginal de production de chaque puce reste à
peu près le même de génération en génération, et peut même tendre à baisser si
l’amélioration des densités est en partie utilisée pour réduire les dimensions des puces et
améliorer le rendement du processus de fabrication. La disproportion entre coût fixe et
coût marginal de production s'aggrave donc avec le temps, ce qui fait croître l'échelle
optimale de production et rend le secteur de plus en plus monopoliste.

Notons au passage que l’émergence possible de technologies autres que celles du


silicium, telles que l’arséniure de gallium, les supraconducteurs ou les technologies
optiques, ne modifieraient pas substantiellement ces conclusions. La source des coûts
fixes, est en effet la taille des traits et le nombre de couches, qui ont toutes chances de
rester les mêmes quelles que soient les technologies. Des technologies alternatives

cxliv
peuvent éliminer les problèmes de rayonnement thermique ou autoriser de vitesses de
commutation plus élevées, mais n’ont que peu de chances de réduire les coûts de
fabrication, et exigeraient probablement des coûts de développement accrus.

Face à l’accroissement inexorable du coût fixe des lignes de production, qui est
d’ores et déjà voisin du milliard de $ et passera à coup sûr le cap des 2 milliards vers
1998, plusieurs acteurs explorent le potentiel de nouvelles technologies de production
qui ramèneraient le coût unitaire des lignes de production en dessous des 500 millions
de $, avec une capacité réduite dans des proportions voisines. Ces « minifabs » auraient
en outre l’avantage de permettre des cycles de production beaucoup plus courts, et donc
au total une plus grande souplesse et des échelles de production plus faibles. Dans la
mesure où ces nouvelles technologies se révèlent viables, on peut néanmoins penser que
leurs avantages porteront surtout sur les séries relativement courtes, et que les usines
traditionnelles conserveront leur avantage économique pour les processeurs produits en
très grande série. En tout état de cause, l’apparition des « minifabs » ne ferait
probablement qu’introduire un palier de quelques années dans le processus, et leur coût
lui-même reprendrait une croissance parallèle à celle des usines intégrées actuelles.

Revenons sur la question de la configuration efficiente du secteur, où les parts de


marché des acteurs successifs sont dans un rapport constant et où la part de marché du
plus petit est suffisante pour le rendre économiquement viable, c’est à dire voisine de
l’échelle optimale de production. Cette combinaison de conditions détermine le nombre
de firmes du secteur. Supposons pour fixer les idées que le rapport des parts de marché
entre deux concurrents successifs soit égal à 2 comme dans l’hypothèse de Henderson.
Les parts de marché sont alors, par ordre croissant, dans les rapports 1, 2, 4, 8, 16, …
Puisque la part du plus petit est cohérente avec l’échelle économique de production, on
en conclut que deux firmes suffiront à couvrir le marché si celui-ci est égal à 3 fois
l’EEP, trois firmes couvriront un marché égal à 7 fois l’EEP, quatre firmes 15 fois
l’EEP, etc.

Quelque approximatif que soit ce raisonnement, les conclusions auxquelles il


conduit ne sont pas si éloignées de la réalité puisqu’une étude du groupe Dataquest
estimait qu’en 1991 le nombre de lignes de fabrication nécessaires était de 48, ce qui
selon le raisonnement précédent place le nombre efficient de firmes entre 5 et 6, ce qui
est du même ordre de grandeur que le nombre réel de producteurs. Or la même étude
estimait à 18 le nombre de lignes en 2001, ce qui correspond à 4 ou 5 firmes, et en
extrapolant la tendance on trouve 7 lignes et donc 3 firmes en 2011. On est tenté de
prédire que les années à venir verront le nombre de « fondeurs » diminuer de un pour
chaque cycle de quelques années, et de raffiner notre modèle d’évolution des prix en
disant que les prix finaux pour chaque génération s’établiront à un niveau qui permette
la survie de tous les acteurs sauf un, le moins bien placé.

Déjà Hewlett-Packard a jeté l’éponge en 1994 en s’alliant à Intel. Que ce soit le


premier à abandonner, bien qu’il n’ait peut-être pas été le moins bien placé dans la
course, s’explique par deux raisons : de tous les acteurs secondaires, c’est probablement
celui dont la culture est la plus éloignée des exigences du métier des composants, et
d’autre part c’est aussi celui à qui cet abandon pose le moins de problèmes stratégiques,
contrairement à d’autres entreprises qui font reposer leur stratégie de matériel sur des
composants spécifiques.

cxlv
Cette tendance à la réduction du nombre des acteurs ne peut être contrecarrée que
par un élargissement du marché, ce qui explique les efforts des fabricants de
composants pour leur trouver de nouvelles applications, que ce soit dans l’automobile,
l’électronique domestique ou le multimédia.

En plus des fournisseurs traditionnels que sont les USA et le Japon, des pays
comme la Corée ou Taiwan investissent aujourd’hui massivement dans la construction
d’usines de semi-conducteurs, le raisonnement économique des industriels étant faussé
par d’importantes subventions publiques. Les seules usines en cours de construction à
Taiwan en 1994 auront une capacité presque suffisante pour satisfaire la demande
mondiale actuelle de puces mémoire. On peut donc s’attendre à ce que l’industrie
connaisse une situation de surcapacité dans les années 1995-1996, entraînant d’une part
une guerre des prix et d’autre part la recherche d’autres débouchés. Cette situation sera
favorable aux concepteurs « fabless » et à une diffusion des composants, mémoire et
processeurs, dans un nombre croissant d’applications autres que l’informatique au sens
habituel.

A l’inverse, la vive concurrence entre fabricants accélérera la disparition des


moins performants, c’est à dire des plus petits. Certains de ceux qui conçoivent et
fabriquent des microprocesseurs en abandonneront la fabrication pour la sous-traiter,
comme l’a déjà fait Hewlett-Packard. D’autres mettront en commun leur capacité de
fabrication à travers la formation d’alliances ou de filiales communes. Tant que cette
situation de surcapacité durera, elle sera favorable au maintien d’un assez grand nombre
de fournisseurs de microprocesseurs, pour la plupart « fabless ». Mais la génération
suivante (1997 ?) verra sans doute par réaction une sévère sélection parmi les fabricants,
pouvant même conduire vers 1998/2000 à une sous-capacité et par contrecoup à une
importante mortalité des petits fournisseurs de processeurs.

Que se passera-t-il lorsque le nombre de fournisseurs de microprocesseurs sera


réduit à trois, voire deux, et que les microprocesseurs compteront cent ou deux cent
millions de transistors, ce qui se produira très vraisemblablement entre 2010 et 2020 ?
Subsistera-t-il une motivation concurrentielle pour investir les milliards de dollars
nécessaires pour augmenter encore la densité ? Restera-t-il encore des fonctions
candidates pour utiliser cent millions de transistors supplémentaires ? Au moment où
ces lignes sont écrites, on est tenté de répondre par la négative et d’admettre que le
progrès des composants s’arrêtera dans les vingt premières années du XXIe siècle. Mais
rien n’est moins sûr. Peut-être la diffusion des composants électroniques dans un
nombre croissant d’objets élargira-t-elle le marché au point de compenser, et au-delà, la
croissance de l’échelle économique de production. C’est évidemment ce que souhaitent
les acteurs de cette industrie, et l’un des enjeux fondamentaux des efforts actuels dans le
domaine du multimédia.

cxlvi
Chapitre 8
Les matériels, un secteur dispersé

Emergence d’un secteur autonome. Composants, cartes et boîtiers. Les limites de


l’automatisation. Un secteur dispersé. Inventaire des stratégies possibles. Segmentation
du marché, niches et profitabilité. La supériorité du modèle PC. Innovation et
foisonnement des matériels. Un secteur en pleine santé.

Les matériels, toutes tailles et toutes fonctions confondues, comptent pour environ
60% dans le chiffre d’affaires total de l’industrie informatique. Tout utilisateur
d’informatique est nécessairement client d’un ou plusieurs fournisseurs de matériel,
alors qu’il pourrait se passer assez largement des firmes de logiciel et surtout de
services. De plus, à travers les phénomènes de compatibilité et de standards, les autres
offres s’ordonnent autour des matériels, qui apparaissent d’une certaine façon comme le
secteur central qui commande tout le reste.

Dans le même temps, ce secteur des matériels est souvent considéré comme un
secteur en difficulté, ou à tout le moins comme le plus touché par la crise qui secoue
l’industrie informatique. On a même pu lire que les constructeurs de matériel sont
condamnés à des marges nulles, et donc à disparaître à terme. Quelque hâtif et absurde
que puisse être ce pronostic (peut-on imaginer une informatique sans un support
matériel pour exécuter les programmes ?), il témoigne des interrogations que soulève
l’évolution du secteur des matériels, auxquelles nous allons essayer de répondre dans le
présent chapitre.

Historique

Les matériels ont longtemps été le centre de toute l’offre informatique. Les
premiers acteurs étaient tous des constructeurs de matériel, et le matériel a été jusque
vers 1970 la seule prestation facturable. Tout le reste, logiciels, services de maintenance,
d’entretien, de formation, … était fourni gratuitement pour accompagner le matériel, et
le coût en était couvert par la facturation de ce dernier. De plus, chacun des
constructeurs offrait la panoplie complète des matériels et en assurait l’intégration chez
le client. L’ensemble de l’industrie informatique se résumait donc à un secteur
produisant des systèmes intégrés, dont le chiffre d’affaires était exclusivement assis sur
le matériel, même si les fournisseurs exerçaient de nombreuses activités
complémentaires nécessaires à la production de tels systèmes, dont celles de services et
de développement de logiciels.

Cette offre intégrée a commencé à se fissurer vers la fin des années 60 avec
l’apparition des compatibles IBM. Certaines firmes ont alors entrepris d’offrir isolément
certaines unités destinées à se substituer aux unités équivalentes d’IBM. L’offre de ces
firmes pouvait se limiter strictement au matériel dans la mesure où elles pouvaient

cxlvii
compter sur IBM pour fournir les autres éléments sans lesquels leur offre n’aurait pas
été viable, les logiciels et les services par exemple. C’est d’ailleurs souvent le refus (réel
ou allégué) d’IBM de fournir ses services en relation avec d’autres matériels qui a
provoqué les premiers procès intentés contre IBM dans cette période.

Vers la même époque, et en relation avec la montée des compatibles, est


intervenue la décision d’IBM de facturer séparément les progiciels et les divers services,
suivie plus ou moins rapidement par les autres fournisseurs de systèmes. On a ainsi vu
le chiffre d’affaires des constructeurs se scinder entre les rubriques matériels, logiciels
et services, sans d’ailleurs que cela traduise une modification réelle de leurs activités ni
une réorganisation interne qui rende ces activités plus autonomes. Les seules firmes
véritablement spécialisées dans le matériel sont restées les constructeurs de compatibles,
et ce secteur est resté relativement marginal car limité à la sphère IBM et soumis à la
vigoureuse concurrence du constructeur dominant.

L’arrivée du PC en 1981 s’accompagne d’une véritable révolution dans la


répartition des rôles industriels. Dans l’univers de la micro-informatique compatible PC,
l’adoption des systèmes d’exploitation développés par Microsoft et quelques autres
entraîne la séparation entre le secteur des progiciels et le secteur des matériels. De
même, l’utilisation généralisée des processeurs Intel réduit l’activité des constructeurs
de PC à des opérations d’assemblage. D’autre part, la simplicité et la destination des
produits dispensent les constructeurs de fournir des services, tandis que la nature du
marché visé les invite à confier la commercialisation de leurs produits à des firmes de
distribution spécialisées. Ces distributeurs peuvent jouer le rôle de prestataires de
services et en particulier d’assembleurs de systèmes, ce qui autorise certains
constructeurs à se spécialiser encore plus par type d’unité.

On voit donc apparaître avec le PC un nouveau métier d’assembleur de matériel.


Nous avons vu au Chapitre 4 que ce métier possède une structure de dépenses
caractéristique : le coût des produits vendus dépasse typiquement 75% du chiffre
d’affaires, dont 65 à 70% est constitué par des achats de composants ou de sous-
ensembles à d’autres fournisseurs. Les dépenses de recherche et développement ne
représentent que 2 à 4% du CA, tandis que les frais généraux, y compris les dépenses
commerciales, tournent autour de 15%. Pour ces entreprises, le résultat net après impôts
ne dépasse que très rarement 5% du chiffre d’affaires. Ces ratios sont très différents de
ceux des constructeurs traditionnels chez qui la R&D représente 10 à 20% du CA et les
frais généraux peuvent aller jusqu’à 40% pour couvrir en particulier une activité
commerciale très développée. Ces chiffres traduisent bien deux métiers différents :
d’une part la production de matériels standard à partir de composants du commerce,
d’autre part la conception de matériels originaux demandant une production plus
intégrée et des efforts de commercialisation importants.

Nous avons également vu au Chapitre 4 que le modèle des assembleurs est


largement représenté dans le domaine des PC et des périphériques, par de nombreuses
firmes de taille très variable qui fournissent ensemble près de la moitié du CA matériels.
En revanche, ce modèle est resté très marginal dans les autres domaines, où l’activité
d’assemblage reste liée aux autres activités à l’intérieur de chaque firme. Il est donc
important d’examiner d’abord isolément cette activité d’assemblage, telle qu’elle existe
dans ces firmes spécialisées. Nous trouverons en effet dans cette analyse des raisons de

cxlviii
penser que le modèle de l’assembleur pur va se généraliser progressivement à tous les
segments. La structure industrielle qui prévaut dans les micro-ordinateurs de type PC
préfigure ainsi ce que sera demain toute l’industrie du matériel.

Technologie et économie

Examinons rapidement la structure physique d’un micro-ordinateur pour identifier


les principaux niveaux d’assemblage qui conduisent des composants électroniques à un
système complet. Les techniques utilisées sont d’ailleurs les mêmes que pour
l’électronique professionnelle ou l’électronique grand public comme la haute-fidélité ou
la télévision.

Au niveau le plus bas, les composants sont placés sur des cartes de 10cm à 30cm
de coté, qui reçoivent des puces de différentes sortes et supportent également les
conducteurs qui relient les puces entre elles et les connecteurs qui relient la carte elle-
même au reste de l’ordinateur. Ces composants sont le plus souvent soudés sur la carte,
qui constitue un ensemble fonctionnel bien défini. Tout micro-ordinateur contient une
carte-mère sur laquelle sont implantées les fonctions de base : processeur, mémoire
principale, mémoire intermédiaire ou cache, adaptateurs pour les unités connectables,
bus local pour gérer les échanges d’informations entre composants, éventuellement
processeurs spécialisés. Elle peut être complétée par des cartes spécialisées qui réalisent
des fonctions comme le contrôle des communications, les entrées et sorties graphiques,
sonores ou vocales, etc.

La carte mère est installée dans un boîtier qui contient également les unités
internes comme les disques, l’alimentation électrique et le dispositif de refroidissement
éventuel, ainsi que des emplacements pour des cartes d’extension et des unités
additionnelles. Enfin, le système complet est généralement construit en interconnectant
par des câbles des unités distinctes telles qu’une unité centrale, un clavier, un écran, une
imprimante, etc.

La fabrication des cartes ressemble un peu à celle des composants, si ce n’est que
l’échelle est totalement différente : les conducteurs déposés ou gravés sur la carte ont
une largeur de l’ordre du millimètre et les composants qui y sont insérés ont des
dimensions de l’ordre du centimètre. Cette fabrication est largement automatisée, mais
les techniques d’assemblage sont tout à fait courantes dans l’industrie électronique en
général et ne sont pas spécifiques du secteur informatique. Les investissements
correspondants restent raisonnables, conduisant à une échelle économique de
production qui se chiffre en dizaines de milliers.

L’assemblage final des unités à partir des cartes est par contre une opération
essentiellement manuelle, qui peut être réalisée par du personnel d’installation ou
d’entretien, voire par l’utilisateur lui-même, à l’exception de certains systèmes
particuliers très miniaturisés.

En 1974/1975, les tout premiers micro-ordinateurs ont été vendus en kit par des
revues d’amateurs d’électronique. Aujourd’hui encore, on peut trouver dans les
boutiques spécialisées tous les éléments nécessaires au montage d’un micro-ordinateur :

cxlix
processeur, puces mémoire, carte-mère, disques, clavier, écran, … qui sont vendus sous
forme de kits ou individuellement. Même dans des ordinateurs fournis tout assemblés, il
est possible aux utilisateurs d’ajouter ou de remplacer un grand nombre d’éléments
comme la mémoire, des cartes d’extension, les unités de disques voire l’unité centrale,
sans formation spéciale ni outillage spécial. L’assemblage d’un micro-ordinateur est une
opération à la portée d’un amateur raisonnablement adroit, et ne demande que quelques
heures.

Selon le coût de la main d’œuvre utilisée, le coût d’assemblage manuel d’un


micro-ordinateur se situe typiquement entre 100 et 200 francs, alors que le prix de
revient des pièces achetées est de plusieurs milliers de francs selon la configuration. Il y
a peu de moyens et peu de motivation pour réduire ce coût à travers des techniques
d’automatisation, qui n’apporteraient pas d’avantage concurrentiel appréciable. En tout
état de cause, choisir des modes de production n'exigeant que des investissements
modestes et où l'essentiel des coûts est variable rend économiquement viable une
échelle de production infime par rapport à la taille du marché.

Au total, l’assemblage des matériels se décompose en deux opérations successives


dont les logiques économiques sont différentes. Alors que la fabrication des composants
s’apparente à une industrie lourde, celle des cartes obéit à la logique de la petite
industrie et l’assemblage final des matériels relève de l’artisanat. Il est assez naturel que
la structuration du secteur des matériels reflète ces différences d’échelle. On y trouve de
grandes entreprises qui englobent la totalité de la filière, dont le nombre décroît au fur et
à mesure que l’industrie des composants se concentre et devient plus autonome en
amont. Une deuxième catégorie est formée d’entreprises grandes et moyennes, qui
assurent toutes les étapes d’assemblage et conservent ainsi la possibilité d’offrir des
produits originaux soit par certaines unités soit par les techniques d’assemblage elles-
mêmes. Enfin, de nombreuses petites firmes sont spécialisées soit dans la fabrication
des cartes, soit dans l’assemblage final. Pour ce dernier type de constructeurs, les coûts
variables l’emportent de très loin sur les coûts fixes, et l’échelle de production peut être
très réduite.

L’assemblage de matériel se caractérise donc par une échelle économique de


production faible, associée à de faibles barrières à l'entrée et à une banalisation ou une
standardisation des produits qui facilite le changement de fournisseur en éliminant les
coûts de transfert. Ces caractéristiques sont par excellence celles d’un secteur dispersé,
dans lequel existent un grand nombre de firmes concurrentes qui n’atteignent que de
faibles parts de marché. Dans ce secteur comme dans les autres industries dispersées, la
firme la plus importante obtient rarement plus de 15% du marché et les 10 premières
n’en totalisent le plus souvent pas 50%. De plus, la profitabilité potentielle et la
profitabilité moyenne y sont également faibles, même pour les firmes les plus
performantes qui atteignent tout juste 5%.

De fait, alors que les fabricants de microprocesseurs ne sont pas plus d’une
douzaine (et nous avons vu que ce nombre ne peut que se réduire), il existe des milliers
de fournisseurs de micro-ordinateurs dans le monde. Certains ont une envergure
mondiale, d’autres n’opèrent que dans une seule ville. Certains ont mis en place leur
propre réseau de distribution, d’autres s’en remettent entièrement à des distributeurs
spécialisés. L’existence d’une industrie des composants et de fournisseurs de progiciels

cl
indépendants a permis l’existence d’un grand nombre d’assembleurs qui mettent en
œuvre des stratégies très diversifiées.

Il est également important de noter que la faiblesse des obstacles à l’entrée dans le
métier d’assemblage de matériels rend crédible toutes les menaces d’intégration. En
amont, les fabricants de composants peuvent vouloir offrir des systèmes complets,
comme le font d’ailleurs de façon limitée Intel pour les systèmes hautement parallèles et
Motorola pour les systèmes de communication. Des sociétés de service ou de progiciels
peuvent vouloir exploiter sous forme de matériel une compétence acquise dans leurs
activités de base, en offrant par exemple des terminaux spécialisés par application. Les
clients industriels importants peuvent également vouloir assembler les systèmes qu’ils
utilisent, et éventuellement mettre ces produits sur le marché. Toutes ces menaces
contribuent également à limiter la profitabilité du secteur.

Segmentation et options stratégiques

Stratégies concurrentielles

Revenons sur l’analyse des comportements concurrentiels présentée par Porter,


dont nous avons introduit les grandes lignes au Chapitre 6.

Quel que soit le secteur où elle opère, la firme doit y rechercher un avantage
distinctif sur ses concurrentes, et pour cela doter ses produits de caractéristiques
spécifiques qui donnent aux clients potentiels des raisons de les choisir de préférence à
ceux des autres firmes.

Le prix d’un produit par rapport aux produits concurrents est en règle générale le
plus important facteur concurrentiel, et il intervient toujours dans le choix des clients
quelle que soit la stratégie mise en œuvre par le fournisseur. L’entreprise peut donc
choisir l'arme des prix comme avantage concurrentiel majeur. Au contraire, elle peut
renoncer à pratiquer les prix les plus bas, mais doter ses produits de caractéristiques
exceptionnelles qui justifient leur achat par une partie au moins de la clientèle. On parle
alors d’une stratégie de différenciation.

Deuxièmement, l’entreprise peut rechercher un avantage concurrentiel qui soit


applicable à la totalité du marché, ou au contraire qui soit propre à un segment limité.
Dans le premier cas, elle met en œuvre ce que Porter appelle une stratégie de
domination, dans le second cas une stratégie de concentration.

De la combinaison de ces deux choix naissent quatre stratégies de base :


domination globale par les coûts, domination globale par les produits, concentration sur
la base des coûts, concentration sur la base des produits. Dans sa mise en œuvre, chaque
stratégie requiert des moyens, des compétences, une organisation et des systèmes de
management particuliers. Chaque firme doit donc opter pour l’une ou l’autre des quatre
stratégies de base, et toute tentative de poursuivre une stratégie mixte, que ce soit par
absence de décision ou de propos délibéré, conduit nécessairement la firme à une
situation de faiblesse. Nous développerons aux Chapitres 9 et 14 ces problèmes de
compatibilité de stratégies et de produits différents au sein d’une même firme.

cli
Stratégies de base
Nature de l'avantage
Domaine produi t coûts
de l'avantage
domination
tout le secteur différenciation par les coûts

un segment concentra tion concent ration


fondée sur les pr oduits fondée sur les coûts

Voie médiane = enlisement

Dans les secteurs dispersés, où opèrent par définition un grand nombre de firmes,
la plupart adopteront une stratégie de concentration sur un segment particulier du
marché. Si d’aventure certaines choisissent une stratégie de domination globale, elles
auront du mal à réussir, car elles se heurteront dans chaque segment à des firmes
spécialisées mieux adaptées aux besoins particuliers. La domination globale par les
produits est vouée à l’échec dans un marché vaste et varié, tandis que les tentatives de
domination globale par les coûts ne réussiront au mieux que dans certains segments
sensibles aux coûts. Il peut néanmoins arriver que le caractère dispersé d’un secteur soit
purement circonstanciel et ne s’appuie sur aucune caractéristique structurelle, auquel
cas une stratégie de domination peut réussir. Mais dans tous les cas où le secteur est
dispersé pour des raisons structurelles telles qu’une échelle économique de production
faible ou une demande très diversifiée, on peut considérer que les stratégies de
domination ne sont pas viables. Tous les acteurs adopteront des stratégies de
concentration, qui ne diffèrent que par le choix des critères de segmentation et pourront
de ce fait viser des segments de tailles très différentes.

Les stratégies possibles

La décomposition du marché en segments peut se faire selon plusieurs


dimensions. Un premier ensemble de critères se rattache au produit lui-même : nature
fonctionnelle du produit (systèmes complets ou unités isolées comme les cartes
d’extension, les imprimantes ou les écrans), standards adoptés, catalogue de fonctions,
niveau de performances, plage de prix, modularité ou intégration, portabilité,
dimensions, aspect, etc. Un deuxième type de critères a trait au type de client visé :
particulier ou entreprise, secteur d'activité, type d'utilisation, processus d'achat, etc.
Enfin, la segmentation peut intégrer d’autres considérations comme le circuit de
distribution utilisé ou la localisation géographique de la clientèle.

Dans les segments retenus, l’offreur pourra opter entre les deux stratégies
fondamentales de concurrence : par les prix ou par les qualités du produit. Le caractère
essentiellement manuel des opérations d’assemblage donne peu de possibilités de
réduire les coûts en investissant dans les équipements de production. Les firmes qui
optent pour la concurrence par les prix décideront donc le plus souvent de se limiter à
l’assemblage de produits relativement banalisés à partir de composants standard du
marché, afin d’éviter les frais de recherche et de développement. En revanche, les

clii
firmes qui choisissent la concurrence par les produits devront consentir des dépenses de
recherche et développement plus élevées afin de définir des produits spécifiques, voire
concevoir et produire elles-mêmes certains composants ou sous-ensembles en partie
originaux.

Pour ces raisons, les obstacles à l’entrée ainsi que l’échelle économique de
production sont en règle générale plus élevés pour les stratégies de spécialisation que
pour la concurrence par les prix. Ceci pose de façon aiguë le problème de la
distribution : alors que les firmes offrant des produits banalisés à bas prix peuvent s’en
remettre à des circuits généralistes, les constructeurs spécialisés doivent être sûrs que les
circuits qu’ils utilisent sont bien capables d’atteindre et de convaincre le segment de
marché particulier qu’ils visent.

Avant l’arrivée des micro-ordinateurs, la distribution informatique spécialisée


n’était représentée que par quelques précurseurs comme les sociétés de crédit-bail ou les
revendeurs d’occasion. Par contre, des distributeurs de matériel électronique comme
Tandy ont été au point de départ de la vague micro à la fin des années 70.

Aujourd’hui, les canaux de distribution utilisés par la micro-informatique se sont


considérablement diversifiés. Certains constructeurs pratiquent la vente directe par
correspondance ou dans des boutiques à leur marque. Selon leurs cibles de marché et
leur stratégie, les autres constructeurs utilisent soit des distributeurs spécialisés dans le
matériel informatique, soit les canaux de la grande distribution généraliste, soit des
sociétés de services informatiques qui intègrent leurs produits dans des systèmes
complets. La diversité des modes de distribution complète naturellement la diversité des
stratégies des constructeurs et la diversité du marché.

Pour les offreurs qui ont choisi une stratégie de spécialisation, les sources
potentielles d'avantage concurrentiel peuvent être très diverses et variables d'une firme à
l'autre : fonctions, performances, qualité, délai de livraison, mais aussi apparence,
esthétique ou dimensions. L’objectif de chaque offreur est de réussir à isoler
suffisamment les segments de marché où il opère et de les protéger par des obstacles à
l’entrée suffisants. Ces segments peuvent alors devenir des pseudo-secteurs où joue une
dynamique interne de concentration, et où il sera possible de retrouver de meilleurs
niveaux de profitabilité. L’action conjuguée des acteurs spécialistes tend ainsi à
fragmenter le marché en segments dont la taille est un petit multiple de l’échelle
économique de production, et à faire du secteur dispersé la juxtaposition d’un grand
nombre de sous-secteurs concentrés.

Mais les obstacles à la mobilité entre segments, qui jouent dans ce cas le rôle des
obstacles à l’entrée, sont le plus souvent relativement faibles et peu défendables. De
plus, le grand nombre de dimensions possibles de segmentation fait de chaque client
potentiel la cible de plusieurs stratégies, et l’oblige à arbitrer entre des offres qui vont
des systèmes banalisés bon marché à des systèmes personnalisés plus onéreux. En
particulier, les stratégies de concurrence par des critères généraux comme les prix sont
présentes, et souvent efficaces, dans presque tous les segments. La pression sur les prix
est générale, et les profits ne sauraient beaucoup s’écarter de la moyenne, même pour
les firmes qui réussissent le mieux une stratégie de spécialisation. Il en résulte

cliii
également qu’une stratégie de prix bas bien exécutée conduit à des volumes élevés alors
même que le volume ne constitue pas en soi un avantage.

En effet, la clé du succès n'est pas nécessairement la part de marché. La règle du


jeu concurrentiel n'est plus de chercher à offrir la meilleure de toutes les solutions
possibles afin de conquérir l'ensemble du marché informatique, mais de définir pour un
segment identifié du marché une offre telle que la firme puisse tirer d'une ou plusieurs
de ses caractéristiques propres un avantage concurrentiel vis à vis de ce segment. La
seule condition liée à la part de marché est que la taille du segment visé doit être en
proportion avec l'investissement nécessaire pour obtenir l'avantage concurrentiel.

Pour un offreur donné, le choix d’un ou plusieurs segments et d’une stratégie doit
reposer sur des avantages propres à la firme. Un faible coût de main d’œuvre orientera
naturellement la firme vers une stratégie de concurrence par les prix. De même, la
maîtrise d’une technologie orientera vers une concentration sur des produits et des
segments où cette technologie peut être exploitée pour créer un avantage, et une
familiarité exceptionnelle avec une classe d’utilisateurs poussera la firme à se
spécialiser dans les besoins de ce segment de marché. Encore faut-il que les
caractéristiques distinctives sur lesquelles repose l’avantage concurrentiel ne puissent
pas être reproduites à l’identique par les concurrents, et correspondent donc à un savoir-
faire particulier de la firme.

L’éventail des stratégies viables dépend du segment et de l’offreur. Il n’y a pas de


bons et de mauvais segments indépendamment de l’offreur, et il n’y a pas de stratégie
qui soit bonne ou mauvaise indépendamment du segment et de l’offreur. Autrement dit,
la question « quelle est la bonne stratégie pour un constructeur de matériel ? », comme
la question « quelle est la bonne formule de distribution ? » n’admet pas de réponse
générale. Des stratégies diverses et opposées coexistent et continueront de coexister.

Les caractéristiques du secteur

Au total, les règles du jeu qui gouvernent le métier d’assembleur de matériel sont
caractéristiques d’un secteur dispersé.

En toute rigueur, la production de matériel comprend plusieurs secteurs différents


suivant la nature du matériel. Nous avons centré la discussion précédente sur
l’assemblage des unités centrales, qui englobent souvent les unités de stockage sur
disques. Les mêmes considérations s’appliqueraient mutatis mutandis aux différents
périphériques, eux-mêmes produits en assemblant des composants de nature diverse
dont certains se rattachent à l’industrie électronique tandis que d’autres relèvent de la
mécanique de précision ou de la micromécanique.

Certains secteurs comme celui des PC impliquent une activité de pur assemblage
et donc une échelle de production faible. Ces secteurs sont peuplés de nombreuses
firmes dont les plus importantes occupent moins de 15% du marché. La profitabilité de
ces firmes se situe dans une fourchette étroite, dont le niveau moyen est cohérent avec
celui des autres industries d’assemblage, c’est à dire quelques points de pourcentage,
typiquement entre 4% et 6% pour les firmes qui réussissent le mieux. La concurrence

cliv
est vive et se traduit à la fois par l’apparition fréquente de produits nouveaux selon un
cycle de l’ordre de l’année, et par une guerre des prix continuelle. Cette concurrence
remet constamment en question les positions acquises, sans que la part de marché
confère un avantage concurrentiel définitif. Les positions relatives des firmes changent
donc d’année en année, la mortalité est importante comme d’ailleurs la natalité. Cette
dynamique sectorielle se situe ainsi à l’exact opposé de celle qui régit le secteur des
composants.

Certains constructeurs consentent une activité de développement plus importante,


soit que le secteur où ils opèrent le demande, comme c’est le cas pour les cartes
électroniques ou certains types de périphériques, soit qu’ils adoptent une stratégie de
différenciation par les produits dans des secteurs dispersés. Dans le premier cas, on voit
apparaître des structures sectorielles plus concentrées et des profitabilités plus
dispersées, voire dans des cas extrêmes de haute technologie, comme les blocs
d’impression laser ou les écrans plats, une situation d’oligopole asymétrique qui rejoint
celle des microprocesseurs. Le second cas peut apporter à l’entreprise des marges
supérieures à la moyenne du secteur dans la mesure où ses investissements de
différenciation lui donnent un avantage décisif sur un marché isolé et porteur, comme
les micro-ordinateurs de haut de gamme.

D’une façon générale, les progrès de la standardisation abaissent les obstacles à


l’entrée et favorisent la multiplication des purs assembleurs, en même temps qu’ils
réduisent le nombre des secteurs où un effort de recherche et développement est
nécessaire. On peut donc s’attendre à ce que l’industrie du matériel prenne un caractère
de plus en plus dispersé, ce qui implique en particulier que les positions y soient en
permanence instables et que les profits supérieurs à la normale y soient de plus en plus
rares.

La miniaturisation et ses limites

Nous avons vu qu’au niveau le plus élémentaire le progrès technologique se


traduit par une augmentation de la capacité de chaque puce, qu’il s’agisse de mémoire
ou de fonctions de traitement. Il en résulte que la réalisation d’un niveau donné de
fonctions et de performances requiert de moins en moins de composants. Dans les
ordinateurs les plus récents, le microprocesseur incorpore des fonctions jusque là
réalisées par des puces spécialisées distinctes implantées sur la carte mère, par exemple
le calcul en virgule flottante, la gestion de l’alimentation électrique ou les mémoires
cache. Parallèlement, en même temps que des fonctions migrent de la carte vers le
microprocesseur, d’autres, comme le traitement du son et de l’image, migrent vers la
carte mère à partir des cartes additionnelles en attendant de finir un jour incorporées au
microprocesseur. Au total, pour un niveau donné de fonction et de puissance, le nombre
de pièces distinctes se réduit et l’assemblage devient de plus en plus simple.

Ce mouvement continuel d’intégration n’est d’ailleurs pas nouveau. Il n’y a pas si


longtemps, la richesse fonctionnelle et la performance qui tiennent aujourd’hui dans un
boîtier de 40 cm de coté demandaient plusieurs armoires installées dans une grande
pièce climatisée.

clv
Cette évolution d’ensemble peut être exploitée de deux façons : ou bien réduire le
nombre de niveaux d’assemblage, ou réduire la complexité et les dimensions de chaque
niveau. En suivant la première voie, l’unité centrale des micro-ordinateurs comparables
aux machines courantes actuelles se réduira bientôt à deux puces sur une carte, plus une
ou deux unités de disque et quelques connecteurs externes, mais la modularité et la
capacité d’évolution du système seront alors limitées. Adopter la seconde voie permet
de conserver la modularité et la possibilité d’extension et de remplacement de fonctions.
Dans cet esprit, les constructeurs peuvent délibérément choisir d’implanter des
fonctions optionnelles sur des cartes séparées ou des composants amovibles sur la carte
mère.

Si la miniaturisation des circuits est l’essence même du progrès des composants,


elle se heurte aux autres niveaux à des limites externes. Nous avons vu qu’il n’est guère
utile de fabriquer des puces de dimension inférieure à 1 cm ; De la même façon, une
carte amovible doit pouvoir être facilement manipulée et assez grande pour ne pas se
perdre. Quant à la miniaturisation des systèmes, elle est limitée par les contraintes de la
communication homme-machine, qui imposent aux claviers une taille compatible avec
celle des doigts, aux écrans des dimensions cohérentes avec les contraintes de la vision
humaine, et aux imprimantes la taille de la page imprimée. Les dimensions des
matériels ne sauraient donc descendre en dessous de certaines limites définies par des
considérations totalement étrangères à l’informatique, donc indifférentes aux
développements technologiques dans ce domaine. C’est ainsi que les standard
dimensionnels des matériels informatiques se rapprochent de standards déjà reconnus
dans d’autres domaines voisins : le format carte de crédit pour les cartes amovibles
(format PCMCIA), et le format A4 pour les ordinateurs portables.

Par ailleurs, réduire les dimensions ne constitue pas toujours un avantage concret.
Un ordinateur de bureau doit être doté d’un écran et un clavier de bonne taille, et les
autres unités peuvent être placées à un endroit où elles ne gênent pas. Pour un même
ensemble de fonctions, différentes formes de réalisation sont possibles, et donc
plusieurs systèmes différents répondant au même besoin fonctionnel peuvent être
proposés. Dans un secteur dispersé à faible échelle économique de production, on peut
prévoir que toutes les offres correspondantes coexisteront et que le client aura le choix.

Evolution des structures industrielles

Alors que, depuis les années 60, l’industrie informatique traditionnelle réunissait
chez les mêmes acteurs tous les rôles allant de celui de fabricant de composants à celui
d’assembleur de systèmes, le monde du PC s’est construit d‘emblée sur une séparation
nette de ces rôles, qui y sont joués par des secteurs distincts.

Cette répartition des rôles, qui permet à chaque acteur d’aller jusqu’au bout de sa
logique économique propre, explique tout à la fois la vitalité du secteur des matériels, le
nombre des fournisseurs, la guerre des prix et l’amélioration continuelle du rapport
prix/performances, la variété des offres, le gouffre qui sépare le ratio prix/performances
des micro-ordinateurs de celui des systèmes conventionnels, mais aussi la rentabilité
modeste et le taux de mortalité des entreprises du secteur.

clvi
Rappelons une fois encore que les différences entre le monde des micro-
ordinateurs et celui de l’informatique traditionnelle ne sauraient s’expliquer par des
raisons techniques. En réalité, ce sont les mêmes technologies qui sont exploitées dans
les deux cas, et les causes des différences doivent être recherchées dans les structures
industrielles respectives.

Peut-on alors penser que le monde des moyens et grands systèmes, qui a jusqu’ici
conservé pour l’essentiel sa structure intégrée, et celui des stations de travail qui s’est
construit sur le même modèle, vont se convertir à cette séparation des rôles qui fait le
dynamisme du monde micro-informatique ?

Dans le même temps où l’assemblage des micro-ordinateurs se simplifie, les


techniques d’assemblage actuelles permettront d’assembler des systèmes de haut de
gamme au même coût que les petits systèmes d’aujourd’hui. On pourra en particulier
placer plusieurs microprocesseurs sur la même carte et plusieurs de ces cartes dans un
même boîtier, afin de constituer des systèmes multiprocesseurs dont la puissance sera un
multiple de celle des processeurs élémentaires et dépassera celle des plus gros
ordinateurs actuels pour le prix d’un PC actuel. On pourra par exemple, sans modifier le
boîtier ni les techniques d’assemblage, loger deux processeurs sur chacune des quatre
cartes qui composent souvent un PC, et passer ainsi d’un processeur de 20 Mips à 8 40

processeurs de 200 ou 300 Mips, pour une augmentation relativement faible du coût
total.

Les paramètres physiques qui déterminent les coûts d’assemblage, c’est à dire les
dimensions des cartes, des puces et des conducteurs, restent stables dans le temps car les
conséquences du progrès technologique sont purement internes à la puce. Contrairement
au cas des composants, les mêmes techniques d’assemblage peuvent être utilisées pour
des générations différentes, et l’échelle économique de production des cartes ou des
systèmes complets reste à peu près constante. Dans un marché en expansion, il y a donc
place pour un nombre croissant de concurrents, et la dispersion et la variété du secteur
auront tendance à augmenter.

Les matériels produits selon le modèle des PC, et même les constructeurs actuels
de PC, entreront donc de plus en plus en concurrence directe avec des ordinateurs
traditionnels en jouissant d’avantages considérables dans le domaine des prix et de la
variété de l’offre. Cette concurrence se situe aujourd’hui à la limite basse des mini-
ordinateurs, où les micros de haut de gamme ne cessent de progresser. Dans le domaine
des stations graphiques, les particularités des processeurs Risc maintiennent encore une
frontière avec les micro-ordinateurs, mais la fusion imminente des processeurs en un
seul secteur va permettre aux PC de devenir directement concurrentiels. En se
structurant comme le monde du PC, ce nouveau segment combiné des micro-
ordinateurs et des stations acquerra encore plus de vigueur pour concurrencer les
matériels traditionnels, y compris par des multiprocesseurs à base de moteurs bon
marché du commerce. Il existe d’ailleurs déjà dans le haut de gamme des segments
isolés comme celui des grands ordinateurs massivement parallèles ou des serveurs de
fichiers construits à partir de puces standard, qui constituent autant de foyers à partir

40 millions d’instructions par seconde

clvii
desquels le modèle PC se propagera dans toute la gamme des fonctions et des
puissances.

A terme, aucun segment du marché ne sera épargné par cette dynamique. La


fragmentation extrême du secteur des PC s'étendra ainsi à l’ensemble de l’informatique,
Simultanément, la concurrence très vive entraînera une baisse des prix et des marges qui
généralisera à toute l'informatique les pratiques du monde PC, en particulier le rapport
prix/performances caractéristique du monde micro. Anticipant sur cette évolution
prévisible, IBM a d’ailleurs déjà annoncé que toute sa gamme reposerait à terme sur le
PowerPC.

En résumé, les offreurs qui choisissent d’utiliser les composants du marché et de


se limiter à l’assemblage des matériels peuvent concentrer leurs efforts sur la réduction
des prix d’une part, la satisfaction des besoins de segments particuliers d’autre part. Ce
faisant, ils ne cessent d’accroître l’avantage concurrentiel des produits conçus selon ce
modèle et d’en étendre le succès à tout le marché, supplantant ainsi les offreurs
conformes au modèle traditionnel.

La concentration du secteur amont des composants et la standardisation des


microprocesseurs a ainsi pour contrepartie l’extrême dispersion et la diversité du secteur
aval des matériels. Dans ce dernier, chaque attribut du produit ou du système de
distribution devient un facteur possible de différenciation et de concurrence, et de ce fait
un domaine potentiel d'innovation. Les acteurs y sont poussés à innover en permanence,
en identifiant des segments de marché qui présentent des besoins spécifiques et en
développant des produits diversifiés en étroite adéquation avec ces besoins. Tout le
secteur des matériels devient une machine à dénicher et à satisfaire les besoins
particuliers au prix le plus bas possible, ce qui conduit à la fois à une réduction
continuelle des prix, une amélioration des fonctions et des performances, et une
diversification des offres.

Cette dynamique déborde le secteur de l’informatique au sens strict. La baisse


continue du coût des composants conduit à intégrer l'informatique à un nombre
croissant de produits industriels. C'est depuis longtemps le cas pour des objets coûteux
comme les avions, les engins militaires ou certaines machines-outils, plus récemment
pour des appareils plus courants comme les appareils photo, la haute fidélité ou les
automobiles. A l'exemple des calculatrices ou des jeux électroniques, on voit apparaître
des objets nouveaux de nature informatique comme des agendas électroniques ou des
répertoires de poche. Ce phénomène se répandra progressivement dans tous les secteurs,
et tendra à estomper les frontières entre l’informatique et les autres industries.

Un secteur en pleine santé

Cette vision d'un secteur des matériels extrêmement vivant et créatif est à l'opposé
des idées à la mode qui voient dans la crise actuelle les prémices d'un effacement
progressif des constructeurs de matériel derrière les offreurs de logiciel et de services,
voire de leur disparition à terme.

clviii
Ce pronostic défavorable est doublement superficiel. Le secteur des matériels
représente en 1992 plus de 200 Milliards de $ soit 64% du CA total, en croissance de
5.7% par rapport à 91. Même si le secteur des progiciels (12% du total avec 37
Milliards de $) et celui des services (16% avec près de 50 Milliards) croissent plus vite,
le matériel reste de loin le secteur le plus important. En tout état de cause, il est bien
difficile d'imaginer une informatique sans matériels pour l'exécuter, ou des matériels
sans constructeurs pour les produire. Le secteur des matériels n'est aucunement menacé
de disparition.

L’origine de l’erreur réside dans une analyse superficielle des phénomènes de


transition entre la structure ancienne et la nouvelle structure, dont nous parlerons en
détail au Chapitre 15. Trois aspects inhérents à une structure de secteur dispersé sont en
cause. Premièrement, les parts de marché et les profits y sont normalement moins élevés
que dans le secteur concentré qu’était l’informatique traditionnelle, donnant
l’impression d’une régression. Deuxièmement, les positions y sont par nature plus
volatiles et le taux de mortalité des entreprises y est élevé, mais il est compensé par un
taux de natalité également élevé. Enfin, les media exposent largement les difficultés des
grands offreurs traditionnels, qui doivent tout à la fois s’adapter à des parts de marché et
des rentabilités en baisse et souvent abandonner certaines de leurs activités où ils ont
cessé d’être concurrentiels. Mais tout cela n’empêche pas la prospérité de firmes qui
savent agir conformément aux règles de la nouvelle structure sectorielle, sans
nécessairement atteindre des parts de marché qui les rendraient visibles.

En tout état de cause, la santé d’une industrie ou d’un secteur industriel doit
s’apprécier non pas à la seule aisance matérielle des acteurs qui la constituent, mais
principalement selon leur capacité collective à satisfaire la demande du marché. En
outre, les difficultés financières voire la disparition de telle ou telle entreprise ne sont
pas nécessairement des signes de mauvaise santé de l’ensemble de l’industrie. Pas plus
que dans l’étude des espèces vivantes, il ne faut confondre la santé de l’espèce des
constructeurs de matériel informatique avec celle de chaque individu pris isolément.
Mesurée comme il se doit à l’aune de l’introduction de produits nouveaux et à
l’évolution des prix et des performances, l’industrie des matériels informatiques est
éclatante de santé, même si sa nouvelle logique ne lui permet plus les marges
confortables dont jouissaient naguère certains généralistes.

clix
Chapitre 9
La différenciation des entreprises

Des caractéristiques différentes selon l’activité. Les sept S de McKinsey. L’approche


relativiste de Lawrence et Lorsch. Segmentation, différenciation et intégration.
L’incertitude et les limites de la rationalité. Cycles, horizon et culture. Les options de
segmentation et la structure d’ensemble. Segmentation et personnalité. Les
personnalités par secteur. Les conséquences de l’inadéquation.

Dans les deux chapitres précédents, nous avons vu que des productions différentes
par leur structure de coûts donnent naissance à des structures sectorielles différentes :
secteur concentré quand le ratio des coûts fixes aux coûts variables unitaires est élevé,
secteur dispersé dans le cas inverse. Le secteur des matériels apparaît alors comme un
secteur hétérogène, à l’intérieur duquel la fabrication des composants d’une part,
l’assemblage des matériels d’autre part obéissent à des logiques de production et à des
dynamiques concurrentielles radicalement différentes. La structure des coûts de
production, et singulièrement le rapport des coûts fixes aux coûts variables, jouent un
rôle fondamental en déterminant le degré de concentration, le potentiel de profitabilité
et la diversité du secteur, ainsi que la viabilité des choix stratégiques ouverts à chacun
des acteurs. Nous verrons plus tard comment ces mêmes considérations s’appliquent
aux activités de logiciel et de services prises isolément.

Auparavant, nous allons compléter cette distinction entre secteurs concentrés et


secteurs dispersés en recherchant dans quelle mesure des différences entre formes de
production peuvent entraîner des différences dans les caractéristiques internes des
entreprises. Il est par exemple probable que les méthodes de gestion et les qualités
requises pour réussir dans un secteur concentré sont différentes de celles qui permettent
de réussir dans un secteur dispersé. Si tel est bien le cas, une même firme pourra
difficilement opérer avec succès dans les deux environnements à la fois, et il existera
donc des incompatibilités entre prestations de natures différentes.

Le survol de l’ensemble de l’industrie informatique, que nous avons effectué dans


les cinq premiers chapitres, nous laisse supposer que les paniers de prestations des
différentes firmes ne s’organisent pas au hasard. Certaines combinaisons sont très
fréquentes, d’autres très rares, et l’industrie dans son ensemble s’organise autour d’un
petit nombre de modèles d’entreprise. Des offreurs traditionnels généralistes, c’est à
dire diversifiés et intégrés, coexistent aujourd’hui avec un nouveau monde du PC
essentiellement formé de firmes spécialisées. Le modèle généraliste est le plus ancien,
mais aussi le moins nombreux et celui qui comporte le plus d’entreprises en difficulté.
On constate également que les quelques firmes réellement mixtes, c’est à dire dont
l’offre est formée à parts voisines de prestations de nature différente, sont toujours
moins performantes que les firmes spécialisées dans chacune des composantes de leur
offre. D’une façon générale, l’ensemble de l’industrie informatique évolue vers une
spécialisation plus poussée des entreprises, et non vers la diversification de leur offre et

clx
l’intégration verticale des étapes de fabrication, contrairement aux conceptions
habituelles des économistes.

Ces questions de diversification et d’intégration sont en général abordées de façon


purement quantitative à partir d’une comparaison des avantages et des coûts respectifs,
et en supposant implicitement que rien ne s’oppose a priori à ce que des productions
variées coexistent de façon efficace au sein de la même organisation. Nous pensons au
contraire que pour réussir dans des productions de nature différente, les entreprises
doivent posséder des qualités suffisamment différentes pour rendre incompatibles
certains types de produits au sein d’une même organisation, au point que les entreprises
qui tentent malgré tout ces combinaisons de produits échouent nécessairement à être
concurrentielles dans l’un ou l’autre, voire dans la totalité des marchés concernés.

En cherchant systématiquement, pour chaque type élémentaire de production, à


identifier quelles caractéristiques des entreprises sont liées au succès concurrentiel dans
les secteurs correspondants, nous pourrons aborder les problèmes liés à la coexistence
de productions différentes dans une même entreprise. Nous éclairerons ainsi les aspects
de la structure industrielle qui concernent la diversification ou la spécialisation des
entreprises, l’intégration ou la « dés-intégration » des productions. Les offreurs intégrés
traditionnels vont-ils continuer leur mouvement de dés-intégration ? L’industrie
informatique va-t-elle conserver les spécialisations actuelles, évoluer vers de nouvelles
combinaisons comprenant par exemple une forte composante de services comme les
commentateurs l’annoncent souvent, ou au contraire se spécialiser encore plus ?

La personnalité des entreprises

Porter avait déjà noté que des stratégies différentes demandent des qualités
différentes et incompatibles. Une stratégie reposant sur le contrôle des coûts exige une
supervision constante à des niveaux très détaillés, des objectifs quantitatifs stricts et une
psychologie qui valorise le sens de l’économie. Au contraire, une stratégie reposant sur
les qualités du produit exige d’encourager la créativité et l’autonomie individuelle par
un système de mesure plutôt qualitatif, et par un style général propre à attirer des
professionnels de haut niveau. A ces stratégies correspondent des personnalités
d’entreprise incompatibles, au point qu’une entreprise qui négligerait de choisir
clairement entre les deux serait vouée à l’échec, ce que Porter appelle « enlisement dans
la voie médiane ».

clxi
Facteurs Stratégiques

stratégie "produits" stratégie "coûts"

Investissements recherche production


Compétences recherche production
vente distribution
Culture créativité économie
risque discipline
vision sens du détail

Organisation souple hiérarchique

Mode Gestion délégation contrôle central


Motivations long terme court terme
Objectifs qualitatifs quantitatifs

Si de telles différences se rencontrent dans un même secteur d’activité entre


firmes qui choisissent des stratégies différentes, on peut s’attendre a fortiori à ce que les
qualités qui font le succès des entreprises soient radicalement différentes selon qu’elles
opèrent dans un secteur concentré ou dans un secteur dispersé.

Par exemple, dans la production de composants, il s’écoule une durée importante


entre les décisions de conception d’une nouvelle puce et d’investissement dans de
nouvelles lignes de production d’une part, la mise sur le marché et la production de
revenu pas ces mêmes puces d’autre part. Les décisions courantes engagent dans
l’immédiat des investissements lourds, et entraînent des conséquences lointaines qui
seront devenues irréversibles quand on pourra les constater. Il est donc vital de faire
apparaître tous les problèmes potentiels le plus tôt possible, de leur trouver des solutions
par avance. Pour cela, il faut expliciter des plans à long terme, les soumettre à la
critique, encourager les conflits tant que les décisions ne sont pas irréversibles, et
disposer d’un système de gestion des conflits assez efficace pour produire des résultats
positifs.

Un tel système de gestion est nécessairement coûteux en ressources, car


l’entreprise passe un temps appréciable à résoudre par avance des problèmes qui ne se
poseront peut-être jamais dans la réalité. Ces réflexions demandent des délais qui ne se
conçoivent que dans des activités à cycle long où on a du temps devant soi, mais
peuvent également introduire par elles-mêmes des retards dans l’aboutissement des
projets. Ce mode de fonctionnement implique une culture d’entreprise où l’expression
des désaccords est encouragée tant que le débat reste ouvert, mais où tout le monde doit
se ranger derrière les décisions de l’entreprise quand elles sont arrêtées. C’est par
exemple l’image du système de gestion traditionnel d’IBM jusque dans les années 80.

Au contraire, dans l’activité d’assemblage de matériels, le cycle de


développement et de production est court, et une décision qui se révélerait
insatisfaisante à l’épreuve du marché peut être corrigée rapidement. Les décisions
courantes engagent donc relativement peu l’avenir. De plus, arriver le premier sur un

clxii
nouveau marché, offrir le premier un nouveau produit et opérer au moindre coût sont
autant d’avantages concurrentiels qui peuvent être déterminants. Une stratégie possible
est donc de consacrer aux études préliminaires aussi peu de temps et d’efforts que
possible, et de laisser le marché porter un jugement sur les produits. Dans la mesure
précisément où les investissements spécifiques ont été faibles et où un produit nouveau
peut être rapidement mis sur le marché en cas d’échec du précédent, cette stratégie peut
être gagnante sur un marché très mobile.

Le système de gestion correspondant doit laisser la bride sur le cou à l’innovation


tout en limitant sévèrement les investissements préliminaires, mais mesurer en temps
réel la réponse du marché et la rentabilité de chaque produit. La culture d’entreprise doit
valoriser le profit à court terme, l’audace dans l’innovation mais aussi la soumission aux
caprices du marché et la capacité de réagir immédiatement aux signaux externes, y
compris pour abandonner sans états d’âme les produits qui ne rencontrent pas le succès
espéré. On devine qu’une entreprise bien adaptée à l’une de ces deux activités sera ipso
facto mal adaptée à l’autre.

Les Sept S de McKinsey

Pour analyser les caractéristiques internes des entreprises, qui gouvernent leur
comportement et forment en quelque sorte leur personnalité, nous utiliserons le modèle
des « sept S’s » proposé par McKinsey . Dans cette représentation, les constituants de la
41

personnalité de l’entreprise sont :


–la stratégie (Strategy), ensemble de plans et de règles d’action préparés pour
atteindre les objectifs de la firme,
–la Structure, qui définit l’affectation et l’articulation des responsabilités à
l’intérieur de la firme,
–les systèmes de gestion et les procédures (Systems), c’est à dire les mécanismes
formels d’information et de prise de décision,
–le Style, c’est à dire les habitudes et les modes de comportement qui prévalent à
l’intérieur et à l’extérieur de l’entreprise,
–les personnels (Staff)
–les compétences et le savoir-faire (Skills)
–les valeurs partagées, les modèles de comportement, les références communes
(Shared Values).

Un thème central du livre de Peters et Waterman est que les facteurs les plus
informels (« soft ») et les moins directement contrôlables, c’est à dire ceux qui
constituent les valeurs partagées, la culture et le style de management, sont aussi ceux
qui ont la plus grande influence sur le comportement des personnes et donc le succès de
la firme. Un rôle essentiel du management consiste donc à modeler indirectement la
culture d’entreprise et le style de management à travers son propre comportement et par

41 Peters TJ, Waterman RH : In Search of Excellence (Harper & Row, 1982)

clxiii
des actions de nature symbolique, plus que d’intervenir directement dans les décisions.
Cette vue s’oppose à celle de l’école rationaliste incarnée par Taylor.

Notre propos n’est pas de résumer cet ouvrage, qui a eu en son temps un assez
grand retentissement et a soulevé de nombreuses critiques. Pour certains chefs
d’entreprise, il ne fait qu’expliciter leur expérience quotidienne. Pour d’autres au
contraire, ses thèses relèvent de la rêverie et sont dangereuses pour l’entreprise. Nous
pensons que la diversité des réactions s’explique en partie par le fait que le poids relatif
de chacun des Sept S dans le succès de l’entreprise varie selon le type d’activité, ce que
nous cherchons précisément à montrer, et que Peters et Waterman n’ont pas abordé dans
leur ouvrage. Autrement dit, certaines formes d’activité demandent une forte
implication de chaque collaborateur et peuvent largement se passer de systèmes
formalisés, alors que d’autres exigent des systèmes de contrôle très rigoureux qui font
passer au second plan les motivations individuelles. Nous reviendrons plus loin sur cette
idée.

Organisation, culture et personnalité

Les facteurs « Staff » et « Skills », c’est à dire l’inventaire du personnel et de ses


compétences, décrivent en quelque sorte la matière brute de l’entreprise, alors que les
autres facteurs sont le ciment qui unit les personnes autour d’objectifs communs et en
fait une entreprise plutôt qu’une foule amorphe. Il est clair que l’activité de l’entreprise
dicte la nature des compétences qui doivent y être présentes, et qu’ainsi les compétences
caractérisent d’une certaine façon un métier. Mais ce qui nous intéresse, c’est de voir
comment des organisations ou des cultures différentes peuvent être associées à des
formes de production différentes, et à la limite différencier deux firmes dotées à la base
de personnels de compétences identiques en deux entreprises de métiers différents. Par
exemple, une entreprise de progiciel et une société d’assistance à la programmation sont
toutes deux formées de programmeurs, mais diffèrent par leur organisation et leur
culture. En ce sens, le métier de l'entreprise est distinct du métier des individus qui la
composent.

Par ailleurs, toute entreprise regroupe des personnels de différentes compétences,


comme des ingénieurs, des commerçants et des comptables. On pourrait donc penser
qu’il doit être toujours possible de faire coexister les personnels et les compétences
nécessaires à n’importe quelle combinaison de prestations. S’il doit y avoir
incompatibilité ou conflit, il faut en rechercher l’origine dans le style ou les valeurs
propres à chacune des populations concernées.

Comme la structure et les systèmes de gestion, la stratégie est par excellence le


domaine de la Direction. Néanmoins, nous ne la considérerons pas comme une
caractéristique intrinsèque de l’entreprise, mais plutôt comme un outil de gestion
permettant de rassembler un ensemble de décisions en un tout cohérent éclairé par une
perspective à long terme. Pour jouer un rôle utile, la stratégie doit nécessairement
s’incarner par des décisions opérationnelles ou des actions relevant des autres domaines,
par exemple une politique de recrutement qui affectera les facteurs « staff » et « skills ».
Elle peut aussi se concrétiser dans le choix d’une structure et de systèmes de
management.

clxiv
Dans la plupart des entreprises, la structure et les systèmes font l’objet de
descriptions formelles établies sous le contrôle de la Direction et publiées sous forme
d’organigrammes et de manuels de procédure. La conformité à ces descriptions est
contrôlée en permanence, quelquefois par des services spécialisés d’audit, et tous les
changements font l’objet d’études approfondies et d’actions de mise en œuvre
spécifiques. Structure et systèmes forment donc des composantes très formalisées de la
personnalité de l’entreprise, placées sous le contrôle direct et explicite de la Direction.

Nous appellerons organisation d’une entreprise la combinaison de sa structure et


de ses systèmes d'information et de management, qui déterminent les modalités de prise
de décision et d'exécution des décisions. Systèmes et structure sont fortement
interdépendants. La structure est l’anatomie de l’entreprise ; elle dit comment
l’entreprise est construite et comment sont affectées les tâches et les responsabilités. Les
systèmes en sont la physiologie ; ils disent comment l’entreprise fonctionne et quels
sont ses processus de décision et d'information. En elle-même, la structure définit par
défaut un système hiérarchique qui peut être suffisant dans une petite entreprise simple.
Dans une organisation plus complexe, des systèmes sont nécessaires pour définir en
plus les relations horizontales entre pairs, les relations transversales entre unités
lointaines et les processus globaux (« business processes »).

Les sept S revisités

Secteur Strategy

Staff Structure Systems Organisation

Shared
Skills
Values
Style Culture

Contrairement à l’organisation, les valeurs partagées et les styles de


comportement se forment essentiellement par l'effet involontaire et inconscient de
l'histoire de l'entreprise. A aucun moment la culture ne peut faire l’objet d’une décision
globale. Tout au plus la sélection des personnes à l’embauche peut-elle privilégier un
certain mode de pensée et de comportement, et le système de récompenses et de
sanctions peut-il jouer un rôle de conditionnement interne à l’entreprise. Mais c’est
l’histoire accumulée de la firme qui crée les légendes, les héros et les méchants,
autrement dit la mythologie par laquelle s’exprime le système de valeurs et sur laquelle
se modèlent les comportements des individus.

clxv
Nous appellerons culture de l’entreprise la combinaison de son style et de ses
valeurs, c'est à dire l’ensemble de références, de valeurs partagées et de normes de
comportement qui gouvernent, consciemment ou inconsciemment, les actions de chaque
individu y compris les dirigeants et tous les autres responsables, et sur lesquels la
Direction n’a qu’une influence indirecte et limitée. L'organisation et la culture forment
ensemble la personnalité de l'entreprise.

L’approche relativiste de l’organisation

Considérons d’abord le niveau de l’organisation, qui a donné lieu à de très


nombreux travaux et à de multiples théories souvent contradictoires. Dans leur immense
majorité, ces travaux se préoccupent de définir des lois ou des règles empiriques
applicables à toutes les entreprises dans toutes les situations, quelle que soit en
particulier la nature de leurs productions. Cette orientation revient à postuler que les
règles d’organisation sont indifférentes à la nature de l’activité de l’entreprise.

Plusieurs auteurs ont contesté ce postulat à partir des années 60, mais il a fallu
attendre 1967 pour que soient exprimées et développées dans l’ouvrage maintenant
classique de Lawrence et Lorsch les idées fondatrices de l’école « relativiste » ou « de
42

la contingence », pour laquelle il n’existe pas d’organisation ni de système de


management qui soit meilleur que les autres quelles que soient les circonstances. Pour
Lawrence et Lorsch, « le type d’organisation requis varie suivant la nature des biens ou
services fournis, les moyens mis en œuvre et l’environnement économique à un moment
donné », et la question à laquelle leurs travaux cherchent à répondre est « quelle sorte
d’organisation doit-on choisir en fonction des variables économiques et des conditions
du marché ? ».

C’est sur ces travaux que nous nous appuierons dans la suite, pour deux raisons
essentielles. Premièrement, en tout état de cause, la théorie relativiste nous semble seule
conforme à la réalité de l’expérience des dirigeants qui ont eu l’occasion de connaître
des environnements suffisamment différents. En second lieu, la présentation et les
éléments d’explication proposés par Lawrence et Lorsch forment une bonne base pour
notre propos, qui est de caractériser les formes organisationnelles les mieux adaptées
aux différents secteurs d’activité.

La segmentation et la différenciation

L’organisation a pour objet de distribuer le travail de l’entreprise de façon efficace


entre les employés de l’entreprise ou de l’unité concernée. On peut la représenter en
première analyse comme une répartition des activités, des ressources et des
responsabilités de chaque unité entre des sous-unités de niveau inférieur, ce processus
de fractionnement se déroulant de façon récursive à partir du niveau global de
l’entreprise, jusqu’à ce que les unités élémentaires deviennent indivisibles en se
réduisant à un individu ou un équipement élémentaire.

42 Lawrence PR, Lorsch JW : Organization and environment (Richard Irwin, 1967)

clxvi
Ce fractionnement, que la plupart des auteurs appellent segmentation, conduit à
créer une hiérarchie d’unités, dotées chacune de ressources et de responsabilités, et où
les responsabilités de chaque unité sont la réunion des responsabilités des sous-unités
qui la composent.

La segmentation, en introduisant des différences d’activités et d’objectifs entre les


unités, induit également des différences d’attitudes et de comportement. Outre les
objectifs eux-mêmes, ces différences concernent principalement :
–l’« orientation temporelle », c’est à dire la façon dont les cadres projettent leurs
actions dans le temps, en particulier le poids relatif du court terme et du long terme,
–l’« orientation interpersonnelle », c’est à dire l’importance relative accordée par les
cadres à l’exécution des tâches d’une part, aux relations avec leurs collègues d’autre
part.

Cet ensemble de différences induit à son tour des différences dans l’organisation
interne de chaque unité, telle qu’elle résulte du niveau suivant de segmentation.

Différenciation et incertitude

incertitude faible incertitude élevée

Pouvoir dirigeants réparti

Structure stricte souple

Nb de niveaux élevé faible

Procédures formelles indicatives

Objectifs court terme long terme

Relations centrées sur les centrées sur les


tâches personnes
Type d'
Organisation mécaniste organique

De leurs études expérimentales, Lawrence et Lorsch dégagent la conclusion que


les différences d’objectifs, d’orientation temporelle et interpersonnelle, ainsi que
d’organisation interne, constatées entre unités, s’expliquent par trois critères : la clarté
de l'information disponible pour les décisions, la probabilité des relations causales qui
relient les décisions à leurs conséquences, et le temps de réponse de l'environnement
aux actions de l’unité. Ces trois facteurs caractérisent le degré d'incertitude de
l’environnement dans lesquels évolue l’unité. Dans un environnement relativement
certain, les objectifs à court terme dominent, les collaborateurs sont plus motivés par
l’exécution correcte de leurs tâches que par les relations personnelles, et l’organisation
tend à être très formelle ; au contraire, dans un environnement incertain, les objectifs
sont à long terme, la qualité des relations personnelles devient une motivation
importante, et l’organisation est plus informelle.

clxvii
L’intégration

Pour que l’organisation fonctionne correctement, les activités de ses différentes


unités doivent être intégrées grâce à des mécanismes de coordination. D’une façon
générale, le besoin d'intégration croît avec le niveau de différenciation des unités
concernées, mais les dispositifs d’intégration ne sont pas nécessairement formels. Ils
peuvent emprunter exclusivement la voie hiérarchique ou reposer sur des contacts
directs entre unités. Leur mise en œuvre peut n’impliquer que les représentants des
unités concernées, ou être confiée à des unités d’intégration spécialisées. Les méthodes
de résolution des conflits peuvent être diverses : confrontation, éludation, arbitrage,
décisions imposées par la hiérarchie, etc. Par exemple, des unités qui auraient en
commun, malgré la différenciation de leurs objectifs, une culture favorisant le dialogue
et une forte adhésion aux objectifs généraux de l’entreprise, auraient probablement une
tendance naturelle à résoudre leurs conflits par contact direct sans avoir besoin de
procédures formalisées.

Les mécanismes d’intégration sont efficaces lorsque chacune des décisions de


résolution des conflits est prise au point de l’organisation où sont réunis le pouvoir de
faire appliquer la décision, l’information nécessaire et la compétence nécessaire à la
prise de décision. Le niveau de décision optimal varie donc selon les situations,
l’origine et la volatilité de l’information, la complexité et le degré de spécialisation des
activités concernées, etc. Pour Lawrence et Lorsch, « dans les environnements les moins
incertains, les conflits doivent être liquidés et l’intégration atteinte aux niveaux les plus
élevés par la voie hiérarchique ; dans les plus incertains, ce doit être aux plus bas
niveaux de commandement ». Cette différence explique les différences entre les
personnalités les mieux adaptées à l’environnement.

Au total, une organisation est adaptée à sa mission et à son environnement si


d’une part son niveau de différenciation est suffisant pour lui permettre d’exécuter
correctement sa stratégie compte tenu des incertitudes de l'environnement, et si d’autre
part son niveau d'intégration est à la mesure de son niveau de différenciation.
L’entreprise pourra alors non seulement fonctionner de façon efficace dans son
environnement, mais aussi trouver les réponses correctes pour s’adapter aux évolutions
de l'environnement.

Les conclusions de Lawrence et Lorsch réconcilient les thèses traditionnelles et


celles de l’école des relations humaines en constatant que l’organisation hiérarchique
autocratique recommandée par l’école classique est adaptée aux environnements stables
et certains, tandis que l’organisation souple et participative prônée par les seconds est
adaptée à des environnements changeants et incertains.

Incertitude, organisation et culture

Rapprochons les concepts de segmentation, différenciation et intégration du


modèle des Sept S que nous avons présenté ci-dessus.

La démarche qui conduit à l’organisation d’une entreprise peut se schématiser


comme suit. A chaque niveau successif, en descendant à partir du sommet de

clxviii
l’entreprise, la Direction prend des décisions de segmentation, qui créent des unités de
rang immédiatement inférieur, dotées chacune d’objectifs spécifiques et d’un
environnement local. La spécificité des objectifs et des environnements entraîne une
différenciation culturelle entre les unités, dont la Direction doit tenir compte dans la
mise en place des dispositifs formels d’intégration qui constituent le système de
management. Dans la mesure où les unités ainsi constituées doivent se segmenter à leur
tour, leur culture propre et leur environnement local interviendront dans leurs décisions
d’organisation, éventuellement de façon conflictuelle avec la culture des échelons
supérieurs.

La segmentation résulte de décisions de direction conscientes et contrôlées. Elle


définit la structure au sens des 7S. Par contre, la différenciation se forme spontanément
dans chaque unité en fonction de sa définition formelle par la segmentation d’une part,
de son environnement d’autre part. La différenciation est donc de nature culturelle.

Le mécanisme de segmentation, en affectant à chaque unité des missions


spécifiques, lui confie le soin d’une partie spécifique de l’environnement externe, tandis
que pour chacune des unités, les autres unités forment un environnement interne à
l’entreprise. L’environnement caractéristique d’une unité se compose ainsi de tout ou
partie de l’environnement externe à l’entreprise, des autres sous-unités et de l’échelon
supérieur commun aux sous-unités de même niveau. L’environnement interne comporte
généralement une part conventionnelle plus ou moins formalisée constituée par des
normes, des standards, des procédures, … définies par l’échelon supérieur ou les autres
sous-unités. Par exemple, le catalogue de produits est un élément de décision pour
l’entreprise, alors qu’il fait partie de l’environnement de son service commercial.

Les mécanismes de coordination peuvent être plus ou moins formels. Leur part
formalisée constitue les systèmes au sens des 7S, tandis que leur part informelle relève
de la culture. Autrement dit, les systèmes de management peuvent être définis comme la
partie formelle des mécanismes de coordination, tandis que la culture regroupe en
particulier l’orientation temporelle, qui dépend du cycle de l’activité, l’orientation
interpersonnelle et la part informelle des mécanismes de coordination.

Bien qu’ils aient noté que « le type d’organisation requis varie suivant la nature
des biens ou services fournis... », Lawrence et Lorsch ont surtout pris en compte
l’influence de l’environnement externe et de la fonction dans l’entreprise (recherche,
vente, production...), et se sont peu occupés de rattacher l’organisation aux biens et
services produits. Nous nous proposons de montrer maintenant comment l’organisation
et la culture d’une entreprise sont influencées par les caractéristiques de sa production,
en particulier :
–la relation temporelle entre les dépenses et les recettes, c’est à dire la durée des
cycles fondamentaux de production,
–l’échelle de production, dont nous avons montré qu’elle dépend du rapport des frais
fixes aux frais variables.

Autant qu’à l’environnement, les facteurs de différenciation se rattachent à la


nature de l’activité de l’unité ou de la firme. Deux firmes évoluant dans le même
environnement mais dont les cycles de production sont différents peuvent avoir des

clxix
orientations temporelles différentes. En effet, « l’orientation temporelle est liée au temps
de réponse des résultats définitifs » , c’est à dire au délai nécessaire pour connaître le
43

résultat réel des décisions qu’on a prises. Nous verrons plus loin que ce délai, qui
constitue en quelque sorte la portée temporelle des décisions ou l’horizon de
l’organisation, est une bonne expression de l’incertitude, et contribue fortement à
modeler l’organisation et la culture des entreprises.

Les limites du modèle rationnel

La plupart des théories, qu’il s’agisse d’organisation, de gestion ou d’économie,


reposent explicitement ou implicitement sur une image de l’« Homme Rationnel ». Au
moment de prendre une décision, celui-ci est supposé connaître l’ensemble complet des
possibilités d’action parmi lesquelles il choisira son acte. Deuxièmement, les
conséquences des différentes actions possibles sont connues avec certitude au moment
de la décision, ou à tout le moins peuvent être affectées de coefficients de probabilité.
Lorsque l’incertitude est prise en compte, c’est en affectant les valeurs futures de
coefficients d’ajustement qui les rendent équivalentes à des valeurs actuelles certaines.
Troisièmement, celui qui choisit peut, dés le moment de la décision, classer toutes les
séries de conséquences possibles des plus souhaitables aux moins souhaitables.
L’« Homme rationnel » est alors censé prendre chacune de ses décisions en comparant
entre elles les conséquences des diverses actions possibles. Les théories de la décision
peuvent se concentrer sur les techniques de comparaison entre les décisions
concurrentes.

Or l’expérience de la vie des entreprises n’est pas conforme à ce modèle rationnel.


D’une part, un très grand nombre de décisions sont prises sans analyse détaillée, de
façon en quelque sorte réflexe. Dans chaque organisation existent des schémas d’action
préétablis liés à certaines situations ou problèmes plus ou moins récurrents, et ces
schémas sont exécutés lorsque les symptômes perçus ressemblent suffisamment aux
symptômes répertoriés. Lorsque ces schémas sont explicites, ils font le plus souvent
partie du système de management de l’entreprise. Ils peuvent aussi être implicites voire
inconscients et faire alors partie de la culture.

D’autre part, dans la vie réelle, ni les coûts ni les bénéfices d’une décision ne
peuvent être connus avec certitude au moment où cette décision doit être prise. Leurs
valeurs et les probabilités attachées aux conséquences des actions ne représentent que
des estimations fortement subjectives. Enfin, il est généralement admis que « la plupart
des prises de décision humaines se rapportent à la découverte et à la sélection de choix
satisfaisants et non de choix optimaux » . 44

Ces phénomènes expliquent la place relativement modeste de la pure rationalité


économique dans la réalité de la vie industrielle, et limitent considérablement l’intérêt
pratique des modèles mathématiques élaborés, ainsi que leur pertinence dans
l’explication des phénomènes micro-économiques. Ils donnent en revanche une place

43 Lawrence et Lorsch, op cit


44 March JG, Simon HA : Les Organisations (Dunod, 1969) - traduction de « Organizations » (John
Wiley and Sons, 1958)

clxx
primordiale aux facteurs culturels qui forment la personnalité de l’entreprise dans son
fonctionnement quotidien. En effet, les décisions réflexes sont déterminées par des
règles empiriques, des consignes et des échelles de valeurs qui appartiennent pour
l’essentiel à la culture du décideur. Lorsqu’elles sont le résultat d’un travail conscient de
la Direction, ces règles et ces valeurs peuvent exprimer une rationalité conforme aux
intérêts de l’entreprise. Mais elles peuvent aussi bien en être indépendantes, et restent de
toute façon de nature générale et essentiellement qualitative.

Pour les décisions les plus importantes, qui font l’objet d’une étude spécifique, les
facteurs culturels interviennent encore pour éliminer d’emblée les lignes d’action qui ne
seraient pas conformes à la personnalité de l’entreprise telle qu’elle est perçue par les
décideurs. Enfin, même pour les actions dont les conséquences peuvent être exprimées
sous forme de flux financiers, la décision ne peut reposer sur la connaissance exacte de
flux certains, mais seulement sur des prévisions de dépenses et de recettes, affectées
toutes deux d’un coefficient d’incertitude. Toute décision comporte un risque qui ne
peut être apprécié que de manière subjective.

Certes, le décideur prudent chargera des experts de lui préparer les prévisions
aussi élaborées et aussi argumentées que possible. Ceux-ci peuvent même avoir la
sagesse de les présenter sous forme de plages de variation ou de scénarios alternatifs
assortis de coefficients de probabilité (qui leur sont largement dictés par leur propre
subjectivité). Il n’en reste pas moins qu’à l’instant de la décision, le responsable se
détermine à partir de sa propre intuition de ce qui est pour lui le plus probable. Sa
décision doit au moins autant à ses préjugés, à son expérience, à ses souhaits ou à son
affectivité qu’au raisonnement économique. Confrontés à des choix identiques, les
responsables ne prendront pas les mêmes décisions dans une organisation dont la culture
valorise la prise de risque et dans une organisation qui pousse à la prudence, ou dans
une organisation qui exalte la responsabilité individuelle et une autre qui prône la
responsabilité partagée.

Si les conséquences d’une décision pouvaient être connues avec certitude, la


décision deviendrait automatique à partir du moment où l’information serait disponible.
A condition que les objectifs de l’entreprise soient clairs pour tous, la décision serait la
même quel que soit le point où elle serait prise. Outre son aspect hiérarchique,
l’organisation se réduirait à un problème de circulation de l’information, et les
différences culturelles éventuelles seraient sans importance.

Dans la réalité au contraire, l’organisation doit se préoccuper à la fois de préciser


qui doit intervenir dans chacune des décisions, et donc y faire intervenir sa culture
personnelle, et de faire en sorte que la culture de chacun soit cohérente avec la
rationalité de la firme dans le domaine où il aura à intervenir. La qualité de
l’organisation et la validité de la culture conditionnent donc la pertinence et l’efficacité
des décisions et des actions de l’entreprise. En particulier, en cas de changement dans la
stratégie ou l’environnement, la personnalité acquise par une entreprise continue à lui
dicter une part importante de sa conduite, même si une analyse rationnelle conduirait à
adopter une conduite significativement différente.

clxxi
Recettes, dépenses et incertitude

Puisqu’il faut admettre que presque toutes les décisions de l’entreprise reposent
sur des données incertaines et comportent un risque réel d’erreur, il faut attacher une
importance primordiale aux possibilités de corriger une décision lorsqu’il apparaît que
ses conséquences réelles ne sont pas conformes aux prévisions ou aux attentes qui
l’avaient motivée. Ceci soulève deux questions : comment se crée l’information qui
permet de mesurer les conséquences réelles d’une décision ? et dans l’hypothèse où une
décision se révèle incorrecte, que peut-on faire à ce moment là pour la corriger ? Ces
deux questions renvoient à la relation temporelle entre la formation des dépenses et la
formation des revenus, dont nous avons évoqué au Chapitre 5 l’importance dans les
possibilités de réaction de l’entreprise à la conjoncture.

Outre que, pour une décision ou un produit donné, la réalité des coûts (le flux de
dépenses) comme celle des bénéfices (le flux de recettes), sont toutes deux inconnues au
moment de la décision, il se trouve que pour la plupart des décisions, les dépenses
doivent être engagées en partie avant que les recettes correspondantes ne soient
acquises. Autrement dit, les dépenses précèdent chronologiquement les recettes. En ce
sens, presque toutes les décisions importantes de l’entreprise impliquent donc des
investissements, même si le vocabulaire comptable réserve cette dénomination aux
dépenses dont les bénéfices attendus se situent dans des exercices comptables ultérieurs.

Au niveau d’un produit et par rapport au cycle de production habituel qui mène de
la recherche au développement, à la production et à la commercialisation, les flux de
dépenses se situent à tous les stades, les flux de recettes seulement à celui de la
commercialisation. De plus, les dépenses résultent d’une décision unilatérale de
l'entreprise, même si leur montant exact peut dépendre de facteurs extérieurs. Les
recettes, par contre, dépendent non seulement de la qualité et du prix du produit, dont
l’entreprise a le contrôle, mais aussi de facteurs extérieurs tels que la conjoncture, les
actions des concurrents, les décisions des clients, etc. Les coûts sont immédiats et quasi
certains alors que les bénéfices sont au moins en partie futurs et incertains. Autrement
dit, les décisions ont en général un premier effet direct sur les dépenses, tandis que leur
effet sur les recettes est indirect, aléatoire et tardif. On contrôle les dépenses, on espère
les recettes.

Pour les décisions relevant de cycles courts, leurs conséquences apparaissent


rapidement, et il existe des moyens d’agir rapidement sur les dépenses sans entraîner de
conséquences à long terme. Pour les cycles longs au, contraire, les conséquences
apparaissent longtemps après la décision, alors que beaucoup de dépenses ont déjà été
encourues, sur lesquelles il est trop tard pour agir. Quelles que soient les modalités des
nouvelles décisions prises pour corriger l’effet des décisions antérieures, elles ne
pourront en aucun cas annuler ces dépenses. Au contraire elles entraîneront le plus
souvent dans un premier temps de nouvelles dépenses tout aussi irrécupérables, dont les
fruits éventuels ne seront à leur tour connus qu’au bout d’un délai qui peut se chiffrer en
mois ou en années.

L’horizon d’une décision peut être défini comme le temps nécessaire pour en
constater les conséquences, ou plus précisément pour comparer ses conséquences réelles

clxxii
aux prévisions qui l’ont motivée. Une décision peut en effet s’appuyer sur des
prévisions pluriannuelles, et bien que certaines de ses conséquences apparaissent
rapidement, ce n’est alors qu’après quelques années qu’il est possible de juger si les
prévisions qui la motivaient sont validées.

Cycles, organisation et culture

Un type de production ou une activité peut être caractérisée par la durée du plus
long des cycles qui la gouvernent. Par exemple, dans les activités fonctionnelles, la
vente est une activité à cycle court et la R&D une activité à cycle long. Le cycle propre
de l’activité de production est très variable selon les types de production. Il peut être
aussi court que le cycle de vente pour les services de conseil ou d’assistance ou encore
l’assemblage de matériels. Il peut être très long pour la fabrication de composants, le
développement de logiciels ou les services de télécommunications ou de traitement.

Plus le cycle d’une activité est long, ou plus son horizon est lointain, et plus
l’environnement est évolutif, plus incertaines sont les décisions. En effet, chaque
décision s’appuie largement sur les conséquences observées des décisions passées
similaires. Si le cycle est court et l’environnement stable, les conséquences des
décisions récentes seront connues et constitueront une bonne base de prévision pour les
nouvelles décisions. Si au contraire le cycle est long, ou si l’environnement est
changeant, les conséquences des décisions passées seront ou bien encore inconnues, ou
bien trop anciennes pour servir de référence dans le nouvel environnement, et les
décisions courantes devront être prises dans une situation de grande incertitude. La
durée du cycle d’une activité est donc un facteur déterminant de l’incertitude au sens de
Lawrence et Lorsch, et donc de la différenciation entre unités.

Horizon et culture
cycles courts cycles longs
résultats proches des décisions résultats éloignés des décisions
responsabilités claires responsabilités diffuses

réalisme vision
réactivité planification
contrôle confiance
ajustement persévérance

organisation mécaniste organisation organique


type L type T

ventes R&D

assemblage de matériel composants, progiciels


conseil, assistance services de télécommunications

Dans une unité à cycles courts, les résultats sont proches des décisions, et de ce
fait les responsabilités sont claires. Les erreurs éventuelles peuvent être corrigées sans
délai, et pour autant que les responsables soient attentifs aux réactions du marché et
agissent rapidement en cas de problème, le marché lui-même peut servir de moyen de

clxxiii
contrôle opérationnel. La clé de la bonne gestion est d’ajuster en permanence les coûts
aux revenus réels.

Au contraire, dans une unité à cycles longs, les résultats sont éloignés des
décisions et les responsabilités diffuses. Les erreurs peuvent difficilement être corrigées,
et de toute façon lentement. Il est donc vital d’en commettre le moins possible, et pour
cela de procéder à des études internes assez poussées pour analyser correctement les
besoins, les opportunités, les risques et les différentes lignes de conduite envisageables.
La sanction du marché intervient trop tard dans le cycle pour que le marché puisse
servir de base au contrôle opérationnel. La clé de la réussite est de commettre moins
d’erreurs stratégiques que les concurrents. Ce souci risque d’être coûteux en contrôles,
vérifications et assurances diverses, et entraîner des réactions plus lentes aux aléas de
l’environnement.

Personnalités et structure

Examinons maintenant l’influence de l’activité de l’entreprise sur les décisions de


segmentation qui définissent sa structure d’ensemble en répartissant les activités, les
ressources et les responsabilités de chaque unité entre des sous-unités de niveau
inférieur.

Dans l’ensemble de l’entreprise, l’organisation résulte de l’application récursive


du processus de segmentation depuis le sommet jusqu’aux individus. A chaque niveau,
la segmentation peut être « homogène » si chacune des sous-unités a des activités
homologues à celles de l’unité globale mais un domaine d’action réduit (la
généralisation de la segmentation spatiale ou d’une organisation en divisions) ; la
segmentation sera « hétérogène » si chacune des sous-unités a pour objectifs une partie
des objectifs de l’unité globale, mais le même domaine d’action (la généralisation de la
segmentation fonctionnelle). Dans la structure globale, des segmentations de type
homogène et des segmentations de type hétérogène peuvent alterner aux différents
niveaux de la hiérarchie. Par exemple, une direction commerciale, qui résulte d’une
segmentation fonctionnelle hétérogène, peut être organisée par régions, c’est à dire
segmentée sur le mode géographique homogène. Chaque région peut à son tour être
organisée sur le mode fonctionnel en unités de vente, de promotion, d’administration, de
logistique, de support clients, etc. Ces segmentations successives devront respecter
l’échelle économique d’exercice des différentes activités.

A chaque niveau de la structure, la nature de la segmentation, fonctionnelle ou


spatiale, induit des différences notables dans les relations entre les niveaux
hiérarchiques successifs et entre les unités de même rang, et donc dans le contexte des
segmentations ultérieures. Pour l’ensemble de l’entreprise, la prédominance de l’une ou
l’autre forme de segmentation, en particulier aux niveaux les plus élevés, induit des
différences dans les systèmes de management et la culture de l’entreprise.

La segmentation est nécessaire pour distribuer le travail de façon efficace, mais


elle peut avoir également pour objectif de fractionner une unité à cycles longs de façon
à ce que certaines des sous-unités fonctionnent selon des cycles plus courts. En effet, le
dirigeant d’une organisation souhaite généralement la structurer de façon à clarifier les

clxxiv
responsabilités de ses subordonnés et à faciliter le contrôle et les ajustements. Un
moyen d’y parvenir est d’isoler les activités à cycle long au niveau de l’état-major de
l’unité globale ou dans une ou plusieurs unités spécialisées si nécessaire, afin que les
autres unités fonctionnent selon des cycles plus courts. Les options de segmentation
dépendent ainsi de l’activité à travers son échelle économique, qui détermine la viabilité
économique des fragmentations éventuelles, et à travers son cycle, qui peut orienter la
définition des sous-unités.

L’organisation homogène

Dans une segmentation « homogène », les différentes unités ont des activités, des
objectifs et des environnements de même nature, et des cycles de fonctionnement
voisins. Il en résultera très probablement des cultures voisines, et semblables elles-
mêmes à la culture des dirigeants de l’entreprise. Une segmentation homogène favorise
ainsi la diffusion dans toute l’entreprise des valeurs et des modèles de comportement
propres aux dirigeants, sans que cette diffusion demande d’actions particulières. En
contrepartie, la culture homogène qui se crée ainsi a de fortes chances d’être peu
tolérante envers les autres cultures qui pourraient néanmoins être favorables à certaines
activités.

Opérant dans des champs d’action différents, les unités n’ont que peu d’occasions
et de motivations pour collaborer entre elles. Elles sont juxtaposées plutôt
qu’interdépendantes. Au contraire, comme les résultats de chaque unité s’expriment de
la même façon et sont facilement comparables tout en étant indépendants les uns des
autres, des relations de concurrence et de rivalité pourront facilement se développer. La
direction commune peut d’ailleurs les favoriser et les exploiter pour augmenter la
performance globale.

Les résultats de l'unité globale sont purement et simplement la somme des


résultats des sous-unités, et son succès ne dépend que du succès des sous-unités. Il
n’existe pas d'activités propres au niveau global, et donc pas de besoin d’un état-major
de taille notable. Les seuls besoins de coordination consistent à éviter que la
conjonction d'actions des sous-unités ne soit préjudiciable à l'ensemble, par exemple
sous la forme de propositions ou de produits concurrents, et éventuellement à imposer
un minimum de coopération entre les sous-unités en cas de besoin.

La différenciation entre sous-unités étant faible, le besoin d’intégration est limité.


En revanche, puisque la culture naturelle ne pousse pas au dialogue entre unités, les
mécanismes de coordination devront être formalisés. Au total, le système de
management d’une organisation homogène sera un système simple mais relativement
formel. Pour cet ensemble de raisons, la direction d’une unité organisée sur le mode
homogène peut s’accommoder d’un grand nombre de sous-unités, ce qui favorise les
structures « plates ».

L’organisation hétérogène

Les unités qui résultent d’une segmentation hétérogène ont par définition des
activités et des objectifs différents dont la réunion forme les objectifs globaux de l’unité

clxxv
de rang supérieur. Elles ne sont concernées que par une partie limitée de
l’environnement de l’entreprise, et évoluent dans un environnement propre qui
comprend un grand nombre d’éléments déterminés de façon plus ou moins
conventionnelle par les autres unités de l’entreprise. Elles peuvent fonctionner selon des
cycles très différents, certaines selon des cycles notablement plus courts que celui de
l’entreprise. Ces unités développeront donc très probablement des cultures locales
différenciées, dont les valeurs et les modèles de comportement pourront être assez
différentes de ceux des dirigeants de l’entreprise. Maintenir une identité culturelle
d’entreprise et un niveau suffisant de motivations communes pour résoudre les conflits
nécessitera des actions spécifiques de la part des dirigeants, faute desquelles l’entreprise
risque des dysfonctionnements. En revanche, si cette culture globale est suffisamment
vivace, l’organisation sera tolérante vis à vis de différences culturelles locales entre
sous-unités. Il est plus facile à une unité résultant d’une segmentation hétérogène de se
décomposer de façon homogène que l’inverse.

Les unités sont interdépendantes, ce qui implique nécessairement des conflits, et


doivent développer entre elles des relations de coopération. Selon que la direction aura
ou non réussi à insuffler à l’ensemble une culture de dialogue et une conscience claire
de l’intérêt général – ce qui répétons-le ne se réalise pas de soi-même sans actions
spécifiques – la résolution des conflits se fera plus ou moins spontanément par
confrontation et contact direct, ou exigera au contraire des procédures formelles et une
implication constante de la direction.

Le succès de l'unité globale dépend non seulement du succès des sous-unités, mais
aussi de la qualité de l’intégration et donc des actions qui sont propres au niveau global.
Cette intégration peut demander des équipes d’état-major étoffées, voire des
départements spéciaux d’intégration. Chaque échelon de la structure ne peut contrôler
efficacement qu’un nombre limité de sous-unités, ce qui tend à favoriser une structure
d’autant plus « pointue » que la direction de l’unité globale est plus fréquemment
impliquée dans les actions d’intégration et de résolution des conflits. Un nombre élevé
de niveaux hiérarchiques étant un facteur d’inefficacité, on retrouve par ce biais l’intérêt
d’une culture permettant de résoudre les conflits à des niveaux inférieurs.

La structure d'ensemble de l'entreprise

Au niveau global de l’entreprise, on peut imaginer de répartir les activités entre


grandes unités selon trois dimensions :
–par produits si la gamme des productions de l’entreprise est vaste et diversifiée,
–par grandes fonctions (Recherche, Développement, Production, Ventes, Personnel,
Finance, Administration, ...)
–par marché ou zone géographique d’activité.

Puisque notre propos est de rattacher des personnalités d’entreprise à des formes
de production, nous nous intéresserons pour le moment au seul cas des entreprises
offrant un type de produit unique ou à tout le moins une gamme suffisamment
homogène, en laissant de coté le cas des entreprises diversifiées. C’est précisément la
connaissance des implications organisationnelles des différentes formes de production

clxxvi
qui nous permettra d’évaluer dans quelle mesure elles peuvent coexister au sein d’une
organisation unifiée, ou si au contraire il existe des incompatibilités suffisamment fortes
pour ne laisser d’autre choix que la segmentation par produits, qui équivaut en fait à un
conglomérat d’entreprises indépendantes sur le plan opérationnel.

Avec cette réserve, le choix majeur se situe entre une segmentation fonctionnelle
et une segmentation par marché, en quelque sorte spatiale. Dans la segmentation
fonctionnelle, chaque sous-unité est chargée d’une partie des activités de l’entreprise et
les exerce pour la totalité du champ d’action, marché et lieux, où l’entreprise est
présente ; les cycles des sous-unités peuvent être différents du cycle global, et différents
entre eux. Dans la segmentation spatiale, chaque sous-unité exerce la totalité des
fonctions principales de l’entreprise dans une partie seulement du champ d’action de
celle-ci, par exemple dans certaines limites géographiques ; le cycle de chaque sous-
unité est le même que celui de l’ensemble.

L’activité de l’entreprise intervient de façon déterminante dans ce choix à travers


l’échelle économique de production propre à l’activité. Si en effet la segmentation
devait conduire une des sous-unités à exercer son activité à une échelle inférieure à
l’échelle économique de production, cette unité et donc l’entreprise perdrait un avantage
concurrentiel déterminant. Si donc le champ d’action d’une unité est juste suffisant pour
lui permettre d’atteindre l’échelle économique de production, sa segmentation doit
laisser entier l’appareil de production, et ne peut donc être que fonctionnelle. Ceci reste
d’ailleurs vrai si on considère d’autres fonctions que la production, dès que le champ
d’action d’une unité est juste suffisant pour que l’une de ses fonctions importantes
atteigne son échelle économique de fonctionnement.

C’est pourquoi, pour une entreprise dont la production est homogène, la


segmentation la plus naturelle est fonctionnelle. En effet, au moins la définition des
produits ne peut être faite qu’à l’échelle de l’entreprise tout entière. La segmentation
spatiale n’est une alternative viable au plus haut niveau que si deux conditions sont
satisfaites : d’une part la définition des productions ne requiert que très peu de
ressources qui peuvent être gérées comme une activité d’état-major, et d’autre part la
production peut être réalisée de façon économique à une échelle inférieure à celle de
l’entreprise. Cette dernière condition revient à dire que l’entreprise opère dans un
secteur dispersé et y occupe une part de marché importante. Cette combinaison de
conditions se rencontre rarement dans les activités de production industrielles, mais est
fréquente dans de nombreuses activités de service.

Parallèlement, une entreprise dont le cycle de production est long sera plus
encline à adopter une segmentation fonctionnelle qui raccourcira le cycle de certaines de
ses unités constitutives, alors qu’une entreprise à cycle court s’orientera plus volontiers
vers une segmentation spatiale.

Divisions et filiales

Ayant dans ce qui précède examiné la personnalité des entreprises offrant des
produits homogènes, nous pouvons revenir sur les firmes diversifiées et l’organisation
en divisions de produits. Ce type d’organisation repose sur une segmentation de nature

clxxvii
homogène, puisque chacune des divisions est responsable de l’ensemble des activités
concernant son ou ses produits. La différenciation entre divisions repose principalement
sur l’échelle et les cycles de production associés aux produits de chacune, et
éventuellement sur les marchés dans la mesure où les produits des divisions s’adressent
à des marchés différents.

Il résulte des considérations ci-dessus que pour ne pas être pénalisée par rapport à
ses concurrents plus spécialisés, une même division doit comporter des produits de
cycle voisin, faute de quoi l’organisation et la culture de la division seront
nécessairement mal adaptées à une partie de ses activités. Par exception, une division
principalement responsable de produits à cycle long peut aussi se charger de produits
annexes à cycle court. Sa compétitivité sera alors réduite pour ces produits et devra être
compensée par des avantages d’intégration significatifs ou par des subventions internes,
qui grèvent d’autant la compétitivité des produits principaux.

Dans quelle mesure cette spécialisation des divisions doit-elle se concrétiser par
une séparation en entités juridiques distinctes ? Autrement dit, des divisions de
personnalités différentes peuvent-elles efficacement coexister à l’intérieur d’une même
entreprise au sens juridique du mot ? La réponse est théoriquement oui, à condition que
les dirigeants de l’entreprise soient conscients des différences de culture et non
seulement acceptent mais respectent les différences d’organisation et de système de
management. Remplir ces conditions demande des qualités tout à fait exceptionnelles.
Un dirigeant élevé dans un environnement à cycles longs répugnera à se montrer aussi
tatillon voire mesquin que l’exige la bonne gestion d’une activité à cycles courts ; à
l’inverse, un dirigeant habitué aux cycles courts interviendra plus qu’il ne convient dans
des activités à cycle long et s’aliénera rapidement les personnes clé.

Il est difficile d’attendre du même dirigeant, réputé responsable ultime, qu’il


adapte son comportement à des activités aussi différentes. Il peut à la rigueur forcer son
talent pour contrôler le détail d’une activité si c’est nécessaire, mais se retenir
d’intervenir serait un comportement proprement surhumain pour un dirigeant
autocratique. Bien que ce ne soit en rien une garantie, introduire la protection d’une
personnalité juridique distincte, et surtout la distance d’un conseil d’administration entre
des dirigeants et des activités mutuellement incompatibles semble en tous cas une sage
précaution.

Personnalités par secteur

Nous pouvons maintenant résumer les choix d’organisation et les traits de


personnalité qui caractérisent les principaux types de prestations et de métiers, tels que
nous les avons identifiés au Chapitre 6, et les rattacher au type de secteur associé. Pour
les métiers des composants et des matériels, que nous avons déjà analysés, nous
pourrons ainsi décrire les modèles d’entreprise que l’on rencontre dans le secteur des
matériels et évaluer leur viabilité passée et présente. Nous verrons au passage dans
quelle mesure une personnalité inadéquate risque de se traduire par un handicap
concurrentiel, selon la situation de l’environnement.

clxxviii
Pour les autres métiers, en particulier ceux du logiciel et des services, nous
reparlerons des questions de personnalités d’entreprise dans les chapitres qui leur sont
consacrés.

Remarquons tout d’abord qu’il existe une correspondance étroite entre l’échelle
de production et la durée du cycle. Un cycle long implique en effet généralement qu’une
part importante des dépenses entraînées par une décision, par exemple la mise en place
d’une production, est engagée de façon irréversible longtemps avant que se
matérialisent les revenus correspondants, et en particulier avant que ne soient fixés les
volumes de production. Les activités à cycle long connaissent également des
investissements et des coûts fixes importants, et donc une échelle de production
relativement élevée. Il est d’ailleurs difficile d’identifier dans la réalité, voire
d’imaginer des activités qui présenteraient à la fois un cycle de production long et une
échelle économique faible, alors que le cas inverse semble possible. En tout état de
cause, ni l’un ni l’autre ne se présentent dans l’industrie informatique.

Les secteurs concentrés

Dans les secteurs concentrés, dont l’industrie des composants est un exemple
extrême, on compte un petit nombre d’entreprises relativement importantes, mais de
tailles très différentes. Les cycles de production sont longs et l’échelle économique est
élevée, ce qui conduit à une domination de la segmentation hétérogène de type
fonctionnel. L’entreprise est un assemblage complexe d’unités différenciées, liées entre
elles par un système de gestion élaboré, et pilotées par rapport à un plan d’ensemble qui
s’inscrit lui-même dans un système de planification à long terme cohérent avec la durée
du cycle de base. Les objectifs, la culture et les motivations sont différents suivant les
fonctions, et la cohésion d'entreprise doit être assurée par une forte culture d'entreprise
transcendant les cultures fonctionnelles.

La culture d’une entreprise à cycles longs doit valoriser la planification, la vision


à long terme, la confiance et la persévérance. Le héros type en est le visionnaire
infaillible. Lorsque les dirigeants de l’entreprise n’appartiennent pas eux-mêmes à cette
catégorie, ce qui est le cas dans un grand nombre de grandes entreprises, il peut y avoir
hiatus voire conflit entre leur culture propre et la culture dominante dans l’entreprise.
D’une façon plus générale, une organisation à cycles longs doit pour fonctionner
efficacement être capable d’intégrer des unités de culture différentes, et elle tolérera
généralement bien la présence de sous-unités adaptées à des cycles courts.

Les qualités d’une entreprise adaptée aux cycles longs sont cohérentes avec celles
que Porter estime nécessaires à une stratégie reposant sur les qualités du produit :
encouragement à la créativité et l’autonomie individuelle, organisation souple,
délégation, motivation à long terme, système de mesure plutôt qualitatif. A une
concurrence accrue, une telle entreprise réagira donc spontanément en cherchant à
améliorer les qualités de ses produits. En revanche, mener une stratégie de concurrence
par les coûts se heurte à des obstacles culturels profonds. Si l’entreprise décide de
s’engager dans cette stratégie, par exemple pour répliquer à la concurrence dominante,
ceci exigera une action vigoureuse de la direction sur l’organisation et la culture. Pour

clxxix
réussir dans des délais acceptables, cette action gagnera à être isolée dans une partie
spécialisée de l’organisation.

Cette personnalité d’entreprise est typique des activités de production industrielle


à grande échelle, mais nous verrons qu’elle est aussi celle qui convient au
développement de progiciels, et même à certaines activités de services comme les
télécommunications ou le traitement, dont la logique est celle de secteurs concentrés.

Les secteurs dispersés

Dans les secteurs dispersés comme l’assemblage de matériels à partir de


composants standards, on rencontre un grand nombre d’entreprises occupant des parts
de marché relativement faibles, mais néanmoins suffisamment différentes pour que les
entreprises soient très différentes en taille.

Parmi ces entreprises, les petites ont une taille voisine de l’échelle économique de
production, quelque faible que soit celle-ci. Leur segmentation se fait donc sur le mode
fonctionnel hétérogène, mais leur taille réduite limite les effets de différenciation et
leurs conséquences en termes de système de gestion. Le chef d’entreprise ou le petit
groupe de dirigeants peut prendre toutes les décisions importantes et traiter ainsi les
cycles les plus longs, et créer la culture d’entreprise par son exemple et son action
directe.

Dans un tel secteur dispersé, la taille des grandes entreprises est par définition
supérieure à l’échelle économique de production. La tendance la plus naturelle sera de
privilégier une segmentation homogène par marchés, en unités réunissant commerce et
production et assez petites pour permettre le rapprochement des fonctions et le contrôle
au plus près du terrain, sur la base d’un compte d'exploitation semblable à celui de
l'entreprise elle-même. Si la direction recherche néanmoins des économies d’échelle,
production et commerce pourront être séparés, mais un système de management adéquat
devra alors permettre des ajustements rapides de l’un à l’autre.

Pour que l’entreprise fonctionne correctement, sa culture doit valoriser la rigueur


des contrôles et la capacité d’ajustement rapide à la réalité. Le modèle de
comportement – le héros dans cette culture — est le gestionnaire réaliste et sans état
d’âme. La capacité de vision à long terme et la persévérance dans la fidélité à une idée
sont plutôt mal vues car inutiles et à la limite susceptibles de retarder les ajustements à
la situation réelle. Cette culture est homogène dans toute l’organisation et facilite
grandement les relations entre les responsables, quel que soit leur niveau hiérarchique.
A l’inverse, cette culture est d’autant plus intolérante envers des cultures différentes
qu’elle est homogène dans toute l’entreprise. Une organisation adaptée aux cycles
courts aura donc le plus grand mal à tolérer en son sein une organisation qui serait
adaptée à des activités à cycles longs.

Les qualités de l’entreprise adaptée aux cycles courts sont cohérentes avec celles
que Porter considère comme adaptées à une stratégie reposant sur le contrôle des coûts :
psychologie qui valorise la discipline et le sens de l’économie, supervision constante à
des niveaux très détaillés, centralisation, objectifs quantitatifs à court terme. Face à une
intensification de la concurrence, une telle entreprise aura naturellement tendance à

clxxx
réagir par une stratégie de concurrence par les coûts, quelle que soit la nature de
l’attaque concurrentielle. Si l’entreprise décide de s’engager dans une concurrence par
les qualités du produit, non seulement il lui faut modifier en profondeur son
organisation et sa culture, mais sa personnalité peut décourager les professionnels de
haut niveau qui seraient alors nécessaires.

Cette personnalité d’entreprise se rencontre dans de très nombreuses activités de


services à caractère professionnel comme le conseil et l’assistance. Le caractère
homogène et contraignant de la culture d’entreprise, surtout dans des firmes de petite
taille, rend difficile d’y tolérer des unités obéissant à une autre logique qui serait par
exemple adaptée au développement de produits selon un cycle long. C’est pourquoi,
alors que des firmes de produits offrent souvent des services avec succès, il est
extrêmement rare que des firmes de services réussissent dans des activités de production
industrielle, y compris dans le progiciel.

Les problèmes d’adaptation

La nature de l’activité et la stratégie choisie pour l’entreprise conduisent la


Direction à des choix d’organisation (structure et systèmes) qui d’une part forment la
part contrôlable de la personnalité de l’entreprise, et d’autre part contribuent à forger sa
culture. Il est clair que l’entreprise ne peut par définition avoir qu’une seule
organisation, ou alors elle se sépare en deux organisations différentes qui forment un
conglomérat et non une entreprise. Une première façon de poser le problème de la
compatibilité entre productions est donc la suivante : dans la mesure où les choix
d’organisation auraient été différents pour une autre activité ou une autre stratégie, dans
quelle mesure l’entreprise peut-elle se contenter d’une organisation hybride ou doit-elle
opter entre deux solutions incompatibles ? Autrement dit, dans quelle mesure des
activités ou des stratégies s’excluent-elles mutuellement en demandant des
organisations différentes ?

Un problème analogue se pose à un deuxième niveau si l’entreprise veut changer


d’activité, ou entreprendre une nouvelle activité. L’organisation qui existe à ce moment
est supposée convenir aux productions courantes, mais ne convient pas nécessairement
aux autres productions envisagées. Si un changement d’organisation (structure ou
systèmes de management) est nécessaire pour les nouvelles productions, l’organisation
peut être ajustée instantanément, mais la nouvelle organisation ne fonctionnera que si
elle est compatible avec la culture existante.

Or la culture est l'élément le plus stable de l'entreprise, parce qu'elle y est diffuse
et implicite. La culture d'une entreprise n'existe par définition que dans la tête de chacun
de ses collaborateurs, et peut être extrêmement différente d'un groupe à l'autre. Agir sur
la culture d'entreprise consiste à agir sur les représentations et les systèmes de valeurs
implicitement présents dans la mentalité de chaque collaborateur. La Direction n'a que
peu de moyens d'agir directement sur elle, et doit se contenter de l'influencer à travers
l'exemple de son propre comportement et la sélection des comportements qu'elle
souhaite encourager. En tout état de cause, la culture est une donnée de fait pour la
plupart des décisions.

clxxxi
Quelles que soient les actions entreprises, la culture de l’entreprise ne se modifie
que très lentement. Si un changement d’activité ou de stratégie se heurte à des
incompatibilités culturelles, que ce soit directement ou à travers les changements
d’organisation qu’il induit, ces incompatibilités subsisteront longtemps. Il est probable
que pendant ce temps l’entreprise ne sera pas compétitive pour ses nouvelles activités,
et risque même de voir sa compétitivité se dégrader dans ses activités existantes. Le
temps d’adaptation sera d’autant plus long que l’entreprise est importante et que son
ancienne personnalité l’a rendue plus florissante. Si la concurrence est assez vive pour
éliminer du marché les entreprises mal adaptées, les stratégies ou les orientations
contraires à la culture existante sont ainsi vouées à l’échec, et les incompatibilités
culturelles doivent en pratique être considérées comme rédhibitoires.

Force est de constater qu’en pratique, un grand nombre de chefs d’entreprise ne


sont pas sensibles à ces problèmes, et croient que les formes d’organisation, les
méthodes de gestion et les styles de management qui conduisent au succès sont les
mêmes dans toutes les activités, ou plutôt que ce qui leur a permis de réussir jusque là
continuera de fonctionner quoi qu’ils entreprennent. On peut donc s’attendre à ce que
toutes les combinaisons de prestations soient expérimentées, y compris les plus
aberrantes. Là encore, c’est la concurrence sur chacun des marchés concernés, en
particulier avec les entreprises spécialisées, qui déterminera la réussite ou l’échec des
entreprises mixtes, éliminera celles qui offrent des combinaisons incompatibles, quelles
que soient les raisons de cette incompatibilité, et sélectionnera ainsi les combinaisons
viables.

Que se passe-t-il quand une organisation adaptée à un certain type de cycle


entreprend des activités relevant d’un cycle très différent ?

Une organisation adaptée à des cycles longs a nécessairement un coût de


fonctionnement plus élevé et une inertie plus grande. Appliquée à des activités de cycle
court, elle aura tendance à offrir des produits tardifs et moins bien adaptés à l’actualité
de la demande qu’une organisation adaptée à des cycles courts, tout en ayant à couvrir
des frais de fonctionnement plus élevés. Une telle organisation sera donc désavantagée
au point d’être condamnée à l’échec si les produits à cycle court constituent l’essentiel
de ses revenus et si la situation est fortement concurrentielle. Si par contre les
productions à cycle court sont à la fois secondaires et fortement liées à des productions
principales à cycle long, elle peut néanmoins fonctionner de façon relativement
satisfaisante quitte à subventionner les productions annexes. De plus, il est toujours
possible de mettre en place à l’intérieur de l’organisation « longue » une organisation
« courte » pour ces prestations secondaires.

A l’inverse, une organisation adaptée à des cycles courts sera impatiente de mettre
des produits sur le marché sans avoir pris tout le temps nécessaire pour les études
préalables et en limitant les investissements au minimum. Elle comportera de toute
façon peu de collaborateurs capables d’analyses et de prévisions à long terme. Il risque
d’en résulter des produits mal conçus et de qualité insuffisante, et un appareil de
production adapté préférentiellement aux séries courtes donc plus coûteux pour la
production en grande série. Si les produits relèvent réellement de cycles longs,
l’entreprise ne pourra pas corriger rapidement ces désavantages concurrentiels au
moment où elle les constatera, et sera totalement désarmée pour résister à ses

clxxxii
concurrents. Au total, entreprendre des activités à cycle long dans une organisation
adaptée aux cycles courts est voué presque sûrement à l’échec, d’autant plus qu’une
telle organisation ne pourrait s’accommoder de sous-unités possédant l’organisation et
la culture requises par les cycles longs.

En résumé, le jeu de la concurrence et le phénomène de sélection naturelle qui en


résulte ont pour effet d’associer étroitement certaines formes de production et certaines
personnalités d’entreprise. Une entreprise adaptée aux cycles longs ne pourra réussir
dans de nouvelles productions que si leur cycle est de même nature ou s’il s’agit de
productions secondaires dont elle ne cherche pas à tirer un profit important. Une
entreprise adaptée aux cycles courts n’a pratiquement aucune chance de réussir dans des
activités à cycle long. Nous verrons que c’est probablement la raison pour laquelle
aucune société de services n’a jamais réussi dans le progiciel.

Les manifestations de l’inadaptation

Dans notre souci d’analyser la structuration de l’industrie, nous avons cherché à


mettre en lumière la relation entre les formes de production et les personnalités
d’entreprise. Mais dans le façonnage de cette personnalité, la nature de la production
n’est pas le seul facteur. Pour être efficaces, l’organisation et la culture doivent
également être adaptées à l’environnement, et au premier chef à la situation du marché
et aux conditions locales, ainsi qu’à la position de la firme dans son cycle d’évolution
(démarrage, croissance, maturité, déclin), et à l’intensité et à la forme de la concurrence.

En situation faiblement concurrentielle, la plus ou moins grande adaptation, des


firmes peut n’avoir que peu de conséquences. Si la concurrence n’est pas assez intense
pour éliminer ou contraindre au changement les firmes les moins bien adaptées, des
firmes de personnalités radicalement différentes pourront continuer à coexister dans un
même secteur. A la limite, dans une situation de faible concurrence, un secteur pourra
même être dominé par des firmes mal adaptées si toutes les firmes concurrentes sont
construites sur le même modèle. Ce dernier cas est par exemple celui des prestations
annexes, tant qu’elles sont annexes pour toutes les entreprises concurrentes et qu’aucune
entreprise spécialisée n’aborde ce marché avec une personnalité adaptée.

Les inadéquations entre la production et la personnalité peuvent ainsi ne pas avoir


d’effets immédiats, et ne se manifester au détriment de l’entreprise que lorsque se
produisent des événements extérieurs comme une intensification de la concurrence ou
l’apparition de concurrents spécialisés mieux adaptés. A l’inverse, l’événement
révélateur peut être d’origine interne, comme le lancement d’une nouvelle production
ou le désir de rendre plus rentable une activité existante, ou encore la mise en œuvre de
nouvelles techniques de production qui en modifient l’échelle ou l’horizon. Enfin, une
personnalité inadéquate peut être imposée de façon intempestive par un nouveau
dirigeant en provenance d’un autre type de secteur, par la société-mère à la suite d’une
acquisition ou simplement faute d’avoir suffisamment tenu compte des facteurs
culturels à l’occasion de changements de structure.

clxxxiii
Les généralistes traditionnels

Cet ensemble de considérations nous aide à interpréter l’évolution passée de


l’industrie informatique. Jusque vers la fin des années 60, celle-ci est entièrement
dominée par des généralistes offrant chacun une palette de prestations diversifiées mais
dominées par le matériel. Le logiciel, la maintenance et les autres services sont
considérés comme des prestations annexes nécessaires à la commercialisation du
matériel et fortement liées à celui-ci.

La concurrence porte sur un panier de prestations similaire pour tous les offreurs,
qui constitue en fait un produit intégré unique. L’informatique constitue donc alors un
secteur unique dont les caractéristiques sont celles de la production dominante le
matériel : investissements forts, échelle élevée et cycle long en font un secteur concentré
où s’affrontent un nombre d’acteurs relativement faibles et où les parts de marché sont
très inégales conformément à la dynamique caractéristique de ce type de secteur (voir
chapitre 7). Les personnalités des entreprises concurrentes sont adaptées au cycle long
de leur production principale, qui est d’ailleurs la seule facturée jusqu’à la fin des
années 60.

L’introduction de la facturation séparée en 1969 ne modifie pas radicalement cette


situation. Une concurrence indépendante sur les prestations annexes n’apparaît que très
lentement, et ces prestations restent plus ou moins largement subventionnées par le
revenu du matériel. L’inadéquation aux cycles courts des généralistes traditionnels ne se
traduit pas pour eux par un véritable handicap faute de concurrents spécialisés sur le
marché des services.

Par contre, lorsque apparaissent des firmes spécialisées dans les matériels
compatibles vers 1975, puis des spécialistes de micro-informatique à partir de 1981, ces
firmes représentent une menace d’autant plus grande qu’ils choisissent des modes de
production fondamentalement différents correspondant à des personnalités radicalement
différentes, c’est à dire à cycle court et/ou à échelle économique faible. Une stratégie
gagnante pour ces nouveaux entrants est de se spécialiser dans l’assemblage pur d’un
type unique de matériel et de se garder d’entreprendre des productions à cycle long
comme les composants ou le développement de matériels originaux. En adaptant leurs
ressources, mais aussi leur organisation et leur culture à ce type d’activité, ils peuvent
alors tirer un avantage substantiel de leurs plus faibles coûts et de leur capacité
d’ajustement et de réactions rapides.

Quand les généralistes veulent répliquer, leur personnalité se révèle un handicap


sérieux qui explique en grande partie leurs difficultés et leur place plus effacée dans la
micro-informatique. Il leur faut d’abord accepter l’idée que les principes d’organisation
et les techniques de management qui ont fait leur fortune dans les passé sont en train de
les conduire à l’échec dans le nouvel environnement. Ils doivent ensuite trier leurs
activités selon leurs échelles et leurs cycles respectifs, et provoquer les mutations
d’organisation et de culture correspondantes. Pour cela, il est nécessaire de segmenter
l’organisation selon ces échelles et ces cycles, et d’accepter que le système de
management et la culture d’entreprise jusque là homogènes se résolvent en sous-
systèmes et en sous-cultures différenciés. Au passage, certaines des unités ainsi

clxxxiv
constituées peuvent se révéler non compétitives sur leurs marchés, ce qui oblige à
abandonner les activités correspondantes, à commencer par les plus concentrées comme
les composants.

Au total, l’apparition de spécialistes contraint les généralistes à une véritable


révolution organisationnelle et culturelle qui vient s’ajouter à la réduction de leurs parts
de marché et de leurs marges due aux progrès des spécialistes. Cette révolution exige
des délais d’autant plus longs que la taille de l’entreprise est grande et sa culture
traditionnelle homogène et bien ancrée, ce qui tend à expliquer pourquoi IBM et Digital
Equipment sont restées plus longtemps en difficulté que Unisys ou ICL. Enfin, cette
remise en cause des grands généralistes les conduit à abandonner certaines de leurs
activités, ajoutant ainsi au phénomène de spécialisation qui est à l’origine de leurs
difficultés.

Le cas de Hewlett-Packard conforte a contrario cette thèse : cette entreprise


fonctionne en effet sur un modèle où des divisions spécialisées par produit visent
l’accomplissement d’objectifs individuels plus que la cohérence de l’ensemble de la
gamme offerte par l’entreprise. L’entreprise fonctionne ainsi comme la juxtaposition
d’entreprises spécialisées et sa personnalité est donc plus proche de proche de celle qui
convient aux cycles courts et aux petites échelles. Jadis relatif désavantage, ce trait de
personnalité est devenu un avantage qui explique en partie que Hewlett-Packard n’ait
connu ni les chutes de performance ni les révisions déchirantes des autres grands
constructeurs.

clxxxv
Troisième partie
L’immatériel
Le moment est venu, dit le Morse, de parler de beaucoup de choses :
de souliers, de bateaux et de cire à cacheter, ... de choux et de rois.
Lewis Carroll

Nous avons sacrifié à la mode en intitulant « l’immatériel » cette partie consacrée


au logiciel et aux services. Beaucoup de commentateurs aiment en effet à regrouper
dans une même catégorie toutes les activités productives qui n’aboutissent pas à un bien
matériel tangible, et à prêter à cet ensemble des propriétés qui d’une part seraient
communes à tous ses constituants, et d’autre part les sépareraient radicalement des
produits matériels.

Notre démarche sera plus circonspecte. Croyant avec Descartes qu’il convient de
« diviser chacune des difficultés... en autant de parcelles... qu’il serait requis pour les
mieux résoudre », nous inclinons à penser que les discours globalisants sont une variété
d’obscurantisme. Les chapitres précédents nous ont montré que les activités de
production de matériels informatiques se décomposent en secteurs possédant des
caractéristiques opposées : un secteur des composants de nature concentrée et un secteur
de l’assemblage de nature dispersée. Ces secteurs se différencient par le nombre et la
taille des firmes qui y sont présentes, par l’éventail de stratégies qui y sont viables et les
modèles de comportement concurrentiel correspondants, ainsi que par les mécanismes
de formation des prix et de répartition des parts de marché. Nous avons également vu
qu’à des secteurs différents et à des stratégies différentes sont associés des types
d’entreprise différents par leurs formes d’organisation et leurs cultures.

On parle souvent d’un secteur des logiciels et services. Cet ensemble est-il donc
suffisamment homogène pour constituer un secteur au sens de Porter, c’est à dire un
ensemble des firmes offrant des produits substituables, ou bien un « métier » comme
nous l’avons défini au chapitre 6, c’est-à-dire un ensemble de secteurs obéissant à une
même logique de production ? Sinon, est-il possible d’y discerner facilement des
secteurs ou des métiers homogènes ? Autrement dit, puisque la structure des coûts de
production apparaît pour notre étude comme un facteur explicatif puissant, existe-t-il
des éléments de cette structure qui soient caractéristiques du logiciel par opposition au
matériel, ou des services par opposition aux produits ?

Pour répondre à ces questions, nous appliquerons au logiciel et aux services les
outils d’analyse des structures industrielles que nous avons introduits dans la deuxième
partie, c’est à dire les notions de secteur concurrentiel et les concepts de concentration
et de dispersion, ainsi que de différenciation des entreprises. Nous verrons ainsi qu’il
existe à l’intérieur de ce pseudo-secteur « immatériel » des différences internes bien
plus fortes que les ressemblances entre les diverses prestations qui le composent, et que
l’opposition avec le « matériel » est plus factice que réelle.

clxxxvi
Pour y voir clair, il sera d’abord nécessaire d’examiner de façon critique les
distinctions traditionnelles entre « produits » (ou « biens ») et « services ». Cette
analyse nous conduira à conclure que cette distinction est sans grand rapport avec les
caractéristiques économiques du processus de production qui gouvernent la
structuration de l’industrie et la dynamique concurrentielle. Quant au logiciel,
omniprésent dans toute l’informatique, il englobe une gamme d’activités extrêmement
diverses allant des produits logiciels aux services de développement à façon, parmi
lesquelles la production de progiciel est en tout point assimilable, sur le plan
économique, à celle des produits industriels.

Nous serons donc amenés à traiter à part l'industrie du progiciel (Chapitre 11), qui
est elle-même formée d’un complexe de sous-secteurs de type plus ou moins fortement
concentré, individuellement soumis à leur propre dynamique concurrentielle, et en forte
interaction les uns avec les autres. Parmi ces sous-secteurs, celui des systèmes
d’exploitation (Chapitre 12) est particulièrement critique, et se rapproche de celui des
composants électroniques tant par sa place centrale dans l’ensemble de l’informatique
que par sa dynamique fortement monopoliste.

Enfin les véritables services, loin de constituer un secteur homogène même après
que le progiciel en ait été séparé, forment en réalité un ensemble de secteurs où jouent
des logiques économiques variées.

clxxxvii
Chapitre 10
Le labyrinthe du logiciel et des services

A la recherche d’une définition des services. Immatérialité, indissociabilité,


intangibilité, variabilité, périssabilité,… Une typologie des produits et des services.
Une distinction sans grand objet. Qu’est-ce que le logiciel ? La programmation et
l’écriture. Combien coûte un programme ? Variétés de logiciel et diversité des acteurs.
Le progiciel est un produit.

Dans les chapitres précédents, nous avons vu sur l’exemple du matériel que
l’analyse de la dynamique concurrentielle rend correctement compte des phénomènes de
structuration de l’industrie, à condition d’être conduite secteur par secteur, un secteur
étant défini comme l’ensemble des firmes offrant des produits substituables. Il nous a
fallu reconnaître (cf. le chapitre 6) que cette notion de « substituabilité » est toute
relative, et que donc la définition des secteurs ne peut pas être rigoureuse. Il nous est
néanmoins clairement apparu que la prise en compte des structures sectorielles possède
un pouvoir explicatif fort, et que dans la réalité, la spécialisation des entreprises selon
ces logiques de production influence de façon déterminante le fonctionnement général
de l’industrie et l’évolution des produits.

Nous avons également vu, dans le chapitre qui précède, que le comportement des
entreprises, et en particulier celui qui se traduit par la mise sur le marché de leurs
produits, est déterminé par un ensemble de facteurs internes qui font partie de la
« personnalité » de chaque entreprise. Nous avons également vu que le marché, en
sélectionnant les produits les mieux adaptés à la demande, sélectionne aussi les
personnalités d’entreprise les plus aptes à satisfaire cette demande. En situation de forte
concurrence, la sanction du marché associe étroitement personnalité d’entreprise d’une
part, secteur et stratégie d’autre part, au point de forcer les firmes mixtes à la
spécialisation ou à l’éclatement, comme on le constate dans l’histoire de l’informatique
des dix dernières années. Il nous reste à examiner avec la même approche et les mêmes
outils les autres secteurs de l’industrie informatique.

L’analyse des statistiques industrielles, que nous avons abordée au chapitre 4, peut
nous fournir quelques pistes. Une majorité des acteurs, toutes spécialités confondues,
déclare exercer des activités de logiciel, la plupart en tant qu’activité secondaire
représentant moins de 30% de leur CA. Mais il existe également de nombreuses firmes
spécialisées dans le logiciel, pour qui cette activité représente plus de 70% de leur
chiffre d’affaires. On retrouve les mêmes constatations pour les services, aux chiffres
près. Les activités de logiciels et de services sont donc exercées aussi bien en tant
qu’activité secondaire par de nombreux offreurs non spécialisés que comme activité
principale par des offreurs spécialisés dans l’un ou dans l’autre.

clxxxviii
Certaines firmes spécialisées dans le logiciel offrent également des services à titre
d’activité secondaire et vice versa, mais les spécialistes du service et les spécialistes du
logiciel forment deux populations pratiquement disjointes. Dans l’échantillon de 110
entreprises que nous avons analysé aux chapitres 4 et 5, seules cinq offrent du logiciel et
des services de façon à peu près équilibrée (Finsiel, Nynex, Dun & Bradstreet, Ask et
Sterling Software), et aucune de ces cinq entreprises n’est véritablement un acteur
majeur dans l’un ou l’autre des deux secteurs. Aucun des grands du progiciel
(Microsoft, Computer Associates, Novell, Lotus, Oracle, …) n’a d’ailleurs jamais été
une société de services.

Nous avons également constaté que les firmes spécialisées dans le progiciel ont
une structure de dépenses caractéristique, avec des coûts de production très faibles, des
coûts de R&D élevés et des coûts commerciaux et généraux hypertrophiés. Quant aux
firmes spécialisées dans le service, il en existe des types différents au vu de la structure
de dépenses : la plupart se situent exactement à l’opposé des spécialistes du logiciel,
avec une part très élevée des coûts de production et des coûts de R&D et de
commercialisation très faibles, tandis que celles dont la structure de coûts se rapproche
de celle du progiciel exercent typiquement des activités de traitement. L’ensemble de
ces constatations tend à faire penser d’une part qu’il existe de nombreuses formes de
service, et que donc l’activité de service ne représente ni un secteur ni un métier
homogènes, et d’autre part que le développement industriel de logiciel, habituellement
désigné par le terme de progiciel, est une activité radicalement différente d’une activité
de service.

Services et produits

Critique des définitions courantes

Cherchons tout d’abord à préciser ce qui distingue un service d’un produit. Ni le


dictionnaire, ni la littérature économique ne proposent de définition pleinement
satisfaisante des services. En effet, pour chacune des définitions proposées, il est facile
de trouver des exemples d’activité que les classifications des statistiques officielles, tout
comme notre intuition, rangent parmi les services, et qui ne satisfont pourtant pas la
définition considérée.

Matérialité et dissociabilité

Le Larousse nous donne « produit de l’activité de l’homme destiné à la


satisfaction d’un besoin, mais qui ne se présente pas sous l’aspect d’un bien matériel »,
et le Robert « activités qui représentent une valeur économique sans correspondre à la
production d’un bien matériel ». Où ranger alors les services d’une couturière, d’un
entrepreneur de travaux publics ou d’une entreprise de presse, que la nomenclature
officielle range parmi les services bien que leur production soit tout à fait matérielle ?
Ces exemples violent aussi une autre caractéristique dite d’« indissolubilité » souvent
attribuée aux services, qui seraient un produit non dissociable de l’outil de production.
Or dans les exemples ci-dessus, le produit de l’activité de services non seulement
continue d’exister lorsque l’activité de production a cessé, mais peut même faire l’objet

clxxxix
de nouvelles transactions indépendamment du producteur initial : la robe, la villa ou le
livre peuvent être revendus par leur acquéreur à un tiers.

Une solution simple serait de considérer que de telles activités doivent en réalité
être rangées parmi les produits, et que la nomenclature officielle est erronée. Cette
approche aurait l’inconvénient de masquer des différences importantes avec les produits
industriels habituels, par exemple que le bien est désigné comme la propriété de son
acquéreur avant même qu’il existe, que sa définition est négociée entre le producteur et
l’acquéreur, et que l’acte de production ne commence le plus souvent pas avant
l’établissement du contrat entre le vendeur et l’acquéreur. Mais ces caractéristiques
elles-mêmes s’appliquent aussi à certaines formes de production où l’acquéreur peut
choisir parmi un grand nombre d’options, par exemple les automobiles ou les
ordinateurs.

Bref, où que l’on place la frontière entre produits et services, on trouvera toujours
des offres qui se situent à cheval sur cette frontière. On est donc tenté de penser que la
réalité ne peut pas être décrite comme la juxtaposition d’un monde de services et d’un
monde de produits bien distincts, mais comme un continuum où les différents types
d’offres peuvent se ranger quelque part entre des produits « purs » et des services
« purs », et cela suivant une ou plusieurs dimensions. Certaines règles des marchés
administratifs distinguent d’ailleurs entre « fournitures », « travaux » et « services », les
fournitures correspondant aux produits standard alors que les travaux peuvent impliquer
le transfert au client d’un bien défini par lui.

Devant cette impossibilité de définir de façon rigoureuse une frontière entre


produits et services, plusieurs économistes ont cherché à introduire d’autres critères que
la matérialité ou la « dissociabilité » de l’objet de la transaction. Aucune de ces
tentatives ne permet d’établir une dichotomie qui soit conforme au langage courant ou à
la nomenclature officielle, mais leur examen permet de préciser les critères possibles, et
donc les dimensions du continuum produit-services que nous évoquons plus haut.

Les définitions des économistes

Dans son ouvrage de référence sur le marketing , Kotler propose la définition


45

suivante des services : « activité ou satisfaction soumise à l'échange, intangible et qui ne


donne lieu à aucun transfert de propriété (« does not result in the ownership of
anything »). Il développe cette définition en suggérant que les services se distinguent
des produits par quatre caractéristiques principales qui sont :
–l’intangibilité : on ne peut voir un service avant de l’acheter ;
–l’indissolubilité : un service est inséparable de celui qui le propose, il n'existe pas
hors de la présence de sa source ;
–la variabilité : un service n’est pas le même selon la personnalité de son fournisseur
et le moment de sa production ;
–la périssabilité : un service ne se stocke pas.

45 Kotler P : Principles of Marketing [Prentice Hall, 1980]

cxc
Il est évidemment très facile d’illustrer chacun de ces critères par des exemples
appropriés, voire de présenter des exemples qui satisfont l’ensemble des quatre critères.
Mais il est tout aussi facile de trouver pour chaque critère des exemples d’activités de
service qui ne le satisfont pas, et on peut même penser que rares sont les services qui
respectent pleinement l’ensemble des critères.

Notons au passage que, comme les définitions du dictionnaire, la définition de


Kotler est en quelque sorte négative, et définit les services par le fait qu’ils ne possèdent
pas certaines caractéristiques des produits. Les tentatives de définition positive ne sont
guère plus satisfaisantes. Citons à titre d’exemple la définition proposée par Peter Hill
en 1977 : un service est « la transformation de la condition d’un individu, ou d’un bien
appartenant à un agent économique quelconque, résultant de l’activité d’un autre agent
économique, à la demande ou avec l’agrément du premier agent ». Une telle définition
ne peut pas s’appliquer à l’hôtellerie, au service téléphonique, à toutes les formes de
location, aux services d’intérim, … sauf à considérer qu’un service d’hôtellerie consiste
à « transformer une personne dans la rue en une personne hébergée ». Mais même si on
accepte de se laisser aller à ce genre d’acrobaties verbales, force est de constater
qu’elles pourraient aussi bien s’appliquer aux produits les plus incontestables
(« transformer une personne ne possédant pas de voiture en personne possédant une
voiture »). Bref, si cette définition a le mérite de préciser les agents et le type de
relations qui les unissent dans une transaction, elle ne permet toujours pas de distinguer
à coup sûr un service d’un produit.

Transfert de propriété

Traditionnellement, les constructeurs informatiques ont donné à leurs clients, pour


le même équipement, le choix entre location, crédit-bail et achat. Opèrent-ils pour
autant dans des secteurs différents ? Peut-on réellement dire qu’ils offrent un produit
dans le cas de la vente et un service dans le cas de la location, et que dire alors du
crédit-bail ? Dans la réalité, l’essentiel de leurs activités est identique quelle que soit la
formule de financement retenue. Quant au client, son choix porte d’abord sur le
matériel, et le mode de financement est une décision de second ordre. Dans ce cas, la
transaction porte sans ambiguïté sur un produit, et le service éventuel de location est une
modalité de la transaction plutôt qu'un service distinct.

Ni la matérialité de l’objet de la transaction, ni la possibilité de le dissocier de sa


source, ni les modalités du transfert entre le vendeur et l’acheteur ne constituent des
critères permettant de distinguer à coup sûr les produits des services. En revanche, ces
considérations peuvent se synthétiser en un critère que nous appellerons « modalités de
transfert » et qui constitue une des dimensions de classement pertinentes.

A l’une des extrémités du continuum se trouve le cas des produits « purs » qui
font l’objet d’un véritable transfert de propriété du vendeur à l’acheteur. Remarquons au
passage que ce transfert n’est possible que pour des biens matériels dissociables de leur
source. A l’autre extrémité se trouveront les services « purs » qui n’ont pas d’existence
matérielle et ne peuvent donc faire l’objet d’une appropriation ni a fortiori d’un transfert
de propriété.

cxci
Entre ces deux extrêmes se situent les cas très fréquents où la transaction consiste
à accorder au client un droit d’usage sur un bien appartenant au fournisseur. Ce bien
peut être parfaitement matériel et plus ou moins dissociable de sa source, et le droit
d’usage peut être plus ou moins limité, dans le temps ou dans l’étendue des droits
accordés au client. Par exemple, un service de location d’outillage correspond à un
transfert temporaire de droit d’usage sur un bien matériel dissociable ; l’hôtellerie
comprend un transfert temporaire de droit d’usage sur un bien matériel indissociable (la
chambre), un service de personnel intérimaire peut être assimilé à un transfert
temporaire de droit d’usage portant sur des personnes. Un cas propre à l’informatique
est celui du progiciel, dont le contrat de licence accorde à l’utilisateur un droit d’usage
définitif, sans lui en transférer la propriété dans la mesure où il ne peut le revendre à un
tiers. Dans la réalité, mis à part cette interdiction d’ailleurs peu contraignante, les clients
ignorent cette subtilité contractuelle et tout se passe comme s'il y avait transfert de
propriété.

Intangibilité et variabilité

Certains services ont un aspect tangible. Par exemple, il est possible de visiter une
chambre d'hôtel avant de la louer. Certaines chaînes hôtelières se font même une règle
d’offrir exactement les mêmes aménagements dans tous leurs établissements du monde
entier, donnant ainsi à leur offre de services un caractère invariable dans le temps et
dans l’espace qui est habituellement considéré comme caractérisant un produit.
Autrement dit, certains services ont en commun avec les produits d’être définis a priori
par l'offreur et répertoriés dans un catalogue, et de ne pouvoir être offerts que sous cette
forme standard. Par exemple, l’autobus est un service sur catalogue, alors que le taxi est
un service sur mesure.

Une voie couramment utilisée pour améliorer la productivité dans le domaine des
services est d’ailleurs de standardiser ou de systématiser tout ou partie de la prestation,
ce qui peut aussi répondre au souhait du consommateur de disposer d’une description
fiable du service qu’il envisage d’acquérir. Quelles qu’en soient les motivations, une
telle démarche tend à conférer aux services certaines des caractéristiques d’invariabilité
des produits. On utilise d’ailleurs couramment le terme de « produit » pour désigner un
service défini a priori par son fournisseur et susceptible d’être rendu de façon identique
à tous les acquéreurs.

On pourra objecter que, même s’il est défini de façon formalisée par son
prestataire, le service réellement rendu peut s’écarter de cette description et varier selon
le client et les circonstances. En particulier le contrat peut contenir la description du
résultat visé, mais garantir seulement que le prestataire s’efforcera de parvenir à ce
résultat, et non la conformité du produit final à sa description contractuelle. L’existence
d’une telle incertitude ne permet pas pour autant de différencier à coup sûr les services
des produits, car les produits les mieux définis peuvent aussi se révéler non conformes à
leur spécification.

Il existe là encore une possibilité de variation continue entre des biens tangibles
définis de façon précise et dont la conformité à leur spécification est considérée comme
certaine, et des services intangibles dont la définition est purement indicative. Cette

cxcii
définition peut elle-même exister a priori dans le catalogue du fournisseur sans variation
possible, être établie par choix entre des options prédéfinies ou par combinaison
d’éléments prédéfinis et d’éléments spécifiques, ou résulter entièrement d’une
négociation spécifique entre le client et le fournisseur. Comme pour le critère de
matérialité et de séparabilité, il n’y a pas dichotomie entre des produits décrits sur
catalogue ne varietur et des services toujours intangibles et incertains, mais une gamme
continue de formes de définition sans que l’on puisse faire passer à quelque endroit que
ce soit une frontière qui séparerait sans ambiguïté les services des produits.

Remarquons que ce critère du mode de définition est indépendant du critère


précédent qui concerne les modalités de transfert. Il est certes peu probable qu’un bien
défini de façon seulement indicative donne lieu à transfert définitif de propriété ou
même d’usage, mais un bien défini par négociation ou sur catalogue peut s’accommoder
des différentes modalités de transfert.

Relation client-fournisseur

Chacun des deux critères relatifs à la transaction que nous avons retenus ci-dessus
a une incidence sur la durée et la nature de la relation entre le client et le fournisseur, et
peut de ce fait exercer une influence sur l’organisation et la culture de l’entreprise
productrice. Pour un bien défini sur catalogue comme d’ailleurs pour un service défini
de façon purement indicative, aucune relation durable n’est nécessaire à la spécification
de l’objet de la transaction alors qu’une telle relation est obligatoire si la définition est
négociée.

Alors qu’un transfert définitif de propriété ou d’usage n’exige qu’une relation


ponctuelle au moment du transfert, un transfert temporaire implique une relation
permanente entre le fournisseur et l’acquéreur pendant la durée de ce transfert d’usage.
Les échanges ne donnant lieu à aucun transfert correspondent à la définition de Hill et
impliquent une forme de coopération entre le fournisseur et le client pendant le temps
où le service est rendu.

Dans la définition restrictive implicitement admise par la plupart des auteurs et


des commentateurs, un bien défini sur catalogue et faisant l’objet d’un transfert définitif
de propriété peut sans ambiguïté être appelé un produit. La seule caractéristique
distinctive des services serait alors la durée de la relation entre le producteur et le
consommateur, ainsi que le fait que cette relation implique le système de production de
l’offreur. Ce trait peut influencer de façon déterminante l’organisation et la culture de
l’entreprise, par exemple en interdisant de séparer la fonction commerciale de la
fonction production ou en imposant aux organes de production une capacité de
négociation et d’adaptation sans commune mesure avec celle qui caractérise les usines
dans les industries conventionnelles.

Périssabilité

On caractérise souvent les services par le fait qu’ils doivent être produits à chaque
fois qu’ils sont consommés et au moment même de leur consommation. Ce critère peut
être interprété de deux façons : d’une part il va de soi pour les services qui ne peuvent

cxciii
être dissociés de leur source, et vu sous cet angle il est équivalent au critère de non-
dissociabilité que nous avons examiné plus haut. Quand au contraire un service donne
naissance à un bien matériel transférable, ce bien a toutes les caractéristiques d’un
produit et peut de la même façon être périssable ou non. Un service non transférable,
par exemple un cours ou un spectacle, sera par contre périssable au sens ci-dessus.

Mais ce critère de périssabilité a aussi une traduction économique : les coûts de


production sont encourus par le vendeur même si le service n'est pas consommé, et la
valeur de la production non vendue est nulle. Sous cet angle, le critère de périssablité
concerne l’économie de la production, et est donc en relation possible avec les questions
d’échelle de production et de structure sectorielle.

Encore une fois, si ce critère s’applique à la majorité des activités de services, il


peut tout aussi bien être satisfait par de nombreux produits et ne peut donc servir de
discriminant entre produits et services. Tout d’abord, il existe aussi des produits
périssables, ou dont la valeur décroît rapidement avec le temps. D’une façon plus
générale, pour les produits comme pour les services, la part des coûts qui est formée par
les coûts fixes de production est encourue quel que soit le volume produit et vendu.
Pour les produits dont les coûts fixes sont très supérieurs aux coûts variables, c’est donc
comme pour les services la quasi-totalité des coûts qui est encourue même si la
production n’est pas vendue.

A l’inverse, comme pour les produits, le coût des services peut se répartir de
différentes façons en coûts fixes et coûts variables, en coûts récupérables et
irrécupérables. Les investissements matériels peuvent aller de presque rien comme pour
les services de conseil à des volumes considérables pour les télécommunications ou les
transports aériens. De nombreux services comprennent une part de vrais coûts variables
comme les fournitures, les consommables, etc. Enfin, si la part de personnel dans le
coût des services est souvent importante, certains services comme les
télécommunications sont fournis pour l’essentiel par des moyens matériels automatisés.

En tout état de cause, ces critères liés à la forme de l’échange sont sans rapport
avec les facteurs structurants des secteurs. Classer une production parmi les services ou
parmi les produits selon ces critères ne dit rien quant à la structure des coûts de
production ni l’échelle de production, pas plus que sur les obstacles à l’entrée et à la
sortie, toutes considérations qui gouvernent la dynamique sectorielle. L’analyse de
Porter en fonction des forces concurrentielles s’applique aussi bien pour les services que
pour les produits, et il existera des secteurs concentrés et des secteurs dispersés aussi
bien dans les services que dans les produits.

Une typologie des services et des produits

En résumé, si nous posons en principe que la distinction entre produit et service


concerne la transaction entre le producteur et le consommateur, distinguer un service
d’un produit suppose de répondre aux questions suivantes :
–sur quoi la transaction porte-t-elle (un bien matériel, un changement de condition de
l’acquéreur, d’un bien lui appartenant) ?

cxciv
–comment l’objet de la transaction est-il défini ? (unilatéralement par l’offreur, par
négociation plus ou moins ouverte) ?
–quelles garanties offre le producteur (aucune, de moyens, de résultat plus ou moins
conforme) ?
–en quoi consiste la transaction (transfert de propriété, définitif d’usage, temporaire
d’usage, pas de transfert) ?

Ces quatre critères sont largement indépendants les uns des autres, et chacun est
susceptible de recevoir plus de deux réponses. Les combinaisons possibles de réponses
sont donc nombreuses, même si certaines apparaissent comme improbables. Quelques-
unes correspondent sans ambiguïté à la notion intuitive de produit (bien matériel défini
unilatéralement par le producteur, dont la conformité est garantie et la propriété
transférée), et d’autres à des formes de prestations que le sens commun range parmi les
services. C’est par exemple le cas de l’accès à une compétence définie unilatéralement
sans garantie (conseil) ou encore d’un changement de condition sans transfert de
propriété ou d’usage, que la définition en soit unilatérale (transports en commun),
négociée (taxis, maintenance) ou pratiquement inexistante (soins médicaux). Mais
d’autres combinaisons pourtant courantes sont plus ambiguës, par exemple le cas de
transfert d’usage temporaire d’un bien matériel défini unilatéralement et de conformité
garantie (location, hôtellerie, promotion immobilière) ou celui de transfert de propriété
d’un bien matériel défini de façon négociée (entreprises de construction).

La figure suivante représente ce continuum de façon simplifiée en le ramenant à


deux dimensions. Pour cela, nous n’avons retenu que les modalités de définition
(indicative, négociée ou par catalogue), en y rattachant les questions relatives aux
garanties de conformité, et d’autre part les modalités de transfert (de propriété, d’usage
définitif, d’usage temporaire ou pas de transfert), qui dépendent elles-mêmes de l’objet
de la transaction. Sur la carte ainsi obtenue, les purs produits se positionnent en haut à
droite (définition par catalogue, transfert de propriété), les purs services en bas à gauche
(définition indicative, pas de transfert), mais il existe une grande variété de
combinaisons illustrée ici par les services informatiques les plus courants.

Le continuum produits-services
transfert

propriété
matériel
définitif

usage développement
progiciel
définitif intégration système

location
usage
assistance backup temps partagé
temporaire
télécoms

pas de maintenance
FM formation
transfert conseil

définition définition définition


indicative négociée par catalogue

cxcv
On notera en particulier que le progiciel est extrêmement proche d’un produit pur,
dont il ne se distingue que par les modalités contractuelles de transfert, et par contre
aussi éloigné que possible de services tels que l’assistance ou le conseil. Nous verrons
plus loin que de ce point de vue comme de celui de sa logique économique et de la
structure industrielle associée, le progiciel doit être classé résolument parmi les produits
et non parmi les services.

Conclusions

Au total, la prétendue dichotomie entre produits et services est une vue beaucoup
trop simpliste de la réalité.

En ce qui concerne les modalités de la transaction, il existe des formes d’échange


intermédiaires entre celle du pur produit et celle du pur service, qui s’analysent selon
plusieurs dimensions indépendantes et représentent une grande variété de prestations.
En ce qui concerne les logiques économiques, il n’existe pas de dynamique industrielle
propre aux services et qui serait différente de celle (ou de celles) des produits. On
observera en réalité dans les services une variété de dynamiques et de structures
comparable à celle qui prévaut pour les produits, et les mêmes types de structure
s’appliqueront aussi bien à des services qu’à des produits.

Les services ne forment pas un secteur au sens de Porter (« ensemble des firmes
produisant des biens étroitement substituables ») car même réduits aux services
informatiques, les services sont trop divers pour être tous substituables les uns aux
autres. Il y a de nombreux secteurs dans les services. De même, les services ne
constituent pas un métier au sens que nous avons introduit au chapitre 6, c’est à dire un
ensemble de secteurs qui auraient assez de traits communs pour être régis par la même
dynamique industrielle. Concernant les firmes productrices elles-mêmes, certaines
formes de service appellent des structures et des cultures d'entreprise proches de celles
qui sont propres aux produits industriels, tandis que d'autres appellent des structures et
des cultures radicalement différentes. Certaines formes de service sont moins
compatibles entre elles qu'elles ne le sont avec certaines formes de produits.

Il est certes toujours possible de convenir de frontières plus ou moins arbitraires


qui permettraient de ranger chaque activité, chaque entreprise ou chaque métier dans
l’une ou l’autre des deux catégories. Mais outre que la classification qui en résulte ne
satisfait pas toujours le sens commun, la véritable question est de savoir en quoi une
telle dichotomie aiderait à comprendre les mécanismes économiques. Il faudrait pour
cela que l’ensemble des « services » et celui des « produits » ainsi définis possèdent
chacun des caractéristiques communes à tous leurs éléments et distinctes de celle de
l’autre ensemble, autrement dit que chacun des « produits » soit plus voisin de tous les
autres produits que d’un quelconque des « services ». Nous avons vu que ce n’est pas le
cas. Concluons donc qu’introduire une distinction fondamentale entre produits et
services n’apporte rien à l’étude des structures industrielles.

La seule véritable différence que nous ayons pu reconnaître est que, dans ce qu’il
est convenu d’appeler les services, l’acte de production implique toujours plus ou moins
directement le client. De ce fait, l’appareil de production de la firme est directement

cxcvi
exposé au regard et au jugement du marché. Dans une activité de produits, les attributs
des produits mis sur le marché sont dissociés de ceux de l’organisation qui a servi à les
produire, par exemple au travers de la description commerciale ou contractuelle qui les
accompagne. Il est également assez facile d’éviter que des dysfonctionnements
éventuels de la production n’apparaissent sur le marché sous la forme de produits
défectueux. Pour les services au contraire, la qualité même de l’appareil de production
est visible, tous les ratés éventuels sont perçus par le client, et donc des structures ou
une culture non adaptées sont rédhibitoires en situation concurrentielle. Autrement dit,
l’adaptation de la personnalité d’entreprise à la nature de sa production et aux attentes
du marché revêt dans le domaine des services une importance encore plus déterminante
que pour les produits. Nous verrons au chapitre 13 combien ces problèmes contribuent à
structurer le secteur des services et à en expliquer les difficultés d’ajustement à
l’évolution des besoins.

Malgré l’absence d’une définition satisfaisante des activités de services et leur


caractère foncièrement hétérogène, plusieurs auteurs ont proposé des thèses ambitieuses
portant sur la place des services dans l’économie, que l’on retrouve parfois chez divers
commentateurs de l’évolution informatique. Une opinion courante est que les services
sont intrinséquement plus profitables que les produits, se développent plus rapidement
et finiront par les remplacer.

Cette thèse se rattache au courant « postindustriel » illustré principalement par


Daniel Bell et Jean Fourastié. Elle soutient que la part des services dans l’économie
46

augmente inéluctablement, si bien que le développement des services peut être


considéré comme un indicateur de progrès économique. Cette thèse se retrouve souvent
travestie sous la forme : « un secteur est mature quand les services l'emportent sur le
matériel », et invoquée par certains commentateurs informatiques pour prédire la
suprématie définitive des services et l’effacement voire la disparition des constructeurs
de matériel.

A l’opposé se trouve la thèse dite « néo-industrielle », dont l’inspiration remonte à


la conception classique de la valeur et dont les principaux tenants actuels se rattachent
au courant marxiste. Cette thèse postule avec Adam Smith que seule la production de
biens matériels est une activité réellement productive, et que donc les activités de
services sont par définition improductives. Les services parasitent donc en quelque sorte
l’économie, leur croissance n’est en aucune façon un signe de progrès et doit être
contrôlée sinon combattue.

Outre que la thèse « néo-industrielle » repose sur une conception arbitraire et


erronée de la formation de la valeur, comment peut-on énoncer ce genre de conclusions
en l’absence d‘une définition a priori des services ? Dans la pratique, on constate que les
auteurs en question éludent le problème en ne retenant comme exemples de services que
les activités dont les caractéristiques viennent à l’appui des thèses qu’ils souhaitent
démontrer, soulignant ainsi involontairement la grande diversité des services et des
dynamiques qui les régissent.

46 Bell D : The Coming of Post-Industrial Society [Basic Books, 1973] traduction française Vers la
Société Post-Industrielle [Laffont, 1976]

cxcvii
De plus, ces théories répondent le plus souvent à des préoccupations de
sociologues qui cherchent à caractériser les activités des individus, plutôt que
d’économistes qui s’intéressent aux entreprises et à leurs productions. Or une grande
partie voire la majorité des travailleurs du « tertiaire » exercent leur activité dans des
entreprises industrielles. La multiplication des « travailleurs du savoir » ne permet en
aucune façon de conclure à l’avantage des entreprises de services sur les entreprises
industrielles. Enfin, même s’il apparaît que les prestations de services prennent une
place croissante dans l’économie considérée dans sa totalité, il n’en résulte pas que les
services se substituent aux produits à l’intérieur de chacun des secteurs pris en
particulier. Il existe au contraire de nombreux exemples du mouvement inverse, par
exemple le remplacement des employés de maison par les appareils électroménagers.
Pour le cas précis de l’informatique, nous reviendrons aux chapitres 13 et 15 sur la
concurrence entre produits et services et sur la validité potentielle de la thèse
« postindustrielle » souvent présentée comme allant de soi.

Les diverses formes de logiciel

Le logiciel est l’essence même de l’informatique. Il est omniprésent à tous les


niveaux : les puces logiques elles-mêmes contiennent des microprogrammes, ainsi que
la plupart des unités fonctionnelles comme les imprimantes ou les cartes d’extension. A
un niveau plus global, les fonctions d’un système informatique sont définies par des
programmes, qu’il s’agisse des fonctions générales offertes par les systèmes
d’exploitation et les utilitaires, ou des fonctions particulières qui constituent les
applications et confèrent au système son utilité. Le développement de programmes
forme le cœur de l’activité des informaticiens, et de nombreux services consistent en
grande partie en développement de logiciel. Le logiciel est au sens propre l’âme du
matériel, c’est à dire ce qui l’anime. Un ordinateur peut être défini comme « une
machine à exécuter des programmes », et le matériel n’est qu’un corps vide inerte
capable de recevoir une grande variété d’âmes sous forme de programmes.

Dans ce qui suit, nous allons tenter d’analyser les caractéristiques technico-
économiques des activités liées au logiciel, afin d’identifier des types d’acteurs, leur
place dans l’industrie et la dynamique économique à laquelle ils obéissent. Cette
dynamique permet-elle aux activités de logiciel de se rattacher aux autres activités des
acteurs qui les utilisent ? Existe-t-il pour les logiciels une ou plusieurs activités dotées
de caractéristiques économiques propres qui les font obéir à une dynamique industrielle
spécifique ? La dynamique correspondant aux logiciels représente-t-elle un facteur de
structuration de l’industrie informatique ?

Les caractéristiques du logiciel

Indispensable pour définir les fonctions des matériels et des systèmes


informatiques, et de ce fait omniprésent, le logiciel peut revêtir des formes multiples.

Qu’y a-t-il de commun entre quelques lignes de Fortran écrites par un ingénieur
pour ses besoins propres, le microcode du processeur Pentium, le système d’exploitation
Windows distribué à des millions d’exemplaires, les logiciels de contrôle de la navette

cxcviii
spatiale, un programme de jeu électronique et le système de gestion d’une grande
entreprise ? Toutes ces formes de logiciel expriment des consignes par lesquelles
l’homme dicte un comportement à une machine. Autrement dit, le logiciel est une forme
d’expression humaine à destination d’une machine. Les nombreux travaux qui ont
abouti à fixer les règles de protection juridique du logiciel ont d’ailleurs abouti à
assimiler le logiciel à une œuvre de l’esprit au même titre qu’une œuvre littéraire ou
artistique, en lui étendant la législation du copyright et des droits d’auteur.

De la forme d’expression humaine la plus voisine qui est l’écriture, l’activité de


programmation a l’infinie diversité et le caractère immatériel. Comme l’écriture
habituelle, le développement de logiciel est une activité purement intellectuelle qui
n’exige pas d’autres outils que le crayon et le papier. Les programmeurs actuels
travaillent le plus souvent directement à l’écran d’un ordinateur et bénéficient de
nombreuses aides à la rédaction de programmes, mais il n’y a pas si longtemps toute la
phase créative de la programmation ne faisait appel qu’au papier et au crayon,
l’utilisation de l’ordinateur intervenant dans une seconde phase de traduction et de tests.
L’écriture de programmes est donc une activité accessible à un individu isolé, sans
investissements préalables importants. Même avec les techniques de programmation
récentes, un micro-ordinateur simple permet de disposer des outils de programmation
les plus puissants.

De sa destination, qui est d’être interprété par une machine, le logiciel tire deux
caractéristiques fondamentales qui le différencient des autres formes d’expression
humaine. Premièrement, il est extrêmement facile de le reproduire. Le logiciel est en
effet porté par les mêmes supports que les autres informations traitées par l’ordinateur,
et peut être lu et écrit par les mêmes dispositifs. De ce fait, tout outil permettant
d’exécuter un programme permet aussi de le reproduire, plus facilement et plus
exactement même que pour l’écriture normale. Une personne capable de lire un texte est
en général capable de le recopier, mais c’est une opération longue, sujette à erreur, et
dont le résultat diffère de l’original au moins dans la forme. Au contraire, un ordinateur
peut reproduire des millions de caractères en quelques minutes, sans risque d’erreur et
dans une forme identique à l’original, donc en particulier susceptible d’être reproduite à
son tour. Cette reproduction peut sans difficulté comporter un changement de support ou
une transmission à distance à travers des moyens de télécommunications.

Certaines formes de supports, comme le CD-ROM ou les autres formes de


mémoire morte, ne permettent que la lecture et ne permettent donc pas une reproduction
intégrale à l’identique, mais il reste très facile d’en extraire le contenu et de le copier sur
un support inscriptible traditionnel. Il existe certes des moyens de protection qui visent
à empêcher ou à rendre plus onéreuse la reproduction des programmes, mais ces
dispositifs sont artificiels, coûteux et généralement peu efficaces. L’extrême facilité de
reproduction est une caractéristique fondamentale du logiciel. Pour l’activité
commerciale, ceci a pour conséquence un niveau extrêmement bas des coûts variables
de production, qui donne à la production de logiciel les caractéristiques d’un secteur
concentré. Par ailleurs, la possibilité de reproduction par n’importe quel utilisateur
soulève le problème difficile de la protection de la propriété du logiciel.

Deuxièmement, étant destiné à être interprété par une machine de façon aveugle
(« machinale » au sens propre du mot), le logiciel a des exigences de rigueur et de

cxcix
fiabilité rarement rencontrées pour les autres écrits. Avant d’être utilisé, tout logiciel
dépassant la demi-douzaine d’instructions simples devra être soumis à des tests
permettant de vérifier que le comportement réel d’un ordinateur qui exécute le
programme est conforme en tout point aux intentions de son auteur et aux attentes de
ses utilisateurs. Il faut s’attendre à ce que ces essais révèlent des erreurs qui devront être
corrigées, ce qui exigera une nouvelle vérification du programme, et ainsi de suite. Le
développement de logiciel est ainsi une opération cyclique où les opérations d’écriture
et de correction alternent avec les essais sur ordinateur. Sa durée, sa difficulté et son
coût sont en proportion directe de la taille et de la complexité du programme concerné.

Or la variété des formes de logiciel est aussi grande que celle des formes et des
utilisations possibles de l’écriture. Le programme de quelques lignes de Fortran que
l’ingénieur écrit pour ses besoins propres est l’analogue de la note manuscrite qu’il
laisse à un collègue ou du post-it qu’il colle sur son réfrigérateur. Le petit programme a
un destinataire connu et une utilité précise et limitée ; il est destiné à une seule
utilisation et sera oublié après usage ; sa préparation ne coûte que quelques minutes à
son auteur, mais il n’a pas de sens ni d’utilité en dehors du contexte spécifique des
relations entre l’auteur et le destinataire ; il n’a pas de valeur marchande et aucune
intention lucrative ne préside à sa préparation. A l’opposé, un système d’exploitation ou
un grand progiciel du commerce est l’analogue d’une encyclopédie. Il représente de
nombreuses années de travail, qui ne peuvent se justifier que par l’espoir d’un revenu
résultant de la commercialisation de l’œuvre ; mais cet objectif lui-même impose des
exigences de qualité portant aussi bien sur la forme que sur le contenu, qui ajoutent au
temps et au coût de préparation, et demandent l’intervention de corps de métier
spécialisés qui font du produit une œuvre collective.

Entre ces deux extrêmes, le logiciel peut tout comme l’écriture revêtir de
nombreuses formes correspondant à de nombreux usages. Le système de gestion d’une
grande entreprise s’apparente à un recueil des procédures, des formulaires et des
informations de gestion propres à l’entreprise et préparés spécifiquement pour elle. Un
programme de jeu électronique est l’analogue d’un livre illustré pour enfants. Un
programme innovant traduisant d’une activité de recherche en informatique est
l’analogue d’une communication scientifique en ce qu’il a pour but prouver la validité
d’une idée et pas nécessairement d’en être la réalisation industrielle.

Toutes ces activités ont en commun de se traduire in fine par du logiciel, de même
que la rédaction du post-it, de l’encyclopédie, des procédures de gestion, du livre pour
enfants et de la thèse aboutissent à un texte écrit. Mais comme pour l’écrit, les contextes
de préparation et d’utilisation, les motivations, les modalités de production et
l’économie générale de l’opération introduisent entre ces activités des différences
infiniment plus significatives que ne l’est le point commun de la production de logiciel.
Autrement dit, la production de logiciel est une activité aussi variée que peut être
l’écriture, et il n’y a pas plus une industrie du logiciel qu’une industrie de l’écriture. Il
faut considérer le logiciel non pas comme un produit en soi, mais comme un matériau
utilisé isolément ou en combinaison avec d'autres. Dans les produits où il entre, le
logiciel peut être un composant secondaire, auquel cas le produit obéira à sa dynamique
industrielle propre. D’autres activités industrielles ont comme production principale des
logiciels, mais selon la nature et l’utilisation de ces logiciels, la nature de l’activité varie

cc
grandement et peut correspondre à des logiques économiques et concurrentielles
différentes, donc à des structures industrielles différentes.

Enfin, le progiciel est par excellence le matériau de la complexité et de


l’innovation. Contrairement au matériel, il reste modifiable à tout moment et convient
de ce fait à l’expérimentation et au développement progressif de fonctions nouvelles. De
fait, toute idée nouvelle ou toute exploration d’un nouveau domaine ou d’un nouveau
mode d’utilisation se traduit d’abord par le développement de programmes avant de
donner éventuellement naissance à des circuits ou des matériels spécialisés. Ce n’est
que lorsque ce domaine aura été suffisamment exploré, et la complexité des traitements
maîtrisée, qu’il deviendra envisageable de figer dans le silicium certaines des fonctions
nécessaires. On déplore quelquefois que le logiciel soit plus complexe et plus difficile à
maîtriser que le matériel, en oubliant que c’est la nature même du logiciel de réaliser ce
qui est trop complexe pour le matériel.

Les facteurs de la complexité et du coût

Au total, si nous exceptons les programmes très simples, la préparation d’un


programme comprend trois étapes : la conception d’ensemble, la rédaction et les tests.

La conception du logiciel porte évidemment sur les algorithmes, c’est à dire les
méthodes de manipulation de l’information qui seront mises en œuvre par le
programme, mais aussi sur les structures de données utilisées, les modalités des
échanges entre le programme et ses utilisateurs, les liaisons avec les autres programmes,
etc. Une grande partie de ces éléments peut être reprise de réalisations antérieures, mais
d’autres peuvent présenter un caractère original, voire constituer de véritables
inventions qui nécessitent un travail de recherche, de mise au point et de validation
spécifique.

Même à partir de bases connues, l’écriture d’un programme de quelque


importance reste une opération délicate. Tous ceux qui ont touché à la programmation,
de près ou de loin, ont appris à leurs dépens que l’ordinateur ne tolère pas la moindre
erreur. Plus exactement, il interprète littéralement chacune des instructions qu’il
rencontre, même si elles ne représentent pas exactement les intentions du programmeur.
Or de nombreuses erreurs d’écriture peuvent échapper à une relecture même attentive,
et le seul moyen de vérifier l’exactitude d’un programme reste de l’exécuter sur
l’ordinateur auquel il est destiné. Des résultats inattendus, ou un comportement anormal
de l’ordinateur durant l’exécution, constituent des symptômes d’erreurs dans le
programme. Remonter de ces symptômes aux causes d’erreurs s’avère souvent aussi
difficile que d’identifier le coupable dans un roman policier. Quand on pense avoir enfin
localisé et corrigé l’erreur, la seule vérification possible consiste à exécuter de nouveau
le programme corrigé, ce qui conduit le plus souvent à de nouvelles surprises. Même
pour un programme relativement simple, ce processus itératif peut se révéler long et
coûteux. On peut tenter de le raccourcir en apportant un soin tout particulier à la
première rédaction, mais ceci contribue également au coût et au délai de
développement.

cci
De plus, un logiciel de quelque importance n’est jamais formé d’une simple suite
d’instructions qui s’exécutent dans un ordre immuable. Il contient aussi de nombreuses
instructions de tests qui, selon la valeur courante de telle ou telle variable ou selon l’état
de tel ou tel indicateur, font sauter ou exécuter telle ou telle séquence ou renvoient à un
autre point du programme. Il existe ainsi un grand nombre de cheminements possibles
dans le programme, qui doivent tous avoir été exécutés avec succès pour que le
programme puisse être considéré comme correct.

Or, quand la taille d’un programme croît, ce n’est pas tellement la longueur
moyenne des séquences comprises entre deux aiguillages qui augmente, mais bien le
nombre d’aiguillages, si bien que le nombre de chemins possibles croît comme une
puissance (le carré ?) de la taille du programme. Le temps nécessaire aux tests augmente
donc très rapidement avec la taille des programmes, et dépasse rapidement le temps de
rédaction initiale, même si cette dernière a été effectuée avec tout le soin nécessaire
pour minimiser le nombre d’erreurs. Notons au passage qu’il n’existe pas de moyen de
certifier qu’un programme ne contient aucune erreur, ni a fortiori de prévoir le temps
nécessaire pour éliminer l’ensemble des erreurs contenues dans un programme.
L’expérience montre d’ailleurs que malgré des mois de tests intensifs préalables à leur
diffusion, des programmes complexes comme les systèmes d’exploitation contiennent
encore des erreurs plusieurs mois après leur mise en service.

L’effort nécessaire pour développer un logiciel varie dans de très larges


proportions suivant la nature, le contenu fonctionnel et la destination de celui-ci. Pour
fixer les idées, on peut estimer que pour les activités de rédaction et de test, la
productivité va de 60 instructions (testées) par jour-homme pour un programme simple
à moins de 2 instructions par jour-homme pour des systèmes complexes. Un programme
de plusieurs millions d’instructions, comme en contiennent les grands systèmes du
commerce, nécessite donc un effort de développement de plusieurs milliers d’années-
homme, qui exige une véritable organisation industrielle.

Types de logiciel et types d’acteurs

En plus du volume proprement dit du programme, de la difficulté intrinsèque des


traitements et de la richesse fonctionnelle recherchée, d’autres facteurs liés aux
modalités d’exploitation tendent à accroître les coûts de développement en exigeant une
discipline industrielle. Citons en particulier la variété des configurations de matériel sur
lesquelles le programme est destiné à être exécuté, la diversité des utilisateurs et des
modes d’utilisation, ainsi que la nature des relations entre les auteurs et les utilisateurs
du logiciel. On peut schématiser ces divers contextes de développement par trois modes
principaux, qui font apparaître une gradation des niveaux de complexité, et en parallèle
une gamme d’acteurs de « professionnalisme » croissant.

Une première catégorie d’acteurs est constituée par des individus ou de petits
groupes qui développent du logiciel pour leurs besoins propres. A cette extrémité du
spectre l’écriture de logiciel est une activité annexe subordonnée à une autre activité
professionnelle. Elle peut aussi, comme toute activité de l’esprit, être entreprise pour la
seule satisfaction de son auteur, c’est à dire en amateur au sens propre du mot : celui qui
aime. Rappelons que c’est ainsi qu’a commencé la micro-informatique, et que les

ccii
premiers micro-ordinateurs des années 1975-1980 étaient conçus par et destinés aux
amateurs de programmation, qui sont restés nombreux encore de nos jours.

Dans ce contexte, la seule source de difficulté est la complexité intrinsèque des


traitements. Le programme est destiné à être exécuté sur une seule configuration
machine bien connue, celle dont dispose l’auteur/utilisateur. Ce dernier n’a que des
exigences modestes en matière de convivialité et de fiabilité, n’a pas besoin de
formation ni de documentation et saura par définition faire preuve d’une grande
tolérance vis à vis de la qualité du logiciel. Très souvent même, il n’utilisera le
programme qu’un petit nombre de fois dans un petit nombre de cas particuliers et ne se
souciera jamais de savoir si le programme fonctionne correctement dans tous les cas
possibles.

Une variante de cette situation est celle d’un organisme de recherche pour lequel
le logiciel est un instrument de validation et de preuve, par exemple dans les domaines
du calcul numérique, des techniques de l’ingénieur et des sciences appliquées. Vérifier
ou prouver une théorie peut demander des programmes très complexes sur le plan
algorithmique, mais s’accommoder d’un logiciel rudimentaire en termes de facilité
d’utilisation.

Un contexte différent est celui où un logiciel doit être développé pour répondre
aux besoins d’une population d’utilisateurs distincte, dont l’auteur ne fait généralement
pas partie. Pour ces utilisateurs, qui ne possèdent souvent que des connaissances
limitées en informatique, le logiciel est destiné à être un outil plus ou moins critique,
avec les exigences de simplicité d’emploi, de fiabilité et de disponibilité qui en
découlent. Le nombre même des utilisateurs et leur diversité potentielle induit une
variété des conditions d’utilisation et nécessite une grande richesse fonctionnelle, qui
accroît considérablement la complexité du programme en multipliant les cheminements
possibles. Les configurations sur lesquelles le logiciel doit s’exécuter peuvent être
variées et évolutives, ce qui oblige à conduire des essais sur des configurations
multiples. Enfin, le programme doit être documenté et accompagné de moyens de
formation des utilisateurs.

Toutes ces exigences demandent l’intervention de spécialistes professionnels, qui


peuvent provenir soit d’équipes de développement internes à l’entreprise utilisatrice,
soit de sociétés de service. Le développement à façon de programmes pour le compte
d’une société cliente est une composante importante de l’activité de services en
informatique, sur laquelle nous reviendrons dans le chapitre 13.

Enfin, l’écriture d’un logiciel peut être entreprise pour des tiers non identifiés,
c’est à dire pour un marché espéré. Il s’agit alors d’une véritable démarche industrielle,
où toutes les exigences de richesse fonctionnelle, de convivialité, de fiabilité, de
documentation, … évoquées ci-dessus sont exacerbées par la nécessité de satisfaire
réellement une demande hypothétique dans un marché concurrentiel. De plus, en cas de
succès commercial, la variété des utilisateurs, des modes d’utilisation et des
configurations utilisées dépassera sans doute les prévisions de l’auteur, rendant des
essais extensifs encore plus nécessaires, et entraînant une demande de
perfectionnements et d’extensions qui constitue en elle-même un champ ouvert à la

cciii
concurrence. On entre ici dans le domaine du progiciel, dont la dynamique
concurrentielle fera l’objet du chapitre 11.

Le schéma ci-dessous résume cette analyse. L’axe horizontal correspond aux


complexités croissantes, et donc aux capacités d’intégration des organisations qui
développent le logiciel. L’axe vertical indique des audiences de taille croissante, donc
des capacités de diffusion croissantes de la part des mêmes organisations. En bas et à
gauche, des programmes simples destinés à peu d’utilisateurs peuvent être réalisés par
des individus isolés, tandis que les systèmes complexes destinés à un marché important
(en haut à droite) exigent des organisations de développement et de commercialisation
de type industriel. Entre les deux se rencontrent les programmes relativement simples
bien que visant une large diffusion, qui peuvent provenir de petites entreprises, tandis
que des laboratoires importants peuvent créer des systèmes complexes mais limités dans
leur diffusion.

Les acteurs du logiciel

capacité
d'intégration

systèmes capacité
audience extensions
industriels de diffusion
PME industriels

laboratoires
programmes systèmes
personnels expérimentaux

complexité

Ces différents contextes de développement se traduisent en particulier par des


cycles différents, au sens où nous l’avons introduit au chapitre 9. Il s’agit ici du délai
nécessaire pour vérifier que le logiciel qui a été produit est bien conforme aux besoins
de ses utilisateurs. En tout état de cause, ce délai est bien évidemment d’autant plus long
que le logiciel est complexe et ses utilisateurs divers. Mais quand la population des
utilisateurs est connue et accessible, il est possible de mettre en place un système de
développement permettant une validation progressive et de limiter ainsi le risque et
l’incertitude. Dans le cas du développement de progiciel pour le marché, l’adéquation
aux besoins se traduit par le chiffre d’affaires et ne peut être véritablement établie qu’à
la fin du cycle, quelles que soient les précautions prises en cours de développement, qui
ne peuvent impliquer que des échantillons plus ou moins représentatifs des utilisateurs
visés. A lui seul, ce facteur donne au développement de progiciel les caractéristiques
d’un secteur concentré : cycles longs, investissements élevés, donc échelle de
production élevée.

cciv
En résumé, l’activité de développement de logiciel peut prendre des formes très
nombreuses, allant depuis l’écriture de quelques lignes par un non-spécialiste pour son
usage personnel jusqu’à un projet industriel de grande envergure. Les auteurs de logiciel
peuvent être des amateurs isolés, des professionnels non-informaticiens, des
informaticiens intégrés dans des équipes spécialisées, des petites entreprises ou des
grandes entreprises de service ou des industriels du progiciel. Leurs motivations
peuvent être la passion ou la simple curiosité, l’exécution d’un contrat ou la mise sur le
marché d’un produit.

Au plan économique, chaque contexte de développement possède ses


caractéristiques propres qui éclipsent les points communs relatifs à la nature du logiciel.
Plus que comme une activité homogène, le logiciel doit être considéré comme un
matériau utilisé dans différentes activités, produits et services, où il peut se combiner à
d’autres ingrédients et dans lesquels ses propriétés intrinsèques peuvent aussi bien
disparaître que dominer. C’est ainsi que l’écriture de logiciel à façon aura toutes les
caractéristiques d’un service impliquant transfert de propriété d‘un ouvrage dont la
définition est négociée, tandis que le progiciel aura toutes les caractéristiques d’un
produit défini unilatéralement par l’offreur, même s’il ne donne lieu juridiquement qu’à
un transfert de droit d’usage.

Service et « self-service »

Réciproquement, un utilisateur potentiel qui ressent le besoin de disposer d’un


logiciel dispose a priori de plusieurs façons de satisfaire ce besoin. Il peut avoir la
chance de trouver un logiciel adéquat tout fait ; il peut le faire réaliser à l’intérieur de
son entreprise ou en sous-traiter la réalisation à une société de services ; il peut enfin
envisager de le réaliser lui-même. Ces modalités alternatives permettent de satisfaire un
même besoin de logiciel, bien que la dernière ne fasse pas appel à une transaction
marchande, tandis que la première entraîne l’achat d’un produit, et l’autre le recours à
une prestation de service. On pourrait d’ailleurs imaginer des formes de transaction plus
complexes pour satisfaire toujours ce même besoin, par exemple l’achat d’un ou
plusieurs logiciels complétés par une prestation de service pour les adapter au besoin
particulier.

A l’occasion de cet exemple, nous rencontrons une approche des services


proposée par Jonathan Gershuny et connue comme la théorie de l’« économie de self-
47

service ». Pour cet auteur, la demande de services et donc leur place dans l’économie ne
doit pas s’analyser isolément par familles de biens d’une part, famille de services
d’autre part, mais selon les besoins que l’un et l’autre sont susceptibles de satisfaire. La
définition d’un segment de marché doit être élargie à la demande de satisfaction d’un
besoin, les différentes formes de produits et de services que nous avons évoquées au
début de ce chapitre constituant des offres concurrentielles visant la satisfaction de ce
besoin, entre lesquelles le consommateur devra arbitrer.

Par exemple, l’offre de matériel informatique vise à satisfaire un besoin de


traitement de l’information, qui peut être satisfait non seulement par un achat de produit

47 Gershuny J : After Industrial Society ? The Emerging Self-Service Economy [Humanities Press,
1978]

ccv
proprement dit, mais aussi par une location permanente ou temporaire, qui constitue une
sorte de pseudo-service, ou par l’utilisation d’un service bureau. De même, un besoin de
transport peut être satisfait par l’achat d’une automobile, mais aussi par l’utilisation des
transports en commun (service sur catalogue) ou d’un taxi (service sur mesure). Dans
l’analyse concurrentielle qui est l’objet de la présente étude, produits et services non
seulement forment un continuum sans frontières claires, mais entrent en concurrence sur
chaque segment de marché élémentaire plutôt qu’ils ne constituent des segments de
marché séparés. C’est ce point de vue que nous retiendrons au chapitre 13 pour analyser
la place respective des produits et des différentes formes de service dans l’informatique.

Conclusions

A l’issue de cette analyse, la nomenclature « logiciels et services » apparaît


comme un fourre-tout statistique dépourvu de toute homogénéité et totalement vide de
sens en termes d’analyse des structures industrielles.

A l’intérieur de cet ensemble continu et multidimensionnel que forment les


produits et les services, il convient d’isoler le progiciel qui présente les caractéristiques
d’un produit typique : il est défini unilatéralement par l’offreur dans l’espoir d’un
marché ; il a une forme tangible, invariable et non périssable, et fait l’objet d’un
transfert définitif de droit d’usage. Au plan de l’économie de sa production, son coût est
essentiellement formé de coûts de développement encourus en totalité préalablement à
sa mise sur le marché, alors que les coûts variables unitaires sont extrêmement faibles.
Cette structure de coûts donne au secteur du progiciel une dynamique de secteur
concentré analogue à celle des composants, et à l’opposé de la plupart des services
comme le développement à façon de logiciel spécifique. Le progiciel relève de la
démarche industrielle typique des produits et doit être analysé comme tel.

Les progiciels sont étroitement assimilables à des produits au plan de l'économie


de leur production comme dans leurs modalités de commercialisation, tandis que les
activités de services exigent des structures et des cultures d'entreprise spécifiques. Parler
d'un secteur « logiciels et services » n'a pas plus de sens que parler d'un secteur
« carburants et taxis ». Aucun des leaders du progiciel, ni même aucune des firmes de
quelque importance qui ont réussi dans ce secteur n'a jamais été une société de services,
et aucune société de services n'est devenue un grand du progiciel. Dans la réalité, il
n'existe pas de société de « progiciels et services », et assimiler le progiciel à un service
relève de la confusion mentale.

A l’intérieur même de la famille des services coexistent des prestations de nature


différente, non substituables les unes aux autres, mais dont chacune entre d’une certaine
façon en concurrence avec certains produits matériels ou logiciels. Les services
constituent donc à leur tour un ensemble hétérogène dont le trait commun le plus
important en termes de structure industrielle est le contact direct entre le marché et
l’appareil de production de chacun des offreurs. Cette caractéristique rend la nature de
la production et la personnalité de chaque firme encore plus étroitement
interdépendantes que dans le cas des produits.

ccvi
Dans la suite de cet ouvrage, nous traiterons donc séparément le progiciel
(chapitre 11), puis les services (chapitre 13), même si cette dernière catégorie n’a pas
réellement de cohérence interne et doit s’analyser comme la juxtaposition de secteurs et
de métiers différents.

ccvii
Chapitre 11
L'industrie du progiciel

La lente émergence du progiciel. Une structure sectorielle paradoxale. Logiciel de


base et applications, systèmes et extensions. Cycles de développement, complexité et
coûts d’intégration. La formation des prix et des parts de marché. Une dynamique de
concentration dans des secteurs multiples. Progiciels et composants. Des prix sans
relation avec les coûts. Problématique et personnalité de l’entreprise de progiciel. Une
forme de mouvement perpétuel.

Le terme français de « progiciel » a été formé par la contraction de « produit


logiciel » pour désigner, parmi le grand nombre de produits et services de natures
différentes qui utilisent comme matériau le logiciel, ceux qui possèdent les
caractéristiques habituelles des produits au sens le plus classique du mot. Le présent
chapitre concerne donc les logiciels commercialisés prêt à l'emploi, utilisables
indépendamment de leur auteur, définis pour un marché anonyme et non pour un
utilisateur particulier.

Le progiciel a bien toutes les caractéristiques d’un produit. L’offre principale est
définie sur catalogue, et le client prend sa décision d’achat sur la base d’une description
préparée unilatéralement par le fournisseur. Moyennant une redevance unique analogue
à un prix d'achat, le client acquiert un droit d'usage illimité, la seule restriction par
rapport à un produit classique étant une limitation du droit de reproduction. On parle
d’ailleurs couramment d'« acheter » un progiciel. Au plan juridique, le progiciel est
protégé par le droit d'auteur donc assimilable à un livre ou un disque, tout en étant
également justiciable de brevets comme les produits. Un même progiciel est diffusé en
de nombreux exemplaires identiques, et les activités de création et de diffusion sont
deux fonctions séparées au sein de la firme productrice, voire réalisées par des
entreprises distinctes. Toutes ces caractéristiques sont à l’opposé du développement de
logiciels « sur mesure » tel que le pratiquent les sociétés de services.

Le progiciel se définit donc comme un produit constitué de logiciel. Sa production


présente les attributs d’une activité de production industrielle, et plus précisément d’un
secteur concentré où les coûts fixes (de développement) sont élevés et les coûts
variables (de reproduction) quasi-nuls. Contrairement à une idée reçue, la production de
progiciels est, économiquement parlant, radicalement différente d'une activité de
services, et plus proche par sa logique industrielle de la production de composants que
nous avons étudiée au Chapitre 7. Néanmoins, les caractéristiques propres du logiciel
donnent au secteur des traits particuliers que nous allons examiner dans ce chapitre.

ccviii
Historique et situation

Ce n’est que dans les années 70 que le logiciel est progressivement apparu comme
une activité industrielle indépendante susceptible de devenir productrice de revenu et
éventuellement de profit. Avant la décision d’IBM de facturer séparément certains types
de logiciels (1969), les constructeurs d’ordinateurs fournissaient ceux-ci
« gratuitement » avec les matériels dont ce logiciel faisait en quelque sorte partie. Il
s’agissait principalement de programmes utilitaires nécessaires à l’utilisation des
matériels, par exemple les systèmes d’exploitation ou les traducteurs de langages de
programmation.

De leur côté, les utilisateurs développaient eux-mêmes les logiciels qui leur
étaient nécessaires, principalement des logiciels d’application, ou les faisaient
développer par des sociétés de service. Dans le domaine scientifique se perpétuait la
tradition d’échange bénévole de programmes, inaugurée aux premiers temps de
l’informatique. Cette tradition fut respectée par les clubs de micro-informatique, au
point que Bill Gates se heurta violemment aux utilisateurs de micros de l’époque en
prenant position en 1976 contre le piratage des logiciels payants. Cette tradition
d’échange se prolonge de nos jours sous la forme du « freeware » et du « shareware » . 48

C’est dire combien l’idée que le logiciel est une création de l’esprit qui doit échapper
aux circuits marchands est ancienne et encore bien ancrée dans de nombreux esprits.

En dehors des constructeurs pour les programmes généraux, les premières


tentatives de commercialiser du logiciel sont le fait de sociétés de service qui, ayant
développé un programme pour un client, pensent possible de vendre ce même
programme à d’autres clients, souvent en partenariat avec le commanditaire initial qui
espère ainsi récupérer une part de son investissement. Dans la plupart des cas, il s’avère
impossible aux nouveaux clients d’utiliser exactement le même programme que le ou
les clients précédents. L’activité de ces firmes reste donc la fourniture de solutions sur
mesure où les développements antérieurs sont plus ou moins habilement réutilisés à
chaque nouveau contrat. Bien que souvent parés de noms séduisants et fortement
exploités dans la communication commerciale des sociétés de service, ces logiciels ne
sont en réalité que le support de prestations spécifiques, qui restent nécessaires non
seulement à leur mise en place, mais aussi à leur utilisation courante. Il ne s’agit donc
pas de progiciels au sens où nous l’avons défini, qui suppose une mise en œuvre
totalement indépendante de l’auteur.

Néanmoins, la différence de nature entre ce type de logiciels et de véritables


progiciels a été longtemps occultée, ce qui explique sans doute que logiciels et services
soient encore considérés comme une seule et même activité, ce que dément toute
analyse rationnelle. De plus, certaines sociétés de service facturent une redevance
distincte pour l’utilisation dans leurs prestations spécifiques de modules de logiciel
préexistants, ce qui explique probablement l’apparition d’une rubrique « software »
dans les statistiques qui les concernent, alors qu’elles n’offrent aucun progiciel au sens
propre du mot. C’est probablement le cas de sociétés comme Finsiel, qui apparaît

48 quelquefois « traduits » en français de façon ridicule par « gratuiciels » et « distribuciels » ( ! ! !)

ccix
comme une société mixte alors que c’est en réalité une pure entreprise de services, ou à
un degré moindre d’EDS ou Cap Gemini . 49

Du côté des constructeurs d’ordinateurs, la facturation séparée des logiciels va de


pair avec leur importance croissante, tant dans les coûts et l’organisation des
fournisseurs que dans leur argumentation concurrentielle. Très rapidement, les
constructeurs mettent en place pour le progiciel une discipline et une organisation
professionnelles dérivées de celle des matériels et radicalement distincte de celle des
services, affirmant ainsi que les progiciels sont des produits. De plus, sous la pression
d’une concurrence par les coûts de plus en plus vive dans le matériel, les constructeurs
s’éloignent progressivement de leur politique initiale où la vente du matériel
subventionnait le logiciel. Ceci se traduit par une augmentation progressive des tarifs du
progiciel et une disparition progressive du logiciel resté gratuit. Pour les mêmes raisons,
les constructeurs qui avaient tardé à suivre IBM sur la voie de la tarification séparée du
logiciel, en espérant en tirer un avantage concurrentiel, s’y rangent à leur tour. Le
secteur des logiciels utilitaires généraux est ainsi le premier à se transformer en un
secteur indépendant de progiciels de nature industrielle, où les constructeurs qui y
étaient seuls au début sont rejoints par quelques firmes spécialisées comme Computer
Associates.

Jusque dans les années 70, développer du logiciel suppose de pouvoir accéder à
un ordinateur facilement et de façon permanente. Cela n’est guère possible qu’aux
employés des grandes entreprises, dont l’activité est plutôt orientée vers la production
de logiciels spécifiques à leur employeur, ou aux universitaires dont la tendance
naturelle à cette époque est de diffuser leurs programmes gratuitement. Cet obstacle à la
création d’entreprises indépendantes est levé à la fin des années 70 par l’arrivée de la
micro-informatique, qui rend le développement de logiciel accessible à de petites
entreprises indépendantes voire à des individus isolés, en même temps qu’elle crée un
marché pour les progiciels ainsi développés.

Ce marché devient un marché de masse à partir de l’introduction du PC en 1981.


Apparaît alors une multitude de petites entreprises souvent formées d’une poignée de
programmeurs, offrant chacune son logiciel particulier pour un type d’utilisation précis.
Mais le foisonnement quelque peu artisanal du début fait place à une vive concurrence
qui conduit très vite à la constitution de positions dominantes occupées par des
entreprises à caractère industriel : Microsoft pour les systèmes d’exploitation, après
avoir éliminé Digital Research et quelques autres, le même Microsoft pour les
traitements de texte et les tableurs, avec un ou deux challengers dans chaque domaine
(Wordperfect et Lotus pour les traitements de texte, Lotus et Borland pour les tableurs),
ou encore Novell pour les logiciels de réseau, où Microsoft joue cette fois le rôle de
challenger.

Ce secteur spécialisé des progiciels pour micro-ordinateurs se développe en


parallèle avec l’activité plus traditionnelle des constructeurs de matériel pour leurs
systèmes propres , dont l’OS/2 d’IBM ou le Système 7 d’Apple sont des exemples dans
50

49 voir Chapitre 4.
50 On ne commettra pas dans cet ouvrage l’horrible contresens que constitue l’emploi du mot
« propriétaire » en tant qu’adjectif pour désigner un développement ou un standard propre à une

ccx
le domaine de la micro-informatique. C’est ainsi que parmi les entreprises qui réalisent
les 20 plus grosses parts du marché des progiciels, on trouve en 1992 7 généralistes
pour plus de 45% du CA total et 10 spécialistes, dont 6 en micro et 4 en grands
systèmes, pour environ 32% du CA total. Les 3 sociétés de service qui complètent la
liste des 20 premiers (pour moins de 5% du total) n’y figurent probablement que par
abus du terme « progiciel ».

Comme nous l’avons vu aux chapitres 4 et 5, les firmes spécialisées dans le


progiciel présentent une physionomie caractéristique assez différente de celle des autres
firmes de l’industrie informatique. Elles sont généralement étroitement spécialisées,
totalement absentes du marché des matériels, et n’offrent que le minimum de prestations
annexes comme la maintenance ou les services. Elles consacrent une forte part de leurs
dépenses à la R&D (typiquement entre 8 et 20%) et leur activité commerciale est
hypertrophiée (dépenses de vente et d’administration supérieures à 30% du CA), mais
leur coût de production est faible en valeur relative (la plupart du temps inférieur à 35%
du CA). Leurs performances, mesurées en termes de profit, se situent dans une plage
très large, avec chaque année des maxima supérieurs à 20% et dépassant même les 25%,
mais aussi des résultats lourdement négatifs pour certaines firmes. Néanmoins, le
nombre de firmes déficitaires est chaque année très faible, et les moyennes se situent
presque toujours au-dessus de 10%. Enfin, ce secteur n’a pas connu entre 1987 et 1989
la dégradation de profitabilité qui a affecté le reste de l’industrie.

Caractéristiques du secteur

Le secteur des progiciels présente des caractéristiques a priori paradoxales pour


un observateur superficiel. Le grand nombre des firmes présentes et la petite taille de la
plupart lui donnent l'apparence d'un secteur dispersé. Dans l’échantillon de 110 firmes
que nous avons examiné, 57 sont présentes dans le progiciel, parmi lesquelles la
première (IBM) a une part de marché de 32%, tandis que la part de marché du premier
spécialiste (Microsoft) est inférieure à 9%. Sur ces 57 firmes, 20 seulement ont une part
supérieure ou égale à 1%, et il existe par ailleurs un grand nombre de firmes trop petites
pour figurer parmi les 110, et dont les parts de marché sont inférieures à un pour mille.

Ce grand nombre de petites firmes semble cohérent avec le fait que les obstacles à
l'entrée paraissent presque inexistants. Au début de 1975, il n’a pas fallu beaucoup plus
de quatre semaines à deux jeunes étudiants qui s’appelaient Bill Gates et Paul Allen
pour écrire le Basic d’où est parti le succès de Microsoft. Encore aujourd’hui,
moyennant un investissement de 10000 à 20000 Francs dans un PC, chacun peut écrire
un programme à ses moments perdus et tenter de le commercialiser afin de devenir à
son tour l’homme le plus riche des Etats-Unis.

Mais si la production de progiciel était réellement un secteur dispersé par nature,


on ne pourrait expliquer ni la persistance de profitabilités très élevées, ni la domination
quasi-absolue de Microsoft dans des segments comme les systèmes d’exploitation pour
micro-ordinateurs (81% avec MS-DOS), les tableurs (73% avec Excel) ou à un degré
moindre les traitements de texte (55% avec Word), ou de Novell qui détient 70% du

entreprise

ccxi
marché des réseaux locaux. Dans ces segments de marché et quelques autres, la
répartition des parts de marché ressemble d’ailleurs curieusement à celle qui caractérise
les secteurs fortement monopolistes comme les composants : trois ou quatre firmes dont
la première occupe 60 à 70% du marché, et où les suivantes se partagent le reste de
façon très inégale. Cette situation est cohérente avec le fait que l'économie de la
production de logiciel obéit à une logique fortement monopoliste puisque la quasi-
totalité du coût est formée de coûts fixes, le coût marginal que constitue la reproduction
d'un nouvel exemplaire étant quasi-nul.

Donc, alors que les faibles obstacles à l'entrée et à la sortie semblent caractériser
un secteur dispersé, les économies d'échelle sont fortes et confèrent au secteur certains
des attributs d’un secteur concentré, en particulier une profitabilité élevée. La clé de cet
apparent paradoxe est double :

Premièrement, les firmes de progiciels ne doivent pas être considérées comme


formant un secteur unique, mais autant de secteurs que de domaines d’application.
Comme nous l’avons vu au Chapitre 6, s'appuyer sur l'étude de la concurrence pour
comprendre la structure de l'industrie exige de considérer séparément chaque « groupe
de firmes qui fabriquent des produits étroitement substituables », que Porter appelle
« industry » et ses traducteurs français « secteur ». La concurrence ne joue réellement
qu'entre progiciels offrant des fonctions comparables. Or un traitement de textes comme
Word, une base de données comme Paradox et un gestionnaire de réseaux locaux
comme Netware ne sont pas des produits substituables entre eux. Il existe en
informatique un grand nombre de domaines d'application différents qui sont autant
d’occasions de développement de progiciels, et qui définissent autant de marchés
distincts. Un système d’exploitation, un programme de comptabilité, un traitement de
texte, un gestionnaire de bases de données, une bibliothèque d’analyse statistique, un
progiciel de composition musicale, un jeu vidéo remplissent des fonctions radicalement
différentes, donc satisfont des besoins distincts et ne peuvent pas être substitués l’un à
l’autre. Le secteur des progiciels est en réalité, au sens strict de Porter, la juxtaposition
d'un grand nombre de secteurs correspondant chacun à un domaine d'application.

Comme nous l’avons évoqué au chapitre précédent, il ne faut pas considérer le


logiciel comme un produit ou un secteur d’activité, mais comme un matériau avec
lequel on peut construire une grande variété d’objets différents. Ce n’est pas parce que
Windows et les jeux vidéo sont tous deux faits « en logiciel » qu’ils sont concurrents au
sein d’un même secteur d’activité, pas plus qu’une table de cuisine et une barque de
pêche, qui sont pourtant tous deux en bois. Autrement dit, c’est le mobilier de cuisine, la
construction navale, les tableurs et les jeux vidéo qui constituent des segments de
marché, auxquels peuvent correspondre des secteurs d’industrie. Le travail du bois ou
l’écriture de logiciels sont des métiers qui peuvent être exercés dans des secteurs
différents.

Pour appliquer au progiciel notre méthode d’analyse structurelle, qui repose sur le
jeu de la concurrence, il nous faut considérer que chaque domaine d’utilisation possible
de l’ordinateur définit un segment de marché sur lequel des firmes concurrentes offrent
des produits substituables l'un à l'autre, dans le sens où ils visent tous à satisfaire un
même besoin des clients dans ce domaine. En première analyse, la concurrence dans
chacun de ces segments est indépendante de la concurrence dans les autres segments.

ccxii
Des progiciels non substituables entre eux définissent autant de secteurs disjoints qui se
structurent indépendamment les uns des autres.

En second lieu, si les coûts de reproduction sont uniformément faibles, les coûts
de développement peuvent varier dans de très grandes proportions suivant la nature et
les ambitions du progiciel considéré. Faibles pour des efforts individuels, ou
quelquefois invisibles si le développement est subventionné en totalité ou en partie par
une autre activité, par exemple la recherche, ils peuvent se chiffrer en dizaines de
millions de dollars à l’autre extrême pour des systèmes généraux complexes. L’immense
variété des formes de logiciel que nous avons évoquée au chapitre précédent se retrouve
dans les produits logiciels. Selon l’ordre de grandeur des dépenses de développement,
c’est la facilité d’entrée qui dominera en conférant à l’activité les caractéristiques d’un
secteur dispersé, ou au contraire l’échelle économique de production qui soumettra
l’activité à une dynamique de concentration.

Au total, c'est à l'intérieur de chacun de ces nombreux sous-marchés et non pour la


totalité de l’industrie du progiciel que joue la concurrence monopoliste qui résulte de la
faiblesse des coûts variables unitaires, et ce d’autant plus vigoureusement que la nature
du segment considéré exige des logiciels complexes entraînant des coûts fixes de
développement élevés. Les forces concurrentielles qui poussent à la concentration
agissent séparément à l’intérieur de chaque secteur élémentaire et font évoluer chacun
des secteurs des systèmes d’exploitation, des tableurs, des traitements de texte, des
compilateurs, des logiciels de comptabilité, des logiciels de dessin, … vers les structures
concentrées asymétriques que nous avons décrites plus haut (voir Chapitre 7). Chaque
secteur élémentaire obéit à une logique de concentration, ce qui explique les fortes
rentabilités et les dispersions constatées.

Au total, compte tenu de l'économie monopoliste de sa production, le secteur du


progiciel est en réalité formé d'un grand nombre de sous-secteurs, dont chacun est
concentré. De fait, si on examine les parts de marché non plus au niveau global où leur
sens économique est discutable, mais pour chaque domaine, on retrouve bien la
répartition caractéristique des secteurs concentrés, avec un leader dépassant les 50% de
part de marché : 81% pour MS-DOS dans les systèmes d'exploitation, 73% pour Excel
dans les tableurs sous DOS, 54% pour Word dans les traitements de texte sous
Windows, 70% pour Netware dans les réseaux locaux, etc.

Mais le nombre de tels sous-secteurs est suffisamment élevé, et il existe


suffisamment de firmes spécialisées dans un seul d’entre eux, pour que le « macro-
secteur » constitué par l’ensemble du progiciel ait l’aspect d’un secteur dispersé. Dans
chaque secteur, l’entreprise leader peut être de taille modeste. Même Microsoft, qui est
leader dans plusieurs secteurs, et parmi les plus importants, ne réalise que quelques
milliards de dollars de chiffre d’affaires, soit environ 8% du CA total du secteur des
progiciels.

De plus, la vitalité du domaine de l’informatique en général fait apparaître en


permanence de nouveaux domaines d’applications qui sont autant de secteurs naissants
où la relative facilité d’entrée ouvre la porte à une multitude de petites entreprises
nouvelles. Les différents secteurs se trouvent ainsi à des degrés de maturité très
différents. Alors que le phénomène de concentration a déjà conduit certains à une

ccxiii
structure caractéristique d’oligopole asymétrique, d’autres sont encore des secteurs
naissants. Ainsi s’explique sans doute en partie la grande dispersion des résultats que
nous avons constatée au Chapitre 5, et la difficulté que nous avons eue à interpréter les
caractéristiques apparentes de comportement du secteur.

Toutefois, les multiples sous-secteurs qui constituent le secteur du progiciel ne


sont ni disjoints ni étanches. Le développement de progiciels est un métier unique, et les
avantages concurrentiels qui permettent à une firme de réussir dans un domaine
d’application particulier valent aussi pour les autres domaines, même s’ils doivent y être
complétés par des avantages spécifiques à chacun des secteurs. Enfin, nous allons voir
que les frontières entre domaines d’application sont souvent floues et laissent de
multiples possibilités de passage. Au total, la dynamique d’ensemble du secteur des
progiciels résulte de ce jeu complexe entre segments régis chacun par une dynamique de
concentration, mais couvrant tout un spectre qui va depuis les secteurs naissants, grand
ouverts aux nouveaux entrants, jusqu’au secteurs stabilisés dominés par des monopoles,
ces différents secteurs communiquant et interagissant entre eux.

Les formes de progiciel

Il est habituel de distinguer à l’intérieur du progiciel deux grands domaines, le


logiciel de base, ou logiciel « système », et le logiciel d’application. Dans la première
famille, on range un ensemble de logiciels qui permettent d’utiliser le matériel sans être
spécialisés pour une tâche définie, et qui remplissent des fonctions générales telles que
la gestion du matériel, la gestion des tâches, la gestion des données, la gestion des
communications, etc. Ces programmes sont liés au matériel et l’englobent en quelque
sorte dans un ensemble de fonctions plus riche et plus facilement utilisable. De leur
côté, les logiciels d’application personnalisent l’ordinateur en vue d’une utilisation
particulière comme la comptabilité, le traitement de textes, la simulation de la formation
des galaxies, la composition musicale ou le jeu de Super Mario.

Les logiciels de base prennent en charge des fonctions fondamentales comme le


stockage des fichiers sur disque, le lancement des programmes et le dialogue avec
l’utilisateur. Ils établissent pour cela un certain nombre de standards généraux qui
devront être respectés par tous les composants du logiciel de base lui-même et par les
programmes d’application. L’ensemble des fonctions du logiciel de base s’organise ainsi
en un système rendu cohérent par le respect de standards communs et la possibilité pour
chaque composant d’utiliser chacun des autres. L’utilisation d’un système particulier a
des effets rémanents comme l’habitude d’une forme de dialogue, mais aussi sous la
forme concrète de fichiers conservés dans un certain format et conformes à certaines
conventions. C’est pourquoi l’immense majorité des utilisateurs n’utilise qu’un seul
système et n’en change qu’exceptionnellement, alors qu’il peut utiliser une multitude
d’applications, certaines de façon très éphémère.

Les logiciels système sont nécessaires quelle que soit l’utilisation de l’ordinateur
et peuvent être considérés comme la base commune à l’ensemble des applications
possibles. Chaque logiciel d’application utilise un certain nombre de fonctions du
logiciel de base, et suppose donc la présence sur l’ordinateur d’un certain système.
Chaque logiciel système particulier détermine ainsi quelles applications pourront être

ccxiv
exécutées sur l’ordinateur. Autour de chaque système se crée donc non seulement un
ensemble d’habitudes, mais aussi une galaxie de programmes d’applications utilisables
avec ce système. Le choix d’un système d’exploitation est lourd de conséquences pour
l’utilisateur, car il détermine pour lui, de façon très difficilement réversible, la gamme
de progiciels auxquels il aura effectivement accès, voire les domaines d’application
qu’il pourra aborder.

C’est pourquoi, en ce qui concerne les systèmes d’exploitation, le marché exige


des produits riches en fonctions et capables de s’enrichir parallèlement à l’évolution du
matériel. Ces systèmes doivent également être fiables, solides et faciles d’emploi dans
une gamme étendue de domaines d’utilisation. En effet, alors qu’une imperfection dans
une application n’a que des effets limités, une imperfection dans un système affecte
toutes les utilisations. De plus, les utilisateurs demandent que ces systèmes soient
soutenus par des organisations sur lesquelles ils puissent compter pour résoudre les
difficultés éventuelles, développer en permanence les extensions nécessaires au support
des nouveaux matériels et des nouvelles formes d’utilisation, et pour répondre aux
demandes d’amélioration en provenance du marché. La production de systèmes
d’exploitation demande donc à la fois des développements lourds, une activité de
support permanente et de garanties de pérennité de l’offreur, qui la réservent à des
entreprises de nature industrielle.

Réciproquement, tout auteur de progiciels d’applications doit choisir le (ou les)


système d’exploitation auquel se rattachera son produit. Ce choix est également lourd de
conséquences, car non seulement il détermine une partie des caractéristiques du
progiciel et de ses conditions de développement, donc de son coût, mais surtout parce
qu’il détermine le marché accessible. Le développeur de progiciel applicatif a donc
intérêt à s’appuyer sur les systèmes d’exploitation les plus répandus parmi la clientèle
qu’il vise (et qui peuvent d’ailleurs différer selon le domaine d’application). Les
systèmes les plus répandus seront aussi ceux qui s’accompagnent du choix de progiciels
d’application le plus vaste, ce qui leur donne un avantage concurrentiel supplémentaire.

Les spécialistes tendent donc à s’aligner sur les systèmes les plus courants,
formant ainsi autour de ces derniers des constellations de firmes indépendantes qui
offrent des extensions et des compléments au système de base, ainsi que des
applications qui l’utilisent. La variété et la qualité de ces offres constituent un avantage
concurrentiel pour chacune des firmes de la constellation par rapport à leurs
homologues appartenant à des constellations concurrentes.

En termes de concurrence entre systèmes, le succès va ainsi au succès. Ceux qui


jouissent des plus forts avantages concurrentiels occupent une part croissante du
marché, et une part de marché élevée est en elle-même un avantage concurrentiel.
Indépendamment même de l’économie de sa production et des effets d’échelle que nous
avons décrits au Chapitre 7 à propos des composants, le marché lui-même induit une
rétroaction positive par renforcement automatique des avantages acquis, qui conduit à la
concentration du secteur sur un petit nombre de systèmes riches en fonctions. Comme
nous le verrons par la suite, la demande du marché rejoint et renforce la dynamique
industrielle qui tend elle aussi à une extrême concentration du secteur des systèmes
d’exploitation.

ccxv
Un même phénomène touche les applications de nature générale. Avant
l’apparition des micro-ordinateurs, les applications étaient presque toujours propres à
chaque entreprise et seuls les systèmes d’exploitation et certaines fonctions utilitaires
comme la gestion de bases de données ou la préparation de programmes possédaient un
caractère suffisamment universel pour justifier le développement de progiciels
généraux. Aujourd’hui se sont développés des secteurs d’application liés à des activités
de nature générale comme la production de documents ou la manipulation de tableaux
de chiffres, auxquels correspondent les programmes de traitement de textes et les
tableurs, mais aussi d’autres types de programmes pour d’autres domaines. Chacun des
progiciels existants définit ses propres conventions d’utilisation, ses formats de fichiers,
… et suscite des développements complémentaires en provenance d’innovateurs
indépendants, qui doivent respecter ces standards. Autour de ces « quasi-systèmes » que
sont les applications de base comme le traitement de textes ou les tableurs s’organise la
même dynamique que nous avons décrite entre les systèmes d’exploitation et les
applications, et qui pousse de la même façon à une concentration de chacun de ces
secteurs.

A côté de la distinction traditionnelle entre progiciel de base et progiciel


d’application, nous venons d’esquisser une autre distinction entre « systèmes » et
« extensions » (en anglais « add-on »). Les systèmes, qui se rencontrent aussi bien dans
le domaine des applications que dans le logiciel de base, ont vocation à couvrir
l’ensemble d’un domaine en offrant à l’utilisateur une large palette de fonctions
cohérentes entre elles. Pour cela, ils définissent des standards en matière de formats de
données, de communication avec l’utilisateur, de communications entre composants du
système, etc. Les progiciels d’extension visent à réaliser une fonction particulière et
doivent le plus souvent se conformer aux standards existants concernant le domaine où
se situe leur fonction. Les systèmes impliquent des développements volumineux et
coûteux, donc une échelle économique de production élevée qui concourt avec la
demande du marché à une dynamique de forte concentration du secteur. Les extensions
sont des développements plus modestes par leur volume et leur coût mais généralement
plus innovants, et qui peuvent donc mieux s’accommoder d’une concurrence de type
dispersé.

Les frontières entre ces types de progiciels et entre les domaines d’applications
sont floues et perméables. En un sens, les applications sont des extensions du logiciel de
base. Plus significativement, les frontières entre les applications tendent à s’estomper.
Par exemple, les progiciels de traitement de texte comme Word ou Wordperfect
s’enrichissent de fonctions de traitement de tableaux qui rejoignent les tableurs tels que
Excel ou Quattro. A l’inverse, les fonctions de traitement des informations textuelles
dans les cellules d’un tableur offrent progressivement des possibilités analogues à celles
des traitements de texte. Il en va de même des fonctions de dessin, de préparation de
graphiques, etc. Les documents susceptibles d’être manipulés par ces programmes
deviennent des documents composites où peuvent figurer toutes les formes
d’information y compris les sons, les photographies et les images animées, ce qui
implique des logiciels capables de traiter toutes ces formes de façon homogène et
coordonnée.

Les progiciels jusque là distincts comme les traitements de texte, les tableurs, les
programmes de dessin et de présentation, les bases de données, les messageries, … se

ccxvi
réunissent donc en « suites » (Office de Microsoft, PerfectOffice de Novell, Smartsuite
de Lotus), au sein desquelles chacun peut utiliser les services des autres, et où
apparaissent des bibliothèques de modules fonctionnels communs. Ces modules
généraux utilisés par toutes les applications prennent de fait le statut de fonctions
logicielles de base, engendrant ainsi une migration de fonctions applicatives vers le
logiciel de base. Ce même mouvement affecte les extensions aux systèmes de base
comme aux systèmes applicatifs, que les fournisseurs de systèmes incorporent
progressivement dans leurs offres. Nous verrons que ce phénomène de migration
continuelle des fonctions depuis la périphérie des applications vers le coeur des
systèmes joue un rôle primordial dans la structuration de l’industrie du progiciel.

Le développement des progiciels

Examinons dans ses grandes lignes le processus de développement des progiciels


afin d’en comprendre l’économie et d’en déduire les mécanismes de structuration du
secteur.

Le développement d’un progiciel de quelque importance est une entreprise


complexe par nature. Pour avoir une chance de trouver un marché, un progiciel doit
posséder un minimum de richesse fonctionnelle et de convivialité, se prêter à de
multiples combinaisons de demande des utilisateurs et pouvoir s'exécuter dans une
grande variété d'environnements matériels et logiciels. En pratique, il est rare qu’un
progiciel ne comporte pas plusieurs centaines de milliers d’instructions élémentaires, et
courant qu’il en contienne plusieurs millions. La seule façon de construire de tels
édifices de façon fiable est de les décomposer en modules plus simples qui pourront être
écrits et testés séparément, puis assemblés ensuite.

In fine, tout programme est constitué par une séquence d’instructions élémentaires
directement exécutables par les microprocesseurs, qui n’effectuent que des opérations
simples très éloignées des fonctions applicatives offertes par les progiciels, mais à partir
desquelles on peut construire n’importe quel programme. On considère habituellement
que la taille optimale d’un module, c’est à dire celle qui permet le meilleur arbitrage
entre sa puissance fonctionnelle et la possibilité de le tester de façon efficace, est de
l’ordre de 50 à 100 lignes de programme ou instructions . C’est donc à ce niveau de
51

finesse que doit aboutir la décomposition du progiciel en modules élémentaires. Si la


décomposition fonctionnelle est correcte, chacun de ces modules réalise une fonction
simple bien définie qui peut être invoquée dans tout autre programme grâce à l’écriture
d’une ligne de code souvent appelée une « macro-instruction ».

Tout en respectant la limitation empirique de taille qui permet de le tester


efficacement, chaque module peut donc utiliser les fonctions des autres modules en les
appelant par des macro-instructions (ou tout autre mécanisme analogue). Au total, un
progiciel conçu selon ce modèle se présente comme une collection de modules qui
s’utilisent les uns les autres, formant une sorte de pyramide dont le sommet est le

51 En réalité, une notion plus pertinente est celle de « complexité » d’un module, dont diverses
mesures ont été proposées. Imposer une limite supérieure à la complexité entraîne une limitation de la
taille, aussi nous en resterons à cette notion.

ccxvii
module « maître » qui est appelé par l’utilisateur et qui commande et résume tous les
autres.

Un progiciel important peut comprendre des milliers, voire des dizaines de


milliers de tels modules, qui à leur tour doivent être organisés en ensembles
fonctionnels homogènes de différents niveaux, réalisant chacun une partie définie des
fonctions globales du progiciel. Vu de l’extérieur, un progiciel se présente ainsi comme
un ensemble hiérarchisé de sous-systèmes, eux-mêmes articulés en grandes fonctions
formées de différents composants, etc.

La démarche d’ensemble de développement d’un progiciel est schématisée dans la


figure ci-dessous. Au départ, l’ensemble des fonctions souhaitées et des objectifs visés
est décrit dans un document de spécification. Commence alors un processus analytique
de conception du programme, consistant à décomposer successivement chacune des
fonctions en sous-fonctions plus simples, tout en définissant de façon précise les
fonctions que doivent réaliser chacun de ces éléments fonctionnels, ainsi que les
modalités des relations entre eux. Si nécessaire, ces sous-éléments sont à leur tour
décomposés en éléments plus simples, jusqu’à ce que chacun des éléments respecte la
définition d’un module élémentaire.

Le développement du logiciel

systèmes

sous-systèmes tests

fonctions

intégration
modules

conception

spécification rédaction tests


temps

Dans la phase suivante, chacun des modules est rédigé dans un langage de
programmation approprié. Les modules de base, qui ne font appel à aucun autre module
du programme en cours de développement, peuvent être testés individuellement pour
vérifier que leur comportement réel est conforme à leurs spécifications telles qu’elles
résultent du processus de décomposition ci-dessus (tests dits « unitaires »). Lorsque ces
modules fonctionnent correctement de façon isolée peut commencer le processus
d’intégration, qui est en quelque sorte l’inverse du processus de décomposition. Les
modules intermédiaires sont progressivement reliés aux modules de niveau inférieur
qu’ils utilisent, et le bon fonctionnement de chaque sous-assemblage est vérifié. Ce
processus de construction progressive du système à partir des modules se poursuit

ccxviii
jusqu’à ce que le progiciel ait été testé dans toutes ses combinaisons de fonctions, de
modes d’utilisation et d’environnements d’exécution.

Au cours de ce processus d’intégration se révèlent habituellement un très grand


nombre d’erreurs . Celles-ci peuvent porter sur les derniers modules en cours de tests,
52

auquel cas leur correction n’a que des effets locaux sur le niveau de tests en cours, mais
elles peuvent aussi concerner des modules déjà testés. Dans ce dernier cas, il faudra
reprendre les tests en amont après correction des modules défectueux, afin de vérifier
que ce qui marchait correctement jusque-là marche toujours après modifications (tests
dits « de non-régression »). Il faut pour cela ré-exécuter des séries de tests déjà effectués
antérieurement. En effet, dans l’état actuel des technologies de programmation, le seul
moyen de vérifier qu’un programme est correct est de l’exécuter. Tant qu’un passage de
test aura révélé au moins une erreur et donné lieu à au moins une correction, celle-ci
devra être vérifiée en recommençant le même test, jusqu’au passage qui ne révélera plus
aucune erreur.

A ce stade, le programme exécute correctement toute la bibliothèque de test sur


les configurations des machines utilisées dans cette phase. Mais pour un programme
complexe, le fait même qu’il ait été correctement exécuté dans son intégralité dans une
gamme raisonnable de cas d’utilisation et de configurations ne garantit aucunement
qu’il s’exécutera correctement dans tous les cas et toutes les configurations
envisageables. Là encore, le seul moyen de s’en assurer est de procéder à des essais
réels suffisamment longs, de préférence conduits par des utilisateurs représentatifs en
situation d’exploitation réelle. Cette étape, qui suppose qu’une première étape de tests
système ait été franchie avec succès afin d’assurer une fonctionnalité et une convivialité
suffisantes, est souvent désignée par le terme de « beta-test ». Pour des progiciels
majeurs, elle peut concerner des milliers d’utilisateurs (plus de 400000 pour Windows
95). Essayer toutes les combinaisons possibles est impossible en toute rigueur, en
essayer de nombreuses coûte du temps et de l’argent, même quand le résultat est positif
et n’appelle aucune correction.

Sans entrer dans le détail des estimations, qui font l’objet de toute une littérature,
nous pouvons utiliser ce modèle pour voir comment les coûts et les délais de
développement varient selon le système, et donc caractériser le niveau d’investissement
et la durée de cycle, qui gouvernent la personnalité d’entreprise des firmes du secteur.

Le temps nécessaire pour la phase de conception est largement imprévisible. Il est


évidemment fonction de la taille et de la complexité du projet, mais aussi des méthodes
et des conventions adoptées pour l’ensemble du développement, qui définissent les
conditions de passage de la phase d’analyse à la phase d’écriture. On constate que toute
imperfection au stade de l’analyse induit un supplément de coûts d’intégration bien
supérieur à ce qu’aurait coûté le supplément de temps d’analyse qui aurait permis de
l’éviter. C’est pourquoi les méthodes de développement tendent à prolonger la phase
d’analyse dans l’espoir de limiter les efforts d’intégration. Cette première phase reste

52 Certaines études ont permis d’estimer que le nombre d’erreurs de programmation présentes au
début des tests est couramment de l’ordre de 2 pour 10 lignes de code. Pour un programme de 100000
lignes, c’est donc 20000 erreurs, de gravité heureusement très variable, qui devront être décelées et
corrigées.

ccxix
néanmoins la plus difficile à estimer, d’autant plus que les paramètres tels que la taille
du programme, le nombre de modules, … ne sont à ce stade pas encore connus avec
précision.

La phase d’analyse aboutit normalement à une estimation assez fiable du nombre


de modules, de la taille et de la complexité de chacun d’entre eux, de leur combinatoire
et de la complexité de leurs interactions. Le temps d’écriture peut alors être estimé avec
une certaine précision. Il est en gros proportionnel au nombre de modules et à la
complexité de chacun, en supposant que les modules ont par définition des tailles
comparables en nombre d’instructions.

Comme le temps d’analyse, le temps nécessaire pour l'intégration et les tests est
difficilement prévisible. il croît évidemment avec la taille du système, mais dépend plus
précisément du nombre et de la complexité des interactions possibles entre modules. On
admet généralement que, toutes choses égales par ailleurs, le temps d’intégration varie
comme une certaine puissance du nombre de modules, l’exposant de cette puissance se
situant entre 1.5 et 2. Autrement dit, quand on double le nombre de modules d’un
système, le temps nécessaire pour le tester est multiplié par un facteur compris entre 3 et
4. A une autre échelle, il faut plusieurs milliers de fois plus de temps pour intégrer et
tester un système de 10000 modules que pour un système de 100 modules ! Dès qu’un
système atteint un certain degré de complexité, son temps d'intégration devient très
supérieur au temps d’analyse et d’écriture, et l’ensemble croît en gros comme le carré
du volume. On comprend par là pourquoi la productivité décroît rapidement quand
l'échelle augmente.

Il faut de plus tenir compte de paramètres extérieurs au système lui-même :


diversité des conditions d’utilisation, variété des configurations matérielles et
logicielles, objectifs de fiabilité. Dans les quelques semaines qui suivent sa
disponibilité, une nouvelle version de Windows sera installée sur plusieurs millions
d’ordinateurs représentant des milliers de configurations différentes et des milliers de
fournisseurs de matériels indépendants. Pour pouvoir raisonnablement espérer que seuls
quelques utilisateurs atypiques rencontreront des difficultés, il faut évidemment un
programme de « beta-tests » portant sur des milliers d’utilisateurs cobayes pendant
plusieurs mois, qui serait largement inutile si tous les micro-ordinateurs étaient
configurés de la même façon, fournis par un constructeur unique et utilisés pour les
mêmes applications suivant les mêmes procédures.

Pour que l’effort total de développement soit contenu dans une durée calendaire
raisonnable, il faut pouvoir distribuer le travail entre plusieurs équipes fonctionnant en
parallèle. Dans la phase initiale, il devient progressivement possible de mener en
parallèle l’analyse de plusieurs sous-ensembles dès que l’analyse précédente a permis
de les isoler et de les spécifier avec certitude. C’est donc un des objectifs de cette phase
que de permettre le plus rapidement possible une distribution de la suite du travail entre
équipes aussi autonomes que possible. Dans le cas idéal, on met ainsi en place
progressivement une organisation qui reflète la structure interne du système en cours de
développement. Dans la réalité, il arrive souvent que l’organisation préexiste à la
conception d’un nouveau système, et que cette organisation dicte a contrario au système
une structure qui n’est pas nécessairement optimale.

ccxx
Le degré maximal de parallélisme est atteint dans la phase d’écriture, ce qui
contribue à limiter la durée calendaire de cette phase. Il est par contre évident que
l’intégration s’accommode de moins en moins bien de travaux parallèles au fur et à
mesure que le système se recompose. Le processus d’intégration du système met en
œuvre un processus de ré-intégration de l’organisation, en sens inverse de celui qui a
résulté de la phase d’analyse. Chaque niveau successif de sous-ensemble peut être
intégré sous la responsabilité de la même organisation qui en a assuré l’analyse, et ceci
jusqu’à remonter à l’échelon qui a défini le premier niveau de décomposition du
système global. Mais pour chaque erreur constatée, il faut en rechercher les causes en
remontant jusqu’aux modules qui doivent être corrigés, et revenir en arrière dans le
processus d’intégration pour le reprendre au niveau de ces modules modifiés.

La nature même du processus d’intégration rend extrêmement difficile de prévoir


le temps nécessaire pour atteindre un degré de fiabilité fixé d’avance. Tout au plus peut-
on dire que la probabilité de détecter une erreur existante croît avec la durée des tests, et
que la probabilité qu’il existe des erreurs résiduelles est d’autant plus faible que le
système a fonctionné sans incidents pendant plus longtemps dans une plus grande
variété de configurations. Dans la pratique, on traite le problème à l’inverse en fixant
d’avance une durée raisonnable de tests, qui peut être supérieure à un an pour des
systèmes d’exploitation complexes, et qui est cohérente avec le calendrier imposé par
des raisons de marché ou de concurrence.

Pour respecter ce calendrier, les erreurs qui sont découvertes trop tard dans le
cycle sont simplement signalées et seront corrigées dans des versions ultérieures. De
même, pour certains cas de problèmes non critiques, il sera préférable, pour ne pas
retarder le processus d’intégration, de remettre la correction à plus tard en acceptant une
limitation temporaire qui sera indiquée dans la documentation.

Le cycle total de développement d’un programme ne peut pas raisonnablement


dépasser deux ou trois ans, et il existe donc une limite supérieure à la taille du système
raisonnablement testable en un seul cycle d’intégration. Des développements
particulièrement ambitieux seront nécessairement réalisés en plusieurs versions
successives, afin que chacune d’entre elles puisse être validée par un usage intensif en
milieu réel avant d’entreprendre d’y intégrer des modifications et des extensions.

Pour ces versions nouvelles, il faudra non seulement définir de nouveaux modules
correspondant aux extensions, mais aussi apporter des modifications à des modules
existants. Notons que si l’effort nécessaire pour les phases d’analyse et d’écriture ne
dépend que de l’importance des modifications, c’est la totalité ou presque du système
qui devra de nouveau être intégrée et testée pour tenir compte de ces modifications de
l’existant. On voit que si ce processus de développement cumulatif rend possible, sur
une durée suffisante, des constructions extrêmement complexes, l’obligation de tester le
système complet à chaque version impose de nouveau des limites à la taille et à la
complexité des progiciels ainsi créés. De plus, il existe une limite pratique à ce qui est
possible par accumulation de modifications, et le système devra donc faire
périodiquement l’objet d’une refonte majeure.

En résumé, pour des systèmes complexes, c’est la phase de test et d’intégration


qui consomme l’essentiel des ressources et qui détermine la durée totale du cycle de

ccxxi
développement. Plus généralement ce sont les contraintes de cette troisième phase qui
gouvernent l’ensemble du processus. On voit aussi que la production de progiciels très
généraux, c’est à dire offrant une grande variété de fonctions en se pliant à des
modalités d’utilisation diversifiées sur des configurations quelconques, exige des
organisations et des méthodes industrielles. Seules en effet des entreprises industrielles
peuvent investir les ressources nécessaires en personnel et en matériel, gérer
efficacement des projets complexes impliquant le travail coordonné de nombreuses
équipes en parallèle et le respect d’une discipline contraignante, tout en faisant face à
des situations essentiellement imprévisibles qui appellent des arbitrages permanents
dont les conséquences économiques peuvent être lourdes.

Economie de la production et structure sectorielle

Coûts variables, parts de marché et prix

Nous avons vu que la facilité de reproduction est une caractéristique intrinsèque


du logiciel. Créer un nouvel exemplaire à partir d’un programme existant est rapide, peu
coûteux et ne nécessite pas de matériel spécialisé puisque le matériel destiné à utiliser le
programme permet aussi de le reproduire. C’est comme si chaque voiture était capable
de reproduire gratuitement son moteur, ou si les appareils photographiques pouvaient
produire des pellicules vierges.

Pour un particulier, reproduire un progiciel même complexe tel que Windows ne


coûte que quelques minutes et le prix de quelques disquettes. Le professionnel qui doit
produire de nombreux exemplaires peut investir dans des matériels spécialisés qui
réduiront encore ses coûts variables, au point que l’essentiel du coût unitaire sera formé
par la documentation plutôt que par le logiciel lui-même. Pour fixer les idées, on peut
estimer que le coût variable de fabrication d’un logiciel comprenant 8 disquettes (soit
plus de 12 millions d’octets) et une documentation de 1500 pages est de l’ordre de 15$
soit moins de 100 F. Ce chiffre est à rapprocher d’un coût de développement probable
de l’ordre de 10 ou 20 millions de dollars. Le ratio des frais fixes aux frais variables,
dont nous avons vu qu’il détermine l’échelle économique de production et gouverne le
degré de concentration du secteur, se chiffre donc en millions.

Les coûts variables de reproduction sont en gros proportionnels à la taille du


progiciel et de la documentation qui l’accompagne, avec pour le programme lui-même
un effet de seuil correspondant à la capacité d’une disquette (actuellement 1,4 millions
d’octets). Mais nous avons vu précédemment que les coûts fixes de développement
croissent plus vite que la taille du logiciel à cause des dépenses de test et d’intégration
dont la productivité baisse fortement quand la taille augmente. Il en résulte que l’échelle
économique de production est d’autant plus élevée que le progiciel est plus volumineux
et complexe. Un programme simple peut se rentabiliser avec quelques milliers
d’exemplaires vendus, alors qu’un système complexe demandera une diffusion de
plusieurs millions.

Bien qu’elle se traduise par un ratio inférieur à celui que nous avons estimé pour
les composants, qui est de l’ordre de la dizaine de millions, cette relation entre coûts

ccxxii
fixes et coûts variables confère à chacun des champs concurrentiels définis par les
fonctions d’un progiciel donné tous les attributs et toute la dynamique d’un secteur
fortement concentré, que nous avons décrite au Chapitre 7. Les coûts variables unitaires
de reproduction sont infimes par rapport au coût fixe du prototype, et donc le coût
unitaire moyen décroît fortement avec le volume.

Les mêmes causes produisant les mêmes effets, la production de progiciels est une
industrie à tendance monopoliste comme celle des composants. Dans chacun des sous-
secteurs qui la composent, nous trouverons un faible nombre d’offreurs dont les parts de
marché très inégales s’échelonnent en gros de façon logarithmique. Par exemple, dans le
cas typique des systèmes d’exploitation pour micro-ordinateurs PC, le complexe
MS-DOS/Windows de Microsoft occupe plus de 80% du marché, IBM un peu plus de
10% avec OS/2, les différents fournisseurs de systèmes qui se réclament d’UNIX se
partageant le reste.

Répétons ici que cette inégalité n’est ni fortuite, ni le résultat de manœuvres


déloyales de domination, mais constitue une caractéristique intrinsèque des structures
concentrées. Autrement dit, l’action de la concurrence entre firmes détermine laquelle
obtiendra 70% ou plus du marché, laquelle se situera autour de 15%, et lesquelles
survivront en se partageant les miettes. Mais elle ne peut ni laisser subsister un grand
nombre de firmes, ni faire que la répartition des parts de marché soit égalitaire. Qu’une
firme occupe 80% du marché des systèmes d’exploitation est une conséquence
inéluctable de la dynamique concurrentielle. Il se trouve que c’est Microsoft qui a gagné
le gros lot. L’histoire aurait pu faire que ce soit IBM ou Digital Research ou un autre ;
elle n’aurait pas pu faire que cinq, dix ou cinquante fournisseurs se partagent le marché
à parts égales.

Quant aux prix, ils se fixeront comme pour les composants électroniques à un
niveau suffisamment bas pour que la sensibilité du marché aux prix soit presque nulle.
Ceci entraîne en particulier que le choix du marché se fondera principalement sur
d’autres attributs du produit . Toujours pour les systèmes d’exploitation, les prix
53

tournent autour de 1000F soit moins de 200$, c’est à dire moins du dixième du prix de
l’ordinateur qu’ils font fonctionner. A ce niveau, les différences de prix des systèmes en
concurrence n’ont sur le choix des clients qu’une faible incidence comparativement aux
autres caractéristiques du produit. Par ailleurs, comme dans le cas des composants, les
prix sont très inférieurs à ceux qu’aurait intérêt à pratiquer un monopoleur. En effet,
doubler (par exemple) le prix du progiciel n’augmenterait le prix total du système que
de 10% et ne réduirait pas sensiblement le nombre total d’unités vendues, se traduisant
ainsi pour les offreurs de progiciels par un revenu et des profits supérieurs.

L’originalité du secteur

Si le secteur des progiciels présente des analogies avec le secteur des composants,
il s’en distingue également par un certain nombre de caractéristiques.

Tout d’abord, comme nous l’avons vu, les progiciels ne constituent pas un secteur
unique où tous les offreurs seraient en concurrence entre eux. Il existe une multitude de

53 Voir chapitre 8

ccxxiii
segments de marché indépendants qui forment autant d’arènes concurrentielles où les
différents offreurs choisissent ou non d’être présents. Les secteurs qui se constituent
ainsi peuvent avoir des caractéristiques suffisamment différentes pour que les modalités
de la concurrence n’y soient pas identiques, de même que les personnalités d’entreprise
adaptées à chacun de ces secteurs. En revanche, les frontières entre ces secteurs
élémentaires sont floues et mouvantes. La structure de l’industrie du progiciel est donc
par nature plus complexe et plus instable que celle des composants.

Nous avons vu précédemment que les investissements de développement de


logiciel s’inscrivent dans une plage de variation plus basse et relativement plus large.
Alors que pour les composants la mise va de quelques centaines de millions de dollars à
quelques milliards, soit un rapport de l’ordre de 10, elle dépasse rarement quelques
dizaines de millions et peut se réduire à quelques dizaines de milliers de dollars pour les
progiciels, soit un rapport mille. Quant à l’échelle économique de production, elle est de
l’ordre de la dizaine de millions pour les composants, alors qu’elle peut aller du millier
au million pour les progiciels selon l’ampleur du développement. Le caractère concentré
du secteur pourra donc être plus ou moins accentué selon les domaines.

Deuxièmement, les investissements ne portent que sur la phase de développement


et sont formés essentiellement de travail humain. Le progiciel ne nécessite que
relativement peu d'investissements matériels et pas d’investissements lourds de
fabrication. Une équipe motivée prête à investir beaucoup de son temps peut ainsi
entreprendre l’écriture d’un progiciel sans devoir rechercher au préalable des capitaux
importants. Les obstacles à l’entrée peuvent facilement être surmontés ou ignorés pour
des développements innovants ou de taille modeste. Même pour des projets plus
importants, il reste possible que des inconscients sous-estiment les vrais problèmes
industriels comme les prix dissuasifs et se lancent quand même dans l’aventure. Il n’est
même pas totalement exclu que quelques-uns puissent y réussir.

Par ailleurs, les technologies de développement comme celles de distribution des


progiciels ne connaissent pas l’évolution frénétique qui caractérise les composants.
Toutes choses égales par ailleurs, l’échelle économique de production y reste donc assez
stable. Puisque le marché est en croissance, et ce d’autant plus vite que le domaine
d’application considéré est innovant, le rapport de la taille du marché à l’échelle de
production est probablement croissant quel que soit le domaine, et il peut donc y avoir
place pour des firmes de plus en plus nombreuses. Le processus de concentration, qui
pour les composants entraîne inéluctablement l’élimination des concurrents marginaux,
n’est ici lié qu’à la maturation de chaque sous-secteur et n’a pas de raison de se
poursuivre quand il a abouti à des parts de marché et des prix acceptables par tous les
offreurs.

De plus, l’invasion par l’informatique de toutes les activités humaines fait


continuellement apparaître des domaines d’application nouveaux, et donc des secteurs
concurrentiels nouveaux pour les progiciels. Le nombre des sous-secteurs peut ainsi
rester indéfiniment croissant. A chacun de ces sous-secteurs peuvent correspondre des
besoins de développement différents et donc des échelles économiques et des
concentrations différentes. A un instant donné, les sous-secteurs se situent à des stades
d’évolution différents dans leur processus de concentration. En particulier les plus
récents n’ont pas atteint l’état de concentration asymétrique. Comme de plus certains

ccxxiv
domaines peuvent être dominés par une firme spécialisée dans ce seul domaine et donc
relativement petite, le progiciel dans sa totalité peut avoir les apparences d’un secteur
dispersé si on ne prend pas soin d’en conduire l’examen domaine par domaine.

L’évolution technologique à long terme prend également une forme différente.


Pour les microprocesseurs, nous avons vu qu’exploiter le potentiel technologique
impose de concevoir une puce nouvelle et de reconstruire les lignes de production à
chaque génération, rendant totalement obsolètes les puces précédentes. Au contraire, la
plasticité du logiciel et la stabilité relative de ses technologies de développement permet
aux progiciels d’évoluer par versions successives de façon cumulative. Comme pour les
composants, un challenger doit rechercher son avantage concurrentiel par les qualités du
produit, ce qui motive le développement de nouvelles versions dotées de fonctions
nouvelles et d’améliorations aux fonctions existantes, tant par le leader pour maintenir
sa domination que par le challenger pour la contester. Les systèmes existants peuvent
toujours être perfectionnés, des idées nouvelles peuvent apparaître même pour des
domaines existants, et il se crée en permanence des besoins de marché non satisfaits qui
alimentent ces versions successives.

Enfin, alors que les microprocesseurs ne sont vendus par leurs producteurs qu’à
des entreprises d’assemblage de matériels pour être incorporés dans leurs machines, le
plus souvent à raison de un processeur et un seul par unité, les progiciels sont
commercialisés en grande partie directement auprès des utilisateurs. La proportion de
ventes directes aux utilisateurs et de vente indirecte à travers les firmes de matériel varie
selon la nature du progiciel. La grande majorité des ventes initiales des systèmes
d’exploitation est réalisée à travers les vendeurs de matériel qui équipent leurs machines
du système d’exploitation de leur choix. L’utilisateur peut commander une machine nue
et choisir lui-même son système d’exploitation, mais la plupart du temps il s’en tient au
système pré-installé et ne se procurera de façon directe que les nouvelles versions de ce
système. A l’opposé, les progiciels d’application les plus spécifiques sont toujours
acquis directement par leurs utilisateurs.

Ces distinctions sont importantes en termes de modalités de la concurrence et de


la sensibilité du marché aux prix. Le secteur des systèmes d’exploitation fonctionne
comme celui des composants : la taille totale du marché y est peu sensible aux prix, la
concurrence pour les parts de marché revêt les mêmes modalités et conduit à la même
structure asymétrique. Il en va de même pour les programmes d’application très
courants comme les traitements de texte ou les tableurs, qui sont eux aussi utilisés sur
toutes les machines et de plus en plus souvent pré-installés par les constructeurs comme
les systèmes d’exploitation.

En revanche, pour des applications moins universellement utilisées, le marché des


progiciels n’est qu’une fraction du parc d’ordinateurs installés, d’autant plus faible que
l’application est moins répandue. Le volume total des ventes, et non seulement la
répartition entre les offreurs d’un volume total déterminé par ailleurs, est alors lui-même
sensible aux prix pratiqués, et ceci d’autant plus que l’application concernée touche
potentiellement un grand nombre d’utilisateurs.

ccxxv
La tarification des progiciels

Les tarifs pratiqués pour les progiciels illustrent bien le résultat des mécanismes
classiques de formation des prix dans un secteur de type monopoliste, c’est à dire où les
coûts unitaires variables sont très faibles par rapport aux coûts fixes, ici les coûts de
développement.

Tout d’abord, les prix « catalogue » sont à peu près indépendants du contenu
fonctionnel du produit et donc de ses coûts. L’échelle des prix s’organise en quelques
grandes familles plus directement liées à la taille du marché visé et à sa sensibilité aux
prix. Les utilitaires simples et tous les jeux quelle que soit leur complexité se situent
autour de 500F ou moins (moins de 100$), les systèmes de base (DOS, Windows, OS/2)
et les utilitaires plus complexes autour de 1000 à 1500F, les systèmes applicatifs et les
outils courants (Traitement de Textes, tableurs, PAO, …) entre 3000 et 7000F. Seuls
quelques outils exceptionnels comme des compilateurs de langages rarement utilisés sur
micro-ordinateurs atteignent la zone des 12000 à 20000F. Or il est bien clair qu’un
compilateur de Pascal Objet ou Visual C++ vendus 1500F sont plus complexes et plus
coûteux en développement qu’un Fortran à 12000F.

L’offreur d’un nouveau progiciel doit choisir son prix par rapport à ces gammes
de prix standard qui se sont formées sur le marché. Les prix préexistent en quelque sorte
au progiciel, et sont indépendants de ses coûts de développement. Il appartient ensuite à
chaque offreur actuel ou potentiel de gérer ses coûts et ses volumes de façon à produire
un profit si possible.

Au stade de la commercialisation, le coût du produit, qui se résume pratiquement


aux coûts de développement, est devenu irrécupérable et ne peut plus être modifié par
quelque action que ce soit. Tout revenu supplémentaire, aussi faible soit-il, est donc un
supplément de profit et mérite d’être recherché. Pour y parvenir, la technique classique
prêtée aux monopoles par la théorie économique est la tarification différenciée ou
tarification par segments. Ce système consiste à vendre le même produit à des prix
différents selon le segment de clientèle, dans la mesure où il est possible d’identifier des
segments assez isolés les uns des autres pour que le prix le plus bas ne se généralise pas
à tous. Dans le cas du progiciel, cette isolation est facilitée par le fait que le progiciel
n’est pas cessible par l’utilisateur, ce qui élimine théoriquement toute possibilité
d’arbitrage entre segments.

C’est pourquoi le prix d’un même progiciel varie selon le client, les conditions, le
lieu, le moment, etc. Par exemple les tarifs de cession aux constructeurs pour pré-
installation dans leurs systèmes sont très inférieurs aux tarifs de vente directe aux
utilisateurs, et peuvent l’être d’autant plus que c’est alors le constructeur et non le
producteur du progiciel qui en supporte les coûts variables. Par exemple, un
constructeur de micro-ordinateurs ne paye à Microsoft que 35$ (moins de 200F) par
exemplaire du couple MS-DOS/Windows, alors que le prix de Windows seul, vendu
isolément, est d’environ 1000F. A la sortie, la contribution du progiciel au prix total du
système livré reste notablement inférieure au prix du progiciel isolé. L’objectif du
fournisseur de progiciel est bien évidemment de se créer une clientèle captive pour les
versions ultérieures. Un cas un peu analogue est celui des « licences de site » et de

ccxxvi
toutes leurs variantes négociées pour permettre à un grand utilisateur d’utiliser un
progiciel sur plusieurs machines sans devoir payer autant de fois le prix unitaire, en
prenant à sa charge les coûts de reproduction ou une partie des coûts de support
technique.

La tarification des versions successives est une autre forme de tarification


différenciée, puisque chaque nouvelle version d’un système reprend sans modification
un grand nombre de modules de la précédente, qui sont ainsi vendus plusieurs fois aux
mêmes clients. La mise à jour d’un système contient d’ailleurs le plus souvent le
système complet et non seulement les parties modifiées, mais comporte également des
fonctions supplémentaires pour vérifier qu’une version précédente est bien présente sur
la machine au moment de l’installation, ce qui constitue un moyen d’isoler la clientèle
des mises à jour de celle des nouveaux utilisateurs . Une variante de cette approche
54

consiste à offrir un prix préférentiel aux utilisateurs de produits concurrents.

Pour les grands progiciels, la lutte pour les parts de marché met principalement en
jeu les accords d’installation des progiciels sur les machines neuves livrées par les
constructeurs, les prix réduits pour les utilisateurs de produits concurrents ou les prix
« d’attaque » pour la première version d’un progiciel nouveau. Après que le choix des
clients a été déterminé, les nouveautés de chaque version et les coûts de conversion vers
un progiciel concurrent contribuent à faire accepter les prix des versions successives,
dont le cumul après quelques années d’utilisation dépasse de loin le prix auquel il est
possible à ce moment d’acquérir la version courante du progiciel en question.

D’autres formes de tarification différenciée sont pratiquées pour les progiciels


destinés aux grands ordinateurs, qui consistent le plus souvent à profiter de leur statut
hybride pour les facturer comme un service et non comme un produit. On rencontre par
exemple des tarifs au prorata de l’utilisation ou selon la puissance du processeur sur
lequel s’exécutent, ou des systèmes de redevance périodique comprenant la
maintenance et les versions successives, etc. Quels que soient les efforts des
fournisseurs concernés, il est peu probable que ces pratiques s’étendent un jour au
progiciel pour micro-ordinateurs, et beaucoup plus vraisemblable qu’elles disparaissent
progressivement du monde des grands systèmes.

Notons enfin que l’extrême facilité de reproduction des progiciels sur des supports
très divers rend possible leur copie et leur diffusion illicite, que les dispositions
contractuelles ne peuvent que partiellement empêcher. La possibilité du « piratage »
contribue à imposer des limites supérieures aux prix de marché. L’utilisateur sera
d’autant plus tenté de se procurer une copie gratuite que le prix du logiciel est élevé, que
le logiciel est répandu donc facilement accessible, et que le milieu où il opère est
permissif. Le piratage introduit une forme de sensibilité du marché aux prix qui porte
non pas sur le nombre d’exemplaires diffusés, mais sur la proportion d’exemplaires
facturés parmi les exemplaires utilisés.

54 On retrouve ici la vieille tarification « fonctionnelle » dont nous avons parlé au chapitre 1, qui
peut conduire à ajouter à un produit des fonctions et donc un coût supplémentaire dans le seul but de
pouvoir le vendre moins cher, mais à une clientèle distincte.

ccxxvii
Dynamique d’ensemble

En résumé, l’industrie du progiciel apparaît non seulement comme un secteur


radicalement distinct de celui des services auquel on l’assimile trop souvent, mais
constitue elle-même un complexe de secteurs dont chacun est défini par un domaine
d'application où plusieurs firmes offrent des produits concurrents répondant au même
besoin. A contrario, des produits répondant à des besoins différents ne sont pas
directement en concurrence et forment des secteurs différents. Tous ces secteurs
obéissent à la même logique concurrentielle, qui découle de la structure de coûts
caractéristique de la production de progiciels, et qui en fait des secteurs de type
concentré.

Suivons le cycle d’évolution d’un tel secteur, considéré isolément. Lorsque le


domaine d’application est encore vierge, il est facile d’y pénétrer en n’entreprenant que
des développements relativement modestes qui suffiront souvent pour satisfaire un
besoin latent, grâce à la nature même de l’investissement qui ne comporte qu’une faible
part matérielle ou financière. Il apparaîtra donc vraisemblablement plusieurs offreurs
qui entreront en concurrence pour la part de marché, lançant ainsi le processus classique
de baisse des prix vers les prix standard et de constitution d'un oligopole dissymétrique
stable formé de quelques offreurs dont un fortement dominant. Au terme de ce
processus, les positions respectives seront verrouillées par des prix dissuasifs largement
indépendants du contenu du progiciel.

Nous avons vu que les forces de concentration sont d’autant plus vigoureuses que
le logiciel est plus volumineux et plus complexe. Des secteurs correspondant à des
applications simples par nature pourront donc conserver longtemps une structure plus
égalitaire et plus dispersée. Mais le plus souvent, la demande du marché et la
concurrence font évoluer naturellement le progiciel dans le sens d’une richesse et d’une
complexité croissantes, accélérant par là même le processus de concentration.

L’entrée dans un secteur d’application naissant peut être le fait de firmes déjà
établies dans d’autres secteurs. Ces firmes adopteront le plus souvent pour le nouveau
secteur une stratégie de préemption, en introduisant dès le départ des produits riches en
fonctions aux tarifs standard du marché, décourageant ainsi d’emblée l’entrée de petites
firmes spécialisées. La concurrence ne pourra alors impliquer que des offreurs du même
type et prendra immédiatement la forme qu’elle a dans les secteurs concentrés.

La même logique de formation des prix que nous avons vue à l’œuvre dans le cas
des composants électroniques (voir Chapitre 7) aboutit à fixer le prix au niveau du prix
de survie du plus petit offreur. Pour les progiciels, où il existe des prix standard de
marché, il est plus juste de dire que seuls survivent les offreurs dont le prix de survie est
inférieur au prix de marché, ce qui impose un volume minimal de ventes. Les
profitabilités respectives s’échelonnent alors du voisinage de zéro pour les offreurs
marginaux à des valeurs inhabituellement élevées pour les leaders. Ce phénomène
explique la grande dispersion des profitabilités que nous avons constatée au Chapitre 5.

ccxxviii
Les acteurs du progiciel

A la diversité des sous-secteurs qui composent le secteur des progiciels


correspond une grande variété d’acteurs. Bien que tous pratiquent a priori le même
métier, au sens où nous l’avons défini au Chapitre 6, les domaines d’application sont
nombreux et à des stades de maturité différents. De plus, nous avons vu que les
exigences du processus d’intégration réservent les grands systèmes complexes à des
entreprises importantes qui seules peuvent jouer le rôle d'intégrateur professionnel
nécessaire au succès industriel d'un système. Il apparaît donc une dichotomie entre les
grands systémiers et les offreurs spécialisés secondaires.

Nous avons soigneusement évité le terme maintenant consacré d’« éditeur » de


progiciels pour désigner des firmes comme Microsoft ou Novell. C’est que cette
appellation est particulièrement impropre. Dans le langage courant, le métier d’éditeur
est un métier distinct de l’activité des auteurs dont il consiste à publier les œuvres en les
mettant sous une forme propre à la distribution et en en gérant la diffusion. Pour les
progiciels, les auteurs sont le plus souvent employés par les « éditeurs », qui
juridiquement détiennent les droits sur les œuvres et en sont donc les véritables auteurs,
d’autant plus que les progiciels sont des œuvres collectives. Pour la plupart des firmes
de progiciel, c’est cette activité de création qui est dominante, l’activité d’éditeur au
sens strict du mot étant une activité secondaire souvent même sous-traitée. Utiliser le
mot « éditeur » pour désigner tous les offreurs de progiciels est donc un contresens.

Il existe néanmoins de véritables éditeurs de progiciels au sens habituel du mot,


qui mettent en forme et diffusent des programmes écrits par des auteurs indépendants de
la même façon que les éditeurs de livres. Il est d’ailleurs remarquable que ces éditeurs
sont souvent également éditeurs de livres d’informatique, et que les prix de leurs
progiciels soient tout à fait comparables aux prix des livres (100 à 200 F). On voit en
parallèle se développer sur le même modèle des éditeurs de progiciels sur CD-ROM ou
sur réseau.

Le métier d’offreur de progiciel

Le succès d’un progiciel repose non seulement sur sa richesse fonctionnelle, mais
aussi et surtout sur sa facilité d'utilisation, sa convivialité, ses possibilités de
personnalisation, d'extension et de connexion à d'autres logiciels, sa fiabilité, sa
possibilité d'évolution, etc. Les compétences nécessaires sont de trois ordres et
requièrent souvent une étroite coopération entre les trois types de spécialistes
correspondants. Tout d’abord une bonne connaissance des utilisateurs, de leurs besoins,
de leurs habitudes de travail, de leurs préférences, etc. Deuxièmement un spécialiste des
technologies propres à l’application, pour définir tes traitements appropriés. Enfin, des
compétences proprement informatiques dans les techniques de réalisation de progiciel
industrialisé.

Selon la nature du progiciel, ces compétences sont requises en proportions


variables. Si les fonctions prévues sont de nature purement informatique ou
suffisamment générale, comme pour les systèmes d’exploitation ou les traitements de
texte, la compétence applicative se confond avec la compétence informatique. Pour des

ccxxix
applications proprement dites comme la comptabilité, les statistiques, les calculs
d’aérodynamique ou la gestion de portefeuille, une connaissance spécifique des
techniques de l’application est nécessaire. Tant que le logiciel reste raisonnablement
simple, c’est la connaissance de l’application qui domine, et des compétences
informatiques relativement courantes peuvent assurer le succès à des firmes non-
informatiques mais expertes dans le domaine. Un exemple est celui des logiciels de
synthèse musicale, où des firmes comme Roland ou Yamaha sont présentes.

Si en revanche on s’éloigne des applications simples pour aller vers de grands


systèmes applicatifs destinés à une clientèle diversifiée, la connaissance de l’application
doit être complétée par une haute expertise en développement logiciel que des
entreprises non-informatiques ne possèdent que rarement, et dont elles ont tendance à
sous-estimer la nécessité. C’est pourquoi on ne compte plus les échecs d’entreprises qui
ont tenté de mettre sur le marché un progiciel dans leur domaine de spécialité, sans
avoir pris soin d’en confier le développement à une organisation dédiée suffisamment
pourvue de compétences informatiques.

L’activité de production de progiciel relève dans son ensemble de cycles longs et


d’une concurrence de type concentré. Les caractéristiques correspondantes, que nous
avons décrites au Chapitre 9, sont d’autant plus marquées qu’on passe de la production
de composants logiciels ou d’applications relativement simples vers l’activité de
systèmes complexes. Pour un logiciel simple, le cycle de développement peut être de
l’ordre de quelques mois, alors qu’il est de plusieurs années pour les grands systèmes
intégrés, comme pour les microprocesseurs.

Comme pour tous les produits, le développement et la diffusion sont deux


activités séparées dans le temps, et confiées à deux branches séparées de l’organisation.
Pour l’organisation de développement, le problème clef est de mettre sur le marché, au
moment opportun, des produits correspondant à une demande et compétitifs par rapport
à ceux (encore inconnus) des concurrents. Pour l’organisation commerciale, le problème
clef est de tirer le revenu maximal des produits existants, pour couvrir les frais de
structure et financer le développement des produits suivants, si possible en dégageant un
profit. Il faut pour cela une organisation commerciale forte, alliant si nécessaire des
ventes directes à un réseau de distributeurs, et opérant de façon efficace sur un vaste
territoire.

Cette activité commerciale est facilement mesurable et peut être organisée et


gérée, comme la diffusion de produits standards, selon des modalités adaptées aux
cycles courts. Pour le développement au contraire, le succès sur le marché ne peut pas
être mesuré à court terme dans le cours de l’activité. La seule part formalisable est le
suivi des coûts et des délais, mais non l’adéquation du produit à la demande du marché.
Sur ce dernier point, les décisions de l’entreprise reposent exclusivement sur la
confiance qu’elle accorde à ses développeurs, ce qui est d’autant plus facile que les
dirigeants participent eux-mêmes aux décisions de développement et restent familiers
avec les produits de la firme.

Dans une entreprise de progiciels, le rôle fondamental du dirigeant est donc de


s’assurer que les produits en cours de développement sont conformes à la demande
future du marché, et ce mieux que les produits concurrents. Ce rôle ne peut guère être

ccxxx
tenu que par un informaticien de profession, probablement rompu à l’utilisation et au
développement du progiciel, et qui doit de plus être compétent dans la gestion de son
entreprise.

Or il est plus courant pour un informaticien de maîtriser la gestion que pour un


gestionnaire de devenir compétent en logiciel. C’est pourquoi on trouve à l’origine de la
plupart des réussites en progiciel un développeur particulièrement clairvoyant qui a été
capable de créer et de diriger son entreprise. Mais le succès de ses produits peut amener
cet informaticien à être dépassé par les problèmes de gestion. Si on le remplace alors par
un gestionnaire, il est à craindre que ce dernier soit ignorant sur le plan technique et
divorce d’avec ses équipes de développement, ce qui met l’entreprise en grand danger.
Il s’ensuit que la taille efficace d’une entreprise de progiciel est limitée à ce qu’un
informaticien est capable de gérer sans perdre le contact avec la technique. Cette taille
maximale dépend du génie personnel du patron, et les grandes réussites sont le fait
d’individus exceptionnels. Une firme de progiciel qui réussit est nécessairement liée à
une personnalité d’exception.

Ces caractéristiques permettent d’expliquer pourquoi les firmes qui réussissent


dans le progiciel sont toutes des firmes spécialisées de relativement petite taille. IBM,
qui a été le pionnier du progiciel dès les années 60 pour ses propres grands systèmes,
n’a jamais été capable de devenir un acteur majeur dans le domaine des applications, ni
de concurrencer sérieusement Microsoft pour les systèmes d’exploitation pour micro-
ordinateurs. On peut considérer que Microsoft constitue également une exception par sa
taille, mais il est probable que cette situation est directement liée à la personnalité tout
aussi exceptionnelle de Bill Gates.

Les acteurs majeurs

Les offreurs de systèmes ont intérêt à s’attirer le plus grand nombre possible de
supporters, qu’ils soient développeurs d’applications ou constructeurs de matériel qui
pré-installeront le système. Ils chercheront donc à concevoir leurs produits de façon
qu’ils soient ouverts aux extensions offertes par d'autres, et à faciliter le développement
de ces extensions par des programmes d’information et de support destinés aux autres
firmes. Cette forme de concurrence par la séduction des offreurs secondaires peut se
traduire par des formes d’association plus ou moins formelles avec ces derniers, en
particulier par la formation de consortiums visant la définition de normes communes ou
des actions de commercialisation conjointes.

La concurrence entre les grands intégrateurs les pousse à enrichir leurs produits en
permanence en offrant des versions successives. Les extensions ou améliorations
offertes par les offreurs secondaires constituent à chaque instant un réservoir de
fonctions susceptibles d’être intégrées dans la nouvelle version du système, et que le
« systémier » pourra ou bien réécrire sous une forme compétitive avec les offres
secondaires, soit acquérir auprès de l’un de ces offreurs. Sur le long terme, on assiste
ainsi à une migration de fonctions, qui débutent comme des extensions mineures
indépendantes, puis se réunissent en sous-systèmes pour achever leur course à
l’intérieur de grands systèmes intégrés.

ccxxxi
Pour bénéficier de ce mouvement, les intégrateurs sont amenés à acquérir les
logiciels concernés auprès des firmes secondaires, et souvent à acquérir la firme elle-
même pour bénéficier de ses compétences et de sa base de clientèle. La migration des
fonctions s’accompagne d’un processus continu d’absorption des petites entreprises par
les industriels, compensé par l’apparition permanente de nouveaux acteurs dans des
domaines périphériques nouveaux.

Les acteurs secondaires

Les grands systèmes en place sont le résultat d’investissements cumulés qui se


chiffrent en dizaines de millions de dollars, alors que leurs prix de marché sont établis
autour de 1000$. Le candidat à l’entrée devrait donc investir à ce même niveau pendant
des années, puis vendre des dizaines de milliers d’exemplaires de son nouveau système
pour en couvrir simplement les coûts de développement. Aussi n’y aura-t-il
probablement plus de nouveaux entrants dans le secteur des systèmes d’exploitation,
comme d’ailleurs dans celui des systèmes de traitement de texte ou celui des tableurs.

En revanche, la variété infinie des domaines d'application et l'émergence


constante de nouveaux domaines crée en permanence des opportunités d'entrée dans des
niches particulières. Ces opportunités peuvent être saisies par des firmes déjà en place,
mais également par des firmes nouvelles, le plus souvent lancées par un développeur à
partir d’une idée personnelle, et financées par son effort personnel ou un peu de capital
risque. Mais si les barrières à l'entrée sont en apparence faibles, et donc la tentation
forte, on ne réussit qu'à condition d'arriver très tôt sur le marché avec un produit
parfaitement adapté à la clientèle, accompagné d'une action commerciale importante et
efficace.

Beaucoup de ces petites firmes disparaîtront si l’idée qui leur a donné naissance
est fausse ou non originale, moins bien réalisée ou moins bien vendue que les produits
concurrents, ou reprise entre temps par un offreur majeur. D’autres survivront dans des
réseaux parallèles de « shareware » où le paiement d’une redevance est laissé à
l’appréciation de l’utilisateur, et où la distribution est assurée par une variété de canaux
comme des annonces ou plus récemment des CD-ROM encartés dans les magazines
spécialisés, ou encore les réseaux informatiques tels qu’Internet.

Parmi les firmes qui réussissent, certaines offriront des produits assez originaux et
d’assez bonne qualité pour intéresser les offreurs majeurs, qui chercheront alors à
acquérir soit le produit soit la firme. Pour ces petites entreprises, la disparition peut être
le prix du succès et l’objectif de leur créateur, qui peut alors se retirer fortune faite ou
repartir dans l’aventure avec une autre idée.

Résumé et perspectives

Au total, en analysant le secteur des progiciels à l’aide des outils que nous avons
forgés dans la deuxième partie de cet ouvrage, nous découvrons un macro-secteur
complexe et diversifié, formé en réalité de secteurs distincts selon les fonctions des
progiciels. Les facteurs qui déterminent la forme du jeu concurrentiel et la structure
sectorielle qui en résulte varient de secteur à secteur selon la taille et la complexité des

ccxxxii
produits de chaque secteur. Les frontières entre secteurs sont floues et perméables, et
l’ensemble du macro-secteur est traversé de mouvements continuels.

A une extrémité, la taille et la complexité des grands systèmes imposent une


échelle économique de production élevée qui rendent prédominants les facteurs de
concentration du secteur. La dynamique des grands systémiers, analogue à celle des
composants, ne laisse subsister qu’un tout petit nombre de firmes et de systèmes qui se
partageant le marché de façon très inégalitaire. Nous examinerons plus en détail les
modalités et les conséquences de cette situation dans le chapitre suivant.

A l’autre extrémité, pour des développements d’ampleur limitée dans des


domaines nouveaux, c’est la modestie des obstacles à l’entrée qui domine et qui autorise
une floraison des innovateurs et des innovations. Les nouveaux domaines d’utilisation
des ordinateurs, qui apparaissent en permanence, passent ainsi par une phase initiale où
la structure du secteur correspondant est de type dispersé et autorise une concurrence
ouverte entre des solutions alternatives. Cette phase peut donner leur chance à des
acteurs très divers et faire place, à côté de firmes établies, à de petites entreprises, à des
laboratoires universitaires ou à des individualités d’exception.

Ces deux mondes vivent en symbiose. D’une part les innovateurs et les offreurs
secondaires forment des constellations d’alliances autour des standards du marché que
constituent les grands systèmes. D’autre part les grands industriels cherchent en
permanence à enrichir leur offre en y incorporant les fonctions nouvelles développées
par les innovateurs, ce qui peut impliquer acquisition des logiciels ou des entreprises.

Le dynamisme du secteur a deux moteurs concurrentiels : le premier est, comme


pour les composants, la rivalité entre le leader de chaque sous-secteur et ses
challengers ; le second est l'élargissement continu du champ d'application de
l'informatique, qui fait apparaître en permanence de nouveaux domaines et donc des
secteurs vierges où tout nouvel entrant peut espérer avoir sa chance de devenir leader à
condition d'être le premier à y entrer.

Contrairement au matériel, l’évolution potentielle du logiciel ne connaît pas de


frontières physiques propres. La taille des logiciels n’est bornée que par les capacités de
mémoire disponibles, et leur vitesse d’exécution est celle des microprocesseurs. Le
progrès des composants rend possible le progrès du logiciel, en même temps que la
diversité croissante des matériels, des applications et des utilisateurs demande le
développement de nouveaux logiciels. La seule limitation propre est liée aux techniques
de développement et surtout d’intégration de logiciel, dont l’état actuel rend
pratiquement impossible la production de systèmes dépassant un certain niveau de
complexité. C’est dans ce domaine que les progrès les plus significatifs doivent être
attendus, et à un degré moindre dans des domaines tels que les méthodes de
représentation et de traitement des données, qui conditionnent largement les
performances, ou encore la conception des relations entre l’homme et la machine. Nous
aborderons ces questions dans le chapitre suivant, consacré spécifiquement aux
systèmes d’exploitation.

ccxxxiii
Chapitre 12
Les systèmes d’exploitation et la
standardisation

Fonctions et structure des systèmes d’exploitation. Qu’est-ce qu’un système


« ouvert » ? Standards, normes, innovation et concurrence. Systèmes expérimentaux et
systèmes industriels. A quoi sert Unix ? Objets et noyaux. La frontière entre matériel et
logiciel. Perspectives.

Parmi les produits fabriqués « en logiciel » (les progiciels), les systèmes


d’exploitation occupent une position centrale. Leurs fonctions en font un intermédiaire
obligé entre les utilisateurs, les applications et le matériel. C’est en utilisant les
fonctions du système que les utilisateurs accèdent aux applications et au matériel.
Symétriquement, c’est en répondant aux sollicitations du système que le matériel se met
au service des utilisateurs, et en se connectant au système que les applications
deviennent utilisables. Le système d’exploitation incorpore donc un ensemble de
conventions qui en font l’image principale de l’informatique pour chacun de ses
utilisateurs ou de ses participants.

Cette situation à la charnière entre les utilisateurs, les applications et le matériel


fait des systèmes d’exploitation le lieu par excellence des efforts de normalisation, et
l’arène ou se joue la bataille des standards. C’est pourquoi nous consacrerons une part
de ce chapitre à analyser les phénomènes économiques et concurrentiels associés à la
normalisation.

A l’intérieur du macro-secteur du progiciel, les systèmes d’exploitation couvrent


un champ assez vaste pour inclure des sous-secteurs distincts qui prennent toutes les
formes structurelles que nous avons décrites dans le chapitre précédent. A une extrémité
du champ, les offreurs de systèmes intégrés de qualité industrielle forment un secteur
fortement concentré dont la dynamique est voisine de celle des microprocesseurs. A
l’opposé opèrent des innovateurs qui forment une nébuleuse de sous-secteurs de type
dispersé. Le domaine des systèmes d’exploitation permet ainsi de préciser pour un cas
particulier les mécanismes généraux de structuration de l’industrie du progiciel.

En termes d’évolution à moyen et long terme, les systèmes d’exploitation jouent


également un rôle central. Le logiciel étant par sa plasticité le matériau privilégié de
l’innovation, c’est dans les systèmes d’exploitation, ou du moins sur leurs marges, que
se réalisent d’abord un grand nombre de développements concernant le futur de
l’informatique. De plus, nous avons vu que la dynamique propre au macro-secteur du
progiciel fait du système d’exploitation l’analogue d’un « trou noir » autour duquel
gravitent et vers lequel convergent tous les développements. Enfin, toute évolution qui
naît soit dans le matériel, soit les applications ou les modes d’utilisation se traduit par
des évolutions des systèmes d’exploitation, qui en transmettent l’impact aux deux autres
domaines.

ccxxxiv
Fonctions et structure des systèmes d’exploitation

Pour bien comprendre l’importance des systèmes d’exploitation dans l’ensemble


de l’informatique, et les perspectives de leur évolution, il est nécessaire d’examiner un
peu plus précisément leurs fonctions et leur structure, et de définir certains termes
fréquemment utilisés.

Relation avec le matériel

Le premier rôle des systèmes est d’assurer la relation entre les autres programmes
et le matériel proprement dit. Les organes physiques de l’ordinateur savent exécuter un
répertoire d’opérations élémentaires commandées chacune par une instruction. Un grand
nombre des fonctions exécutées de façon fréquente dans les programmes demandent
l’exécution d’une séquence plus ou moins complexe d’instructions élémentaires qu’il
serait fastidieux de réécrire à chaque fois, ce qui constituerait en outre une source
d’erreurs. Ces séquences fonctionnelles sont donc codées une fois pour toutes et mises à
la disposition des programmeurs sous la forme de sous-programmes standard.

C’est ainsi qu’un programmeur peut faire appel à une fonction synthétique
« sauvegarder sur disque une zone de mémoire » en ne spécifiant que la zone de
mémoire concernée. Le sous-programme standard se chargera de mesurer la place
nécessaire, de localiser sur disque un emplacement libre de taille suffisante, d’y
positionner la tête d’écriture, de copier le contenu de la mémoire désignée, de relire
cette zone du disque en la comparant à l’original afin de vérifier l’exactitude de la copie,
de recommencer en cas d’erreur à un autre emplacement du disque, de signaler enfin au
programme que l’opération a été correctement effectuée, en indiquant l’endroit du
disque où l’information a été copiée, pour permettre de la retrouver ultérieurement.

Le système d’exploitation remplace ainsi les fonctions élémentaires du matériel


par des fonctions plus synthétiques et plus proches du mode de pensée des
programmeurs et des utilisateurs. Cette médiation permet en particulier de définir pour
une même unité physique différentes formes d’utilisation, par exemple différentes
organisations de fichier. A l’inverse, il est possible de définir des fonctions qui peuvent
s’exécuter indifféremment sur des unités physiquement différentes, par exemple un
sous-programme d’impression dont le résultat sera temporairement orienté vers un
fichier disque si l’imprimante n’est pas disponible. Un tel programme devra être
complété par une fonction qui surveille en permanence l’état de l’imprimante, et qui
relit automatiquement le fichier pour l’imprimer dès que l’imprimante est libérée.

On voit sur cet exemple que le système d’exploitation a une autre fonction
fondamentale, celle de tenir à jour en permanence en mémoire des tables qui
représentent une image de la machine et de l’état de ses différents constituants, et de
réagir automatiquement de façon appropriée aux changements d’état. Ces fonctions
utilisent généralement un système d’interruptions par lequel chaque organe de
l’ordinateur peut interrompre le traitement en cours pour signaler un événement le
concernant. C’est cette image de l’ordinateur, élaborée par le système, qui est utilisée
par l’ensemble des programmes.

ccxxxv
Cette démarche est utilisée en particulier pour gérer les interactions avec les
utilisateurs dans les systèmes qui permettent un dialogue direct avec l’ordinateur. Les
actions de l’usager, qui peuvent être menées indépendamment du déroulement du
programme en cours, sont reflétées dans les tables descriptives de l’état de l’ordinateur
et peuvent être signalées au programme. A l’inverse, la présentation du travail en cours
est assurée par des sous-programmes qui transforment les commandes fonctionnelles du
programme en ensembles de points coloriés affichés sur l’écran. Ces fonctionnalités
d’entrée et de sortie définissent la forme et le style du dialogue entre la machine et ses
utilisateurs.

Au total, en créant une image synthétique de l’ordinateur et en offrant un


répertoire de fonctions de haut niveau, le système d’exploitation définit à l’intention des
programmeurs et des utilisateurs une machine abstraite ou « virtuelle » qui d’une part
simplifie leur tâche et d’autre part isole dans une partie spécifique du logiciel les
incidences de la variété et de l’évolution des matériels. L’évolution de la périphérie peut
ainsi être dissociée de celle du système central, et à la limite modifier la composition,
les fonctions et le répertoire d’instructions du matériel peut laisser inchangé le reste du
système pour autant que la couche de logiciel liée au matériel soit aisément modifiable.

Contrôle de l’exécution des programmes

Un deuxième rôle des systèmes d’exploitation est d’assurer l’ordonnancement et


la surveillance des tâches confiées à l’ordinateur. Au temps où les ordinateurs ne
savaient exécuter qu’une chose à la fois et où leur temps était coûteux, il fallait
minimiser le temps de passage d’un travail à un autre, pendant lequel l’ordinateur était
immobilisé de façon improductive. Une des premières fonctions des systèmes a donc été
d’automatiser l’exploitation en assurant la mise en place automatique des travaux
successifs, préalablement préparés hors de la salle ordinateur. A cet effet, le système
devait en particulier gérer la mise en place des supports amovibles comme les bandes
magnétiques ou les papiers d’impression, charger en mémoire et lancer les programmes,
et surtout être capable de traiter automatiquement les incidents éventuellement
rencontrés en cours d’exécution.

Pour le développeur ou l’utilisateur d’un programme, la machine n’apparaît plus


comme une simple collection d’unités physiques qui se présentent en quelque sorte nues
à chaque application, mais comme un ensemble organisé doté a priori de fonctionnalités
globales, et contenant de nombreux éléments rémanents tels que des bibliothèques de
programmes généraux sur disques et des fichiers privés appartenant aussi bien à
d’autres propriétaires. C’est le système d’exploitation qui doit alors gérer ces éléments,
donner à chaque utilisateur accès aux éléments qui le concernent et à eux seuls, et les
protéger des actions volontaires ou involontaires des autres utilisateurs. A ces fonctions
se rattachent la gestion des utilisateurs et de leurs autorisations, la comptabilité, etc.

Avec la multiprogrammation, c’est à dire la possibilité pour plusieurs


programmes de résider simultanément en mémoire et de se partager les ressources de la
machine, le système d’exploitation reçoit en plus la charge d’affecter dynamiquement
chacune de ces ressources à chacun des programmes, tout en les protégeant des
interférences des autres programmes. On voit ainsi apparaître dans les systèmes tout un

ccxxxvi
ensemble de fonctions qui sont externes aux applications par nature, et non plus par
commodité comme pour celles qui faisaient l’objet de la section précédente.

Assistance aux utilisateurs

Chacun des programmes destinés à être exécutés sur un ordinateur, qu’il s’agisse
d’applications ou de fonctions utilitaires, vient ainsi s’insérer à l’intérieur d’une
structure prédéfinie formée par le système d’exploitation. Ces programmes s’exécutent
comme des sous-programmes du système d’exploitation. Ils doivent respecter un certain
nombre de conventions propres à celui-ci et peuvent s’appuyer sur une bibliothèque de
sous-programmes qui incarnent par ailleurs ces conventions. Pour le programmeur, le
système se présente comme une collection de fonctions qu’il peut mettre en œuvre à
travers des conventions d’appel généralement appelées des API pour « Application
Programming Interface ».

Ces API regroupent les instructions qui donnent accès à toutes les fonctions du
système utilisables pour l’écriture d’applications, organisées en grandes familles selon
le domaine couvert : gestion de la mémoire, gestion de l’impression, gestion des
fichiers, communication entre programmes, communications avec l’utilisateur, etc. Elles
forment un langage doté de sa syntaxe et de sa sémantique, qui constitue une façon
naturelle de représenter des fonctions d’intérêt général, même si en toute rigueur elles
ne se rattachent pas aux fonctions classiques d’un système d’exploitation au sens strict.
C’est ce langage que produisent et manipulent les différents programmes d’aide au
développement tels que les traducteurs de langages de haut niveau (Cobol, Fortran,
Pascal, C, …).

Du point de vue de l’utilisateur, les API définissent les modalités de sa relation


avec l’ensemble du système. En effet, toutes les applications qui utilisent l’API standard
de dialogue avec l’utilisateur mettront en œuvre les mêmes constructions et conventions
de présentation (fenêtres, boîtes de dialogue, menus, …) et répondront aux mêmes
actions comme cliquer avec la souris, mettre une zone en surbrillance, etc. De plus, le
système d’exploitation fournit directement à l’utilisateur des fonctions générales comme
la gestion de fichiers, la gestion de la configuration, une variété de transferts
d’information, l’utilisation de l’horloge, etc.

Variété et structure

Bien que répondant en gros à la description qui précède, les systèmes


d’exploitation existants sont différents selon leur origine. Les constructeurs généralistes
ont tous développé pour leurs matériels des systèmes d’exploitation propres, et souvent
plusieurs selon la famille de matériel et le type d’utilisation. Certains utilisateurs, tels
les grands laboratoires et les universités, ont également écrit des systèmes
d’exploitation, que ce soit pour satisfaire leurs besoins propres ou dans le cadre de
projets de recherche en informatique. Enfin, plus récemment, des entreprises
indépendantes comme Digital Research ou Microsoft ont mis sur le marché des
systèmes d’exploitation pour micro-ordinateurs.

ccxxxvii
Les limites externes de ces systèmes, c’est à dire leur contenu fonctionnel, varient
de système à système. Chacun d’entre eux est d’ailleurs distribué sous la forme d’un
noyau plus ou moins riche qui constitue le système d’exploitation proprement dit, et
d’une collection de programmes utilitaires indépendants dont certains peuvent être
rangés parmi les applications. Où s’arrête par exemple la gestion des données ? Doit-
elle se borner à la gestion des fichiers en tant qu’entités globales opaques, permettre un
accès élémentaire aux enregistrements individuels qui les constituent ou aller jusqu’à la
gestion de structures complexes de bases de données ? De même, quelles fonctions de
gestion des textes, des images et des sons doivent figurer respectivement dans la base du
système, dans les utilitaires ou dans les programmes d’application ?

Pas plus la frontière entre système d’exploitation et programmes utilitaires que


celle entre programmes utilitaires et applications n’est définie de façon précise. Elles ne
résultent que de la décision des auteurs de systèmes d’inclure ou non telle ou telle
fonction dans leurs produits. Par exemple, le système Windows contient deux
programmes simples de traitement de textes et un compilateur de langage Basic, alors
que les traitements de texte plus complexes comme Word et tous les autres traducteurs
de langage sont vendus séparément en tant qu’applications.

Pour les fonctions qui sont présentes dans plusieurs systèmes, elles sont réalisées
de façon différente, et en particulier leurs conventions d’appel par les programmes
utilisateurs (les API) sont différentes. Un programme écrit pour un système
d’exploitation ne peut donc pas s’exécuter sur un autre, même si les deux systèmes
résident sur la même machine, et a fortiori sur des machines différentes. De plus, le
contenu fonctionnel des systèmes, la répartition des fonctions entre les différentes
couches, voire la forme des API, évoluent dans le temps pour un même système par
suite de son enrichissement progressif, si bien que les programmes d’application
doivent parfois être modifiés pour continuer à fonctionner sur les nouvelles versions des
systèmes.

La situation est tout aussi variée en ce qui concerne la structure interne. Un


système d’exploitation est un édifice complexe dont la construction exige une
organisation interne rigoureuse, qui est nécessaire pour permettre la répartition du
travail de développement, l’intégration, les tests et l’évolution ultérieure.

L’approche traditionnelle est de découper le système en grandes fonctions


correspondant aux divers domaines des API externes, et de décomposer chaque fonction
en couches selon leur proximité relative du matériel et de l’utilisateur Chaque couche ne
peut communiquer qu’avec la couche immédiatement inférieure, c’est à dire plus proche
du matériel, et la couche immédiatement supérieure, c’est à dire plus proche de
l’utilisateur. Les couches les plus externes incarnent donc explicitement les API et les
conventions de communication avec l’extérieur, tandis que les couches les plus
profondes sont seules en relation directe avec le matériel, et se fusionnent en un noyau
de fonctions de base utilisé par les couches les plus basses de tous les sous-systèmes.
Un exemple classique est celui des systèmes de communication (SNA défini par IBM en
1974, puis le modèle normalisé ISO), qui comportent tous deux sept couches.

Mais si on excepte les rares cas où le système respecte une norme externe, la
définition des sous-systèmes et de leurs couches est de la responsabilité du producteur

ccxxxviii
du système et répond à ses propres conceptions et à ses propres objectifs de commodité.
Cette structuration implique également des arbitrages entre performances et pureté
structurelle. En effet, si la rigueur commande de respecter scrupuleusement les
contraintes de construction, la performance demande souvent de les transgresser, par
exemple en court-circuitant des couches intermédiaires dans un sous-système ou en
laissant les sous-systèmes communiquer entre eux aux niveaux intermédiaires. Dans la
réalité, non seulement la structure du système est propre à chaque offreur, mais elle reste
complexe et embrouillée, en permettant plus ou moins à chaque module fonctionnel
d’utiliser tous les autres. Loin d’être un édifice harmonieux, le système forme un bloc
opaque pour tout autre que ses concepteurs, et qui reste difficile à intégrer et à faire
évoluer, même pour ces derniers.

Notion de « système ouvert »

Il est tentant de profiter de la place centrale qu’occupe le système d’exploitation


entre le matériel et ses divers utilisateurs pour lui faire jouer un rôle fédérateur qui
permettrait à tous les programmes d’application de fonctionner sur tous les matériels. Il
suffirait pour cela que tous les auteurs de systèmes s’entendent sur une définition
commune des API, c’est à dire sur une standardisation de la machine virtuelle que
définissent chacun des systèmes. L’ensemble des primitives de programmation utilisées
par les développeurs deviendrait alors indépendant du matériel, et il reviendrait aux
systèmes d’exploitation de réaliser cet ensemble commun de fonctions de façon
appropriée aux spécificités des composants matériels. On profiterait ainsi de la plasticité
du logiciel pour lui faire absorber les différences entre matériels.

Cette ambition est celle des promoteurs des systèmes dits « ouverts », dont les
buts principaux sont de permettre la « portabilité » et l’« interopérabilité » entre
systèmes différents. La notion de portabilité concerne non seulement les programmes,
pour lesquels elle signifie qu’ils peuvent être exécutés indifféremment par plusieurs
systèmes, mais aussi les informations, qui doivent pouvoir être écrites par un
quelconque des systèmes et lues par tous les autres, ainsi que les compétences
nécessaires aux utilisateurs, qui ne doivent pas différer selon le système qu’ils utilisent.
La notion d’interopérabilité signifie que deux systèmes différents doivent pouvoir
communiquer entre eux en s’échangeant les informations nécessaires pour fonctionner
ensemble de façon harmonieuse.

En toute rigueur, l’approche de standardisation des API décrite ci-dessus exigerait


de définir de façon rigoureuse l’emplacement de la frontière entre le système
d’exploitation et les applications. Nous avons vu qu’une telle définition serait largement
arbitraire et perpétuellement remise en question. Une solution est d’appliquer la même
démarche de normalisation à l’intérieur même du système, en définissant une structure
normalisée et des interfaces internes normalisées pour les principales fonctions
constitutives. Un système « ouvert » est donc également un système modulaire
conforme à une structure standard. Ceci rend théoriquement possible le remplacement
d’un sous-système standard par un autre, que ce soit dans le cadre de l’évolution
normale du système ou dans celui d’une concurrence entre offreurs qui porterait sur
chacun des sous-systèmes.

ccxxxix
On devine que la mise en œuvre du concept de systèmes ouverts porte en germe
des conséquences potentiellement importantes pour la structure de l’industrie
informatique. Rendre les applications et les progiciels indépendants du matériel, et
permettre à tous les matériels de s’intégrer dans tous les systèmes, achève de dissocier
l’industrie en secteurs spécialisés par nature d’offre et type d’unité, et accélère le
passage d’une industrie de type traditionnel dominée par les généralistes au type PC
dominé par les spécialistes. Rendre tout élément compatible avec tous les autres élargit
le marché potentiel de chacun et favorise la dispersion de chaque secteur. Enfin, faire
éclater le système d’exploitation en composants standard donc développables
indépendamment peut conduire à l’éclatement de ce secteur et à un affaiblissement des
forces de concentration.

Donc, même si la question de la normalisation se concentre dans le domaine du


progiciel, ses enjeux touchent l’ensemble de l’industrie informatique. C’est pourquoi
nous allons consacrer une partie de ce chapitre à l’analyse des mécanismes et les aspects
économiques de la normalisation.

Standardisation, innovation et concurrence

Normes et standards

Précisons d’abord quelques définitions. Retenons, comme IBM pour le système


360, le terme d’« architecture » pour désigner un ensemble de conventions destinées à
permettre à des produits développés indépendamment de fonctionner ensemble. Une
architecture peut être interne à une firme productrice ou concerner les relations entre la
firme et les utilisateurs de ses produits. Par exemple, l’architecture 360 était l’ensemble
des conventions permettant aux utilisateurs de développer des programmes exécutables
sur les matériels de cette gamme IBM. Les architectures sont généralement définies
unilatéralement par les producteurs. Vis à vis des tiers, elles rendent possible
l’utilisation des produits et le raccordement de produits complémentaires. En interne,
elles permettent la distribution du travail entre les unités de l’entreprise et constituent
des standards internes pour les développeurs.

Un standard est un ensemble de conventions architecturales auxquelles se


conforment des firmes productrices indépendantes, agissant chacune dans son propre
intérêt. En définissant des standards, les acteurs dominants cherchent à favoriser
l’existence d’offres complémentaires qui rendront leurs produits plus attractifs. Celui
des acteurs secondaires peut être de profiter du leadership des acteurs dominants pour
faciliter la vente d’offres complémentaires, mais aussi d’offrir des produits directement
concurrents conformes à l’architecture de l’acteur dominant. La conformité à un
standard commun permet à des produits développés indépendamment dans des
domaines différents de fonctionner ensemble, par exemple les périphériques et les unités
de calcul, ou encore les microprocesseurs et les systèmes d’exploitation. Les standards
servent en particulier de base pour des développements nouveaux, mais peuvent aussi
servir de spécification commune à la réalisation de produits concurrents.

ccxl
L’existence d’un standard suppose une instance de définition de l'architecture, qui
peut être simplement une firme dominante ou un organisme formé à cet effet par les
firmes intéressées. Le respect d’un standard est une décision prise librement et selon son
propre intérêt par chacune des firmes productrices.

Un standard devient une norme quand il est soutenu par une autorité distincte des
entreprises concernées, qui lui confère un caractère obligatoire en disposant de moyens
de pression pour la faire respecter. Les normes sont généralement promulguées au nom
de l’intérêt de l’utilisateur afin d’assurer à la fois sa liberté de choix et la pérennité de
ses investissements.

Standardisation et concurrence

Les produits ou services qui composent chacun des secteurs particuliers, et qui
sont par hypothèse substituables entre eux dans chaque secteur, peuvent être soumis à
des standards ou des normes. Insistons sur le fait évident que l’activité de production de
standards et l’activité de production de produits conformes au standard sont deux
activités distinctes. Les entreprises ne gagnent pas d'argent en vendant des standards,
mais en vendant des produits qui peuvent être plus ou moins conformes aux standards,
ou au contraire devenir la définition des standards si le marché les plébiscite.

Même dans les secteurs soumis à une forte normalisation, les différents offreurs
sont en concurrence et cherchent par définition à se différencier les uns des autres pour
obtenir un avantage concurrentiel qui leur attire la faveur du marché. Or se conformer à
des standards élimine des possibilités de différenciation. Etant donné que les standards
portent le plus souvent sur les spécifications fonctionnelles externes des produits, la
normalisation déplace le champ de la concurrence vers les prix et les modalités de
réalisation, et non plus les fonctionnalités elles-mêmes ou les modalités de leur
utilisation. Tout progrès étant le fruit de la concurrence, la normalisation tend donc à
ralentir voire figer le progrès dans la définition des fonctions qu’elle concerne, et à
l’orienter vers la recherche de meilleures performances et d’une meilleure fiabilité au
moindre coût.

On voit que le moment où intervient la standardisation dans la vie d’un produit


revêt une importance cruciale. Trop tardive, elle laisse de la place pour le gaspillage en
permettant les expérimentations inutiles et les innovations futiles, et elle induit un coût
d’incompatibilité entre produits tant pour les offreurs que pour les utilisateurs.

A l’inverse, une standardisation – et a fortiori une normalisation – prématurée a un


effet stérilisant pour le secteur. Elle peut conduire à des produits non viables dans la
mesure où tous les besoins n’ont pas été correctement pris en considération, et où les
solutions alternatives n’ont pas été suffisamment explorées. Dans le cas de normes
définies à l’initiative des utilisateurs ou de leurs représentants, les implications des
différentes alternatives, en termes pratiques de coût, de performances ou de
compatibilité avec d’autres domaines ou avec des développements à venir, sont souvent
insuffisamment analysées. Dans des domaines où l’évolution technologique est rapide et
où les besoins du marché ne sont pas connus avec précision, une période
d'expérimentation concurrentielle est un préalable nécessaire à l’établissement de

ccxli
standards. Le meilleur standard est celui qui se dégage spontanément de l’interaction
entre les offreurs et le marché à l’issue de cette période.

L‘existence d’’un standard a plusieurs effets sur le ou les secteurs auxquels il


s’applique. Premièrement, la standardisation diminue les obstacles à l'entrée en
dispensant les candidats d’une partie des investissements nécessaires à la définition d’un
nouveau produit. Deuxièmement, elle facilite pour les clients le changement de
fournisseur en diminuant les coûts de transfert, et avive donc la concurrence bien
qu’elle ne puisse plus porter que sur certains points comme les performances, les prix et
la commodité d’utilisation. Ces deux effets concourent à accentuer le taux de dispersion
du secteur, et donc tendent à en diminuer la profitabilité potentielle et à augmenter
l'instabilité des positions des concurrents.

Les gagnants sont les clients, les candidats à l'entrée et dans une certaine mesure
les offreurs secondaires qui voient les avantages concurrentiels des leaders s’effriter.
Les perdants sont les leaders établis du secteur. Dans le cas favorable où ce sont leurs
produits qui ont servi de base aux normes, les avantages concurrentiels qu’ils tiraient de
leur définition même disparaissent, et ils doivent pour conserver leur position
rechercher d'autres avantages reposant sur des économies d'échelle, des technologies
protégées ou un meilleur savoir-faire. Si les normes retenues sont différentes des
spécifications de leurs produits, ils sont face à un choix de toute façon coûteux : ou bien
se conformer aux normes, et pour cela supporter en plus les investissements de
développement de nouveaux produits, ou bien entrer en concurrence avec les produits
normalisés, tout en tentant de faire évoluer les standards dans un sens qui leur soit
favorable.

Insistons sur le fait qu’un offreur dominant n’a intérêt à ce que ses produits
deviennent des standards que s’il dispose d’autres avantages concurrentiels suffisants
pour conserver sa part de marché dans le secteur soumis au standard malgré
l’abaissement des obstacles à l’entrée. Autrement, l’effet de la standardisation est de lui
susciter des concurrents plus nombreux et plus agressifs, tout en augmentant le pouvoir
relatif des clients, deux facteurs qui ne peuvent que réduire à la fois ses marges et sa
part de marché. A l’intérieur des entreprises, les techniciens peuvent rechercher une
satisfaction d’amour-propre à travers la reconnaissance de leurs produits sous forme de
standard ou de norme ; les stratèges sont beaucoup plus circonspects et évitent de
solliciter ce cadeau empoisonné.

La production des standards

Dans une industrie comme l’informatique, des standards se développent


naturellement sans que l’action d’une autorité extérieure soit nécessaire. Tout
producteur adopte implicitement pour ses produits une ou des architectures qui
définissent au minimum les relations entre fournisseur et client, et simultanément
permettent à d’autres fournisseurs d’offrir des produits complémentaires dont
l’existence rendra l’offre plus attractive pour le marché. Les producteurs d’offres
complexes et variées sont également amenés à définir des architectures internes qui ont
pour effet de subdiviser leur offre en produits distincts afin de pouvoir les développer et
les gérer indépendamment les uns des autres. Ces produits peuvent être aussi bien des

ccxlii
composants logiciels distincts dans un système que des unités matérielles distinctes dans
une machine.

Si ces éléments, entre lesquels l’architecture définit des interfaces standardisés,


peuvent être non seulement produits, mais aussi commercialisés séparément, la
définition d’une architecture permet à des spécialistes d’entrer en concurrence avec le
producteur principal pour chacun des composants, tout en étant assuré que ces
composants s’intégreront efficacement dans l’offre globale. Pour ces offreurs de
« compatibles », le marché potentiel est d’autant plus grand que l’architecture à laquelle
ils se réfèrent est plus répandue. En résolvant le problème de développement que lui
pose la complexité de son offre, le fournisseur de produits complexes crée donc les
conditions de l’éclatement de son secteur en sous-secteurs spécialisés. L’architecture
définie par ce fournisseur devient alors un standard pour l’ensemble de ces sous-
secteurs. C’est ce qui s’est passé par exemple au début des années 70 après qu’IBM a
introduit sur le marché l’architecture 360.

Nous avons vu que les secteurs concentrés se caractérisent par une grande
inégalité des parts de marché. Dans un secteur structurellement concentré, c’est à dire
qui n’est pas susceptible d’éclater, le produit de l’offreur dominant constitue un standard
de fait par sa diffusion majoritaire sur le marché, et aussi par l’existence de produits
compatibles ou « clones ». Dans un tel secteur, il serait fort peu probable que la firme
dominante, avec ses 60 à 80% du marché, accepte de négocier avec ses challengers pour
établir une norme commune qui ne serait pas en tout point conforme aux spécifications
de ses propres produits. Une standardisation consensuelle est donc pratiquement exclue.

En revanche, les standards de fait définis unilatéralement par l’offreur dominant


de chaque secteur concentré s’appliquent aussi aux secteurs connexes qui utilisent leurs
produits. Des firmes appartenant à des secteurs différents et qui ne sont donc pas en
concurrence directe pourraient avoir intérêt à se concerter pour établir des standards
communs. Mais Porter nous a enseigné (voir Chapitre 6) que les secteurs dispersés ont
peu d’influence sur les secteurs concentrés. Il est donc probable que les offreurs
dominants des secteurs concentrés imposeront unilatéralement leurs standards aux
secteurs connexes s’ils sont dispersés, et que la concertation en vue de l’établissement
de normes communes se limitera aux leaders des secteurs concentrés. C’est ainsi que
Intel impose ses standards aux assembleurs de matériels, mais négocie des standards
communs avec Microsoft.

La position privilégiée de l’offreur dominant dans chaque secteur concentré lui


impose en retour des responsabilités vis-à-vis des standards qu’il a lui-même créés.
D’une part, l’existence du standard favorise la concurrence de clones, et il serait
quelquefois tentant pour le leader d’utiliser ses ressources de développement pour
s’écarter du standard et acquérir des avantages concurrentiels pour tenter de rendre les
clones obsolètes. Mais l’offreur dominant s’aliénerait alors les utilisateurs et les offreurs
complémentaires, et offrirait ainsi un autre avantage concurrentiel aux offreurs de
clones, celui de la continuité. L’offreur dominant est donc condamné à respecter le
standard qu’il a créé, et à rechercher son avantage concurrentiel dans la réalisation des
produits qui dérivent de ce standard. Dans le passé, ce phénomène a conduit IBM à
abandonner son projet FS en 1975 (voir Chapitre 2). De nos jours, c’est ce qui contraint
toujours IBM à maintenir les architectures 360/370 et MVS même dans ses futurs

ccxliii
systèmes multiprocesseurs à base de PowerPC, et Intel à conserver l’architecture 80x86
dans les Pentium.

Les secteurs dispersés sont soumis aux standards pertinents des secteurs
concentrés connexes. Une éventuelle demande d’autres standards, qu’ils soient propres
au secteur ou qu’ils concernent l’interconnexion entre produits de secteurs dispersés
différents, ne peut être satisfaite que par une concertation explicite entre firmes. Cette
demande viendra d’ailleurs principalement des offreurs secondaires et des candidats à
l’entrée dans le secteur.

La définition de standards par consensus résulte d'une négociation aboutissant à


un accord entre partenaires indépendants, et qui conservent leur indépendance après que
le standard a été défini. Aucun comité ne peut contraindre un de ses membres à agir
contre ses intérêts. Chaque participant peut se retirer de la discussion à tout moment, et
conserve la liberté de ne pas se conformer aux standards qui en résultent. Or chacun
arrive à la table de négociation avec sa propre conception de ses intérêts. Si la
discussion recherche le consensus, elle progressera trop lentement pour les participants
pressés et les compromis risqueront d’aboutir à un résultat médiocre qui en détournera
les plus exigeants. Si par contre elle vise un résultat rapide, elle devra sans doute laisser
de côté un certain nombre d’objections et d’expérimentations, ce qui conduira
probablement les firmes les plus sérieuses à s’en désolidariser. Dans un cas comme dans
l’autre, le processus peut conduire à la formation de groupes concurrents défendant des
standards différents. La voie du consensus est semée d’embûches et son issue est
incertaine. Même un accord unanime ne garantit pas la qualité du standard qui en
résulte, dont l’adoption reste soumise à la décision du marché.

Une autorité extérieure à la collectivité des fournisseurs peut intervenir pour


forcer l’adoption d’un standard ou promulguer une norme. L’existence de standards et
leur respect, indépendamment même de leur qualité, est bien évidemment dans l’intérêt
des clients. La concurrence entre offreurs en est avivée, ce qui pousse à des
améliorations des produits et à une réduction de leurs coûts, l’éventail des choix de
produits et de fournisseurs en est élargi, et les investissements sont mieux protégés. Les
clients peuvent former des groupes de pression pour accélérer la normalisation ou
l’orienter dans un sens qu’ils considèrent comme favorable, mais il semble que leur
action n’a jamais eu pour résultat une normalisation trop hâtive, et qu’ils comprennent
implicitement le besoin d’une période d’expérimentation concurrentielle préalable.

Il arrive par contre que des normes soient promulguées par une autorité agissant
au nom de l’intérêt des utilisateurs, ou se réclamant d’eux pour d’autres motifs de
politique industrielle par exemple. Si l’organisme de normalisation ne fait qu’accélérer
ou faciliter le processus naturel de standardisation, et entériner ses résultats, son action a
toutes chances d’être bénéfique. Elle peut devenir néfaste si elle aboutit à une
standardisation prématurée ou si elle a pour objectif de s’opposer à des standards de fait.

Un exemple du premier cas est celui de Cobol, où le premier langage venu a été
promulgué comme norme et adopté de façon générale faute d’alternative, tarissant tout
développement en matière de programmation de gestion et condamnant les
programmeurs à utiliser éternellement un outil rigide et mal commode. Dans le
deuxième cas, on trouve les cas où la normalisation est utilisée comme une arme de

ccxliv
politique industrielle pour s’opposer à un standard « naturel » de fait et donc lutter
contre les firmes qui représentent ce standard. Un exemple classique est celui du modèle
Osi pour l’architecture de réseaux, conçu dès le départ comme une alternative au
modèle SNA d’IBM, mais qui n’a jamais pu recueillir l’adhésion totale de l’industrie et
est en passe d’être supplanté par d’autres architectures plus performantes et plus en
phase avec les besoins actuels. Les efforts de normalisation autour d’Unix, dont nous
allons parler dans la suite, relèvent en grande partie de cette normalisation « de
combat ».

Fort heureusement, alors qu’un standard est par définition respecté par une
majorité, une norme peut ne pas être respectée ou rester minoritaire. Si une norme
officielle ne donne pas satisfaction, les offreurs continueront à rechercher des solutions
alternatives que le marché pourra consacrer comme standards indépendamment de la
norme.

La formation de standards est un processus évolutif. Les standards prématurés ou


non satisfaisants seront toujours contestés par des développements concurrents qui
seront autant de candidats à la standardisation. Même des standards largement suivis
seront un jour périmés par l’évolution des technologies et des besoins, et donc à leur
tour contestés. Certains offreurs adopteront des stratégies de différenciation en
s’écartant des standards majoritaires, et si leurs produits reçoivent un accueil
suffisamment favorable, ils pourront devenir à leur tour des candidats à la
standardisation. Bref, tant que nous ne serons pas dans un monde totalitaire normalisé,
les standards n’arrêteront pas d’évoluer et il existera toujours des standards concurrents
entre eux.

L’évolution des systèmes et la place d’Unix

Un système expérimental

Depuis leur origine vers la fin des années 50, les systèmes d’exploitation ont été
considérés comme associés à chacun des matériels. Certains types d’ordinateurs ont
même été dotés de plusieurs systèmes d’exploitation, soit pour des utilisations
différentes comme le traitement conventionnel, le temps partagé ou le traitement en
temps réel, soit pour des familles de configurations différentes. Dans le contexte
d’offres intégrées qui est celui de l’informatique jusqu’en 1981, les systèmes
d’exploitation sont produits par les constructeurs généralistes et commercialisés comme
partie intégrante du matériel. Il n’existe pas d’offreurs indépendants de systèmes
d’exploitation, et l’idée même d’un système universel commun à des matériels
différents ne s’est pas fait jour.

Certaines universités ou certains laboratoires ont néanmoins développé leurs


propres systèmes comme support d'enseignement et de recherche informatiques. C’est
en particulier le cas du système Unix des Laboratoires Bell de ATT, qui se propage dans
plusieurs universités américaines où il constitue un terrain d'études et d'expérimentation,
en même temps que la base de la formation des informaticiens. Unix n’est au départ

ccxlv
qu’une adaptation aux mini-ordinateurs du système Multics de General Electric . Son55

succès est dû pour une part à ses fonctions bien adaptées aux besoins des universités, et
surtout à sa disponibilité sous forme source dans un langage de haut niveau, le langage
C, à partir de 1973. Unix se prête donc bien à l’enseignement de la structure d’un
système d’exploitation et à l’expérimentation de fonctions et de méthodes de réalisation
nouvelles.

Pour fonctionner efficacement en tant que système de laboratoire commun dans


un milieu coopératif de type universitaire, Unix doit se conformer à un ensemble de
conventions qui permette le développement et l’expérimentation de modules nouveaux
ainsi que leur circulation entre les différents laboratoires, et facilite la communication
grâce à un langage et à des références communes. Ces conventions forment une base
solide de standards sur laquelle se greffent de nombreuses extensions ou réalisations
alternatives, donnant progressivement naissance à des versions concurrentes du
système.

La base d’un système standard ?

Parallèlement, le début des années 80 voit l’émergence des stations de travail


scientifiques. Quelques jeunes entreprises voient dans Unix un système à la fois déjà
familier aux utilisateurs de ce marché, disponible et non protégé par un constructeur,
conçu pour permettre une évolution facile et bénéficiant de la dynamique d'innovation
des centres de recherche les plus actifs. En quelque sorte, l’adopter permet aux
constructeurs de se reposer sur une source indépendante de logiciel de base pour
concentrer leurs efforts et leurs investissements sur le matériel. Unix devient donc le
système d’exploitation des stations de travail les plus innovantes, et la plupart des
grands constructeurs suivront en mettant à leur catalogue des dérivés d’Unix à côté de
leurs systèmes propres.

Commence alors un double conflit qui domine toute l’histoire d’Unix et persiste
encore aujourd’hui, et qui rend les considérations techniques inséparables de
considérations de politique industrielle. Premièrement, chacun des offreurs industriels
doit dans ses systèmes trouver le meilleur équilibre entre conformité aux standards et
différenciation concurrentielle. Deuxièmement, au niveau global, les exigences d’un
standard industriel sont souvent différentes de celles d’une plate-forme de recherche et
développement. Enfin, le processus de standardisation vise ouvertement à définir une
norme qui serait non seulement applicable à Unix en tant qu’un système parmi d’autres,
mais qui s’appliquerait à tous les systèmes et ferait d’Unix le standard des systèmes
d’exploitation. Cette volonté a priori d’établir une norme indépendante apparaît dès
1981 avec la création de Posix.

Ces ambiguïtés, ainsi que le nombre et la variété des acteurs impliqués, entravent
la progression vers des standards. De plus, ceux des acteurs majeurs qui possèdent un
avantage concurrentiel concernant Unix hésitent entre l’exploiter et y renoncer en
s’associant pleinement à la standardisation. C’est ainsi qu’en 1983, ATT, qui jusque là
avait permis une diffusion libérale d’Unix, réagit à sa vogue soudain en demandant des
redevances importantes. Les autres constructeurs intéressés créent alors en 1984
55 voir Chapitre 3

ccxlvi
l’organisation XOpen afin de promouvoir un système réellement ouvert et facilement
accessible. Des réactions du même type se produiront en 1988 avec la création de l’OSF
pour contrer une alliance entre Sun et ATT annoncée en 1987, et en 1994 par la création
du consortium Cose lorsque Microsoft mettra sur le marché son système Windows NT
qui intègre un grand nombre de caractéristiques d’Unix et vient le concurrencer sur son
terrain traditionnel. A chaque fois que l’un des acteurs prend une initiative qui pourrait
faire de lui l’acteur dominant, les autres parties intéressées font de la standardisation un
instrument de lutte explicite en créant des organes de normalisation « de combat ».

Poussés à la fois par l’absence d’un consensus sur les standards, par le besoin
concurrentiel de se différencier et par la qualité inégale des réalisations issues des
laboratoires universitaires, tous les constructeurs développent leur propre version
d’Unix qu’ils composent d'un assemblage particulier d'éléments standard et d'éléments
originaux. Entre les réalisations universitaires, les systèmes offerts par les constructeurs
et ceux proposés par des firmes spécialisées comme Santa Cruz Operation, on assiste à
une floraison de systèmes se réclamant tous d’Unix mais tous plus ou moins différents,
dont le nombre est estimé à environ une centaine. Cette diversité est d’ailleurs favorisée
par le fait que le nom Unix était encore récemment propriété d’ATT et ne pouvait pas
être utilisé par d’autres firmes. Puisque les développeurs de systèmes Unix devaient en
tout état de cause les appeler d’un autre nom, ils pouvaient aussi bien en faire autre
chose...

Le monde Unix est donc tout le contraire d'un monde standardisé. C'est au
contraire là que la concurrence spécifique aux systèmes d'exploitation est la plus
intense. Dans le monde traditionnel, l’idée même d’un système d’exploitation commun
à des matériels de fournisseurs différents est étrangère, et la concurrence sur les
systèmes s’éclipse derrière la concurrence sur les matériels. Dans le monde du PC, toute
l'industrie s'est rangée derrière MS-DOS et maintenant Windows, et la concurrence qui
subsiste dans le secteur des systèmes d’exploitation a pris la forme asymétrique
caractéristique des secteurs concentrés. La standardisation d’Unix est un processus qui
conduit au mieux à un espoir, pas un état de fait. C’est précisément parce que le besoin
de standards y est criant et qu'aucun offreur ne domine le marché que le monde Unix
consacre tant d'efforts à la standardisation.

Mais, l'innovation étant l'autre face de la concurrence, le monde Unix est le foyer
d'innovation privilégié pour le domaine des systèmes d'exploitation, où contribuent non
seulement les industriels spécialisés ou non, mais les laboratoires de recherche
universitaires ou autres. De plus, le niveau de puissance de la plupart des systèmes Unix
empiète à la fois sur le haut de gamme des ordinateurs personnels et sur la partie basse
de la gamme des grands systèmes. A la charnière de l'informatique traditionnelle et de la
microinformatique, le laboratoire Unix est idéal pour expérimenter des technologies qui
permettront la symbiose de ces deux mondes, ainsi que pour transférer de l’un vers
l’autre des technologies existantes.

Par exemple, Unix ne brillait à l’origine ni par sa convivialité, ni par ses


performances, ni par sa richesse en fonctions d’informatique de gestion, ni par la variété
des matériels supportés. Autrement dit, le choix d’Unix ne reposait nullement sur une
supériorité dans la satisfaction des utilisateurs autres que les universitaires. En revanche,
sa position de plate-forme expérimentale a fait que de très nombreuses extensions et

ccxlvii
améliorations ont été développées dans ces domaines et dans d’autres. Il existe
aujourd’hui dans le monde Unix tous les ingrédients nécessaires pour composer sur
cette base un système à la fois plus convivial que celui d’Apple (par exemple NextStep)
et plus riche en fonctions de gestion que les systèmes IBM pour grands systèmes.

C’est dans le monde Unix que prennent naissance les produits d’avant-garde qui
permettront le remplacement des grands systèmes par des complexes de systèmes ou de
microprocesseurs issus des micros, et donc la fusion des trois mondes traditionnel,
micro et Unix en un seul dont la structure industrielle et les paramètres prix-
performances seront ceux de la micro-informatique.

Le foisonnement de solutions alternatives qui caractérise le monde Unix se double


d’une volonté de standardisation intense et obstinée, qui complète la confrontation
concurrentielle et le choix spontané du marché, en l’accompagnant d’une comparaison
rationnelle entre les diverses solutions proposées pour chacun des problèmes
techniques. La conjonction de l’effort d’innovation et de cette volonté de
standardisation contribue à faire de la mouvance Unix le creuset où se forment les
standards qui s’appliqueront demain à toute l’industrie du progiciel.

Des intérêts différents

Il est naturel que dans ce monde foisonnant situé au confluent des intérêts des
utilisateurs, des développeurs d’applications, des producteurs de matériel et du monde
de la recherche, et qui concerne au premier chef les producteurs de progiciels, la volonté
de standardisation se heurte à des conflits d’intérêt entre les acteurs.

Les utilisateurs, et les firmes spécialisées dans le développement d’applications,


souhaitent disposer d’une base robuste et durable pour le développement d’applications.
Pour cela, ils demandent des standards couvrant tous les aspects des systèmes, et qui
soient incarnés dans des produits de qualité industrielle. En même temps, ils souhaitent
que ces standards puissent évoluer en incorporant toutes les nouveautés, en particulier
celles qui sont issues de la recherche basée sur Unix, sans compromettre la robustesse,
la généralité, la fiabilité ou la facilité d’utilisation des systèmes qu’ils utilisent.

Or, comme nous l’avons vu, un système de qualité industrielle ne peut être produit
que par une organisation industrielle, et les investissements nécessaires ne peuvent être
consentis que dans un espoir de profit. Un logiciel de qualité industrielle ne peut donc
être que payant. De plus, la loi à laquelle sont soumises les firmes industrielles est celle
de la concurrence, qui les contraint à chercher à se différencier. Dans un secteur aussi
dynamique que celui des systèmes d’exploitation, il est hautement improbable que
toutes les firmes en concurrence renoncent à se différencier par les fonctionnalités de
leurs produits pour se limiter à une concurrence par les performances, les prix et la
qualité.

Une firme industrielle ne peut pas se fier aveuglément à un standard extérieur.


Tant qu’il restera plusieurs firmes en concurrence dans les systèmes d’exploitation, elles
conserveront leur sens critique vis à vis des standards externes, en les respectant dans la
mesure où c’est leur intérêt, en s’en affranchissant dans le cas contraire, et à tout le
moins en cherchant à offrir mieux que ce qui est prescrit par les standards. On peut

ccxlviii
prédire qu’il n’existera jamais de système alliant une conformité absolue à un standard
extérieur avec une qualité industrielle incluant le support de toutes les configurations,
une fiabilité rigoureuse et une bonne documentation, une garantie de maintenance et
d’évolution, etc.

De leur côté, le monde de la recherche et les autres innovateurs demandent une


base commune de développement et d'échange qui soit indépendante des systèmes
« commerciaux » que proposent les industriels. Parmi les qualités des produits possibles
pour former cette base, ils privilégient la modularité et la clarté de la structure interne
plutôt que la performance et la fiabilité. Chacun d’entre eux demande à la fois des
standards généraux pour ce qui est hors de son domaine de recherche et une totale
liberté à l’intérieur de ce domaine. Puisque la raison d’être de ces équipes est d’enrichir
le système de base, il existera toujours plusieurs versions du système de référence Unix,
dont chacune sera en avance sur certains points par rapport à tous les systèmes
industriels, en ce sens qu’elle contiendra des fonctions absentes de ces derniers. Les
chercheurs préféreront toujours ne pas se lier à un industriel, et donc utiliser un système
de référence distinct, au point que si d’aventure un industriel adoptait une version
d'Unix comme offre commerciale, le monde de la recherche s'en détournerait pour
adopter une autre référence.

Unix et les systèmes industriels jouent ainsi des rôles définitivement différents et
coexisteront toujours. Le premier sert de cadre à une activité de R&D indépendante ou
universitaire qui restera toujours un facteur fondamental de progrès. Les seconds visent
à satisfaire les besoins concrets du marché tout en tirant parti, de façon différenciée et
sélective, des progrès réalisés dans le monde Unix. Entre d’une part le monde Unix, à la
fois système de référence pour l’innovation et idéal inaccessible pour la normalisation,
et d’autre part le monde prosaïque des systèmes industriels concurrents, s’établit un
équilibre dynamique mouvant qui a toutes chances de se perpétuer tant que demeurera
un potentiel de progrès dans le logiciel, c’est à dire aussi loin que l’on puisse voir.

Du côté de l’offre industrielle, il convient de distinguer entre l’utilisation de la


marque Unix comme bannière promotionnelle et d’Unix comme véritable système. Les
industriels qui se réclament aujourd’hui d’Unix le font parce que c’est une façon de se
différencier, et justement parce que ce n’est pas le standard de fait. Si Unix devient un
jour un véritable standard respecté par la majorité des offreurs, il deviendra comme tous
les standards un facteur de dispersion du secteur et de limitation de la profitabilité, et les
industriels devront chercher d’autres voies de différenciation. Autrement dit et de façon
apparemment paradoxale, pousser à la normalisation n’est dans l’intérêt des offreurs
établis que tant que Unix est minoritaire sur le marché et reste de ce fait un facteur de
différenciation.

Le futur immédiat

Jusqu’à présent, le monde Unix est resté séparé du reste de l’informatique car
s’appuyant essentiellement sur des familles de processeurs différents rangés sous la
bannière Risc. Cette séparation est remise en question par la fusion des mondes Intel et
Risc annoncée par le Pentium et le PowerPC, qui mènera à l’élimination progressive de
la plupart des architectures Risc actuelles (voir Chapitre 7).

ccxlix
Il existe d'ores et déjà plusieurs versions d'Unix tournant sur les processeurs Intel
caractéristiques du monde PC, dont Xenix de Microsoft et Solaris de Sun, mais leur
diffusion est confidentielle en regard de la diffusion de MS-DOS et Windows. A
l'inverse, Digital Equipment a récemment fait entrer les processeurs Risc dans la
concurrence des PC en offrant un PC sous MS-DOS/Windows équipé de son processeur
Alpha.

L’événement qui inaugure la fusion des mondes PC et Unix en matière de


systèmes d'exploitation a été le lancement par Microsoft de Windows NT au début de
1993. Ce système est destiné à fonctionner aussi bien sur processeurs Risc que sur
processeur Intel, tout le code lié à un processeur particulier étant regroupé dans une
couche de logiciel facilement interchangeable. Il peut recevoir des programmes
d'application écrits pour Unix comme pour MS-DOS et Windows, à travers des
interfaces applicatifs (API) appropriés. Il peut fonctionner en réseau avec des systèmes
Unix, en respectant les normes d'interopérabilité définies par XOpen et l'OSF. Enfin, il
incorpore beaucoup de fonctions jusque-là propres à Unix, en particulier le
multiprocessing symétrique.

Windows NT, et ses dérivés présents et futurs, est non seulement un successeur de
Windows, mais devient une alternative raisonnable à des systèmes Unix, y compris pour
des systèmes à base de processeurs Risc et pour des configurations haut de gamme
destinées à s'insérer dans une architecture client-serveur ou utilisant des
multiprocesseurs. Comme pour les composants, le secteur des systèmes Unix et celui
des systèmes d'exploitation pour PC, jusque là essentiellement disjoints, sont en train de
fusionner.

La fusion de ces deux secteurs implique que, comme pour les processeurs, la
dynamique concurrentielle de concentration va maintenant jouer dans un segment de
marché unique allant des PC aux systèmes Unix. Pour de tels progiciels l'échelle
optimale de production est de quelques millions, donc notablement inférieure à la taille
du marché, ce qui laisse la place pour un certain nombre d'offres concurrentes. Il faut
donc s'attendre à voir des entrepreneurs de type industriel, comme Microsoft, Novell ou
IBM, offrir des systèmes d'exploitation concurrents dont la qualité ne laissera que peu
de place à ceux qui seraient développés par des amateurs même géniaux, ou par des
comités même animés des meilleures intentions.

Comme Windows NT ou Unixware, ces différents systèmes chercheront à se


différencier par leur catalogue de fonctions, leur convivialité, leurs performances, leur
fiabilité, etc. Mais dans le même temps ils viseront le plus large marché possible en
respectant les interfaces applicatifs standard et les normes d'échange de données, ainsi
qu'en pouvant s'exécuter sur tous les processeurs du marché.

Pour atteindre ces objectifs, tous puiseront dans le laboratoire d'idées que
constitue le mouvement Unix et respecteront les normes qui, en sont issues, mais sans
pour autant se priver de développements originaux propres. Dans ce secteur des
systèmes d'exploitation, devenu autonome aussi bien par rapport à celui des composants
que par rapport à celui des matériels, la concurrence ne se jouera pas entre Unix et les
autres, mais entre systèmes se réclamant tous plus ou moins d'Unix et comprenant tous
une part variable de modules originaux (pour ne pas dire « propriétaires »).

ccl
Les firmes qui offrent des systèmes d’exploitation se réclamant d’Unix sont pour
la plupart des firmes conformes au modèle de l’informatique traditionnelle par
opposition au modèle PC, c’est à dire qui offrent également leur propre matériel, soit
construit à partir de processeurs Risc particuliers comme Sun, Silicon Graphics, Digital
Equipment ou Hewlett-Packard, soit à partir de processeurs du commerce pour les
nouveaux convertis comme Unisys. Sur le segment des systèmes d’exploitation, ces
firmes vont de plus en plus être concurrencées par les spécialistes des progiciels (non
nécessairement Unix) que sont Microsoft, Novell, Santa Cruz Operation, ou les futurs
rejetons spécialisés d’IBM ou Apple.

Les « généralistes Unix » se trouveront alors confrontés au choix suivant : ou bien


continuer à développer leur propre système d’exploitation, ou y renoncer et se
concentrer sur le matériel. Le premier terme de l’alternative – continuer – suppose qu’ils
disposent dans ce secteur d’avantages concurrentiels, alors qu’il leur sera difficile
d’offrir la même qualité et les mêmes prix que Microsoft ou son suivant immédiat à
cause de l’effet d’échelle. L’intérêt de cette option peut être d’utiliser le système comme
facteur de différenciation, mais ceci va à l’encontre de la normalisation.

La concurrence croissante de firmes spécialisées, pour lesquelles la spécialisation


est justement la source d’avantages concurrentiels, fera apparaître de façon critique les
problèmes de cohabitation entre activités. Le développement de systèmes logiciels
implique une échelle de production très supérieure à celle des matériels et fonctionne
selon des cycles longs, ce qui oblige à reconnaître des personnalités d’entreprise
différentes et pousse à l’éclatement des firmes mixtes. Les généralistes qui opèrent
aujourd’hui sous la bannière Unix, seront, comme leurs modèles plus anciens, contraints
de dissocier l’une de l’autre leurs activités de matériel et de progiciels et d’offrir leurs
systèmes d’exploitation de façon séparée.

Nous reprendrons cette problématique dans le Chapitre 14 pour conclure que,


comme c’est déjà le cas dans le monde PC, les systèmes d’exploitation deviendront
progressivement l’affaire d’entreprises spécialisées constituant un secteur autonome
distinct de structure concentrée, et en particulier fortement inégalitaire en termes de
parts de marché. A travers cette évolution, les niveaux de prix et les pratiques de
commercialisation convergeront vers les pratiques caractéristiques du monde PC.

Perspectives

La structure industrielle de l’offre des systèmes d’exploitation est encore très


hybride. On y trouve juxtaposés les généralistes traditionnels qui offrent encore leurs
systèmes propres liés aux matériels, les firmes spécialisées du monde PC qui profitent
de la montée en puissance des micro-ordinateurs pour entrer en concurrence avec les
généralistes, et tout un complexe d’offreurs de taille et de natures différentes regroupés
autour de la bannière d’Unix et de l’idéal des systèmes ouverts.

Nous avons vu que les généralistes seront probablement contraints de dissocier


l’une de l’autre leurs activités de matériel et de logiciel. De ce fait, tout cet ensemble
hétérogène s’organisera progressivement, dans les quelques années qui viennent, en un

ccli
macro-secteur des systèmes d’exploitation indépendant, détaché de celui du matériel et
dominé par des spécialistes du progiciel comme c’est déjà le cas dans le monde PC.

Comme le progiciel en général, le macro-secteur des systèmes d’exploitation sera


constitué d’un continuum de sous-secteurs communiquant entre eux. A un extrême,
celui des systèmes industriels complets aura toutes les caractéristiques d’un secteur
fortement concentré, où un petit nombre de firmes, se comptant sur les doigts d’une
main, se répartiront le marché de façon très inégale dans des proportions analogues au
secteur des microprocesseurs. A l’autre extrême, des idées et des entreprises nouvelles
naîtront en permanence pour produire des fonctions nouvelles ou des réalisations
alternatives de fonctions existantes. Ce foisonnement d’innovations sera facilité par
l’existence de standards et d’un système théorique de référence appelé Unix, même si
l’idée d’un monde ou tout serait régi par des standards respectés par tous restera une
utopie.

Entre ces deux limites extrêmes du secteur pourront se placer des firmes agissant
en tant que relais d’intégration dans des domaines comme celui des utilitaires ou
d’applications générales voisines des systèmes d’exploitation, un rôle que jouent
aujourd’hui par exemple Symantec ou Computer Associates. A travers l’ensemble du
secteur, des idées et des produits migreront de façon continue depuis la frange
innovatrice dispersée vers les pôles d’attraction que constituent les systèmes intégrés
industriels. Cette migration aura pour conséquence d’étendre le périmètre fonctionnel
considéré comme séparant les systèmes d’exploitation des progiciels d’application. Elle
s’accompagnera de l’acquisition de firmes appartenant aux secteurs dispersés par les
entreprises des secteurs les plus concentrés.

Que peut-on dire de l’équilibre général du secteur ? Des forces concurrentielles


qui poussent à la concentration ou de celles qui favorisent l’éclosion de nouvelles
entreprises, lesquelles l’emporteront ? Est-il réaliste de penser que la régénération des
entreprises innovantes compense presque exactement les disparitions ou les
acquisitions, donnant ainsi au secteur global l’allure d’une sorte d’écoulement
stationnaire où les proportions des différents types de populations restent les mêmes
alors que leur composition ne cesse de changer ? Ou peut-on craindre que le rythme des
créations soit plus faible que celui des disparitions, si bien que toute l’industrie tendrait
à se résumer à une poignée d’offreurs ? Ou au contraire, existe-t-il des raisons de penser
que la dynamique de concentration puisse se ralentir, et que le secteur évolue vers un
éclatement analogue à celui du matériel dans les années 1975-1990 ?

Génie logiciel et structure sectorielle

Ces questions renvoient à l’évolution probable des technologies de


développement. Le moteur économique de la dynamique de concentration est en effet le
coût et la complexité de l’intégration. Les systèmes les plus complexes sont construits
en assemblant des modules ou des sous-ensembles qui pourraient aussi bien être
commercialisés séparément si leur regroupement ne présentait pas de difficultés ni de
risques. Seul le problème de l’intégration oblige à les distribuer ensemble et à supporter
des coûts fixes aussi élevés.

cclii
La racine du problème est que, avec les techniques de développement actuelles, la
conformité d'un élément à ses spécifications ne garantit pas qu’il s’intégrera sans effort
ni erreurs dans le système auquel il est destiné. S’il était possible de spécifier et de
réaliser tous les composants d’un système de façon que la conformité de chacun à ses
spécifications en garantisse l’intégration, et que le fonctionnement correct du système
dans une configuration entraîne qu’il fonctionnera correctement dans toutes les autres,
alors il deviendrait possible de développer et de commercialiser les systèmes sous forme
de morceaux indépendants. L’échelle de production applicable à chacun de ces
composants serait notablement plus faible que celle des systèmes intégrés, et le cycle de
production plus court. Comme nous l’avons vu au chapitre précédent, ceci favoriserait
la fragmentation de l’industrie, et l’intégration de systèmes deviendrait une spécialité
parmi d’autres, analogue à celle d’assemblage pour le matériel.

En même temps que l’intensité des forces de concentration pour les intégrateurs,
les technologies de construction (de « génie logiciel ») déterminent le niveau des
obstacles à l’entrée pour les plus petites entreprises. Il existe déjà tout un choix de
boîtes à outils qui permettent de développer facilement des logiciels de qualité et
d’apparence professionnelles, et ces aides au développement ne peuvent que s’enrichir
et se perfectionner. Les obstacles à l’entrée resteront faibles pour les innovateurs, et les
opportunités illimitées tant que les utilisations de l’informatique continueront de ses
diversifier.

Quelque puissantes que puissent être les aides à l’écriture et à l’intégration mises
à la disposition des programmeurs par les méthodes classiques de développement, le
programme ne peut s’exécuter en fin de course que sous la forme de langage machine
où toutes les références à des informations ou à d’autres points du programme ont été
converties en adresses numériques. A ce stade, qui est celui des tests et de l’intégration,
le découpage en modules qui a servi à la construction a disparu et l’ensemble forme un
bloc compact indissociable. Modifier ou ajouter une partie du système demande un
réassemblage complet quel que soit l’importance de la modification.

Pour la même raison, greffer un programme sur un autre, ce qui est par exemple
nécessaire pour exécuter un programme d’application dans le cadre d’un système
d’exploitation, doit avoir été explicitement prévu et se fait selon des conventions
rigoureuses et contraignantes. Des techniques diverses ont été développées pour retarder
au maximum la résolution des références entre programmes, qui conduit à la « prise en
masse » décrite ci-dessus, et permettre ainsi de lier entre eux, au stade de leur exécution,
des programmes indépendants. Quelques exemples de telles conventions sont les
mécanismes DDE (Direct Data Exchange) ou OLE (Object Linking and Embedding) de
Microsoft, mais le développement le plus significatif et le plus prometteur est la
programmation dite « par objets », dont nous allons dire quelques mots.

Les objets

Dans la programmation traditionnelle, le code, formé des instructions exécutables,


est séparé des données sur lesquelles il opère. Les informations sont regroupées dans
des structures, des tables ou des fichiers, et sont exploitées et manipulées par de
nombreux modules du programme. Cette structure introduit une interdépendance

ccliii
implicite entre chacun des modules et la structure des données, ainsi qu’entre modules
via leurs données communes, qui crée des risques d’effets pervers appelés « effets de
bord » (« side effects ») et contribue fortement à la difficulté des tests. De plus, si on
désire changer le format d’une table, que ce soit pour rectifier une erreur, pour
introduire de nouvelles fonctions ou pour améliorer les performances, il faut modifier
tous les modules qui utilisent cette table.

Dans le vocabulaire de la programmation, un objet est formé par la réunion de


données et de programmes associés (généralement désignés par le mot de
« méthodes »), qui peut communiquer avec d’autres objets en échangeant des
« messages ». Une utilisation possible de la technologie objet consiste à englober dans
un même objet un ensemble de données et les sous-programmes d’accès à ces données,
en interdisant d’accéder aux données autrement qu’en utilisant ces méthodes. Pour
autant que les méthodes d’accès aient été définies de façon suffisamment générale, toute
modification de la structure des données n’impose de modifier que les méthodes de
l’objet à l’exclusion des programmes qui l’utilisent.

L’exécution des méthodes d’un objet est déclenchée, directement ou


indirectement, par la réception de messages parmi un répertoire que l’objet sait
reconnaître. Quatre méthodes différentes peuvent par exemple être écrites pour réagir à
quatre messages, l’une en imprimant l’objet, la deuxième en l’affichant à l’écran sous
forme complète, la troisième en l’affichant sous forme résumée (par exemple une
icône), et la quatrième en le copiant sur disque. Le fonctionnement détaillé de ces
méthodes dépend évidemment de la structure et de la signification de l’objet. Par
exemple, la méthode « afficher » d’un objet « rectangle » sera différente de celle d’un
objet « cercle », mais les deux objets sauront réagir de façon appropriée à un même
message « afficher ».

Regrouper ainsi dans une construction cohérente et isolable tout ce qui fait la
spécificité d’un objet apporte de nombreux avantages. Pour chaque objet, il est possible
de faire évoluer chacune de ses méthodes, par exemple le mode d’affichage, en laissant
inchangé tout le reste. On peut aussi ajouter de nouveaux objets à ceux que sait déjà
traiter le système, en les dotant simplement des méthodes appropriées pour réagir aux
messages du système qui saura ainsi les manipuler sans autre changement. Dans le
jargon des objets, on parle de « polymorphisme » pour la possibilité qu’ont des objets
différents de réagir de façon appropriée et différenciée à une même séquence de
messages. Par exemple pour afficher une liste de figures géométriques, le programme de
gestion globale de l’affichage est indépendant de la nature des figures affichées, et il
suffit pour introduire une nouvelle figure d’incorporer la méthode d’affichage
appropriée dans l’objet qui la représente. L’approche objets apparaît comme un concept
essentiel à la réalisation des interfaces graphiques et plus généralement des applications
multimédia.

Dans la plupart des systèmes de développement par objets, la définition d’objets


nouveaux est facilitée par le mécanisme dit d’« héritage » qui consiste à définir un
nouvel objet par référence à un objet existant, en conservant certaines de ses méthodes,
en les redéfinissant ou en en définissant de nouvelles, sans pour cela devoir accéder au
code source de l’objet de référence. Ce mécanisme réduit les besoins de programmation
et minimise les risques d’erreur en permettant d’utiliser des méthodes déjà éprouvées

ccliv
dans des objets nouveaux. Il permet aussi de remplacer individuellement chaque objet
d’un système par un autre objet présentant les mêmes interfaces externes, et dont les
différences avec l’objet original peuvent aller de simples détails de réalisation à une
réécriture complète.

La communication par messages implique que toute communication entre objets,


par exemple l’appel d’une méthode d’un objet à partir d’un autre objet, a lieu
indirectement et met en œuvre une fonction fondamentale du système d’exploitation.
Cette fonction du système peut en particulier être chargée de résoudre les références
croisées entre objets, permettant ainsi de maintenir une structure modulaire jusqu’au
stade de l’exécution. Entre autres possibilités, une telle structure peut servir de base à la
réalisation de systèmes distribués où les objets qui les composent peuvent résider sur
des organes d’exécution différents. La fonction de gestion des messages est chargée de
les localiser et de router les messages en conséquences sans que les différents objets
aient à connaître leurs emplacements respectifs. Le concept d’objet apparaît ainsi
comme également lié au concept client-serveur et au multitraitement.

On devine à travers cette présentation très résumée que la programmation par


objets est non seulement à la source de nouveaux paradigmes de développement
d’applications, mais une base potentielle pour une véritable modularité du logiciel. Pour
que ces espoirs se concrétisent, il faut encore beaucoup d’expérimentation et
probablement d’invention, et il faudra aussi que des standards se dégagent en leur
temps, sans qu’une hâte intempestive fige prématurément des normes immatures. Il
faudra ensuite que les entreprises de progiciel inventent et mettent en place de nouvelles
disciplines de conception et de programmation adaptées, avec par exemple un système
d’administration des objets qui favorise leur réutilisation.

Une technologie émergente liée aux objets est celle des « micronoyaux »
(« microkernel »). Un système moderne peut à tout instant contenir plusieurs
programmes en cours d’exécution, qui sont isolés les uns des autres par des dispositifs
matériels de protection afin d’empêcher les erreurs en cours d’exécution (ou les
malveillances) de se propager de l’un à l’autre. Par exemple, chaque programme ne
pourra accéder qu’aux zones de mémoire qui lui ont été affectées. C’est le système
d’exploitation qui est chargé, entre autres fonctions, d’affecter la mémoire disponible
aux différents travaux et d’assurer le passage d’un programme à un autre. Il doit pour
cela s’affranchir temporairement de ces protections, en quittant le mode normal de
fonctionnement, ou mode « problème » pour passer dans un mode « système » qui
autorise l’accès à la totalité de la mémoire et l’exécution de certaines instructions
privilégiées.

Il est clair que tout programme qui utilise directement le mode système doit être
protégé et soumis à des restrictions draconiennes, et ne peut pas facilement être
développé et distribué séparément. Dans un système qui serait composé d’objets
développés indépendamment, aucun d’entre eux ne devrait faire appel au mode système
autrement qu’en envoyant des messages à un objet « noyau » qui a le monopole de ce
mode.

On appelle « micronoyau » la plus petite partie du système qui est dépendante de


la machine et doit s’exécuter en mode système. La définition exacte des micronoyaux

cclv
est actuellement le sujet de débats et d’expérimentations. Si toutes les propositions y
font figurer la gestion de la mémoire, la gestion des tâches et la communication entre
processus, elles diffèrent par la répartition exacte des tâches entre le mode problème et
le mode système, en particulier pour la gestion des périphériques. Comme c’est toujours
le cas en programmation, ces décisions de répartition correspondent à des arbitrages
différents entre la pureté conceptuelle et la souplesse d’une part, les performances
d’autre part.

Les deux réalisations de micronoyaux les plus connues sont issues du monde
Unix : Mach, né d’une collaboration entre l’Université Carnegie-Mellon et IBM, et
Chorus, développé par la société française Chorus Systèmes. Le micronoyau Mach a été
adopté comme standard par l’OSF et est utilisé dans les nouveaux systèmes en cours de
développement par IBM, Apple, Sun et d’autres, tandis que Novell a choisi Chorus.
Microsoft, de son côté, fait reposer ses systèmes les plus récents comme Windows NT
sur un micronoyau qui lui est propre.

Bien que la technologie des micronoyaux soit au coeur des systèmes objet, aucun
des systèmes ci-dessus n’est réellement un système objet. Dans les systèmes
actuellement disponibles, le code qui réalise les fonctions externes au micronoyau reste
développé et structuré selon les méthodes traditionnelles. Il faudra attendre la
génération de systèmes prévue pour la fin du siècle pour que ces fonctions soient
réalisées sous la forme de collections d’objets indépendants qui communiquent à travers
le micronoyau.

Alors il deviendra peut-être possible à des offreurs indépendants de se spécialiser


sur des objets particuliers et d’entrer en concurrence avec les grands du marché, de la
même façon que les compatibles sont entrés en concurrence avec IBM dans les années
70. Si ces technologies tiennent leurs promesses, elles peuvent conduire l’industrie du
progiciel à éclater, comme le 360 puis l’unbundling ont conduit à l’éclatement de
l’informatique traditionnelle.

Logiciel et matériel

Une autre grande question est celle de la frontière entre le logiciel et le matériel.
Les microprocesseurs deviennent inéluctablement de plus en plus puissants. On sait
qu’ils contiendront cent millions de transistors vers l’an 2000 contre 3 millions
actuellement, alors qu’il suffit largement d’un demi-million de transistors pour réaliser
une unité de calcul complète. Peut-on penser que les microprocesseurs du XXIe siècle
seront formés de centaines d’unités de calcul fonctionnant en parallèle, ou faut-il
s’attendre à ce que leurs fonctions même soient considérablement enrichies ?

Si telle est la voie dans laquelle s’orientent les fabricants de microprocesseurs, les
fonctions susceptibles de résider sur la puce, voire d’être réalisées directement par des
circuits actifs, sont au premier chef les fonctions du système d’exploitation qui sont les
plus proches du matériel, à commencer par le micronoyau. A priori, tout logiciel
pourrait résider dans une mémoire incorporée au microprocesseur, et de façon plus
radicale tout ce qui est réalisé par logiciel pourrait l’être par les circuits et
réciproquement. On trouve d’ailleurs entre le matériel et le logiciel proprement dits des

cclvi
formes intermédiaires comme le microcode, le logiciel en mémoire morte, les pilotes de
périphériques, qui peuvent eux-mêmes résider dans le système central ou dans l’unité
d’entrée sortie, etc.

L’histoire de l’informatique offre plusieurs exemples de migration de fonctions


entre le matériel et le logiciel, et dans les deux sens. Retirer des fonctions au matériel
pour les transférer dans le logiciel procède en général de motivations théoriques. La
célèbre « machine de Türing » représente la machine la plus simple capable d’effectuer
n’importe quel calcul, mais n’est qu’un concept purement abstrait utilisé en théorie de
l’information. Sa réalisation physique aurait des performances ridiculement faibles et
serait inutilisable justement à cause de son jeu d’instructions rudimentaire. C’est la
même démarche de simplification systématique du matériel, en acceptant de reporter les
fonctions plus complexes vers le logiciel, qui a présidé aux travaux qui devaient mener
aux concepts Risc.

La migration inverse du logiciel vers le matériel est plus fréquente. Elle est
toujours motivée par des raisons pratiques de performances ou de fiabilité, et n’est
retardée que par les possibilités des technologies matérielles d’une part, la stabilité et la
généralité des fonctions concernées d’autre part. En effet, les fonctions « gravées dans
le silicium » ne peuvent plus être modifiées que très difficilement, et seules les parties
de logiciel parfaitement testées et stabilisées peuvent être en pratique candidates. Toute
la vie du 360 et de ses dérivés a vu l’apparition périodique de nouvelles instructions
privilégiées destinées à remplacer des séquences d’instructions du système
d’exploitation. Le projet FS prévoyait d’incorporer au matériel de nombreuses fonctions
dont une grande partie de la gestion des bases de données. Dans le monde micro, chacun
des processeurs Intel successifs incorpore des fonctions nouvelles comme la gestion de
l’énergie, qu’on aurait normalement confiées au logiciel. Même le concept Risc a
évolué d’un jeu d’une dizaine d’instructions dans la forme puriste de ses origines à
quelque 200 instructions pour ses incarnations récentes, c’est à dire autant que les
processeurs Cisc classiques.

Malgré des retours en arrière occasionnels et temporaires, la tendance constante à


long terme est bien la migration de fonctions depuis le logiciel système vers le matériel
et en particulier le microprocesseur, ainsi d’ailleurs que vers les matériels périphér