You are on page 1of 87

UNIVERSITÉ PIERRE MENDÈS-FRANCE Institut d’Études Politiques de Grenoble

Gaëtan MOREAU

L’État-Nation peut-il survivre à la Société de l’Information ?

Séminaire “ L’information, les médias et la démocratie ” 1997-1998 Sous la direction de Daniel BOUGNOUX

INTRODUCTION .................................................................................................................... p. 4 Chapitre 1. Qu’est-ce que la Société de l’Information ? ................................................... p. 8

I. Les défis de la Société de l’Information ....................................................................... p. 9 L’immatériel ........................................................................................................ Le savoir .............................................................................................................. La flexibilité ........................................................................................................ Les mutations ...................................................................................................... II. Relever les défis.......................................................................................................... Un peu de régulation ........................................................................................... Beaucoup d’éducation ......................................................................................... Énormément d’ambition ...................................................................................... Quelques outils conceptuels ................................................................................ Chapitre 2. Chapitre 3. p.10 p.10 p.13 p.15 p.18 p.18 p.19 p.20 p.23

L’idéologie derrière l’objet ............................................................................... p.25 La réalité structurelle de l’internet ................................................................. p.32 p.33 p.36 p.37 p.39 p.43 p.45

I. Approche du pouvoir .................................................................................................. II. Réseaux et pyramides. Les hiérarchies infrastructurelles du Réseau ......................... Le modèle radiophonique .................................................................................... Le modèle téléphonique ...................................................................................... Le modèle informatique ...................................................................................... III. Les hiérarchies logicielles du Réseau .......................................................................

Les couches ISO ...................................................................................................... p.45 Un nouveau standard IP Version 6 .......................................................................... p.51 La bataille du DNS ou l’internet révèle sa structure douloureusement pyramidale. p.54 Chapitre 4. Aux origines de l’État-Nation .......................................................................... p.63 p.64 p.65 p.67 p.71 p.73

La souveraineté royale ............................................................................................. La légitimité royale .................................................................................................. Techniques de légitimation ...................................................................................... La nation souveraine ................................................................................................ Redéfinir la nation ................................................................................................... Chapitre 5.

La suite logique du Réseau ............................................................................... p.76

L’identité encore possible sur le Réseau ? .............................................................. p.77 Le vertige ................................................................................................................. p.80 CONCLUSION ......................................................................................................................... p.83 GLOSSSAIRE & BIBLIOGRAPHIE ..................................................................................... p.86

INTRODUCTION

Le calendrier aidant, l’avènement d’une nouvelle société «post-moderne » est annoncé pour le troisième millénaire. Cette nouvelle société prendrait la place de la société industrielle qui a caractérisé l’Occident depuis le XIXe, comme celle-ci remplaça jadis la société agraire. De même que la société industrielle eut sa révolution fondatrice avec l’invention et la généralisation de l’emploi de la machine à vapeur, la société «post-moderne », ou «société de l’information » ou «de communication » selon les auteurs, trouverait dans la formation des réseaux de télécommunications son objet technique fondateur. Nombre de ces prédictions se fondent avant tout sur l’observation de la fin de la société industrielle. La montée du chômage, la place croissante du travail précaire, les difficultés financières subséquentes des systèmes sociaux et d’autres signes encore, amènent à croire que la société dans laquelle nous vivons est en mutation profonde. La fin d’un modèle appelle nécessairement l’avènement d’un autre. Ainsi découvre-t-on que l’informatisation généralisée et la mise en réseau des ordinateurs est la promesse d’une autre société qu’il faut activement préparer sous peine de la subir. L’adaptation des institutions à cette nouvelle donne devient donc un enjeu central du fait du poids de celles-ci dans nos sociétés occidentales et particulièrement en France. Se démarquant avec difficulté de l’abondante littérature administrative sur l’urgence toujours renouvelée de moderniser l’administration, ce discours se caractérise par la volonté de redéfinir le rôle de l’État, non pas pour des raisons d’efficacité ou de productivité, mais pour s’adapter à la mutation de la société. Cependant, quelles que soient les raisons invoquées, le discours sur le changement nécessaire qu’est la modernisation des institutions en arrive toujours à la redéfinition du rôle de l’État. Les plaidoyers pour la décentralisation, pour l’Europe ou pour une société civile plus forte trouvent dans l’avènement de la «société de l’information », une légitimation théorique de leurs revendications. Parallèlement, les prophètes de l’avènement de cette société de l’information voient dans les dysfonctionnements institutionnels les symptômes de la mutation en cours, les preuves matérielles étayant leurs discours. Le diagnostic s’affine alors

en mettant en cause l’idéologie sociale sur laquelle repose les institutions, à savoir l’existence de la Nation, et son inadaptation à la société de l’information comme cause profonde des problèmes rencontrés par nos institutions. Ainsi l’incapacité des institutions étatiques refléterait l’inadaptation du principe fondateur qu’est la Nation au monde d’aujourd’hui. Ce monde étant caractérisé par les moyens de communication planétaires et instantanés que sont les réseaux de télécommunications dont l’internet est la vitrine.

Bref, les dysfonctionnements des médiations techniques que sont les institutions étatiques révéleraient l’obsolescence de l’idéologie sociale que ces institutions reproduisent : la Nation. L’État-Nation serait ainsi voué à disparaître, montrant par là qu’il était une forme d’organisation sociale propre aux sociétés industrielles caractéristiques du XIXe et XXe siècle. Le XXIe siècle verrait donc l’apparition de la société de l’information où se confronteraient différentes idéologies sociales promouvant un «vivre-ensemble » autre que la Nation : l’ethnie, la province, la religion, l’humanité... Ces différentes conceptions se trouveraient toutes plus ou moins compatibles avec des institutions exerçant leur pouvoir sur des territoires aux dimensions locales, régionale, continentale ou mondiale. L’émergence des réseaux informatiques permettrait l’avènement de cette société de l’information qui produirait à son tour des nouvelles formes de sociabilité et de nouvelles institutions. Les institutions actuelles n’auraient donc plus qu’une alternative, accompagner le processus de l’entrée dans la société de l’information et s’adapter en conséquence, ou essayer de contrecarrer une tendance sociale lourde sachant que cela ne pourra qu’entraîner un sousdéveloppement économique et culturel. À côté des débats sur les meilleurs moyens d’entrer dans la société de l’information se sont développés des discours presque apocalyptiques, décrivant les réseaux de télécommunications comme un instrument de conquête, et la société de l’information comme le travestissement d’un impérialisme néolibéral américain. La nécessité d’écrire ce mémoire s’est fait sentir à cause du constant décalage que nous avons perçu entre les analyses sociales des réseaux de télécommunications, et particulièrement d’internet, et celles entrevues par notre pratique personnelle du réseau. Il ne s’agit pas que d’une divergence de point de vue dans les conclusions tirées sur les changements sociaux que peut amener l’internet, mais surtout du constat que l’internet n’était pas analysé correctement. La littérature sur le cyberespace, l’internet, la société de l’information, etc. étant particulièrement abondante, nombre de publications ne nous sont pas connues, et ce manque

d’exhaustivité pourrait peut-être être la cause de notre déception. Cependant, la redondance certaine des analyses nous a laissé croire que celles-ci étaient largement partagées. De plus, nous avons malgré tout trouvé des analyses d’internet que nous considérons comme pertinentes, mais les conséquences sociales alors décrites ne nous ont pas convaincu. L’ambition de ce mémoire et donc d’ordonner dans un développement cohérent une analyse des réseaux de télécommunications et de l’internet et de montrer que ce dernier n’est pas en soi une menace pour l’Etat-Nation. La description des conséquences d’ailleurs s’attardera surtout sur le réseau plutôt que su r l’État-Nation. Plus que l’étude de l’impact de l’internet sur l’État-Nation, il s’agit d’utiliser le concept d’État-Nation et sa réalité française, quasi unanimement considéré comme l’antithèse de la société de l’information, pour souligner les faiblesses de la prétendue incompatibilité entre celui-ci et la société de l’information, et rappeler quelques vérités largement occultées du monde réticulaire. Nous rappellerons donc en premier lieu ce qu’est le modèle de la Société de l’Information. Ensuite, nous soulignerons que la Société de l’information, telle qu’elle est généralement décrite, n’est pas une conséquence de l’apparition d’objets techniques, tel l’internet, paradigme des réseaux de télécommunications, mais est avant tout une idéologie. Ceci dit, nous approcherons les hiérarchies techniques de l’internet qui sont la vivante contradiction au discours de sa prétendue forme acéphale. Nous regarderons de plus près l’État-Nation, en regardant l’ascension de celui-ci à la place qui est la sienne aujourd’hui pour essayer de déterminer en quoi la Société de l’Information peut être une menace pour lui. Enfin, nous esquisserons quelques conséquences sociologiques en nous gardant de verser dans l’utopisme.

Chapitre 1

Qu’est-ce que la Société de l’Information ?

Au préalable à tout commentaire, il est souhaitable de présenter ce qu’est la Société de l’Information. Cet objet protéiforme oblige à certaines simplifications, à ne dégager que les analyses communes, sous peine de devoir rapporter les mille et une versions de la Société de l’Information qui ont vu le jour sous les plumes les plus diverses, Bill Gates, Al Gore, Jacques Attali ou Pierre Lévy, ou encore dans les multiples instances nationales et internationales. Il s’agit donc de rappeler sous forme synthétique la trame de cette société telle qu’on nous la prédit1. C’est le modèle présenté ci-dessous qui fera référence dans ce mémoire et sera appelé Société de l’Information. Nous ne faisons pas nôtre ce modèle, nous ne faisons qu’en rappeler l’existence.

I. Les défis de la société de l'information.

Le concept de société de l'information n'est pas nouveau : dès 1948, l'Américain Norbert Wiener, pronostiquait l'avènement de la société de l'information, en insistant sur l'idée de la circulation de l'information comme condition nécessaire à l'exercice de la démocratie. Mais si la notion n'est pas nouvelle, le développement foisonnant des réseaux et des nouveaux services qui y sont associés (les «autoroutes de l'information ») donne enfin corps à cette prédiction. Peut-être même sommes-nous déjà entrés de plain-pied dans cette société et faisons-nous tous les jours, tels des M. Jourdain numériques, de la société de l'information sans le savoir... Qu’est-ce donc que la Société de l’Information ? Il s'agit d'une société dominée par l'immatériel, où le savoir et la flexibilité seront des éléments déterminants, et entraîneront des mutations fondamentales qui sont autant de défis. Les mots-clés, immatériel, savoir, flexibilité et mutations, sont ceux que l’on retrouve généralement dans toute analyse ou prédiction sur la Société de l’Information.
1

Cette synthèse est principalement basée sur celle de Gilles BAUCHE faite à l’occasion des travaux de la conférence «la Société de l’Information : menace ou opportunité pour l’Europe ? » organisée par l'Institut Aspen France à Lyon du 9 au 12 mai 1996.

L’immatériel.

Le constat a été fait que la société de l'information reposera sur une grande convergence entre l'informatique, les télécommunications et l'audiovisuel. Cette convergence est elle-même rendue possible par la numérisation de l'information, quelle qu'elle soit : son, image, texte. Grâce à la numérisation, c'est-à-dire la traduction en langage binaire de toute information, sous forme de + ou de - électroniques, rien ne distingue plus, sur les lignes téléphoniques reliant entre eux les ordinateurs du monde entier, une image télévisée d'un fichier informatique ou d'une conversation téléphonique. Chaque objet, chaque produit, livre, musée, monument, a ou aura son «double numérique ».

A la clef, il y a évidemment d'immenses enjeux économiques : dans un rapport d'octobre 1995, l'OCDE nous dit que pour chaque millier de dollars dépensés dans le monde, cinquante neuf concernent directement ou indirectement la sphère de «l’infocommunication », c'est-à-dire la sphère de l'informatique, des télécommunications et de l'audiovisuel.

Le savoir.

Schématiquement, on utilise le terme de contenu pour décrire les enjeux industriels, celui d’information pour évoquer le micro-économique, c'est-à-dire la compétitivité des entreprises, et celui de savoir pour décrire les conséquences sociales et culturelles de la société de l'information. Sur le plan industriel, le rôle déterminant du contenu est constaté dans les grandes manœuvres d'intégration verticales ou horizontales existantes depuis 3 ou 4 ans1. Les fusions-acquisitions ont fait apparaître les fortes «synergies de portefeuille » entre les différents acteurs du multimédia, certains finançant le développement du secteur alors que d'autres garantiront à terme un retour sur investissement. Les futurs acteurs industriels de la

société de l'information ont ainsi des compétences complémentaires, mais aussi et surtout des besoins complémentaires qui expliquent la logique effrénée des grandes alliances ou d'intégration au sein de grands groupes allant du logiciel au domaine de l'électronique en général, en passant par les diffuseurs.

Simultanément enfin, de nombreuses autres professions s'intéresseront aux nouveaux marchés du numérique, ne serait-ce que pour ne pas s'en faire déloger par d'autres qui, «captant » les clients potentiels, seraient tentés de leur proposer des services complémentaires. Les banques, les compagnies d'assurances, notamment, seront contraintes d'offrir des services en réseau, sauf à laisser entrer sur ce créneau les opérateurs ou les fournisseurs de services à valeur ajoutée. Sur le plan micro-économique, le rôle pour la compétitivité des entreprises, de «l’information juste à temps » est jugé déterminant. La migration des entreprises vers le monde des réseaux paraît inéluctable, et se fonde sur un raisonnement économique simple. Des quatre flux qui structurent toute relation commerciale, trois au moins seront bientôt totalement assurés par voie électronique : flux d'information aboutissant à la décision d'achat (catalogues électroniques, télé-achat.. ) flux financiers ou monétaires de règlement de l'achat (monnaie électronique, télépaiement...) flux administratifs liés à la réalisation de l'achat (édition de documents informatisés... )

La seule exception à la dématérialisation des flux restera celle des flux physiques, c’est -à-dire la livraison des marchandises, en attendant bien sûr l’avènement de la «t élétransportation » si chère au capitaine Kirk et à Monsieur Spock de Star Trek...

Les entreprises qui prendront à temps le train de la société de l'information seront à même de recalibrer leurs niveaux de productivité en réduisant le temps et les coûts liés aux transactions commerciales (transport, stockage, distribution, administration). Parallèlement, leur réseau interne d'échange d'informations se calquera sur le modèle d’internet, avec une architecture multimédia. C'est ce qu'on appelle aujourd'hui l'«intranet», qui est un peu moins qu'internet (car l'intranet est en principe coupé du monde extérieur pour des raisons de sécurité).
1

Il faut néanmoins relativiser ce mouvement. Voir par exemple la vente de Polygram par Philips qui contredit cette analyse.

Ainsi, devant combiner vision à long terme et rapidité d'exécution de la stratégie, efficience et flexibilité dans la production, soumise aux mutations technologiques et à la mondialisation de l'économie, la nouvelle entreprise devra se « reconfigurer » (terme informatique par excellence) en tirant parti des réseaux numériques de la société de l'information, pour aboutir au modèle « toyotiste » d'une « production de masse sur mesure ».

Sur le plan social, deux changements fondamentaux sur le rôle du savoir sont généralement esquissés :

Jusqu'à présent, un certain nombre de points d'étranglement liés aux systèmes de communication, et de traitement de l'information réservaient l'utilisation intensive du savoir à une élite. L'information était en quelque sorte monopolisée, diffusée du haut vers le bas par les élites, les groupes de presse, les mass-média1. Dans la société de l'information, tout un chacun pourra désormais disposer d'agents de connaissance, de documentalistes virtuels, capables d'écrémer l'information sur les réseaux numériques, pour un coût avoisinant celui de l'électricité2. De même qu'il y a eu depuis deux siècles des révolutions dans le domaine de l'égalité des droits, nous vivrons sans doute dans les années à venir une révolution fondamentale, celle de la réduction des inégalités devant le savoir, par la mise à disposition publique d'informations de bonne qualité à un coût très bas. On passe en quelque sorte d'une ère où l'évolution était chère, parcellaire, passive et canalisée, à une ère où l'information sera abondante, instantanée et peu coûteuse3.

Second changement sur le plan du savoir : la société de l'information ne sera pas seulement synonyme d'ouverture d'esprit grâce aux sources infinies de documentation pouvant être consultées4 ou d'élargissement des occasions de contact avec autrui dans le monde (e-mail). Son développement préfigure également une nouvelle forme de communication où chacun pourra apporter aux autres ses propres connaissances1. L'axiome fondateur d’internet est «si tu ne sais pas, demande ; si tu sais, partage ». Bien entendu, il ne faut pas exagérer la portée immédiate de cette évolution. Les débuts de la CB,
1 2

Sur les différences entre modèles radiophonique, téléphonique et informatique, voir chapitre 3. On notera tout de même que dans cette optique, il y a une égalité de terme entre savoir et sélection de l’information. 3 Voir chapitre 3 et la nécessité des hiérarchies, a priori ou a posteriori de la diffusion de l’information. 4 Sur ce prétendu déterminisme, voir chapitre 2 et l’idéologie saint -simonienne.

des radios locales ou du Minitel ont vu célébrer, souvent hâtivement, le renouveau de la démocratie grâce à la prise de parole quasi instantanée, et la prétendue régénération subséquente du lien social. Mais enfin, puisque nous parlons de société avant de parler d'information, nous avons sans doute là, et sans que les NTIC (Nouvelle Technologies de l’Information et de la Communication) excitent exagérément les imaginations, un moyen de faire naître des solidarités nouvelles entre les individus.

La flexibilité.

Nous allons nous mouvoir dans une société où les besoins de formation vont croître exponentiellement dans une économie2 où la valeur ajoutée est de plus en plus produite par les savoirs, les nouveaux métiers et le recyclage permanent. Bref, la société de l'information sera en même temps une «learning society », une société où la mobilité, la flexibilité face au changement et l'apprentissage permanents seront pour l'individu des facteurs clé de succès. Flexibilité pour les individus, mais aussi pour les organisations : les conditions nouvelles de la production imposeront – imposent déjà - des modèles d'organisation plus décentralisés et flexibles, avec des groupes de travail ponctuels, fonctionnant comme un tout cohérent mais prêts à se dissoudre une fois le projet commun accompli (et c'est là tout l'enjeu des techniques de groupware - travail coopératif en groupe3). Il faudra que les chefs d'entreprise s'adaptent à un nouveau rôle de «chef d'orchestre », c'est-à-dire soient prêts à animer, hors du modèle hiérarchique traditionnel, des équipes réduites où chacun sait jouer sa partition et est parfaitement qualifié.

En France, il est apparu que la culture administrative française reste profondément littéraire et juridique, réfractaire à la technologie, souvent encore considérée comme d'essence inférieure
1 2

Reste à savoir si la possibilité sera concrétisée. Cf. conclusion 3 On notera les néologismes anglicisants souvent abusifs. Quelle différence entre le «groupware », travail coopératif de groupe, et le travail en équipe ? À l’été 1998, les journaux appelaient cela « l’esprit Jacquet » en référence à la coupe du monde de football, et en évoquaient l’esprit de tradition du sélectionneur !...

ou comme une question d'intendance dont les services informatiques doivent faire seuls leur affaire. Il est pourtant désormais clair que ceux qui, organisations ou individus, négligeront les nouveaux champs de possibilités et de compétition qu'ouvre la société de l'information, prendront le risque de sacrifier leur avenir ou celui de leurs successeurs. C'est déjà le cas des individus qui risquent de basculer dans la vitesse réduite du développement s'ils ne font pas l'effort d'une mise à jour permanente1. Les États n'échapperont pas à ce dilemme : s'adapter rapidement aux conditions nouvelles de la société de l'information ou dépérir progressivement.2

Car les administrations s'adresseront, même dans leurs responsabilités les plus proches du terrain, à des entités qui se dilueront dans le virtuel. La dématérialisation de l'information, l'universalisation des acteurs et la mondialisation des flux économiques exigeront - exigent déjà - des instruments d'identification, de dialogue, voire de contrôle, adéquats. D'autant plus que du point de vue des citoyens déjà «connectés », la confrontation avec des administrations engluées dans le papier apparaîtra vite comme une provocation. La société de l'information imposera de nouvelles modalités d'échange et de communication (messagerie, forums en ligne, édition électronique) dont il sera difficile de se tenir à l'écart. Et les entreprises qui pourront délocaliser leurs activités dans des environnements administratifs plus performants, n'attendront pas longtemps pour rejoindre de tels «paradis cybernétiques»3...

Fuite de la matière imposable, alors que persisteront pertes en ligne de toute nature dans les circuits de dépense faute de savoir mieux utiliser les systèmes d'informations existants pour gérer les flux correspondant aux grandes politiques publiques (protection sociale, santé...) : les États à la traîne de la société de l'information ne disposeront plus, dans un futur proche, que de moyens réduits à peau de chagrin pour assurer, coûte que coûte, un service minimum au profit des citoyens les moins solvables, là où l'urgence des besoins continuera à l'exiger.
1

«mise à jour », terme informatique. Notons encore une fois les métaphores révélant nettement la fascination pour le modèle informatique. 2 Il s’agit là du cœur de la problématique de ce mémoire : cette dialectique qui pose une alternative binaire digne du transistor est-elle véritablement fondée ? 3 On remarquera la contradiction interne du raisonnement qui pousse à la généralisation de règles pour cause de mondialisation, sous peine de «délocalisation » dans des endroits où existent des règles spécifiques (par définition non-mondiales), les «paradis ». En toute logique, il faudrait pousser les États à devenir ces «paradis », c’est-à-dire pousser à la spécification et non à une standardisation mondiale. Mais cet argument va à l’encontre du modèle de Société de l’Information planétaire. Cette contradiction apparente est résolue en fait si l’on veut bien voir le «monde » comme étant ce «paradis » pourtant localisé ! Sur cette nécessité de localisation de la menace, c’est-à-dire l’incarner, voir le chapitre 3, et l’impuissance du Réseau sur le Territoire.

Les mutations.

L’emploi : on constate que les NTIC amèneront un processus de destruction/création d'emplois avec une certitude, c'est que les pertes d'emploi sont plus prévisibles que les gains, tout simplement parce que le mouvement de destruction est déjà perceptible avec les délocalisations d'emploi (et les exemples de la télésaisie à Hong Kong, de Swissair télétraitant son système de réservation en Inde ou de Siemens faisant sa télémaintenance informatique aux Philippines, montrent bien que la brèche est déjà largement ouverte).

L'idée a également été avancée que les conséquences des NTIC sur l'emploi, comme pour toute avancée technique, résulteront d'un solde. Celui-ci sera le résultat d'une course de vitesse entre le dégagement de main-d’œuvre lié aux gains de productivité, et l'accroissement des débouchés pouvant résulter d'une compétitivité ainsi améliorée. Or si le premier effet est certain, et à court terme, le second reste conditionnel et plus lent à réaliser, car l'informatique communiquante reste un investissement au second degré, moins rentable par ses effets propres, immédiatement visibles, que par sa capacité à valoriser les autres investissements.

Bien entendu, un constat plus optimiste a été fait sur le fait que les NTIC vont aussi engendrer de nouvelles activités à valeur ajoutée, qui vont de l'édition électronique aux services professionnels dans la communication, mais d'une part, les soldes nets n'auront pas de valeur, car ceux qui perdront leur emploi (cadres et employés de la banque, de la distribution, des assurances...) ne seront pas automatiquement ceux qui retrouveront un emploi, et d'autre part, il faudra gérer le facteur temps, c'est-à-dire le décalage entre la destruction et la création d'emplois1.

Deuxième mutation, liée à l'emploi, ou plutôt aux nouvelles formes d'emploi engendrées par les NTIC, ce sera l'impact sur l'aménagement du territoire.

1

Cette mutation est sans conteste une mutation industrielle. Reste à déterminer dans quelle mesure celle-ci influera sur nos sociétés.

Après tout, le train a mis en quelque sorte les villes en réseau, l'automobile a accompagné la péri-urbanisation, le téléphone a permis le développement des gratte-ciel, non pas physiquement, mais fonctionnellement (car il aurait été impossible autrement de gérer l'engorgement aux ascenseurs des messagers humains nécessaires à la transmission des messages d'un étage à l'autre). Avec les NTIC, avec le télétravail, il est possible que la concentration urbaine ne soit plus une condition de la viabilité économique des entreprises. Finalement, du pigeon voyageur à l'aéropostale, des nuages de fumée au télégraphe puis au téléphone, les hommes n'ont cessé de lutter contre la distance et le temps pour se transmettre de l'information. A présent, peut-être bien que grâce à l’internet et aux progrès de la robotique, la présence physique du travailleur aux côtés de l'objet de son travail deviendra de plus en plus superflue (après tout, les contrôleurs aériens ne voient pas physiquement les avions qu'ils dirigent), et peut être bien qu'à l'avenir, on finira par mettre les villes à la campagne1...

Troisième mutation, c'est l'émergence de modèles économiques inédits, fondés non plus sur la rareté des facteurs de production que nous connaissions à l'époque industrielle (la terre, le travail, le capital, les matières premières sont des ressources finies), mais au contraire sur l'abondance de ce nouveau facteur de production qu'est l'information. Abondance puisque grâce à la numérisation, l'information est caractérisée par deux fonctions importantes qui sont la possibilité de reproduction infinie et sa mise à disposition instantanée grâce à la transmission par les réseaux.

Modèle économique inédit également, car le constat a aussi été fait qu'il n'y aura plus obligatoirement de relation entre taille d'une entreprise, domination sur le marché et production de richesses : après tout, Bill Gates est devenu l'homme le plus riche des ÉtatsUnis alors que Microsoft ne comporte guère que quelques milliers de salariés dans le monde.

Modèle économique inédit enfin parce qu'il faudra bien trouver des moyens de facturer l'information sur les réseaux : combien coûtera le gigabit d'information, faudra-t-il une nouvelle monnaie électronique circulant sur les réseaux (avec tous les problèmes qui
1

Les premiers indices semblent prouver le contraire. Les autoroutes de l’information reproduisent le schéma des autoroutes qui n’ont pas eu tendance à irriguer le territoire traversé, mais bien plutôt à concentrer les activités dans les villes par elles reliées.

s'ensuivront pour les banques centrales qui auront bien du mal à classer le «cash électronique» parmi leurs agrégats ?

Quatrième et dernière mutation : l'apparition d'inégalités nouvelles face ou à cause des NTIC :

- inégalités d'abord face aux NTIC, liées au niveau de vie et à l'éducation. Le constat a été fait que des formes d'exclusion culturelle surgissent toujours quand le niveau des connaissances requises pour maîtriser les outils du savoir s'élève. Et des nouvelles formes d'illettrisme, d'analphabétisme fonctionnel vont surgir, et créeront un fossé entre «inforiches » et «infopauvres».

- inégalités géographiques également. D'abord entre le nord équipé et le sud sous-équipé, mais aussi au sein du monde industrialisé. Il faut beaucoup insister sur la domination de l'anglais, nouvelle langue véhiculaire des réseaux.

II – Relever les défis :

Quelles sont les pistes ? On peut dégager des débats une sorte de «policy-mix » qui s'ordonnerait ainsi : un peu de régulation, beaucoup d'éducation, énormément d'ambition.

Un peu de régulation.

Un peu de régulation et non pas beaucoup, car l'accord est général sur le fait que le continent européen par exemple, est déjà suffisamment entravé par les rigidités héritées du passé pour le surdéterminer par de nouvelles contraintes. Un peu de régulation tout de même, d'abord pour assurer le respect des règles minimales de concurrence, et sans doute d'ailleurs pourra-t-on utiliser les instruments qui existent déjà plutôt que d'en inventer de nouveaux ; un peu de régulation également pour que l'accès au service universel soit respecté ; un peu de régulation enfin pour que le consommateur soit protégé. Le consommateur, c'est-à-dire la demande : là encore, un consensus a été dégagé pour souligner que la régulation ne doit pas se confondre avec la protection outrancière des offreurs, des champions nationaux. Régulation minimale également pour ce qui est de la circulation des contenus dans la société de l'information. La crainte a été exprimée que par un remodelage incessant des limites de quantité et de vitesse de circulation des données, la société de l'information ne déclenche une prolifération incontrôlée et anarchique des sources d'information. Et parce que la technologie évolue beaucoup plus vite que la société et qu'on commence à peine à considérer la société de l'information comme un espace, sans plus la réduire aux instruments de communication qui le maillent, il y aura - il y a déjà – des pressions considérables pour en réglementer le contenu, au risque d'en brider le potentiel considérable. Or, malgré toutes leurs limites, les NTIC offrent aujourd'hui un espace global de liberté. Laisser aux procureurs ou aux fonctionnaires la possibilité de décider si une information y est «convenable », «indécente », «cybernétiquement correcte » ou non, revient à détruire cet espace. Il est clair que les réseaux de communication ne peuvent se situer au-dessus des lois

au prétexte qu'il s'agit d'un espace de communication. Mais si réglementation il doit y avoir, elle ne devra pas introduire de limitation inutile des libertés et être la plus indolore possible1.

Aucun chirurgien ne se permettrait d'amputer un bras pour soigner une phalange malade. Les États devront trouver des formes de régulation à la fois techniquement réalistes et socialement acceptables, reposant en premier lieu sur le libre arbitre des usagers des réseaux, aidés en cela par la technique elle-même (des logiciels permettent d'ores et déjà d'écrémer sur les réseaux les informations jugées indésirables), sans recourir à des formes de censure par essence forfaitaires, rigides et indiscriminées.

Beaucoup d'éducation.

Le constat est fait du fossé existant entre une école qui fonctionne encore selon une architecture pyramidale et centralisée, déconnectée des nouveaux savoirs, qui aggrave les rigidités au lieu de favoriser les changements, et les conditions nouvelles qui surgissent de la société de l'information. La société de l'information sera dès lors le moteur d'un nouvel «impératif catégorique pour le gouvernement français, comme d'ailleurs pour tout gouvernement : de la même façon que la IIIème République a promu en France l'instruction obligatoire et universelle au monde de l'écrit, il faudra des «hussards noirs du multimédia » pour acclimater les écoliers à l'univers numérique.

Bien sûr, toutes les avancées dans la pédagogie interactive ne remplaceront jamais l'appétit pour le savoir, qui reste l'enjeu fondamental de toute ambition éducative. Mais l'accès dès l'école primaire à des enseignements sous une présentation multimédia (via les CD-ROMS ou via l’internet), aiderait à familiariser les élèves à l'accès interactif à l'information. Cet accès réduirait le risque «d’analphabétisme fonctionnel » auquel expose l'élévation continue du niveau de connaissances requises pour vivre en accord avec les conditions de la vie moderne.
1

L’indépendance revendiquée du cyberespace vis-à-vis du territoire et de ses lois, tout en soutenant la nécessité de règles, tend à montrer la volonté d’établir une différence de n ature entre les deux et donc une organisation différenciée. Pour un parallèle instructif, voir chapitre 4 et la naissance de la souveraineté étatique.

Plus ambitieusement, et quand bien même l'interactivité ou toute autre avancée dans l'acquisition ludique de connaissances ne dispenseront jamais de l'apprentissage des bases d'une culture solide ou du travail personnel, cet accès permettra de démocratiser de nouvelles pratiques culturelles auprès des jeunes générations. Plus utopique enfin, la pratique du multimédia ou des réseaux à l'école, par sa capacité à faciliter chez les élèves une mémorisation à la fois textuelle, visuelle et auditive, pourra aider à transformer les actuels «exclus de l'écrit » en «élus de l'écran »1.

Énormément d'ambition.

La société de l'information engendre un devoir d'ambition pour les États européens. Car nos États, par l'importance des moyens dont ils disposent encore peuvent et doivent faire plus, face à la révolution numérique, que simplement s'adapter pour assurer leur propre survie. Ils doivent donner l'exemple, en se faisant «opérateur » sur les nouveaux réseaux de communication : utilisateurs des réseaux mais aussi pourvoyeurs d'information. L’Etat utilisateur.

Toute administration traite de l'information : c'est son métier. Il serait donc paradoxal qu'elle ne s'équipe pas elle-même des outils les plus performants en ce domaine. Pourtant, en France comme ailleurs, pour des raisons liées aux enjeux de pouvoirs ou tout simplement à l'ignorance, de multiples paravents sont dressés pour freiner l'évolution vers la mise en réseau des administrations, la suppression progressive des formalités ou des rigidités administratives, ou encore la mise en place de nouveaux outils d'aide à la décision. Il faudrait que les ministres, en charge de la modernisation organisationnelle et technologique de leurs administrations, témoignent d'une grande ambition pour surmonter les alibis dilatoires tirés des problèmes de sécurité informatique, réels mais surmontables, des
1

On rappellera que les «exclus de l’écrit » sont déjà les «élus de l’écran »(télévisuel). Aucune étude n’a encore été faite sur les différences d’attitudes des utilisateurs d’internet. Participent -ils vraiment ou ne font-ils que regarder passivement zappant d’un site à l’autre ? Toujours est-il que pour les forums de discussion, il existe des modes techniques où l’accès en lecture seule est possible. De plus, les lecteurs non -participants sont communément appelés «lurkers » (cachés). Il n’est pas rare de voir des intervenants sur des forums, dire qu’ils écrivent pour la première fois mais qu’ils lisent le dit forum depuis un an ou plus ! Il semble donc que

incertitudes pesant aujourd'hui sur le contenu des missions du service public, ou encore du climat de récession s'accompagnant d'une exceptionnelle rigueur budgétaire. Pour lever les appréhensions et les doutes, les grandes administrations devront afficher la volonté d'expérimenter les NTIC selon les axes suivants :

- à chaque agent sa station de travail en ligne. Utopique il y a encore quelques mois, cette orientation paraît aujourd'hui simplement réaliste. L'ordinateur relié aux réseaux nationaux et internationaux est à présent aussi indispensable que le téléphone ou la télécopie quand les entreprises privées, mais aussi les autres administrations, outre-Atlantique ou internationales (FMI, Banque mondiale, OCDE... ), équipent en masse leurs propres agents.

- des intranets administratifs. Déjà répandus dans les entreprises privées, ces réseaux sont indispensables pour lutter contre les cloisonnements administratifs de toutes sortes, conscients ou involontaires. Il faut tirer parti des possibilités de communication multidirectionnelle offertes par les réseaux pour rétablir entre les directions administratives des relations de travail plus horizontales, là où les pesanteurs héritées du passé ont sédimenté des verticalités néfastes1. L’Etat pourvoyeur.

- L'Etat devra d'abord se faire le pourvoyeur sur les réseaux de sa propre production Parce que nul n'est censé ignorer la loi, l'impératif absolu de toute administration démocratique est d'informer objectivement le public. Les ressources offertes par les réseaux de la société de l'information (hypertexte, instantanéité de la communication), pourront redonner enfin sens à cet adage juridique maltraité par l'inflation normative que connaissent tous les États avancés.

- L'Etat devra se faire également pourvoyeur de services renouvelés au public Il ne suffira pas aux administrations de mettre en place sur l’internet de luxueuses vitrines présentant les organigrammes décrivant leurs organisations, pour s'exonérer de leur devoir de
contrairement au projet de la Société de l’Information, la mise à disposition d’outils interactifs, ne signifie pas qu’il y aura automatiquement interactivité. 1 Sur la nécessité de reconstruire des hiérarchies du fait de la communication tout azimut et du bruit qui en résulte, voir chapitre 3.

simplification auprès du public. Les citoyens de la société de l'information1 demanderont à être traités par le fisc ou la Sécurité Sociale aussi bien que par leur banque ou leur compagnie d'assurance. Parce qu'ils demandent déjà aux administrations de leur apporter une gestion quotidienne aussi efficace que celle des grands services privés, il faudra mettre rapidement en place une harmonisation et une simplification des procédures administratives dans le cadre d'un «guichet unique » administratif. Supprimer les errances hasardeuses d'un guichet physique à un autre, rompre avec les complexités, déroutantes pour les plus petits acteurs économiques, des procédures lentes ou complexes d'administrations éclatées ou mal coordonnées, généraliser les possibilités pour l'Etat d'émettre des actes individuels (permis de construire, passeports, permis de conduire... ) sont des pistes à explorer rapidement. Accélération des délais d'examen, diminution des coûts, accroissement de la transparence et meilleure «lisibilité » de l'action publique : tous ces avantages seront cumulatifs, conduisant, si le changement est bien mené, à une spirale vertueuse de la simplification administrative2.

Conclusion :

La société de l'information existe : ceux qui naviguent aujourd'hui sur les réseaux informatiques tels l’internet l'ont rencontrée. Cette société repose d'abord sur la technique : informatique communiquante, numérisation, réseaux multimédias en sont les piliers. Toutes ces techniques sont a priori neutres 3 : elles ne prédisposent pas forcément à l'aggravation du chômage, à l'émergence d'idéologies douteuses ou à la domination sans partage de telle ou telle langue ou de tel ou tel acteur économique.

Mais ces outils sont avant tout en quête de configuration. C'est sans doute pourquoi il faut se rappeler que dans le terme «société de l'information », il y a d'abord le mot «société » c'est-àdire une aspiration partagée à vivre ensemble et à communiquer.
1

Notons la digression plutôt signifiante. La Société de l’Information apparaît d’un coup comme un espace politique. 2 La modernisation administrative trouve dans la Société de l’Information une alliée de poids. Voir Conclusion 3 Sur la «neutralité » des techniques, cf. Régis Debray, Cours de médiologie générale, NRF, Gallimard, Paris, 1991

III. Quelques outils conceptuels. Après cette présentation du modèle type de la Société de l’Information qui appellerait selon les auteurs quelques infléchissements selon leur sensibilité et leur vision 1, nous voudrions préciser quelques notions. En effet un problème de vocabulaire surgit lorsque l’on veut s’attaquer à un sujet assez neuf. Il vaut donc mieux définir sommairement les grilles d’analyse utilisées afin de ne pas tomber dans la confusion des termes. Ainsi, le fait de dire que le réseau est un nouvel espace oblige à définir ce champ. Pierre Lévy2 définit ce qu’il appelle des espaces anthropologiques, différentes conceptions partagées du monde : la Terre, le Territoire, l’Espace des marchandises et enfin un dernier qu’il avoue être une utopie en formation, l’espace du savoir. L’opposition cyberespace/ biosphère est également utilisée pour définir la spécificité du cyberespace, en tant qu’immatérialité. Puisque le domaine est neuf et que les grilles d’interprétation sont légion, ajoutons en une à la liste. Il est parfois vrai que les conclusions d’une étude ne font que refléter les grilles de lecture utilisées, cependant il est nécessaire d’avoir des concepts adaptés à notre propos.

Nous utiliserons donc un triptyque fonctionnel Nature / Territoire / Réseau, la majuscule n’étant là que pour bien marquer que le mot est utilisé dans cette acception. La Nature est l’espace des forces naturelles : tectonique, météorologique, lumière solaire, gravité terrestre, etc. bref, toutes les forces physiques qui façonnent notre planète. Le Territoire est l’espace physique approprié par l’homme. Cela peut bien entendu inclure des forces naturelles domestiquées (le feu de la cheminée) ou encore des créations propres à l’homme que l’on ne peut trouver dans la Nature (une BMW par exemple). Dans cette optique, l’histoire technique semble être une inexorable territorialisation de la Nature. Mais ces deux «espaces » peuvent se superposer. Le moulin à vent est une «territorialisation » du vent, il n’empêche que le vent reste un attribut de la Nature même si dans certaines conditions
1

La discussion sur un modèle synthétique donc forcément réducteur est bien sûr peu satisfaisante. Cependant, l’énorme littérature produite sur l’avènement de ce que tout le monde appelle peu ou prou la Société de l’Information, oblige à cette synthèse. 2 chapitre 7 in Pierre Lévy, L’intelligence collective, La Découverte, Paris, 1997

(lorsqu’il est utilisé par un moulin), il peut être du Territoire. Le Territoire est l’empire de l’Homme. Enfin le Réseau, ce dernier est ce que d’autres ont nommé cyberespace. C’est l’empire des signes numériques immatériels. Ce par quoi arrive la Société de l’Information. Si on devait représenter ce triptyque ce serait plutôt un continuum qu’une franche séparation entre ces trois espaces. La Nature ne rentre bien évidemment pas dans notre sujet. En résumé, la Société de l’Information semble donc être l’adaptation du Territoire au surgissement de ce nouvel espace qu’est le Réseau, ce dernier dominant de plus en plus le Territoire comme jadis le Territoire l’a fait sur la Nature quand l’homme s’est mis à défricher la terre ou dompter les rivières. Leurs relations réciproques seront les règles façonnant cette Société, comme les saisons de la Nature façonnèrent la société agricole.

Chapitre 2

L’idéologie derrière l’objet

La société de l’information, modèle d’organisation sociale structuré par des réseaux de communication, est comme on l’a vu précédemment, souvent présentée avec pour origine la cybernétique du mathématicien Norbert Wiener 1 . Philippe Breton 2 désigne la position de Wiener comme une «proposition épistémologique forte ». En effet, le réel peut être interprété en termes de communication et d’information, selon un modèle cybernétique. Ce modèle est donc utilisé pour la description et la compréhension, entre autres, du monde social. De plus l’intelligence est définie comme la capacité d’un agent à communiquer et à traiter des informations complexes avec son environnement. Ainsi, appliqué à la réalité sociale, le développement de la communication d’informations entre agents permettrait un meilleur fonctionnement social. En effet Wiener considère que les dysfonctionnements sociaux sont dus à l’opacité, à la rétention et au blocage des informations dans le corps social, et donc au traitement faussé de celles-ci qui en découle. Bien que l’audience de Wiener fut relativement limitée, le modèle cybernétique connaîtra un succès grandissant à mesure que les systèmes et machines communicantes se répandront dans les sociétés occidentales à partir de la fin de la deuxième guerre mondiale.

Les bouleversements techniques (radio, cinéma, télévision, etc.) avaient bien été l’objet de nombreuses analyses et de réflexions sur leurs effets culturels, notamment à la suite des travaux de l’École de Francfort. Mais la cybernétique a l’avantage de pouvoir fédérer les analyses et la compréhension des effets des médias dans un même modèle. La généalogie de la société de l’information serait donc la suivante. Les effets des différents médias lors de leur apparition ou de leur généralisation ont été analysés séparément. Cependant, la compréhension de leurs influences culturelles cumulées n’aurait pu advenir qu’à l’avènement d’un modèle fédérateur, la cybernétique, considéré comme un «métasavoir ». Le modèle cybernétique permet donc l’analyse globale de la société et de l’influence des techniques de communication sur celle-ci.
1 2

Dans un article qu’il cosigne en 1942 et devenu célèbre: Behavior, Purpose and Teleology. Philippe Breton, L’utopie de la communication, La découverte, 1992

L’apparition de ces techniques a ainsi fait naître une grille d’analyse adaptée. Les objets techniques précéderaient donc le modèle cybernétique qui ne fait que rendre compte de l’influence des «machines communicantes » sur les sociétés. La validité du modèle d’analyse ne doit cependant pas faire présumer de la validité de la prédiction sociale de Wiener qui consiste à dire que les problèmes sociaux viennent de l’opacité, de la rétention et du blocage des informations dans la société. Bref, on ne peut déduire du seul modèle cybernétique, aussi valable qu’il puisse être, qu’une plus grande circulation des informations est en soi meilleure pour le corps social et donc un progrès. Il n’est absolument pas question ici de remettre en cause la validité et l’intérêt du modèle d’analyse cybernétique, mais plutôt de dissocier celui-ci de la promesse sociale formulée par Wiener et qui peut apparaître comme directement issu de son analyse alors qu’elle n’est qu’une interprétation de celle-ci, une position idéologique. Ainsi, la fluidification des informations dans la société est présentée comme un processus immanent aux techniques de communications et dont le modèle cybernétique ne ferait que rendre compte. Or cette présentation oublie la généalogie de la notion de réseau qui est au cœur du modèle cybernétique. L’origine de cette idéologie qui veut que la multiplication des rapports humains techniquement médiés soit un progrès social, car participant au processus de transparence de la société (dans l’optique wienerienne, développer l’intelligence des agents, c’est-à-dire permettre un meilleur traitement des informations), nous fait remonter jusqu’à Saint-Simon.

Dans son incontournable critique du fonctionnement symbolique des télécommunications, Pierre Musso 1 fait la généalogie du concept moderne de réseau depuis son invention par Saint-Simon. Ainsi chez Saint-Simon, le réseau est un concept avec lequel est pensé le changement social. Il y a une volonté revendiquée d’un changement de société. Le concept de réseau permet de déceler l’endroit le plus propice où faire porter l’action politique dans un système social pour obtenir la plus grande efficacité de changement. L’invention même du concept de réseau par
1

Pierre Musso, Télécommunications et philosophie des réseaux, La politique éclatée, PUF, 1997

Saint-Simon a précisément pour but la transformation sociale au profit des industriels ; faire ce que la Révolution française n’a pas achevé de faire.

Dans un deuxième temps, les saint-simoniens vont dégrader le concept en objet. Ainsi les réseaux de communications considérés par Saint-Simon comme un moyen de transformation sociale et politique permettant la valorisation du territoire, devient chez ses héritiers le but premier ayant pour effet le changement social et politique. De moyen, les réseaux techniques sont devenus une fin. Pour les héritiers de Saint-Simon, les réseaux de communications sont intrinsèquement producteurs de rapports sociaux et font donc nécessairement évoluer la société vers l’utopie saint-simonienne, l’Association Universelle.

Enfin dans un troisième temps, les ingénieurs des télécommunications, dont les administrations de tutelle furent en leur temps dirigées par des saint-simoniens, reprennent l’idée que les réseaux de communications sont producteurs de changement social mais en ne considérant plus le même effet politique et social. En effet, le réseau n’est plus considéré que comme signe et marchandise, et l’effet produit en est donc directement déduit de la «nature » du réseau et ce dernier produit donc une société dite «de communication » ou d’information, avec des particularités sur lesquelles nous reviendrons. Dans ce contexte, les changements ou révolutions ne peuvent venir que du changement technique des réseaux. L’entrée dans la société de l’information ne serait donc due qu’au passage des communications aux télécommunications. C’est de cette manière que beaucoup d’auteurs déduisent que le progrès technique des communications est la cause première du changement social, et que la société ainsi créée est directement liée à la nature du réseau.

Pierre Musso remarque aussi que la cybernétique reprend une notion clef de Saint-Simon, la capacité. La capacité est à la fois considérée comme contenance et aptitude. Les ingénieurs des Bell labs, où est née la cybernétique, notamment Claude Shannon et Warren Weaver, ont recréé cette représentation sous forme mathématique 1 . « Il s’agit en quelque sorte d’une
1

Théorie mathématique de l’information, de Shannon et Weaver, in Sciences de l’information et de la communication, Textes essentiels par Daniel Bougnoux, Larousse, 1993

théorisation de leur imaginaire et de leur pratique du réseau téléphonique, espèce de «philosophie spontanée »(Louis Althusser) » écrit Pierre Musso1. Ainsi peut-on dire que la cybernétique rejoint la théorie saint-simonienne dans sa caractérisation des réseaux, et ce avec d’autant plus de force qu’elle se fonde sur une théorie mathématique et le poids de la vérité scientifique que beaucoup y associe. L’objet réseau, objet qui peut recouvrir toutes les voies de communications et de télécommunications, se trouve ainsi chargé d’une signification symbolique cachée. On pourrait dire qu’il s’agit là d’un objet «performatif », dans le sens où la seule reconnaissance de son existence suffit à imposer des valeurs symboliques dont l’histoire l’a chargé. De même que l’acceptation de l’énoncé performatif « la séance est ouverte », implique la reconnaissance de l’autorité de celui qui l’énonce, la reconnaissance de l’objet réseau semble obliger à la reconnaissance implicite de la promesse sociale dont il est chargé. Quelles sont donc les promesses sociales dont est chargé l’objet réseau ? Puisque cette notion fut forgée par Saint-Simon, il faut encore une fois regarder l’utopie saintsimonienne. La finalité de la transformation sociale chez Saint-Simon a pour but l’avènement d’un temps où «toute l’espèce humaine n’aurait plus qu’une religion, qu’une même organisation »2. Pour Saint-Simon il y a donc une finalité morale aussi bien que sociale. L’organisation sociale unique est la société industrielle voulue par Saint-Simon. Saint-Simon voit le pouvoir politique comme parasite lorsqu’il s’occupe de la gestion du budget de l’État et considère qu’il doit être confiné à un rôle de surveillant. Seul le pouvoir administratif doit s’occuper de la gestion du budget et par suite, le pouvoir administratif doit être occupé par les meilleurs administrateurs qui soient : les industriels. Le système saintsimonien peut être défini comme un technocratisme où le pouvoir politique est soumis au pouvoir des gens compétents, les détenteurs du savoir. Le passage «du gouvernement des hommes » à «l’administration des choses ». On comprend ainsi sans peine l’origine des couples dialectiques État / Marché et État / Société civile que l’on retrouve dans le saint-simonisme «dégénéré » des discours sur la
1 2

Pierre Musso, op.cit., p.237 Saint-Simon, Le Nouveau Christianisme, Œuvres, t.III, p.114

Société de l’Information des industriels et des ingénieurs d’aujourd’hui, ce qu’a relevé Pierre Musso dans son travail sur la mythologie des télécommunications.

Par ailleurs la théorie saint-simonienne comprend un côté moral, religieux au sens premier du terme. Qualifié de nouveau christianisme, c’est une religion de la communication et de ses réseaux. Tous les hommes doivent se conduire en frères, et de ce principe se déduit l’organisation sociale déjà citée, dans la perspective de l’accroissement du bien-être de la classe la plus pauvre. Ainsi les travaux d’intérêt général de communication assure du travail aux plus pauvres et sont considérés comme le «culte » car ils œuvrent vers une plus grande communication entre personnes et donc vers une communion entre frères. La communion est le principe moral unique, et tout ce qui concourt à celle-ci est donc un bienfait. Plus surprenant, la religion saint-simonienne (la communion par les réseaux de télécommunications promesse d’un comportement fraternel) se retrouve réinvestie dans un autre discours sur la société de l’information, par ceux que nous appellerons les utopistes de la société de l’information, et qui voit dans l’internet, l’outil par excellence de la paix dans le monde et de l’entente entre les peuples.

Nous avons donc vu comment la seule reconnaissance de l’objet réseau, et a fortiori les réseaux de télécommunications, implique la reconnaissance d’un contenu symbolique donnant au réseau un caractère «performatif ». Reconnaître le réseau revient donc à accepter les systèmes de valeurs qui sont associés à l’objet. Si toutes ces valeurs trouvent leur origine dans la philosophie de Saint-Simon, elles n’en sont qu’une partie qui s’est généralement intégrée dans un autre système de valeurs. Ainsi l’organisation sociale saint-simonienne a créé les couples dialectiques État / Marché que l’on retrouve dans les discours teintés d’idéologie libérale, et État / Société civile dans un discours plus technocratique. Dans ces deux discours, l’État est posé comme antinomie des réseaux, et donc de la société de l’information. Et cette antinomie est prétendue naturelle, c’est-à-dire propre à la nature de l’objet réseau. Il est donc important de souligner que cette opposition État / Société de l’information ne relève pas de la structure des organisations, mais de l’opposition des idéologies qu’elles véhiculent.

On s’en convaincra d’autant plus vite que le troisième discours issu de la philosophie de Saint-Simon, celui des utopistes qui ont surtout retenu la morale saint-simonienne, ne voit pas dans l’État un obstacle à la société de l’information. Selon leurs critères, la Société de l’Information consiste en une fraternité humaine et mondiale, une communion fraternelle possible uniquement par les réseaux de télécommunications, et que les gouvernements se doivent de favoriser face à l’offensive mercantile pour le contrôle du cyberespace. Ce discours utopiste se trouve particulièrement repris par la gauche américaine qui y voit là une occasion supplémentaire de réclamer le réengagement de l’État fédéral dans la société américaine. Ce détour par l’évolution historique du concept de réseau et les significations symboliques qu’il charrie implicitement fut nécessaire pour arriver à ce simple constat : l’État n’est pas l’antinomie des réseaux du fait de sa structure pyramidale, c’est-à-dire de leur nature respective, mais bien plus du fait de l’opposition de leurs idéologies constitutives. Alors que l’avènement de la société de l’information est le plus souvent présenté comme une évolution due au progrès technique, c’est-à-dire inéluctable, cet éclairage historique permet de modérer cette affirmation en rappelant que la société de l’information n’est pas issue des caractéristiques physiques des réseaux, mais bien plus des idéologies que véhiculent encore aujourd’hui la notion de réseau.

Chapitre 3

La réalité structurelle de l’internet

Il est vrai que le Réseau, du fait qu’il soit exclusivement composé de symboles, semble développer comme système de valeurs principal l’aptitude à manier ces signes. Dans le Réseau règnent les sophistes ; le surfeur est la mesure de toute chose. La sophistique a trouvé un terrain parfaitement adapté, un lieu exclusivement composé de symboles.

Nous entendons souligner que le Réseau n’est pas exempt de hiérarchies, et qu’au contraire de ce qui est souvent proclamé, le Réseau est en soi porteur de hiérarchies dans son infrastructure ainsi que dans son appareil logiciel.

I.

Approche du pouvoir.

Il n’est pas dans nos intentions de rentrer dans une métaphysique du pouvoir, cependant il est indispensable de clarifier notre point de vue en le mettant en perspective avec notre propos. L’omniprésence du pouvoir nous pousse à le voir comme un attribut propre à toute relation entre sujets. Mais est-ce une essence ou un effet ? À moins que le pouvoir ne soit qu’une puissance des possibles qui ne se concrétise qu’au besoin ? Peu importe, le pouvoir a de toute façon une manifestation concrète. Nous ne discuterons donc pas de savoir si cela est une actualisation d’une essence ou si la manifestation concrète est la nature même du pouvoir, nous prenons acte que le pouvoir se détermine par des actes, et de l’existence de multiples concrétisations. Ces concrétisations nous permettent de caractériser le pouvoir selon ses effets ou autrement dit, nous permet une différenciation du pouvoir et donc d’en parler au pluriel. Avant donc sa concrétisation, le pouvoir reste une virtualité, possibilité logique (il n’est pas impossible que je fasse) ou possibilité réelle (j’ai les moyens de faire). La réalité du pouvoir ne se fera sentir que dans son exercice. Remarquons d’emblée la difficulté : c’est l’action concrète qui nous permet de différencier les pouvoirs ; or gageons qu’une même action a plusieurs sorte d’effets, c’est-à-dire une influence dans différents domaines, différents champs d’intelligibilité. Une action pourrait donc être l’actualisation de plusieurs pouvoirs ? Cette ambivalence pragmatique est le cœur du conflit entre pouvoirs.

Donc l’action effective ne peut parfois pas être considérée comme révélatrice de la forme du pouvoir puisque la complexité est de mise, et les conséquences multiples. Les causes ne sont donc pas aisées à cerner. Or connaître la cause, c’est reconnaître l’existence d’un pouvoir. Ainsi, attribuer la cause d’un effet à un pouvoir détérminé, c’est le faire exister. En tant qu’animaux sociaux, nous sommes toujours en relation (et donc toujours soumis au pouvoir), mais ce n’est certainement pas constamment à la même forme de relation (familiale, amoureuse, politique, etc.), donc au même pouvoir.

Nous nous intéressons spécifiquement au pouvoir politique. Le pouvoir politique, même dans le pire des régimes totalitaires, ne peut se concrétiser continuellement, se faire sentir constamment. D’où la nécessité de se faire reconnaître par des signes pour qu’en dehors de l’exercice effectif du pouvoir, son existence reste attestée. Les signes d’un pouvoir acquièrent de ce fait un pouvoir propre qui se substitue au pouvoir proprement dit, à la contrainte. Même s’il ne faut pas négliger ce pouvoir des signes, il n’en reste pas moins que ceux -ci ne sont que l’incarnation symbolique d’une virtualité ; ils sont le signe d’un pouvoir en puissance. Représentant du pouvoir, les signes n’agissent en lieu et place de celui-ci que tant que cette institution (les signes d’un pouvoir) sera reconnue comme substitut à la contrainte directe du pouvoir. Au cas où les signes du pouvoir ne suffisent plus, le pouvoir doit s’actualiser, c’està-dire, de virtuel devenir effectif.

On fera bien attention de ne pas restreindre le pouvoir politique à ses seuls signes symboliques que nous appellerons institutions sinon l’on ne découvre qu’une tautologie : le pouvoir est représenté, et ses représentations sont le pouvoir. Si l’uniforme du policier peut être inclus dans les institutions, signe symbolique du pouvoir, la matraque du même rappelle que le pouvoir en représentation peut se concrétiser, quitter la sphère des signes et redevenir de l’énergie. C’est cette action concrète, cette relation directe qui est le pouvoir. Et c’est cette nécessaire contiguïté qui est la force et la limite du pouvoir. Le pouvoir ne peut être un signe. Le pouvoir est nécessairement une relation directe (ce qui ne veut pas dire non-médié) d’un sujet à un autre sujet. Les symboles sont-ils pour autant dépourvu d’effets, de pouvoirs ? Certes non, mais l’effet de ces signes ne doit cependant pas faire oublier la cause efficiente, qui n’est pas le signe luimême, mais l’intériorisation par le sujet d’une équivalence entre un pouvoir et son signe.

Dans son fameux texte sur la servitude volontaire, La Boëtie se demandait comment un seul tyran pouvait tenir sous son joug des milliers de personnes. Il en concluait avec justesse que le tyran ne les tient pas, ils se tiennent eux-mêmes. Le pouvoir des signes a ceci d’infiniment supérieur au pouvoir même : il est reproductible et transportable, contrairement au pouvoir qui se doit d’être une relation directe. Mais le signe a aussi une infériorité criante : son pouvoir est strictement virtuel, non pas comme le pouvoir stricto sensu, dans un sens de possibilité, mais dans le sens acquis avec les nouvelles technologies, celui d’illusion. Ce long détour fut nécessaire pour saisir d’emblée les qualités mais aussi les limites de la société de l’information qui base sa réalisation sur la connexion généralisée des ordinateurs et l’échange illimité des signes. Dans notre triptyque Nature/ Territoire/ Réseau, le Réseau est effectivement un lieu sans pouvoir. La promesse de la Société de l’Information serait donc vraie ? Pas exactement. Nous avons bien pris soin de distinguer le pouvoir proprement dit, et celui des signes. Or le pouvoir des signes, s’il n’est qu’illusion, est très efficace. Ainsi, malgré l’absence de pouvoir, les servitudes (pour reprendre le terme de La Boëtie) sont innombrables. Servitudes certes mais, pourrait-on objecter, de la seule Raison, puisque déduite des seuls signes ; ces servitudes ne peuvent être qu’intelligibles et donc raisonnablement admises ou au contraire refusées ! N’est ce pas là la concrétisation du rêve d’une société raisonnable ? Là encore, il ne faut pas rêver : les servitudes du Réseau ne se substituent pas aux contraintes et aux servitudes du Territoire, elles s’y ajoutent.

II. Réseaux et pyramides. Les hiérarchies infrastructurelles du Réseau.
Sachant que les conclusions communes véhiculées par les deux formes que sont un réseau et une pyramide sont pour une bonne part produites par les utopies qui les utilisent et non du seul fait de leur nature intrinsèque1, on peut néanmoins s’interroger de façon légitime sur le fait qu’une structure en réseau soit, sinon l’antinomie, du moins une structure plus ou moins incompatible avec la structure pyramidale.
1

Cf. supra chapitre 2.

On notera, toujours dans le sens que l’antinomie entre réseaux et pyramides n’est pas intrinsèque mais bien plutôt une revendication, que la pyramide peut être analysée en tant que réseau. Si cette dernière est une forme particulière de réseau, il faut regarder quels sont les autres grands modèles de réseaux qui lui sont opposés. Le domaine des télécommunications a l’avantage de posséder différentes formes de réseaux permettant de les nommer et de les comparer. C’est d’ailleurs de ce domaine que sont issus les modèles de réseau qui se sont généralisés à d’autres disciplines. Or ce que nous voulons montrer, c’est que les modèles schématisés (radiophonique, téléphonique et informatique) ne recouvre pas tout à fait la même réalité, et que les grosses différences de nature entre ces modèles sont en grande partie due à leur simplification biaisée.

1. Modèle radiophonique.

2. Modèle téléphonique.

3. Modèle informatique.

Le modèle radiophonique.

Ce modèle (schéma 1) suggère une domination de l’émetteur sur une multitude de récepteurs, il est dit hiérarchique. Le modèle de radiodiffusion est l’archétype de la pyramide, une pyramide à un seul niveau. Cependant, pour être plus juste, il faudrait inclure l’existence des relais locaux, créant ainsi une pyramide à plusieurs degrés. On notera que le modèle radiophonique ne figure qu’un seul niveau et donc ne peut faire référence qu’au contenu diffusé (et là encore en faisant abstraction des décrochages locaux), et non à la forme de l’infrastructure de diffusion qui nécessite une multitude d’émetteurs et dont la modélisation serait une pyramide à plusieurs degrés. L’a priori idéologique sous-entendu avec l’objet réseau (cf. chapitre 2) se révèle encore lorsque l’on considère que l’infrastructure pyramidale par excellence n’est pas le modèle de diffusion radiophonique, mais bien plus le modèle de diffusion par satellite géostationnaire. En effet le satellite contrôlé par un centre au sol, arrose une multitude de points sans aucun autre intermédiaire. Si la possibilité d’un retour existe, celui-ci n’est pas plus développé que la radiophonie amateur ou la CB. En attendant la création des constellations de satellites en orbites basses (Iridium, Globalstar), le satellite est donc beaucoup plus un objet propre aux organisations pyramidales qu’à celles dites en réseau. On comprend néanmoins que l’utopie technologique ne saurait disqualifier un tel objet synonyme de progrès, et préfère donc l’appellation modèle radiophonique, qui rappelle vaguement la TSF d’autrefois, à celle pourtant plus juste de modèle satellitaire géostationnaire qui elle, sent bon le progrès technologique et le 3e millénaire.

Ceci dit, il faut néanmoins rappeler que la télévision qui utilise ce mode de diffusion est le média le plus critiqué, étant le parangon de la diffusion pyramidale, et donc du modèle dit radiophonique. Or si on lit les critiques de la télévision, on trouvera qu’une bonne partie d’entre elles reprochent à celle-ci son manque d’autonomie créative, c’est-à-dire l’application des créateurs de contenu de la télévision à suivre les goûts supposés du grand public, de la ménagère de

moins de cinquante ans1, en bref, de la plus grande masse. Cela est également comparé à la liberté, au fourmillement créatif que représente les radios, locales ou non, depuis la libéralisation de la bande FM. Pour notre part, nous considérons que l’énorme différence d’investissements nécessaires pour la création de contenus dans ces deux médias expliquent en grande partie ces différences d’attitude. Mais là n’est pas la question qui nous occupe, nous voulions simplement souligner que le modèle radiophonique (appliqué à la radio et à la télévision) ne rend compte que partiellement et de la circulation des informations (en oubliant le poids de l’audimat qui façonne de manière prononcée la création des contenus), et des infrastructures utilisées (multiples émetteurs locaux importants pour la radio).

Un modèle est forcément imparfait, aussi faut-il le préciser. En tant que modèle de contenu, le modèle radiophonique ne correspond vraiment qu’aux radios locales, bien moins au radios nationales qui font leur grille de programmation en fonction de leur audience, et encore moins à la télévision qui suit anxieusement les courbes de Médiamétrie. Si l’on considère uniquement l’infrastructure, il faut rappeler que si ce modèle est complètement valable pour la diffusion par satellite, il ne l’est qu’à un niveau local pour la diffusion hertzienne et par câble. Dans ces deux dernières, les relais locaux sont nécessaires et primordiaux. Qu’on songe à la durée nécessaire pour que le 5e et le 6e canal couvre l’ensemble du territoire, qu’on se rappelle que les câblo-opérateurs agissant localement, la bataille des concessions est rude. Preuve s’il en faut, que les relais locaux sont beaucoup plus important que le laisse supposer le modèle radiophonique qui les passe purement et simplement sous silence. Le modèle radiophonique n’est donc pleinement valable qu’à un bout de la chaîne de diffusion, à un niveau local ; dans le seul domaine de l’infrastructure il ne concerne que la diffusion satellite. Or nous verrons que dès que l’on considère les différents paradigmes (radiophoniques, téléphonique et informatique) à un niveau local, la structure en pyramide, soit pour
1

« directrice des programmes occulte » p.21 in B. Pivot, Remontrance à la ménagère de moins de 50 ans,

l’infrastructure, soit pour la création et la circulation du contenu, est commune à tous les modèles.

Le modèle téléphonique.

Le modèle téléphonique (schéma 2) est apparemment le modèle égalitaire par excellence. Tous les agents sont reliés à tous les autres, dans un réseau dit de point à point. On notera d’abord que le modèle téléphonique ne rend pas compte de toute la circulation des contenus, sauf à passer sa vie au téléphone. La grande partie des contenus des conversations téléphoniques sont déterminés en dehors de celui-ci. En effet on ne fait pas un numéro de téléphone par hasard pour parler d’un sujet quelconque. La conversation téléphonique est en cela déterminée par des rapports extérieurs à la relation téléphonique et qui n’apparaissent pas dans la modélisation de ce dernier. Le modèle téléphonique n’est sur le plan du contenu qu’une partie du système de circulation de l’information, celle qui circule par téléphone. Mais la plupart des conversations, des échanges téléphoniques ont leur origine ou leur conclusion sans sa médiation. Ainsi, toutes les conversations téléphoniques reproduisent dans leur contenu les hiérarchies sociales valables en dehors de la conversation téléphonique 1. Si le modèle téléphonique est égalitaire, ce n’est donc pas sur les contenus qu’il véhicule, mais semble-t-il sur l’infrastructure. Cependant, sur le plan de l’infrastructure, ce modèle fait l’impasse sur tout ce qui est transparent pour l’utilisateur, mais dont l’existence rend pourtant le téléphone beaucoup moins égalitaire qu’il n’y paraît. En effet, les terminaux ne sont pas raccordés les uns aux autres, ils sont raccordés à des autocommutateurs qui centralisent les lignes. Les
1

On peut d’ailleurs s’interroger si le téléphone n’amplifie pas les hiérarchies sociales par la capacité qu’il donne de faire cesser unilatéralement la conversation. Cette capacité est-elle exercée de manière uniforme ? C’est peu probable. Par exemple, un employé ne raccrochera guère souvent au nez de son patron, ce que ce dernier peut se permettre sans retenue. Pour preuve, le démarchage commercial, c’est-à-dire la sollicitation d’un acheteur potentiel par un vendeur (et donc une relation avec une hiérarchie fortement marquée, la continuation de la relation dépendant quasi exclusivement du bon vouloir de la personne sollicitée), est un exercice beaucoup plus difficile que la vente où existe un contact physique.

autocommutateurs locaux sont eux-mêmes centralisés. Au niveau de l’infrastructure, le modèle téléphonique est le suivant :

Commutateur de transit Principal (5)

commutateurs de transit

Commutateur de transit Secondaire (75) ________________________________________________ Commutateur à autonomie d’acheminement (1100) abonnés Unité de raccordement D’abonnés abonnés d’abonnés

commutateurs

4. Infrastructure téléphonique.

Or on peut voir que ce modèle n’est autre qu’une pyramide tronquée. En fait le réseau téléphonique est construit sur une base pyramidale tronquée à six niveaux :

-

les terminaux téléphoniques. les unités de raccordement. les commutateurs à autonomie d'acheminement (CAA). les commutateurs de transit secondaire (CTS). les commutateurs de transit primaire (CTP). les commutateurs internationaux.

Il est donc nécessaire de rappeler que l’infrastructure téléphonique n’est pas égalitaire 1 . Toutes les lignes sont centralisées vers des commutateurs qui relient les lignes entre elles. Du
1

Pour exemple l’utilisation par un technicien de France Télécom des priorités d’acheminement des appels (les appels internationaux sont prioritaires) pour être toujours le premier à passer son appel (ou d’un de ses complices) au jeu télévisé de TF1 l’Or à l’Appel.

point de vue de l’utilisateur, le passage obligé par un autocommutateur local le place dans une relation hiérarchique stricte, une structure pyramidale.

Pour donner une idée de la forme étriquée de cette pyramide il est nécessaire de rappeler que le réseau de France Télécom ne comprend que 5 CTP, 75 CTS et 1100 CAA.

Un central téléphonique a donc la même importance technique dans la relation téléphonique, qu’un émetteur relais pour la télévision. S’il ne fait pas le contenu, il permet sa diffusion. Pourtant, ces deux réseaux techniques sont opposés. Certes le téléphone permet la circulation d’informations dans les deux sens, ce que ne permet pas la télévision (ou par un cheminement beaucoup plus long et non personnalisé qu’est l’audimat), il en est pas moins vrai que l’infrastructure téléphonique est fortement hiérarchisée. Que ne dirait-on pas d’une organisation sociale où pour s’adresser à son voisin, il faudrait faire passer le message par l’intermédiaire de supérieurs, qui feraient alors redescendre le message à son destinataire ? Qu’elle est fortement hiérarchisée... Et malgré le fait que l’infrastructure téléphonique fonctionne selon ce principe, elle est décrite comme un modèle égalitaire ! En fait, l’égalité supposée du modèle téléphonique n’est due qu’à la transparence de sa hiérarchie. Mais transparence ne veut pas dire inexistence. D’ailleurs transparence n’est pas le terme le plus approprié car celui-ci sous-entend la possibilité de voir le fonctionnement. Parler de transparence d’une hiérarchie implique auparavant la reconnaissance de son existence. Or c’est justement là que le bât blesse. La diffusion du modèle téléphonique niant l’existence même d’une hiérarchie et dont est déduit les prétendues conséquences sociales promises par l’avènement de la société de l’information (qui ne sont pas en fait des conséquences, mais des idéologies constituées a priori (cf. chapitre 2)), c’est-à-dire la modélisation des organisations sociales sur cette organisation technique ont surtout pour effet de nier l’existence de hiérarchies à l’intérieur du réseau téléphonique, et donc non pas de les rendre transparentes, mais invisibles. Il serait faux pourtant de dire que l’infrastructure téléphonique est strictement pyramidale. En effet certains commutateurs de même niveau sont reliés entre eux si le trafic le justifie. De même une transversale peut relier un commutateur à un autre non immédiatement supérieur.

Ces transversales existent pour des raisons de trafic ou de sécurité en doublant ainsi les voies normales d’acheminement. Cependant, si l’on considère le réseau téléphonique d’un point de vue statique (c’est-à-dire comme la liaison de points déterminés), on reconnaît une hiérarchie entre ses points (exprimés d’ailleurs dans la dénomination de certains commutateurs, de transit primaire ou secondaire). Malgré l’existence des transversales, certains points du réseau (où se situent les commutateurs) sont d’une importance supérieure à d’autres (et justifie d’ailleurs en cela le doublement des voies d’acheminement vers celui-ci, ce que sont les transversales). Il existe donc bien une hiérarchie dans la structure technique du réseau téléphonique. Et pour l’utilisateur d’un terminal (un téléphone), cette hiérarchie est strictement pyramidale, il n’a d’autre possibilité que d’être relié à un commutateur local, et uniquement à celui-ci.

Le modèle informatique.

Le modèle informatique (schéma 3) est le modèle le plus difficile à élaborer.

En effet, la communication informatique utilise de plus en plus les infrastructures téléphoniques, et donc au premier niveau, la communication se fait via une unité de raccordement d’abonnés. Ensuite, son mode d’acheminement diffère de la commutation de lignes, on parle de communication de paquets.

La commutation de lignes, si elle reste indispensable pour faire entrer un terminal dans le réseau de télécommunication, cède ensuite le pas aux routeurs de messages (ou de paquets). En effet la commutation de ligne consiste à brancher deux points en leur réservant de la bande passante même si leur échange est nul. La commutation par paquets sectionne les messages

numérisés et les envoie dynamiquement, c’est-à-dire selon un chemin non prévu, dans le réseau. Le message est ensuite reconstitué par le destinataire. Du fait que cette technologie implique la section des messages, on comprend qu ’elle ait été à l’origine réservée à l’Échange de Données Informatiques (EDI). Cependant, comme ces données informatiques tendent à recouvrir n’importe quel contenu, cette manière de transmettre se généralise et semble à terme promise à remplacer le schéma téléphonique, c’est-à-dire la commutation de lignes1. Dans ce type de réseau, la hiérarchie des commutateurs n’existe plus. Les routeurs qui sont à chaque nœud du réseau (là où se trouve également les autocommutateurs) dirigent les paquets grâce à leur en-tête (étiquette de destination) vers le routeur le plus proche le moins encombré, et ainsi de suite jusqu’au destinataire. Malgré cette apparente égalité des points des nouveaux réseaux, il ne faut pas oublier que ceux-ci se sont greffés sur l’ancien. En effet, les routeurs ne font que réorganiser l’utilisation des câbles déjà existants. La hiérarchie dans un réseau de type EDI n’est pas donnée par les points du réseau, mais par ses chemins. Ainsi, en considérant le réseau dynamiquement, on s’aperçoit que les chemins les plus larges sont les plus importants. Ces câbles (appelés «backbone ») sont la colonne vertébrale des réseaux informatiques. L’image n’est pas anodine mais révèle parfaitement la hiérarchie créée par les capacités en bande passante des câbles. Or, du fait de l’organisation originelle du réseau téléphonique, les câbles principaux se trouvent entre les commutateurs de transit primaire. La hiérarchie dans le réseau reste quasiment inchangée. En dernier arrive le terminal qui ne fait pas partie du réseau, mais s’y connecte. Sa nature veut qu’il s’y déconnecte, c’est-à-dire qu’il n’en fera plus partie. Pour véritablement faire partie d’un réseau, il faut pouvoir servir de relais. Or ceci est une opération coûteuse et qui nécessite plus que l’achat d’un modem, mais d’un serveur, l’achat d’une adresse internet (non pas une adresse mail, mais une adresse IP qui localisera la machine et permettra l’acheminement de messages à cette destination), etc. Faire partie du réseau est notablement différent que s’y connecter. Les hiérarchies dans l’internet existent, et elles se nomment bande passante, point d’accès, etc. Cette hiérarchie est
1

Sprint, le troisième opérateur américain de télécommunications à longue distance a prévu d’abandonner la commutation de circuit pour la commutation de paquet dès 1999.

une hiérarchie matérielle, infrastructurelle qui repose physiquement sur le territoire. Les cartes des câbles de télécommunications (en France pour la plupart propriété de France Telecom ou de la SNCF pour ceux utilisé par Cégétel) existent. Or leur diffusion est plutôt confidentielle, et leur accès difficile. On peut néanmoins se faire une idée des infrastructures de Cégétel puisque ce sont celles de la SNCF, parfait réseau en étoile. Voilà un réseau hiérarchisé s’il en est ! Le modèle de communication informatique n’est donc pas plus égalitaire que son homologue téléphonique. Leur fusion programmée laisse plutôt penser à une conservation des hiérarchies actuelles.

III. Les hiérarchies logicielles du Réseau.

La Société de l’Information n’est pas seulement le Réseau, les flux électroniques des paquets d’octets, mais également l’infrastructure telle que décrite ci-dessus. Le Réseau dépend énormément de son infrastructure, il est donc directement dépendant du Territoire. Cette dépendance vis-à-vis de l’infrastructure est en fait l’unique pouvoir stricto sensu (i.e. autre que le pouvoir des signes) dans le Réseau. Le Réseau, matrice de la Société de l’Information, a les pieds dans le Territoire, et c’est là que sont les vrais pouvoirs de la Société de l’Information. Lorsque la conviction du signe ne suffit plus, la coercition technique, c’est -àdire physique, surgit. Les deux existent bien sûr de concert, mais la technique façonne en partie les symboles car elle délimite leur espace d’expression. Pôle de gravité insensible car structurant, les fondations techniques des signes sur le Réseau sont les enjeux les plus révélateurs car ils montrent les oppositions et les connivences. Mesurer une distance en pieds ou en mètres n’est pas tout à fait équivalent.

Les couches ISO. C’est donc au point de contact du Réseau et du Territoire que se jouent les enjeux de pouvoir du Réseau. Or cette zone de contact a le mérite d’avoir déjà été structuré par l’ISO (International Standardization Organization), dans le modèle à l’acronyme homonyme ISO (Interconnexion des Systèmes Ouverts) ou OSI (Open Systems Interconnection). Ce modèle comprend sept couches et décrit parfaitement la frontière entre Réseau et Territoire. En effet, si l’on peut parler de Réseau au singulier c’est grâce à la compatibilité entre les multiples formes existantes de réseaux de télécommunications et des systèmes informatiques par eux reliés. Cette compatibilité se fait grâce à la normalisation de chacune des couches du modèle ISO. Une couche de rang n-1 rend des services à la couche immédiatement supérieure de rang n. Autrement dit, une couche de rang n est dépendante de la couche inférieure. Ce sont les conséquences de cette dépendance qui sont les enjeux de pouvoirs du Réseau. Cette dépendance du niveau inférieur décrit finement en fait la dépendance du Réseau envers le Territoire.

De même le Territoire dépend de la Nature. Pour illustrer cette dépendance, rappelons le sort de l’atoll japonais Okino-Tori-Shima. À la suite d’un mouvement sismique, le sommet de cet atoll s’est enfoncé. Or si la mer était parvenue à le recouvrir, l’atoll en question ne pouvait plus être considéré comme terre émergée. S’en serait suivi la perte de la zone économique exclusive qui s’étend jusqu’à 200 milles nautiques (370 km) de toute terre émergée. Pour pallier à cette probable perte d’une immense zone de pêche, les Japonais ont bétonné le sommet de l’atoll pour le relever et prévenir un éventuel recouvrement. Le Territoire est donc bien dépendant de la Nature, même si celui-ci peut ruser avec celle-ci comme le montre l’expérience d’Okino-Tori-Shima. De même certaines tactiques peuvent permettre au Réseau de ruser avec le Territoire, comme ce dernier peut ruser avec la Nature.

Mais toutes les constructions antisismiques, et autres digues ne font que témoigner de l’origine du pouvoir entre Nature et Territoire. Il existe cependant une grosse différence avec le couple Territoire / Nature, c’est que le Territoire n’est pas seulement une entité symbolique, les forces physiques (bétonner un atoll par exemple) y sont possibles, donc le pouvoir. Le Territoire, au vu de l’évolution de l’état de la planète, a pris le dessus sur la Nature. Mais pour le couple Territoire / Réseau, toutes les possibilités physiques sont du côté du Territoire. Le Réseau reste une sphère purement symbolique qui, si elle peut commander au Territoire, ne

peut s’en affranchir1. Ainsi lorsque le Territoire surgit dans le Réseau, celui-ci ne peut que contempler sa dépendance. Les effondrements de trafic sur l’IRC dus à la déconnexion de certains réseaux sont monnaie courante, donnant l’impression aux utilisateurs connectés que tous les utilisateurs d’un réseau spécifique se déconnectent simultanément. Mais si le direct de l’IRC permet de témoigner de ces ruptures de réseaux, les autres protocoles (SMTP, NNTP, FTP, HTTP), c’est-à-dire les autres utilisations (courriers électroniques, forums, transferts de fichiers, web) ne peuvent témoigner de l’étendue de la déconnexion 2 . Soit parce que les communications ne sont pas en direct (forums ou mails), soit parce qu’elles sont ciblées sur une adresse particulière (web et FTP), ne pouvant donc présumer de la déconnexion particulière l’étendue de celle-ci.

Système 1

Système 2

APPLICATION 7 APPLICATION PRÉSENTATION 6 PRÉSENTATION SESSION 5 Nœud(s) intermédiaire(s) SESSION TRANSPORT 4 [pouvant ou non exister] TRANSPORT RÉSEAU 3 RÉSEAU RÉSEAU LIAISON 2 LIAISON LIAISON PHYSIQUE 1 PHYSIQUE PHYSIQUE CHEMIN DE COMMUNICATION CHEMIN DE COMMUNICATION

5. Le modèle ISO.

1

L’affranchissement du Réseau par rapport au Territoire n’est pas d’actualité. Cependant, c’est un sujet largement traité en fiction. Pour un affranchissement maléfique et temporaire de celui-ci, on se référera au film Wargames. D’autres œuvres de science-fiction ont décrit l’affranchissement du Réseau par rapport au Territoire, c’est-à-dire son indépendance fonctionnelle. L’autonomisation fonctionnel (en fiction, l’accession à la pensée) nécessite, pour une indépendance totale, une autonomie énergétique (pour ne pas être débranché) et une robotisation très poussée (pour pouvoir intervenir «physiquement »). Ces nécessités pointent avec pertinence les limites du Réseau, et donc les pouvoirs qui peuvent le commander. Dans cette veine voir Terre, de David Brin (2 tomes : La chose au cœur du monde et Message de l’univers), Presses Pocket. 2 Le plus gros effondrement dont l’auteur peut témoigner, fut la nuit de la mort de lady Diana. L’événement a fait augmenter de façon si brutale les échanges transatlantiques que les connexions entre réseaux ont été saturées et ont fini par cédées. L’IRC étant un échange en direct, on peut effectivement voir la déconnexion simultanée des milliers d’utilisateurs d’outre-Atlantique. Pour ces utilisateurs, l’effet fut le même vis-à-vis des connectés européens. La déconnexion d’un réseau est cependant invisible pour les échanges différés comme le courrier électronique. Ce fut la mésaventure d’AOL il y a quelques années. Tous les usagers d’AOL n’ont, l’espace de tro is jours, pu accéder à l’internet mais seulement au réseau d’AOL, mais plus grave, aucun courrier électronique à destination des abonnés d’AOL venant de l’extérieur ne pût être acheminé et vice -versa. Il y eut trois jours de silence radio de ces abonnés sans aucune raison apparente, entraînant des conséquences plutôt néfastes pour certains.

Les couches basses dites réseau correspondent aux couches 1, 2 et 3 et ont pour rôle essentiel le transport des informations entre 2 systèmes. Les couches hautes dites application correspondent aux couches 4 à 7 et ont pour rôle essentiel le dialogue entre applications. Les applications sont des logiciels informatiques. À partir de la couche 7 né l’empire des signes de la Société de l’Information, ce que nous avons appelé le Réseau avec toutes les pratiques sociales qui s’ensuivent, notamment l’absence du pouvoir déjà évoquée. Les chemins de communication sont des câbles bien réels et parfaitement localisables ou des satellites et leurs antennes émettrices au sol. Ils appartiennent de plein droit au Territoire et sont soumis à la loi des États. Les routeurs sont les équipements présents sur les nœuds de communication où se trouve aussi un commutateur si les lignes ne sont pas strictement EDI mais également utilisée en téléphonie. Ce qu’il est important de retenir, c’est la dépendance physique des couches supérieures envers les couches inférieures, mais également que la finalité des ces dernières est de servir les couches supérieures. Mais la finalité de la structure OSI (couche inférieure sert une supérieure) implique en étendant cette dynamique, que la finalité du Territoire est de servir le Réseau. Cependant, la dépendance reste inverse. Les couches supérieures sont tributaires des couches inférieures. Dans cette optique on retrouve un schéma bien connu : la fin se trouve dépendante des moyens. Le modèle OSI est l’origine du modèle de la Société de l’Information. Cette dernière n’est que l’extension aux usages sociaux d’un modèle technique. Un objet technique peut sans aucun doute transformer une civilisation (la voiture par exemple), mais il est quand même assez rare qu’on en vienne à vouloir remodeler une civilisation selon un modèle technique ! Même si ce remodelage puise dans des modèles théoriques et utopiques antérieurs comme le saint-simonisme, on peut se demander si cette reconversion soudaine n’en est pas moins qu’une justification théorique de la généralisation des enjeux de pouvoirs que l’on peut décrypter grâce au modèle OSI. Rien de plus utile que l’intérêt général quand il cache le particulier.

Dans le modèle OSI, les enjeux de pouvoir sont pour l’instant clairement identifié au niveau des chemins de communication avec la déréglementation du marché des opérateurs de télécommunication qui en sont généralement propriétaires (à part entière ou en pour partie via des joint-ventures), comme on peut le voir en France entre France Telecom et Cégétel. Là les responsabilités sont encore clairement établies, les États conservent le pouvoir dans ce domaine (même si cela consiste à s’en désaisir via la déréglementation, il s’agit d’un acte dont l’origine est clairement établie).

Un autre enjeu clairement défini est celui qui oppose Microsoft au reste du monde au niveau des couches d’applications. Là l’enjeu est clairement défini comme commercial, voire par certains comme culturel, car comme nous l’avons montré, les couches inférieures déterminent pour une grande part les couches supérieures. Au-delà de la couche 7, on sort du domaine technique pour rentrer dans les usages sociaux des techniques, et il est juste de dire que la technique influe sur ceux-ci. Il existerait donc une différence médiologique entre les outils informatiques Microsoft et d’autres, aussi sûrement qu’entre une plume d’oie et un stylo bi lle. Le champ à étudier serait large, mais nous pouvons honnêtement avancer que les outils informatiques nécessitant des apprentissages et contribuant ainsi à créer des habitudes, créent des différences qui influent très certainement sur les utilisateurs. Reste à déterminer si ces différences existent réellement et ne sont pas qu’un simple argument commercial de la part des concurrents de Microsoft. On remarquera que Cisco, le constructeur d’équipements nécessaires au niveau des nœuds de télécommunications, c’est-à-dire essentiellement les couches réseau du modèle ISO, détient environ 80% de ce marché pour le moins stratégique. Or ce quasi-monopole passe totalement inaperçu. D’ailleurs le troisième enjeu de pouvoir décelable est justement à propos de la couche 3 du modèle ISO et du protocole IP dans sa version 6. En effet le succès de l’internet tient dans la généralisation du protocole IP (associé à TCP pour le transport), qui en a fait le protocole de communication par excellence car universellement partagé. Il existe de nombreux autres protocoles réseau, mais tous utilisent IP quand la nécessité de se faire comprendre de tous se fait sentir. On comprend donc que le protocole IP lui-même est un énorme enjeu car devenu le standard incontesté, son évolution aura des répercussions innombrables.

Les enjeux de pouvoir au niveau supérieur et inférieur sont très médiatisés car reconnus pour l’un comme un enjeu économique ou social (Microsoft vs. Le reste du monde) et pour l’autre comme un enjeu économique ou politique (déréglementation des télécommunications), le ou étant ici inclusif. On notera que dans tous les cas, c’est un enjeu économique. L’enjeu du protocole IP ne semble pas avoir frappé grand monde, il est considéré comme un problème purement technique. Pourtant, on a au moins la preuve que cet enjeu est suffisamment de taille pour être un enjeu économique. En effet, Microsoft, fidèle à sa stratégie du monopole pour l’intérêt général, a lancé il y a quelques années MSN (MicroSoft Network), réseau propriétaire proposant du contenu. La connexion «prête à l’emploi » MSN étant incluse avec les systèmes d’exploitation Windows de Microsoft, l’objectif était clair : faire de MSN le réseau accueillant le plus de personnes (au mieux tous ceux utilisant un système d’exploitation Microsoft, c’est-à-dire pratiquement tous les utilisateurs de PC), pour rendre la connexion à MSN la plus intéressante, voire quasi-obligée pour le commerce électronique. Bref faire de MSN, ce qu’est l’internet actuellement. La différence est cependant énorme, MSN était un réseau propriétaire (c’est-à-dire privé et où les propriétaires font la pluie et le beau temps, notamment dans la définition des normes techniques), alors que l’internet, étant un amalgame de réseaux, la définition des normes techniques passent donc par des organismes publics et se fait beaucoup plus difficilement (du fait des conflits d’intérêt) et la diffusion de ces normes est également assez aléatoire. La plus grande chance de devenir une norme pour l’internet est d’avoir été d’abord adopté par les utilisateurs ! On voit l’énorme différence de gestion entre l’internet et un réseau propriétaire. À l’origine, l’internet n’était que l’interconnexion de réseaux publics, les réseaux propriétaires s’y sont raccordés (comme celui d’AOL) pour gagner en valeur (selon la traditionnelle formule pour les réseaux que plus il y a de connectés, plus se connecter devient intéressant). Le pendant à cela devient clair et est familier en notre époque de mondialisation : on n’est plus maître chez soi. Ainsi les réseaux propriétaires peuvent conserver toutes les spécificités qu’ils veulent, du moment qu’elles soient compatibles avec les caractérisations de l’internet, d’où l’importance de ces dernières. L’aventure MSN s’est terminée, celui-ci a fini par joindre l’internet et doit donc passer sous les fourches caudines de l’Internet Society. Mais on a pu y voir la tentative par Microsoft de

dominer le monde réticulaire pour y dicter ses conditions technologiques et commerciales comme il le fait dans le monde de l’informatique personnel1. La définition d’une nouvelle norme du protocole IP qui devrait se généraliser progressivement est donc un enjeu plutôt important quoique assez inaperçu.

Un nouveau standard IP version 6.

La partie IP du protocole de TCP/IP a évolué de la version initiale. La norme en 1998 est la version 4. La prochaine version de la norme, IP v6, a été approuvée en janvier 19952. Elle ne se répand que lentement en raison de l'énorme masse existante de logiciels conçue pour la version 4. Cependant, un consortium d'organismes gouvernementaux et d’universités reconstruise un internet de la deuxième génération, «internet 2 ». Utilisant la même tactique qu’avec l'internet initial, cela commence d’abord comme réseau non commercial à vitesse élevée joignant des universités et des laboratoires de recherches par l'intermédiaire de liaisons principales propriétaires. L’internet 2 est un banc d'essai pour la prochaine génération de l'internet, et il est exclusivement basé sur IP v6. IP v6 remplace des adresses de 32 bits de la version 4 par des adresses 128 bits, augmentant énormément le nombre d'adresses internet.
1

Microsoft a changé de tactique en distribuant gratuitement son navigateur Internet Explorer avec son système d’exploitation Windows en arguant qu’il en était une partie constitutive. Si la finalité commerciale est connue (et s’en est suivi les différentes procédures judiciaires contre Microsoft), l’utilisation technique l’est moins. En effet les logiciels Microsoft tentent de s’imposer en utilisant des codages différent s des autres, rendant ces derniers incompatibles. Si le monde du web évolue très vite et permet de pallier cette pratique par l’utilisation de techniques toujours nouvelles, celui des forums et du courrier évolue bien moins vite. Ainsi poster un article dans un forum avec un logiciel Microsoft (Outlook par exemple), rend souvent cet article incompréhensible à tous les possesseurs de logiciels différents. La gêne occasionnée n’est donc pas décelable pour les utilisateurs de produits Microsoft car ceux-ci lisent bien sûr les standards utilisés par les autres constructeurs. Microsoft veut ainsi jouer sur l’effet de nombre pour imposer ses standards de façon informelle comme avec son système d’exploitation Windows. L’utilité pour l’utilisateur est bien moindre.. . À quoi bon poster un article publiquement si celui-ci n’est lisible que pour une partie du public ? Demander à un utilisateur de forum de reconfigurer son logiciel selon les critères standards de l’internet pour qu’il soit compris de tous au lieu des cri tères derniers cris de Microsoft seulement compréhensibles par les clients de ce dernier est monnaie courante sur les forums. Ceci est néanmoins révélateur de l’offensive technique de Microsoft et de l’importance stratégique de ces critères. 2 Cf. RFC n° 1883 (http://www.sw.com.sg/Connected/RFC/)

Il permet également l'authentification et le chiffrement dans l'en-tête de paquet, ce qui permet de sécuriser les échanges. Il peut étiqueter des paquets de sorte que l'expéditeur puisse demander une manipulation spécifique, c’est-à-dire un envoi plus urgent qui ne doit pas souffrir de délais nuisant à son contenu. Les paquets sont étiquetés avec des priorités de 0 à 15. De 0 à 7, il s’agit de paquets pouvants souffrir de reports de transmission, et de 8 à 15 sont les priorités des envois «en temps réel », i.e. ne devant pas souffrir de retard. Le 8 étant le plus prioritaire (vidéo haute définition) et le 15 le moins (son basse qualité). Ainsi, les paquets de données des programmes vidéos peuvent avoir une priorité plus élevée que des paquets de e-mail, parce que des retards affectent la qualité de la vidéo, mais pas celle du courrier électronique.

Très important aussi, la multi-diffusion est possible avec IP v6, et ceci peut notablement réduire l'encombrement de l’internet. Prenons par exemple la diffusion d’un clip vidéo à 12 sites différents par l'intermédiaire de l'internet. Aujourd'hui, les destinataires doivent faire 12 demandes séparées de la vidéo au serveur, imposant au serveur et au routeur un débit proportionnel au nombre de demandes. Avec la multi-diffusion, la diffusion initiale est envoyée à une adresse simple. Le système qui envoie une demande à cette adresse peut ensuite avoir une copie de la liaison binaire (la vidéo codée en binaire) reçue par elle. Comme avec la télévision, la liaison est là, et ceux qui souhaitent se brancher sur elle, le peuvent à volonté, s’ils ont la permission de l'expéditeur. Cette présentation sommaire de l’IP v6 laisse penser qu’effectivement, il s’agit essentiellement d’une affaire technique. On voit bien la tendance au multimédia sur l’internet, mais cela n’est pas nouveau. L’internet 2 ne sera que la matrice technique de la convergence déjà annoncée de l’informatique, des télécommunications et de l’audiovisuel. Cependant, le protocole IP est devenu un enjeu, notamment en raison de la multiplication du nombre d’adresses possibles. En effet, l’égalité sur l’internet et particulièrement sur le web qui en est le lieu central, tient surtout au fait que la mise à disposition d’information sur un serveur X n’est pas en soi plus remarquable que si ces informations étaient hébergées sur un serveur Y. Si la facilité de transfert de ces informations dépend effectivement de critères techniques de la liaison, la facilité d’accès à ces informations est techniquement strictement identique. Si l’internet est

une mine d’information, trouver le filon est toujours une gageure. Les moteurs de recherche existent mais ils se basent sur les contenus des informations. Le protocole IP v6 a un en-tête de priorité (un «flag » ou fanion de priorité). On a bien vu que la nécessité de celui-ci était dû à l’encombrement du réseau et au fait que certaines formes de données nécessitent un débit continue et assuré comme la vidéo, alors que d’autres non. Cependant, rien n’assure que le fanion de priorité ne sera utilisé que pour des raisons techniques, il est même fort probable que ce ne sera pas le cas. On peut se demander quelle différence il peut y avoir entre un courrier électronique acheminé en un quart d’heure et un autre qui en prend 3 secondes. Dans une société où l’instantané est la règle, l’écart peut être lourd de conséquences. On rappellera qu’avant guerre, l’agen ce Havas a bâti sa fortune en faisant circuler l’information plus vite que les autres. Mais plutôt que de spéculer sur les possibilités induites par le protocole IP v6, remarquons simplement la volonté affirmée de réintroduire une hiérarchie dans le réseau.

Cette hiérarchie technique pourrait ensuite être utilisée comme un critère pertinent par les outils logiciels dans la sélection de l’information. Où un critère purement technique, acquière une portée de sens qui n’a rien à voir avec celui-ci. C’est là la crainte des utopistes du net qui craignent de voir utiliser les fanions de priorité du protocole IP v6 comme autant de coûts supplémentaires contrariant une diffusion égalitaire et uniforme de l’information. La diffusion d’information sur l’internet n’a actuellement qu’un coût minime et tout le monde est logé à la même enseigne. IP v6 c’est structurellement l’internet à plusieurs vitesses ; on voit donc en quoi cela va à l’encontre de l’idée d’une diffusion de l’information uniforme et surtout égalitaire. Cependant l’information est la différence remarquable qui la hisse du bruit ambiant. Cette hiérarchisation technique est en fait, une manière de donner du sens au magma qu’est le Réseau. Pouvait-il en être autrement quand le problème n’est pas le manque d’informations mais l’abondance de celles-ci ? Nous ne le croyons pas. Dans ce cas, le défit du Réseau n’est pas de diffuser au maximum, mais au contraire de hiérarchiser pour redonner du sens. Et plus le Réseau accueillera de trafic, plus la nécessité de différenciation et de hiérarchisation se fera sentir. L’internet rappelle les grands idéaux de l’école. Pour l’accomplissement de ses buts – l’enseignement, la diffusion du savoir, etc. – elle utilise un outil fort commode : la hiérarchisation. Mais cette hiérarchie scolaire est devenue le principal critère de sélection

sociale. On arrive presque à l’inverse des buts initiaux quand l’école n’arrive plus qu’à produire cette hiérarchie. Il ne faut pas se leurrer, les outils technologiques de l’internet sont des outils de sélection, des filtres, et autres moteurs de recherche. C’est grâce à eux que l’internet livre des informations. L’égalité initiale de diffusion sur l’internet, oblige en retour, à une sélection stricte dans la réception. La différence est importante puisque la hiérarchie est définie par le récipiendaire, mais cela ne justifie pas l’oubli que la hiérarchie doit exister, et qu’elle est même vitale.

La bataille du DNS ou l’internet révèle sa structure douloureusement pyramidale.

Avant tout, il convient de rappeler ce qu’est le Domain Name System. On a vu que les adresses internet sont des adresses dites IP et qui ont cette forme : 146.221.34.67. Or les adresses utilisées sont des adresses logiques comme telecom.gouv.fr (utilisées quelle que soit la fonction, mail : dupont@telecom.gouv.fr, web : www.telecom.gouv.fr, ou transfert de fichiers : ftp.telecom.gouv.fr), que l’on appelle nom de domaine. Une telle adresse est composée d’un domaine principal, «.fr », d’un sous-domaine «.gouv » et peut être encore subdivisée selon les besoins (le gouvernement ayant besoin de nombreuses adresses pour ses services, on comprend le pourquoi de celle-ci). La plupart des adresses logiques internet n’ont qu’un domaine et un sous-domaine (ex : microsoft.com). Or lorsqu’une machine envoie une requête, elle a besoin de connaître non pas l’adresse logique, mais l’adresse IP, qui n’a rien à voir avec celle-ci. Pour ce faire, elle doit d’abord chercher l’adresse IP correspondante à l’adresse logique demandée. Elle s’adresse alors à un Domain Name Server qui est un serveur (un ordinateur connecté en permanence) où sont enregistrés toutes les adresses logiques et leurs correspondances IP (en effet, une entreprise qui change de prestataire internet, change d’adresse IP puisqu’elle utilisera les ordinateurs de son nouveau prestataire, mais ne changera pas d’adresse logique). Pour pouvoir enregistrer une adresse logique, il faut avoir une connexion permanente au réseau, d’où la nécessité pour les particuliers ou des entreprises de passer par un intermédiaire qui est généralement le fournisseur d’accès et de services internet.

racine

edu

com

...

fr

uk

sg

Domaines

upmf-grenoble

gouv

inria

Sous-domaines

www-sciences-po

Ordinateurs

6.Arbre de nommage des ressources internet.

On comprend donc l’importance des serveurs DNS qui sont les annuaires indispensables pour trouver et être trouvé. La gestion de ces DNS est confiée à des organismes ad hoc. Ainsi tous les sous-domaines voulant faire partie de la hiérarchie.fr doivent être enregistrés par le NIC France 1 (Network Information Center), chaque hiérarchie nationale ayant un organisme dédié. Les domaines des pays (dits ISO 3166) sont dépendants d’un organisme régional, le RIPE 2 (Réseau IP Européen) pour l’Europe, l’APNIC 3 (Asia-Pacific Network Information Center) pour l’Asie-Pacifique, et l’InterNIC4 pour les États-Unis et le reste du monde. Ces trois organismes ont des pouvoirs délégués par l’organisme IANA (Internet Assigned Numbers Authority) pour l’attribution des adresses IP. Pour finir l’organigramme de l’internet, l’IANA est dans l’orbite de l’Internet Society (ISOC)5, organisme qui promeut le réseau internet et dont dépend différents organismes qui gèrent l’internet, outre l’IANA, l’IAB 6 (Internet Architecture Board), l’IETF 7 (Internet Engineering Task Force), et l’IRTF (Internet Research Task Force).
1 2

http://www.nic.fr http://www.ripe.net 3 http://www.apnic.net 4 http://wwwinternic.net 5 http://www.isoc.org 6 http://www.iab.org/iab/ 7 http://www.ietf.cnri.reston.va.us/home.html

Historiquement, l’administration d’internet était principalement sous les auspices de l’IAB et de l’IANA. L’IAB étant responsable de l’architecture de l’internet alors que l’IANA était responsable de l’allocation d’adresses IP à tous ceux qui voulaient faire partie de l’internet. Au départ, l’IAB et l’IANA travaillaient pour la NSF (National Science Foundation) une agence gouvernementale américaine qui s’occupe en partie des entreprises dans le secteur scientifique et technologique. C’est d’ailleurs son réseau de télécommunications (NSFnet) qui a servi de «backbone » originel à l’internet aux États-Unis. Alors que l’internet grandissait, la NSF a décidé que certains rôles pouvaient être délégués au secteur privé. À la suite d’un appel d’offre pour la gestion des domaines .com, .net et .org, l’entreprise Network Service Inc. (NSI) remporta le contrat. Sur ce, NSI prît donc le contrôle de l’InterNIC pour la gestion de ces domaines (l’InterNIC gère également le domaine .edu), organisme à but non lucratif chargé des allocations de ces adresses. Les deux autres « NICs » (Network Information Center), l’ApNIC qui s’occupe de la zone Asie-Pacifique et RIPE qui couvre l’Europe existaient déjà.

L’InterNIC s’est donc surtout occupé des États-Unis où la croissance était la plus forte, notamment le domaine .com où il existe actuellement 1,4 millions de domaines secondaires et environ 100.000 noms supplémentaires par mois. Tout ceci allait sans problème jusqu’en 1996 lorsque la NSF autorisa NSI à faire payer des honoraires pour l’enregistrement des domaines qu’elle gérait et permettant donc à NSI de faire des profits via l’InterNIC. NSI commença donc à faire des bénéfices substantiels, à la consternation de la communauté de l’internet.

La NSF ajouta à la confusion de la situation quand elle annonça en avril 1997 qu’à l’expiration du contrat de NSI en mars 1998, elle laisserait l’administration des domaines principaux au secteur privé en se retirant définitivement de la gestion de l’internet. Cet abandon de gestion permis de fait à la NSI de clamer la propriété des domaines .com, .org et .net alors que lors de la concession de gestion à NSI, celle-ci n’était absolument pas propriétaire de ces domaines. Mais selon NSI, c’est elle qui a fait de ces domaines ce qu’ils sont aujourd’hui. Selon elle «elle a investi des millions de dollars en personnel, infrastructure et en contrats divers pour administrer ces domaines. Grâce à ses seuls efforts, NSI a pris tous

les risques de pertes ou de profits, avec aucune assurance de profits. » C’est avec cette théorie, que NSI clame la propriété des domaines .com, .net et .org. Conjointement, il est également apparu que les sous-domaines étaient très précieux. L’internet étant un environnement technique, il ne peut y avoir deux sous-domaines identiques dans un même domaine principal. Par exemple il ne peut y avoir qu’un seul cocacola.com. Mais ce qui semble simple avec Coca, ne l’est pas pour d’autres. Ainsi qui peut réclamer le domaine lyonnaise.com ? La Lyonnaise des Eaux ou la Lyonnaise de Banque ? Ainsi est donc né les cybersquatters, des personnes qui se sont précipités sur tous les domaines associés à des marques prestigieuses dans l’espoir de les revendre plus tard au plus haut prix ! Les propriétaires de marques déposés se sont donc indignés et ont demandé à la NSI de régler cette situation. Celle-ci a donc mis au point une procédure compliquée où les propriétaires mécontents pouvaient débouter un propriétaire de nom de domaine, en faisant valoir des droits de marques déposées supérieures à ceux du propriétaire du nom de domaine. Comme le phénomène du cybersquat s’accentuait, il est devenu clair que l’espace des domaines secondaires était de plus en plus précieux à mesure que celui-ci se réduisait avec l’enregistrement toujours croissant de domaines .com à l’InterNIC. Sur ce est né l’IAHC (l’Internet Ad Hoc Comitee) qui a proposé la création d’autres domaines (.firm, .store, .rec, .arts, .web, .info, .nom) menaçant du coup la poule aux œufs d’or de NSI. De plus l’IAHC étant essentiellement (à côté d’entreprises se refusant de dépendre d’une autre entreprise, NSI, pour s’enregistrer sur l’internet) composé des organismes de l’ISOC son but fut aussi d’établir une structure administrative centralisée de l’internet et de contourner NSI dans l’enregistrement de nom de domaines. Cette offensive aboutira finalement à la créat ion de la «nouvelle IANA », prévu le 30 septembre 1998, organisme international et totalement indépendant du gouvernement américain mais dans lequel NSI conserve une place prédominante.

Mais avant cela, la controverse a fait rage. Et pour mieux la comprendre il est indispensable de comprendre comme marche l’internet. Le cœur de l’internet est, comme on l’a vu dans la description de l’arbre de nommage (sic) internet, les serveurs racines dans lesquels sont enregistrés les adresses IP correspondant aux adresses logiques. Il y a actuellement neuf serveurs racines, huit aux États-Unis et un en Suède. Techniquement il ne peut y avoir au maximum que treize serveurs racines dénommés de A à M (pour l’instant A à I). Ce sont ces

serveurs racines que les serveurs des fournisseurs d’accès ou de services internet (FAI et FSI) contactent pour accéder à une adresse internet, et faire passer les messages d’un ordinateur à un autre. Pour que l’internet puisse marcher, il faut que tous les noms de domaines (ex : yahoo.com, gouv.fr, fiat.it, mygale.org, etc.) soient enregistrés sur les serveurs racines afin que toute machine voulant contacter une autre puisse savoir où s’adresser, c’est-à-dire connaître l’adresse IP. (Les adresses IP se créent et changent souvent. Les remises à jours du domaine .fr se font toutes les 3 heures). Lorsque l’on crée un nom de domaine (i.e. une adresse logique, les deux derniers termes d’une adresse internet) on s’enregistre à l’organisme qui gère le domaine principal (donc InterNIC via NSI pour .com, NIC France pour .fr), celuici met à son tour à jour la base de données des serveurs racines pour que ces noms de domaines soient accessibles par toute machine, et donc fassent matériellement partie de l’internet.

Mais tous les serveurs racines ne sont pas égaux ! En effet, ils sont organisés en cascade. « A » représentant la ligne principale, le reste étant les lignes de désengorgement. Étant donné que les serveurs racines sont organisés en cascade, l’enregistrement d’un domaine doit se faire d’abord au serveur A. Or c’est la NSI qui possède et contrôle le serveur A où s’enregistre chaque jour des milliers de nouveaux nom de domaine par la base de données de l’InterNIC gérant donc les domaines .com , .org et .net (contrôlés par NSI) et .edu, ainsi que toutes les autres bases de données de domaines principaux membres de l’APNIC ou de RIPE (comme NIC France). Ensuite le serveur racine A charge à son tour dans les autres serveurs racines, les mises à jour des noms de domaine, c’est-à-dire les concordances entre adresses logiques et adresses IP. Donc toutes les nouvelles adresses ne peuvent faire partie de l’internet que si elles ont été enregistrées par le serveur A de NSI ! On comprend donc sa position de force dans le milieu de l’internet. Dans son bras de fer contre l’IAHC (Internet Ad Hoc Comitee), NSI avait publiquement déclaré qu’elle ne pouvait prendre la responsabilité d’accepter des nouveaux noms de domaines principaux, disant qu’une telle responsabilité devait venir d’un «consensus » de la communauté internet. Donc contrairement à tous les autres arrangements, NSI s’affranchit de facto de l’autorité de l’IANA qui était jusque là l’organe approuvant les nouveaux noms de

domaines principaux 1 . L’IANA faisant sans surprise partie de l’IAHC qui s’oppose aux manœuvres de la NSI, il était difficile à NSI de se soumettre à un organisme prenant le contrepied de sa gestion. Mais la dure réalité technique et physique étant ce qu’elle est, tout nouveau nom de domaine devant être enregistré dans le serveur racine A, propriété de NSI, il est difficile de ne pas être de l’avis de la NSI, puisque celle-ci a matériellement les moyens d’appliquer sa volonté. L’IANA a bien menacé d’un réalignement des serveurs racines pour que celui de la NSI ne devienne plus le A. Cependant pour que cela soit, il faut que la NSI entre la nouvelle programmation dans son propre serveur, et rien ne l’oblige à le faire ! Dans ce cas il y aurait donc une partition de l’internet. Deux serveurs racines A proposant deux hiérarchies différentes, et des domaines de chaque hiérarchie ne pourraient donc pas communiquer avec ceux des autres domaines (ex : une machine .firm ne pourrait entrer en contact avec une .com). La «nouvelle IANA » organisme international, est issu de l’IAHC, malgré les oppositions toujours d’actualité, le risque d’une partition de l’internet existe toujours. La «nouvelle » IANA ne doit pas non plus faire illusion quant à sa finalité. Elle est un organisme international justement parce que les conflits entre entreprises ne pouvaient être réglés que par un tel organisme eu égard à la mondialisation. Les utopistes de l’internet dénonce avec véhémence une mercantilisation de l’internet, organisée par le gouvernement américain1. Mais l’avenir de l’internet n’est pas spécifiquement le sujet de ce mémoire. Nous voulons relever certains points primordiaux qui apparaissent à propos de l’internet à l’occasion du conflit IAHC, NSI. On s’aperçoit que l’appartenance à l’internet dépend in fine d’une seule machine ! Le serveur racine A, ainsi que sept des huit autres serveurs racines qui sont les annuaires de l’internet sont tous sur le territoire américain et soumis aux lois américaines. Ne nous leurrons pas. Si pour une raison quelconque, le Congrès vote une loi pour interdire l’importation d’information en provenance d’un pays, retirer du serveur A les correspondances des adresses internet correspondantes à ce pays, et dans les heures qui suivent, toutes les adresses net de ce pays seront injoignable et ne pourront plus joindre le reste du monde. Même en ayant une adresse .com ou autre, qui sont gérée par un organisme américain pouvant à son tour retirer
1

Nous voyons là une reproduction quasi identique du conflit entre Philippe IV le Bel et le pape Boniface VIII, où un pouvoir effectif cherche à s’imposer avec l’aide d’une légitimité ad hoc. Voir chapitre 4.

sélectivement n’importe quelle adresse, il faut reconnaître où est la source du pouvoir sur l’internet ! Celui n’est pas comme le prétend pourtant toute la littérature ou presque, un réseau, par nature a-céphale. Qu’on se rende compte que ce pouvoir sur les adresses existe également pour tous les serveurs gérant les noms de pays. Qu’au même titre, tous les utilisateurs d’un serveur, nom de domaine, sont dépendants du gestionnaire de celui-ci. Prenons un exemple, l’adresse de l’IEPG http://www-sciences-po.upmf-grenoble.fr www-sciences-po représente un ordinateur (on ne soulignera jamais assez l’inutilité du «faux » www, qui est suivi d’un tiret et non d’un point et qui ne fait qu’induire en erreur dans la saisie de l’adresse. Le sigle www semble être aussi fascinant pour certaines méninges que XXX pour d’autre organe.2) connecté au serveur de l’Université de Grenoble 2 dont l’adresse logique est upmf-grenoble.fr. L’administrateur de cet ordinateur peut s’il le désire renommer un fichier de celui -ci pour une raison quelconque sans pour autant mettre à jour les liens qui pointent vers celui-ci. Le résultat concret est l’invisibilité de ce fichier devenu ainsi introuvable. L’administrateur du serveur de l’Université, peut s’il le désire, déconnecter l’ordinateur wwwsciences-po (ainsi que tous les terminaux branchés à celui-ci en amont) du serveur de l’UPMF, le coupant du reste du monde. Il reste donc un réseau interne à www-sciences-po (puisque celui-ci à plusieurs terminaux), ce que l’on appelle un intranet, mais la totalité de son contenu reste inaccessible pour le reste de l’internet. À un niveau supérieur, NIC France peut déconnecter de l’internet le serveur upmf-grenoble.fr, simplement en enlevant la corrélation entre adresse IP et logique de sa base de donnée. Ce serveur deviendra invisible avec la mise à jour des bases de données des serveurs racines. On peut également faire cela à partir du serveur racine A, c’est-à-dire du territoire américain. Bref, faire partie de l’internet ne doit qu’au bon vouloir de trois à quatre personnes dans le pire des cas, personnes physiques travaillant sur du matériel bien réel et donc soumis à la loi
1

Voir le compte rendu acerbe de Ronda Hauben de la réunion tenue à Genève, fin juillet 1998 dans l’optique de finaliser la création de la nouvelle IANA http://www.columbia.edu/~rh120/other/ifwp_july.txt 2 Pour comparaison l’adresse de l’IEP de Lyon est http://iep.univ -lyon2.fr

des États. Le bon vouloir de ceux-ci dans le développement et le maintien de l’internet est donc plus que souhaitable. On comprend également l’attitude du gouvernement américain qui tend à avoir sur son territoire un maximum de serveurs importants, non seulement pour pouvoir intercepter les communications, mais aussi pour soumettre les machines aux lois américaines et de ce fait, imposer à travers cela une législation américaine pour tout l’internet1. En France, les administrateurs de serveurs ferment effectivement tout site ayant du contenu négationniste, sous peine de tomber sous le coup de la loi Gayssot. Il est quasi impossible de trouver ce genre de texte sur des serveurs physiquement présents en France (comme mygale.org) ou appartenant au domaine .fr. Cela les oblige donc à migrer sur des serveurs américains car le discours négationniste n’est pas interdit aux États-Unis, premier amendement oblige. Est-ce que faire disparaître l’adresse d’un site est une pratique courante ? Certes non et il est de plus impossible de pouvoir prouver quoi que ce soit. Cependant, Ronda Hauben 2 nous a affirmé que certains sites très critiques quant à la direction mercantile de l’internet voulue par l’IANA et NSI, avaient encouru des isolations forcées. L’expérience de l’IANA permet de rappeler quelques faits : c’est le gouvernement américain qui volontairement abandonne la gestion de fait de l’internet lorsque la NSF laisse l’IANA s’organiser par elle-même après l’expiration de la concession de gestion des domaines .com, .org et .net à NSI en mars 1998. On s’en convaincra d’autant plus que c’est ce même gouvernement par la voix du Department of Commerce qui a posé l’ultimatum pour une réorganisation au 30 septembre 1998 du fait du retrait de la NSF. L’organisation de l’internet suit donc une volonté politique et n’est pas une entité auto-organisatrice. Certes le volontariat et l’autogestion dans beaucoup de domaines ont été la règle, mais cela uniquement par ce que le politique approuvait cette organisation. L’indépendance de l’internet vis-à-vis des États n’est donc en rien dû à la nature réticulaire de celui-ci comme l’affirme les tenants de la notion de réseau, toute imprégnée de saint 1

Pour voir l’implication des États dans le Réseau, voir Jean Guisnel, Guerre dans le cyberespace, La Découverte, 1997 2 Ronda Hauben est représentative des utopistes de la Société de l’Information, et critique très férocement le gouvernement américain d’abandonner au marché la gestion de l’internet. On peut lire son livre Netizens à http://www.columbia.edu/~hauben/netbook

simonisme, mais bien dû à la volonté de ces États (surtout celui des États-Unis qui seul a la capacité matérielle de contrôler l’internet) de ne pas prendre en charge la gestion de celui -ci, tout en sachant pertinemment qu’il reste sous son contrôle, et en faisant tout pour que cette possibilité de contrôle s’accroît.

Chapitre 4

Aux origines de l’État-Nation

Revenons aux origines de l’État-Nation. Cela pour permettre de dresser un parallèle entre la légitimation en construction de ce qui est aujourd’hui appelée la société de l’Information et la construction de la légitimation de l’État-Nation. Ce parallèle révélera d’autant plus l’entreprise de légitimation de la société de l’information que la progression de celle -ci suit une évolution similaire à celle qui permit à l’État de s’imposer comme autorité légitime en dernier ressort. Ce parallèle nous permet donc, du fait de la similitude de développement, de pouvoir parler de construction de légitimité pour la société de l’information aux dépends de l’autorité légitime en dernier ressort actuelle, à savoir l’État-Nation. Celui-ci a pour origine l’État princier dont la conception politique principale est l’existence de la souveraineté princière comme pouvoir en dernier ressort. L’État-Nation reprendra le concept de souveraineté mais déplacera celle-ci au profit de la Nation.

La souveraineté royale.

Pour permettre son avènement, l’État princier a dû légitimer son existence en se dégageant du droit romain 1 sur lequel se fondait la théorie des deux glaives, l’unicité de la société chrétienne gouvernée au temporel par l’Empereur, au spirituel par le Pape. On peut représenter celle-ci par une ellipse avec deux centres distincts participant à une même forme. La conception de l’État princier serait plutôt un cercle avec en son centre le prince, distinct du cercle spirituel gouverné par le Pape. L’État princier, pouvoir temporel, dû asseoir son autorité sur une autre conception qui le dégage de toute tutelle de l’Empereur. Lorsqu’en 1214, Philippe II Auguste (1165-11801223) écrase les armées de l’Empereur Othon de Brunswick, cela permet l’avènement de Frédéric II de Hohenstaufen soutenu par le roi de France. S’il devait y avoir un exemple de la non dépendance du pouvoir des rois envers celui des empereurs, la bataille de Bouvines en fut le parfaite exemple. Reste que cet état de fait, doit être considéré comme légitime. La
1

Blandine Kriegel, La République incertaine, P.U.F., 1988

construction du pouvoir princier (s’opposant au pouvoir impérial) est fort ancienne, et commença dès la décadence carolingienne à la fin du IXe siècle. Ce fait est important car il est important de dissocier la constitution d’un pouvoir et les prétentions de celui -ci. Les pouvoirs se font et se défont continuellement au fil de l’histoire, mais tous n’ont pas la prétention de régir la société, nous entendons par-là se définir comme pouvoir en dernier ressort, et dans ce cas de non prétention à régir la société, leur coexistence est possible. Dans le cas contraire, prétention de légitimité en dernier ressort sur un même territoire, la coexistence pacifique est de fait impossible. Le pouvoir princier s’est constitué sur la féodalité. Pour faire court, on notera que celle-ci s’est constitué en tant que pouvoir avec l’affaiblissement des Carolingiens, puis avec la disparition de l’influence impériale en Europe de l’Ouest. Les féodaux sont autant de pouvoirs princiers, chacun visant en fait à devenir le vrai prince, le premier d’entre eux. Le roi de France, issu des Ducs des Francs sera celui -là. Il y a en fait re-constitution d’un pouvoir qui fut jadis impérial. Cette reconstitution d’un centre politique sera bien sûr l’origine de la volonté d’une nouvelle légitimité, la reconnaissance de l’état de fait, d’un pouvoir qui ne doit rien à personne. C’est l’ambition des Capétiens.

La légitimité royale.

Le XIIIe siècle sera le siècle de la légitimation du pouvoir temporel des rois anglais (issu de la conquête) et français par l’abandon du droit romain comme légitimation du pouvoir car celuici est in fine, trop favorable à l’empereur1. Si l’indépendance face à l’empereur n’était plus à réclamer car totalement acquise dans les faits, l’égalité entre le roi et l’empereur devait être affirmée2. Ce fut donc le travail des légistes royaux dont on a surtout souligné la présence auprès du roi sous le règne de Philippe IV le Bel (1268-1285-1314). Le conflit entre le roi et l’Empereur devait inéluctablement finir par un conflit avec le Pape car nonobstant les conflits de ce dernier avec l’Empereur pour la domination dans le schéma de la théorie des deux glaives, le Pape participe au modèle qui bloque la légitimation pleine et entière du modèle du pouvoir princier, en l’occurrence royal. En effet si le cercle du pouvoir royal chevauche celui du pouvoir papal (il n’est pas encore question de nier la nécessité d’un pouvoir spirituel) et
1

une mise en perspective de ce qui reste une polémique, la création par les rois d’un droit différent du droit romain est bien rendue dans l’introduction de La Politique de la raison de Blandine Kriegel, éd. Payot & Rivages, 1994 ; on n'oubliera pas cependant que B. Kriegel soutient cette thèse. 2 pour un survol de l’affirmation de l’égalité entre l’empereur et le roi de France, voi r le chapitre Le pouvoir royal in Jacques Heers, De Saint Louis à Louis XI, forger la France , Bartillat, 1998

créé ce que l’on appelle le domaine mixte (la nomination des évêques par exemple), la différence fondamentale avec le modèle elliptique de la théorie des deux glaives vient de la complète indépendance des deux autorités. Du point de vue papale, le conflit avec le roi de France au temps de Philippe IV est du même ordre que les conflits qui ont opposé les papes et les empereurs, une distribution de pouvoirs au sein d’une même conception. Mais cela ne serait reconnaître qu’une substitution d’un pouvoir (le royal à l’impérial), et non une création d’un nouveau pouvoir. Or la substitution implique la reprise par le nouveau pouvoir, des devoirs de l’ancien. Et de cela il n’en est pas question, le roi se veut le seul maître de son royaume après Dieu. Reconnaître l’identité des pouvoirs royaux et impériaux, c’est inclure le pouvoir papal dans les affaires du royaume comme celui-ci s’implique naturellement dans celle de l’empereur (c’est lui qui le couronne). En effet, dans la théorie augustinienne des deux glaives qui fonde le schéma impérial, la légitimité divine passe par un seul des centres (le Pape, mais c’est ce que lui contesta Frédéric II qui voulait diviniser l’Empereur) d’où conflit en cas de divergence sur le représentant légitime de Dieu sur terre. Du point de vue royal, il n’en est rien. La conception royale de l’indépendance du pouvoir temporel n’implique pas un choix exclusif de la légitimation divine. En effet le roi affirme tenir son pouvoir de Dieu lui-même. Il est, ainsi que le Pape, minister dei et non minister papæ. C’est à cette époque que se forge une légitimité indépendante du pouvoir temporel royal qui est la base de la légitimité actuelle de l’État. La nécessité de l’indépendance n’est pas immanente, elle est également le fruit de l’histoire. Les heurts entre Philippe Auguste et Innocent III, celui-ci sauvant au dernier moment l’Angleterre d’une conquête par Philippe Auguste, sont révélateurs de la nécessité de l’indépendance vis-à-vis du pape, devenue nécessaire pour une conduite des affaires du royaume selon les seules vues du roi. Sommairement, l’histoire tend vers une toute puissance de cette légitimité et un décroissement de la légitimité du spirituel, vers d’abord une soumission au temporel, puis à une négation de l’existence de celui-ci, en le refoulant dans la sphère privée.

Techniques de légitimation.

Ce qui nous importe est de voir comment des pouvoirs ont imposé leur légitimité. La fin du paradigme médiéval façonné par l’augustinisme et l’avènement d’une légitimité indépendante du pouvoir spirituel se fait précisément à l’époque de Philippe le Bel et s’étale sur tout le XIVe siècle. L’acceptation par l’Église d’une légitimité distincte se fera par la coercition. Il faut rappeler que le XIVe siècle correspond justement au déplacement de la papauté en Avignon et à la succession de papes français, bref, de la mise sous tutelle de l’Église catholique par les rois de France. Le principe de réalité étant le plus puissant des moyens de conviction, l’indépendance totale de la souveraineté royale, le pouvoir royal proprement dit, c’est-à-dire la différence de nature entre souveraineté temporelle et spirituelle, sera totalement intégrée par l’Église car celle-ci sera forcée de défendre sa propre souveraineté spirituelle, et dans la défense de son indépendance spirituelle (en l’opposant à la souveraineté temporelle, i.e. en reprenant le schéma royal), reconnaître de facto celle du roi. Mais revenons un instant à la création de ce principe d’indépendance de la couronne. Pour faire accepter sa vision de la souveraineté que ses légistes ont su mettre en forme, Philippe le Bel ne fait rien moins que 1) créer 2) falsifier 3) contraindre.

En effet, pour diffuser et justifier sa politique, Philippe le Bel rassemble pour la première fois les États généraux en 1302. En faisant cela, il crée de toutes pièces une nouvelle instance légitimante (même si des proto-États généraux ont eux aussi servi depuis déjà un siècle). L’arme est à double tranchant, les États généraux sauront bien plus tard prendre leur indépendance. Néanmoins à ce stade, c’est le roi qui justifie l’existence de cette instance, et pourtant, c’est de celle-ci que Philippe IV tire l’appui légitime de ses actes. Peut-être devons nous modérer cette nécessité en voyant aussi dans les États généraux un moyen pour Philippe de diffuser ses principes. En effet, la nécessité d’un nouvel ordre ne peut se faire sentir que si l’ancien entrave la société, ou est perçu comme tel. Pour faire sentir cette nécessité et en même temps faire ressortir par défaut sa conception, Philippe fait lire aux États généraux une fausse bulle papale scire te volomus, déformant les propos de Boniface VIII. Cette fausse bulle demande au roi de

reconnaître qu’il tient son royaume du pape, outrant la soumission de l’interprétation augustinienne de Boniface. Dans cette théorie, le glaive spirituel et le glaive temporel sont tous les deux au service de l’Église, la société chrétienne. Le spirituel peut, et c’est son rôle, rappeler à l’ordre le glaive temporel justement parce que celui-ci sert un intérêt supérieur, la société chrétienne. Le glaive spirituel est l’interprétant en dernier ressort de celle-ci, mais en aucun cas il est le créateur du glaive temporel. Or considérer que le roi tient sa couronne du pape, c’est considérer le glai ve temporel comme une création du glaive spirituel. C’est de cette théorique dépendance envers le Pape du schéma augustinien dont veut s’affranchir Philippe. Il est donc important de souligner que l’interprétant en dernier ressort révèle l’origine du pouvoir et que cette origine réelle (c’est-à-dire qui s’actualise dans les faits) ou proclamée (qui n’est que purement rhétorique) est un fondement, non du pouvoir qui n’est qu’actes, mais de la reproduction symbolique de celui-ci. Or la reproduction symbolique du pouvoir permet d’en multiplier l’efficace, elle est donc un important instrument de celui-ci. Pour pouvoir l’utiliser à sa convenance, il faut qu’elle corresponde à la logique du pouvoir, qu’elle soit issue de la même légitimité pour servir la souveraineté, l’exercice du pouvoir. Laisser au Pape un pouvoir de remontrance, n’est pas reconnaître une entière dépendance envers lui, ce que sous-entend la fausse bulle scire te volomus ! Philippe obtient le soutien des États généraux qui rejette avec violence cette conception falsifiée de la dépendance envers le Pape. En fait il obtient ainsi l’acceptation tacite de la théorie inverse, l’indépendance des deux autorités, royale et papale. L’air de rien, on change de paradigme, et les légistes royaux vont s’échiner à en tirer toutes les conclusions logiques. Philippe en falsifiant la bulle papale, pose les termes du débat selon sa conception. Or justement, le débat était dans quels termes doit se poser le débat ! Boniface VIII ne se fait pas prendre par la rhétorique et dénonce le faux, s’obstinant avec raison à ne pas rentrer dans un débat dont les termes ne lui conviennent pas. Il réitère ses positions, et on obtient ce que l’on peut appeler un dialogue de sourds, un débat inexistant car n’ayant aucun point commun sur lequel s’appuyer. Philippe le Bel devra donc agir, c’est-àdire montrer la réalité du pouvoir. L’expédition d’Anagni, le soufflet de Guillaume de Nogaret au Pape, montreront où se trouve le véritable pouvoir en 1303. Le Pape ne rentrera à Rome que pour y mourir, et la papauté sera ensuite transférée en Avignon pour près de

soixante-dix ans. Lorsque les pouvoirs des signes montrent leurs limites, alors c’est au véritable pouvoir, l’agir, qui doit trancher. Il ne faudrait cependant pas voir l’État princier bâti sur une gifle, car il ne faut pas ignorer les efforts permanents sur de nombreuses années nécessaires à l’acceptation de ce nouvel ordre qui n’y paraît pas. Il ne faut pas non plus confondre la genèse de l’État (ses structures, les forces sociales qui l’ont bâti, etc.) avec la genèse de sa légitimation. Des structures de pouvoirs existent toujours et tout le temps, leur combinaison patiente est le propre de l’évolution historique. Cependant, la légitimation des combinaisons n’évolue pas aussi vite que celles-ci. Une même légitimité peut décréter nécessaire ou au contraire interdire une même structure de pouvoir, ce qu’on appellerait aujourd’hui un réseau. La République a trouvé tout aussi légitime d’interdire puis d’autoriser les syndicats. L’ acceptation ou le refus d’une structure au sein du pouvoir légitime ne présume pas de la légitimité qui commande. Cependant, on peut voir que la légitimité d’un pouvoir ne devient problématique que lorsque le développement de celui-ci en est entravé. Alors, et alors seulement, la définition de la légitimité devient un enjeu de pouvoir. Nous voudrions donc tirer de cette mutation de légitimité qui prît acte de l’existence de l’État en tant que structure souveraine légitime et juge en dernier ressort, un modèle. Il y a d’abord la lente et patiente construction d’un pouvoir. Le développement de celui -ci nécessite tôt ou tard la création des signes du pouvoir, moyens performants de multiplication de l’efficace du pouvoir (le pouvoir sans signes, s’achève avec ceux qui l’exercent, Attila en est un exemple caractéristique). Or le développement de ces signes peut finir par heurter les signes de pouvoirs déjà existants. C’est là que se situe le combat de la légitimité. Celui-ci est d’abord une bataille de signes, et rien ne prédispose à ce que ces batailles de signes qui sont le quotidien de la politique (crucifix dans les écoles bavaroises, drapeau européen derrière le président de la République, etc.) à devenir une bataille de pouvoir proprement dit, c’est -à-dire à ce que le discours devenant inutile, les actes deviennent nécessaires.

En politique contemporaine, on prendra la récente affaire de la nomination du directeur de la Banque Centrale Européenne. La France en s’opposant avec intransigeance obligea le débat politique sur cette question et son règlement par le Conseil des gouvernements. On voit là très clairement une bataille de signes de légitimité. En faisant cela, la France oblige d’emblée à faire reconnaître de facto le Conseil des gouvernements européens comme le juge en dernier

ressort de la question. La question était une question de légitimité. Lorsque les signes ne suffisent plus ou que le débat est faussé et ne peut que conduire à la déroute de ses conceptions, celui-ci devient inutile. La politique de la chaise vide du général de Gaulle, ou de l’URSS à l’ONU, illustre ce moment. Pour conclure ce rappel historique de la genèse de l’État souverain, nous voudrions tirer quelques enseignements : La légitimité n’est pas nécessaire à l’exercice d’un pouvoir. Le pouvoir nu, n’a pas besoin de légitimité, il est. Qu’on l’appelle droit de conquête, ou du plus fort, il n’a pas besoin de justification. Le pouvoir est en effet un agir concret, il n’appartient pas au domaine des signes. Les signes ne sont pourtant pas dépourvus de pouvoir, mais comme on le rappelait, ce pouvoir est virtuel, illusion. Le pouvoir des signes est une servitude volontaire, dans le sens où la contrainte du sujet vient de ce même sujet, de sa propre volonté. Le pouvoir des signes est sans conteste le plus efficace, mais il n’a pas la nature du pouvoir proprement dit parce qu’il est illusoire. Que tous se réveille et celui-ci disparaît comme un mirage. Un pouvoir n’existant que dans son actualisation, a besoin des signes pour acquérir l’ubiquité nécessaire à toute existence durable dans le temps ou extensive dans l’espace. Le pouvoir ne peut être partout à la fois, les signes le peuvent. De là et c’est ce qui nous importe dans l’étude de la Société de l’Information, nous en tirons donc une conclusion : La contestation des signes du pouvoir, si elle réduit de fait l’ubiquité acquise par un pouvoir, ne révèle rien sur l’état du pouvoir lui-même. Elle est un combat de légitimité.

Ceci dit, on est bien obligé de prendre en compte le fait que la bataille des signes puisse être perçue dans le long terme comme un changement progressif de la forme du pouvoir, et donc in fine, comme un changement de pouvoir. Mais nous sommes là dans une optique de transformation, non de remplacement. La Société de l’Information, pur produit de signes, n’a aucun pouvoir à opposer au modèle étatique qu’elle est censée remplacer. Aucun de ses chantres, même Bill Gates, ne pourra, tel Guillaume de Nogaret, souffleter l’adversaire, car elle se veut le règne des signes et po se le débat dans ce contexte spécifique. User du pouvoir, serait revenir dans un champ d’action qu’elle veut justement dépasser. Ce serait un retour en arrière, ou du moins une incohérence ramenant les termes du débat à une opposition de pouvoirs, et dans ce cas, revenir à une conception promue par la théorie étatique.

On entrevoit la faiblesse congénitale du modèle de la Société de l’Information qui instaure une légitimité sans pouvoir, l’impossibilité d’imposer son modèle ou même de le défendre 1. N’ayant que les signes comme instrument, sa réalisation ne peut se faire que par la conviction. La Société de l’Information a les forces et les faiblesses du pouvoir des signes, et a donc une obligation pour s’imposer : façonner les signes, éducation et production du savoir en premier lieu.

La Nation souveraine.

La Nation comme souveraineté ultime du pouvoir a été imposée par la Révolution française et parmi les révolutionnaires par Emmanuel Sieyès qui l’a théorisée et fait mettre en pratique, que ce soit par la République, le Consulat ou l’Empire. « Le titulaire seul est changé. La souveraineté qui appartenait au Roi passe à la nation, où selon l’article 3 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 «elle réside essentiellement ». »2 Pour Sieyès et dans le principe de la souveraineté nationale, la Nation existe naturellement. C’est une entité à laquelle appartiennent tous les pouvoirs qui donc par nature découlent d’elle. La volonté de la Nation ne peut que s’exprimer par ses représentants. La souveraineté nationale est donc exercée par ses représentants. « Lorsque les représentants décident, c’est comme si la nation l’avait ordonnée. Une présomption irréfragable est ainsi créée, car il n’y a pas moyen pour la Nation de s’exprimer autrement. »1 La Nation n’a en fait aucune souveraineté, au sens de possibilité d’exercice du pouvoir car elle est un principe nébuleux, elle est une légitimité, une transcendance. La Nation ne prend pas vraiment la place du Roi, mais celle de Dieu, comme principe légitimant, et ses représentants prennent la place du Roi comme les interprètes de sa volonté, les souverains. C’est là où on voit véritablement la différence entre la souveraineté populaire et la souveraineté nationale (le terme souveraineté largement admis est dans notre conception un abus de langage car celui-ci implique l’exercice effectif du pouvoir qui, comme nous l’avons déjà dit, ne peut qu’être une relation sujet / sujet). Le terme plus adéquat à notre sens serait de
1

Sur l’impuissance du signe face au pouvoir agissant, on peut se référer au sort de l’ordinateur HAL dans le film de Stanley Kubrick, 2001, l’Odyssée de l’espace. Sur les moyens nécessaires pour éviter cette impuissance et les conséquences subséquentes, voir David Brin, Terre (2 tomes : La chose au cœur du monde et Message de l’univers), Presses-Pocket. 2 Georges Lescuyer, Histoire des idées politiques, Dalloz, 1994. p. 328

parler de souveraineté populaire et de légitimité nationale, la souveraineté appartenant aux représentants. En effet, la souveraineté populaire dans la tradition rousseauiste et dont Robespierre est un héritier, admet le mandat dit impératif pour ses représentants qui sont des mandataires. L’électorat exerce un réel pouvoir (celui d’imposer ses décisions) aux représentants. On peut donc vraiment parler de souveraineté. Or dans la «souveraineté » nationale, il n’y a pas de mandat impératif, les représentants sont sélectionnés par l’électorat. Le pouvoir de l’électorat ne s’exerce donc pas sur les actes des représentants, ceux-ci sont pleinement souverains, représentants de toute la Nation. La Nation est donc une légitimité. La légitimité dans le principe de souveraineté populaire n’est pas l a peuple, celui-ci est souverain. La légitimité est par nature un principe transcendant, et on rappellera le déisme de Robespierre ainsi que le culte de l’Être Suprême qui ont été les véritables légitimité de la souveraineté populaire. C’est donc la légitimité nationale et la souveraineté étatique qui ont fait l’État-Nation. Mais dès sa naissance, le principe national a été verrouillé dans son expression : il n’y a pas de différence entre la volonté nationale et celle de ses représentants. Georges Lescuyer parle de «présomption irréfragable ». Le développement d’un pouvoir concurrent à celui des représentants de la Nation ne pourra donc leur contester ce lien sans remettre en cause l’idée de Nation elle-même. Les pouvoirs concurrents de l’État-Nation ne peuvent donc le contester qu’en redéfinissant le terme de Nation, en restreignant la sphère publique. Car dans la théorie de Sieyès, la volonté nationale ne doit s’exercer que dans la res publica. Sieyès est un libéral qui affirme que les hommes ne sont égaux et semblables qu’en ce qu’ils sont dans l’État, c’est-à-dire en ce qui concerne les affaires communes. Or le règlement des affaires personnelles est du ressort du sociologique ou de l’économique. La contestation de l’autorité étatique peut donc présenter le développement potentiel des relations interpersonnelles par les nouvelles technologies de l’information comme un accroissement des liens affectifs et économiques qui ne doit donc en rien être réglé par les détenteurs de la souveraineté publique. C’est une nécessité car, présenter les NTIC comme renouvelant le lien national les faits rentrer de facto dans la sphère de responsabilités de l’État.
1

Georges Lescuyer, ibid., p. 330 (c’est nous qui soulignons)

Les NTIC comme outils aux conséquences essentiellement sociologiques ou économiques sont nécessaires pour que ceux qui détiennent le pouvoir de ces outils n’en soient pas dépossédés par l’État. Le sort du surintendant Fouquet quand l’État a repris la haute main sur ses finances peut effectivement faire réfléchir. On l’a vu au chapitre précédent, c’est le gouvernement américain qui volontairement abandonne la gestion de l’internet, et donc réduit ce qui pourrait être considérée res publica en res economica, et c’est ce que beaucoup de pionniers de l’internet lui reprochent. Mais comme pour les impôts de l’Ancien Régime, la volonté de ne pas s’occuper de ce domaine n’a rien à voir avec la nature de celui-ci, c’est un choix politique délibéré.

Redéfinir la nation.

Une autre voie de contestation de l’autorité étatique consiste bien entendu en la redéfinition du concept de Nation, permettant ainsi la récusation des représentants devenus illégitimes par la grâce d’un glissement sémantique. Ce fut exactement la technique de Philippe IV le Bel qui par un habile amalgame de sens de la dépendance papale, a permis l’affirmation de son indépendance. Venons-en à la définition de la nation. Reprenons celle d’Ernest Renan qui a le mérite de ne pas exclure a priori les différentes formes de nations (ethniques, religieuse, dynastique, etc.) et finalement en les englobant toutes les relativise. La dernière partie de son cours Qu’est-ce qu’une Nation commence ainsi :

Une nation est une âme, un principe spirituel. Deux choses qui, à vrai dire, n'en font qu'une, constituent cette âme, ce principe spirituel. L'une est dans le passé, l'autre dans le présent. L'une est la possession en commun d'un riche legs de souvenirs ; l'autre est le consentement actuel, le désir de vivre ensemble, la volonté de continuer à faire valoir l'héritage qu'on a reçu indivis. (...) Le chant spartiate : "Nous sommes ce que vous fûtes ; nous serons ce que vous êtes" est dans sa simplicité l'hymne abrégé de toute patrie.

On voit que la Nation s’est notoirement enrichie depuis Sieyès, elle n’est plus seulement une légitimité politique, elle est devenue un lien social, la patrie. Parmi d’autre certes, mais cela implique la possibilité de l’incarnation de celle-ci ailleurs que dans ses représentants. Cela pourra certes être utilisé à des fins politiques pour se poser en représentant légitime (comme le fît de Gaulle dont la seule légitimité était «une certaine idée de la France ») mais en recentrant la Nation sur son rôle de lien social on peut en modifier la signification. En effet, en se focalisant sur le lien social créé par la Nation, on perd de vue la définition politique de Sieyès qui était somme toute très libérale : elle est formée d’individus, éléments indépendants, mais gouvernés par un même pouvoir, et soumis aux même lois, ouvrages de leurs volontés. La réalité de la Nation politique se juge aujourd’hui au travers de la réalité de la Nation liensocial. Ce dernier a été fortement utilisé pour imposer l’idée de l’existence de la Nation, mais aussi pour le substituer à d’autres liens qui déplaisaient à la IIIe République (on pense évidemment à l’Église). Ce concept de Nation lien-social fut certes très efficient, mais le revers de la médaille est qu’en ayant déplacé le sens de la Nation, la République a permis ellemême que soit contestée la réalité de celle-ci, non pas sur la définition politique de Sieyès, mais d’abord sur sa réalité en tant que lien-social. Cette amalgame a d’abord été fait par l’État lui-même, mais cela permet de fusionner le sens politique avec le sens social, et donc de contester l’un en contestant l’autre. L’amalgame avait paru très utile en permettant la perception de la Nation par le peuple en dehors du seul rapport politique avec les représentants. La légitimité du pouvoir (et donc de ses signes) vient de la Nation politique. Il a donc été important pour ce pouvoir de sensibiliser à un objet politique. D’où l’extension du sens de la Nation à cette «communauté » imaginée certes, mais palpable puisque Renan parle de « souffrir ensemble ». Néanmoins c’était bien évidemment prendre le risque d’un dérapage de sens. En incarnant sa légitimité dans un lien social, le politique a pris le risque de se voir contester par ce biais : le lien social ! Or force est de reconnaître que ceci dépasse largement la sphère politique ! Et c’est par là que la confrontation avec d’autres pouvoirs se fait. En faisant valoir la réalité de liens sociaux créent par les NTIC, ceux qui les contrôlent peuvent faire valoir avec justesse qu’ils ont donc une légitimité au moins aussi valable que celle de l’État-Nation, et réclament

donc les pouvoirs subséquents. Cependant, à l’heure actuelle l’État est toujours en mesure de façonner le Territoire, et si ce dernier peut se passer du Réseau, l’inverse n’est pas vrai. Le Réseau est impuissant à imposer de force sa volonté. Il ne lui reste donc plus qu’à convaincre.

Chapitre 5

La suite logique du Réseau

Essayons d’éclairer quelques aspects anthropologiques du Réseau et quelques orientations de celui-ci.

L’identité encore possible sur le Réseau ?

Le héros du Souterrain de Dostoïevski tel que l’a analysé R. Girard1, est l’aboutissement d’un mouvement perceptible dans la littérature mais qui reflète cependant la société contemporaine. Dans le schéma girardien du mimétisme, la relation d’identification au médiateur est reportée sur un objet désigné par le médiateur. Plus la distance entre le médiateur et le sujet est grande, moins l’attachement de celui-ci à l’objet sera élevé. A cela s’ajoute l’instabilité, plus celle-ci est grande, c’est-à-dire plus les médiateurs changent, et plus le désir d’identification est bref, mais plus il est intense. Le héros de Dostoïveski serait dans cette optique, au maximum dans ses relations. La proximité du médiateur est telle qu’il n’y a plus d’objet désigné, le désir d’identification est total, et la succession des médiateurs exerce sur le héros une tyrannie implacable. Ce schéma structurant l’identité nous intéresse car il va nous permettre de nous essayer à une prospective anthropologique du Réseau. Si l’on peut partir de l’état actuel de la société, on ne saurait que trop identifier cette succession de médiateurs plutôt omniprésents à la télévision. Cette dernière façonne les goûts en jouant de l’argument du mimétisme pour vendre des objets. Cependant, la télévision ne saura jamais être aussi proche des sujets qu’il est nécessaire pour se passer d’objets sur lesquels reporter le désir d’identification. En effet, la vente de ces objets est le gagne-pain des annonceurs publicitaires, et donc in fine celui de la télévision.

1

René Girard, Mensonges romantiques et vérités romanesques, in Daniel Bougnoux, Sciences de l’information et de la communication, Textes essentiels, Larousse, 1993

La convergence de l’informatique, des télécommunications, et de l’audiovisuel, va peut-être fondre la télévision dans le Réseau, mais quel que soit son avenir, on veillera à conserver la manne financière de la publicité. Pour cela, la distance du médiateur sera toujours suffisante pour que l’objet à acquérir soit indispensable. On a vu l’orientation mercantile du Réseau voulu par le gouvernement américain. Il y a donc fort à parier que celui-ci saura résister à tout envahissement intempestif de l’individualité pouvant nuire à sa nouvelle raison d’être. De plus l’immensité du Réseau lui enlève une des grandes forces de la télévision, le sentiment de communion associé au direct. Même si techniquement cela sera très prochainement possible via l’internet, inaugurant l’ère du Réseau, fusion des genres numériques, les innombrables adresses et possibilités du Réseau, en personnalisant sa pratique, lui retireront la fascination de communion que peut exercer la télévision. Car l’interactivité et le sur mesure universel ont pour conséquence de rationaliser la pratique en la personalisant et en la finalisant à outrance. L’abondance du Réseau oblige à chercher, or la démarche de chercher nécessite une motivation suffisamment bien formulée. On ne subit pas le Réseau, celui-ci à la sécheresse du numérique et la logique butée de l’informatique. Le manque de chaleur dans les relations via l’internet a déjà montré ses effets dans une étude américaine 1 qui démontre que les relations virtuelles à longue distance n'apportent pas le même bonheur ni la même chaleur humaine que les rencontres réelles. Ceci est à comparer avec certaines utopies comme celle de Pierre Lévy 2 qui espère un renouveau du lien social par le savoir. Mais l’abstraction du savoir ne peut se substituer à l’identité territoriale. Car c’est en fin de compte ce phénomène qu’il faut rappeler face aux prospectives futuristes de la Société de l’Information : l’identité est en grande partie formée par le territoire. L’identité échappe par nature à l’emprise du Réseau : Pour l’école de Chicago3, c’est dans la pratique quotidienne et dans l’appréhension de son environnement que se révèle la socialisation d’un individu. La socialisation d’un individu fait indéniablement partie de l’identité. Dans cette optique l’identité ne peut s’affranchir du Territoire, car elle a besoin de contacts physiques pour appréhender son environnement et se l’approprier. Un territoire restreint, car c’est le territoire «pratiqué » qui est approprié, selon un processus d’apprivoisement qui doit durer pour être efficace.
1 2

Voir Le Monde, 2 septembre 1998, La solitude du cyberespace déprime les internautes. Pierre Lévy, L’intelligence collective, la Découverte, 1997 3 voir L’École de Chicago, Naissance d’une écologie urbaine, Aubier, 1984

Le mouvement ininterrompu du Réseau occulte toute une dimension de l’homme : « l’homme en relation, pas seulement en relation interindividuelles mais également ce qui me lie à un territoire, à une cité, à un environnement naturel que je partage avec d’autres. C’est cela les petites histoires au jour le jour : du temps qui se cristallise en espace. »1 L’épanouissement individuel par le Réseau est un argument souvent repris dans les modèles de Société de l’Information, spécialement dans celui des utopistes du net chez qui l’héritage de la morale saint-simonienne est très présent : l’épanouissement de l’homme se trouve dans son ouverture et la multiplication de ses relations. Paradoxalement, c’est une conception très individualiste car la relation à autrui étant la «valeur ajoutée », il faut au départ une identité séparée et enclose sur elle-même. Il faut voir dans la persona, la partie du Moi en contact avec l’extérieur, le moteur de l’identité, c’est-à-dire le principe d’individuation. La naissance de l’identité reste bien sûr un problème toujours épineux, mais en opposition à cette vision de l’individuation par la multiplication des relations, nous opposons la conception de Carl Gustav Jung pour qui l’individuation passe avant tout par l’affirmation de son identité dans son rapport au monde. « C’est en se différenciant de sa fonction sociale et de ses différents rôles, c’est -à-dire quand le moi se désidentifie de la persona, que le devenir psychique de l’individu peut se tourner vers son accomplissement. Il ne s’agit pas de « faire disparaître le masque » puisque c’est lui qui rend la communication avec le monde et l’adaptation sociale tout en préservant l’être profond, mais de distinguer la réalité du moi de ce qu’il laisse entrevoir. »2 Or voir dans le Réseau le moyen par excellence d’épanouissement de l’individu, c’est confondre le moi et la persona. L’enquête déjà citée3, pourtant commandée par des industriels du multimédia, montre que la pratique assidue de l’internet, véritable matrice du Réseau, aggrave le sentiment de solitude et les états dépressifs. Ce serait plutôt un indicateur contredisant la conception optimiste du Réseau épanouissant...

1 2

Michel Maffesoli, Le temps des tribus, Le livre de Poche essais n°4142, 1988 p. 184 Elizabeth Leblanc, La psychanalyse jungienne, essentialis, Morisset, 1995 p. 31-32 3 Le Monde, 2 septembre 1998, La solitude du cyberespace déprime les internautes.

Le vertige.

« Les sujets n’apparaissent plus comme des figurines solides posées sur des territoires bien découpés, mais comme des distributions nomades courant sur un espace des flux. »1 Même si Pierre Lévy fait bien attention de ne pas limiter l’individu à son existence dans ce qu’il appelle l’espace du savoir, cette citation est assez révélatrice de la fascination contemporaine du mouvement. Est-ce une filiation de l’idée de Progrès et d’avancement ? Toujours est-il que le flux, le mouvement, le chaos, le fractal, l’aléatoire, le quanta imprègnent irrésistiblement tous les modèles descriptifs de la Société de l’Information. Ainsi, la métamorphose continue et l’accélération du temps et de l’espace, l’indétermination constante obligeraient les hommes à s’adapter à un environnement — on l’oublie souvent — qu’il a lui-même créé. La Société de l’Information lui ouvre cette possibilité mais, à notre avis, son modèle oublie que l’homme ne supportera pas en permanence un tel environnement sous peine de vertige, et d’une perte d’identité. C’est ce qui nous pousse à croire que le Réseau, bien qu’il annonce quelques changements, ne sera pas capable de façonner la plus grosse partie de la socialisation des individus. Le Réseau, tel qu’il se veut (et non comme on a vu, tel qu’il est), est acéphale, sans point fixe, c’est-à-dire sans repère, et c’est ce qui le rend insignifiant. Même en faisant abstraction du côté technique et en ne gardant que le contenu informatif de celui-ci, les utilisateurs ne peuvent que réintroduire des hiérarchies, des repères signifiants. C’est le principe même de la connaissance.

« En revenant à nos géométries fractales, réductrices de la complexité géométrique, je voudrais énoncer comment, en tant que physicien, c’est-à-dire à l’affût des réducteurs de complexité, une partie de l’intérêt qui m’a guidé vers la géométrie fractale provient de l’idée intuitive que nombre de propriétés des systèmes aléatoires résultent de leurs géométries. Ces géométries sont souvent fractales donc hiérarchiques. S’il est vrai que ce qui domine les propriétés de ces objets, c’est leur caractère hiérarchique, alors on peut presque oublier leur aspect aléatoire. »2

Ce qui est important dans cet extrait de Bernard Sapoval, directeur de recherche au CNRS, physicien des solides et se consacrant à la physique des systèmes irréguliers, c’est la
1 2

Pierre Lévy, ibid., p.156 Bernard Sapoval, Universalités et fractales, Flammarion, 1997. p. 123

sentence : fractales donc hiérarchiques. Et il est également rappelé que les fractales sont un système aléatoire, et que malgré ce caractère, la hiérarchie domine. Il n’est pas dans nos capacités ni même dans nos intentions de mathématiser la réalité, mais avec cette citation, de prouver que la hiérarchie n’est pas l’antinomie de l’aléatoire. Or s’il y a bien quelque chose de mouvant, d’indéterminé, c’est l’aléatoire... Quelles que soient les règles de fonctionnement du Réseau, au pire s’il n’en a pas et fonctionne de manière aléatoire, il n’en demeure pas moins que l’antinomie avec la hiérarchie n’est toujours pas valable. Le Réseau n’est pas l’ennemi de l’État. Cependant, il peut remettre en cause certaines hiérarchies. Il est donc important pour l’État de comprendre qu’il ne peut plus s’appuyer sur celles-ci pour asseoir son pouvoir. Reste à savoir si la volonté de ses membres est celle-là. Une hiérarchie qui risque d’être mis à mal par l’internet est l’Université. La publication étant un instrument de sélection et de promotion parmi la faculté, son fonctionnement risque de pâtir de la possibilité par n’importe qui de publier électroniquement ses travaux1. La sélection des travaux par le filtre de l’édition risque de ne plus pouvoir durer. Alors que les bibliothèques numérisent et veulent mettre leur contenu en ligne, comment pourrait-on justifier de la non prise en compte des publications en ligne ? Or n’importe qui peut se permettre de publier sur l’internet ! Nul doute que l’organisation hiérarchique de l’enseignement du savoir devra se réorganiser. Nous voudrions enfin rappeler que le discours de la Société de l’Information est tenu en premier lieu par les fonctionnaires et les politiques notamment dans les livres verts de l’Union Européenne 2 . L’impatience de rentrer dans la Société de l’Information semble être proportionnelle au chemin qui reste encore à faire pour y entrer. Il faut donc rappeler une fois encore que toutes les étapes nécessaires à la naissance de la Société de l’Information ont été soutenues, encouragées parfois prises en charge (qu’on se rappelle la gestion de l’internet par la NSF) par des institutions étatiques. Il paraît donc peu probable que le Réseau soit destructeur de l’ordre étatique.

1

Et ce d’autant plus sûrement qu’avec l’invention de l’encre électronique, le livre papier pourrait devenir un terminal électronique à part entière. Voir Science & Vie n°970, juillet 1998 p. 166 2 http://www.ispo.cec.be/convergencegp/

Cependant, l’histoire nous rappelle que c’est un archevêque qui fît monter Hugues Capet sur le trône pensant le mettre au service de l’Église. Plus tard, Guillaume Blanche-Mains, oncle de Philippe Auguste, et archevêque de Reims obéit toujours à celui-ci, même dans ses conflits contre le pape. Philippe le Bel trouva des alliés parmi le clergé français dans sa lutte contre le Pape... Le résultat peut donc grandement différer des objectifs initiaux ! On ne voudra donc présumer de rien, si ce n’est noter que la Société de l’Information ressemble furieusement à une légitimation de l’existence du pouvoir économique, vis-à-vis du pouvoir politique. Légitimation d’autant plus subtile que la polysémie du terme permet à nombre d’idéaux d’y voir enfin la réalisation concrète de leurs espérances. Néanmoins, malgré le poids idéologique des utopistes du Réseau, la réalité du pouvoir du Réseau est entre les mains de sociétés commerciales...

CONCLUSION

La Société de l’Information apparaît donc comme un modèle utopique qui reprend à peu de chose près l’utopie saint-simonienne. Il serait en revanche surprenant de penser que tout le monde, des médias de toute origine, des politiques de toute tendance, se soient converti au saint-simonisme ! En effet si les utopistes de la Société de l’Information sont de véritables saint-simoniens (la plupart étant Américains, ne sont pourtant pas familier de l’auteur), il est douteux que le reste le soit. D’autant plus douteux que ces utopistes, issus en général du monde de l’informatique sont les adversaires les plus acharnés au développement des «poids lourds » de la Société de l’Information, c’est-à-dire aux grands industriels des technologies de l’information. Nous avançons donc une hypothèse : la Société de l’Information est avant tout une légitimation de l’économisation du monde. Il est remarquable que les partisans d’un libéralisme économique radical reprennent tous le schéma de la Société de l’Information comme une mutation justifiant la mise en place de leurs réformes structurelles. L’économie de marché, c’est d’abord l’échange de signes standardisés (contrats, monnaies, etc.) donnant lieu ensuite à un échange matériel. Or les données informatiques sont l’outil parfait pour cela car une donnée informatique est une information standardisée. L’économie de marché trouve ainsi dans les réseaux informatiques, chaussure à son pied. Parmi les premiers réseaux mondiaux de donnés furent ceux des marchés financiers ! Mais l’avantage de la Société de l’Information comme modèle, c’est qu’elle peut servir parallèlement d’autres idéologies, et permettre ainsi un relatif consensus sur ce miroir aux alouettes. En effet, l’État peut se servir des NTIC (objets significatifs de la Société de l’Information), mais ne peut pas s’en contenter pour ses missions. L’éducation peut également

utiliser ces outils mais pas seulement, la famille idem, etc. À part les entreprises, aucune autre institution ne peut totalement se fondre dans la Société de l’Information en en sortant indemne. Car il ne faut pas confondre adaptation pratique (et là les entreprises doivent le faire) et changement de rôle, c’est-à-dire de finalité. Or le seul rôle qui ne changera pas est celui des entreprises. Toutes les autres institutions sont priées d’évoluer, non pas seulement dans leurs pratiques mais dans leur raison d’être. Cherchons là encore dans les œuvres littéraires les visionnaires de la Société de l’Information. Ce modèle dans son achèvement le plus total (disparition des États, organisation par communautés, libre choix d’appartenance à ces communautés, régulation internationale entre celles-ci, déterritorialisation de ces communautés, existence des nanotechnologies pouvant significativement transformer l’homme, etc.) est extrêmement bien rendu dans le livre de Neal Stephenson, l’Âge du diamant1. Dans ces multiples communautés, il en est une très spéciale qui apparaît comme la pire de toute, les tambourinaires. Communauté où le rapport sexuel est le seul but, sous alimentation artificielle et drogue adéquate, l’orgie permanente des années durant. C’est la face sombre de la Société de l’Information. Elle ne peut véritablement être un modèle de société car elle ne prend pas en compte tous les fondamentaux des relations humaines, dont la relation animale. En économisant tout échange, c’est-à-dire en le standardisant, la relation est singulièrement restreinte. De plus, l’apologie du flux et du mouvement, de l’adaptation permanente, de la flexibilité comme preuve d’individualité ne mène qu’au vertige. Standard et vertige, on est loin de l’individuation et de l’épanouissement... Donc derrière ce discours de la Société de l’Information, on peut poser la question s’il ne s’agit pas de la diffusion d’une légitimation de pouvoir, comme jadis les maximes que les rois faisaient diffuser pour expliquer, accoutumer à leur vision de la société : «le roi est empereur en son royaume », «le pouvoir du pape n’est pas de ce monde », etc. ... La Société de l’Information pourrait se résumer en une maxime : «le monde de demain est un autre monde ». Réminiscence du mythe américain de la Frontière, la ruée est ouverte, toutes les places restent à prendre... mais est-ce vraiment le cas ?

1

Édité chez Rivages en 1996.

GLOSSAIRE & BIBLIOGRAPHIE

Commutation de lignes (ou de circuits) Technique permettant l’établissement d’une liaison temporaire physique ou logique entre deux éléments d’un réseau, pendant toute la durée de la communication (des ressources de transmission sont donc affectées en propre pendant toute la communication). Commutation de paquets Technique de commutation consistant à transmettre des données en les découpant en blocs de dimension contrôlée (paquets) pouvant emprunter plusieurs chemins physique sur un réseau pour atteindre leur destinataire. Les paquets sont routés en fonction d’un en-tête comportant l’adresse du destinataire et de l’émetteur, mais plusieurs flux d’informations sont regroupés sur une même liaison physique. Le destinataire devra réassembler les paquets reçus. FTP File Transfer Protocol. Protocole de transfert de fichiers définissant la manière de transférer un fichier d’un ordinateur à un autre. HTTP HyperText Transfer Protocol. Norme international correspondant au protocole d’échange utilisé sur l’internet pour assurer la transmission de données sur le Worl Wide Web. ISO International Standardization Organization. Organisme international indépendant chargé de la normalisation dans les domaines techniques. IRC Internet Relay Chat. Service permettant d’établir des discussions en temps réel entre des groupes d’usages à travers l’internet. NNTP News Network Transfer Protocol. Ensemble de règles permettant la diffusion des groupes Usenet ou forums sur la majorité des serveurs de conférences virtuels (NNTP server) sur l’internet. SMTP Simple Mail Transfer Protocol. Protocole de messagerie spécifiant les règles d’échanges des messages électroniques.

RFC Request For Comment. Document public informatif ou descriptif d’un protocole internet. Routeurs Équipement assurant les fonctions de routage et permettant l’interconnexion des réseaux locaux (Local Area Network) entre eux ou avec des réseaux publics (Wide Area Network), les routeurs opèrent au niveau 3 de la couche du modèle OSI (cf. schéma 5 p.47)

Ouvrages généraux : Henri Bakis, Les réseaux et leurs enjeux sociaux, Que sais-je ?, P.U.F., Paris, 1993, Erik Neveu, Une société de communication ?, Clefs, Montchrestien, Paris,1994 Marc Guillaume dir., Où vont les autoroutes de l’information ?, Commissariat général du Plan, Commission européenne, Descartes & cie, Paris, 1997 L’incontournable panorama économique, social et culturel de la Société de l’Information aujourd’hui : Manuel Castells, L’Ère de l’information tome 1 : La société en réseaux, Fayard, Paris, 1998 Les autres tomes ne sont pas encore traduits (disponibles chez Amazon.com, http://www.amazon.com) : Manuel Castells, The information age volume 2 : The power of identity, Blackwell, Oxford, 1997 volume 3 : End of Millenium, Blackwell, Oxford, 1997

Pour des enjeux de pouvoirs bien réels et actuels : Jean Guisnel, Guerres dans le cyberespace, service secrets et internet, Éd. La Découverte, Paris, 1997 Michel Wautelet, Les cyberconflits, internet, autoroutes de l’information et cyberespace : quelles menaces ?, GRIP, Éd. Complexe, Bruxelles, 1998

Pour une approche historique et philosophique des réseaux : Pierre Musso, Télécommunications et philosophie des réseaux, la prospérité paradoxale de Saint-Simon, La politique éclatée, P.U.F., Paris, 1997 Philippe Forget, Gilles Polycarpe, Le réseau et l’infini, essai d’anthropologie philosophique et stratégique, Economica, Paris, 1997 Daniel Parrochia, Philosophie des réseaux, La politique éclatée, P.U.F., Paris, 1993

Une utopie : Pierre Lévy, L’intelligence collective, pour une anthropologie du cyberspace, Éd. La Découverte, Paris, 1997

Pour une approche sociologique : Michel Maffesoli, Le temps des tribus, le déclin de l’individualisme dans les sociétés de masse, Le livre de poche, essais, n°4142, 1988 Michel Maffesoli, La transfiguration du politique, la tribalisation du monde, Grasset, Paris, 1992 Krisis n°16, Communauté ?, Paris, juin 1994

Ouvrages de textes choisis : Daniel Bougnoux, Sciences de l’information et de communication, Textes essentiels, Larousse, Paris, 1993 Céline Spector, Le pouvoir, textes choisis, Corpus, Flammarion, Paris, 1997 Atila Özer, L’État, textes choisis, Corpus, Flammarion, Paris, 1998

Ouvrages de références : Chantal Vallet, Dictionnaire des télécommunications, Ellipses, Paris,1998 Georges Lescuyer, Marcel Prélot, Histoire des idées politiques, Dalloz, Paris, 1994

Sur la même problématique :
Les Cahiers de Médiologie n°3, Anciennes nations, nouveaux réseaux, Gallimard, premier semestre 1997 Les actes du colloque du même nom de l’Assemblée Nationale, Travail médiologique n°3, publié par l’ADREM, 1998. Régis Debray, L’État séducteur, Folio essais, Gallimard, Paris,1993

Ouvrage théorique : Régis Debray, Cours de médiologie générale, NRF, Gallimard, Paris, 1991 Pour retracer l’évolution qui aboutit à l’État moderne : Blandine Kriegel, La politique de la raison, Payot & Rivages, 1994 Une remise en perspective de l’époque de la naissance de l’État : Jacques Heers, De Saint Louis à Louis XI, forger la France, Bartillat, 1998

Pour une approche vivante de la Société de l’Information et de ses possibles, q uelques romans : David Brin, La chose au cœur du monde, Terre 1, Presses-Pocket, 5471, 1990 David Brin, Message de l’Univers, Terre 2, Presses-Pocket, 5472, 1990 William Gibson, Neuromancien, J’ai lu, 2325, 1985 Jean-Marc Ligny, Inner City, J’ai lu, 4159, 1996 Kevin O’Donnel, ORA:CLE, Laffont, 1986 Neal Stephenson, L’âge du diamant, Rivages, 1996

Signets : Sur l’internet : L’Agora (http://agora.qc.ca/) Netizens, histoire et impact de l’internet (http://www.columbia.edu/~hauben/netbook) Pratique : Réseau international des universités de la communication (http://www.crepac.com/) Annuaire des sites des administrations (http://www.admifrance.gouv.fr) Textes du XIXe en ligne (formats texte, pdf et tiff) (http://gallica.bnf.fr/)