You are on page 1of 8

LES NOUVELLES TENDANCES SUR LE MARCHE DE L’INFORMATION NUMERIQUE

Ludovic Bour

RÉSUMÉ Le concept d’intelligence économique renvoie systématiquement à la notion d’information. L’information est entendue à la fois du point de vue de sa valeur d’usage, mais aussi comme une matière première qui entre dans un processus de traitement et de restitution pour au final amener à la prise de décision. La présentation qui suit a pour objectif de revisiter le cycle de l’information suivant une analyse dynamique du marché qui organise le traitement de cette matière première qu’est l’information. L’analyse dynamique de ce marché suppose que l’information entre dans un processus de production, de modification, de transformation et de diffusion qui répond à des règles d’organisation qui lui sont propres. L’analyse des forces concurrentielles en présence est un moyen d’expliciter dynamiquement ce marché et de mieux apprécier les enjeux qui s’y dessinent. Le séquençage de la présentation consiste dans un premier temps à relever la présence d’une multitude d’acteurs sur ce marché (éditeurs de contenus, éditeurs de logiciels, agrégateurs de contenus, serveurs, intermédiaires, entreprises consommatrices, acteurs publics, nouveaux entrants, individus). Cette phase doit aussi consister en une évaluation de ce marché pour mieux appréhender les rapports de force. Dans un second temps, l’analyse dynamique de ce marché consiste à identifier les voies de développement possibles et probables compte tenu des mouvements capitalistiques sur les principaux acteurs, de l’évolution des technologies et de celle des usages. L’analyse du jeu des forces en présence sur le marché de l’information doit permettre de donner une clé de lecture dynamique qui vise à comprendre comment nous sommes passés d’une gestion de la pénurie (au niveau des sources informationnelles et des inputs) à une gestion de la complexité (par excroissance des données non structurées). Au final, il s’agit d‘arrimer l’intelligence économique et stratégique à l’éco-système informationnel. En toute logique, l’analyse dynamique de cet éco-système doit

inviter les participants à adopter une posture suffisamment critique par rapport à l’information. Elle doit aussi donner les clés de lecture aux professionnels de l’information et des travailleurs du savoir pour appréhender ce marché et comprendre le déplacement de la valeur de l’information. D’une logique de capture et d’organisation de l’information, le professionnel assiste et participe à l’émergence de nouvelles fonctions dans l’entreprise : repérage de l’information pertinente, gestion du flux et analyse.

LE TEMPS DES AUTOROUTES DE L’INFORMATION En des temps quasi pré-historiques, au vu du développement de l’Internet, on s’interrogeait sur la généralisation du protocole IP (l’Internet), sur l’intérêt de numériser la connaissance et le savoir, sur la convergence des industries des télécommunications, de l’audiovisuel et de l’informatique pour organiser et diffuser le contenu numérisé. On s’interrogeait sur les “Autoroutes de l’information”. C’était … il y a une quinzaine d’années ! Le concept renvoyait principalement à des questions de développement d’infrastructures, et supposait une implication forte du politique pour assurer le déploiement de cette architecture complexe censée diffuser et véhiculer les services et contenus produits dans le cadre d’un assemblage de réseaux interconnectés. La notion d’autoroute de l’information était née ; avec elle de nouvelles opportunités apparaissaient conséquemment à l’augmentation des capacités de débit pour assurer la transmission des contenus (multimédia notamment), ainsi qu’un accès plus universel à l’ensemble des contenus. Resitué dans le contexte économique et politique du moment, c’est au vu des enjeux financiers pour assurer les investissements liés au déploiement de ces infrastructures, remettre en perspective la politique publique dans l’organisation du secteur des télécommunications. Où déréglementation et ouverture à la concurrence deviennent les principes directeurs de la puissance publique pour

organiser le déploiement de ces fameuses autoroutes de l’information. Dans un contexte professionnel, l’information numérique est encore organisée sur le principe de l’interrogation de serveurs de banques de données suivant la maîtrise d’un langage de commandes propre à chaque serveur. Autant dire réservé à un public de professionnels avertis et rompus à l’exercice1. L’accès à la donnée n’en était que plus confidentiel d’autant plus que l’action du professionnel de l’information était concentrée essentiellement sur la capture de cette information dans un état de pénurie informationnelle. Le marché était alors caractérisé par la rareté de la matière première. Ce qui revenait à dresser l’équation suivante : détenir l’information, c’est avoir le pouvoir ! La dissémination de l’Internet dans toutes les strates de la société au cours des années 90 a remis en cause l’ensemble de ces schémas. Le marché de l’information numérique a été impacté de façon irréversible tant du point de vue de la production des contenus, que celui de leur diffusion et de leur traitement.

dans une logique d’interconnexion entre les personnes avec pour objectif de faciliter l’échange entre les individus. On peut penser que dans une troisième étape (par ailleurs déjà engagée), son ambition est d’interconnecter les contenus et de ce fait faciliter la production des idées ainsi que leur circulation. On notera, par ailleurs, que la possibilité aujourd’hui d’interconnecter entre eux des outils de couvertures fonctionnelles différentes (mashup) participe à cette ambition de favoriser les transferts de savoirs. Sommes-nous pour autant entrés dans un cercle vertueux de co-production et de partage universel des connaissances ? Rien n’est moins sûr. A tel point que le langage des experts tend à dériver vers de nouveaux états de crise comme “la fracture informationnelle” ; soit le différentiel de consommation d’information entre les divers acteurs du développement économique suralimenté par la fracture numérique. Il convient dès lors de s’interroger sur l'exploitation optimale – par les entreprises - des ressources informationnelles disponibles en ligne. De même que l’analyse doit porter sur l’appropriation d’outils de veille et de gestion des flux d’information qui aujourd’hui intègrent de plus en plus de fonctions participatives et qui ce faisant favorisent l’interaction.

LE TEMPS DE L’INTERNET (1, 2, 3, …0) L’internet qui rappelons-le est né d’une initiative militaire2 a été très largement diffusé dans la société nordaméricaine par l’intermédiaire de la communauté universitaire (étudiants et enseignants) qui avait très vite perçue sa valeur d'usage comme étant un vecteur d’échange et donc de communication des travaux réalisés par la communauté. Le fait que la diffusion de cette technologie de communication alors novatrice s'est faite par les usages (internet utilisé pour l'échange de fichiers) explique encore aujourd’hui la dissémination des évolutions qui ont cours sur le net (on pense aux nouvelles couvertures fonctionnelles que permettent aujourd’hui les applications en ligne réputées “web 2.0”). En ce sens, même si le terme “web 2.0” peut paraître à bien des égards inapproprié, on notera que dans un premier temps, le web visa à assurer l’interconnexion entre les ordinateurs avec pour principal objectif de faciliter l’accès des données disponibles. Puis, il est entré
1

LE

MARCHE

DE

L’INFORMATION

NUMERIQUE

PROFESSIONNELLE

Le marché français de l’information électronique professionnelle est évalué à près de 1,5 milliard d’euros3. Il est en croissance constante. On y trouve une centaine d’acteurs : producteurs de bases de données, instituts de recherche, éditeurs de contenus, agrégateurs, serveurs, courtiers et intermédiaires, éditeurs de logiciels dont la couverture fonctionnelle suit les étapes du cycle de l’information. Une décomposition de ce marché en segments permet de constater des tendances de fonds qui se confirment sur une période récente : § la poursuite, voire l’accélération de la numérisation des contenus § la montée en puissance (en termes de parts de chiffre d’affaires sur l’ensemble de ce marché) du segment représenté par les outils de recherche et plateformes de veille4 § la confirmation de l’importance du segment représenté par l’information financière en terme de parts de marché, devant l’information presse, puis juridique § les nouveaux enjeux sur le segment de l’information
3

Pour les nostalgiques de l'avant internet, il est intéressant de rappeler que le serveur Dialog a été en 1966 le premier système d'interrogation en ligne de serveur de banques de données et que le service est né d'une initiative du complexe militaro-industriel US en pleine guerre froide associant la NASA à Lockheed Missiles Space Company
2

Début années 60 : le réseau des réseaux est envisagé par le Département US de la Défense de l'Advanced Research Project Agency pour étudier l'amélioration de la transmission d'informations d'ordinateur à ordinateur. L’objectif est de créer un réseau de communication invulnérable à toute attaque nucléaire éventuelle

Source SerdaLab : L'Information électronique professionnelle le marché en 2006 et les tendances 2007-2008 4 Ce que les anglo-saxons reprennent sous le vocable

Search, Aggregation & Syndication services, soit toute solution qui diffuse des données qu’elles n’ont pas produites. Typiquement, les revenus générés par Google Inc. font partie de ce segment

scientifique, technique et médicale (ISTM) dont les modèles classiques de diffusion sont perturbés par la dynamique en cours au niveau mondial et européen en particulier sur “l’open access”. L’objectif étant de faciliter l’accès aux données produites dans le cadre de la recherche publique § la poursuite de la concentration capitalistique des principaux acteurs du secteur avec la constitution et la consolidation de groupes largement dominant sur certains segments § le repositionnement de certains acteurs sur des modèles économiques qui émergent § la “délicate” approche du marché par les producteurs de données publics Compte tenu des tendances observées au niveau de l’offre, il n’est pas vain de s’interroger dès lors sur l’évolution de la demande et constater de la sorte que les évolutions technologiques actuelles redessinent les modalités de consommation de l’information. Cette tendance de fond est aussi alimentée par une recomposition de l’environnement des acteurs traditionnels sur ce marché. Les “pures players” tels que les éditeurs de contenus, agrégateurs de contenus et éditeurs de logiciels du secteur se réorganisent sur des logiques de croissance externes et donc de concentration ainsi que sous l’impulsion de nouveaux entrants qui imposent de nouveaux modèles économiques.

permettent d'embarquer des contenus et fonctions produites par des tiers. Ces contenus sont dynamiques, c'est à dire qu'ils sont réactualisés automatiquement en fonction des mises à jour de l’éditeur. Au-delà des outils qui permettent à ces fonctionnalités de se répandre dans les organisations, il est intéressant d’observer les changements dans les modalités de consommation de l’information, ainsi que l’impact sur l’évolution des métiers qui traitent l’information. Une des expressions les plus répandues actuellement sur ce thème est le glissement terminologique en cours d’une logique de veilleur professionnel à celle de travailleur du savoir plus communément appelé “knowledge worker”. Un des exemples les plus emblématiques actuellement est l’approche du marché que propose l’agrégateur de contenus Factiva DowJones dont l’objectif affiché est aujourd’hui de fournir une infrastructure technologique conçue pour les travailleurs du savoir. Dans ce contexte, l’individu est déchargé des tâches (fastidieuses donc chronophages) de collecte qui sont assurées par des agents intelligents intégrés aux portails d’information. C’est l’avènement des plateformes intégrées qui propose un repositionnement des principaux acteurs sur le marché de l'information professionnelle. La donnée - qui devient abondante et consommable en quasi temps réel via notamment le développement de la syndication - n’est plus l’enjeu. La présence sur le poste client et le réseau de l’entreprise s’y est substituée. En d’autres termes, les gros acteurs du secteur ont intégré à leur nouveau schéma de développement le fait qu’il leur faut être présent sur l'infrastructure. Cette présence passe par la fourniture à l'utilisateur des services à valeur ajoutée tels que la cartographie et les outils de visualisation de l’information, le traitement automatique des contenus, la gestion du multilinguisme, la catégorisation des contenus, les outils d’aide à la décision, etc… Ils trouvent de la sorte la meilleure assurance contre le risque de perdre le client qui a de plus en plus tendance à se fournir en données brutes auprès d'une multitude de sources. Ce faisant, on peut affirmer que la valeur n’est plus dans la donnée, mais dans le flux. Ce qui en soi concoure avec l’idée émergente qu’avec le déploiement des applications réputées “web 2.0”, nous serions passé d’une culture du stock à une culture du flux. Il fait donc sens de dire que la rationalisation de la gestion des flux d’information organise “l’entreprise apprenante”, voire “l’entreprise étendue” qui intègre son réseau de clients, de fournisseurs et de partenaires. On comprend mieux le rapprochement qui s’opère actuellement entre le knowledge management et l’intelligence économique et stratégique toute dédiée à l’optimisation de la prise de décision. De même que l’impact sur l’organisation n’en est que plus manifeste. Pour illustrer le propos, il est intéressant d’observer les mutations en cours quant au “core business” de Lexis Nexis. D’un métier d’éditeur, agrégateur de contenus dans le domaine juridique, le groupe s'oriente vers une logique recombinatoire des savoirs où l'information brute, soit la jurisprudence est analysée, commentée par les experts pour être ensuite diffusée selon des modes opératoires

ENTRE RECONFIGURATION DES ACTEURS … La tendance la plus manifeste est l’intégration progressive des fonctionnalités issues des applications grand public réputées “web 2.0” aux nouvelles plateformes de veille, de travail collaboratif et de gestion des flux d’information dans les entreprises et les organisations. Les fonctions ainsi proposées ont pour principale motivation de favoriser l’interconnexion entre les individus, ce qui tend à lier régulièrement “web 2.0” et internet participatif ou collaboratif. On peut les regrouper en divers familles de composantes fonctionnelles : § la coopération éditoriale depuis des plateformes dédiées (wiki, weblog multi-contributeurs) § l’identification des expertises organisée depuis les plateformes de réseaux sociaux dont les membres interagissent entre eux § la rétroactivité par ajout de commentaires à des articles § l’enrichissement de contenus collectés dans le cadre d’un processus de veille par annotations d’experts § la mutualisation de la ressource informationnelle par syndication de contenu § le développement des interconnections d’applications (mashup) qui permettent de lier un contenu à un outil (à l’exemple de ce que permet Googlemaps) § le développement des modules de syndication (widgets), paramétrables et personnalisables, qui

dynamiques. Cette constatation est valable pour d’autres segments de l'information professionnelle, dont l’information financière et de solvabilité, l’information brevets, etc… Une fois posé le principe de convergence des outils et des contenus, on comprend mieux l’évolution des métiers des principaux acteurs du secteur, dont la puissance financière permet de redéployer leur cœur de métier notamment par croissance externe5.

… ET ADAPTATION AUX NOUVEAUX USAGES Il est tout aussi opportun de s’interroger sur l’évolution des usages de consommation de l’information. De ce point de vue, nul ne peut faire abstraction d’une tendance de fond qui se dessine aujourd’hui : le comportement des utilisateurs qui manipulent l’information évolue. L’analyse porte alors sur les facteurs qui perturbent les schémas d’organisation. Ces consommateurs : § s’approprient les nouveaux outils et briques fonctionnelles (tout du moins ils en ont la possibilité) proposés gratuitement avec la possibilité de s’affranchir (éventuellement) des contraintes de sécurité imposées par une Direction des Systèmes d’Information § demandent de la réactivité suivant le principe : je donne, donc je reçois § demandent un raccourcissement des délais. Cette exigence tient à l’accélération du cycle de l’information, elle-même entretenue par le passage d’une culture du stock à une culture du flux

On assiste de la sorte à une inversion du modèle d'innovation dans ce secteur : l'initiative des évolutions technologiques était le fait de groupes industriels, de groupes de presse et d'agences de renseignements entre autre. Or aujourd'hui, on assiste à l'émergence d'un modèle de développement dans lequel des applications grand public innervent le secteur de l'information professionnelle. La logique de co-production (ou de production collaborative) se diffuse chez les éditeurs de plateformes professionnelles de gestion de l’information. Les diffuseurs de contenus ne sont pas en reste et accompagnent cette tendance en intégrant à leur corpus de sources informationnelles agrégées des contenus produits depuis des outils grand public tels les weblogs, les wikis, soit un ensemble d'espaces collaboratifs qui favorisent l'échange et la production de connaissance. Pour illustrer ce propos : l'agence de presse Reuters - historiquement très engagée dans l'information professionnelle - a investi fin 2006 dans une startup américaine (Pluck) qui propose une plateforme de syndication de contenus produit depuis des weblogs et autres “médias sociaux”. Cette inversion du modèle d’innovation ne va pas sans poser un certain nombre de questions et de problèmes qui apparaissent avec la propagation des nouveaux comportements et usages de la donnée informationnelle. Un des plus prégnants est certainement celui que l’on retrouve sous le vocable de “paradoxe informationnel” qui fait coexister une impression de surabondance informationnelle et un tarissement des sources de veille pour les entreprises, notamment de la presse technique et professionnelle. Il faut y voir la disparition de certains éditeurs spécialisés qui produisaient un contenu à très forte valeur ajoutée dans une logique de filière ou métier. Ces derniers se sont trouvés confrontés à une approche du marché de l’information devenue trop globale pour continuer à produire des revues aussi spécialisées. L’apparition de nouveaux modèles économiques pour rémunérer l’édition et ses modes de diffusion est venue accentuer ce phénomène de déstabilisation du marché. L’Internet est venu brouiller les modèles classiques de l’édition à usage professionnelle en installant le débat entre gratuité et services et contenus payants. Ce faisant, de nouveaux concepts sont apparus ou tout du moins revenus en force sur le devant de la scène de l’éco-système informationnel récent : § le pay per view ou le principe de consommation à l’acte § les formules kiosque qui restaurent la logique éprouvée par la télématique (pour ne pas dire le Minitel) entre durée de consultation et facturation § le financement des contenus par la publicité suivant le principe très largement (et rentablement) éprouvé par un nouvel entrant sur ce marché de l’information : Google et son algorithme de recherche basé sur le calcul de l’indice de popularité (le “page rank”) § “l’open access” et le principe de libre diffusion des données produites sur des fonds publics § le principe du contributeur / payeur qui installe celui-

Il est un phénomène émergent qui concoure à la perturbation du schéma classique de production de contenu où un éditeur émet à destination d’un utilisateur récepteur. Ce que les anglo-saxons nomment le “User Generated Content” (UGC), soit la production de contenu informationnel par les utilisateurs eux-mêmes via les espaces, les commentaires laissés sur les weblogs, les contributions sur les wikis, etc… Bref, la capacité de tout utilisateur d’interagir avec l’éditeur. Ce qui ne va pas sans poser de nouveaux problèmes, notamment en matière de validation de l’information et de trace numérique laissée par l’utilisateur. La syndication de contenus via le déploiement des flux RSS dans les plateformes de veille est venue inverser durablement les processus d’alerte : l’information n’est plus traquée par le veilleur, mais servie par l’outil. Elle constitue certainement une des fonctionnalités du “web 2.0” les plus à même de traduire cette évolution dans les comportements de consommation.
5

Cf. le rachat fin 2006 de Datops par Lexis Nexis ainsi que l’intégration de Factiva au groupe DowJones lui-même englobé au groupe média News Corporation

ci dans un rapport proche des modèles de financement par la publicité vis-à-vis de l’éditeur

A ces modèles émergents de rémunération des éditeurs de contenus, il faut considérer l’impact grandissant que peut avoir la généralisation des web services qui commencent à se répandre dans l’entreprise. Soit la possibilité pour une organisation de s’affranchir des contraintes de gestion et de maintenance d’applications informatiques diverses dont l’utilisation ne modifie pas le cœur de métier. Plus communément, appelées solutions SaaS6, on y retrouve pour l’essentiel des applications bureautiques et collaboratives, accessibles en ligne depuis un navigateur. La fourniture de services en ligne remet en cause les schémas de développement d’un certain nombre d’éditeurs de logiciels. Par ailleurs, la logique d’offre d’externalisation poussée à son extrême par l’intermédiaire de cette “informatique en nuage”7 n’est pas sans poser de nouvelles questions au niveau des organisations telles que : § le niveau de sécurité suffisant pour garantir la confidentialité des échanges entre le client et le serveur distant § la qualité de l’accès au serveur et donc le confort d’utilisation de l’application distante § la capacité de stockage future des ces méga serveurs de données avec la croissance des productions multimédia § la stabilité et la pérennité du réseau § la dépendance vis-à-vis des fournisseurs de services en ligne

acceptation par des utilisateurs identifiés dans le but d’atteindre un niveau d’usage jugé satisfaisant par ceuxci. Et puisqu’il est question d’information numérique, il s’agit d’envisager “l’utilisabilité” des données selon leurs capacités de traitement informatique ou non. On peut aussi retenir le principe d’un niveau de complexité en surcouche entre information structurée et information non-structurée. La croissance exponentielle des données non-structurées alimente le bruit informationnel. Les outils réputés “web 2.0” ont bien sûr un effet amplificateur sur ce phénomène. Ils tentent cependant de corriger ces turbulences sur l’organisation de l’information en avançant de nouveaux modes de navigation à partir de fonctions qui tendent à se propager dans les organisations telles : § le développement des folksonomies ou système qui permet à chaque individu d’adopter librement les termes qui permettent de classifier les ressources plus communément appelés mots-clés ou étiquettes (tag) § le développement des logiques collaboratives a aussi produit l’apparition des pratiques réputées “sociales”. Le social bookmarking en est une des expressions. Soit le partage de favoris avec la possibilité d’annoter et de commenter § le clustering ou rapprochement d’entités sémantiquement proches vient lui aussi apporter un nouveau mode de catégorisation de la ressource informationnelle

Cependant, force est de constater que cette “informatique en nuage” tend à se déployer dans l’entreprise et modifie ce faisant la chaîne de valeur dans le domaine de l’édition de logiciels. Il va sans dire que le positionnement des acteurs présents sur le marché de l’information est en voie de recomposition à la fois sous l’effet du déplacement des modèles économiques traditionnels (la vente de licences d’exploitation) vers des modèles d’abonnements (location d’applications et d’espaces sur sites distants). Cette recomposition est aussi le fait de l’arrivée de nouveaux entrants qui proviennent pour l’essentiel de la sphère Internet. On assiste de la sorte à un engagement frontal entre deux logiques qui s’opposent et qui pourrait se résumer à la course poursuite entamée depuis bientôt une décennie entre Microsoft et Google, soit entre le monde du logiciel et celui de l’Internet8. Mais pour revenir à la question de surabondance informationnelle, il est opportun de revisiter le problème à la lumière des nouveaux outils qui innervent le monde de l’information en ligne. Soit d’envisager le degré “d’utilisabilité” de la donnée informationnelle. En d’autres termes, il s’agit de s’interroger sur son
6 7

Cependant, on peut légitimement s’interroger sur l’appauvrissement de la ressource par dépréciation des contenus et augmentation du bruit. Certains n’hésitent pas à avancer la nécessité de produire rapidement une “écologie informationnelle” dont le propos est de réduire la “fracture cognitive” qui verra d’une part des consommateurs d’information déployer un savoir faire qui leur conférera un avantage certain dans l’accès à l’information compte tenu de cette surabondance et d’autres part les autres. Pour être complet sur l’évolution des comportements en matière de consommation de l’information, il faudra s’interroger sur l’émergence d’applications réputées “web 2.0”, qui tentent d’instaurer un nouveau rapport à la donnée collectée. On parlera de “sérendipité” ou processus cognitif qui développe la capacité à trouver quelque chose que l’on ne cherche pas. On passe de la consommation d’une information escomptée à un contenu suggéré. Les modèles de l’innovation sont réactualisés. Au final, les organisations cherchent à stimuler l’échange collaboratif et augmenter son potentiel de créativité. De ce point de vue, l’observation doit guider la réflexion. L’arrivée prochaine dans les organisations d’une nouvelle catégorie de consommateurs de l’information (les “digital natives”9) est plus source de questionnement que de réponses quant aux évolutions fonctionnelles des outils de
9

Software as a Service Cloud computing 8 Pour simplifier le débat : l’intelligence est dans la machine versus l’intelligence est dans le réseau

Soit les jeunes générations immergées dès le début dans un environnement numérique organisé autour de l’échange de données

traitement de l’information. Cependant, il semble acquis que le marché de l’information numérique est irrémédiablement engagé dans un mouvement de reconfiguration dont l’objectif majeur est d’optimiser la gestion des flux d’information plutôt que d’organiser le stockage des données. Dès lors, les solutions et plateformes logicielles proposées par les acteurs de ce marché sont davantage perçues comme un moyen de fluidifier la transmission des données dans l’entreprise. L’impact sur l’organisation est souligné. Il faut cependant, s’interroger sur les stimuli qui vont favoriser dans l’entreprise l’intermédiation et l’échange entre les divers acteurs perméables à ces flux. Soit avancer sur les principes de stimulation collective des intelligences individuelles. Sans quoi, l’organisation prend le risque de participer à la production de cette “fracture cognitive”.

§ de l’évolution des métiers § de l’évolution des technologies de l’information et le déploiement des processus collaboratifs § du développement des web services ou applications accessibles en ligne depuis des serveurs distants § de l’accélération du cycle de l’information avec la nécessité devenue exigence d’un accès à l’information en temps réel (sitôt produite, sitôt accessible) § de la croissance exponentielle des données disponibles alimentée par le développement des sources ouvertes § de la convergence des outils et des données § de l’inversion du modèle d'innovation où les applications grand public innervent les pratiques des organisations

Conséquemment, on peut déjà émettre un certain nombre d’hypothèses quant aux principaux enjeux du secteur de l’information numérique sur la base desquels les acteurs devront formater leur offre : § l’organisation de la capture et de la diffusion pour ne pas alimenter la machine à faire du bruit § la sécurité des données hébergées sur sites distants et la protection des flux d’information qui garantissent les organisations de toute intrusion § la nécessaire reconfiguration du métier de DSI qui évolue de la définition et la construction d’architectures SI vers des fonctions qui visent à optimiser les conditions d’accès aux données en ligne et la sécurité des échanges § la nécessaire refonte du droit de la propriété intellectuelle largement perturbé par le développement des pratiques collaboratives et du “User Generated Content” § la capacité des utilisateurs à repenser le processus de validation des données collectées dans un environnement de croissance des sources ouvertes alimenté par le “User Generated Content” et les réseaux sociaux § le développement de l’analyse intégrée dans un processus collaboratif. On peut avancer l’idée du développement à venir de véritables “hub cognitifs” ou points de convergence des connaissances pour au final produire la décision.

UNE NOUVELLE DYNAMIQUE DE L’INFORMATION

Internet recompose le paysage informationnel. Le réseau des réseaux structure cet espace sur la base de nouvelles pratiques, notamment en déplaçant le système des valeurs de l’information. La valeur n’est plus dans la donnée, mais dans l’optimisation du flux. Le jeu des acteurs présents sur ce marché se redéploye en conséquence. L’enjeu ne porte donc plus sur la donnée, mais l’optimisation et la maîtrise du flux. Les acteurs les plus significatifs10 ont développé des stratégies intégrées à partir de contenus et de plateformes pour à l’avenir être présents sur l’infrastructure de l’entreprise. L’objectif est d’intégrer l’ensemble du processus métier avec des outils et services à valeur ajoutée (cartographie, traitement automatique des contenus, organisation des flux, formatage automatique et normalisation de documents, etc…). L'approche métier est privilégiée pour au final fournir au professionnel - dans sa sphère d'activité l'ensemble des données et outils qui optimisent le traitement de l'information. C'est dans cette logique de verticalisation des processus de traitement de l'information que le groupe Thomson Reuters s'est lancé ces dernières années dans le développement de plateformes adaptées plus spécialement à des métiers. Thomson Innovation en est une illustration, tout comme la stratégie aujourd’hui affichée par Wolters Kluwer qui consiste à produire des portails d’informations pour les professionnels des métiers de la santé ou les professions juridiques. On l’aura compris, le marché de l’information numérique est engagé dans un processus de mutations sous les effets conjugués :

La traduction de ces enjeux au niveau des fonctions proposées par les outils ouvre de nouveaux champs applicatifs dans le domaine de l’information numérique dont : § l’analyse sémantique pour le développement des interfaces d’interrogation en langage naturel § l’ingénierie linguistique dans le cadre de la recherche multilingue § la recherche multimédia et le développement des technologies de “speech recognition” (speech to text) § les plateformes collaboratives pour l’échange et la coproduction § la syndication de contenus pour fluidifier la diffusion

10

Il faut entendre, ceux qui ont une assise capitalistique suffisante pour envisager une croissance externe qui leur assure la couverture fonctionnelle la plus étendue sur les solutions proposées

§ la valorisation de l’information via des interfaces graphiques. Pour résumer, le web est actuellement engagé dans un processus d'assemblage de composants techniques et de services. Une nouvelle phase émerge dans laquelle ces technologies interconnectées vont développer du sens dans des systèmes intelligents capable de comprendre, interpréter et construire des réponses cohérentes. Aussi, n’est-il pas vain de rappeler que compte tenu des évolutions en cours sur ce marché de l’information numérique, il est opportun d’effectuer systématiquement cet aller-retour entre l’utilisateur, l’organisation et l’état de l’art. Avancer sur les voies d’une nouvelle “écologie informationnelle”, c’est aussi s’interroger sur l’organisation et ses modalités de fonctionnement : § la stimulation collective ou effet réseau § le formatage de communautés homogènes orientées vers la co-production de connaissances § le développement des pratiques d’interprétation des informations au sein de groupes d‘échanges Cette nouvelle dynamique de l’information redistribue le jeu des acteurs présents et à venir sur ce marché en même temps qu’elle impose à l’entreprise de repenser son organisation. L’expertise tend à basculer du profil de veilleur à celui d’animateur de réseaux d’expertises pour stimuler la co-production de connaissances.

BIBLIOGRAPHIE L'Information Électronique Professionnelle en France : le marché et les tendances en 2007 – SERDALAB 2008 Information Industry Market Size, Share & Forecast Report – Outsell Inc. Hype Cycle for Analytic Applications, 2008 – Gartner Group Organiser sa veille avec les logiciels libres – Xavier Delengaigne / Territorial Editions

RESSOURCES EN LIGNE Le site du Groupement Français de l’Industrie de l’Information : http://www.gfii.asso.fr La Dépêche du GFII (newsletter accessible sur abonnements) http://www.gfii.asso.fr/rubrique.php3?id_rubrique=33 Le site de la Software & Information Industry Association (SIIA) : http://www.siia.net/ Le site La machine à café http://www.wmaker.net/lamachineacafe/ Le site InternetActu de la FING http://www.internetactu.net/

Nuage de mots clés qui permet de visualiser la fréquence des principaux termes utilisés dans le texte. Plus la fréquence est importante, plus le mot est de taille importante (produit depuis la l’application web : TagCrowd)