You are on page 1of 98

UNIVERSITÉ PARIS I PANTHÉON-SORBONNE

UFR ARTS PLASTIQUE ET SCIENCES DE L'ART
Année 2008 – 2009

Forme et flux de données
étude préliminaire - création d'information par l'interface

Samuel Huron

MÉMOIRE DE MASTER – ART ET MÉDIAS NUMÉRIQUES
SOUS LA DIRECTION DE MME. ANNE-MARIE DUGUET
PARIS, LE 1 SEPTEMBRE 2009
Forme et flux de données
étude préliminaire création d'information par l'interface

Samuel Huron
samuel.huron@cybunk.com
http://www.cybunk.com
Remerciements

A ma mère, ma sœur, mon père.

A ma correctrice d'orthographe personnelle :
Lise Teurlay

A Mme. Anne-Marie Duguet, pour son aide dans ce
travail.

A mes amis :
Nicolas Cavaye, Steve Ungaro, Jeremy Levy, Antoine
Mazières, Robin Kobrinsky, David Dubner, Céline
Richard, Cécile Fichten, Manon Bouchareu, Touffik Titen,
Jackie et Serge, Alexandra Dubois, Miro Soares
et tous les autres...

Aux professeurs et instituteurs qui m'ont formé:
Mr Hellec, Mr Vernouiller, Mr Zuker, Mr Kornovsky, Mlle
Chamaillou, Mme Barral, Gilbert Longhi, Eric Lecerf,
Olivier Long, Pierre Hénon.

Aux écoles et universités qui m'ont suivi:
Université Paris 1 Panthéon Sorbonne, École National
Supérieur des arts décoratifs, Université Paris 8 Saint
Denis - Vincennes, Le Lycée du temps choisi.

et Patrice Mugnier pour le travaux réalisés en commun et
le graphisme du projet No-truth.
Résumé
Ce mémoire interroge le rôle de l'interface dans la représentation des
données. En effet, les flux de données numériques dépassent nos capacités de
perceptions et l’étude menée ici tente de développer cette problématique, en
analysant comment l’interface fait passer des données numériques du virtuel à
l’actuel, c'est-à-dire comment celles-ci peuvent devenir une information à
destination de l’humain.

Pour mettre en lumière ce phénomène ce texte relate un travail
d’expérimentation plastique, technique et esthétique sur les flux RSS de la presse
française. Les interfaces créées lors de ces expérimentations explorent l’activité de
lecture numérique au travers de différents travaux artistiques. En partant de la
constatation des nouveaux usages introduits par ce format, nous essayons de
proposer une approche innovante de la navigation.

Enfin, c’est dans une approche du document HTML comme segmentation
du flux de données, et comme entité structurant la navigation web, qu’a été créé
une interface tridimensionnelle de navigation dans les flux RSS, le « html-
gramme ». La formation de l’acte de lecture par le design de l’interface et de
l’information est une des questions majeures soulevées par cette étude
préliminaire.

Champs de recherche :

Art, Média, Interface Homme Machine, Visualisation, Design Interactif, Flux d'information

Mots clés :

Art , média, RSS, HTML, navigateur, interface, visualisation, presse, écriture numérique,
videogramme, design interactif, texte de réseau, évaluation de site web
Abstract
This thesis questions the role of the interface in the data visualization. As
digital data stream beyond our abilities of perception, this study is trying to
develop such issues by analyzing how interface transform digital data from the
virtual to the actual. In other words, how digital data become human readable
information.

To highlight this phenomenon, this text describes experimental plastics,
technical and aesthetic work on French newspaper’s RSS feeds. The interfaces
created in these experiments explore the work of digital playback through various
artistic works. Starting with finding new uses introduced by this format, we try to
develop an innovative way to browse data feeds.

Finally, it is in an approach of the HTML document as a segmentation of
data flow and a structured entity in the web browsing that we created a three-
dimensional interface for browsing the RSS, the "html-gram".

The formation of the act of reading in the interface and information design is one
of the major questions raised by this preliminary study.

Champs de recherche :

Art, Media, Visualization, Interactive Design, Data flow, Information design, Data feed,
computer human interface.

Mots clés :

Art , media , RSS, HTML, browser, interface, visualization, map, newspaper, digital texte,
videogramme, HTMLgramme, multi-dicsiplinary, interactive design, Net text, media’s
transformations, text’s history, evaluation of web site, semiotic analysis.
Table des matières

0. Introduction 1

1. Données et interfaces 4

1. Démarche & Méthode 5
2. Approche pluridisciplinaire 10
3. Les données élément de connaissance 13
4. Les données de l'actuel au virtuel 15
5. L'interface entre flux et expérience esthétique 18

2. Information et Presse 20

1. Les flux d'information et le RSS 22
2. Les usage amenés par le format RSS 26
3. Flux de la presse 27
4. Expérience #1 : Répétition tensions et perspective 30
5. Information ciblées 34
6. Expérience #2 : No-truth 36
7. Expérience #2b : Névrose Maitre 39

3. La découpe du document 41

1. Mémoire et média 42
2. Le bouton Actualiser 44
3. Navigateur 50
4. Support de l'information 54
5. Rendre tangible les donnés 61
6. Le vidéo-gramme 67
7. Expérience #3 : HTMLgramme 70
8. Expérience #3b : HTMLcity 76

4. Conclusion 77

5. Bibliographie 80

6. Annexes graphiques 84
0. Introduction

1
Cette année, Internet a 40 ans, et le web en a 20, la première liaison eut
lieu en septembre 1969 a l'UCLA, puis le premier serveur web fut opérationnel en
1989 au CERN. Depuis Internet est devenu l'un des réseaux de transmission
d'informations le plus utilisé dans notre société. Et le web a connu une évolution
sans précédent à tel point qu'il est en passe de devenir l'un des plus important
support de l'écrit.

Dans ce contexte d'évolution exponentielle, nous utilisons le web comme une
gigantesque mémoire collective qui devient de plus en plus riche. Les paradigmes
que l'on utilisaient pour lire et écrire ces données sur le net deviennent surpassés
par les masses d'informations présentes sur le réseau. Effectivement les principes
d'interfaces WIMP1 sont des découvertes développées il y a une quarantaine
d'années, à un moment où l'on n'aurait jamais pu imaginer traiter quotidiennement
des flux d'information aussi grand. Malgré cela l'acte de surfer sur internet reste
conditionné par ces principes.

La perception des flux d'information et des données informatiques pour les non-
spécialistes reste un élément très abstrait. Beaucoup d'internautes ne distinguent
que la partie interprétée et formatée par les interfaces logiciels. Matthew Fuller 2
souligne ce point dans son essai Behind the blip. On verra comment ces accès aux
données, et leur mode d'exploration est un élément majeur du processus de
lecture. Le pré-traitement qui s'effectue en amont de la lecture humaine, participe
de l'interprétation de l'information.

Au delà du traitement purement fonctionnaliste de ces interfaces, ces éléments qui
conditionnent l'accès aux données et au flux constituent des modes de lecture, de
navigation et d'écriture de l'information. En tant qu'outil de perception il participe
aux développements sensibles, affectifs et a l'élaboration culturelle.

1 Windows Icon Menu Pointing Device http://www.lottiebooth.com/pdf/essay.pdf
2 Matthew Fuller « A software studies »

2
«J'aimerais penser que les ordinateurs sont neutres, un outil comme
un autre, un marteau qui peut construire une maison ou frapper un
crâne. Mais il y a quelque chose dans le système lui-même, dans la
logique formelle de programmes et de données, qui recrée le monde à
son image. "
(2003: 29; Ullman en 1997: 89)

Afin de palier à ce surplus de données et de complexités, des approches
graphiques ont été développées et la notion de visualisation d'information3 a été
élaborée. Ainsi la création de cartes ou diagrammes conceptuels ont connu un fort
développement durant les dernières années. Mais comme le souligne Gregory
Chatonsky4, il faut faire attention à l'aspect totalisant des visualisations. Savoir
distinguer ce qui relève de la représentation de ce qui relève de la fiction dans
l'usage des flux d'information.

Cette question du rapport entre représentation et fiction traverse toute la
grammaire des interfaces, car les interfaces sont des narrations performatives.
Nous ne traiterons pas ce problème directement. Nous nous intéresserons plutot à
expérimenter les manières dont un flux d'information peut raconter des histoires
différentes au travers d'expérimentations plastiques sur les flux de la presse en
ligne.

Dans le cas où l'interface est une narration, une démarche artistique peut venir
compléter les acteurs habituels. En substituant aux industriels le rôle de définition
des interfaces entre la société de l'information et notre système cognitif, l'artiste
peut intégrer une multitude de nouvelles relations. Cela offre évidemment une
certaine liberté et une sensibilité différente dans l'appréhension de l'information.

3 Information Visualization, a été inventé par le User Interface Research Group dont faisait partie
le Dr Jhon Mackinlay au Xerox Parc
4 Article du blog incident.net du 19 janvier 2007 :
http://incident.net/users/gregory/wordpress/19-flux-entre-fiction-et-narration/

3
1. Données et interfaces

4
1.1 DÉMARCHE & MÉTHODE

Lors de ce travail, je me suis concentré sur la manière dont on utilise et
présente les informations sur Internet. Mes préoccupations étaient de développer
des interfaces visuelles et plastiques qui traitent l'information d'une manière
alternative.

Le web est une mémoire collective, afin d'y accéder on utilise essentiellement
l'analogie du document pour présenter les informations qui y transitent.
Néanmoins, la compréhension et l'accès à cette mémoire reste limité par cette
analogie. Les diverses expérimentations présentées ici proposent de développer
une approche hybride qui questionne l'interprétation des flux d'informations
comme vecteur de sens.

Les travaux produits sont organisés autour d'un cycle d'expérimentations qui
regroupe différents programmes. Chacun d'entre eux aborde des facettes
différentes, trois prototypes seront présentés, les autres restent des esquisses.
Le premier est une tentative de description d'un champ sémantique dans l'espace.
Le second est une critique de l'usage actuel des flux RSS. Créer sur la base d'un
faux site d'information en ligne ce travail met en relief l'absurdité et la perversité
de certain rapport qui peuvent ce développer dans le traitement automatique de
l'information. Le troisième est une tentative d'illustrer un flux en faisant évoluer le
statut de document qu'une page HTML peut avoir. La démarche est de considérer
la page HTML comme objet dans un espace 3D, et ceux afin de réaffirmer sa
matérialité et son statut de document.

Ces travaux ne sont pas exactement de la visualisation d'information, car ils ne
prennent pas en compte certains principes fondateurs de cette discipline. Les
présentations réalisées ne cherchent pas à illustrer avec une excellence graphique
l'état statistique des données présentées. Ces travaux cherchent plus à affirmer une
prise de distances vis a vis des données. La possibilité pour les artistes de créer
des interfaces d'accès à l'information qui viendraient « déplacer », changer les
rapports entre internautes et données. Ces travaux tentent de créer des narrations à
partir des données.

5
Chaque création s'est structurée autour d'expériences plastiques/techniques.
Plastiques car le sujet de ce travail était de donner une forme à des données.
Techniques, car la manipulation de données nécessite de répondre aux contraintes
liées a l'informatique. Elle ne relève pas d'un travail finalisé, mais plus d'une
démarche exploratoire. C'est pour ces raisons que je parle plus de cycle
d'expérimentation que de la réalisation d'une œuvre.

La recherche s'axe sur la perception et la manipulation des flux d'informations sur
Internet. Lors de ces expériences je me suis concentré sur les flux RSS 5 de la
presse en ligne. J'ai choisi cette matière pour sa valeur sémantique, son niveau
d'actualisation et son importance politique. De plus je trouve cela intéressant de
traiter visuellement des flux d'information de la presse alors même que celle ci est
radicalement remise en cause par ces nouvelles techniques de diffusion de
l'information.

Enfin le format RSS choisi pour ces expérimentations participe au processus de
virtualisation du contenu. Il se trouve à la frontière de différents éléments qui
structurent le réseau et joue le rôle de messager entre les bases de données, les
API(s)6 et les pages HTML. Le RSS est aussi représentatif de nouveaux rapports
qui s'articulent sur le web. Effectivement avant la mode « web 2.07 », les
informations étaient diffusées selon des schémas standardisés pour la lecture
humaine, depuis on a vu exploser les API(s) des services en ligne. Le format RSS
est une norme dans ce domaine, il est créé pour être lu par des machines. Il offre
la possibilité à un logiciel de remettre en forme son contenu pour le présenter à
l'utilisateur. Ces techniques changent essentiellement le rapport à l'information
selon plusieurs aspects comme la temporalité de lecture, la formalisation
graphique, et la démarche d'accès. Ces différences seront développées dans les
chapitres suivants.

5 RSS : est un ensemble de format de flux de données (voir chapitre 2 )
6 API : application programming interface, une api est une interface destiné a la communication
entre deux programmes
7 Web 2.0 : le web 2.0 désigne les technologies et usages du web qui permettent aux internautes
d'interagir simplement avec le contenu, cette expression a été lancé pa Tim O' Reilly en 2004,
elle est très controversée par les experts, c'est pour cette raison que je préfère la désigné comme
une mode.

6
Après avoir pris connaissance du format de ces flux et de leur contenu, j'ai décidé
de travailler l'information au travers d'une méthode différente de celle employée
dans l'élaboration des systèmes de gestion de données classiques. Pour soutenir
cette démarche de recherche et d'expérimentation, j'ai souhaité ne pas orienter mes
développements et créations dans le sens d'un objectif précis. En privilégiant une
méthode qui allie nécessités techniques et explorations plastiques, je tente de ne
pas me laisser submerger par l'approche pragmatique des données. Cette méthode
permet des aller-retours sans cesse, entre les intuitions créatives et les contraintes
techniques.

7
MÉTHODE

Pour chacun des travaux j'ai travaillé en plusieurs étapes qui sont
représentatives des nécessités posées par l'architecture technique :

1 - enregistrement des flux d'informations

2 - analyse et traitement des données

3 - expérimentations visuelle

L'enregistrement des flux d'information était une des premières intuitions que j'ai
mise en place. Tout d'abord, l'enregistrement permet de saisir plus simplement la
matière avec laquelle on désire travailler. Les flux RSS sont une information en
continu qui n'a naturellement pas d'historique et qui a une rythme d'actualisation
de plusieurs articles par jour. Son format est bien déterminé, mais cela ne nous
apprend rien sur sa composition. Ainsi si l'on souhaite prendre de la distance face
à ce flot continu d'information il peut être intéressant de créer des « barrages de
rétention ».

Ces barrages de rétention offrent la possibilité d'utiliser les « traces » laissées par
les flux. Effectivement l'aspect temporel, l'évolution des informations dans le
temps n'est pas du tout mis en avant sur les sites Internet, qui sont plus des
élément d'un présent perpétuel. Bien que des projets comme archive.org8 existent,
l'archivage d'information sur le web est un grand problème au vue des masses de
donnée.

Ici l'enregistrement des flux RSS joue le rôle de traces qui viennent se déposer
comme les couches sédimentaires d'une activité éditoriale.
Ce premier choix est la tentation d'une mise en perspective des fils de nouvelles
en continu. Ce fut pour moi une manière de détacher la nouvelle de son présent
perpétuel. Le barrage de rétention est dans ce cas un programme associé à une
base de données.

8 http://www.archive.org/index.php

8
Le programme lit les flux RSS, les découpe selon la structure établie dans le
format puis les enregistre dans un tableau de la base de données, les uns à la suite
des autres. Cette opération précède toutes les autres car elle est pour moi un pré-
requis au travail d'analyse de la matière informationnelle.

Par la suite le traitement et l'analyse des données peut être fait en explorant la
matière enregistrée et en faisant des calculs d'analyse statistique. Enfin pour
conduire le reste de mes tests, je me suis inspiré de la méthode élaboré par Ben
Fry dans le livre Visualizing Data.

Croquis de travail : Schéma captation de la donnée

9
1.2 APPROCHE PLURI DISCIPLINAIRE DE L'INFORMATION

« Je pense qu'aujourd'hui le design prend enfin tout son sens, c'est à
dire créer quelque chose du début à la fin. Ce que j'ai vraiment trouvé
d'intéressant en travaillant chez Yahoo ou dans des boulots un peu
plus techniques, c'est la possibilité d'arriver avec une idée, la
fabriquer, la façonner, la maitriser du début à la fin. Je vois beaucoup
d projets créés avec les designers d'un coté, les ingénieurs de l'autre.
L'un construit, l'autre gère les décisions du premier, et je crois
qu'aujourd'hui, pouvoir avoir une sorte d'hybride, la personne
concevant le projet pouvant le mettre en œuvre, de bout en bout cela
donne un objet plus harmonieux. »
Aaron Koblin9

Il y a plusieurs approches classiques face à des données informatiques.
Lors d'un processus de développement informatique on aborde le problème sous
différents aspects. Si l'on regarde la réalisation d'un projet dans les grandes lignes
cela va se passer comme suit : Il y a tout d'abord un concepteur de systèmes
d'information qui va définir les besoins et usages puis par la suite l'architecture
générale. Le concepteur va rédiger des spécifications ou un cahier des charges qui
va être transmis aux développeurs afin de développer la structure technique. En
parallèle ou en amont dans le meilleur des cas, un graphiste (et éventuellement un
ergonome) va s'intéresser aux interfaces d'accès au système. Son travail sera de
créer un système graphique pour définir l'interface utilisateur.

Un système d'information est avant tout un outil de maitrise et de rationalisation
des données. Les objectifs pour mettre en place ce type de système sont multiples
mais ont la plupart du temps comme dénominateur commun un objectif
pragmatique d'optimisation de temps de traitement. Le système d'information
vient « optimiser » la communication entre les agents qui sont amenés à interagir
ensemble pour mener une activité. Il est donc là pour formaliser les échanges de
données entre des agents qui participent à une activité commune.
Les possibilités d'action inter-agents sont alors déportées dans la structure du
système d'information. Ce système fixe des règles, détermine des comportements,

9 Propos recueilli lors du festival Offf 2008 Aaron Koblin est designer et artiste il travail
actuellement pour les département recherche de Google.

10
un humain devient une fonction : vendeur, acheteur, utilisateur, administrateur...
Le système d'information cristallise des rôles, des droits, des statuts sociaux.

Ce rapport à l'information est celui que l'on peut actuellement expérimenter dans
99% des dispositifs interactifs (site web, téléphone portable, PDA...). Ce type
d'approche prend peu en compte la nature dont les communications ont évoluées
depuis les 5 dernières années. Cette histoire est en grande partie influencée
graphiquement par le domaine de l'édition, et l'administration (formulaires papier,
règles de mise en pages …), qui est aussi motivée par une démarche de contrôle.

De nouvelles approches, poussées par la convergence de pratiques jusque là
isolées permettent d'accéder à de nouvelles formes. Il y eut souvent une barrière
culturelle entre designer graphique, ergonome, et développeur. Bien qu'ils furent
tous amenés à communiquer autour de projets comme des sites Internet, des
œuvres interactives ou d'autres travaux, rares sont ceux qui maitrisaient réellement
les outils des autres.

Il faut dire que peu de formations alliaient les sciences humaines (psycho-
ergonomie, esthétique, sociologie ...) aux sciences de l'ingénieur (informatique) en
passant par les arts appliqués (art graphiques, arts plastiques). L'arrivée de
langages de programmation graphique de plus en plus accessibles, la maturation
de l'écosystème informatique, la résolution de différents verrous technologiques
sont des éléments qui permettent la simplification de cet univers extrêmement
complexe. Cette simplification profite à des non-spécialistes (de l'informatique,
mais spécialiste d'autres disciplines) qui peuvent ainsi s'emparer d'outils jusqu'ici
réservés aux ingénieurs informatiques.

Ainsi pour les spécialistes des arts plastiques ou des sciences humaines, ces
frontières tendent à s'éliminer petit à petit, au travers de langages/programmes
simplifiés comme Processing, Flash, et bien d'autres. L'arrivée de ces langages de
script de haut niveau, permettent à des non-spécialistes de s'initier à la
programmation, et par la suite d'en comprendre les concepts fondamentaux.
Cela offre de nouveaux points de vue pour aborder l'informatique comme une
science humaine, plus qu'une science de l'ingénieur.

11
Ces approches permettent notamment aux plasticiens, qui auraient une pratique
même débutante de la programmation de se connecter directement à des bases de
données, des flux réseaux, ou toutes autres informations faisant partie de
l'écosystème du web.

Cette connexion simplifie, l'accès aux données informatiques, crée des pratiques
expérimentales de traitement et de manipulation de données. Ce changement
profond d'approche occasionne une transformation du rapport aux données
informatiques sous toutes leurs formes, elles deviennent une véritable matière
d'étude. Un changement de registre s'opère.

News (1969) de Hans Haacke10

10 Dans ce travail, une machine imprime les nouvelles d'une agence de presse en continue, on
peut remarquer la ''trace de l'information '' dans toutes sa dimension physique.

12
1.3 LES DONNÉES : ÉLÉMENT DE CONNAISSANCE

« Considérons un futur dispositif pour l'usage individuel, qui est une
sorte de fichier et de bibliothèque privés mécanisé. Il a besoin d'un
nom, et, pour en prendre un au hasard, le "Memex" suffira (1). Un
Memex est un dispositif dans lequel une personne stocke tous ses
livres, documents personnels et communications, lequel est mécanisé
afin qu'il puisse être consulté avec rapidité et flexibilité. Il s'agit d'un
supplément intime et agrandi de sa mémoire »
Vannevar Bush 11

Si l'on considère les données et les informations comme une matière
plastique il est important de comprendre à quel moment elles interviennent dans
les processus de la connaissance. Pour cela nous allons tenter de décrire un
système simplifié et général des transferts de la donnée à la connaissance.

Croquis de travail : Schéma représentant l'évolution de la donnée à l'information.

Une donnée est un élément tiré de l'expérience, cette expérience a pu être réalisée
par un humain comme par une machine. Dans les deux cas il est fort probable que
la donnée ne soit pas de même nature. Néanmoins la donnée est une mesure
captée. La donnée est enregistrée dans n'importe quelle type de système
(mémoire humaine, base de données...). A partir de cette donnée l'homme peut
construire une information, cette information et un ensemble de données
intelligible qui détermine une signification. Par la suite ces informations
structurées ensemble dans une signification plus vaste créent une connaissance. Et
un ensemble plus vaste de connaissances organisées produisent un savoir.

Chaque étape est liée à un processus de traitement, que l'on peut rapprocher des
principes de design proposés par Jhon Maeda12. Le passage de l'expérience aux

11 The Atlantic Monthly - juillet 1945 - Vol. 176, n°1 p.101-108 , Vannevar Bush
12 The Law of simplicity, Jhon Maeda

13
données est un processus de réduction (loi 1). Le passage de la donnée à
l'information est un processus de contextualisation (loi 6). Le passage de
l'information à la connaissance est un processus d'organisation (loi 2).

Depuis l'expérience, nous savons enregistrer tout ces éléments sous formes de
données ou d'informations, dans ce que l'on nomme des bases de données. Les
connaissances et savoirs sont depuis longtemps enregistrés dans des documents
qui ont pour support les livres et codex. Dans tout les cas le traitement de ces
éléments qui relève du virtuel nécessite un travail d'actualisation. C'est ici que le
logiciel prend sa plus grande place.

L'informatique intervient à différents niveaux des processus de traitement des
données, de l'information, de la connaissance et du savoir. Aujourd'hui les
logiciels ont une capacité de traitement automatique de l'information très limitée,
de la connaissance et du savoir presque nul. Néanmoins ils ont une capacité de
traitement des données, et d'enregistrement des informations, savoirs et
connaissances bien supérieurs aux capacité humaines. C'est pour ces raisons que
les hypothèses de Vannevar Bush se sont réalisées.

Le logiciel en devenant un outil d'écriture et de lecture, des différents états du
savoir (expérience, données, information, connaissance, savoir), crée lui même de
l'information par ce modes d'accès aux données. Ce mode d'accès se fait par le
biais d'interface.

14
1.4 LA DONNÉES : DE L'ACTUEL AU VIRTUEL

« L'actualisation est création, invention d'une forme à partir d'une
configuration dynamique de forces et de finalités. Il s'y passe autre
chose que la dotation de réalité à un possible ou qu'un choix parmi un
ensemble prédéterminé : une production de qualités nouvelles, une
transformation des idées, un véritable devenir qui alimente le virtuel
en retour. »
Pierre Levy13

Une base de données est un ensemble d'éléments informatifs (données,
informations, connaissances, savoirs) qui ont été été sélectionnés, indexés et
enregistrés. La richesse de la base de données est tant dans sa structure
(organisation du savoir) que dans les données qu'elle intègre. Les structures de
ces bases sont multidimensionnelles, elles existent dans un espace virtuel14 qui
n'obéit pas aux règles de la géométrie euclidienne. Ainsi à contrario des livres les
bases de données sont des structures non linéaires, dont la lecture par l'humain ne
peut se faire directement.

Si l'on souhaite lire une base de données, ou tout élément (ou ensemble
d'éléments) numérisés nous devons utiliser un dispositif15 qui aura pour fonction
d'assurer l'interface afin d'actualiser les éléments d'informations qui nous
intéressent. La relation entre les données et l'homme est conditionnée par ce
dispositif. Ce dernier en présentant les données crée du sens autant que n'importe
quelle mise en page d'un livre enrichit le sens du texte qui y est inscrit. Cette
interface qui a pour fonction de donner à voir les données, n'est pas neutre. Dans
son action de « donner à voir » elle imprime son sens aux données, elle montre
des données sous la forme d'une information ( un ensemble de données
contextualisées) . En actualisant le virtuel, elle crée la forme des informations.

13 Qu'est ce que le virtuel, Pierre Levy Page 15
14 Virtuel dans le sens décris Gille Deleuze et Pierre Levy
15 Dispositif au sens Vannevar Bush l'entend dans son article.

15
« Le plan se divise donc en une multiplicité de plans, suivant les
coupures du continuum et les divisions de l’impulsion qui marquent
une actualisation des virtuels. Mais tous les plans ne font qu’un,
suivant la voie qui mène au virtuel. Le plan d’immanence comprend à
la fois le virtuel et son actualisation, sans qu’il puisse y avoir de
limite assignable entre les deux. »
Gilles Deleuze16

Par exemple représentons une base de données dans un espace tri-dimensionnel,
cela donne une sorte de structure à plusieurs plans repliés sur elle même dans des
formes improbables. Ces plis sont d'autant plus grands que les bases de données
ont été construites à l'image de structures optimisées pour la réorganisation, le tri,
le classement, la hiérarchisation. Elles prennent la forme d'origamis à géométrie
variable, où les plis deviennent des charnières d'inter-relations. Les plans sont des
tables, qui viennent toucher d'autres tables. Cette ensemble se déplace selon les
requêtes reçues par le SGBD17.

Croquis de travail : Schéma de représentation d'une base de données comme élément
multidimensionnel. Dans cette représentation les clés primaires (valeurs qui relie une
table à une autre) sont les plis qui se créent au croisement de deux plans (chaque plan
représente une table de la base de données.

16 L'actuel et le virtuel (1995) par Gilles Deleuze, in Dialogues, 1996, Flammarion
17 SGBD : signifie système de gestion de base de données c'est un ensemble de logiciel
permettant la manipulation de la base de donné

16
Mais cette proposition n'est qu'un type d'actualisation parmi des infinités d'autres
possibles. C'est dans ce sens que le dispositif d'actualisation est d'une importance
majeure pour l'accès aux informations. Ce dispositif est ce qui conditionne
l'expérience sensible des données et c'est en cela que l'interface contient les
modalités de l'expérience esthétique de l'information.

17
1.5 L'INTERFACE DÉTERMINANT ESTHETIQUE

« The result was that people saw a Mac and fell in love with it. Only
secondarily did they think, ''How can I justify buying this things? ''
Ther was an emotional connection to the Mac that I think cam from
the heart and soul of the design team. »
Bill Atkinson ''Mr User Interface'' at Apple18

Ce que j'appelle ici interfaces est l'ensemble des dispositifs qui me
permettent d'accéder à une information par le biais de la machine. L'interface n'est
jamais une, elle est constituée d'une multitude de couches qui viennent chacunes
jouer des rôles différents dans la constitution de l'expérience.

En constituant le portail entre le virtuel et l'actuel, les interfaces jouent un rôle
décisif dans les modalités de la perception. L'interface que ce soit en tant que
dispositif matériel ou logiciel, deviennent le déterminant esthétique des données.

L'interface en mettant en scène les informations19 crée un « théâtre des
opérations20 », elle donne la grammaire symbolique et physique des acteurs de la
scène. Physique au travers des périphériques de captation et des interactions
homme-machine, et symbolique au travers de la mise en relation d'éléments de
langage (au sens large image, icône, vidéos, sons) qui seront performés par les
périphériques.

L'interface dépasse souvent ce rôle de mise en scène, en performant son contenu,
elle devient performative21. En énonçant, en jouant la scène elle transforme
l'information en fait. C'est ainsi qu'elle l'actualise. L'interface est le lieu où
l'énoncé est fait. Combien de fois n'avez vous pas entendu quelqu'un s'exclamer
devant son ordinateur : « mais regarde il ne veut pas faire cela » et après
vérification vous ne voyez qu'un énoncé dans une fenêtre.

18 A propos des interfaces utilisateur reporté par Bill Moggridge dans le livre Designing
interaction page 101.
19 Les données au sens le plus large, ce qui est contenu dans les adressages mémoire de la
machine (image, vidéo, son, textes, récite, livre, savoir, connaissance, informations... )
20 Information et visualisation, l'image mise au net, dilemmes de la visualisation interactive de
Jean Paul Fourmentraux
21 Quand dire c'est faire (1962) Austin

18
L'acte d'énonciation de l'interface (ou de narration) dialogue avec le registre du
faire chez le public, ce qui crée une situation où la description d'un fait lui donne
existence. Le message « vous avez recus un courriel », ne fait pas que relater le
fait qu'une donnée est passée d'un serveur à un autre, elle crée le fait. Plus les
périphériques d'interfaces homme machine sont tangibles, plus cette action de la
performativité de l'interface est saisissable.

Dans son rôle d'actualisation, de performance de l'information, l'interface a un rôle
constant de traduction des données. L'interface créer la forme et imprime un sens
aux données qu'elle présente. Par exemple le message « vous avez recu un
courriel » est une traduction d'une succession d'actions effectuées et de données
reçues qui ne portent en rien ce message. L'interface raconte une histoire en
fonction d'une donnée qui est tout autre. L'interface vient créer le récit de la
réception, alors que techniquement le programme est allé chercher les données lui
même sur le serveur...

Les travaux que Jean Paul Fourmentraux a classé dans la catégorie « Browers
Art » dans son livre Art et Internet, Les nouvelles figures de la création mettent
ce rapport de la traduction en avant. Que ce soit dans The shredder 22, The web
stalker23, ou même l'hyper cube24 chacune de ces œuvres créent une proposition
d'interface qui traduit les données dans une narration totalement différente que
celle développée habituellement. Ces œuvres présentent des interfaces qui font
comme une brèche dans l'utilisation habituelle que l'on a de l'ordinateur, elles
viennent découvrir des parties cachées afin de leur ajouter un sens différent.

Ces travaux créent de nouvelles grammaires où la narration ne se situe pas dans le
contenu des données présentées mais dans la manière de les interpréter
techniquement, de les décoder, de les parcourir, de les lire et de les interfacer25.

22 The shredder de Mark Nappier http://www.potatoland.org/shredder/
23 The Web Stalker http://bak.spc.org/iod/
24 Hyper Cube http://www.benayoun.com/hyperchtm/hypercube.HTML
25 Dans les quatre sens que l'on a vue : actualiser , mettre en scène, performativité, traduction

19
2. Information et Presse

20
Ma préoccupation d'étudier les flux d'information de la presse en ligne est
venue d'une succession d'éléments simples. Tout d'abord j'ai été malade, il y eu un
moment dans ma vie ou je fis une intoxication au données. Une réelle intoxication
liée à un usage incessant des flux RSS de presse. Durant la dernière campagne
présidentielle mon désir de comprendre l'événement était tel que je devais
ingérer26 des centaines, voir des milliers d'articles par jour.

J'appelle cela une maladie ou une intoxication, car ce rapport à l'information en
continu était une addiction et remplaçait tous les instants de transition d'une
activité à une autre, les moments « d'entre-deux ».

Cette période de quelques mois a fortement marquée mon expérience de l'internet.
Cela fait une dizaine d'années que je crée des sites Internet et que je navigue et lis
sur Internet et malgré cette pratique expérimentée, je me suis laisser prendre au
jeu. J'ai eu l'impression que la presse d'actualité était devenue pour moi un virus.
Pas un virus informatique, un virus intellectuel.

Je suis seul responsable de mes actes et je n'en blâme personne. Ce mémoire est
juste un travail qui tente de comprendre les différentes tensions qui ont pu être en
jeu et cherche à localiser des points de frottement dans les systèmes d'information
que l'on met en place. Les travaux plastiques qui l'accompagnent sont juste des
créations qui tentent de transmettre un peu de ce que j'ai pu ressentir, puis de s'en
détacher.

26 Ingérer n'est pas lire

21
2.1 LES FLUX D'INFORMATION, DEFINITION DU RSS

Les flux d'information que l'on va tenter d'explorer ne sont pas de même
nature que les bases de données, ce sont des successions de messages qui se
déplacent dans le temps et dans l'écosystème informationnel. Ces fichiers sont des
extractions linéaires des bases de données. Ils sont une sorte d'étirement, de
dépliage pour reprendre l'analogie des origamis. Ils représentent une succession de
tranches extraites de la base de données. Ils ont un formatage propre qui permet
une lecture linéaire.

Croquis de travail : en haut schéma représentant l'extraction RSS sous forme
d'accordéon en bas représentation lissée.

Dans le cas des flux RSS, ces sont des fichiers écrits au format XML. Ils sont
générés par le système de publication du site. Les RSS sont considérés comme des
flux car ils sont mis à jour régulièrement. C'est cette actualisation de l'information
qui permet de nourrir l'analogie du flux, de la fluidité, celle du rafraichissement
perpétuel de l'information. Le flux RSS est un peu comme un flot de mots et de
références hypertexte qui coule le long du réseau pour venir alimenter les
différents système d'agrégations.

22
RSS est l'acronyme de Really Simple Syndication (norme 2.0). Un flux RSS est
une normalisation définie par le W3C27 du format XML28. Comme son nom
l'indique le format RSS a été créé pour la syndication. La syndication est une
invention de la presse américaine, les 'syndicates' vendaient leurs contenu à
plusieurs journaux. Dans notre cas cela consiste à donner l'accès à un format qui
permet de reproduire et/ou diffuser un certain contenu. Avant cela RSS signifiait
au départ Rich Site Summary (version 0.9, 1.0). Ce qui était historiquement
destiné aux méta-donnés de description d'un site.

Le fichier RSS est généralement composé d'une succession d'éléments organisés
dans l'ordre chronologique. Chaque élément contient des informations relatives à
un document (page, article,vidéo,podcast...) présent sur le site. Chaque document
est décrit par les informations suivantes : titre, liens, description, date de
publication et lien en accès permanent. D'autres informations peuvent le composer
(les droits d'auteurs, le nom du responsable, le nom de l'éditeur, la dernière
version publié, la catégorie, les temps de vie du document, les mots clés référents)
mais dans les flux étudiés elles ne sont pas utilisées.

27 W3C : Wolrd Wide Web consortium : http://www.w3.org/ organisation fonder par Tim Bernes
Lee afin de érdiger les standard du web.
28 XML : Extensible Markup Language spécification du W3C : http://www.w3.org/XML/

23
Ci dessus édition d'une partie du flux RSS du monde dans un éditeur de texte

Les flux RSS ne sont pas des fichiers directement destinés à la lecture humaine.
Ils ne contiennent qu'une structure d'information, ils n'ont aucune mise en forme
graphique. Elle peut être réalisée si on les associent à une feuille de style (fichier
XSL29 de mise en page du XML). La plupart du temps ils sont réutilisés tels quels
par des programmes ou des sites qui, de par la normalisation du fichier, peuvent le
traiter simplement. Ce traitement permet de donner une forme graphique à ces
informations afin qu'elles soient lisibles. Mais cela permet aussi de les manipuler,
par exemple les mixer avec d'autres comme les agrégateurs GoogleNews ou de
composer son journal comme avec NetVibe et GoogleReaders ou Igoogle.

29 XSL : Extensible Stylesheet Language spécification du W3C : http://www.w3.org/Style/XSL/

24
Traces sédimentaires dans la roche
Crédit : Christian Giusti

Les flux RSS relatent l'activité d'un site et l'alimentation d'une partie de sa base de
données. Ils témoignent du rythme de publication, tout en étant le signal d'une
forme d'immédiateté. En enregistrant les flux RSS, ils peuvent même devenir des
traces historiques de l'activité d'un site. Leur organisation linéaire est comme une
succession de couches sédimentaires de l'activité éditoriale d'un site Web.

Ces flux ont la particularité, d'être l'un des premiers formats normés permettant
l'échange de données sémantiques selon un modèle qui n'est plus celui du client
vers le serveur, mais plutôt du serveur vers le client.

25
Usage :

Effectivement avant l'arrivée du flux RSS, quand un internaute souhaitait
être informé des mises à jour d'un site web, il était soit informé par une newsletter
(envoie régulier d' Email) soit il devait se rendre directement sur le site.

Depuis le RSS il y a un changement d'usage, l'internaute après avoir souscrit aux
flux recevra quotidiennement l'information dans une interface dédiée (un
agrégateur) qui peut être son navigateur web ou une page HTML. Cet usage lui
permet de concentrer toutes les mises à jour des sites désirés vers le même
endroit: ce procédé s'appelle la syndication de contenu.

Ce mode d'accès à l'information change complètement les modes de lecture des
données, et la navigation sur le web, dans un cas l'internaute doit sans cesse
« aller » chercher l'information qu'il souhaite consulter, dans l'autre cas
l'information « vient » à lui.

Il est intéressant de noter que la syndication de contenu est à l'origine un procédé
utilisé par la presse et la télévision afin de distribuer le même contenu sur
différents support ou canaux. Par exemple actuellement le quotidien « direct soir »
utilise des articles du journal Le Monde ou de Courrier International pour remplir
ses colonnes. Les Flux RSS sont particulièrement utilisés par les sites qui ont une
actualisation fréquente. Ainsi les blogs, les forums, les sites marchands, la bourse,
les sites de presse en ligne, sont très souvent équipés d'un outils de génération
automatique de flux RSS.

26
2.3 FLUX DE LA PRESSE

Dans les démocraties modernes le rôle de la presse est très importants.
Appelé souvent le « quatrième pouvoir », il est sensé faire contrepoids avec les
trois autres pouvoirs : le législatif (le parlement), l’exécutif (le gouvernement) et
le judiciaire (les tribunaux). La liberté d'expression acquise en 1881 en France par
les journalistes leur donne une place forte dans la société. La presse a un rôle
d'observateur, d'enquête, et d'analyse. Cette position critique semble importante
car elle participe à l'équilibre de la démocratie.

De plus la presse apparaît comme un témoin des préoccupations contemporaines,
elle réagi sans cesse aux événements qui se passent et tisse une toile sémantique
de description du présent. C'est pour ces raisons que dans cette étude, j'ai choisi de
me concentrer uniquement sur les flux RSS de la presse française.
Pour cela j'aurais pu utiliser le flux RSS de Google news france, ou d'un autre
agrégateur automatique de flux RSS, mais il me paraissait important dans cette
démarche de connaître les sources de mes informations. Effectivement, ni google,
ni Yahoo ne donnent les sources des sites qu'ils diffusent, comme si ils étaient des
journalistes. Dans ce cas j'ai fai des expériences sur trois panels composés des
sites suivants :

– Le Monde, le Figaro

– Le Monde, le Figaro, Libération

– Le Monde, le Figaro, l' Humanité, La Tribune, Libération, Les Échos, 20
minutes, La croix, Le parisien.

J'ai donc enregistré les flux RSS de ces journaux durant 1an afin de développer les
travaux liés à ce mémoire. Une étude approfondie de la presse en ligne
nécessiterait une étude très complexe, ce n'est pas le sujet de ce mémoire.
Néanmoins pour la nécessité des travaux nous aborderons 2 points importants, les
sources des journaux et leur design graphique.

27
Rapport signal bruit :

En étudiant l'enregistrement des RSS de façon empirique, j'ai été saisi par
la répétition de termes dans les flux RSS. Cela a mené à la première
expérimentation qui tente d'exprimer le flux RSS, sous forme de flot sémantique.
Cette première expérimentation s'inspire largement des travaux de Ben Fry et de
Roland Barthes, Ben fry pour l'aspect visualisation d'un espace dynamique, et
Roland Bartes pour la notion de Mythe et de machine ressassante.

« Or le langage encratique (celui qui se produit et se répand sous la
protection du pouvoir) est statutairement un langage de répétition ;
toutes les institutions officielles de langage sont des machines
ressassantes :l'école,le sport, la publicité, l'œuvre de masse, la
chanson, l'information, redisent toujours la même structure de sens,
souvent les mêmes mots: le stéréotype est un fait politique, la figure
majeure de l'idéologie »
Roland Barthes30

Bien sur, le programme est incapable d'analyser si un mot est un mythe au sens où
Roland Barthes l'entend. Mais il offre la possibilité de révéler les expressions
« ressassantes » qui viennent prendre plus ou moins de place dans l'univers
sémantique du moment. Il tente aussi de montrer leurs évolutions dans un espace
abstrait qui est celui du texte.

« Les exemples ethnographiques abondent : rythmes obsessionnels,
musiques incantatoires, litanies, rites, nembutsu bouddhique, etc. :
répéter a l'excès, c'est entrer dans la perte, dans le zéro du signifié.
Seulement voilà : pour que la répétition soit érotique, il faut qu'elle
soit formelle, littérale, et dans notre culture cette répétition affichée
(excessive) redevient excentrique, repoussée vers certaines régions
marginales de la musique. La forme bâtarde de la culture de masse est
la répétition honteuse : on répète les contenus, les shémes
idéologiques, le gommage des contradictions, mais on varie les
formes superficielles : toujours des livres, des émissions, des films
nouveaux, des faits divers, mais toujours le même sens. »
Roland Barthes 31

30 Roland Bartes, Le plaisir du texte, page 56
31 Ibid pages 57-58

28
En traitement du signal et dans la théorie de l'information, le rapport signal sur
bruit désigne la qualité d'une transmission d'informations par rapport au parasite.
Ce « zéro du signifié » dont parle Barthes est intéressant à mettre en relation avec
la notion de bruit. Le bruit est la différence entre les informations utiles et
significatives et les informations inutiles, non significatives.

Pour comprendre ce rapport signal bruit qui existe dans la presse en ligne il est
intéressant de comprendre comment se fabriquent les flux d'informations qui
émanent des journaux. Sans même étudier les mécanismes socio-culturels qui
déterminent plusieurs journaux à parler des mêmes événements, des éléments
montrent à quelle point l'activité éditoriale d'un journal en tant que système est
génératrice de bruit.

Une équipe de chercheurs de l’université de Cardiff a mené une étude intitulée
«The Quality and Independence of British Journalism»32, dans laquelle on peut
apprendre que 60 % des articles de presse proviennent de service de relation
publique ou d'agence de presse. Bien que l'étude ne soit menée qu'en Angleterre
elle est représentative d'un mode de fonctionnement. Si tous les journaux
reprennent les mêmes informations et se nourrissent des mêmes sources, il paraît
normal qu'ils deviennent un organe de répétition, qu'ils fassent l'effet d'une grande
caisse de résonance où l'écho de l'information devient simplement un bruit.

En dehors de toute considération politique, juste en analysant les entrées et sorties
des journaux, on peut comprendre qu'ils ont délégués leur activité. Un journaliste
est un capteur humain qui va capter des informations dans le réel, si 60% de
l'information d'un journal vient d'un flux d'informations, à quoi sert le journal à
part à habiller l'information à sa couleur politique ? Dans ce cas le journal
ressemble-t-il à un agrégateur RSS ? Autant que le lecteur se fournisse à la
source ? Et surtout une question importante dans ce type de système
d'information: qui crée l'information ? Qui est capteur de réel ? Qui va sur le
terrain ?

32 http://www.mediawise.org.uk/files/uploaded/Quality%20&%20Independence%20of
%20British%20Journalism.pdf

29
2.4 RÉPÉTITION, TENSION ET PERSPECTIVE (expérience #1)

Basé sur une fonction de comptage d'occurrences, pour essayer de travailler sur
ces répétitions, ces rythmes obsessionnels, l'algorithme analyse dans le texte tous
les mots qui ont été répétés et les transfert avec le nombre de répétitions.

Le travail algorithmique résulte autant d'une démarche plastique que de travail
visuel, les deux s'inter-influencent beaucoup. Le premier désir qui a poussé ce
travail est de dessiner à quoi pourrait ressembler un flux lexical33, illustrer
l'évolution des mots dans un espace sémantique comme si il était dans un espace
physique.

La maladie dont je parle dans l'introduction de ce chapitre est une forme
d'aliénation. Au lieu de saisir les mots, les mots eux mêmes se saisissent du
lecteur, l'ensevelissant dans le flot. Mais ce ne sont pas ses mots propres, ce sont
les mots des médias qui viennent envahir le champ personnel.

La première intention graphique fut de créer un espace qui traduirait ce flux. Créer
un objet qui coule et montre l'étirement du langage dans des formes de répétition
de matière molle. L'idée première fut d'imaginer le diagramme d'un camembert
qui s'étire en 3d (effet d'extrusion) afin de présenter une dimension temporelle. Un
peu mou et boursouflé, ce camembert étiré représenterait l'espace pris par un mot.
Sa matière serait molle et flexible, l'ensemble donnerait une image de ver de terre
obèse. Chaque camembert étiré représenterait un mot qui délimiterait son espace
lexical dans ce long coulis verbal.

Au fur et à mesure du travail d'autres éléments sont apparus. Cet aspect mou ne
correspondait pas très bien à la tension qui est présente dans les informations. Au
départ cette mollesse devait signifier un certain registre de l'occupation de l'espace
par les mots (comme des entités liquides). J'ai toutefois préféré m'orienter vers un
travail plus typographique, où les mots pouvaient être identifiés et venir rappeler
leur signifiant, tout en le perdant à la fois. Le mot « Crise » répété il y a six mois à
l'infini n'aura pas le même sens ni le même usage dans un an.

33 Croquis et recherches graphiques en annexes

30
Capture d'écran de l'expérimentation #1

Finalement j'ai développé des rosaces, qui sont espacées dans le temps selon le
mois ou les mots qui les composent ont été publiés. Elles viennent s'aligner les
unes a coté des autres selon des règles physiques. Ces règles permettent de
développer un positionnement dans l'espace non aléatoire mais basées sur une
notion de poids de la donnée. Ce poids est calculé en fonction du nombre de
répétitions identifiées dans les journaux. Un mot avec un poids élevé, est sujet a
des vibrations frénétiques car son poids ne lui permet pas de trouver un équilibre
avec les autres mots. Chaque mot est autonome mais vient influencer les autres.
Les mots sont ajoutés par tranche, chaque tranches correspond a un mois
particulier de l'année.

31
Capture d'écran de l'expérimentation #1

Au lieu d'afficher la différence de chaque élément du flux comme un document
distinct, je pris le parti de n'afficher aucun document et de ne présenter que les
éléments de répétition. Je trouvais intéressant, non pas de représenter les flux RSS
en tant que tels, mais le boursoufflement du vocabulaire issu d'un ensemble de
flux. La métaphore des boucles spiralées peut rappeler le fait qu'un logiciel qui
rentre dans des boucles infinies est en informatique considéré comme un bug.

32
Capture d'écran de l'expérimentation #1

Ces jeux typographiques où les mots ressassés viendraient prendre leur place de
mantras créent aussi des figures graphiques où le texte peut se recomposer afin de
venir dire autre chose. La répétition des graphes est aussi une bonne manière
d'afficher la rythmique obsessionnelle qui transforme le mot en matière et le
glyphe en simple élément graphique. Les compositions géométriques rappellent
un peu les rouages d'une machine.

33
2.5 INFORMATION CIBLÉ

Le Netchandising34 est le mariage du merchandising et de l'internet. C'est
l'utilisation et l'analyse de données quantitatives afin de profiler les
comportements clients dans le but d'adopter des stratégies de vente plus efficaces.
Développer des stratégies de vente pour mieux séduire le consommateur existe
depuis la nuit des temps. Néanmoins l'utilisation de ce type de techniques
adaptées au savoir, à la transmission d'idées, au journalisme, et systématisée par
l'informatique pose de réelles questions.

Ces questions sont multiples elles touchent tant le domaines de la liberté
individuelle, que du rapport a nos propres modes de lecture, ou des modes de
transformation culturelle. Par exemple, Désirons nous que les systèmes
d'informations marchands détiennent des exemplaire de profils psychologiques a
partir de nos habitudes ? Ou souhaitons nous collaborer a la création d'une
intelligence collective quand nous faisons une requête dans google ? Que pensez
d'une société ou l'on délègue nos choix culturels aux ordinateurs ?

L'algorithme de ciblage clients dont on a parlé tout à l'heure est un petit
programme qui enregistre l'activité de l'utilisateur, son déplacement de page en
page, ses traces. C'est un algorithme assez simple qui pourrait être beaucoup plus
développé comme dans le cas de sites tel que Amazon, Facebook, La Fnac,
Google, Youtube...

Parmi les multiples activités qu'entretient Google, le projet « Google News » traite
directement de la rencontre de ces techniques avec le déploiement de la presse en
ligne. Google News est un agrégateur d'articles de presse de « tous »35 les
journaux en ligne d'un pays (en réalité la liste de leurs sources n'est pas publique) .
Depuis peu, un encart « Vos nouvelles » a été mis en place. Cette encart est une
sélection automatique d'articles qui conviendraient à votre profil. Ce n'est qu'un
service, mais c'est l'un des premiers qui présentent l'initiative d'un « journal en

34 « apprendre à connaître les nouveaux consommateurs et à maîtriser leurs comportements pour
construire des sites marchands adaptés »: http://www.businesslab.com/entreprise/histoire.asp
35 En réalité google news, cite ces sources par article, mais ne donne pas la liste des sources
agrégés. Donc on ne connait pas les journaux agrégés et surtout ce non agrégés.

34
ligne » qui orienterait « sa ligne éditoriale » en fonction du lecteur.

Sans même parler de ce mode de présentation, la place des articles dans l'espace
est choisie en fonction du nombre de sources. Ce qui signifie que si plusieurs
articles traitent d'un même sujet, celui-ci se verra présenté en priorité selon son
« poids» estimé dans l'actualité. Si un article a un fort pageRank36, donc une forte
popularité l'article va monter. Ce mode de traitement peut paraître à première vue
efficace. Mais dans un système dynamique comme la presse qui a déjà une
tendance à la rumeur très forte, ce type d'algorithme favorise une répétition du
propos plus que sa diversité et son développement. Est ce ainsi que l'on souhaite
traiter nos nouvelles ?

De plus les journaux en ligne ont, avec ce type de système, un rapport qui peut
devenir très vicieux. Google et Google News sont de très grands pourvoyeurs de
lecteurs. Selon Nicolas Beau37 directeur de la rédaction de Bakchich (un petit frère
du Canard Enchainé en ligne) disait qu'environ 70% des internautes viennent par
le biais de Google. Bien sûr il faut prendre ces chiffres avec modération Bakchich
est un nouvelle arrivant dans le domaine et ne bénéficie pas d'une marque comme
Le Monde, Libération ou Le Figaro. Mais néanmoins, c'est impossible de le
négliger ou de l'ignorer, et dans les rédactions on commence déjà a penser
comment écrire avec les mots clés que Google sélectionne.

36 Le PageRank est une mesure déterminé par la popularité, cette algorythme a été inventé par
Larry Page un des fondateurs de Google.
37 Lors d'un conférence organisée par l'Observatoire des nouveaux médias à l'Ensad
retransmission sur : http://www.arpla.fr/odnm/?page_id=2844

35
2.6 EXPÉRIENCE #2 : NO-TRUTH

Ce projet est réalisé sous la forme d'un faux journal en ligne. Ce site
internet par son fonctionnement critique différentes façons dont sont utilisés les
systèmes de traitement d'information dans nos sociétés.

Le Journal No-truth.net est un projet qui met en avant un aspect critique de la
relation que nous construisons avec l'information. Le lecteur peut accéder à des
articles par les sujets typiques des sites de journaux : politique, international,
économie, culture, sport. Mais No-truth.net n'est pas un site d'information
classique, c'est une sorte de trou noir : il crée les articles que vous lisez en
fonction de votre profil de navigation.

Quand un lecteur consulte un article, le système No-truth.net modifie l'article en
fonction de l'historique de navigation du lecteur. Ainsi les nouvelles consultées par
les lecteurs se réécrivent perpétuellement selon les traces laissées par les
personnes qui les actualisent cet page. Le système agit comme un virus éditorial
qui vient créer de l'information névrosée par deux éléments fondamentaux :
l'actualité et l'action d'hyperlecture38 de l'internaute. Les mots prolifèrent, le
contenu est contaminé.

La contamination crée au départ des situations anecdotiques, puis au fur et à
mesure de la navigation de l'utilisateur, cela devient de plus en plus difficile
d'échapper au piège. Les mots tendent à se propager d'une manière obsessionnelle,
reflétant la réalité contemporaine des médias.

38 Hyperlecture = (hypertexte + lecture), l'hyper lecture est définie par la requête d'une page, ici la
requête modifie la page elle même.

36
Croquis de travail : schéma représentant l'architecture de transformation des données et
de création des articles du site No-truth.net .

Dans ce travail l'architecture technique est aussi importante que le reste de la
création, car c'est cette architecture et l'algorithme qui la compose qui va écrire le
journal.

Le logiciel est crée autour d'algorithme de ciblage clients et de diffusion de
contenu journalistique agrégé automatiquement. La confrontation des deux
univers permet de questionner ces activités qui viennent structurer nos univers
culturels : le journalisme et le marketing.

– Quel est la valeur réelle d'une information ? Quel type de contrôle avons-
nous sur ces procédés d'information en temps réel ?

– Quel influence y a-t-il entre notre définition du vrai et les traitements
numériques des données ?

– Est-ce que le journalisme a une responsabilité sur les informations qu'il
traite ?

37
Capture d'écran : capture d'écran du site No-truth.net.
Le site n'est pour l'instant pas en ligne mais sera utilisable durant la soutenance.

38
2.7 EXPÉRIENCE #2b : NÉVROSE MAITRE

Le névrose maître est une expérience conceptuel qui vient répondre au
projet No-truth. Cette expérience est une installation, qui n'a pas été développée
pour des questions de coût et ne sera pas présentée lors de la soutenance.

Ce travail se présente comme suit : un socle porte un ordinateur de dernière
génération ouvert sur l'un de ces cotés. La machine est allumée et est connectée à
internet via un Cable Rj 45 classique au réseau des réseaux. La carte mère est
réglée pour ne pas couper l'alimentation en cas de surchauffe. L'ouverture
pratiquée dans le flanc de la machine permet d'apercevoir la carte mère et les
différents composants nécessaires au bon fonctionnement de la machine. Dans
cette étalage technique une pièce a été ajoutée, un thermomètre à mercure
anciennement utilisé dans les hôpitaux et collé ici au processeur de la machine.
L'ordinateur est dépourvu d'écran, de clavier, de souris, et de tout autre interface
homme machine.

Coté logiciel, l'ordinateur est équipé d'un programme sur mesure. Ce dernier après
s'être exécuté automatiquement au démarrage lit tout les flux RSS des journaux en
ligne. A chaque fois qu'il distingue un mot qui est répété dans deux articles
différents, il exécute alors une fonction en boucle récursive afin de rechercher
l'occurrence en question dans d'autres journaux. La récursivité de la fonction a
pour effet qu'a chaque élément trouvé, il relance le même processus, etc.

Ces simples règles de logiciel sans plus de limite pourraient avoir un effet
dévastateur et intéressant. Récapitulons comment le système va réagir :

La machine lit des journaux écrits par les êtres humains. Plus les journaux
diffusent les mêmes informations, plus la machine exécute des boucles de
recherche sur cette information. Ces boucles ne s'arrêtent que si l'effet de
répétition d'une information s'arrête dans la presse. La température du processeur
s'élève a mesure que le nombre de boucles s'élève. Cette température est mesurée
par le thermomètre installé sur le processeur de la machine. Arrivé à un certain
niveau de répétition dans les journaux le thermomètre explose et le mercure se

39
répand dans la carte mère. Par cet accident l'ordinateur est endommagé, voir
détruit. Il ne peut plus lire aucune information.

Le Névrose Maitre est un jeu de mot autour de thermomètre, névrose et maître .
Ce dispositif a pour particularité de mesurer l'activité humaine et un certain
comportement collectif proche de la névrose. Le dispositif devient lui même
« névrosé » par les thèmes récurrents de l'information et ci ceux ci atteignent un
certain degré il se détruit par l'effet de sa propre fonction. Ce travail met en avant
différentes questions comme la relation entre gouvernance et informatique et la
question de l'écologie de l'information.

L'écologie de l'information est une idée en gestation dont le propos est de lutter
contre la sur-information et l'usage irraisonné de ces techniques. Deux exemples :

Chaque année selon Mc Affee environ 62 milliards de courrier e-mail indésirables
sont envoyés, communément appelés des spams, selon la BBC cela équivaut à 17
millions de tonnes de CO² produites pour rien. Autre exemple, quand on va sur un
site internet, que l'on connait son adresse URL, souvent malgré cela on préfère
taper le nom du site dans notre moteur de recherche à la place d'écrire l'adresse
dans la barre d'adresse. Ce petit geste quotidien, implique dans le premier cas à
chaque fois l'utilisation de plusieurs ordinateur, et dans l'autre d'un seul.

A l'image de l'empreinte écologique (physiquement mesurable), il y a surement
une empreinte cognitive et sociale (plus compliquée a évaluer). Et un mauvais
système d'information peut générer de grands dommages à un organisme social.
Les entreprises sont les premières a en avoir conscience et c'est pour ces raisons
qu'elles font appel à des psycho-ergonomes, ou des architectes systèmes.

40
3. La découpe du document

41
3.1 MÉMOIRE ET MÉDIAS

Les caractères d'imprimerie mobile de Gutenberg en 1450, ont créé le
support standard en Occident de diffusion de l'information : Le livre. Une page
rectangulaire imprimée, reliée, dotée d'une syntaxe typographique. L'invention du
HTTP39, HTML et de l'URL40, par Tim Berners-Lee en 1989, a révolutionné les
manières dont on communique l'information dans le monde, et créé un autre
standard de diffusion d'information hypertextuel : le web.

Derrière cette révolution se cache une évolution technique très importante, dans le
cas de l'imprimerie, le contenu et son support sont consubstantiels, ils sont sur le
même élément de papier (sous forme, tout d'abord de tablette d'argile puis de
volumen41 et ensuite de page reliée en codex).Dans le cas de l'informatique, il y a
un décollement du contenu du support. La virtualisation effectuée permet de faire
en sorte que le contenu soit indépendant du support. Le contenu devient une
information « libre » de son aspect matériel, ainsi un livre peut se transférer d'une
disquette à un une clé USB en passant par un mail. Et dans tous les cas un
programme sera nécessaire pour le lire.

La dé-substantialisation des données par rapport à leur support engendre toutefois
des procédés techniques qui ne sont pas neutres. Ainsi le livre détaché de son
support physique devient une suite binaire, une longue chaine de 0 et de 1 qui est
totalement incompréhensible pour l'être humain. Pour cela il faut un programme
qui interprète ces données et différents niveaux de codage afin de rendre
l'information. Ce document virtualisé est soumis à nombres d'opérations de
traitement qui lui permet par la suite d'être accessible à la lecture humaine. Ce
procédé décrit ici pour les documents, et aussi à appliquer à la vidéo et à la
musique.

Ce procédé technique n'est pas neutre car il est lié aux processus de traduction de
l'interface dont on a parlé dans la première partie. Cette traduction s'effectue par
39 HTTP signifie Hypertexte Transfert Protocole est le protocole d'échange par lequel ce transmet
les pages web
40 URL signifie Uniform Ressource Locator, c'est la norme qui permet d'écrire une adresse web.
41 Le volumen est un document sous forme de rouleau, c'est le support d'information le plus
utilisé depuis 2600 avant JC jusqu'en 650 après JC.

42
un travail de codage décodage, qui peut altérer le message et le rendre différent,
ou même créer un nouveau message un nouveau niveau de lecture. Par exemple
l'interprétation d'une page HTML se révèle différente d'un ordinateur à un autre, la
typographie, l'emplacement des éléments, les images ou mêmes les scripts
d'animation peuvent réagir différemment selon notre équipement tant logiciel que
matériel. C'est cela l'effet de traduction de l'interface.

Enfin, une nouvelle évolution se prépare, la proposition de Tim Berners Lee sur le
web sémantique amène une nouvelle découpe de l'information. Cette fois ci le
document ne se détache plus de son support physique, mais le document vient se
diviser en deux éléments : le contenu se détache de sa forme.
Effectivement dans le cas d'une page HTML le contenu et sa présentation
graphique sont intimement mêlés ( bien qu'avec les CSS2 cela tend à changer).
Dans un site on ne peut accéder aux données de la base de données qu'au travers
du document qui est le HTML. Time Berners Lee propose un nouveau format de
document sans mise en forme et principalement destiné au traitement
automatique.

43
3.2 ACTUALISATION INSTANT DE TRADUCTION

Le bouton actualiser dans un navigateur web est essentiel, c'est celui qui va
chercher la page et l'afficher. Cette fonction à pour particularité de présenter des
données informatiques en formes de textes accessibles à l'homme. Cette fonction
en plus de charger une information et de l'afficher va l'interpréter par des procédés
de codage/décodage.

Nous allons regarder de plus prêt ce que fait le bouton actualiser. Tout d'abord elle
formule une requête au serveur qui contient la page, ce dernier lui répond et il la
lui renvoie, ensuite au fur et à mesure que le navigateur reçoit les données qui
correspondent à la page, ce dernier interprète les différents fichiers qui composent
la page afin d'offrir à l'utilisateur une représentation graphique du document.

Trois éléments nous intéressent particulièrement et font de l'HTML un flux :

– la page peut avoir changé entre le moment où elle a été affichée et un autre
moment ou elle a été actualisée, le document est donc variant

– bien qu'il existe des standards la page est graphiquement représentée
différemment selon le navigateur utilisé, c'est la partie d'interprétation.

– enfin la page est représentée et affichée même si cette dernière n'est pas
complètement chargée, ce qui fait d'elle un flux plus qu'un document.

Ces trois éléments sont des éléments constituants d'une information en ligne dé-
substantialisée. Le contenu est un flux qui dépend de la bande passante, il évolue
en fonction de la version en ligne, et enfin sa représentation graphique dépend de
l'outil qu'on utilise.

Cette relation entre actualisation des données et traduction a été visitée dans bon
nombre de travaux artistiques – même si ce n'était pas leur sujet de départ – qui
dans leur démarche de modification, de détournement et de traduction du flux
d'information, viennent développer ce rapport. Cette question du codage/décodage
du flux existe depuis le mouvement Fluxus jusqu'au travaux de Matthew Fuller.

44
On peut étendre cette tradition aux systèmes dynamiques de visualisation
développés par Ben Fry. L'approche de travail par les navigateurs est, elle, plus
récente. Le navigateur étant un outil de captation, traduction et formalisation du
flux, il paraît normal qu'il soit rentré dans ce champ de travail. Nous allons
essayer d'apprendre à considérer quelques œuvres qui illustrent différentes facettes
de ce rapport.

En 1973 Bill Viola branche la sortie audio sur une entrée vidéo.
Ce branchement est un détournement du flux, il y a un processus de traduction
inadéquate de l'image qui s'applique à un signal sonore. En réalisant ce
détournement l'artiste crée des images abstraites. Ce geste simple représente
parfaitement le lien entre traduction et flux d'information.
Ce type de dérivation a amené par la suite l'esthétique du Glitch42 très utilisé par
des circuits bender43, mais a aussi influencé par le net art, ou dans un univers plus
numérique comme le groupe Jodi.org, ou encore tous les travaux synesthésiques
du Vjing44.

En 2001 le dispositif Crank the web 45 de Jonah Brucker-Cohen met en avant la
matérialité de la bande passante, du flux. Ce dispositif consiste en une roue que
l'on doit tourner afin de pouvoir déplacer les informations pour qu'elles arrivent à
l'ordinateur. Cette opération de modification de la bande passante a pour effet de
ralentir ou accélérer l'affichage des pages. Le premier point fort ici est l'interface
tangible qui vient illustrer l'aspect matériel du flux. Le second point important est
l'illustration du rapport direct entre le flux et l'affichage de la page HTML. Un
effet de déconstruction de la traduction par le ralentissement du flux illustre
l'intime lien entre les deux éléments. Avec le ralentissement du débit ce travail
permet de montrer le moment de l'actualisation, comme celui de la construction
graphique de la page.

42 Le terme glitch désigne une défaillance électronique ou électrique qui correspond à une
fluctuation dans les circuits électroniques.
43 Les circuit bender sont des personnes qui créer au travers de manipulation de circuits
électronique afin de les détourner de leur usage.
44 Le vjing est une pratique qui consiste a mélanger/créer/projeter des flux vidéo et parfois audio
lors de performances. Les travaux synesthésie en vjing sont les travaux ou l'audio créer une
image ou influence un effet vidéo, ou le sens de la vue et de l'oui ce mélange
45 http://www.mee.tcd.ie/~bruckerj/projects/cranktheweb.HTML

45
En 2004 Ben Fry créer Tendril46 un navigateur web qui crée des sculptures
typographiques en utilisant le contenu des pages web. La première page est rendue
comme une colonne de texte, les mots colorés représentent les liens. Quand on
clique sur le lien, alors une nouvelle colonne de texte se développe.
Ce travail est l'un des plus inspirant que je connaisse, Ben Fry a créé une
métaphore de l'espace qui se matérialise dans des hyperliens saisissants, de plus il
vient réinterpréter la page HTML comme un élément plastique et spatial.

Capture d'écran du navigateur Tendril de ben Fry crédit : BenFry.com

46 http://benfry.com/tendril/

46
La même année, Christophe Bruno présente Human Browser47. L'œuvre se partage
entre deux éléments, d'un coté un humain équipé d'un casque et qui a pour
consigne de répéter tout haut ce qu'il entend, et de l'autre un logiciel qui découpe
dans Internet des textes, ou traduit en voix de synthèse des flux de journaux. Dans
ce travail l'effet d'actualisation et de traduction se crée via un être humain. Parfois
le protagoniste qui récite la page, apporte un ton, un rythme et viens ainsi
produire du sens sur ces données. Il y a une transition qui, de l'écrit à l'oral, vient
marquer le changement du registre.

Cette transition entre oral et écrit est un bel exemple qui caractérise la relation
d'actualisation et de traduction. Elle met en avant tous les processus qui sont
préexistants de codage et décodage, tous les changements de plan qui existent
avant celui-ci.: le passage de la ''matière'' binaire à l'information. En plus de ces
points, ce travail questionne fondamentalement la place de l'humain dans ce
système.

En 2002 le logiciel Delter48 de Victor Luis utilise et décode les vidéos au format
Mpeg49 2 selon une méthode tout à fait singulière. Le Mpeg 2 a pour particularité
de ne pas contenir une image tout les 25éme de seconde comme le fait une
pellicule de cinéma. Pour remplacer les images manquantes (afin d'optimiser le
« poids » de l'information) il y a la création de vecteurs de déplacement entre deux
images très proches. Selon ce procédé un plan séquence ou la caméra se
déplacerait très lentement pendant quelques 10 secondes, serait contenu en
quelques dizaines de d'images au lieu de quelques centaines. Chaque image étant
relié par ces vecteurs, qui permettent de décrire le déplacement des formes dans la
suite d'images.

Le logiciel isole ce qui se trouve entre les images clés (les vecteurs), et par ce
biais, il donne à voir une lecture de la structure du codage, la vidéo se lit, mais
n'affiche plus des surfaces lumineuses, juste les vecteurs inter-images.

47 http://www.iterature.com/human-browser/fr/
48 http://www.n-gon.com/delter/
49 Mpeg signifie Moving pictures expert group, le mpeg 2 est une norme de compression de la
vidéo de l'image et du son afin d'optimiser son poids et de la transférer par le réseaux sous
forme de flux (streaming).

47
Bien que Delter n'utilise pas le web comme matière, il démontre comment les
structures de codage et de décodage peuvent influencer le contenu. Ce qu'il
présente comme un mode de lecture dans ce travail peut apparaître de temps en
temps comme un bug lors de l'affichage d'un film encoder à ce format.
Ce travail propose de lire la vidéo en faisant de ce bug le mode de lecture.
Cette approche de l'information qui montre l'encodage plus que l'information qui
est encodée questionne la relation entre support et information.

Capture d'écran lors de la lecture d'une vidéo sur le logiciel Delter.
En haut image avant traitement, en bas image après traitement,
au milieu le bouton d'activation du logiciel.

48
La vidéo lu dans Delter aurait très bien pu être lu par le programme Bitalizer de
Brian Reavis, et aurait été décodée, interprétée, actualisée selon un mode
totalement différent. Bitalizer se base sur la structure binaire et non sur l'encodage
vidéo afin de créer une représentation de cette structure. Celle-ci se dessine au
travers de points violets et bleus dans un espace 2D représentant une interprétation
radicale de la couche la plus abstraite du fichier (qui est en même temps le niveau
le plus codé).

Crédit : Paul Giron réaliser avec le programme Bitalizer de Brian Revis en analysant le
fichier processing.exe

Dans ces deux cas les artistes ont créé un programme qui vient actualiser une
information selon des modalités innovantes. Leurs travaux sont des interfaces de
lecture de l'information. Elles nous apprennent que le niveau de traduction des
données peut intervenir à toutes les couches de traduction. Elle nous montre aussi
comment l'actualisation d'une donnée peut lui donner une forme différente de
celle prévue.

49
3.3 LE NAVIGATEUR

La dé-substantialité des informations est une des conséquences des
processus de codage et décodage de l'information. Ce procédé de codage et
décodage, inhérent aux fonctions d'enregistrements ou d'affichages d'une donnée
laisse une grande place à la créativité.

« On connecting to a URL 3, HTML appears to the user's computer as
a stream of data. This data could be formatted for use in any of a wide
variety of configurations. As a current, given mediation by some
interpretative device, it could even be used as a flowing pattern to
determine the behaviour of a device completely unrelated to its
purpose. »
Mathew Fuller 50

Cette place peut être le lieu d'incidents51 comme le rappel Gregory Chatonsky ou
d'interprétations comme celles à l'origine des travaux menés lors de la création de
The Web Stalker52.

Capture d'écran de l'interface de the web stalker

50 Mathew Fuller tiré de 'Behind the blip' dans Means of mutation
51 Esthetique du Flux, Gregory Chatonsky
52 Matthew Fuller, Collin Green, et Simon Pope lors de la création de leur navigateur web à visée
artistique

50
The Web Stalker est un navigateur Web à visée artistique. Au lieu de tendre vers
une interprétation et une intégration des standards de présentation du HTML
édités par le W3C, le Groupe I/O/D 4 a créer une navigateur web qui assume son
rôle d'interprétation du flux du web. Cette position s'est traduite par plusieurs
particularités qui étaient révolutionnaires pour l'époque :

– utiliser des graphes pour s'orienter sur le web en cartographiant des
données issues des sites web visités.

– ne pas afficher les images au profit du texte et des liens, qui étaient un
point de vue artistique fort.

Le choix de ne pas appliquer les standards du W3C était aussi une position
politique. L'application des ces standard à toujours été un enjeu et lieu
d'affrontement industriels assez complexes entre différents groupes (à l'époque
Microsoft et Netscape). Peu d'initiatives existaient dans le monde du logiciel libre
et Firefox, petit frère de Netscape n'existait pas. Depuis le conflit est toujours
présent mais entre d'autres acteurs.

Comme le remarque Rachelle Green dans son livre L'art Internet, « Fuller et ses
collègues nous obligent à envisager la présence apparemment générique et quasi
invisible des navigateurs commerciaux comme un matériau qu'il s'agit de
reconsidérer : ces navigateurs ne sont pas qu'une technique de distribution, ou un
filtre permettant de voir des œuvres d'art, mais un véritable contenu situé dans la
sphère publique »

51
«Software forges modalities of experience »
Mathew Fuller 53

Le navigateur web est en train de devenir l'un des outils des accès privilégiés à
l'information. Les modes d'accès changent complètement. Quand nous « lisions un
livre » maintenant nous surfons sur Internet en utilisant un navigateur. Nous
passons d'une activité littéraire à une métaphore du mouvement, du déplacement,
de l'exploration (et du sport). Pourquoi ne pas concrètement l'assumer et créer des
interfaces moins statiques ? La métaphore du mouvement peu se développer par
différents procédés de spatialisation du contenu comme la création carte de
données ou de territoires virtuels. Le terme « browse » signifie en anglais
feuilleter, alors que browser est en français traduit par naviguer. De toute
évidence la manière dont sont façonnés ces outils formalise les actions que l'on
désire opérer dans le web.

Cela est d'autant plus important depuis le développement du web 2.0, où le
navigateur en plus d'être un outil de lecture, devient pour bon nombres d'entre
nous un outil d'écriture. Et cela va devenir encore plus important avec l'arrivée du
web sémantique qui sera structuré par nombreux formats qui partagerons les
propriétés du RSS.

53 Mathew Fuller tiré de 'Behind the blip' dans Means of mutation Page 97 : « Software forges
modalities of experience " - sensoriums through which the world is made and known. As a
product of 'immaterial labour' software is a social, technical and aesthetic relation that is
embodied - and that is at once productive of more relations. That the production of value has
moved so firmly into the terrain of immaterial labour, machine embodied intelligence, style as
factory, the production of subjectivity, makes the evolution of what was previously sectioned as
'culture' so much more valuable to play for - potentially always as sabotage - but , as a
development of the means of mutation, most compellingly as synthesis. »

52
3.4 WEB SÉMANTIQUE ET INTERPRETATION DES DONNEES

Tim Berners Lee, l'inventeur du web a fait en septembre 2003 une
54
présentation à la Royal Society ou il a ébauché sa vision de l'évolution de la
structure de ce média.

Cette évolution se place directement dans un contexte de dé-substantianolisation
des documents, sa proposition consiste à créer sur le Web un espace sémantique.
Elle consiste à mettre en ligne des informations dans des formats
compréhensibles par la machine (le RDF et Linked Data). Jusqu'ici le HTML
contenait les informations et la structure de représentation de ces dernières. La
proposition de Tim Berners Lee consiste à mettre en ligne les informations brute
(row data).

Cette initiative est extrêmement puissante car elle permettrait aux informations
d'être hyper liées selon des modèles qui s'émanciperaient du document. Au lieu
d'avoir un web constitué uniquement de milliards de pages (documents) créés et
liés selon des nécessités d'affichage, le web deviendrait aussi un gigantesque
territoire de données.

La dé-substantialisation du document et de sa présentation atteindrait un tel
niveau que les données seraient bien plus hyper liés qu'elle ne le sont aujourd'hui.
Les interrelations, les fonctions de recherche et d'exploration seront bouleversées,
et la traduction formelle de la donnée en document devient une abstraction encore
plus forte que celle présente actuellement. L'aspect d'interprétation développé par
Mathew Fuller risque de prendre une place encore plus grande dans cette avenir
du web sémantique.

54 WWW Past & Future - Berners-Lee - Royal Society
by Tim Berners-Lee http://www.w3.org/2003/Talks/0922-rsoc-tbl/

53
3.5 MÉDIAS ET CORPS

La relation entre les navigateurs et le corps est très statique. Elle est
constituée d'une métaphore de cadres enchâssés55 (fenêtres) qui délimitent chacun
l'espace d'affichage de l'image (texte, vidéo, ou autres). Et à l'aide d'éléments
symboliques comme les barres d'ascenseurs (scroll), les onglets - depuis peu- , des
tableaux (pour afficher historique et favoris) que le rapport à l'exploration se créé.
C'est avec ces « outils » que nous surfons. Ces outils paraissent assez inadéquats
pour exprimer le mouvement et l'espace aux sens.

La sensation engendrée par ce rapport entre les cadres et le document impose des
hors champs très importants. La page HTML se voit ainsi découpée par les bords
de la fenêtre. Ce fait est d'ailleurs particulièrement vérifiable sur les pages de
journaux qui sont de long volumen avoisinant les 10 000 pixels de long sur un
écran qui, au grand maximum, en fait 2000, ce qui nécessite sans cesse de
« scroller 56». Cette action de faire défiler l'écran, alimente peut-être la métaphore
du déplacement. Mais il ne permet aucun recul : est-ce le meilleur rapport à la
page ?

Hormis le déplacement du lien hypertexte, le déplacement que l'on connait par
l'activité de faire défiler l'écran est essentiellement un déplacement linéaire
contraint à un seul mouvement: celui du haut vers le bas (ou du bas vers le haut)
qui ne nous permet constamment de voir qu'un fragment du document. Cette
forme de lecture peut apparaître incomplète, la relation homme-média au
document n'est que fragmentaire, cela peut dégager une sensation d'incomplétude.
Le document n'est jamais entièrement visible. On ne peut jamais physiquement le
saisir, même par le regard. La fenêtre n'est jamais assez grande pour contenir le
document en entier.

55 Les cadres enchâssés (celui de l'écran physique, celui du système d'exploitation, celui de la
fenêtre du programme, celui de la zonne d'affichage dans le programme...)
56 Scroller est un terme du jargon informatique, il signifie défiler a l'écran

54
C'est peut être le seul moment depuis l'invention de l'écriture ou l'humanité se
retrouve dessaisie des documents qu'elle écrit. Je ne parle pas de l'incapacité pour
l'homme de lire les bases de données dans un rapport direct – ceci n'est qu'une
question d'évolution grammaticale – mais plutôt du rapport sensible à l'unité du
document.

Que ce soit pour les tablettes d'argile mésopotamiennes, ou pour les rouleaux d'un
volumen au moyen age, ou encore les codex, ou le livre depuis Gutenberg, et
enfin la page depuis Xerox, l'homme détenait constamment un rapport physique
qui lui permettait de saisir le support dans son entier. Bien sur, on ne peut pas lire
l'intégralité d'un volumen sans le dérouler, ou un livre sans le feuilleter, mais le
document a ce statut d'objet qui le rend corporellement saisissable.

Nous avons tous déjà vu quelqu'un dans le métro ou dans un café se débattre avec
l'amas de feuilles qu'est un journal papier. A l'instant de tourner la page on peut
sentir l'habileté du lecteur à cet exercice. Ce monsieur a dompté son journal du
matin. Celui là par contre se fait submerger par ces plis et replis de feuilles (qui
bon sang ne ce sont jamais dans le bon sens ! ). Dans tous les cas, on peut voir et
ressentir l'élément entier autant dans sa textualité que dans sa matérialité.

Loin de moi la tendance conservatrice, à m'insurger contre la perte du support
papier. Le journal virtuel est tout aussi manipulable par le pouvoir performatif de
l'interface, si l'interface nous permet de manipuler l'objet, de surpasser le
document de manière physique. Pour reprendre la métaphore précédente: donner
la possibilité de plier son journal soi même.

55
La page HTML est l'un des premiers document de l'histoire que l'homme ne peut
pas ressentir comme un document. Simplement car son rapport au corps est
détruit. La page n'est jamais saisissable pour le lecteur comme un élément entier,
la fenêtre du navigateur par ses limites crée des œillères virtuelles. Qui a déjà vu
un matin avec son café une page HTML dans son entier ? Comment naviguer
facilement, simplement dans un document si on ne peut pas le sentir dans son
intégralité, dans son unité. Je pense que ce rapport au document est un des
éléments qui contribue à la sensation de sur-information.

Dans l'expérimentation du HTMLGramme57 nous proposons de revisiter ce
rapport entre corporalité et document. L'utilisateur peut saisir le document dans
son ensemble, et cela lui offre des possibilités de navigation totalement
différentes.

57 Le HTMLgramme est la troisième expérience plastique de ce mémoire voire page 70.

56
Afin d'illustrer ce problème nous avons fait des captures d'écran des « une » de
trois principaux journaux français cela le 1er avril 2008 , (des versions plus
détaillées sont en annexes). Nous pouvons voir sur l'illustration ci jointe, les zones
visibles à l'écran sont les zones rouges. Et les espaces hors champs sont le reste de
la page.

Capture d'écran des « Unes » des trois principaux journaux français le 01/04/2008

57
Lire un journal papier selon la métaphore des fenêtres , reviendrait à poser
l'ensemble de feuilles sur le bureau et mettre un cadre par dessus qui ferait 1/100 à
1/5 de la surface du journal, et qui cacherait le reste des pages. Puis par la suite
déplacer le journal en gardant le cadre au-dessus si on veut lire la suite.

Photographie des 3 Unes papier des trois principaux journaux français le 01/04/08.

Ici on peut remarquer, que les versions en ligne sont submergées de publicités
(dont certaines sont des vidéos), tous ces éléments rendent la lecture malaisée.
Dans la version papier, les publicités sont rares et reléguées en bas de page, dans
la version en ligne les publicités sont en haut de page avant le contenu et même
des fois avant le logo (Le Figaro), si elles n'entourent pas complètement la page
comme dans le cas du Monde le jour de cette capture (cette publicité est un
évènementiel). A part pour la Une de Libération qui met en avant le visuel et un
certain jeux graphique et éditorial, les versions papier des unes affichent
respectivement beaucoup plus d'informations que la partie visible de la version
web.

58
Capture d'écran en haut net vibe un agrégateur de flux RSS, en bas News Map 58une
interface d visualisation de l'agrégateur Google News.

58 NewsMap de Marcos Weskamp est une application qui développe un vrai travail de trie, de
simplification et de classification de l'information. Basé sur l'algorythme des TreeMaps

59
La présentation des informations dans les agrégateurs paraît stricte et plus
synthétique. Elle permet de trier nos informations par types, catégories et de créer
notre propre « page » de journal. Elles affichent plus d'informations en prenant
moins d'espace. Néanmoins on perd un aspect important du journal papier, qui est
le travail éditorial, la maquette graphique, et l'identité du journal. Ces éléments
sont par ailleurs déjà dégradés dans les sites Internet de journaux. Pour un lecteur
web (mises à part quelques expérimentations au New York Times59 ou de la
BBC60), les interfaces des journaux en ligne n'ont pas su retranscrire ces points qui
fondent l'identité d'un journal, elle se retrouvent donc déléguées aux internautes
par le biais des agrégateurs de flux RSS.

59 Le New York Times fait différents expérimentations, comme des formats de vidéos augmentées
ou il mêle texte vidéo et graphisme, ou des logiciel de lecture pour lire le journal en ligne avec
une interface plus optimale.
Le logiciel : https://timesreader.nytimes.com/webapp/wcs/stores/servlet/AppLogin?
storeId=10001&catalogId=10001
L'article : http://www.nytimes.com/packages/HTML/world/2009-mexican-cartel/index.HTML
60 La BBC a fait de sa page d'accueil du site une interface personnalisable afin que les lecteurs
mettent en pages eux mêmes leur information

60
3,5 RENDRE TANGIBLE LES DONNÉES

Le travaux de plusieurs artistes profitent de cette dé-substantianolisation
comme le moment de venir revisiter les données au travers d'interfaces qui
dialoguent différemment avec nos sens. Ces travaux nous apprennent que l'on peut
peser le virtuel physiquement, voir les données prendre corps dans un objet, ou
encore explorer des villes-poèmes. Tout ces éléments sont bien sur possible au
travers du processus performatif de l'interface. En étudiant ces travaux essayons
de comprendre comment ce processus se forme.

61
Legible city est une œuvre de Jeffrey Shaw c'est une installation interactive qui
propose de se déplacer dans une ville virtuelle dont les rues sont bordées de mots
et de phrases. Les textes sont des écrits liés à la ville. Des adaptations différentes
existent pour New York , Amsterdam, Karlsruhe .

Ce qui me saisie dans cette œuvre c'est la fusion qui est opérée entre la métaphore
de la carte et celle d'un territoire. Cette métaphore vient s'opérer dans un accord
tacite entre le spectateur (qui devient acteur) et le dispositif. L'aspect physique de
l'interface (un vélo) vient signer cette accord. L'utilisateur pédale, et le processus
du déplacement devient efficient avec le déplacement des images. L'acte physique
trouve écho dans le mouvement des images. La performativité ce constitue cette
relation entre le déroulement du paysage et l'action du spectateur.

Cette action performative ce constitue dans le crédit que le spectateur apporte a la
narration proposé par le dispositif. Le spectateur accepte le fait que son action de
pédaler a un effet de déplacement dans un espace virtuel, ici dans une réalité
virtuelle qui est calculé par des ordinateurs. Cette acceptation du scénario
transforme la narration en action.

Le spectateur pourrait très bien ne pas faire le lien entre l'action physique et
l'action virtuelle, ou refuser de le faire. Dans ce cas le dispositif perdrait sa
performativité, perdrait sa capacité de créer du réel au travers de sa narration.
61 Une description des travaux de jeffery shaw sont consultable sur http://www.jeffrey-shaw.net

61
Il y a une place de l'énonciation et de l'acceptation qui est très forte pour que la
narration du dispositif deviennent action. Dans le cas où le spectateur donne son
accord, crédite la relation entre l'interface physique et l'interface virtuel, alors
l'actualisation se déroule comme la création d'une réalité intermédiaire.

Souvent la pertinence du dispositif et le travail plastique qui l'entoure engage
fortement le spectateur dans cette accord, d'ailleurs la plupart du temps il ne
s'interroge même pas sur ce crédit. Une foi le dispositif compris, le récit devient
action. L'objet simple, voir quotidien, le vélo, ici est une clé d'entré qui créer la
relation corporelle très rapidement. Le vélo est un objet familier, on en connait
l'emploi et le fonctionnement. La métaphore du déplacement comme interaction
n'a presque pas besoin d'être expliquée, car l'emploi est déjà dans l'objet. Il suffit
de l'utiliser 'presque' normalement pour que la suite du récit se crée.

Ces rapports entre information, espace, et interaction physique se retrouvent dans
beaucoup de travaux de Jeffrey Shaw comme notemment « the net.art browser »,
« Extended Virtual Environment » ou « T visionarium» et d'autres...

Photographie de The legible city
crédits : http://www.jeffrey-shaw.net/

62
De la modélisation d'un objet réel à l'interface haptique la question est la même:
mettre en jeu le corps pour expérimenter la matérialité d'une donnée au travers
d'éléments tangibles. Ces travaux, qui peuvent s'apparenter à des visualisations,
représentent néanmoins beaucoup plus. Leur narrations ne se concentrent pas
uniquement sur l'élaboration d'un système graphique, ils ont pour particularité
d'apporter du sens par l'expérimentation corporelle. Du fait de leur relation entre
matérialité et information, j'ai décidé de les nommer des sculptures d'information.

Virtual Gravity62 est un projet de diplôme de l'université de Würzburg réalisé en
2009 par Silke Hilsing, qui tente de faire ressentir physiquement le poids
« virtuel » des données. Le travail de Silke Hilsing, présente les données comme
dotées d'un poids physique, leur poids virtuel affecte la réalité d'un objet qui fait
interface entre le spectateur et la donnée. Silke Hilsing a créé une machine
permettant de comparer et mesurer physiquement le poids de deux « objets
virtuels ». Ainsi la relation entre les deux objets devient tangible, et n'est plus un
numéro inscrit dans un cadrant.

62 http://www.virtualgravity.de/

63
Photos de Virtual Gravity
Crédit : Silke Hilsing

64
En mai 2008 Markus Kison, artiste Berlinois, a réalisé une magnifique sculpture
d’information Pulse63 à l’occasion de sa thèse à l’université des Arts de Berlin en
mai 2008. Cette sculpture est inspirée de la théorie des émotions psycho-évolutive
de Robert Plutchik’s64 .

En intégrant dans son œuvre cette théorie comme un système graphique, il a créé
un cube de plexiglas de 50 cm de côté dans lequel il fait évoluer une forme en
latex manipulée par de petits servomoteurs. Cette forme ressemble sensiblement à
un cœur un peu stylisé. Les servomoteurs la manipulent afin de modifier en
temps réel sa forme en fonction des expressions relatives aux émotions émises sur
blogger.com. Pour identifier les émotions, il analyse les publications des blogs
via un dictionnaire de synonymes pré-enregistré et fait une comparaison
automatique.

Photo de la partie mécanique de l'installation Pulse
Crédit : Markus Kilson

63 http://www.markuskison.de/pulse/
64 http://www.fractal.org/Bewustzijns-Besturings-Model/Nature-of-emotions.htm

65
Le rapport de traduction qui s'effectue ici se passe entre des mots qualifiant des
émotions dans un blog et la surface en latex qui vient se mouvoir en fonction.
La mise en scène rappelle les pantins et les poupées mécaniques, il n'y a pas de
subterfuge les ficelles sont apparentes et la technique présente. Et le programme
est même exposé en train de fonctionner à coté du dispositif. A la différence du
travail de legible city il n'y a pas d'interactivité au sens direct du terme, le
spectateur ne peut interagir qu'en publiant un billet sur son blog.

Dans Pulse comme dans Virtual Gravity, on comprend bien l'approche qui
consiste à rendre tangible des données informatiques. Dans un cas Silke Hilsing,
permet un contact haptique avec une force mécanique qui représente une variable
numérique, dans l'autre cas Markus Kison modifie une surface physique en
fonction d'un algorithme d'analyse d'occurrence.

Tous deux relèvent d'une démarche commune, celle d'interpréter dans l'espace
physique des éléments virtuels. Ces artistes créent dans ce cas des interfaces qui
traduisent des données virtuelles en données physiques.

Dans ces travaux, il y a comme un dépassement des catégories habituelles. Même
si le travail de Markus Kison peut s'apparenter à une interface car il permet de lire
(ou au moins de sentir) quelque chose, et être considéré comme de la
visualisation, il a la particularité d'imposer une forme virtuelle à un élément
physique. Comme si la performativité de l'interface avait été renversée. Le
spectateur n'a plus besoin de croire en un objet qui est saisi par son action.

On comprend bien ici comment ces travaux activent la sensibilité de manière bien
plus effective que les métaphores de manipulation des fenêtres.

66
3,6 LE VIDÉOGRAMME

Le vidéogramme est une représentation de la vidéo qui permet à
l'utilisateur de discerner le contenu de l'information et les changements de scène le
long d'un axe temporel, ce procédé fut développé par Ron MacNeil au Média Lab
dans le groupe de travail Visible langage en 1991.65

Le vidéogramme est utilisé aussi bien dans les interfaces utilisateurs de montage
vidéo que pour les algorithmes d'analyses et de traitements de l'image comme la
computer vision. Marc Davis en 1995, dans sa thèse les utilise selon un axe Z afin
d'illustrer la découpe des scènes dans un logiciel.

Le vidéogramme est aussi utilisé dans des projets artistiques. Tania Ruiz dans sa
pièce réalisée en 2000 Éphémère II, est basé sur la reconstruction volumétrique du
temps capturé lors de l'enregistrement cinematographique. Elle présente ce projet
comme un objet spatio-temporel pour désigner l'inscription du temps dans une
dimension spatiale.

« These Tri-dimensional objects, obtained through the volumetric
interpretation of the time captured in a cinematographic recording,
introduce the idea of the spatialization of time. They are situated at the
intersection of the still image, cinema and sculpture and constitute the
starting-point of many theoretical and artistic researches; of both
virtual and actual objects »
Tania Ruiz

Martin Hilpoltsteiner 66a aussi utilisé cette technique lors de la réalisation de son
projet de thèse en 'Communication Arts' à l'université de sciences appliquées à
Wuerzburg. Il a créé un programme d'analyse de séquences de film, ce dernier
construit à partir des images du film un objet tridimensionnel ou l'axe du temps est
placé dans la profondeur. A l'aide de différents filtres (additif, soustractif...) il
offre la possibilité d'identifier les mouvements effectués dans ses vidéogrammes.
65 MacNeil, Ron. "Capturing Multimedia Design Knowledge Using TYRO, the Constraint
Based Designer's Apprentice." Forthcoming in the Proceedings of the 1991
SPIE/SPSE Symposium on Electronic Imaging.
66 Recreating Mouvement : http://www.recreating-movement.com/index.HTML

67
Ron MacNeil, 1991

Marc Davis, 1995

Gareth Daniel et Min Chen, 2003

68
Extrait Tania Ruiz, Éphémère II, 2000

Martin Hilpoltsteiner, Recreating Mouvement,2008

69
3.7 EXPÉRIENCE #3 : HTMLGRAMME

Dans cette expérimentation j'ai essayé d'illustré le flux avec les pages
HTML auxquelles il faisait référence. En tenant compte des problèmes de
l'affichage du document je me suis employé à développer une présentation
alternative de la page HTML en tant qu'élément constituant un ensemble qui est le
flux.
Une page HTML est l'agrégat d'informations virtuelles rassemblées dans une
structure de mises en forme. Cette structure est composée de différents langages
qui ensemble forment un document : le HTML, les css, le javascript, et de
possibles plug-in (flash, quicktime, java, director...). Le flux RSS est un document
qui ce réfère a différentes pages HTML.

Cette structure est actualisée lors de sa lecture par un navigateur Web (Firefox,
Netscape, Internet Explorer). Cette actualisation révèle la forme de la page qui
n'était jusqu'ici qu'une suite d'instructions de différents langages. Elle devient
alors un document mis en forme composé de textes, d'images, de sons, vidéos,
contrôles de formulaires...

Dans le cas qui nous intéresse - les pages de journaux en ligne - et pour la plupart
des sites web, la navigation des pages a l'image du volumen lors d'un grand
déroulé vertical. Ce déroulé est effectué par l'utilisateur au moyen d'un ascenseur
ou de la molette de la souris. Comme nous l'avons vu précédemment, ce jeu de
cadre ne permet à l'utilisateur de voir que la partie de la page positionnée en face
des différents cadres composants l'interface de son ordinateur.

En tenant compte de ces points de présentation, j'ai essayé de développer un mode
de présentation différent des pages web qui composent les liens d'un flux RSS. Ce
travail s'est développé en deux temps.

70
Au départ je me suis attaché à cette fenêtre du navigateur comme si elle était un
écran recevant une projection de cinéma. J'ai constitué une première hypothèse
plastique : si la fenêtre du navigateur est un écran de projection, on peut alors
considérer la page comme le lieu d'un plan séquence vertical qui serait
décomposée en une succession d'images qui se déplacent dans le temps selon
l'activité du lecteur. Je me suis rendu compte que cette hypothèse découpait la
page en frame selon le mouvement et pouvait créer un vidéo-gramme de
fragments de pages, éventuellement déformées par le mouvement.

Cette hypothèse était intéressante mais n'était pas convaincante pour ce que je
souhaitai mettre en avant. Hormis l'enregistrement du mouvement que l'utilisateur
infligeait à la page, elle n'apporte aucune information nouvelle ni supplémentaire.
Néanmoins elle m'a mis sur la piste d'utiliser la structure d'un photogramme afin
d'illustrer une succession de page web.

Comme nous l'avons vu plus haut un flux RSS est un fichier XML contenant une
succession linéaire d'items eux-mêmes contenant des informations descriptives
ainsi que des liens vers des pages web. Si on omet les méta-données, un flux RSS
est donc une collection de pages web qui s'échelonne dans le temps au même titre
qu'un photogramme l'est pour la vidéo.

A partir de ces éléments j'ai donc constitué une seconde hypothèse plastique : si au
lieu de prendre en compte les données de description du flux RSS, on se réfère
directement à la page telle qu'elle serait mise en forme dans le navigateur Web,
alors on pourrait à partir de photos de ces pages reconstituer dans l'espace un
photogramme des pages HTML qui présente ce flux.

71
Captures d'écran réalisé le 01/06/2009 d'un HTMLgramme sur le flux RSS du New York
Times (d'autres sont disponible en annexes)

72
Captures d'écran réalisé le 30/06/2009 d'un HTMLgramme sur le flux RSS du journal Le
Monde.

Ci dessus on peut voir une coupe de coté du flux RSS représenté sous forme d'un
HTLMGramme. Cette représentation montre réellement ce que cherche à
transmettre un flux RSS, sans pour autant utiliser les méta-datas. Suite à ces
coupes de coté, j'ai ajouté les effets de transparence afin de mieux voir le flux
comme un volume plus que comme une succession de plans alignés.

Avec cette définition d'image 1:1 il est presque impossible pour mon ordinateur de
mettre à jour correctement les pages. Dans l'idéal une réduction pourrait être faite
pour créer une mise a jour temps réel.

73
Captures d'écran réalisé le 30/06/2009 d'un HTMLgramme sur le flux RSS du journale
Le Monde

Cette hypothèse m'a permise de découvrir différents éléments intéressants :
On peut étudier la succession de pages comme un mouvement de l'information.
Non pas dans la ré-interprétation de la structure, mais plus largement dans
l'agencement des entités déjà formées (les pages en tant que documents).
Il est intéressant de remarquer que les pages qui dépassent sont généralement les
plus polémiques, car ce sont celles qui comportent le plus de commentaires.

74
Capture d'écran réalisée le 30/06/2009 d'un HTMLgramme sur le flux RSS du journal Le
Monde.

Ce type de présentation permet de créer un effet de recul important face aux pages
HTML. Ce travail réifie aussi le document comme entité de présentation et de
découpe de l'information.

Par la suite j'ai implémenté des fonctionnalités simples comme la transparence,
l'espacement, l'installation d'un script de manipulation 3D afin d'assurer les
mouvements de déplacement. Pour rappeler l'importance de l'aspect corporel du
document j'ai décidé d'utiliser comme périphérique homme machine une
Wiimote67. Une interface haptique aurait été un plus, mais pour des questions de
moyens, il était impossible d'en utiliser une lors de la présentation.

67 La wiimote est une manette de jeu permettant le tracking 3D elle a été développée par
Nintendo pour la console de jeu Wii .

75
3.8 EXPÉRIENCE #3b : HTMLCITY

L'entité qui découpe les flux d'information sur le web est pour l'instant
essentiellement la page HTML. Le web est, avant d'être un réseau de données, un
réseau de documents. Après l'expérimentation de l'HTMLGramme, j'ai eu l'envie
de développer un navigateur web qui permettrait de créer une HTMLcity.

HTMLcity serait un assemblage de HTMLgramme qui viendrait se placer dans un
espace défini par les favoris et l'historique de navigation de l'utilisateur.
HTMLcity serait une carte-territoire qui deviendrait l'interface d'exploration du
web. HTMLcity serait un navigateur web spatial qui retranscrirait le web à
l'échelle du navigateur.

Inspiré des travaux de Jeffery Shaw, Ben fry et du concept de pyschogéographie.
HTMLcity pourrait être un moyen de revisiter le rapport entre espace, navigation
et web. Ce projet, en créant une carte personnelle des documents que nous
consultons, ainsi que du trajet qui les relie, pourrait devenir une narration de nos
déplacements dans les espaces virtuels en constituant une carte un peu a l'image
de Naked City.

Bien qu'ici je ne me sois pas concentré sur la partie IHM mais plus sur la
construction d'une carte-territoire virtuelle a l'échelle 1:1. Une ville d'informations
dans laquelle le spectateur/utilisateur/internaute, sentirait son déplacement virtuel.
HTMLcity serait une équation entre une transcription du déplacement de
l'internaute, le web et la formation d'un espace par des documents consultés par
l'utilisateur sur le web.

76
4 . Conclusion

77
L'informatique est une technique de lecture et d'écriture, qui permet de
constituer une mémoire collective au travers d'internet. Pour ces raisons multiples,
elle participe à la constitution et à l'élaboration de l'expérience et du savoir. Le
travail de la connaissance qui transite par ces techniques est constituées de
différents mouvements. Ces mouvements comme la réduction, la
contextualisation, l'organisation sont des éléments qui structurent les processus
d'actualisation et de virtualisation.

Le passage entre virtuel et actuel dans la relation homme et machine est
conditionné par un élément qui détermine la relation : l'interface. Essentiellement
lieu de rencontre entre les données (au sens de l'élément primaire informatique) et
l'humain. Nous avons élaboré l'hypothèse que l'interface crée de l'information en
la présentant. En elle-même, l'interface, de par ses propriétés de traduction, de
mise en scène, et de performativité est déjà un niveau de lecture. Ce niveau de
lecture est déterminé par l'auteur de l'interface, qui écrit une narration en la
réalisant, il met en récit les données qu'il présente.

Envisager l'accès aux données comme une question d'interface détermine une
relation de narration entre données et humains. Une narration qui se nourrit des
flux d'informations. Une narration qui se constitue à plusieurs niveaux, de la
captation des données à leur expérimentation en passant par toutes les étapes
intermédiaires de codage et décodage, l'interface raconte l'histoire de l'auteur au
travers de données.

Ce travail s'est appuyé sur différentes expérimentations dont l'objet est de faire des
interfaces différentes - des histoires différentes- à partir de la même source de
données. Ces travaux présentent des problématiques propres aux données qu'ils
traitent. En se nourrissant des flux de la presse en ligne, nous avons tenté de
travailler respectivement, sur la répétition, sur la contamination, et sur le
document et sa représentation.

La matière utilisée, les flux RSS des journaux en ligne, est un élément particulier,
tant leur existence est au croisement de différents rapports à l'information et de
différentes définitions de l'information.

78
En observant le journal en ligne comme un organisme cybernétique, nous avons
noté que le rapport entre ces entrées et sorties est générateur de bruit dans
l'écosystème informationnel contemporain. Cet approche a déterminé nos deux
premières expérimentations, l'une comme représentation de la répétition, l'autre
comme un système génératif d'un bruit personnalisé.

Par la suite nous nous sommes intéressés à réaliser une comparaison rapide des
unes de journaux en ligne et de l'interface des agrégateurs, afin d' interroger le
rapport entre document et interface. Cela nous à permis de réaliser la dernière
expérimentation. Cette expérimentation est inspirée d'une analogie que l'on
pourrait faire entre le mouvement des documents sur le web, et la captation du
mouvement par la vidéo. Inspiré par le vidéogramme, nous avons tenté de
transposer l'idée au HTML. Le HTMLgramme est une interface expérimentale qui
permet de mettre en scène les pages HTML selon un nouveau procédé, qui
redonne une certaine corporalité au document.

Le HTMLgramme est une représentation de flux RSS. La manière dont le contenu
y est spatialisé projette de nombreuses possibilités comme la création de
navigateur web spatial, qui utiliserait les traces de la navigation pour dessiner
l'espace de déplacement, HTMLcity en est une esquisse.

79
5. Bibliographie

80
OUVRAGE SPÉCIALISÉ

• Agamben G. (2007). Qu'est ce qu'un dispositif. Paris : Édition Payot et
Rivage.

• Austin J. (1970). Quand dire c'est faire. Paris : Seuil.

• Bourriaud N. (2001). Esthétique relationnelle. Paris : Les Presses du
Réel.

• Barthes R. (1970). Mythologie. Paris : Seuil.

• Barthes R. (1973). Le plaisir du texte. Paris : Seuil.

• Bateson G. (1972). Steps to an ecology of Mind. Chicago : The University
of Chicago Press.

• Benet J. (2008). T_visionarium a user guide. Sydney : University of new
south wales press Ltd.

• Bertin J. (2005). Sémiologie graphique. Paris : Édition de l'EHESS.

• Bergson H. (2004). Matière et mémoire. Paris : Puf.

• Bergson H. (2004). Essaie sur les données immédiates de la conscience.
Paris : Puf.

• Boissier J. (2004). La relation comme forme. Genève : Mamco.

• Meredieu F. (2005). Arts et nouvelles technologies. Paris : Larousse.

• Muller-Borckmann J. (1981) Grid systems in graphic design. Nuggli :
Zurich.

• Carlo R. (2008). New York talk exchange. Cambridge : MIT press.

• Chauvin S. (2008). Information & visualisation. Toulouse : Cepaduès.

• Deleuze G. (1996). Dialogues. Paris: Flammarion.

• Dion E. (1997). Invitation à la théorie de l'information. Paris : Seuil.

• Foucault M. (1971). L'ordre du discours. Paris : Edition Gallimard.

• Fourmentraux J. (2005). Art et Internet. Paris : CNRS Edition.

• Fry B. (2007). Visualizing Data. Sébastopol: O'Reilly.

81
• Fuller M. (2006). Software studies. Cambridge : MIT press.

• Fuller M. (2003). Behind the blip. Brooklyn : Autonomedia.

• Green R. (2005). L'art Internet. Paris : Thames & Hudson.

• Greffe X. (2008). Culture Web - Création, contenus, économie numérique.
Paris : Salloz-Sirey.

• Klanten R. (2008). Data Flow. Berlin : Gelstaten.

• Khan P. (2001). Mapping web sites. New York : Watson-Guptill
Publication.

• Lévy P. (1998). Qu'est ce que le virtuel. Paris : l'éclat.

• Moggridge B. (2007). Designing Interactions. Cambridge : The MIT
press.

• Martin S. (2006). Art vidéo. Köln : Taschen.

• Mac Luhan M. (2004). Pour comprendre les médias. Paris : Points.

• Maeda J. (2004). Code de création. Paris : Thames & - Hudson.

• Maeda J. (2006). The laws of simplicity. Cambridge : The MIT press.

• Oswald D. (1995). Nouveau dictionnaire encyclopédique des sciences du
langage. Paris : Seuil.

• Poulet B. (2009). La fin des journaux et l'avenir de l'information. Paris :
Gallimard.

• Tibe M. (2006). Art des nouveaux médias. Köln : Taschen.

• Tufte E. R. (2001). The Visual Display of quantitative Information.
Cheshire : Graphic Press.

• Woolman M. (2002). Données à voir. Paris : Thames & Hudson.

• Wark McK. (2006). Un manifeste Hacker. Paris : Edition Critical Secret.

• Wilson S. (2002). Information Arts. Cambridge : The MIT press.

• Worms A. (2008). Les arts numérique. Paris : MCD.

• Zali A. (2001). L'aventure des écritures. Paris : BNF.

82
SITE INTERNET

• Bruno C. http://www.iterature.com/

• Benayoun M. http://www.benayoun.com/

• Brucker-Cohen_J.
http://www.mee.tcd.ie/~bruckerj/projects/cranktheweb.html

• Fry B. http://benfry.com/

• Fuller M. http://www.spc.org/fuller/

• Hilpoltsteiner M. http://www.recreating-movement.com/

• IBM. http://manyeyes.alphaworks.ibm.com/manyeyes/

• MIT. http://www.media.mit.edu/

• Manuel L. http://www.visualcomplexity.com/

• Maeda J. http://www.maedastudio.com/index.php

• MediaWise http://www.mediawise.org.uk/

• Moere A. http://infosthetics.com/

• Napier M. http://www.potatoland.org/

• Prudence P. http://dataisnature.com/

• Randy K. http://coolinfographics.blogspot.com/

• Rhizome http://www.rhizome.org/

• Shaw J. http://www.jeffrey-shaw.net/

• TED. http://www.ted.com/

• Hilsing S. http://www.virtualgravity.de/

• Kison M. http://www.markuskison.de/pulse/

• Luis V. http://www.n-gon.com/delter/

• Viola B. http://www.billviola.com/

• W3C. http://www.w3.org/

83
6. ANNEXES GRAPHIQUES

84
85
86
87
88
89
90