You are on page 1of 14

Evolution des technologies numériques

Représentation de l'information
Un peu de culture numérique (indispensable aujourd'hui).

Les formes diverses de l'information

L'information qui transite sur les réseaux de télécommunication consiste en messages de types
divers :

IMAGES : fixes,
animées(vidéo), noir et
SONS : parole, musique
blanc, nuances de gris,
couleurs

DONNEES
TEXTES : avec styles et INFORMATIQUES :
formats informations codées en
binaire

De nos jours, pour des raisons qui seront explicitées ci-dessous, la tendance est à la numérisation
totale de l'information ce qui correspond au multimédia.

Toutefois, la numérisation n'est pas encore générale et il existe une superposition de systèmes de
transmission :
parole : image fixe :
système : téléphone système : télécopie
codeur : microphone codeur : scan
décodeur : écouteur décodeur : interpréteur de
transmission : signaux fichier
analogiques et transmission : signaux
numériques analogiques et numériques

données informatiques : télévision :


système : réseaux de système : diffusion
télé-informatique hertzienne
codeur : contrôleur de codeur : caméra
communication + ETCD décodeur : récepteur TV +
décodeur : contrôleur de antenne
communication + ETCD transmission : signaux
transmission : signaux analogiques
analogiques ou
numériques ( bientôt numériques)

Signaux et données

La transmission d'un message nécessite un encodage en signaux de type électrique ou


électromagnétique

 Les signaux peuvent être analogiques ou numériques

signaux analogiques : représentés par une signaux numériques : représentés par une
grandeur physique variant de manière grandeur physique ne prenant qu'un certain
continue nombre de valeurs discrètes

 Les données d'un message peuvent être également analogiques ou numériques. Prenons le
cas d'un texte composé de caractères d'imprimerie. Ces caractères sont codés de manière à
leur faire correspondre des 0 et des 1. Par exemple, comme on le verra plus loin, le caractère
majuscule "A" est codé (ASCII) par la suite binaire "1000001" (nous examinerons plus loin ce
type de codage) . Le caractère "A", ainsi codé, est une donnée numérique. Prenons
maintenant une conversation téléphonique. Le son "parlé" est représenté par des variations
de pression dans l'air ambiant. Le microphone du téléphone transforme les variations de
pression en variations de potentiel électriques et on peut représenter une plage sonore par
une grandeur continue au cours du temps comme dans le cas d'un signal analogique.

En résumé, des données numériques ou analogiques peuvent être transportées à distance par des
signaux numériques ou analogiques. Toutefois, la numérisation de l'information permet de
considérer le problème des télécommunications comme celui du transport de l'information
numérique par des signaux analogiques ou numériques :

Une question peut légitimemet se poser : pourquoi numériser l'information puisque pour la
transporter, il n'est pas nécessaire de recourir à des signaux numériques ?

Une première réponse ressort des considérations précédentes : il ne faut pas confondre information
numérisée et signal numérique. Un signal numérique ne peut être utilisé que pour le transport de
l'information. Mais l'information (et les données la constituant) doit aussi être créée et mémorisée ;
l'ordinateur est alors un outil universel de traitement de l'information (dans ses fonctionnalités de
création et de stockage) et cet outil n'est adapté qu'à l'information numérique.

Par ailleurs, si on doit transporter l'information multimédia (ce qui est de nos jours le cas), il est
commode de traduire en "0" et "1" cette information ; ainsi le problème du transport est réduit à
celui de transporter des "0" et des "1" (sans savoir ce qu'ils représentent : textes, images, vidéos,
sons, ...) ce qui peut se faire par des signaux analogiques ou numériques. Le mode de transmission
étant indépendant de la nature de l'information (c'est à dire textes, images, vidéos, sons, ...), il peut,
dès lors, être envisageable (et envisagé !) de transporter simultanément plusieurs types
d'information et notamment des documents composites (comme un document Web par exemple).

Les ordinateurs manipulent seulement (de nos jours) des données binaires c'est à dire constituées de
"0" et de "1". Il faut donc traduire dans cette "langue", les données et informations que les être
humains créent, utilisent, communiquent. Dans cette session, on ne s'intéresse qu'aux données de
base : nombres et textes. La session suivante concerne les images, les sons et les images animées.

Codage binaire

Pour représenter l'information, l'ordinateur ne dispose que de digits. Un digit peut avoir deux états,
on parle donc de digit binaire ou plus simplement de bit (contraction de binary digit en anglais).
L'information ainsi codée est dite binaire (ou, improprement, numérique). Dans un ordinateur,
l'information est manipulée sous la forme de mots binaires, obtenus par juxtaposition d'un certain
nombre de bits représentant la longueur de ce mot. On appelle octet (byte en anglais) un mot de 8
bits.

exemple d'octet : 00101001


Système de numération à base b

En base 10, la suite de chiffres comme 321 correspond au nombre 3*10 2 + 2*101 + 1*100 c'est à dire
300 + 20 + 1. La base 10 est la base que tout le monde utilise sans le savoir (comme M. Jourdain qui
faisait de la prose sans le savoir). C'est le système de numération décimal.

Comme nous allons utiliser d'autres bases, nous noterons (321) 10 ce nombre dans le système
décimal.

D'une manière générale, en base b, une suite cp cp-1 ... c0 ... où les ci sont des chiffres compris entre 0
et b, représente le nombre cp*bp + cp-1*bp-1 + ... + c0*b0 . Le nombre exprimé en base b s'écrira (cp cp-1
... c0)b où la base b est mise en indice pour éviter toute ambiguïté.

exemple 1 : Comment représenter le nombre (321)10 en base 8 ? Nous devons seulement utiliser les
chiffres 0, 1, 2, 3, 4, 5, 6, 7. Comme 80 = 1, 81 = 8, 82 = 64, 83 = 512, nous voyons que le nombre
cherché doit être de la forme c2*82 + c1*81 + c0*80 et s'écrira (c2c1c0)8

Trouver les coefficients c2, c1 et c0 est ici assez facile : on constate que (321) 10 contient 5 fois 64, soit
320. Il reste 1. On obtient donc (321)10 = (501)8 . On généralisera plus loin le procédé.

Comme on peut le constater ci-dessus, il peut être important de préciser la base utilisée afin qu'il n'y
ait pas d'ambiguïté sur les nombres représentés. Chaque fois que cela sera nécessaire, la base sera
indiquée en indice.

Système de numération binaire

Le système binaire (base 2) est le mieux adapté à l'informatique. C'est le plus utilisé avec l'octal (base
8) et l'hexadécimal (base 16). Puisque la base est 2, un nombre entier, usuellement noté en décimal,
s'écrira :

(xy.....z)10 = cp*2p + cp-1*2p-1 + ...... + c2*22 + c1*21 + c0*20 = (cpcp-1.....c2c1c0)2

exemple 2 : Combien vaut, en décimal, le nombre (11001000)2 ? Il suffit d'appliquer la définition :

(11001000)2 = 1*27 + 1*26 + 1*23 = 128 + 64 + 8 = (200)10

On peut facilement donner la suite des premiers nombres entiers en binaire :

décimal 0 1 2 3 4 5 6 7 8 9 10
binaire 0 1 10 11 100 101 110 111 1000 1001 1010

décimal 11 12 13 14 15 16 17 18 19 20
binaire 1011 1100 1101 1110 1111 10000 10001 10010 10011 10100
Il faut maintenant pouvoir aussi convertir en binaire un nombre écrit en décimal. Il y a deux façons
de faire, équivalentes.

1ère méthode : on divise par 2 successivement le nombre et les quotients obtenus ; la concaténation
des restes donne le nombre en binaire.

exemple 3 : Convertir le nombre (321)10 en binaire.

(321)10 = (101000001)2(on prend le


dernier quotient puis les restes en
sens inverse )

2ème méthode : on procède par approximations successives en recherchant la plus grande puissance
de 2 égale ou inférieure au résultat. Il est commode de connaître, pour cela, au moins les premières
puissances de 2 :

puissances de 2 20 21 22 23 24 25 26 27
valeurs 1 2 4 8 16 32 64 128
puissances de 2 28 29 210 211 212 213 214 215
valeurs 256 512 1024 2048 4096 8192 16384 32768
puissances de 2 216 217 218 219 220

valeurs 65536 131072 262144 524288 1048576

exemple 4 : Convertir le nombre (321)10 en binaire.

321 - 256 = 65 un coefficient c8


65 - 64 = 1 un coefficient c6
1-1=0 un coefficient c0
donc (321)10 = (101000001)2

En binaire, les bits ont d'autant plus de poids qu'ils sont situés le plus à gauche dans le mot, on parle
alors de bits de poids fort. Quant aux bits les plus à droite dans le mot, ils sont dits de poids faible.
Systèmes de numération octal et hexadécimal

Dans le système de numération octal, la base est 8 et on utilise donc 8 symboles "chiffres" qui sont 0,
1, 2, 3, 4, 5, 6, 7. La définition d'un nombre en octal est, conformément à ce qui précède :

(xy.....z)10 = cp*8p + cp-1*8p-1 + ...... + c2*82 + c1*81 + c0*80 = (cpcp-1.....c2c1c0)8

exemple 5 : conversion du nombre octal (501)8 en décimal : (501)8 = 5x82 + 0x81 + 1x80 = (321)10

De manière analogue, dans le système de numération hexadécimal, la base est 16 et on utilise les
symboles "chiffres" suivants : 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F :

(xy.....z)10 = cp*16p + cp-1*16p-1 + ...... + c2*162 + c1*161 + c0*160 = (cpcp-1.....c2c1c0)16

exemple 6 : conversion du nombre (141)16 en décimal : (141)16 = 1x162 + 4x161 + 1x160 = (321)10

exemple 7 : conversion du nombre hexadécimal (CAFE)16 en décimal :

(CAFE)16 = 12x163 + 10x162 + 15x161 + 14x160 = (51966)10

Il est très facile de passer d'un nombre en binaire à un nombre en octal ou en hexadécimal, il suffit
de regrouper les chiffres binaires formés par des paquets de 3 ou 4 bits et d'utiliser la
correspondance binaire suivante :

binaire hexadécimal
0000 0
0001 1
0010 2
binaire octal
0011 3
000 0 0100 4
001 1 0101 5
010 2 0110 6
011 3 0111 7

100 4 1000 8

101 5 1001 9

110 6 1010 A
1011 B
111 7
1100 C
1101 D
1110 E
1111 F
exemple 8 :

(200)10 = (11001000)2 = (310)8 = (C8)16 (222)10 = (11011110)2 = (336)8 = (DE)16

(310)8 = (11 001 000)2 (336)8 = (11 011 110)2

(C8)16 = (1100 1000)2 (DE)16 = (1101 1110)2

Quelques repères sur le système binaire:

 210 = 1024 # 103. C'est le "Kilo" informatique. Il permet d'évaluer rapidement les puissances
de 2 que l'on rencontre souvent en informatique.
Ainsi, 226 = 26 x (210)2 # 64 x (103)2 = 64 x 106 soit environ 64 millions. Le symbole # est
employé ici dans le sens "peu différent de".
 Le plus grand nombre pouvant être codé sur un mot binaire de n bits est 2n - 1. Par exemple,
avec 3 bits, ce nombre est 23 - 1 = 7

Représentation des nombres entiers avec le codage DCB

DCB signifie "Décimal Codé Binaire" (en anglais BCD : Binary Coded Décimal). Cette représentation
s'appuie sur le codage des neufs chiffres décimaux sur des mots binaires de 4 bits (voir le tableau ci-
dessous). Elle nécessite donc autant de mots de 4 bits qu'il y a de chiffres dans le nombre à
représenter.

chiffre codage
décimal DCB

0 0000

1 0001

2 0010

3 0011

4 0100

5 0101

6 0110

7 0111

8 1000

9 1001
exemple 9 : Pour représenter un entier ayant 6 chiffres décimaux, il faut donc un mot de 24 bits.
Ainsi, 123456 sera représenté 0001 0010 0011 0100 0101 0110. Un mot de 24 bits permet donc de
représenter tous les entiers allant de 0 à 999999.

DCB n'est rien d'autre qu'un codage ; en particulier, on ne peut pas faire de calculs en DCB (car ce
n'est pas un système de numération).

Représentation binaire des nombres entiers

Dans cette méthode, on utilise tout simplement la représentation en base 2 d'un nombre. Un mot de
n bits permet donc de coder tous les entiers allant de 0 à 2 n - 1 puisqu'il utilise tous les codes
possibles.

exemple 10 : Sur un mot de 3 bits, on peut coder tous les entiers allant de 0 à (23 - 1) = 7

Le tableau suivant donne la représentation binaire des nombres entiers de 0 à 99 . Comme dans un
ordinateur, les données sont stockées dans des registres contenant un nombre fixé de bits, on ne
peut dépasser une valeur maximum. Si, on se place dans le cas où les registres ne peuvent accueillir
que des mots de 8 bits, le nombre le plus grand est 11111111 soit (255)10 ; pour les nombres plus
petits, on complète par des zéros ce qui a été fait dans le tableau ci-dessous (dans l'hypothèse d'un
"format" de 8 bits).
Codage du texte

Le premier code relatif au texte est certainement le code Morse, en service bien avant l'utilisation de
l'ordinateur. Et pourtant, il s'agit bien d'un code binaire qui aurait pu servir à numériser les textes,
puisqu'il est composé de deux symboles seulement : le point et le trait (on pourrait aussi bien dire 0
et 1).

Malheureusement, il souffre de deux inconvénients majeurs :

 il est "pauvre" : peu de caractères peuvent être codés ;


 il utilise des combinaisons de traits et de points de longueur variable ce qui n'est pas
commode, notamment pour la numérisation d'éléments ayant des probabilités d'apparition
de même ordre.

Pour ces raisons, il n'a pas été utilisé pour le codage numérique de l'information (apparemment, on
n'y a peut-être pas pensé !) ; toutefois, compte tenu de son utilisation passée, il méritait d'être
mentionné.

Si on se fixe comme règle de trouver un code permettant de représenter numériquement chaque


caractère de manière à obtenir un nombre de bits fixe, il est simple de comprendre qu'avec un code
à p positions binaires on pourra représenter 2p caractères. Effectivement, dans le passé, on a utilisé
de tels codes, généralement en les définissant par des tables, le code étant divisé en poids faibles et
en poids forts :

 code à 5 positions : un de ses représentants est ATI (Alphabet Télégraphique International,


utilisé par le Télex)
 code à 6 positions : ISO6 (ce code très employé sur les premiers ordinateurs est aujourd'hui
abandonné)
 code à 7 positions : ASCII : la panacée universelle. Actuellement encore, le codage le plus
utilisé pour représenter des caractères et le code ASCII (American Standard Code for
Information Interchange). Ce code fait apparaître des caractères non imprimables appelés
caractères de manœuvre qui provoquent des actions sur des dispositifs informatiques ou qui
transportent de l'information de service. Par exemple, FF signifie "passage à la page
suivante" ce qui pour une imprimante est une information indispensable.
La case en haut à gauche du tableau ci-dessus renseigne sur l'utilisation des 7 bits utilisés pour les
codes ASCII. On constate donc que les 3 premiers bits de poids fort correspondent à une colonne,
alors que les 4 derniers bits de poids plus faibles correspondent à une ligne. On notera qu'en
Hexadécimal, les caractères ASCII sont numérotés de 0x00 à 0x7F.

exemple 11 : BONJOUR ! s'écrit (en format 8 bits) :

01000010 01001111 01001110 01001010 01001111 01010101 01010010 00100000 00100001

 code à 8 positions : ASCII étendu, EBCDIC

Le code ASCII est un code sur 7 positions ; comme les ordinateurs stockent l'information dans des
mots dont la longueur est un multiple de 8 bits (octets), on complète généralement le code ASCII par
un "0" en tête pour former un octet. On peut aussi utiliser ce degré de liberté supplémentaire pour
définir des alphabets spéciaux ; dans ce cas, on avertit en mettant un "1" en tête à la place du "0" ce
qui correspond au code ASCII étendu ; malheureusement, il y a plusieurs codes ASCII étendus car il
n'y a pas encore de normalisation imposée ce qui rend difficile mais pas insurmontable le passage
d'un document d'une plate-forme à une autre.

Le code EBCDIC est d'emblée un code sur 8 bits ce qui permet d'obtenir 256 caractères
représentables contre 128 pour le code ASCII. Il a été utilisé par IBM pour le codage de l'information
sur ses machines. Il n'a pas atteint toutefois la popularité du code ASCII.

 code à 16 positions : Unicode

Ce code est récent et a été mis en oeuvre pour satisfaire tous les usagers du Web (cette technologie
est déjà présente dans Mac OS 8.5, Windows 98 et NT). Il incorpore presque tous les alphabets
existants (Arabic, Armenian, Basic Latin, Bengali, Braille, Cherokee, etc....) ; il est compatible avec le
code ASCII. Par exemple le caractère latin A est codé 0x41 en ASCII et U+0041 en Unicode ; le
caractère monétaire € est codé 0x80 en ASCII étendu et U+20AC en Unicode. Notons que le codage
sur 16 bits permet la représentation de 65000 caractères, dont environ 18000 seraient encore libres !
Les données multimédias sont des données plus complexes que les nombres et les caractères
d'imprimerie. A chaque type de données multimédias (image fixe, son, vidéo) est associé un
processus de codage particulier.

Image fixe

Les images utilisées par les systèmes informatiques appartiennent à deux grandes familles : les
images matricielles et les images vectorielles. La seconde catégorie d'images est codée par des
programmes de tracés, c'est à dire qu'une succession d'ordres de tracés est transmise à l'afficheur
d'écran ou à l'imprimante. Pour cela, on décompose l'image en éléments géométriques simples :
points, lignes, rectangles, ovales, courbes cubiques et on donne les moyens de tracer ces éléments.
Nous ne nous intéresserons pas ici à cette famille d'images.

Les images matricielles comme leur nom l'indique sont composée de points régulièrement disposés
comme les éléments d'une matrice. Chaque point est codé suivant sa "couleur" et les codes
résultants sont placés séquentiellement dans un fichier, ligne par ligne, colonne par colonne.

Pour une image binaire, c'est à dire "bicolore", noir et blanc, chaque point est codé sur 2 bits (0 pour
noir, 1 pour blanc. Pour une image avec 256 nuances de gris allant du noir total au blanc total,
chaque point sera codé sur 8 bits (de 00000000 pour noir à 11111111 pour blanc). Pour une image
couleur, on exprime cette couleur comme une superposition d'une dose de Rouge, d'une dose de
Vert et d'une dose de Bleu (système RVB) ; si on permet une variation de 0 à 255 pour une dose, une
couleur quelconque sera codée comme la juxtaposition de trois octets, soit 24 bits (et donc 16 777
216 couleurs possibles).

Considérons une image pour laquelle la grille de codage se compose de 640*480 points. Si l'image est
binaire, sa taille est de 38 400 octets, si l'image est à 256 nuances de gris, sa taille est de 307 200
octets ; si l'image possède des couleurs codées sur 24 bits, sa taille est de 921 600 octets. Si l'on
considère qu'une disquette contient usuellement 1 400 000 octets, on comprend que ce support est
quelque peu limité pour le stockage de nombreuses images. Par ailleurs, des techniques de
compression permettent de gagner de la place mais au prix d'une décompression au moment de
l'affichage des images ; ce que l'on gagne en volume est perdu en vitesse d'affichage.

La taille du fichier obtenu après numérisation et avant compression est fortement influencée par le
pas de la grille de codage qui est appelé résolution et exprimé usuellement en points par pouce (dpi :
dots per inch). Pour une même image une résolution de 600 dpi donnera un fichier image 36 fois plus
volumineux que le fichier image résultant d'une numérisation à 100 dpi.
Les techniques de compression conduisent à des formats d'images, soit normalisés, soit imposés par
les industriels. Deux formats d'image sont couramment employés pour les applications multimédias
en ligne : le format GIF qui correspond à des images compressées sans perte d'information avec 256
nuances de couleurs et le format JPEG qui correspond à des images compressées avec perte
d'information avec 16 millions de couleurs. Ces deux formats ont l'immense avantage d'être
interprétés par la plupart des navigateurs du Web.

Données audio

Les technologies d'acquisition du son ont été longtemps analogiques : le son était représenté par les
variations d'une grandeur physique, une tension électrique par exemple. Les techniques actuelles
permettent d'obtenir directement un son numérisé : c'est notamment le cas des magnétophones
produisant un enregistrement sur cassettes D.A.T. (Digital Audio Tapes, digitalisation du son à une
fréquence de 48 KHz) .
Pour numériser un son enregistré de manière analogique, on procède en trois étapes :

1. Echantillonnage : l'amplitude du signal analogique est mesurée à une fréquence


d'échantillonnage f. On obtient ainsi une collection de mesures.
2. Quantification : une échelle arbitraire allant de 0 à 2n-1 est employée pour convertir les
mesures précédentes. Une approximation est faite de manière à ce que chaque mesure
coïncide avec une graduation de l'échelle (cette approximation, qui modifie légèrement le
signal, est appelée bruit de quantification).
3. Codage : suivant sa grandeur dans cette nouvelle échelle, chaque mesure est codée sur n bits
et placée séquentiellement dans un fichier binaire.

On comprendra que les valeurs de f et de n sont critiques pour la taille du fichier résultant.
Usuellement 3 qualités de numérisation sont employées :

o la qualité Hifi ou CD audio : f=44 KHz, n=16 bits, stéreo (2 signaux sonores)
o la qualité "radio" : f= 22 KHz, n=8 bits, mono ou stéréo
o la qualité "téléphonique" : f=11 KHz, n=8 bits, mono
Ainsi, 1 heure de son correspondra à des fichiers de 630 Mo, 158 Mo et 40 Mo pour les qualités CD,
radio et téléphonique respectivement. Nous verrons plus loin que les standards de CD ROM
correspondent à une capacité d'environ 640 Mo. Les normes de codage numérique du son portent
sur l'enregistrement non compressé des mesures quantifiées (PCM : Pulse Code Modulation), sur
l'enregistrement des différences entre deux mesures successives, ce qui permet une réduction de
volume de données (DPCM : Delta PCM), ou encore sur l'utilisation de techniques de prédiction des
mesures (ADPCM : Adaptative Differential PCM).

Vidéo

Comme pour le son, la vidéo s'exprime par des signaux de nature analogique qu'il faut numériser
pour une utilisation multimédia. Il existe ici quatre signaux à numériser : trois pour l'image et un pour
le son. Les signaux d'image se répartissent en signal de luminance Y et deux signaux de chrominance
Db et Dr, reliés aux composantes R,V,B (Rouge, Vert, Bleu) par les relations linéaires

Y = 0.30R + 0.59V + 0.11B


Db = B - Y
Dr = R - Y.

La composante Y est échantillonnée à une fréquence de 13,5 MHz, tandis que les composantes de
chrominance sont échantillonnées à une fréquence de 6,75 MHz. La quantification pour les trois
signaux d'image s'opère sur 8 bits.

Les données peuvent être simultanément ou ultérieurement compressées. Plusieurs systèmes sont
actuellement utilisés. La compression Indéo d'Intel est utilisée dans le logiciel Vidéo For Windows (le
résultat de la numérisation et de la compression conduit à des fichiers vidéo AVI). Pour des plates-
formes Macintosh, mais aussi Windows, le logiciel Quick Time d'Apple joue un rôle analogue à partir
de fichiers vidéo MOOV ; un grand intérêt de Quick Time est sa possibilité d'intégration de données
initiales diverses (images, sons, textes) et de proposer plusieurs types de compression. Les logiciels
Video For Windows et Quick Time réalisent également la synchronisation du son avec les images.

La norme MPEG, spécialement élaborée pour la compression de vidéo, tend actuellement à


s'imposer. Le principe de compression s'appuie sur trois types d'images : les images "intra" sont des
images peu compressées qui servent de repère (une image intra pour 10 images successives) ; les
images "prédites" sont des images obtenues par codage et compression des différences avec les
images intra ou prédites précédentes (une image prédite toutes les trois images) ; les images
"interpolées" sont calculées comme images intermédiaires entre les précédentes. L'utilisation de
vidéos numériques MPEG nécessite la présence d'une carte de décompression dans le micro-
ordinateur d'exploitation.

You might also like