Professional Documents
Culture Documents
Douzi
Université Ibn Zohr
Faculté des Science
Agadir 2009
Définition qualitative de l'information:
Fournir une information consiste à lever une partie de
l'incertitude sur l'issue d'une expérience aléatoire.
Exemple: l'observation d'un '0' à la sortie d'un canal
binaire bruité augmente la probabilité qu'un '0' ait été
émis et diminue la probabilité qu'un '1' ait été émis.
La notion d’information mutuelle est inhérente à la
probabilité conditionnelle:
Considérons deux événements « X = x » et « Y = y »;
p(x | y) peut être interprétée comme la modification
apportée à la probabilité p(x) de l'événement x lorsque l'on
reçoit l'information que l'événement y est réalisé.
Définition qualitative de l'information:
Si p(x | y) ≤ p(x), l'incertitude sur x augmente,
Si p(x | y) ≥ p(x), l'incertitude sur x diminue.
Une diminution de l'incertitude sur x doit être
comprise comme un gain d'information sur x et
inversement, une augmentation de l'incertitude sur x
doit être comprise comme une perte d'information
sur x.
Cette modification apportée à p(x) sera appelée
information mutuelle de x et y
Le gain d'information maximal sur x sera obtenu
lorsque p(x | y) = 1, c'est-à-dire essentiellement
lorsque x = y. cette modification sera appelée
information propre de x.
Définition quantitative de l'information:
L'information propre de x est une fonction de sa
probabilité : I(x) = f(p(x)) qui vérifie:
I(x) est une fonction décroissante de p(x) : en effet un
évènement certain n'apporte aucune information,
alors qu'un évènement improbable en apportera
beaucoup.
L'information propre est une grandeur additive : si
les évènements x et y sont statistiquement
indépendants alors l'information totale qu'ils peuvent
fournir est la somme des informations propres:
f(p(x, y)) = f(p(x)p(y)) = f(p(x)) + f(p(y)).
Définition quantitative de l'information:
Nous devrons donc choisir une fonction de la forme:
I(x) = λ log(p(x)), avec λ< 0