Professional Documents
Culture Documents
lim p ln 2 p = 0
p 0
p i je vjerojatnost stanja i
2009.05.28 Zeljko Jericevic, Ph.D. 13
Informacijska entropija H
Informacijska entropija ima sljedea svojstva:
x = ix = = ix i 1
x i =0 (1- x ) i =1
2
i =0
1 1
H (X ) = 2
= 2 bita
2 1
1
2
Poisson distribution
Poisson distribution is a discrete probability distribution that
expresses the probability of a number of events occurring in a
fixed period of time if these events occur with a known average
rate and independently of the time since the last event. The
Poisson distribution can also be used for the number of events in
other specified intervals such as distance, area or volume.
From Wikipedia
k e ocekivana vrijednost
p(k ; ) =
k! k broj k-tih ishoda
23
Primjer
Primjer upotrebe Poisson-ove raspodjele:
Greka zapisa je 1 u 2. Za poruku duine 100 znakova
izraunaj vjerojatnosti za 0, 1, 2 i 3 prekida u poruci
24
Primjer
Primjer upotrebe Poisson-ove raspodjele:
Greka zapisa je 1 u 2. Za poruku duine 100 znakova
izraunaj vjerojatnosti za 0, 1, 2 i 3 prekida u poruci
k e 100 / 2
p(k ; ) =
k! k broj k-tih ishoda
( 50 ) e 50
0
26
Information theory
Neodreenost (?),
entropija (H), i
informacija (I) u
razliitim
momentima
nastajanja i
prijenosa poruke
Informacijska entropija H
Entropija je mjera prosjene neodreenosti koji e
simbol biti odabran na izvoru. Ako moemo tono
predviditi koji e simbol biti izabran, H=0 kao kod
novia koji ima dvije iste strane. Ako je novi
ispravan, H=1bit ili jedna elementarna neodreenost.
p(a|malo)=p(malo|a)p(a)/p(malo)=(0.50.4)/0.8=0.25 je
aposteriori vjerojatnost da je na izvoru poslan znak a,
ako smo na odreditu oitali malo slovo
p(b|malo)=p(malo|b)p(b)/p(malo)=(1.00.6)/0.8=0.75 je
aposteriori vjerojatnost da je na izvoru poslan znak b,
ako smo na odreditu oitali malo slovo
Information theory
Gledano s izvora imamo vjerojatnosti prelaza xi u yj
odnosno uvjetna vjerojatnost p(yj|xi) (y given x)
Gledano s odredita, imamo unazadnu vjerojatnost
prelaza yj u xi odnosno uvjetovanu vjerojatnost p(xi|yj)
(x given y)
Information theory
Zdruene vjerojatnosti
pojave simbola p(xi ,yj ) se
koriste kod istovremenog
promatranja ulaza i
izlaza. Zdruene
vjerojatnosti obino
prikazujemo kao matricu
Information theory
Istovremeno s ulaza i
izlaza, zdruene
vjerojatnosti x,y daju
potpuni opis sustava
Information theory
p ( x ) = p ( y ) = 1.0
n m
p ( xi ) = p ( xi , y j ) , p ( y j ) = p ( xi , y j )
m n
Vjerojatnost simbola je zbroj vjerojatnosti parova
j=1 i=1
i j i j
i=1 i=1
Information theory
p ( x ) = p ( y ) = 1.0
n m
i j
i=1 j=1
Skup simbola na ulazu i izlazu je potpun
Information theory
p ( xi ) = p ( xi , y j )
m
j=1
p ( y j ) = p ( xi , y j )
n
i=1
Vjerojatnost pojave simbola je zbroj vjerojatnosti
pojava svih parova u kojima se taj simbol
pojavljuje.
Information theory
p ( xi ) p ( y j | xi ) = p ( y j ) p ( xi | y j ) = p ( xi , y j )
i j
i=1
p ( xi ) p ( y j | xi )
=
p(x ) p( y | xi )
n
i j
i=1
p ( y j ) = p ( xi , y j )
3
(zbroj elemenata u istoj koloni)
1
Entropija na izlazu
H (Y ) = p ( y j ) log 2 p ( y j )
n
j =1
Information theory
Zdruena entropija kada zajedniki promatramo
dogaaje na ulazu i izlazu kao parove simbola (xi,yj):
H ( X , Y ) = p ( xi , y j ) log 2 p ( xi , y j )
n m
i =1 j =1
= p ( xi ) p ( y j | xi ) log 2 p ( y j | xi )
n m
i =1 j =1
= p ( xi , y j ) log 2 p ( y j | xi )
n m
i =1 j =1
Information theory
Drugi nain gledanja na uvjetnu entropiju H(Y|X) je
prosjena neodreenost sluajne varijable Y nakon to
je poznata varijabla X. Prije nego to je varijabla X bila
poznata, entropija varijable Y je H(Y). Uz pretpostavku
da X utjee na Y, nakon to je X poznat, entropija Y
postaje H(Y|X).
Kao to smo ve spomenuli, prenos informacija moemo
gledati sa ulaza ili sa izlaza. Pogled s ulaza daje
entropiju uma ili irelvantnost H(Y|X), a pogled sa izlaza
daje mnogoznanost ili ekvivokaciju H(X|Y).
Information theory
Entropija uma ili irelevantnost je neodreenost koji e se
simbol pojaviti na izlazu
Information theory
Mnogoznanost ili ekvivokacija je posljedica injenice da
je simbol na izlazu mogao biti uzrokovan razliitim
simbolima na ulazu.
Information theory
Srednji uzajamni sadraj informacije i relativna entropija.
Relativna entropija DKL(p||q) izmeu dvaju razdioba vjerojatnosti
(p(X) i q(X)) sluajne varijable X je mjera divergencije (Kullback
Leibler divergence) izmeu spomenutih razdioba. Budui da
DKL(p||q) DKL(q||p) nije matematiki ispravno zvati DKL
udaljenou, kao to je uobiajeno.
n
p ( xi )
DKL ( p || q ) = p ( xi ) log 2
i =1 q ( xi )
Information theory
Relativna entropija DKL(p||q) moe posluiti kao mjera
neuinkovitosti kodiranja zbog pogrene procijene
razdiobe vjerojatnosti q(X) umijesto ispravne razdiobe
p(X). Zbog pogrene procjene u prosjeku e se potroiti
DKL(p||q) vie bitova po simbolu nego to je potrebno na
osnovu entropije stvarne raspodjele p(X). L (cross
entropy) je prosjeni broj bitova po simbolu uz
koritenje raspodjele q :
n n n
p ( xi )
L ( p, q ) = p ( xi ) log 2 q ( xi ) = p ( xi ) log 2 p ( xi ) + p ( xi ) log 2
i =1 i =1 i =1 q ( xi )
= H ( X ) + DKL ( p || q )
Information theory
Uzajamni sadraj informacije I(X;Y) (transinformacija)
izmeu sluajnih varijabli X i Y je relativna entropija
izmeu razdiobe njihovih zdruenih vjerojatnosti i
razdiobe umnoaka njihovih pojedinanih vjerojatnosti:
p ( xi , y j )
I ( X , Y ) = p ( xi , y j ) log 2
n m
i =1 j =1 p ( xi ) p ( y j )
Information theory
Uzajamni sadraj informacije I(X;Y) (transinformacija)
izraava mjeru koliko informacije jedna varijabla sadri
o drugoj.
Ako su varijable potpuno neovisne, I(X;Y) = 0 jer p(xi,yj) =
p(xi)p(yj)
p ( xi , y j )
I ( X , Y ) = p ( xi , y j ) log 2
n m
i =1 j =1 p ( xi ) p ( y j )
Information theory
Uzajamni sadraj informacije I(X;Y) (transinformacija)
izraava mjeru koliko informacije jedna varijabla sadri
o drugoj.
Ako su varijable jednake, I(X;Y) = H(X) = H(Y) jer jednu
varijablu moemo u potpunosti opisati drugom:
p(xi,yj) = p(xi) = p(yj) za i=j
p(xi,yj) = 0 za ij
Information theory
Entropija i uzajamni sadraj informacije:
I(X;Y) = H(X) H(X|Y)
je smanjenje neodreenosti (entropije) varijable X
uzrokovano poznavanjem varijable Y.
Vrijedi i obrnuto:
I(Y;X) = H(Y) H(Y|X)
Simetrija uzajamnog sadraja informacije dviju varijabli:
I(X;Y) = I(Y;X)
Information theory
Entropija H(X), zdruena entropija H(X,Y) i uvjetna
entropija H(Y|X) bazira se na definiciji zdruene
entropije i odnosa vjerojatnosti: p(x,y)=p(x)p(y|x)
H ( X , Y ) = p ( xi , y j ) log 2 p ( xi , y j ) = p ( xi , y j ) log 2 p ( xi ) p ( yi | x j )
n m n m
i =1 j =1 i =1 j =1
= p ( xi , y j ) log 2 p ( xi ) p ( xi , y j ) log 2 p ( y j | xi )
n m n m
i =1 j =1 i =1 j =1
= p ( xi ) log 2 p ( xi ) p ( xi , y j ) log 2 p ( y j | xi )
n n m
i =1 i =1 j =1
= H ( X ) + H (Y | X )
Information theory
Zdruena entropija H(X,Y), para varijabli jednaka je
zbroju entropije jedne varijable H(X) i preostale
entropija druge varijable uz uvjet da je prva varijabla
poznata H(Y|X).
Iz toga proizlazi da je uzajamni sadraj informacije I(X;Y)
jednak:
I(X;Y) = H(X) + H(Y) - H(X,Y)
Gdje je H(X,Y) korekcija entropije u sluaju ovisnih
varijabli
Information theory
Odnosi informacijskih mjera: Zdruene entropije H(X,Y),
entropija H(X) i H(Y), uvjetnih entropija H(X|Y) i
H(Y|X), i uzajamnog sadraja informacije I(X;Y) i I(Y;X)
Information theory
Odnos i svojstva informacijskih mjera
3
H ( X ) = p ( xi ) log 2 p ( xi ) = ?
i =1
Information theory
Vjerojatnost pojave pojedinog simbola na odreditu
odredujemo iz matrice zdruenih vjerojatnosti:
0.28 0.04 0.08
p ( xi , y j ) = p ( xi ) p ( y j | xi ) = 0.08 0.28 0.04
0.02 0.04 0.14
p ( y j ) = p ( xi , y j )
3
(zbroj elemenata u istoj koloni)
1
3
H ( X ) = p ( xi ) log 2 p ( xi )
i =1
= ( 0.38 log 2 ( 0.38 ) + 0.36 log 2 ( 0.26 ) + 0.26 log 2 ( 0.36 ) ) = 1.566 [ bits/simbol]
Information theory
Odredi uvjetne entropije H(X|Y) i H(Y|X)
H ( X | Y ) = p ( xi , y j ) log 2 p ( xi | y j ) = ?
3 3
i =1 j =1
Information theory
Odredi uvjetne entropije H(X|Y) i H(Y|X)
H ( X | Y ) = p ( xi , y j ) log 2 p ( xi | y j ) = ?
3 3
i =1 j =1
I ( X ; Y ) = H ( X ) H (Y | X ) = ?
p ( xi , y j )
I ( X ; Y ) = p ( xi , y j ) log
3 3
=?
i =1 j =1 p ( xi ) p ( y j )
Information theory
Odredi uzajamni sadraj informacije I(X;Y)
H ( X , Y ) = H ( X ) + H (Y ) I (Y ; X ) = ?
H ( X , Y ) = 1.522 + 1.566 0.409 = 2.679
Information theory
Gubitak
informacije
usljed
mnogoznanosti
H(X|Y) i
neodreenosti
zbog uma
H(Y|X). Rezultat
je ne-efikasnost
kanala
Information theory
Koliina informacije
koja se prenosi
kanalom ovisi o
karakteristikama
kanala (matrici
prijenosnih
vjerojatnosti
p(yi|xi)) i o
karakteristikama
ulaza
(vjerojatnostima
pojava simbola na
ulazu) p(xi)).
Information theory
Kapacitet kanala C je maksimalna transinformacija I(X;Y)
preko svih razdioba pojave simbola na ulazu:
C = max I ( X ; Y ) [ bit/simbol]
{ p ( xi )}
C je koliina informacija koja bi se mogla prenjeti kod
idealne razdiobe vjerojatnosti pojave simbola na ulazu.
Maksimalna koliina informacije koja se u prosjeku moe
prenjeti kanalom.
Information theory
Kanal kapaciteta C i poruka entropije H na ulazu:
H C moemo postii kodiranje da se informacija prenosi
s proizvoljno malom uestalosti pogreke
H > C moemo kodirati tako da mnogoznanost H(X|Y)
bude manja od H-C+, gdje je proizvoljno mala
veliina.
Nemogue je postii metodu kodiranja kojom bi se postigla
mnogoznanost manja od H-C
Information theory
Mnogoznanost, entropija i kapacitet kanala
Primjeri
Na ulazu binarnog simetrinog kanala pojavljuju se simboli X={0,1}
s jednakim vjerojatnostima od 0.5
Matrica uvjetnih vjerojatnosti p(Y|X) prijelaza u kanalu ( je
vjerojatnost pogrenog prelaza):
1
p ( yi | xi ) =
1
Odredite entropiju ulaznog i izlaznog skupa signala te zdruenu
entropiju
10 February 2012 Zeljko Jericevic, Ph.D. 86
Primjeri
Odredite entropiju ulaznog i izlaznog skupa signala
1
p ( yi | xi ) =
1
n
H ( X ) = p ( xi ) log 2 p ( xi ) = ?
1
10 February 2012 Zeljko Jericevic, Ph.D. 87
Primjeri
Odredite entropiju ulaznog i izlaznog skupa signala te
zdruenu entropiju
1
p ( yi | xi ) =
1
n
H ( X ) = p ( xi ) log 2 p ( xi ) = 2 0.5log 2 ( 0.5 ) = 1
1
0.5 (1 ) 0.5
p ( xi , y j ) = p ( xi ) p ( y j | xi ) =
0.5 0.5 (1 )
p ( y1 ) = 0.5 (1 ) + 0.5 = 0.5 p ( y2 ) = 0.5 + 0.5 (1 ) = 0.5
n
H (Y ) = p ( yi ) log 2 p ( yi ) = 2 0.5log 2 ( 0.5 ) = 1
1 88
Primjeri
Odredite zdruenu entropiju
1
p ( y j | xi ) =
1
0.5 (1 ) 0.5
p ( xi , y j ) = p ( xi ) p ( y j | xi ) =
0.5 0.5 (1 )
H ( X , Y ) = p ( xi , y j ) log 2 p ( xi , y j ) = ?
n m
i =1 j =1
H ( X , Y ) = p ( xi , y j ) log 2 p ( xi , y j )
n m
i =1 j =1
0.5 (1 ) 0.5
p ( xi , y j ) = p ( xi ) p ( y j | xi ) =
0.5 0.5 ( )
1
p ( xi , y j )
I ( X , Y ) = p ( xi , y j ) log 2
n m
=?
i =1 j =1 p ( xi ) p ( y j )
p ( y j ) = p ( y j , xi )
3
p ( y1 ) = p ( x1 )
i =1
p ( y2 ) = p ( x2 ) +pg ( p ( x3 ) p ( x2 ) )
p ( y3 ) = p ( x3 ) + pg ( p ( x2 ) p ( x3 ) )
H ( X ) = H (Y )
3 3
p ( xi ) log 2 ( xi ) = p ( yi ) log 2 ( yi )
i =1 i =1
p ( x2 ) = p ( x3 )
93
Rijesenje:
Primjeri
Na digitalnom sklopu za prikaz
simbola (7-segmenata) svi
simboli [0-9] pojavljuju se s
jednakom vjerojatnou. Tri
gornje oznake vie ne rade.
Izraunajte prosjenu
entropiju po jednom prikazu
na 7-segmentnom indikatoru
prije i poslje kvara.
p ( xi , y j ) = p ( xi ) p( y j | xi ) = p( y j | xi )
1
10
p ( y j ) = p ( xi , y j )
9
i =0
H ( X , Y ) = p ( xi , y j ) log 2 p ( xi , y j )
n m
n = 9; m = 5
i =0 j =0
H ( X ,Y ) = ?
2009.05.28 Zeljko Jericevic, Ph.D. 98