Professional Documents
Culture Documents
INFORMACIJSKIH TEHNOLOGIJA
Zavod za komunikacije
Teorija informacije
Laboratorijska vježba broj 2
Zadatak ove vježbe je pomoću Matlab-a izračunati entropiju skupa događaja te grafički
prikazati ovisnost entropije o vjerojatnosti nekog događaja.
Informaciju primamo ako saznamo za događaj čiji nastup nije bio unaprijed određen.
Određenost nastupa nekog događaja se može mjeriti njegovom vjerojatnošću. Što je događaj
vjerojatniji, to ćemo manje informacije primiti nakon što se on dogodi.
Veći dio informacija kojima se koristimo izražava se nekim «jezikom» kojem vladaju
određene statističke zakonitosti. Razmotrit ćemo jednostavniji slučaj, gdje se informacije
izražavaju pomoću n simbola xi, čije su relativne frekvencije pojavljivanja međusobno nezavisne
i u potpunosti se određuju apriornim vjerojatnostima p(xi). Skup svih simbola je potpun iz čega
proizlazi relacija:
∑ p( x i)=1
i=1
(1)
Budući da ćemo promatrati realne sustave, sastavljene od realnih blokova, zbog toga ćemo
morati uzeti u obzir djelovanje smetnji i slučajnih izobličenja. Zbog toga simboli xi i yj neće biti
pridruženi jednoznačno, tj. Isti simbol xi može prijeći u različite simbole yj, i obrnuto, yj može
biti rezultat različitih predanih simbola xi. Prema tome, možemo govoriti o vjerojatnostima
istovremene pojave parova (xi, yj), tj o združenim vjerojatnostima p(xi, yj) pojave simbola yj na
izlazu i simbola xi na ulazu. Prema teoremu o množenju vjerojatnosti, možemo napisati:
m
p ( x i )=∑ p( x i, y j) (3)
j=1
n
p ( y j )=∑ p ( x i , y j ) (4)
i=1
n m
∑ p( x i)=¿ ∑ p ( yj)=1 ¿
i=1 j =1
(5)
p( xi , y j)
p( x i / y j )=
p(x i, y j)
p ( y ¿¿ j)= m ¿ (6)
∑ p ( x i , y j)
i=1
Uzajamni sadržaj informacije možemo definirati kao logaritam odnosa aposteriorne vjerojatnosti
p( x i / y j )i apriorne vjerojatnosti p ( x i ) :
p( x i / y j )
I ( x i ; y j ) =log (7)
p( x i)
IZRADA VJEŽBE
p(x1)=0.3, p(x2)=0.7
p(yj / xi) y1 y2 y3
x1 1/25 20/25 4/25
x2 20/25 2/25 3/25
Tablica 1: Uvjetne vjerojatnosti