Professional Documents
Culture Documents
BURIMET DISKRETE
V1 V1
t t
V1 C V2
V2 V2
t t
-a- -b-
Në këtë mënyrë, shpejtësia Vi e transmetimit të impulseve është e kufizuar. Ajo jepet nga:
1 𝑖𝑚𝑝
𝑉𝑖𝑚𝑎𝑥 = 𝑟 [ 𝑠𝑒𝑘 ] (1.1)
𝑚𝑖𝑛
ku rmin është kohëzgjatja minimale e impulseve, për të cilën sigurohet njohja e sinjalit.
Le të marrim një burim me alfabet (A, B), i cili transmeton njoftimin ABAABABBA....
Shpejtësia 𝑉𝑥 (shenja/sek) e transmetimit të shenjave varet jo vetem nga shpejtësia 𝑉𝑖 (imp/sek),
por edhe nga numri i niveleve që mund të marrin impulse.
Kur impulset janë me dy nivele (0 dhe 1), secilit nivel i vëmë në korrespondencë njërën nga dy
shenjat: A=0, B=1. Në këtë rast:
𝑠ℎ 𝑠ℎ
𝑉𝑥 [ ] = 𝑉𝑖 [ ] (1.2)
𝑠𝑒𝑘 𝑠𝑒𝑘
Në rastin e impulseve me katër nivele (0; 1; 2 dhe 3), secilës dyshe shenjash i vëmë në
korrespondencë njërin prej niveleve: AA=0; AB=1; BA=2 dhe BB=3. Si rrjedhim, do të kemi:
𝑠ℎ 𝑠ℎ
𝑉𝑥 [ ] = 2 ∙ 𝑉𝑖 [ ] (1.3)
𝑠𝑒𝑘 𝑠𝑒𝑘
1
Arrijmë në përfundimin se me rritjen e numrit të niveleve të simboleve koduese, rritet shpejtësia
e transmetimit të gërmave.
𝐴 → 00 𝐴→1
𝐵 → 01 𝐵 → 01
𝐶 → 10 𝐶 → 001
𝐷 → 11 𝐷 → 000
-a- -b-
Fig. 1.3 a,b
Fjalët koduese duhet të jenë të ndryshme nga njëra-tjetra. Në rastin e fjalëve koduese me gjatësi
jokonstante duhet qe fjalët e shkurtra të mos jenë të njëjta me pjesën e fillimit të fjalëve më të
gjata. Kode të tilla quhen të deshifrueshme.
Për të pasur shpenzime minimale në transmetimin e njoftimeve është e nevojshme të njihen disa
të dhëna statistikore të vetë njoftimeve. Le të marrim burimin me alfabet (A, B, C, D) dhe një
njoftim tipik të tij ABCADBACD...
Analiza e rendit të parë. Nga njoftimi i dhënë shihet se shenjat shfaqen jo me të njëjtën
shpeshtësi (probabilitet). Supozojmë se probabilitetet e shfaqjes janë: P(A) = 0,6; P(B) = 0,2;
P(C) = 0,1; P(D) = 0,1. Po të përdorim kodin binar me gjatësi konstante,
𝑙 = 2 (𝑠𝑖𝑚𝑏𝑜𝑙𝑒 𝑘𝑜𝑑𝑢𝑒𝑠𝑒/𝑠ℎ𝑒𝑛𝑗ë) (fig. 1.3 a), koha T e transmetimit të një shenje do të jetë
𝑇 = 2 ∙ 𝜏.
Megjithatë, intuita thotë që shenjës më të shpeshtë t`i vëmë në korrespondencë fjalën koduese
më të shkurtër. Fitohet në këtë mënyrë kodi i figurës 1.3 b. Në këtë rast gjatesia mesatare (lmes) e
fjalës koduese është:
`
𝑠𝑒𝑘
𝑙𝑚𝑒𝑠 = ∑ 𝑙𝑘 ∙ 𝑝(𝑘) = 1.7 [ ] (1.4)
𝑠ℎ𝑒𝑛𝑗ë
𝑘
ku k = A, B, C, D.
2
Pra, duke marrë parasysh vetitë statistikore të burimit, fitohet një kod me gjatësi mesatare më të
vogël. Koha 𝜏 del 𝑇 = 1,7 𝑠.
Analiza e rendit të dytë. Le të marrim të gjitha dyshet e ndryshme AA, AB, BA etj. Që
formohen me shenjat e alfabetit. Supozojmë se njihen probabilitetet e shaqjes së këtyre dysheve.
Duke i vënë në korrespondencë dyshes më të shpeshtë fjalën më të shkurtër, fitohet një kod në të
cilin numri i simboleve koduese për shenjë del:
``
∑𝑘 𝑙𝑘 ∙ 𝑝(𝑘) 𝑠𝑒𝑘
𝑙𝑚𝑒𝑠 = = 1.58 [ ] (1.5)
2 𝑠ℎ𝑒𝑛𝑗ë
ku k=AA, AB, ...
Pra, kodimi me grupe, duke marrë parasysh të dhënat statistikore të burimit jep rezultate më të
mira se kodimi shenjë për shenjë. Problemi i një kodimi sa më të efektshëm përbën thelbin e
teorisë së informacionit.
2. Eksperimenti me një rezultat të vetëm duhet të sjellë medoemos një sasi informacioni të
barabartë me zero.
𝐼[𝑛 = 1] = 0 (1.9)
3
I vetmi funksion i argumentit n që kënaq të tre kushtet e mësipërme është funksioni logaritmik.
Pra, sasia e informacionit që merret nga eksperimenti me n rezultate, me kushtin që pas
eksperimentit të mungojë pacaktueshmëria, jepet nga:
𝐼 = 𝑐 ∙ 𝑙𝑜𝑔𝑎 𝑛 (1.11)
Në këtë rast, njësia e sasisë së informacionit quhet bit. Siç shihet nga (1.13), një bit është sasia e
informacionit që merret nga eksperimenti me dy rezultate me probabilitete të njëjta. Kur
rezultatet xi të eksperimentit shfaqen me probabilitete p(xi) atëherë madhësia 𝑙 𝑖 = − 𝑙𝑜𝑔2 𝑝(𝑥𝑖 )
është një madhësi e rastit.
Mesatarizimi i saj:
𝑛
𝑏𝑖𝑡
𝐻(𝑥) = − ∑ 𝑝(𝑥𝑖 ) ∙ 𝑙𝑜𝑔2 𝑝(𝑥𝑖 ) [ ] (1.15)
𝑠ℎ𝑒𝑛𝑗ë
𝑖
shpreh sasinë mesatare të pacaktueshmërisë para eksperimentit dhe quhet entropi. Entropia gëzon
këto veti:
4
H
1
0.5 p
0.5
Fig 1.4
Pra, pas eksperimentit mund të ekzistojë akoma një farë papërcaktueshmërie mbi rezultatin e
marrë. Le të marrim një sistem komunikimi si në figurën 1.5, në të cilin shenjat e transmetuara i
shënojmë me 𝑋 = (𝑥1 , 𝑥2 , … 𝑥𝑖 … 𝑥𝑛 ) ndërsa ato të marra me 𝑌 = (𝑦1 , 𝑦2 , … 𝑦𝑖 … 𝑦𝑛 ).
Shënojmë me 𝑃(𝑥𝑖 /𝑦𝑗 ) probabilitetin që të jetë transmetuar xi, kur dihet se është marrë yj. Në
mungesë të zhurmave kemi:
0 𝑝ë𝑟 𝑖 ≠ 𝑗
𝑃(𝑥𝑖 /𝑦𝑗 ) = { (1.16)
1 𝑝ë𝑟 𝑖 = 𝑗
Ndërsa ne prani te zhurmave kemi:
0 𝑝ë𝑟 𝑖 ≠ 𝑗
𝑃(𝑥𝑖 /𝑦𝑗 ) ≠ { (1.17)
1 𝑝ë𝑟 𝑖 = 𝑗
Pra, në prani të zhurmave ekziston një farë pacaktueshmërie 𝐻(𝑥𝑖 /𝑦𝑗 ) që të jetë transmetuar xi
kur dimë që është marrë yj:
Vështrues
Zhurma
5
1 1
2 2
1 1
X 3 3 Y
n n
Fig. 1.5
Madhësia 𝐻(𝑋/𝑌) është pacaktueshmëria mesatare që të jetë transmetuar X kur është marrë Y
dhe quhet entropia e kushtëzuar.
𝐻(𝑌, 𝑋) ≤ 𝐻(𝑌), ku shenja e barazimit ka vend atëherë kur rezultatet xi dhe yj janë të pavarura
për të gjitha i dhe j të mundshme.
6
𝐻(𝑌, 𝑋) = 𝐻(𝑋, 𝑌), domethënë sasia e informacionit që ndodhet me madhësinë e rastit Y për
madhësinë e rastit X është e barabartë me sasinë e informacionit që ndodhet në madhësinë e
rastit X për atë Y.
Për përcaktimin e sasisë së informacionit në rastin kur ekzistojnë zhurmat, njehsojmë entropinë e
kushtëzuar.
2 2
7
𝐻(𝑌, 𝑋) = 𝐻(𝑌) − 𝐻(𝑌/𝑋) = 1 − 0.081 = 0.919 𝑏𝑖𝑡
Një model mjaft i mirë i burimeve diskrete që takohen në praktikë, si p.sh, tekstet e shkruara
është i ashtuquajturi burimi ergodik. Le të shqyrtojmë njëkohësisht n
burime të njëjta (fig 1.6). Në këtë rast kemi të bëjmë me një bashkësi
njoftimesh apo me një proçes të rastit.
Shënojmë me 𝑛𝐴` , 𝑛𝐵` , … 𝑛𝑍` numrin e burimeve qe në një çast A japin
përkatësisht gërmat A, B, .....Z. Atëherë shprehjet:
` `
𝑛𝐴 𝑛𝐵
𝑝𝐴` = lim ; 𝑝𝐵` = lim ; … . . 𝑝𝑍` =
𝑛→∞ 𝑛 𝑛→∞ 𝑛
𝑛𝑧`
lim (1.21)
𝑛→∞ 𝑛
8
Quajmë burim ergodik atë burim, në të cilin probabiliteti i shfaqjes së një gërme apo fjale
varet nga një numër i fundëm gërmash apo fjalësh të mëparshme.
Quajmë burim ergodik të rendit r atë burim në të cilin probabiliteti i shfaqjes së një
shenje xj varet vetëm nga 𝑟 −𝑡𝑒 e mëparshme, domethënë:
Shprehja
𝑟
𝐻(𝑧) = − ∑𝑛𝑗−1 𝑝(𝑥𝑖 ) ∙ 𝑙𝑜𝑔2 (𝑥𝑖 ) (1.25)
nuk mund të përdoret për njehsimin e entropisë së burimit ergodik për 𝑟 ≥ 1, meqë gjatë marrjes
së këtij relacioni nuk u morrën parasysh lidhjet probabilistike ndërmjet shenjave. Supozojmë se
burimi ndodhet në gjendjen Sk. Ardhja e një shenje xj, me probabilitet 𝑃(𝑥𝑗 /𝑆𝑘 ), e dërgon
burimin në gjendjen Xl. Pacaktueshmëria se në cilën gjendje do të kalojë burimi, pra
pacaktueshmëria se cila shenjë do të prodhohet kur burimi ndodhet në gjendjen Sk, jepet nga
shprehja:
𝐻(𝑆𝑘 ) = − ∑𝑛𝑗=1 𝑝(𝑥𝑗 /𝑆𝑘 ) ∙ 𝑙𝑜𝑔𝑝(𝑥𝑗 /𝑆𝑘 ) (1.26)
𝐻(𝑋) = 〈𝐻(𝑆𝑘 )〉 = ∑𝑚
𝑘=1 𝑝(𝑆𝑘 ) ∙ 𝐻(𝑆𝑘 ) (1.27)
ose
𝑛
𝐻(𝑋) = − ∑𝑚
𝑘=1 ∑𝑗=1 𝑝(𝑥𝑗, 𝑆𝑘 ) ∙ log[𝑝(𝑥𝑗 /𝑆𝑘 )] (1.28)
9
Për këtë njehsojmë probabilitetin e kushtëzuar sipas formulës:
𝑝(𝑥𝑖 , 𝑥𝑗 )
𝑝(𝑥𝑖 /𝑥𝑗 ) =
𝑝(𝑥𝑗 )
xi / yj x1 / x2 x1 / x2 x1 / x3 x2 / x1 x2 / x2 x2 / x3 x3 / x1 x3 / x 2 x3 / x3
P(xi /yj) 0.25 0.4 1 0.5 0.6 0 0.25 0 0
Entropia e burimit, ku simbolet shfaqen me probabilitet të njëjtë dhe në mënyrë të pavarur nga
njëri-tjetri, është:
𝐻3 (𝑋) = log 3 = 1.58 𝑏𝑖𝑡
Pra, entropia e burimit varet nga karakteristikat e tij probabilistike; entropia është maksimale, në
qoftë se probabilitetet e simboleve janë të njëjta; entropia zvogëlohet kur simbolet paraqiten me
probabilitete të ndryshme; më në fund entropia zvogëlohet edhe më shumë kur ndërmjet
simboleve shfaqen lidhje probabilistike.
Për krahasimin e burimeve sipas informacionit të tyre, futet parametri tepricë R, që përcaktohet
si mëposhtë:
𝐻𝑚𝑎𝑥 (𝑋) − 𝐻(𝑋)
𝑅= (1.29)
𝐻𝑚𝑎𝑥 (𝑋)
Burimi, teprica e të cilit është 𝑅 = 0, quhet optimal. Të gjitha burimet reale kanë tepricë R ≠ 0.
Supozojmë se sasia e informacionit 𝐼0 merret si nga burimi real dhe nga ai optimal. Atëherë,
numri i simboleve n që duhet të jepen nga burimi real për të transmetuar sasinë e informacionit
𝐼0 , do të jetë më i madh se numri 𝑛𝑚𝑖𝑛 në rastin e burimit optimal.
Me të vërtetë
𝐼0 = 𝑛 ∙ 𝐻(𝑋) = 𝑛𝑚𝑖𝑛 ∙ 𝐻𝑚𝑎𝑥 (𝑋) (1.30)
nga ku
𝐻(𝑋) 𝑛𝑚𝑖𝑛
= ≤1 (1.31)
𝐻𝑚𝑎𝑥 (𝑋) 𝑛
10
dhe
𝑛 − 𝑛𝑚𝑖𝑛
𝑅= (1.32)
𝑛
Nga këto shprehje mund të nxjerrim se teprica rrit kohën e transmetimit. Një karakteristikë tjetër
e burimit të njoftimeve është fluksi i informacionit (shpejtësia e dhënies së informacionit). Gjatë
punës së burimit të njoftimeve, njoftimet shfaqen në dalje të tij gjatë një intervali kohe. Në qoftë
se kohëzgjatjen mesatare të një njoftimi e shënojmë me 𝑡𝑚𝑒𝑠 , atëherë fluksi 𝐻 ̅ (𝑋) i informacionit
përcaktohet me shprehjen:
𝐻(𝑋)
̅ (𝑋) =
𝐻 [𝑏𝑖𝑡/𝑠𝑒𝑘] (1.33)
𝑡𝑚𝑒𝑠
Shembull. Duke supozuar se sasia mesatare e informacionit e bartur nga një gërmë e një teksti
shqip është 3 bit të tregohet se kodi binar me 6 bit nuk është optimal për transmetimin e tekstit
shqip.
Zgjidhje. Entropia maksimale e burimit që përdor për transmetimin e alfabetit shqip kodin me t
bit është 𝐻𝑚𝑎𝑥 = 6 (𝑏𝑖𝑡). Teprica e një paraqitjeje të tillë të njoftimeve të burimit me entropi 3
bit është R=(6-3)/6=0.5. Në këtë mënyrë, gjatë transmetimit të tekstit shqip 50% e njoftimeve të
kodit është i panevojshëm.
Shembull. Burimi prodhon 3 simbole të ndryshme x1, x2, x3 me probabilitete 0.5, 0.3, 0.2. Janë
dhënë kohëzgjatjet e mundshme të simboleve τ1=10 sek, τ2=4 sek, τ3=2 sek.
Të zgjidhen kohëzgjatjet korresponduese të simboleve që jep burimi në mënyrë që fluksi i
informacionit të jetë maksimal.
Zgjidhje.
3
𝐻(𝑋) 1.49
̅ (𝑋) =
𝐻 =
𝑡𝑚𝑒𝑠 𝑡𝑚𝑒𝑠
𝑡𝑚𝑒𝑠 = ∑ 𝜏𝑖 𝑝(𝑥𝑖 )
𝑖=1
11
1.8 Kapaciteti i kanalit binar
Kanali i ndërlidhjes karakterizohet nga probabilitetet e kushtëzuara 𝑝(𝑦𝑗 /𝑥𝑖 ) të cilat mund të
paraqiten nëpërmjet një matrice P (matrica stokastike) me M rreshta dhe N kolona (në përgjithësi
𝑀 ≠ 𝑁).
Z=0 p W=0
1-p 1-p
Z=1 W=1
p
Fig. 1.7
merr formën:
𝑝 1−𝑝
𝑝=[ ]
1−𝑝 𝑝
Një karakteristikë kryesore e kanalit është kapaciteti i tij C, i cili përkufizohet si shpejtësia
maksimale e transmetimit të informacionit.
1
𝐶≜𝜏 ∙ max 𝐻(𝑋, 𝑌) [𝑏𝑖𝑡/𝑠𝑒𝑘] (1.37)
𝑚𝑖𝑛
12
Shembull. Në kujtesën e një komjuteri janë memorizuar 106 𝑏𝑖𝑡. Për transmetimin e këtij
informacioni përdoret një linjë simetrike binare. Shpejtësia teknike e transmetimit në linjën
ndërlidhëse është 𝑉 = 500000 𝑏𝑖𝑡/𝑠𝑒𝑘, ndërsa probabiliteti i gabimit është 𝑝𝐺 = 0.0035.
Të gjendet koha minimale e transmetimit të informacionit të memorizuar në kompjuter.
Zgjidhje. Sasia maksimale e informacionit, e bartur nga një simbol binar, i transmetuar në një
linjë simetrike është:
1
𝐶= ∙ 𝐼𝑚𝑎𝑥 = 𝑉 ∙ 𝐼𝑚𝑎𝑥 = 500000 ∙ 0.966 = 483000 𝑏𝑖𝑡/𝑠𝑒𝑘
𝑟𝑚𝑖𝑛
Teorema e parë e themelore mbi kodimin, për kanalin pa zhurma, e formuluar nga Shanon thotë
se në qoftë se burimi i njoftimeve ka entropi 𝐻(𝑋) [𝑏𝑖𝑡/𝑠ℎ𝑒𝑛𝑗ë], ndërsa kanali i ndërlidhjes ka
kapacitet 𝐶 [𝑏𝑖𝑡/𝑠𝑒𝑘] atëherë:
1 është gjithnjë e mundur që njoftimet e prodhuara nga burimi të kodohen në mënyrë të tillë
që shpejtësia 𝑉𝑥 e transmetimit të shenjave të jetë sa të duam, afër shpejtësisë maksimale
𝑉𝑚𝑎𝑥 :
𝐶
𝑉𝑥 𝑚𝑎𝑥 = 𝑠ℎ𝑒𝑛𝑗𝑎/𝑠𝑒𝑘 (1.41)
𝐻(𝑋)
2 nuk ekziston asnjë mënyrë kodimi për të cilën 𝑉𝑥 të dalë më e madhe se 𝑉𝑥 𝑚𝑎𝑥 .
Rëndësia e kësaj teoreme qëndron në faktin se jep kuptimin fizik të entropisë së burimit, si numri
minimal i simboleve binare që i takojnë një shenje.
Në qoftë se probabilitetet e njoftimeve nuk janë fuqi të plota negative të 2-shit, arritja e përpiktë
e numrit mesatar minimal të simboleve për shenjë është e pamundur por me anë të kodimit me
grupe mjaft të gjata mund t`i afrohemi sa të duam këtij kufiri.
Sado që teorema nuk tregon një mënyrë konkrete të ndërtimit të kodeve optimal, nga vërtetimi i
saj rrjedh se për arritjen e gjatësisë mesatare minimale të fjalës koduese duhet të synohet që
simbolet koduese të jenë barasprobabël dhe statistikisht të pavarura nga njëri-tjetri. Më poshtë
paraqiten dy mënyra të ndryshme të ndërtimit të kodeve, të cilat lejojnë t`i afrohemi
barasprobabilitetit dhe pavarësisë së simboleve koduese.
13
1.10 Kodet Shanon-Fano dhe Hafman
Kur mungon varësia statistikore ndërmjet shenjave, metoda e ndërtimit të kodeve optimal u dha
për herë të parë nga Shanon-Fano dhe Hafmani. Për formimin e kodit Shanon-Fano, veprojmë si
më poshtë:
të gjitha shenjat xi të alfabetit i shkruajmë në një tabelë sipas rendit zvogëlues të
probabiliteteve të tyre.
probabilitetet ndahen në grupe , në menyrë të tillë që shumat e probabiliteteve në çdo
grup të jenë mundësisht të barabarta.
të gjitha shenjave të grupit të sipërm u vihet në korrespondencë si simbol i parë kodues
simboli 1, ndërsa të gjitha shenjave të poshtme u vihet simboli 0.
secili nga grupet ndahet në dy grupet ndahet në dy grupe. Procesi përsëritet derisa në
secilin nëngrup të mbetet një shenjë
x1 P(x1) Kodi
x1 0.22 11 II
x2 0.20 101 III
x3 0.16 100 I
x4 0.16 01 IV
x5 0.10 001 V
x6 0.10 0001 VI
x7 0.04 00001 VII
x8 0.02 00000
Fig. 1.9
14
Kodi xi p(xi)
01 X1 0.22
00 X2 0.20 0.26 0.32 0.42 0.58 1
111 X3 0.16 0.22 0.26 0.32 0.42 0
110 X4 0.16 0.20 0.22 0.26
100 X5 0.10 0.16 0.20
1011 X6 0.10 0.10 0.16 0.16
10101 X7 0.04 0.06 0.10
10100 X8 0.02
Fig. 1.9
Duke lëvizur sipas pemës së kodit nga lart-poshtë, mund të shkruhen fjalët koduese për secilën
shenjë
a) Kur kodimi bëhet për çdo shenjë të veçantë, shenjës x1 i vihet në korrespondencë simboli
1, ndërsa shenjës x2 simboli 0. Gjatësia mesatare e fjalës koduese është:
15
𝑙𝑚𝑒𝑠 = 0.91 + 0.1 = 1
1
𝑙𝑚𝑒𝑠 = ∙ (1 ∙ 0.081 + 2 ∙ 0.09 + 3 ∙ 0.09 + 3 ∙ 0.01 = 0.645
2
16
c) Duke koduar grupet me 3 shenja secili fitohet
1
𝑙𝑚𝑒𝑠 = ∙ ∑ li pi = 0.533
3
𝐻(𝑋) 0.469
̅ (𝑋) =
𝐻 = = 890000 (𝑏𝑖𝑡/𝑠𝑒𝑘)
𝑙𝑚𝑒𝑠 ∙ 𝑟0 0.533 ∙ 10−6
𝑝(0) = 0.32
𝑝(1) = 1 − 0.32 = 0.68
𝑅𝑘 = 1 − 𝐻𝑘 = 0.096
Po të kodohen grupe me apo më shumë shenja, ne i afrohemi ende më shumë vlerave kufitare të
madhësive që njehsohen.
17
1.11 Kanali binar me zhurma, parime të përgjithshme të zbulimit dhe korrigjimit të
gabimeve
1 Kode me blloqe, te të cilat çdo shenje i vihet në korrespondencë një bllok (një fjalë koduese)
me n bit, ku bëjnë pjesë bitet e informacionit dhe bitet shtesë.
2 Kode të vijueshme quhen ato kode në të cilat futja e biteve shtesë në serinë e simboleve të
informacionit kryhet vazhdimisht pa e ndarë atë në blloqe.
Kodet me bit çiftësie. Në këto kode, fjalët koduese përmbajnë një bit shtesë, vlera e të cilit është
0, në qoftë se numri i njësheve është çift dhe 1 në rast të kundërt. Në skajin marrës, në qoftë se
fjala koduese ka numër çift njëshesh do të thotë se kanë ndodhur 0, 2, 4 ... gabime; përndryshe
kanë ndodhur numër tek gabimesh.
Largësia e kodit dhe aftësia korrigjuese e tij. Largësia d ndërmjet dy fjalëve koduese quhet
numri i biteve me të cilët ndryshon njëra fjalë nga tjetra. Largësia është numerikisht e barabartë
me numrin e njësheve në shumën modul 2 (XOR) të dy fjalëve koduese. Për shembull, largësia
ndërmjet fjalës A=010011 dhe B= 00110 është:
010011
╬ 000110
010101 (d=3)
Fjalët koduese me n bit le t’i paraqesim si kulme të një hiperkubi me brinjë një njësi në hapësirën
me n përmasa (fig. 1.10, n=3). Largësia d ndërmjet dy fjalëve koduese jepet nga numri minimal i
brinjëve të hiperkubit që duhen përshkuar për të kaluar nga njëra fjale tek tjetra.
Largësia e kodit 2k fjalë koduese me n bit secila (n ≥ k) quhet largësia minimale ndërmjet (2k/2)
dysheve të ndryshme të fjalëve koduese.
Supozojmë se largësia e kodit është d = 2r + 1. Atëhere, fjalët koduese Fi janë vendosur në
kulmet fi në largësi (2r + 1) të hiperkubit me n përmasa. Me qendër në këto kulme fi ndërtohen
sfera me rreze r=(d – 1)/2, të cilat nuk ndërpriten. Çdo gabim shumëfish ≤ r e dërgon fjalën
koduese në njërën prej fjalëve brenda sferës me qendër fi. Në këtë rast në skajin marrës mund të
themi me siguri se fjala koduese e transmetuar ka qenë Fi.
18
Si përfundim, mund të themi se kodi me largësi d= 2r + 1 është zbulues dhe korrigjues i rendit r.
Numri m i fjalëve që mund të kodohen me n bit, në mënyrë të tillë që kodi të dalë korrigjues i
rendit r jepet nga:
2𝑛
𝑚≤
1 + ∑𝑟𝑖=1(𝑖 𝑛 )
Teprica e kodit me n bit për fjalë koduese dhe k bit, informacioni përcaktohet nga:
𝑛−𝑘
𝑅𝑘 =
𝑘
Kode optimale quhen kodet që sigurojnë aftësinë korrigjuese të duhur, me tepricën minimale të
mundshme.
Teorema e dytë themelore e Shanonit i kushtohet kodimit në rastin e kanalit diskret me zhurma.
TEOREMË. Le të jetë dhënë një burim njoftimesh me entropi 𝐻(𝑋) dhe një kanal me kapacitet
C. Atëherë:
1 është gjithnjë e mundur që shenjat e prodhuara nga burimi, të kodohen në mënyrë të tillë që:
1. shpejtësia e transmetimit 𝑉𝑥 e tyre të jetë sa të duam afër shpejtësisë
𝐶
𝑉𝑥𝑚𝑎𝑥 = 𝐻(𝑋) (𝑠ℎ𝑝𝑒𝑗𝑡ë𝑠𝑖𝑎 𝑡𝑒𝑜𝑟𝑖𝑘𝑒).
2. Probabiliteti P i marrjes pa gabime të një shenje të jetë sa të duam afër njësisë
(P <1-ԑ)
2 Nuk ekziston asnjë mënyrë kodimi që të lejojë transmetimin me shpejtësi të madhe se 𝑉𝑥𝑚𝑎𝑥
dhe të sigurojë njëkohësisht probabilitet të vogël gabimi.
1 1
𝐶= [1 + 𝑝𝑙𝑜𝑔𝑝 + (1 − 𝑝) log(1 − 𝑝)] = 0.531 [𝑏𝑖𝑡/𝑠𝑒𝑘]
𝜏 𝑟
19
𝐶 1 𝑠ℎ
𝑉𝑥𝑚𝑎𝑥 = = ∙ 0.531[ ]
𝐻(𝑋) 2 𝑠𝑒𝑘
Për kodimin e shenjave përdorim kodim me largësi d=1 të paraqitur në figurën 1.11a. Në këtë
rast:
1. Shpejtësia 𝑉𝑥(𝑑=1) del 𝑉𝑥(𝑑=1) = 1/2 [𝑠ℎ/𝑠𝑒𝑘]
𝐴 → 00 𝐴 → 00000
𝐵 → 01 𝐵 → 00111
𝐶 → 10 𝐶 → 11101
𝐷 → 11 𝐷 → 11010
-a- -b-
Fig. 1.11 a, b
20