You are on page 1of 5

Національний університет “Львівська політехніка”

Кафедра”Системи автоматизованого проектування”

Мазур В.В.

Проблемно-орієнтовані методи і засоби інформаційних технологій

Конспект лекцій

Львів-2020
Методи оптимального кодування

Різновидності кодів.

По формі представлення в каналі передачі розрізняють послідовні і паралельні коди.


При послідовних кодах елементарні сигнали, що передають кодову комбінацію посилаються в
канал передачі послідовно в часі. Вони можуть бути розділені часовим інтервалом або
опитуватися в певні моменти часу (наприклад, як у послідовному інтерфейсі RS - 232 C).
Для паралельних кодів потрібні багатопровідні канали, тому при передачі інфрмації на
значну відстань вони використовуються рідко через великі затрати (наприклад, паралельний
інтерфейс Centronics). Паралельне представлення найчастіше використовується коли потрібна
висока швидкість передачі даних (Centronics – 80 – 120 Кбайт/сек, сучасні двонаправлені
системи – до 2 Мбайт/сек).
По можливості виявлення та виправлення помилок розрізняють прості (примітивні) і
коректуючі коди.
В простих кодах помилка у будь-якому елементі кодової комбінації приводить до
неправильного прийому декодованого повідомлення.
Коректуючі коди дозволяють виявляти і усувати помилки у кодових комбінаціях.
По основних законах кодоутворення коди поділяються на комбінаторні (нечислові) і
арифметичні (числові).
Комбінаторні коди будуються по законах теорії поєднань. Наприклад, код з m різних
символів утворює кодові комбінації з n<m символів. Довжина коду постійна і рівна n, а можлива
кількість кодових комбінацій
;
Наприклад, комбінації з 3 по 2: a, b, c =>ab, ac, bc.
Арифметичні (числові, цифрові) коди базуються на системах числення і найчастіше
використовуються в технічних системах.

Рівномірні прості цифрові коди.

Системи числення, на основі яких будуються цифрові коди, поділяються на позиційні і


непозиційні.
В позиційних сисмтемах значення символа залежить від його позиції в ряду символів, що
утворюють число. В непозиційних – ні. В позиційних системах значення кожного наступного
розряду більше від попереднього в m раз (m – основа системи чиселення).
При цьому будь-яке n-розрядне число може бути представлене у вигляді суми

де: lі - значення і-го розрядного коефіцієнта.


Кількість можливих значень lі рівна m (від 0 до m-1).
Приклад: чотирьохрозрядне десяткове число 4752=4*103+7*102+5*101+2*100.
Максимальна кількість кодових комбінацій Nmax=mn.
На практиці в технічних системах найчастіше використовуються двійкові коди

де: li = 0/1; Nmax = 2n;


N=2010=0*25+1*24+0*23+1*22+0*21+0*20 (0101002)
Двійковий код зручний для обробки машиною, однак для оператора громіздкий, тому
використовують вісімкову або шістнадцяткову системи з основою рівною 23 і 2 4 відповідно.

N=(0248)= (0000101002)

N=(01416)= (0000000101002)
Для запису шістнадцяткових чисел використовуються цифри 0-9 та букви А-F.

Складні коди.

Складні коди базуються на системах числення, що мають дві і більше основ. При такому
кодуванні числа, задані в системі з основою q, записуються за допомогою цифр іншої системи
числення з основою p<q.
Найбільш характерні двійково-десяткові коди. Вони використовуються як проміжні при
переводі десяткових у двійкові та навпаки.
У двійково-десятковій системі числення основна система числення десяткова. Однак
кожна цифра десяткового числа записується у вигляді чотирьохрозрядного двійкового числа.
Найбільш часто використовують чотирьохрозрядні двійкові вагові коди 8-4-2-1; 7-4-2-1; 5-
1-2-1; 2-4-2-1. Так як з 16 комбінацій використовують 10, то код – надлишковий.

Приклад:
8421 7421 5121 2421
0 0000 0000 0000 0000
1 0001 0001 0001 0001
2 0010 0010 0010 0010
3 0011 0011 0011 0011
4 0100 0100 0111 0100
5 0101 0101 1000 1011
6 0110 0110 1001 1100
7 0111 1000 1010 1101
8 1000 1001 1011 1110
9 1001 1010 1111 1111

Рефлексні (відбиті) коди.

У простому (двійковому) коді при переході від одного числа до сусіднього може бути
зміна цифр у кількох розрядах. Це може спричинити значні помилки при кодуванні неперервних
повідомлень. Так, наприклад, кодування секторним перетворювачем кута при переході від 7 до
8 (1112 => 10002) тимчасово може дати значення 1111 (помилка у 2 рази).
Для усунення цього явища використовують спеціальні двійкові коди, у яких при переході
від числа до числа міняється тільки один розряд. При цьому похибка за рахунок
неоднозначності зчитування не буде перевищувати одиниці цього числа.
Одним з таких кодів є код Грея. Це непозиційний код, вага одиниці якого не визначається
номером розряду. У цих кодах спостерігається симетричність відносно деякої осі відбиття –
тобто ідентичність молодших розрядів. Звідси - “рефлексний код” (reflect – відбивати). У коді
Грея вага одиниці у j-му розряді по абсолютній величині визначається формулою
Wj=

Причому знак сумованих членів додатній для всіх непарних одиниць в числі (записаних у
коді Грея зліва направо) і від’ємний для всіх парних
[1101101]г= - - + +
=64+32+16+8+4+2+1-32-16-8-4-2-1-8-4-2-1+4+2+1+1=57

двійковий код код Грея двійковий код код Грея


0 0000 0000 8 1000 1100
1 0001 0001 9 1001 1101
2 0010 0011 10 1010 1111
3 0011 0010 11 1011 1110
4 0100 0110 12 1100 1010
5 0101 0111 13 1101 1011
6 0110 0101 14 1110 1001
7 0111 0100 15 1111 1000

Оптимальне (ефективне) кодування.

Ентропія джерела повідомлень визначається формулою

де: - ймовірність появи xi з N символів алфавіту джерела. N – об’єм алфавіту


джерела.
Теорема Шенона для каналу без завад: в каналі зв’язку без завад можна так перетворити
послідовність символів джерела, що середня довжина символів коду буде як завгодно близька
до ентропії джерела повідомлень.
Ентропія H(x) виступає кількісною мірою різноманітності повідомлень джерела і є його
основною характеристикою. Ентропія джерела максимальна, якщо ймовірності повідомлень є
рівними. Якщо одне повідомлення достовірне, а інші неможливі, то H(x)=0. Одиниця виміру
ентропії – 1 біт. Це та невизначеність, коли джерело має однакову ймовірність двох можливих
повідомлень (0 або 1).
Ентропія H(x) визначає середню кількість двійкових знаків, необхідних для кодування
початкових символів джерела. Наприклад, для російських букв n=32=25. Якщо вони подаються
рівномірно і незалежні між собою, то H(x)<5. Для російського літературного тексту H(x)=1.5
біт, для віршів H(x)=1 біт, а для телеграм H(x)=0.8 біт. Це означає, що при певному способі
кодування на передачу букви може бути затрачено відповідно 1.5, 1, 0.8 двійкових символів.
Якщо символи нерівноімовірні і залежні, то ентропія буде менша від свого максимального
значення Нmax(x)=log2N. При цьому можливе деяке більш економне (ефективне) кодування, при
якому на кожен символ буде в середньому затрачено n*=H(x) символів коду. Коефіцієнт
надлишковості визначається такою формулою

Кнадл=1-H(x)/Hmax(x)

Для характеристики досягнутого стиснення використовують коефіцієнт стиснення

Кстисн=Lпочат/Lстисн
Можна показати, що Кнадл>Кстисн.
Різні методи оптимального кодування базуються на зменшенні надлишковості викликаної
неоднаковою апріорною ймовірностю символів або залежністю між порядком надходження
символів.
В першому випадку для кодування використовується нерівномірний код - більш ймовірні
символи мають коротший код, а менш ймовірні – довший.
В другому випадку переходять від кодування окремих символів до кодування їх груп. При
цьому здійснюється укрупнення алфавіту джерела, через те N зростає. Загальна надлишковість
укрупненого алфавіту при цьому не міняється. Однак, зменшення надлишковості обумовлене
зменшенням різниці ймовірностей різних груп символів. Таким чином, процес кодування
зводиться до двох операцій: укрупнення алфавіту і кодування оптимальним нерівномірним
кодом.
Стиснення буває із втратами і без втрат. Втрати допустимі при стисненні аудіо-та
відеоінформації (наприклад, MPEG - 20 до 1; MPEG3 - 100 до 1; TIFF - 10до 1 при 10% втрат,
100 до 1 при 20% втрат і т.д.).

You might also like