Professional Documents
Culture Documents
ГЛ 01укр PDF
ГЛ 01укр PDF
Частина 1
Основи теорії інформації
Київ
ІСЗЗІ КПІ ім. Ігоря Сікорського
2018
УДК 681.5:004.22
Л - 885
Розглянуто Вченою радою
ІСЗЗІ КПІ ім. Ігоря
Сікорського
(Протокол № 3 від
29.11.2018)
УДК 681.5:004.22
Л - 885
2
ВСТУП
3
загальним принципам системного аналізу та синтезу систем передачі
інформації.
Посібник складається з двох частин.
Перша частина “Основи теорії інформації” має два розділи. В ній
розглянуто способи математичного опису повідомлень, сигналів і завад,
описані їх основні характеристики. Розглянути основні теореми теорії
інформації.
В другій частині “Основи теорії кодування” викладені питання теорії
кодування сигналів.
Посібник призначений для студентів, курсантів і слухачів вищих
навчальних закладів, які навчаються за напрямом “Комп’ютерні науки”.
Викладений матеріал може бути корисний також інженерам-практикам, які
вирішують заповнити відсутні знання в галузі електрозв’язку при
підвищенні рівня своєї кваліфікації. Пропонований посібник може бути
також корисний аспірантам, ад’юнктам і здобувачам.
4
ВСТУП ДО ЧАСТИНИ І
5
РОЗДІЛ 1. ЗАГАЛЬНІ ВІДОМОСТІ ПРО СИСТЕМИ ПЕРЕДАЧІ
ІНФОРМАЦІЇ
6
Повідомлення можуть бути функціями часу, наприклад, промова при
передачі телефонних розмов, температура або тиск повітря при передачі
телеметричних даних, спектакль при передачі по телебаченню і т.п. В
інших випадках повідомлення не є функціями часу (наприклад, текст
телеграми, нерухоме зображення). Сигнал же завжди є функцією часу,
навіть якщо повідомлення таким не є.
Сьогодні зв’язок (тобто передача інформації від відправника до
одержувача) на великі відстані реалізується в основному за допомогою
електричних сигналів. Це пояснюється тим, що електричні сигнали можна
передавати на величезні відстані з дуже великою швидкістю (біля
3108 мс). Зв’язок за допомогою електричних сигналів називають
електрозв’язком. Електрозв’язок це передача, випромінювання і
приймання знаків, сигналів, письмового тексту, зображень і звуків або
повідомлень будь-якого роду електромагнітними системами.
Повідомлення у формі електричних сигналів передаються каналами
електрозв’язку. Канал електрозв’язку це сукупність технічних засобів і
середовища поширення, що забезпечує при підключенні кінцевих
абонентських пристроїв (КП-1, КП-2) передачу повідомлень за допомогою
електричних сигналів від відправника до одержувача. Структурна схема
каналу електрозв’язку зображена на рис. 1.1.
Лінія
КП-1 Передавач звязку Приймач КП-2
Рис. 1.1
Кінцеві пристрої призначені для перетворення повідомлення в
електричний сигнал (КП-1) при передачі і зворотного перетворення
прийнятого сигналу в повідомлення (КП-2) на приймальній стороні.
Первинні електричні сигнали, отримані на виході КП-1, є
низькочастотними і не можуть безпосередньо передаватися лінією зв’язку.
Тому канал електрозв’язку доповнюється передавачем та приймачем.
7
Передавач призначений для узгодження первинних сигналів із лінією
зв’язку. Приймач здійснює приймання сигналу, який надходить із лінії
зв’язку, і відновлює первинний сигнал.
Лінія зв’язку це сукупність фізичних електричних ланцюгів, що
мають спільне середовище поширення і використовуються для передачі
електричних сигналів від передавача до приймача.
У залежності від середовища поширення, яке застосовується, лінія
зв’язку може бути кабельною, радіорелейною, супутниковою і т.п.
В залежності від виду повідомлення структура каналу електрозв’язку
є різною: телефонний канал, телеграфний канал, канал передачі даних та
ін. Доцільно мати певний набір типових каналів електрозв’язку,
призначених для передачі сигналів стандартного виду. Такі канали
називають каналами передачі.
Канал передачі – це сукупність технічних засобів і середовища
поширення, що забезпечує передачу сигналів певного виду у визначеній
смузі частот або з визначеною швидкістю передачі.
Крім переданого сигналу в каналі завжди присутні інші випадкові
процеси різноманітного походження, які називають завадами. Наявність
завад викликає принципову неоднозначність при відновленні
повідомлення. Завада, що накладається на корисний сигнал, спотворює
його, тим самим піддаючи руйнації передану інформацію.
Спираючись на викладене вище, можна поставити такі вимоги до
електричних сигналів:
технічна простота формування на передачі й обробки при прийманні;
параметри сигналів повинні відповідати характеристикам каналу
зв’язку;
сигнали повинні мати стійкість до впливу завад;
сигнали повинні мати такі відносні властивості, щоб їх можна було
розпізнавати при прийманні серед інших сигналів (проблема
електромагнітної сумісності).
Визначимо параметри сигналу, які є основними з точки зору його
передачі. До таких параметрів можна віднести тривалість сигналу Тс, його
динамічний діапазон D і ширину спектра Fс.
8
Тривалість сигналу Тс визначає інтервал часу в межах якого існує
сигнал.
Динамічний діапазон D це відношення максимальної миттєвої
потужності сигналу до тієї найменшої потужності, яку необхідно
відрізнити від нуля при заданій якості передачі
Pc max
D 10 lg . (1.1)
Pc min
Наприклад, динамічний діапазон мовного сигналу дорівнює 25...30 дБ,
невеликого вокального ансамблю 46...65 дБ, симфонічного оркестру
70...95 дБ.
Ширина спектра сигналу Fс дає уявлення про швидкість зміни
сигналу на інтервалі його існування. Для будь-якого сигналу можна
зазначити діапазон частот, у межах якого зосереджена його основна
енергія. Цим діапазоном і визначається ширина спектра сигналу.
Добуток ширини спектра сигналу на його тривалість називають
базою сигналу
В = 2FсТс. (1.2)
База сигналу є максимальним числом незалежних параметрів, що
характеризують даний сигнал.
Сигнали з базою рівною або близькою до одиниці (В 1) називають
простими або вузькосмуговими. У системах зв’язку широке застосування
знаходять сигнали з базою істотно більшою від одиниці (В >> 1). Такі
сигнали називають складними або широкосмуговими.
Більш загальна і наочна характеристика об’єм сигналу
V = Тс FсD. (1.3)
Об’єм сигналу дає загальне уявлення про можливості даної множини
сигналів як носіїв повідомлень.
9
використовуватися у вузькому сенсі як сигнал, спеціально створюваний
для передачі повідомлення в інформаційній системі. Матеріальну основу
сигналу становить будь-який фізичний об'єкт або процес, званий носієм
(переносником) інформації (повідомлення). Носій стає сигналом в процесі
модуляції. Параметри носія, змінювані в часі відповідно до переданого
повідомлення, називають інформативними.
Як носій інформації використовуються коливання різної природи,
найчастіше гармонійні. У технічних інформаційних системах найбільш
широкого поширення набули носії у вигляді електричної напруги U(t) або
струму I(t). Тому, розглядаючи в подальшому моделі сигналів, будемо
співвідносити їх з електричними сигналами.
При вивченні загальних властивостей каналів зв'язку, сигналів і
завад необхідно абстрагуватися від їх конкретної фізичної природи, змісту
та призначення, замінюючи моделями. Модель – це обраний спосіб опису
об'єкта, процесу або явища, що відображає істотні з точки зору
розв'язуваної задачі фактори.
Питання підвищення ефективності функціонування інформаційних
систем пов'язані з встановленням кількісних співвідношень між основними
параметрами, котрі характеризують джерело інформації і канал зв'язку.
Тому при дослідженні використовують математичні моделі.
Фундаментальні дослідження базуються на методі аналітичного
моделювання, що полягає в створенні сукупності математичних
співвідношень, що дозволяють виявити залежності між параметрами
моделі в загальному вигляді. При цьому можуть використовуватися
моделі, параметри яких суперечать фізичним властивостям реальних
об'єктів. Наприклад, модель сигналу часто подається сумою нескінченного
числа функцій, що мають необмежену тривалість (синусоїд). Тому
важливо звертати увагу на умови, при яких це не заважає отримувати
результати, що будуть відповідати тім, що спостерігаються в дійсності.
Так як джерело повідомлень видає кожне повідомлення з певною
імовірністю, то передбачити точно, як будуть змінені інформативні
параметри, неможливо. Отже, сигнал принципово є випадковим
коливанням і його аналітичною моделлю може бути тільки випадковий
10
процес, який визначається імовірнісними характеристиками.
Проте, в разі детермінованого коливання умовно так само говорять
про детерміновані сигналі. Такий сигнал відображає відоме повідомлення,
яке немає сенсу передавати. Йому відповідає модель у вигляді функції,
повністю визначеної в часі.
Сигнали можна класифікувати за рядом ознак (рис. 1.2).
Сигнали
Детерміновані Випадкові
Неперервні Дискретні
Нескінченні Фінітні
Низькочастотні Високочастотні
Одновимірні Багатовимірні
Вузькосмугові Широкосмугові
Корисні Заважаючі
Рис. 1.2
За можливістю точного передбачення миттєвих значень сигналу в
будь-які моменти часу розрізняють детерміновані (регулярні) і випадкові
сигнали.
Детермінованим називають сигнал, математичним описом якого є
задана функція часу. Вивчення моделей детермінованих сигналів
необхідно з багатьох причин. Найважливіша з них полягає в тому, що
результати аналізу детермінованих сигналів є основою для вивчення більш
11
складних випадкових сигналів. Це обумовлено тим, що детермінований
сигнал може розглядатися як елемент множини детермінованих функцій,
що становлять у сукупності випадковий процес. Детерміноване коливання,
таким чином, є виродженою формою випадкового процесу зі значеннями
параметрів, відомими в будь-який момент часу з ймовірністю, яка
дорівнює одиниці.
Детерміновані сигнали мають і самостійне значення. Вони
спеціально створюються для цілей вимірювання, налагодження і
регулювання об'єктів інформаційної техніки, виконуючи роль еталонів.
До випадкових відносяться сигнали, миттєві значення яких
заздалегідь невідомі. Такі сигнали неможливо точно передбачати і
задавати аналітично. Аналітично можна виражати тільки їх
характеристики.
В залежності від множини можливих значень сигналів і їх подання за
часом розрізняють чотири основні види сигналів (рис. 1.3): неперервний за
станом і за часом (а); дискретний за станом і неперервний за часом (б);
неперервний за станом і дискретний за часом (в); дискретний і за станом і
за часом (г).
с(t)
с(t) с6
с5
с4
с3
с2
с1
0 t 0 t
а) б)
с(t) с(t)
с6
с5
с4
с3
с2
с1
0 t1 t2 t3 . . . tn-1 tn t 0 t1 t2 t3 . . . tn-1 tn t
в) г)
Рис. 1.3
12
Розглянуті сигнали можна віднести до аналогових або цифрових.
Під аналоговими сигналами розуміють сигнали, які описуються
функціями неперервного або дискретного часу і неперервною множиною
можливих значень. До них належать сигнали, зображені на рис. 1.3, а-в.
До цифрових сигналів належать сигнали дискретні за станом і часом
з однаковими часовими інтервалами (рис. 1.3, г). Термін «цифровий»
відображає можливість присвоєння кожному значенню сигналу певного
номера (цифри).
Можна також зробити класифікацію сигналів у залежності від виду
повідомлень, які передаються каналом електрозв’язку: телефонні сигнали,
сигнали радіомовлення, телеграфні сигнали, сигнали передачі даних,
телеметричні сигнали, факсимільні сигнали, телевізійні сигнали та ін.
Кожний із вказаних вище сигналів може бути віднесений до
аналогових або цифрових сигналів.
За тривалістю існування сигнали можна розділити на нескінченні і
фінітні, тобто сигнали з обмеженим часом існування.
За положенням спектрів сигналів на шкалі частот розрізняють
низькочастотні сигнали, спектр яких розташований в області звукових
частот (до кількох десятків кілогерц), і високочастотні сигнали, спектр
яких розташований вище області звукових частот.
Сигнали, що описуються однією функцією часу, прийнято називати
одномірними, але іноді зручно вводити в розгляд багатомірні сигнали
вигляду
A(t ) a1 (t ), a2 (t ), ..., an (t ) , (1.4)
13
заважаючи сигнали. Заважаючими називають сигнали, які для одержувача
повідомлень даної системи не несуть інформації і, відповідно, є завадою.
Далі класифікацію детермінованих і випадкових сигналів можна
проводити незалежно.
За характером зміни за часом детерміновані сигнали можна
розділити на періодичні і неперіодичні. Періодичні сигнали визначаються
аналітичним виразом вигляду
A(t ) A(t kT ) , (1.5)
14
рис. 1.4.
Завади
Природні Навмисні
Рис.1.4
15
одночасно як мультиплікативний і адитивний.
При одночасному впливі адитивної і мультиплікативної (1.8) завад
спотворений прийнятий сигнал має вигляд
Z (t ) xм (t ) A(t ) xа (t ) . (1.9)
За природою виникнення завади поділяються на навмисні (що
спеціально створюються за допомогою виділених для цієї мети технічних
засобів) і ненавмисні (природні).
Завади також розрізняються за своїми електричними і статистичними
характеристиками. У ряді випадків одне й теж коливання для однієї
системи передачі є сигналом, а для іншої завадою.
За способом створення розрізняють активні завади, які формуються
за допомогою пристроїв, що випромінюють електромагнітну енергію, і
пасивні навмисні завади. Пасивними називаються завади, що створюються
за рахунок ефекту зміни напрямку поширення, перевипромінювання
електромагнітних хвиль.
З точки зору боротьби із завадами технічними методами, у першу
чергу цікавлять їх спектрально-часові характеристики.
Як показує аналіз результатів досліджень, описаних у вітчизняній і
зарубіжній літературі, адитивні завади за електричною і статистичною
структурою можна розділити на три основних класи:
флуктуаційні,
імпульсні (зосереджені за часом),
вузькосмугові (зосереджені за спектром).
Флуктуаційна завада це неперервний випадковий процес у вигляді
суми нескінченно великої кількості елементарних коливань, які збуджуються
нерегулярною послідовністю короткочасних імпульсів, інтервал слідування
яких менше тривалості перехідних процесів у приймальному тракті.
Типовий приклад флуктуаційної завади внутрішні шуми приймача.
Причиною шумів є нерівномірність емісії електронних приладів, інжекції
носіїв у напівпровідникових приладах (діодах, транзисторах, інтегральних
мікросхемах), флуктуації зарядів у провідниках. Крім того, завада може
проникати в приймач ззовні. Флуктуаційна завада (ФЗ) має найбільший
руйнуючий вплив на корисний сигнал з таких причин:
16
вона завжди присутня у каналі зв’язку,
перекриває сигнал за часом та за спектром ( t з с , f з f с ),
добре апроксимує суму завад від інших численних джерел,
інші завади при проходженні через селективні пристрої приймача
часто одержують властивості флуктуаційної завади.
Флуктуаційну заваду можна записати в такому вигляді
B(t ) b(t ) cos(0t (t )) , (1.10)
де 2 дисперсія завади.
Обвідна флуктуаційної завади описується законом Релея (рис. 1.6.)
b2
b 2
p(b) 2 e 2 . (1.12)
Початкова фаза ФЗ розподілена за рівномірним законом в інтервалі
1
0...2 (рис. 1.7) p() . (1.13)
2
2 2 2 p()
p(b) 1 1 < 2
2
2
0 0
b
Рис. 1.6 Рис. 1.7
17
Імпульсна завада (ІЗ) є випадковою (неперіодичною) послідовністю
імпульсів, які збуджуються короткочасними ЕРС (рис. 1.8).
E(t)
0
t
B(t)
0
t
Рис. 1.8
18
внутрішнього згорання електричними проводами проходить короткий
імпульс струму, що призводить до випромінювання завад у діапазоні до
2...5 МГц.
Апарати дугового зварювання створюють імпульсні завади в трьох
частотних смугах із центральними частотами 750 кГц, 3 МГц і 20 МГц.
У лініях електропередачі причиною імпульсних завад є розряди на
ізоляторах, комутаційні процеси (перемикання ліній), коронування (пов’язане
з іонізацією повітря). Спектри таких завад займають смугу частот від 3 кГц до
десятків МГц.
Розподіл кількості імпульсів завади за одиницю часу
підпорядкований закону, близькому до закону Пуассона (рис. 1.9)
n0n e n0
p(n) p ( n) , (1.14)
n!
де n0 середнє число імпульсів завади
за одиницю часу.
0 У кожному конкретному
n0 n
випадку закон розподілу буде
Рис. 1.9
визначатися числом і характером
джерел ІЗ, типом каналу зв’язку тощо.
Вузькосмуговими (зосередженими за спектром) називають завади у
вигляді коливань з параметрами, які змінюються повільно або є
постійними в інтервалі тривалості сигналу.
Основна потужність вузькосмугових завад сконцентрована в смузі
частот, сумірних з шириною спектра корисного сигналу, тобто
t з с , f з f с . (1.15)
З точки зору впливу зосереджених за спектром завад на приймання
сигналу їх можна розділити на три види:
завади, спектр яких зосереджений у смузі частот, що цілком або
частково збігається зі смугою частот сигналу;
завади, спектр яких лежить поза смугою частот сигналу;
завади, спектр яких на вході приймального пристрою лежить поза
смугою частот сигналу, але в результаті нелінійних перетворень у
приймальному пристрої утворюються складові, що потрапляють у ту ж
19
смугу частот, що і сигнал.
Граничним випадком таких завад є гармонійне коливання.
Джерелами вузькосмугових завад є: сторонні радіостанції, у тому
числі станції радіозавад; генератори (промислові, медичні та інші) високої
частоти; взаємні (міжканальні) завади, що виникають внаслідок взаємодії
електромагнітних полів радіоелектронних засобів.
Між вузькосмуговими й імпульсними завадами існує співвідношення
двоїстості представленню вузькосмугової завади в частотній області
відповідає представлення імпульсної завади в часовій області і навпаки.
Контрольні запитання
20
РОЗДІЛ 2. ОСНОВИ ТЕОРІЇ ВИПАДКОВИХ ВЕЛИЧИН ТА
ПРОЦЕСІВ
21
Імовірність події визначається відносною частотою успішних
результатів випробувань. Якщо проведено N незалежних випробувань,
причому в n із них спостерігалася подія Ai, то вибіркова оцінка імовірності
P(Ai), яку можна одержати з цієї серії, дорівнює
n n
P( Ai ) lim
. (2.1)
N N N
Аналіз даного вище визначення імовірності дозволяє виявити такі
основні властивості імовірностей.
1. Імовірність випадкової події величина невідємна і не
перебільшує одиниці 0 P ( Ai ) 1.
2. Об’єднання всіх подій, що містяться в А, є достовірною подією
P( Ai ) 1.
Ai A
22
Ми будемо розглядати лише такі випадкові величини, для яких ця
границя існує в кожній точці х. Для таких величин імовірність попадання
значення Х в інтервал (х; х + dх) дорівнює
P( x X x dx) p( x)dx . (2.3)
За допомогою інтегрування можна знайти імовірність попадання
значення неперервної випадкової величини Х в будь-який інтервал (х1; х2)
x2
P( x1 X x2 ) p( x)dx. (2.4)
x1
23
Якщо Х може приймати будь-які значення, то F(x) є неспадною
функцією, значення якої лежать в інтервалі 0 ≤ F(x) ≤ 1.
В результаті проведення експерименту часто одержують середні
значення тих або інших функцій випадкових величин. Якщо (x) задана
функція від х (виходу випадкового випробування), то, за визначенням, її
середнє значення дорівнює
( x) ( x) p( x)dx .
24
У теорії імовірностей використовуються і центральні моменти
випадкових величин, що визначаються як
n n
Mn = ( x x ) (x x) p( x)dx . (2.10)
Важливим центральним моментом є дисперсія
σ 2x M 2 ( x x ) 2 Dx . (2.11)
Очевидно, що σ 2x ( x 2 2 x x x 2 ) x 2 x 2 .
0, x x1 ,
1
p( x) , x1 x x2 , (2.12)
x
2 x1
0, x x2 .
Знайдемо функцію розподілу імовірностей
p(x)
0, x x1 ,
1 x x x1
F ( x) p( x)dx , x1 x x2 ,
x2 x1 x 2 x1
1, x x2 .
0 x2 x1 x
x1 mx x2
2
Рис. 2.1
25
Математичне очікування дорівнює:
x2
1 x2 x1
x
x2 - x1
xdx 2
x1
p (x ) p (x ) 1 2
1
2
m 1= 0 m2 x 0 x
Р и с . 2 .2
Функція розподілу гауссівської випадкової величини дорівнює
( x m) 2
1 2σ 2
F ( x)
2 e dx . (2.14)
2πσ
26
xm
Заміна змінної t призводить її до вигляду
σ
xm
σ t 2
1 x m
F ( x)
2π
e 2 dt ,
σ
(2.15)
x t 2
1
де ( x) e 2 dt інтеграл імовірностей або функція Крампа.
2π
Графік функції F(x) має вигляд монотонної кривої, що змінюється від нуля
до одиниці (рис. 2.3).
1 F (x)
0 x
Р и с . 2 .3
dx dg
Py ( y ) Px ( x) Px ( g ( y )) , (2.16)
dy dy
де g(y) = x функція, обернена f(x) = y.
27
Якщо функціональний зв’язок між величинами Х і Y неоднозначний,
так що є кілька обернених функцій x1 = g(y), x2 = g2(y), …, xn = gn(y), то
можна записати
n
dxi
Py ( y) p( xi ) . (2.17)
i 1 dy
У теорії зв’язку використовують статистичне середнє виду
jυx jυx
Θ( υ) e p ( x )e dx , (2.18)
що називається характеристичною функцією випадкової величини Х.
З точністю до коефіцієнта функція Θ( υ) є перетворенням Фур’є (див.
главу 5) від щільності імовірностей і тому
1
p( x) Θ( υ)e jυx dυ . (2.19)
2 π
Ясно, що ту саму випадкову величину можна описувати як
характеристичною функцією, так і щільністю імовірностей. Вибір того або
іншого варіанта опису диктується зручностями обчислень.
Для випадкової величини з рівномірним розподілом на інтервалі
0≤x≤а
e jaυ 1
Θ( υ) ,
jaυ
а на інтервалі x1 ≤ x ≤ x2
e jυx2 e jυx1
Θ( υ) .
jυ( x 2 x1 )
Для випадкової гауссівської величини з заданими параметрами (m і )
σ 2 υ2
jmυ
2
Θ( υ) e .
d n Θ( υ) n n
j x p( x)e jυx dx .
n
dυ
28
Якщо вважати υ 0, знайдемо
m n j n Θ (n) (0) . (2.20)
29
σ12 ( x1 x1 )
2
p( x1 , x 2 )dx1dx2 ,
σ 22 ( x2 x2 )
2
p( x1 , x 2 )dx1dx2 .
В порівнянні з одновимірним випадком є можливість утворювати
змішаний момент другого порядку коваріаційний момент системи двох
випадкових величин
k12 X 1 X 2 x1x2 p( x1, x2 )dx1dx2 . (2.24)
30
Випадковий процес можна записати у вигляді функції двох
аргументів часу t і елементарної події
X (t ) (t , ω), ω A, t T , X (t ) S , (2.26)
де елементарна подія; А простір елементарних подій; Т область
(множина) значень аргументу t функції Х(t); S множина можливих
значень випадкового процесу Х(t) (простір станів).
Припустимо, що дослід, у ході якого випадковий процес протікає так
чи інакше, вже зроблений, тобто відбулася елементарна подія A. Це
означає, що залежність випадкового
X (t) процесу від t прийняла цілком
визначений вид. Це вже звичайна
невипадкова функція аргументу t.
Невипадкову функцію х(t), в яку
0
t = t1 t перетворюється випадковий процес
X (t)
Х(t) у результаті досліду, називають
реалізацією випадкового процесу.
Користуючись формулою
(2.27), можна записати реалізацію як
0
X (t) t = t1 t функцію від аргументу t, що
змінюється в межах множини Т, при
фіксованій події = 0
X(t) = (t, 0), t T. (2.27)
0
t = t1 t Будь-яка реалізація х(t)
належить множині S можливих
Р и с . 2 .4
x ( t) x 1 ( t) значень випадкового процесу Х(t):
x(t) S.
Множина реалізацій xk(t)
випадкового процесу X(t)
x k( t) x 2 ( t) називається ансамблем (або
сімейством) реалізацій (рис. 2.5).
0 t Ансамбль реалізацій
Р и с . 2 .5
випадкового процесу це основний
31
експериментальний матеріал, на основі якого можна одержати
характеристики випадкового процесу.
Основні ознаки, за якими розрізняються випадкові процеси,
стосуються природи простору станів S і часового параметра Т.
Випадковий процес X(t) називають процесом з дискретним часом,
якщо система, у якій він протікає, може змінювати свій стан тільки в
моменти часу t1, t2, … tj, …, що утворюють дискретну множину.
Якщо випадковий процес Х(t) розглядається в будь-який момент t
деякого проміжку часу, то такий процес називається процесом з
неперервним часом.
Процес Х(t) називається процесом з неперервною (дискретною)
множиною значень, якщо будь-який його переріз є неперервна (дискретна)
випадкова величина.
Таким чином, у залежності від характеру зміни часу t і множини
значень S усі випадкові процеси можна розділити на чотири класи:
1. Процеси з неперервним часом і неперервною множиною значень.
2. Процеси з неперервним часом і дискретною множиною значень.
3. Процеси з дискретним часом і неперервною множиною значень.
4. Процеси з дискретним часом і дискретною множиною значень.
32
F(x1) = P{X(t1) < x1}. (2.28)
Функція розподілу імовірностей має такі властивості.
1. Імовірність того, що випадкова величина X(t1) буде знаходитися
нижче рівня x1 = ∞ дорівнює: F(∞ , t1) = P[X(t1) < ∞] = 0.
2. Імовірність того, що випадкова величина X(t1) буде знаходитися не
вище рівня x1 = +∞ дорівнює: F(+∞ , t1) = P[X(t1) < +∞] = 1.
3. Функція розподілу імовірностей F(x1, t1) є неспадною функцією:
F1 ( x1, t1 ) F1 ( x1 , t1 ) при x1 x1 .
4. Імовірність того, що випадкова величина X(t1) знаходиться у
визначених межах, дорівнює різниці значень функції розподілу
імовірностей при верхній і нижній межах
P[ x1 X (t ) x1] F ( x1, t ) F1 ( x1 , t ) .
Більш повною характеристикою є багатомірний закон розподілу.
Багатовимірною функцією розподілу Fn ( x1 , ..., xn ; t1 , ..., t n )
випадкового процесу Х(t) називається функція розподілу системи n будь-
яких його перерізів Х(t1, …, tn):
Fn ( x1 , ..., xn ; t1 , ..., t n ) P( X (t ) x1 , ..., X (t ) xn ) . (2.29)
З функції розподілу імовірностей вищого порядку можна одержати
функцію розподілу нижчого порядку. Так, із двовимірної функції
розподілу можна одержати одновимірну, якщо прийняти x2 = 0:
P[ X (t1 ) x1; X (t 2 ) ] F2 ( x1 , x2 ; t1 , t 2 ) F1 ( x1 , t1 ) . (2.32)
Поряд з інтегральною функцією розподілу в теорії електрозв’язку
широко використовується диференціальна функція або одновимірна
щільність імовірностей перерізу випадкового процесу
F ( x1 , t1 )
p( x1 , t1 ) P{x1 x(t1 ) x1 x) , (2.30)
x1
яка характеризує імовірність попадання випадкової величини X(t1) у
проміжок (x1, x1 +∆x), якщо ∆x0 (рис. 2.6).
33
p(x)
0 x1 x1+x t
Рис. 2.6
x1
F1 ( x1 , t1 ) p1 ( x1, t1 )dx1 . (2.31)
34
знати одновимірний закон розподілу або навіть тільки числові
характеристики перерізів і реалізацій.
Взаємні функції розподілу імовірностей випадкових процесів.
Дотепер розглядався тільки один випадковий процес X(t), для якого треба
було обчислити щільність і функцію розподілу імовірностей n-го порядку
рn(x1, …, xn; t1, …, tn) і Fn (x1, …, xn; t1, …, tn).
Одночасно можна розглядати два випадкових процеси X(t) і Y(t), які
можуть бути пов’язані між собою статистично.
Найпростішими характеристиками таких процесів є двовимірні
взаємні функції розподілу імовірностей у довільний момент часу t1,
наприклад
F2(x1, y1, t1) = P[X(t1) ≤ x1; Y(t1) ≤ y1]. (2.34)
Цей вираз визначає імовірність поєднання двох таких подій:
1. Випадковий процес X(t1) у момент t1 знаходиться не вище рівня x1.
2. Випадковий процес Y(t1) у той же момент часу знаходиться не
вище рівня y1.
Функція (2.34) називається взаємною функцією розподілу
імовірностей.
Якщо функції X(t1) і Y(t1) взаємозалежні, то
F2(x1, y1, t1) = P[X(t1) < x1] Px (t1 ) x1 [Y(t1) < y1], (2.35)
35
Взаємні закони розподілу характеризуються двовимірною функцією
розподілу імовірностей F2(x1, y2; t1, t2) і щільністю розподілу імовірностей
р2(x1, y2; t1, t2). Якщо розглянуті процеси є статистично незалежними, то
р2(x1, y2; t1, t2) = p(x1, t1)p(y2, t2). (2.37)
Властивості взаємних функцій розподілу імовірностей аналогічні
властивостям двовимірних функцій розподілу. Зокрема
x1 y1
F2 ( x1, y1, t1 ) p2 ( x, y, t1 )dxdy. (2.38)
Процеси, що підпорядковуються умові (2.37), називаються
процесами з взаємно незалежними перерізами.
36
Початковий момент першого порядку називається математичним
очікуванням випадкового процесу в момент t1
~
m1[ X (t1 )] X (t1 ) x1 p1 ( x1 , t1 )dx1 a(t1 ) . (2.40)
Математичне очікування має ту ж розмірність, що і значення
випадкового процесу. Воно визначає деяку середню функцію, біля якої
групуються всі можливі реалізації випадкового процесу. У загальному
випадку математичне очікування випадкового процесу m1[ X (t1 )]
неоднакове для різних моментів часу і є функцією параметра t.
Центральні моменти розподілу можна визначити як
M 2 [ X (t1 )] m2 [ X (t1 ) a(t1 )] [ x1 a(t1 )]2 p1 ( x1 , t1 )dx1
(2.42)
σ 2 (t 2 ) m2 [ X (t1 )] m12 [ X (t1 )].
Дисперсія характеризує потужність флуктуацій випадкового процесу
в довільному перерізі і має розмірність квадрата одиниці виміру значень
випадкового процесу.
Математичне очікування і дисперсія не відображають зв’язок між
значеннями випадкового процесу X(t) у різноманітні моменти часу t1 і t2. У
цьому випадку використовуються моментні і кореляційні функції.
Двовимірна моментна функція має вигляд
M 2 (t1 , t 2 ) M 2 [ X (t1 ) X (t 2 )] m2 {[ X (t1 ) a(t1 )] [ X (t 2 ) a(t 2 )]}
(2.43)
[ x1 a(t1 )][ x2 a(t 2 )] p2 ( x1, t1; x2 , t 2 )dx1dx2 .
Якщо випадкові величини незалежні, то М2 = 0.
37
При нульових середніх значеннях випадкових величин двовимірна
моментна функція переходить у кореляційну функцію для двох
випадкових процесів X(t) і Y(t), які розглядаються у довільні моменти часу
Rxy (t1 , t 2 ) m2 [ X (t1 )Y (t 2 )] x1 y2 p2 ( x1, t1; x2 , t 2 )dx1dy2 . (2.44)
Таким чином, кореляційна функція описує степінь взаємної
статистичної залежності значень випадкового процесу в різноманітні
моменти часу.
38
Функція R( τ) є ненормованою кореляційною функцією
стаціонарного процесу Х(t).
R τ
Відношення r τ називається нормованою кореляційною
R0
функцією. Ця функція має ті ж властивості, що і кореляційна функція.
6. Залежність між процесами X(t) і X(t + ) при зростанні слабшає, а
при τ ці значення стають незалежними
lim R( τ) R() lim ( X (t ) X (t τ)) 0 .
τ τ
R () R ()
1
0 ,0 5
0 - τ 0 - τ 0 0 τ 0 τ 0
Р и с . 2 .7
39
Для багатьох задач кореляційна функція є достатньо повною
характеристикою стаціонарного випадкового процесу. Розділ теорії,
заснований на вивченні математичного очікування і кореляційної функції,
називається кореляційною теорією, або кореляційним аналізом випадкових
процесів.
У рамках кореляційної теорії вважають, що математичне очікування і
дисперсія стаціонарного випадкового процесу являються постійними
величинами, а кореляційна функція залежить тільки від . Такі стаціонарні
процеси називаються стаціонарними в широкому розумінні.
Функції розподілів перерізів стаціонарних випадкових процесів не
залежать від t, тобто F ( x, t1 ) F ( x, t1 τ) або p ( x, t1 ) p ( x, t1 τ) для
довільних t1 , τ і t2.
Тому надалі можна записувати одновимірні функції розподілу у
вигляді F(x) і р(x), тобто без t.
У стаціонарних випадкових процесів математичне очікування і
дисперсія незмінні в часі, а кореляційна функція залежить лише від різниці
моментів часу і є парною функцією
R( τ) m2 [ X (t ) X (t )] [ X (t τ) X (t τ)], R( τ) R( τ) .
40
T
1
xt xt dt . (2.46)
2T T
Для визначення математичного очікування на нескінченному
інтервалі спостереження
1 T
xt lim xt dt . (2.47)
T 2T
T
Визначимо кореляційну функцію
1 T
Rτ x1 x2 p2 x1 , x2 , τ dx1dx2 lim xt xt τ dt , (2.48)
T 2T
T
41
Рис. 2.8
підмножину стаціонарних випадкових процесів, а в підмножині
стаціонарних випадкових процесів можна виділити підмножину
ергодичних випадкових процесів.
Це пояснює діаграма, яка зображена на рис. 2.8.
42