Professional Documents
Culture Documents
Saber 5
Saber 5
І.В. Новицький
С.А. Ус
Випадкові процеси
Навчальний посібник
Дніпропетровськ
НГУ
2011
УДК 519.216/217(075.8)
ББК 22.171я73
Н73 Рекомендовано редакційною радою НГУ як
навчальний посібник з дисципліни «Випадкові процеси»
для студентів напряму підготовки 6.040303 Системний
аналіз (протокол № 9 від 2.09.2010 ).
Рецензенти:
Д.Г. Зєлєнцов, д-р техн. наук, професор (Український державний хіміко-
технологічний університет, завідувач кафедри інформаційних технологій і
вищої математики);
В.Д. Ламзюк, канд. фіз.-мат. наук, доцент (Дніпропетровський
національний університет, завідувач кафедри математичного моделювання).
Новицький І.В.
Н73 Випадкові процеси. [Текст], навчальний посібник / І.В. Новицький,
С.А. Ус. – Д.: Національний гірничий університет, 2011. – 125 с.
УДК 519.216/217(075.8)
ББК 22.171я73
І.В. Новицький, С.А. Ус, 2011
Національний гірничий університет, 2011
Зміст
Вступ ................................................................................................................................... 4
РОЗДІЛ 1. ОСНОВНІ ПОНЯТТЯ ТЕОРІЇ ВИПАДКОВИХ ПРОЦЕСІВ ........... 6
§ 1.1. Поняття про випадкову функцію ...................................................................... 6
§ 1.2. Характеристики випадкових функцій ............................................................... 9
§ 1.3. Визначення характеристик випадкової функції ............................................. 16
§ 1.4. Проходження випадкових функцій через динамічну систему....................... 18
§ 1.5. Лінійні оператори й перетворення ВФ лінійною динамічною системою ..... 20
§ 1.6. Додавання випадкових функцій ...................................................................... 24
§ 1.7. Канонічні розкладання ВФ .............................................................................. 26
§ 1.8. Проходження ВФ, заданої канонічним розкладанням, через лінійну
динамічну систему ..................................................................................................... 30
Висновки .................................................................................................................... 33
Питання для самоконтролю ...................................................................................... 34
Задачі до розділу 1 ..................................................................................................... 35
Задачі для самостійного розв’язування .................................................................... 36
РОЗДІЛ 2. СТАЦІОНАРНІ ВИПАДКОВІ ПРОЦЕСИ (СВП) ....................................... 41
§ 2.1. Поняття про СВП ............................................................................................. 41
§ 2.2. Ергодична властивість СВП ............................................................................ 43
§ 2.3. Визначення характеристик ергодичного СВП на основі однієї реалізації .... 46
§ 2.4. Спектральне розкладання СВП на скінченному проміжку часу. ................. 48
§ 2.5. Спектральне розкладання СВП на нескінченному часовому інтервалі. ....... 51
Спектральна щільність .............................................................................................. 51
§ 2.6. Моделі функції спектральної щільності. Білий шум..................................... 57
§ 2.7. Спектральне розкладання ВФ у комплексній формі ...................................... 60
§ 2.8. Перетворення СВП стаціонарною лінійною системою ................................. 64
§ 2.9. Поняття про задачі аналізу й синтезу динамічних систем ............................ 70
Висновки .................................................................................................................... 76
Питання для самоконтролю ..................................................................................... 77
Задачі до розділу 2 ..................................................................................................... 78
Задачі для самостійного розв’язування .................................................................... 82
РОЗДІЛ 3. ВИПАДКОВІ ПРОЦЕСИ, ХАРАКТЕРНІ ЛІЧИЛЬНОЮ МНОЖИНОЮ
СТАНІВ ............................................................................................................................ 86
§ 3.1. ВП як зміна стану системи .............................................................................. 86
§ 3.2. Ланцюги Маркова ............................................................................................ 87
§ 3.3. Потоки подій. Найпростіший потік ................................................................ 94
§ 3.4. Марковські дискретні процеси, характерні неперервним часом. ............... 100
§ 3.5. Марковські процеси типу «загибель – розмноження». ................................ 106
Висновки .................................................................................................................. 112
Питання для самоконтролю .................................................................................... 112
Задачі до розділу 3 ................................................................................................... 113
Задачі для самостійного розв’язування .................................................................. 119
Список скорочень........................................................................................................... 121
Список літератури .......................................................................................................... 121
Предметний покажчик ................................................................................................... 122
3
Вступ
4
Теорія випадкових функцій продовжує активно розвиватися, оскільки в
багатьох практичних задачах системного аналізу й теорії керування потрібно
враховувати випадкові фактори саме в динаміці, тобто зважати на їхню
мінливість у процесі випробування.
Мета даного навчального посібника ознайомити студента з основами
теорії випадкових процесів, виробити в нього навички застосування
ймовірнісних методів при розв’язуванні практичних задач і моделюванні
реальних процесів.
Структурно посібник являє собою три розділи. У першому розглянуто
основні поняття теорії випадкових процесів. Другий розділ присвячено
стаціонарним випадковим процесам, третій – випадковим процесам,
характерним лічильною множиною станів. Кожний розділ супроводжується
задачами для самостійного розв’язування і питаннями для перевірки засвоєння
теоретичного матеріалу.
Книгу розраховано на осіб, що засвоїли курс математики в межах
вузівської програми, вона стане у пригоді студентам технічних спеціальностей і
тим, хто використовує ймовірнісні методи при розв’язуванні практичних задач.
5
РОЗДІЛ 1
X(t)
x1(t)
x2(t)
xn(t)
0 t = t0 t
Рис. 1.1. Криві реалізацій випадкової функції X(t): x1(t), x2(t) … xn(t)
6
У практиці нерідко спостерігаються ВФ, аргументом яких є час. Такі ВФ
називаються випадковими процесами.
Крім того, ВФ можуть залежати від кількох аргументів. Наприклад,
температура повітря в даній місцевості є ВФ чотирьох аргументів – трьох
просторових і часу. Далі ми будемо вивчати тільки ВФ одного аргументу.
Розглянемо ВФ X(t). Нехай унаслідок n випробувань отримано її
реалізації x1(t), x2(t), …, xn(t). Конкретне випробування перетворює ВФ X(t) на
невипадкову функцію, тобто на одну зі своїх реалізацій.
Зафіксуємо деяке значення аргументу: t = t0. Тоді ВФ перетворюється на
випадкову величину X(t0), яка називається розрізом ВФ для аргумента: t = t0.
Тобто ВФ X(t) об’єднує в собі властивості випадкової величини й функції.
Зобразимо умовно ВФ на деякому відрізку зміни аргументу t і розглянемо
відліки для дискретних значень t0, t1, ... tm. Для кожного значення аргументу tj
(j = 0, m ) будемо мати відповідний розріз ВФ: X(t1), X(t2) … X(tm) ... (рис. 1.2).
X(t)
t0 t1 t2 t3 tm t
7
Приклади таких випадкових процесів: число відмов технічного пристрою
від початку роботи до моменту t; броунівський рух частинки в полі зору
мікроскопа; кількість N(t) хворих у місті в період епідемії на момент часу t.
Випадковий процес називається процесом, який характеризується
неперервними станами, коли його розрізом у будь-який момент часу t є
неперервна випадкова величина.
Приклади таких випадкових процесів: напруга U(t) в електромережі у
момент часу t; тиск газу P(t) у даному резервуарі в момент t; параметри, які
характеризують у момент t стан космічної ракети, що виводиться на орбіту
(багатовимірний випадковий процес із неперервними станами).
Таким чином, усі випадкові процеси ми можемо поділити на такі чотири
класи:
1. Процеси, характерні дискретними станами і дискретним часом.
2. Процеси, характерні дискретними станами і неперервним часом.
3. Процеси, характерні неперервними станами і дискретним часом.
4. Процеси, характерні неперервними станами і неперервним часом.
Що ж являє собою закон розподілу ВФ?
Очевидно, що набір m розрізів буде являти собою систему m випадкових
величин і ця система повинна описуватися m-вимірним законом розподілу
ймовірностей.
Розглянемо деякий розріз ВФ X(t) для аргументу t. Ця випадкова
величина в загальному випадку залежить від значення t і має закон розподілу
ƒ(x, t). Функція ƒ(x, t) називається одновимірним законом розподілу ВФ. Вона
повністю описує кожний окремий розріз, але не дає повного опису випадкової
функції. Наприклад, неможливо виконувати над випадковою функцією
операції, для яких потрібен сумісний розгляд сукупності розрізів, знаючи
тільки вигляд одновимірної щільності розподілу, оскільки вона не дає
інформації про зв'язок між розрізами ВФ. Із цього погляду більш повною
характеристикою ВФ є двовимірний закон розподілу ƒ(x1, x2, t1, t2), який
виступає результатом сумісного розгляду двох розрізів ВФ X(t): Х1 = Х(t1) та
Х2 = Х(t2), тобто вивчення системи двох випадкових величин (Х1, Х2). Але цей
закон розподілу також не дає повного опису будь-якого випадкового процесу
(він достатній для опису нормально розподіленої випадкової функції або
марковського випадкового процесу). Тоді виникає необхідність розглядати
тривимірні ƒ(x1, x2, x3, t1, t2, t3), чотиривимірні й т. д. функції розподілу. Взагалі,
щоб повністю описати випадкову функцію (або випадковий процес) необхідно
розглядати нескінченновимірний закон розподілу або хоч би n-вимірний.
Оскільки такий спосіб вивчення випадкових функцій дуже громіздкий, то на
практиці він застосовується лише в окремих випадках (наприклад, ƒ(x1, x2, t1, t2)
– для опису процесів без післядії). Звичайно ж опис ВФ виконується за
допомогою найпростіших її характеристик (моментів), аналогічних
характеристикам випадкової величини.
8
Кореляційною теорією ВФ називають теорію, що базується на вивченні
моментів першого та другого порядку. Ця теорія дає змогу розв’язувати багато
практичних задач.
m(t0)
X(t)
mx(t)
t0 t
9
3. Математичне сподівання суми двох випадкових функцій дорівнює сумі
математичних сподівань доданків:
Відповідь: m(t) = e – t а.
10
Дисперсією випадкової функції X(t) називається невипадкова функція
Dx(t), значення якої для кожного t дорівнює дисперсії відповідного розрізу ВФ,
тобто
Dx(t) = D[X(t)].
i 1
де i – номер можливого значення випадкової величини X(t) при даному t, pi(t) –
імовірність цього значення.
Для визначення дисперсії можна також скористатися іншим виразом:
n
Dx (t ) xi2 (t ) pi (t ) mx2 (t ) .
i 1
Якщо розріз X(t) є неперервною випадковою величиною із щільністю
f1(x,t), то дисперсія випадкового процесу може бути обчислена таким чином:
Dx (t ) [ x mx (t )]2 f1 ( x, t )dx
Dx (t ) x f1 ( x, t )dx mx2 (t ) .
2
або
Тобто, так само як і математичне сподівання, дисперсія випадкового
процесу Х(t) визначається його одновимірним законом розподілу.
D[(t)] = 0
11
3. Дисперсія добутку випадкової функції X(t) і невипадкової функції (t)
дорівнює добутку квадрату невипадкового множника і дисперсії випадкової
функції, а саме:
D[X(t)(t)] = 2(t)Dx(t).
X1 X2
t t
t t' t t'
а б
12
Для опису розглянутих властивостей випадкового процесу вводиться
спеціальна характеристика – кореляційна (автокореляційна) функція. Вона
характеризує ступінь залежності між розрізами випадкової функції, які
відповідають різним моментам часу t.
Нагадаємо, що ступінь залежності двох випадкових величин
характеризується їх кореляційним моментом. Відповідно ступінь залежності
двох розрізів X(t) і X(t') буде описуватися їх кореляційним моментом і являти
собою функцію двох аргументів: t й t'.
Кореляційною функцією ВФ X(t) називається невипадкова функція двох
аргументів Kx(t, t'), яка для кожної пари значень t й t' дорівнює кореляційному
моменту відповідних розрізів ВФ, тобто
Kx(t,t') = M[ X (t) X (t')], де X (t) = X(t) – m(t), X (t') = X(t') – m(t').
Kx(t, t')
t'
t = t'
13
Властивості кореляційної функції визначаються властивостями
кореляційної матриці системи випадкових величин.
Допустимо, є система випадкових величин: X(t1), X(t2) … X(tm).
Кореляційна матриця характеризує зв'язок між усіма ВВ цієї системи, тобто це
матриця kij , кожен елемент якої дорівнює кореляційному моменту
mxm
14
Обчислимо кореляційну функцію:
=(t)(t')Kx(t,t').
Kx(t, t) = Dх(t).
K x (t , t )
rx (t , t ) .
σ x (t )σ x (t )
15
абсолютна величина нормованої кореляційної функції не перевищує одиниці,
тобто
rx (t , t ) 1.
X(t)
tm
t1 t2 t3 … t
16
T
t1 t2 … tk … tl … tm
X(t)
x1(t) x11 x12 … x1k … x1l … x1m
… … … … … … … … …
Тут xij – значення функції xi t , яке відповідає i-й реалізації для j-го
моменту часу, тобто результати дослідів подано у вигляді матриці ( xij ), i 1, n ,
j 1, m .
2. Оцінка дисперсії
n
[ xij mx ( t j )] 2
Dx t j i 1
, j = 1, m .
n 1
xij m
n
x (t j ) xil m x (tl )
i 1
K x (t j , tl ) , j, l = 1, m .
n 1
17
Розраховуючи оцінки дисперсії та кореляційної функції, іноді
користуються початковими моментами. Тоді мають місце такі обчислювальні
формули:
n 2
xij n
D x (t j ) i 1 m x (t j )
2
, j = 1, m ;
n n 1
n
xij xil n
n 1
K x (t j tl ) m x (t j )m x (tl ) , j, l = 1, m .
n n 1
18
експлуатуються у момент часу t. При цьому X(t) Y(t), оскільки частина ТП
може вийти з експлуатації.
2. При експлуатації ЕОМ за вхідний сигнал можна брати напругу
силового живлення X(t), яке подається на вхід стабілізатора напруги, а за
вихідний сигнал Y(t) – напругу на виході стабілізатора.
3. Нехай система А – нагрівальна піч; тоді вхідний вплив X(t) – витрата
палива; реакція системи Y(t) – температура печі.
4. Система А – промислове підприємство; X(t) – ціни на сировину; Y(t)
– розмір оборотних коштів.
5. Система А – сільськогосподарське підприємство; вхідний вплив X(t)
– кількість опадів; реакція системи Y(t) – величина врожаю.
Зазначимо, що в загальному випадку система має кілька входів і виходів.
Ми будемо вивчати найпростіший випадок, коли є тільки один вхід й один
вихід. У такій постановці задачі система А перетворює вхід X(t) у вихід Y(t).
Символічно це можна записати як Y(t) = L[X(t)], де L – правило перетворення.
Цей запис означає, що кожній функції X(t) за певним правилом
(алгоритмом) ставиться у відповідність функція Y(t).
Правило може бути простим, наприклад, множення на число;
інтегрування, диференціювання та інші. Іноді перетворення L зводиться до
розв’язування диференціального рівняння.
Оператором називається правило перетворення однієї функції в іншу.
Правило, за яким вхідний вплив X(t) системи А перетворюється в реакцію
Y(t), називається оператором динамічної системи.
У теорії систем існує три види задач:
1. Задача аналізу.
Має на меті визначити реакцію системи з відомим оператором на відомий
вхідний вплив.
X(t) Y(t) – ?
L
X(t) – ? Y(t)
L
19
3. Задача ідентифікації.
Полягає у визначенні оператора системи, коли задано (виміряно) вхідний
вплив на систему та її реакцію.
X(t) Y(t)
–? L–?
20
Lcx(t ) cLx(t ).
dny d n 1 y dy d mx d m 1 x
an n an 1 n 1 ... a1 a0 y bm m bm 1 m 1 ... b0 x,
dt dt dt dt dt
21
Лінійні системи відіграють важливу роль в інженерних розрахунках.
Оператор системи найчастіше може бути або строго лінійним, або
лінеаризованим.
У загальному випадку, крім лінійних, мають місце також нелінійні
оператори, наприклад: y(t) = x2(t), y(t) = sin x(t) і т. ін.
Відповідні системи називаються нелінійними.
Розглянемо таку задачу: за характеристиками ВФ на вході лінійної
системи mx(t), Kx(t,t') потрібно знайти характеристики ВФ на її виході: my(t),
Ky(t,t'), коли відомо, що оператор системи Y(t) = L[X(t)].
Обчислення характеристик ВФ на виході виконується за такими
правилами:
1. my(t) = L[mx(t)] у разі використання лінійного однорідного оператора L.
my(t) = L[mx(t)] + (t) – коли лінійний оператор L неоднорідний,
тобто, математичне сподівання ВФ виходу лінійної системи знаходять шляхом
застосування оператора до математичного сподівання ВФ на вході (якщо
оператор L неоднорідний, то до результату додається невипадкова функція
γ(t)).
dmx (t )
m y (t ) ,
dt
22
а кореляційна функція
2 K x (t , t )
K y (t , t ) .
tt
X(t) d Y(t)
–? dt
Розв’язування
Оскільки за умовами задачі L – оператор диференціювання, то
dx( t )
Y(t) = . За сформульованими вище правилами визначаємо, що
dt
dmx (t ) d sin t
m y (t ) cos t ,
dt dt
K y (t , t )
2 K x (t , t )
tt
2 (t t )Ce (t t )
t
2
t
2 (t t )C e (t t )
2
2 2 2
2 (t t )C 2 (t t )e (t t ) e (t t ) 2C 2Ce (t t ) 1 2 (t t ) 2 .
Вважаючи, що t = t', знайдемо дисперсію вихідного процесу, а саме:
Відповідь: m y (t ) cos t , K y (t , t ) 2Ce (tt ) 1 2 (t t ) 2 , Dy (t ) 2C .
2
23
Розв’язування
Оператор перетворення є лінійним неоднорідним, тому згідно з
правилами перетворення записуємо, що
dm (t )
m y (t ) t x 1 1,
dt
K y (t , t ) tt
2 K x (t , t )
tt
tt e (t t) tt 2 e (t t) ,
t
Dy (t ) K y (t , t ) t 2 2 e 2t .
X(t)
Z(t)
Y(t) Σ
Рис. 1.12. Схема системи, яка реалізує суму двох випадкових функцій
24
Rxy (t , t )
xy (t , t ) .
x (t ) y (t )
Перевіримо цю властивість.
Для центрованих функцій має місце така рівність: Z (t ) X (t ) Y (t ).
Враховуючи це, обчислимо кореляційну функцію на виході системи,
таким чином:
K z (t , t ) M Z (t ) Z (t ) M X (t ) Y (t ) X (t ) Y (t )
M X (t ) X (t ) M Y (t ) Y (t ) M X (t ) Y (t ) M X (t ) Y (t )
K x (t , t ) K y (t , t ) 2Rxy (t , t ).
Z(t) = X(t) + γ;
25
Зауважимо, що рівність (1.1) справедлива лише у випадку, коли X(t) і –
незалежні.
П р и к л а д 1.5. Знайти математичне сподівання й кореляційну функцію
суми двох незалежних ВФ X(t) і Y(t) з такими характеристиками: Mx(t) = t,
Kx(t,t') = tt', MY(t) = –t, Ky(t,t') = tt'e α(t + t').
Розв’язування
За умовами задачі Z(t) = X(t) + Y(t). Обчислимо математичне
сподівання згідно з правилом перетворення:
X (t ) V (t ) , (1.2)
26
X(t) X(t
)
t t
а б
Рис. 1.13. Приклади елементарних випадкових функцій: а) X(t) = V sin t,
φ(t) = sin t; б) X(t) = Vt2, φ(t) = t2.
K x (t , t ) M X (t ) X (t ) (t ) (t )M V 2 (t ) (t ) Dv , (1.4)
X ( )d V ( )d .
0 0
У загальному випадку
L[X(t)]=VL[φ(t)]. (1.5)
27
Таким чином, коли елементарна ВФ, яка має вигляд (1.2), прибуває на
вхід лінійної системи, то її перетворення оператором L зводиться до
перетворення невипадкової функції φ(t).
Основна ідея методу канонічних розкладань полягає в тому, що ВФ X(t),
яка перебуває на вході системи, приблизно (або точно) подають у вигляді
системи елементарних ВФ і тільки потім перетворюють за допомогою
оператора L.
Нехай маємо ВФ: X (t ) mx (t ) X (t ).
Припустимо, що її вдалося подати у вигляді такої суми:
m
X (t ) mx (t ) Vii (t ) , (1.6)
i 1
де Vi – випадкова величина із математичним сподіванням, що дорівнює нулю.
Подання ВФ X(t) у вигляді виразу (1.6) називається розкладанням ВФ.
У цьому разі випадкові величини V1, V2, … Vm називаються
коефіцієнтами розкладання, а невипадкові функції φ1(t), φ2(t), … φm(t) –
координатними функціями.
Визначимо реакцію Y(t) системи, яка описується лінійним оператором L,
на вхідний вплив X(t):
m
Y (t ) LX (t ) Lmx (t ) Vi Li (t ) . (1.7)
i 1
З огляду на те, що L[mx(t)] = my(t), і ввівши позначення ψi(t) = L[φi(t)],
отримуємо, що
m
Y (t ) mY (t ) Vi i (t ) . (1.8)
i 1
Вираз (1.8) є розкладанням реакції системи Y(t) за елементарними
функціями ψi(t).
Зауважимо, що коефіцієнти розкладання V1, V2, … Vm не змінюються,
вони залишаються тими самими, що й для вхідного впливу X(t). Лінійному ж
перетворенню піддаються лише координатні функції.
Отже, можемо сформулювати загальне правило перетворення ВФ, заданої
розкладанням на елементарні функції:
Якщо ВФ X(t), задана розкладанням на елементарні функції, піддається
лінійному перетворенню за допомогою лінійного оператора L, то коефіцієнти
розкладання залишаються незмінними, а математичне сподівання й
координатні функції піддаються перетворенню із застосуванням того самого
оператора L.
У такий спосіб задача визначення реакції системи Y(t) спрощується, тому
що оператор L застосовується лише один раз до невипадкових функцій mx(t),
φ1(t), … φm(t), на відміну від кореляційної функції Kx(t, t'), яка перетворюється
двічі.
Розглянемо ВФ X(t), задану таким розкладанням:
28
m
X (t ) mx (t ) Vii (t ) ,
i 1
де V1 … Vm – система ВВ із нульовим математичним сподіванням й
кореляційною матрицею K ij .
Знайдемо кореляційну функцію й дисперсію ВФ X(t).
Обчислимо кореляційну функцію K x (t , t ) , враховуючи, що
m m
K x (t , t ) M X (t ) X (t ), X (t ) Vii (t ), і X (t ) Vii (t ) . Тоді отримуємо
i 1 i 1
такий вираз:
m m m m
K x t , t M ViV ji t j t M ViV j i t j t . (1.9)
i 1 j 1 i 1 j 1
29
Вираз (1.13) називається канонічним розкладанням кореляційної функції.
Вважаючи, що t = t', одержимо із формули (1.13) вираз для обчислення
дисперсії ВФ:
m
Dx (t ) i (t ) Di
2
(1.14)
i 1
X(t) L Y(t) –?
30
а координатні функції
i (t ) L[ i (t )] , i 1, m . (1.17)
m
D y (t ) i2 (t ) Di .
i 1
m y (t ) L[mx (t )] ,
i (t ) Lo [ i (t )], i 1, 2, 3, ...
31
2. Коефіцієнти канонічного розкладання не змінюються.
3. Кореляційну функцію випадкового процесу: Y (t ) L[ X (t )], отриманого
в результаті неоднорідного перетворення випадкового процесу X(t), можна
відшукати шляхом відповідного подвійного лінійного однорідного
перетворення кореляційної функції випадкового процесу X(t). Це перетворення
проводиться спочатку за аргументом t, а потім за t (або навпаки), тобто
де L[ X (t )] Lо [ X (t )] t .
Якщо випадковий процес X(t), задано своїм канонічним розкладанням:
m
X (t ) mx (t ) Vi i (t ) , то кореляційну функцію випадкового процесу
i 1
Y (t ) L[ X (t )], отримують за такою формулою:
m
K y (t , t ) i t i t Di .
i 1
n i l
i y
a p m (t ) b j p j mx (t );
i 0 j 0
(1.19)
n a p i Ψ (t ) l b p j (t ), k 1, m.
i i k
j k
j 0
0
32
П р и к л а д 1.6. ВФ X(t) задано своїм канонічним розкладанням:
n
X (t ) Vi e i t a, де Vi – незалежні центровані ВВ із дисперсіями Di, a –
i 1
невипадкова величина. Визначити характеристики випадкової функції X(t).
Розв’язування
Обчислимо математичне сподівання випадкової функції X(t), враховуючи,
що випадкові величини Vi центровані, тобто М(Vi) = 0.
Тоді отримуємо, що
n
n
i t
mx (t ) М Vi e a М Vi e i t a a const .
i1 i 1
Кореляційна функція випадкової функції X(t)
n n
K x (t , t ) e αi t e αi t Di Di e αi (t t ) ,
i 1 i 1
n
а її дисперсія Dx (t ) K x (t t ) Di e 2it .
i 1
n n
Відповідь: mx (t ) а , K x (t , t ) Di e αi (t t ) , Dx (t ) Di e 2it .
i 1 i 1
Висновки
33
процес, заданий своїм канонічним розкладанням. При цьому характеристики
вихідного процесу одержують, застосовуючи до характеристик вхідного
процесу те саме перетворення.
34
Задачі до розділу 1
dX (t )
Z (t ) 2t (1 t ) 2 .
dt
Розв’язування
Оператори перетворення X(t) в Y(t) і Z(t) є лінійними неоднорідними.
Тому можемо застосовувати правила, які були сформульовані для неоднорідних
лінійних операторів у § 1.5.
Отже,
m y (t ) tmx (t ) t 2 1 t (t 2 1) t 2 1 t 3 t 2 t 1,
K y (t , t ) tt 2e (tt ) .
2
dmx (t )
mz (t ) 2t (1 t ) 2 4t 2 1 2t t 2 5t 2 2t 1,
dt
K z (t , t ) 4tt
2 K x (t , t )
t t
4tt 2 2 (t t )e (t t )
t
2
16tt e (t t ) 2 (t t )(t t )e (t t ) 16tt e (t t ) 1 2 (t t ) 2 .
2 2 2
2. Випадкову функцію задано у вигляді суми елементарних функцій:
X (t ) V1e 1t V2 e 2t , де V1 й V2 – центровані випадкові величини, кореляційна
2 0
матриця яких k . Знайти характеристики ВФ X(t).
0 5
Розв’язування
За виглядом кореляційної матриці визначаємо, що V1 й V2 – некорельовані
випадкові величини, а їхні дисперсії Dv1 2 й Dv 2 5 . Це означає, що ВФ X(t)
подано канонічним розкладанням, тому
mx (t ) 0;
K x (t , t ) Dv1 e 1 (t t) Dv2 e 2 (t t) 2e 1 (t t) 5e 2 (t t) ;
Dx (t ) K x (t , t ) 2e 1t 5e 2t .
35
3. Розглянемо дві некорельовані ВФ X(t) і Y(t), що мають такі
характеристики: mx (t ) t 2 ; K x (t , t ) e1 (t t) , m y (t ) 1; K y (t , t ) e 2 (t t) .
Визначити характеристики такої ВФ: Z (t ) X (t ) tY (t ) t 2 .
Розв’язування
Обчислимо математичне сподівання ВФ Z (t ) , враховуючи його
властивості, сформульовані в § 1.2:
mz (t ) M X (t ) tY (t ) t 2 M X (t ) tM Y (t ) M (t 2 ) mx (t ) t m y (t ) t 2
t 2 t t 2 2t 2 t .
Відповідь: mX t 5et .
36
5. Відомо кореляційну функцію K x випадкової функції X t . Знайти
кореляційну функцію випадкової функції: Y t X (t ) t 2 .
Відповідь: K y K x .
6. Відомо кореляційну функцію K x , випадкової функції X t . Знайти
кореляційні функції таких випадкових функцій: а) Y (t ) X (t )(t 1) ;
б) Z t CX (t ), де С – стала величина.
Відповідь: Dy (t ) Dx (t )t 3 .
2
37
t2 t1
13. Задано кореляційну функцію: K x (t1 , t 2 ) t1t 2e , випадкової
функції X t . Знайти нормовану кореляційну функцію.
t 2 t1
Відповідь: rx (t1 , t2 ) e .
14. Знайти взаємну кореляційну функцію двох випадкових функцій:
X t t 2U і Y (t ) tU , де U – випадкова величина , причому D(U ) 5.
Відповідь: Rxy (t1 , t2 ) 5t1 t2
2
Відповідь: m y (t ) 3t 2 .
Відповідь:
Відповідь: а) my (t ) 5 cos t , б) K у t1 , t2 3e 0,5(t 2 t1 ) 1 t2 t1 .
2 2
38
21. Знайти математичне сподівання випадкових функцій: а) X (t ) Ut 2 ,
де U – випадкова величина, причому M (U ) 5 ; б) X (t ) U cos 2t Vt , де U та
V – випадкові величини, причому M (U ) 3 , M (V ) 4 .
Відповідь: а) mx (t ) 5t 2 ; б) mx (t ) 3 cos 2t 4t .
22. Задано кореляційну функцію K x (t1 , t2 ) випадкової функції X (t ) .
Знайти кореляційні функції випадкових функцій: а) Y (t ) X (t ) t ;
б) Y (t ) (t 1) X (t ) ; в) Y (t ) 4 X (t ) .
Відповідь: а) K y (t1 , t2 ) K x (t1 , t2 ) ; б) K y (t1 , t2 ) (t1 1)(t2 1) K x (t1 , t2 ) ;
в) K y (t1 , t2 ) 16K x (t1 t2 ) .
23. Задано дисперсію Dx (t ) випадкової функції X (t ) . Знайти дисперсію
випадкових функцій: а) Y (t ) X (t ) et ; б) Y (t ) tX (t ) .
Відповідь: а) Dy (t ) Dx (t ) ; б) D y (t ) t 2 Dx (t ) .
24. Знайти: а) математичне сподівання; б) кореляційну функцію;
в) дисперсію випадкової функції X (t ) U sin 2t , де U – випадкова величина,
причому M (U ) 3, D(U ) 6 .
Відповідь: а) mx (t ) 3sin 2t ; б) K x (t1 , t 2 ) 6 sin 2t1 sin 2t 2 ;
в) Dx (t ) 6 sin 2 2t.
25. Знайти нормовану кореляційну функцію випадкової функції X (t ) ,
якщо відомо її кореляційну функцію: K x (t1 , t2 ) 3 cos(t 2 t1 ) .
Відповідь: x (t1 , t2 ) cos(t2 t1 ) .
в) Dx (t ) 4(t 1) 2 6t 4 .
39
28. Задано математичне сподівання: mx (t ) t 2 3, випадкової функції
X (t ) . Знайти математичне сподівання випадкової функції: Y (t ) tX (t ) t 3 .
Відповідь: m y (t ) t 2 (t 2) .
Відповідь: K x (t1,t 2 ) 2e (t2 t1 ) 1 2(t 2 t1 ) 2 .
2
30. Задано математичне сподівання: mx (t ) 4t 3 , випадкової функції X (t ) .
t
Знайти математичне сподівання інтеграла: Y (t ) X ( s)ds .
0
Відповідь: m y (t ) t 4 .
40
РОЗДІЛ 2
X(t X(t)
)
0 t 0
t
а б
41
X(t)
0 t1 t2 t3 t
X(t)
τ τ
t t+τ t t+τ t
Рис. 2.3. Зображення стаціонарного випадкового процесу
42
й розглядати його як стаціонарний. Надалі, щоб не висувати спеціальних умов
до математичного сподівання mx(t), будемо розглядати тільки центровані СВФ.
Крім того, друга умова є окремим випадком третьої, оскільки для СВП
має місце рівність: Dx(t) = Kx (t, t) = kx(0) = const .
Враховуючи все вищезазначене, робимо висновок, що умова:
Kx(t, t + τ) = kx (τ), являє собою єдину істотну умову, яку має задовольняти СВП
(СВФ).
Взагалі, кореляційна функція СВФ має такі властивості (вони випливають
із загальних властивостей кореляційної функції ):
1. Кореляційна функція СВП – парна, тобто kx(τ) = kx(–τ).
Дійсно, Kx (t, t') = Kx (t', t). Тоді маємо, що
kx (τ) = Kx (t, t + τ) = Kx (t + τ, t) = kx (–τ).
43
Ергодична властивість СВП полягає в тому, що кожна його окрема
реалізація є ніби ”характерним представником” усієї сукупності можливих
реалізацій, тобто одна реалізація достатньої тривалості заміняє при обробці
множину реалізацій.
Якщо СВП X(t) має ергодичну властивість, то для нього середнє за часом
(на досить великому інтервалі) приблизно дорівнює середньому значенню за
множиною спостережень. Отже, в цьому випадку всі характеристики
випадкового процесу X(t) можна визначати за однією реалізацією.
Розглянемо, які стаціонарні випадкові процеси мають, а які не мають
ергодичну властивість.
Для цього розглянемо приклади на рисунках 2.4 та 2.5.
X1(t)
x1(t)
x2(t)
x3(t)
0
T t
Рис. 2.4. Графіки реалізацій стаціонарного процесу X1(t), що має
ергодичну властивість
X2(t)
x1(t)
x2(t)
x3(t)
0
t
T
44
Очевидно, що ВП X1(t) і X2(t) є стаціонарними. Однак процесу X1(t)
властива ергодичність, а процесу X2(t) – ні.
Припустимо, що X1(t) і X2(t) – процеси коливань величини кута атаки
літака на даній висоті h. Тоді для процесу X1(t) висота h стала (h = const), а
стосовно X2(t) висота для кожної з реалізацій набуває деякого випадкового
значення в межах певного діапазону. Це означає, що ВП X2(t) має більш
складну внутрішню структуру: він розкладений на елементарні ВП зі своїми
індивідуальними характеристиками.
У цьому прикладі неергодичність ВП пов'язується із наявністю в його
складі звичайної ВВ, а саме, висоти h.
Дійсно, розглянемо випадкову функцію: Z(t) = X(t) + Y, де X(t) –
ергодична СВФ із характеристиками mx, kx(τ), Y – ВВ з характеристиками my ,
Dу. Припустимо, що СВФ X(t) і ВВ Y – некорельовані.
Відповідно до загальних правил додавання ВФ, характеристики ВФ Z(t)
будуть мати такі значення:
mz = mx + my,
kz(τ) = kx(τ) + Dy.
З цих формул видно, що ВФ Z(t) стаціонарна. Але вона не ергодична,
тому що кожна з її реалізацій буде мати індивідуальні характеристики, залежно
від того, якого значення набула ВВ Y.
Про ергодичність або не ергодичність ВП можна безпосередньо судити,
оцінюючи вигляд його кореляційної функції. Річ у тім, що кореляційна функція
неергодичного процесу відрізняється наявністю у своєму складі сталої Dy
(рис.2.6).
k()
Dy
ky()
Dу kx()
45
§ 2.3. Визначення характеристик ергодичного СВП на основі однієї
реалізації
X(t)
0 t
t1 t2 t3 t4 . . . . . tn-1 tn T
46
Тоді інтеграл (2.1) приблизно обчислюється за такою формулою:
1 n
mx xi .
n i 1
(2.4)
1 nj
k x jt x i x i j , j 0, m , (m n). (2. 5)
n j i 1
Dx
t 2t 3t jt
Рис. 2.8. Графік кореляційної функції ВФ
47
§ 2.4. Спектральне розкладання СВП на скінченному проміжку часу.
Спектр дисперсій
t
T
Рис. 2.9. Графік реалізації центрованого випадкового процесу X (t ) на
інтервалі 0 T
kx()
–T T
48
Оскільки функція kx(τ) – парна, то її можна подати у вигляді ряду парних
гармонік:
k x ( ) Dk сosk , (2.6)
k 0
при цьому
2
k k1 ; 1 , (2.6 а)
2T T
тобто величина 1 визначається інтервалом T і являє собою основну гармоніку.
Коефіцієнти Dk визначаються за такими формулами:
1 T
2T T
D0 k x ( )d ,
T
Dk 1 k x ( ) coskd , якщо k 0.
T T
1
T
D0 k х ( τ )dτ ,
T0
T
(2.7)
D 2 k ( τ )cosω τdτ , якщо k 0.
k T 0 х k
49
де Uk , Vk – некорельовані ВВ, математичні сподівання яких дорівнюють нулю,
а дисперсії є сталими, а саме:
Dx D x(t ) D (U k сos k t Vk sin k t )
k 0
cos2 k t D[U k ] sin 2 k t D[Vk ] (cos2k t sin 2k t ) Dk Dk ,
k 0 k 0 k 0
тобто
Dx Dk . (2.11)
k 0
Dk
…
0 1 2 … i k
50
2. Обчислюємо кореляційну функцію ВП kx(τ) (τ належить до інтервалу
0 ÷ Т).
3. Визначаємо гармоніки 1 й k за формулами (2.6, а).
4. Розраховуємо дисперсії гармонік Dk ( k 0 ) за формулами (2.7).
Sx(k)
Dk
0 k k + 1 k
51
Отже, якщо T , то 0 і східчаста фігура S x ( k ) буде
необмежено наближатися до плавної кривої S x ( ) . Ця крива (залежність)
виражає щільність розподілу дисперсій за частотами. Вона називається
спектральною щільністю ВФ X(t) й описується таким чином:
Dk
S x ( ) lim .
0
Sx()
d
2T
Dk k x ( )сoskd .
T0
(2.14)
52
Розглянемо середню щільність дисперсії на ділянці :
Dk
S x (k ) , (2.15)
тоді Dk S x (k ) S x (k )1 S x (k ) , тобто
T
Dk S x (k ) . (2.16)
T
З урахуванням виразу (2.16) перепишемо формули (2.13) і (2.14) таким
чином:
k x ( ) S x (k )cosk , (2.17)
k 0
2T
S k (k ) k x ( )coskd . (2.18)
0
2
S x (ω) k x (ω) сosωτ dτ . (2.20)
π0
S x ( )
x ( ) ,
Dx
де D x – дисперсія ВП.
Очевидно, що взаємні перетворення Фур'є будуть також справедливі,
коли кореляційна функція й спектральна щільність нормовані, а саме:
53
x ( ) x ( )сos d , (2.21)
0
2
α x (ω) ρx ( τ )сosωτ dτ , (2.22)
π0
x()
1
0
1 , якщо 0 0 ,
x ( ) 0
0, якщо 0 .
54
2 2 2
x ( ) x ( ) cos d 1 cos d 1 cos 0 .
0 0 0 0 2
αx()
0
0 2 4 6
0 0 0
Qx()
1
2 1
0 1 2
55
Розв’язування
Оскільки площа, обмежена кривою x ( ) дорівнює 1, то
1
x ( ) , коли 1 2 (див. рис. 2.16).
2 1
2
2
1
x ( ) x ( )cos d
2 1 1 x
( )cos d
1
1 2 1 2 1
(sin 2 sin 1 ) cos 2 sin .
(2 1 ) (2 1 ) 2 2
x ( )
0 2 4
2 1 2 1
56
Коли скінченна дисперсія в спектральному розкладанні припадає на
нульову частоту: 0 , це означає, що до складу ВФ як доданок входить
звичайна ВВ із дисперсією D0.
57
Sx()
S0
Dx
Рис. 2.18. Графічне зображення спектральної щільності випадкового
процесу типу «білий шум»
()
0
Рис. 2.19. Графік дельта-функції
Дійсно функція: S x ( ) Rx ( ) cos d S 0 ( ) cos d S 0 , являє
0 0
собою спектральну щільність білого шуму, інтенсивність якого визначається
величиною S0.
На практиці також часто використовується поняття білого шуму, спектр
якого обмежений у деякій смузі. При цьому мають на увазі СВП, спектральна
щільність якого стала в межах обмеженої смуги частот, і дорівнює нулю поза
нею (див. рис. 2.20).
Аналітичний запис такої функції має такий вигляд:
0, якщо ω ω1 ,
S x (ω) S0 , якщо ω1 ω ω2 ,
0, якщо ω ω .
2
58
Sx(ω)
S0
Dx
0 ω1 ω2 ω
S , якщо 2 ,
S x ( ) 0
0, якщо 2 .
Sx(ω)
S0
0 ω2 ω
Рис. 2.21. Графічне зображення спектральної щільності білого шуму з
обмеженим у смузі спектром, коли 1 0
2 2
S0 2 S0
Rx ( ) S x ( ) cos d S 0 cos d sin sin 2 .
0 0 0
59
R2(τ)
S0ω2
0 2 3 τ
2 2 2
60
тоді
eik t e ik t eik t e ik t
X ( t ) U0 (Uk iVk ). (2.24)
k 1 2 2
Формула (2.24) є розкладанням ВФ X (t ) за координатними функціями
e ik t , e ik t .
Припустимо, що параметр k набуває не тільки додатних, але й від’ємних
значень: k k1 (k 1; 2; 3 ) .
Тоді формула (2.24) запишеться таким чином:
U k iVk
Wk , якщо k 0 ;
2
U k iVk
Wk , якщо k 0 .
2
Вираз (2.26) є канонічним розкладанням ВФ X (t ) із комплексними
координатними функціями e ik t й комплексними коефіцієнтами Wk, дисперсії
яких
U iVk D[U k ] D[Vk ] 2 Dk Dk
D[Wk ] D k 4 4 4 2 .
2
Dk
Позначимо, що Dk* , коли k 0 й D0* D0 . Побудуємо дискретний
2
спектр ВФ X (t ) , який поширюється на частоти в інтервалі ;
(рис. 2.23).
61
Dk
D0
Цей спектр Dk* буде симетричний щодо осі ординат, його ординати
вдвічі менші спектра Dk , якщо k 0 , і виконується така умова:
Dx Dk .
k
Dk*
1 T
2T 0
k x e ik t
e
i k t dτ
1 T
2T 0
k x e ik t
dτ
1 T
2T 0
k x e ik t dτ
T 0 T
k x τ e iωk t dτ k x τ e k x τ e
1 1 iωk t 1 iωk t
2T 0 2T
dτ
2T
dτ ,
T T
тобто
62
T
k x τ e
1 iωk t
Dk* dτ . (2.29)
2T T
Dk*
S x* ( ) lim . (2.30)
0
1
S *x k x ( τ )e iωk t dτ . (2.32)
2π -
2
S k k x cos ωτ dτ ,
π0
63
Sx()
Sx()
S*x()
0
X(t) Y(t)
L
64
(anpn + an – 1pn – 1 + … a1p + a0) Y(t) = ( bmpm + bm – 1pm – 1 + …b1p + b0) X(t), (2.34)
d
тут p – означає оператор диференціювання, тобто p .
dt
У скороченому вигляді його можна записати таким чином:
An ( p)Y (t ) Bm ( p) X (t ) (2.35)
або
Bm ( p)
Y (t ) X (t ) . (2.36)
An ( p)
dn d n1
an n [ (i )e ] an1 n1 [ (i )e it ] a0 [ (i )e it ]
it
dt dt
d m it d m 1 it
bm m e bm 1 m 1 e b0eit . (2.39)
dt dt
Враховуючи, що для будь-якого значення k виконуються такі рівності:
65
dk
k
[ (i )e it ] (i ) k (i )e it ,
dt
d k it
k
[e ] (i ) k e it ,
dt
записуємо остаточний варіант рівняння:
(i )[an (i ) n an1 (i ) n1 a1 (i ) a0 ] bm (i ) m bm1 (i ) m1 b1 (i ) b0 .
Bm (i )
(i ) . (2.41)
An (i )
Y (t ) U (i )eit .
66
X (t ) U k eiω t , k
(2.42)
k
де U k – некорельовані ВВ, дисперсії яких утворюють спектр X (t ) .
Відповідно до принципу суперпозиції (накладання), реакція лінійної
системи на суму впливів дорівнює сумі реакцій на окремі впливи, тобто
Y (t ) U k (i )ei t , k
(2.43)
k
Формула (2.43) являє собою канонічне розкладання ВФ Y (t ) за системою
гармонічних функцій. Визначимо спектр розкладання (2.43). Для цього
знайдемо дисперсію k-ї випадкової величини таким чином:
Y (t ) Wk ei t , k
Wk U k (i ) ,
k
тобто
D[Wk ] (i ) Dk .
2
(2.44)
S y ( ) (i ) S x ( )
2
(2.45)
67
Цю задачу розв’язують у такому порядку:
1. Знаходимо математичне сподівання СВП на виході системи:
b
my 0 m x .
a0
2. За кореляційною функцією kx(τ) визначаємо спектральну щільність на
вході:
2
S x ( ) k x ( ) cos d .
0
68
П р и к л а д 2.3. Робота лінійної динамічної системи описується таким
диференціальним рівнянням:
a1 y a0 y b1 x b0 x
Розв’язування
Застосовуємо описаний вище алгоритм розв’язування цієї задачі.
1. Знайдемо математичне сподівання функції виходу Y (t ) :
b0
my mx .
a0
b1 p b0
y (t ) x(t ) , p j ,
a1 p a0
b1 j b0
( j ) .
a1 j a0
b1 j b0
2
b12 2 b02
( j ) .
a1 j a0
2
a12 2 a02
2 D x b12 2 b02
S y ( ) ( j ) S x ( ) .
( 2 2 ) a12 2 a02
69
5. Визначаємо дисперсію вихідного сигналу за такою формулою:
Dy S y ( )d .
0
2Dx
b12 2 b02
S y ( )d d .
0
Dy
0 a12 2 a02 2 2
b12 2 b0 A B
2 .
a12 a0
2 2 2
a02 a1
2 2
2
Визначаємо, що
a12 b02 a02 b12 b12 2 b02
A ; B .
a12 2 a02 a12 2 a02
a1 b02 a0 b12
Dy Dx .
a0 a1 (a1 a0 )
a p
n
n
an 1 p n 1 a1 p a0 Y t bm p m bm 1 p m 1 b1 p b0 X t . (2.45)
70
О б е р н е н а з а д а ч а (задача синтезу)
Ця задача полягає у виборі параметрів системи, тобто коефіцієнтів
рівняння (2.45), таким чином, щоб для заданого спектра перешкоди X(t)
помилки на виході були б мінімальними.
Очевидно, що дисперсія вихідного сигналу Y(t) при заданому спектрі X(t)
залежить від коефіцієнтів рівняння (2.45) (параметрів системи). Тоді задача
синтезу записується таким чином:
J D y m 2y min . (2.47)
ai b j
71
Необхідно вибрати таке значення параметра системи b, щоб відношення
«сигнал/шум» за потужністю на виході системи, тобто в сигналі Z(t), було б
максимальним.
X(t)
Розв’язування
Сформульована задача відноситься до типу обернених задач. Вона
полягає у виборі оптимального значення параметра системи, структуру якої
відомо.
Сигнал на вході в систему дорівнює сумі корисного сигналу a(t) і шуму
X(t), тобто Y(t) = a(t) + X(t). Оскільки система лінійна, то вихідний сигнал Z(t)
також буде являти собою суму двох складових: реакції системи на корисний
сигнал a1(t) і реакції на шум X1(t), тобто Z(t) = a1(t) + X1(t). Енергетична
потужність сигналу пропорціональна квадрату його рівня або дисперсії
центрованого сигналу. Тому критерій оптимізації має такий вигляд:
A, якщо 0 t T ,
a(t )
0, якщо t T,
72
то розв’язок цього рівняння – вихідний сигнал a1(t) – буде мати такий вигляд:
t
A 1 e b ,
якщо 0 t T,
a1 (t )
t-T
A1 e b e b , якщо
t
t T.
a1(t)
0 T t
Рис. 2.27. Графік реакції системи на корисний сигнал
z (t ) 1
W ( p) ; при цьому p j ,
y (t ) bp 1
73
1
( j ) ,
bj 1
1 1
( j ) ,
bj 1 b 2 2 1
1
( j )
2
.
b 2 2 1
S0
S x1 ( ) .
b 2 1
2
S0 S
arctg(b 2 2 ) 0 0 .
b 2b
Отже,
S 0
Dx . (2.52)
2b
T 2 A2T
тут m ; а C , тобто являє собою сталу, яку обчислюють для
b S 0
конкретного випадку і значення якої не впливає на розв’язок, тому для
74
спрощення розрахунків, її значення може бути прийнято таким, що дорівнює
одиниці. Тоді критерій набуває вигляду:
(1 e m ) 2
J max .
m m
Розв’яжемо цю задачу.
Необхідною умовою оптимальності є рівність нулю похідної функції.
Тому обчислимо похідну для критерію J і прирівняємо її до нуля, а саме:
J 2(1 e m )e m m (1 e m ) 2 (1 e m )(2e m m 1 e m )
0,
m m2 m2
2e m m 1 e m (2m 1)e m 1 0.
b* T . (2.55)
1,2565
75
J'
0,3
0,2
0,1
Висновки
76
9. Задача аналізу має на меті оцінювання точності роботи системи в
умовах різного роду перешкод, тобто дослідження характеристик процесу на
виході системи, якщо відомо його характеристики на її вході.
10. Задача синтезу полягає у виборі оператора системи таким чином, щоб
при заданому спектрі перешкоди X(t) помилки на виході були б мінімальні.
77
Задачі до розділу 2
Розв’язування
Оператор інтегрування є лінійним, тому
t
m y (t ) mx ( )d 0 ,
0
t t t
t
d t
K y (t , t ) d K x ( , )d
2
d arctg(t ) arctg( )d
0 0 00 1 ( ) 0
1 (1 t 2 )(1 t 2 )
t arctg t t arctg t (t t )arctg(t t ) ln ,
2 1 (t t ) 2
Dy (t ) K y (t , t ) 2t arctg t ln (1 t 2 ) .
mx (t ) M t V1 cost V2 sin t t;
K x (t ) Dv1 cost cost Dv2 sint sint 2(cost cost sint sint )
2cos (t t );
Dx (t ) K x (t , t ) 2 cos 0 2.
78
стаціонарності. Тому, наприклад, центрована функція: X (t ) X (t ) mx (t ) , буде
стаціонарною ВФ.
dVcosωt
Y (t ) Vcosωt α V (cosωt αω sinωt ) ,
dt
m y (t ) mv (cost sin t ) 2(cost sin t ),
K y (t , t ) Dv (cost sin t )(cost sin t ),
Dy (t ) K y (t , t ) Dv (cost sin t ) 2 .
0, якщо 0 ,
S x ( ) c 2 , якщо 0 20 ,
0, якщо 20 .
c2 c2
sin 20 sin0 sin0 (2cos0 1).
79
5. Визначити спектральну щільність випадкового процесу X(t), якщо його
кореляційна функція K x ( ) Dx e .
Розв’язування
Застосуємо перетворення Фур'є:
2 2
S x ( ) K ( )cos d Dx e cos d
0 x 0
2 Dxe 2Dx
2 ( cos sin ) .
2 0 ( 2 2 )
S()
0 0 20 30
Розв’язування
S ( )d 1 .
0
Користуючись графіком, обчислимо цю площу й складемо рівняння, а
саме:
1 1
S 6 20 6 0 60 30 90 1,
2 2
1
звідси 0 .
9
80
7. На рис. 2.30 зображено графік спектральної щільності випадкового
процесу X(t). Необхідно знайти дисперсію ВП X(t).
Sx()
0 1 = 4 2 = 7
Рис. 2.30. Графік спектральної щільності до задачі 7
Розв’язування
Дисперсія ВП X(t) дорівнює площі, окресленій лінією графіка
спектральної щільності, тому
1
Dx 2 4 2 3 11.
2
системи)
a 2 2
S x ( ) W ( j ) S x ( ) 2
2
.
( a 2 ) 2
Тоді дисперсія похідної
a 2 2 a 2 a a
Dx ( ) S x ( )d 2 d arctg .
0 0 ( a 2 2
) 2( 2
a 2
) 2 a 0 4
81
виході системи, якщо її вхід і вихід пов'язані таким диференціальним
.
рівнянням: Y (t ) k1 X (t ) k 2 X (t ) .
Розв’язування
Щоб знайти спектральну щільність Y(t), необхідно скористатися таким
співвідношенням: S y ( ) W ( jw) S x ( ) .
2
W ( p) k1 k2 p,
W ( j ) k1 k2 ( j ),
W ( j ) k12 k22 2 .
2
2 2
S x ( ) K x ( ) cos d cos d
ae
0 0
2a e 2a
2 cos sin .
2 0 2 2
2a
S y ( ) (k12 k 22 2 ) .
2 2
82
3. Задано випадкову функцію: X (t ) t U sin t V cos t , тут U і V –
випадкові величини, причому M (U ) M (V ) 0 , D(U ) D(V ) 5 , M (UV ) 0 .
Довести, що: а) X (t ) – нестаціонарна функція; б) X (t ) – стаціонарна функція.
Відповідь: k x ( ) 75e 2 .
2
X (t ) .
Відповідь: x ( ) e .
2
1
1 , якщо 3,
k x ( ) 3
0, якщо 3.
83
2 sin 2 (3 / 2)
Відповідь: S x ( ) .
3 2
10
Відповідь: S ( ) .
(4 2 )
2s0
Відповідь: k x ( ) sin 0 (2 cos 20 1) .
0, якщо 1 ,
S x ( ) s, якщо 1 2 ,
0, якщо 2 .
84
3
k x ( ) 5e . Знайти математичне сподівання і дисперсію функції Y(t) на
виході системи в режимі, що встановився.
Відповідь: m y 8 ; D y 22 / 3 .
4(49 6 25)
Відповідь: S y ( ) .
( 2 1)3 ( 2 4)( 2 9)
85
РОЗДІЛ 3
Система
Входи Виходи
Змінні стану
. . . . . Z(t) . . . . .
X(t) Y(t)
Під дією вхідних впливів X(t) стан системи Z(t) та її реакція (вихід) Y(t)
змінюються в часі (рис. 3.1). Змінні стану при цьому являють собою проміжні
змінні, які характеризують внутрішній стан системи.
Математична модель системи, описана через змінні стану, в
детермінованому випадку має таку структуру:
Z (t ) [ z (t ), X (t )]. (3.1)
Y (t ) f [ z(t ), X (t )] . (3.2)
86
Однак, на практиці входи X(t) часто являють собою ВП, отже, і зміна
стану системи під їхнім впливом, природно, також буде являти собою ВП.
У цьому випадку для опису роботи системи застосовуються інші підходи
й методи, які називаються стохастичними (імовірнісними). Цей розділ має на
меті розглянути саме такі підходи й відповідний їм математичний опис.
Нагадаємо, що випадкові процеси за ознаками дискретності й
неперервності можна поділити на чотири класи (див. § 1.1.). Розглянемо
класифікацію процесів функціонування систем відносно стану Z(t) й
незалежного аргументу (часу t).
1. Неперервні процеси, характерні неперервним часом. Стан Z набуває
значень із деякої неперервної множини і може змінюватись в будь-який момент
часу t із певного проміжку.
Прикладом системи, функціонування якої описується саме таким
процесом є нагрівальна піч. Тут стан Z – це температура печі, вочевидь вона
являє собою неперервний у часі ВП.
2. Неперервні процеси, характерні дискретним часом. У таких процесах
стан Z набуває значень з деякого проміжку (неперервної множини), однак ці
значення фіксуються в дискретні моменти часу t.
Таким процесом є проведення періодичного циклічного опитування (з
періодом t ) датчиків струму кількох електродвигунів електронною системою
контролю струму.
3. Дискретні процеси, характерні неперервним часом. Тобто стан системи
Z набуває значень із деякої дискретної множини і він може змінюватися в будь-
який момент часу t (оскільки час неперервний).
Приклад такої системи – інформаційна система обслуговування клієнтів,
де стан системи Z – це кількість клієнтів у черзі на обслуговування в момент
часу t.
4. Дискретні процеси, характерні дискретним часом. Стан Z набуває
значень із деякої дискретної множини, причому його зміна може відбуватися
тільки у фіксовані моменти часу t.
87
Уведемо такі позначення: pij(k) – імовірність того, що при k-му
випробуванні система перейде в стан Qj, за умови, що під час (k – 1)-го
випробування вона перебувала в стані Qi .
Послідовність випробувань утворить ланцюг Маркова в тому випадку,
якщо ймовірність pij(k) залежить тільки від значень i, j, k і не залежить від того,
які стани мали місце в минулому (тобто до того, як система перейшла в стан
Qi).
Інакше кажучи, ланцюг Маркова являє собою ВП без післядії, у якому
ймовірність переходу із стану Qi в стан Qj залежить тільки від номера
випробування k і не залежить від того, яким чином система потрапила в стан
Qi. Таке спрощення дозволяє створити ефективний математичний апарат для
опису подібних ВП.
Ланцюг Маркова повністю описується матрицею переходів такого
вигляду:
Pk pij (k ) . (3.3)
mxm
88
Ланцюг Маркова називається періодичним, якщо повернення системи в
будь-який стан відбувається тільки через певну кількість кроків, кратну
деякому цілому числу γ, більшому за 1 (γ > 1).
Характерним випадком ланцюга Маркова є однорідний ланцюг, у якому
перехідні ймовірності pij (k) не залежать від номера випробування k, тобто
pij(k) = pij .
Розв’язування
Якщо система перебуває в стані Q1 то вона може з рівною ймовірністю
перейти в будь який інший стан (оскільки одиниця – найменше число). Зі стану
Q2 вона може перейти лише в стани Q2, Q3 … Qm , причому якщо буде вибрана
одиниця або двійка, то система залишиться в стані Q2 , тому ймовірність цього
стану буде вдвічі більша за інші. Розмірковуючи аналогічно, будуємо матрицю
переходів. Вона буде мати такий вигляд:
89
1 1 1 1 1
m m m m m
0 2 1 1 1
m m m m
3 1 1
P 0 0
m
m m
.
. . . . . .
0 0 0 m 1 1
m m
0 0 0 0 1
0 0,8 0 0,2
0,2 0 0,8 0
P ,
0 0,2 0 0,8
0,8 0 0,2 0
90
0 0,2 0 0,8
0,8 0 0,2 0
P .
0 0,8 0 0,2
0,2 0 0,8 0
0,32 0 0,68 0
0 0,32 0 0,68
Обчислимо її квадрат: ( Р) 2 Р Р ,
0,68 0 0,32 0
0 0,68 0 0,32
0 0,608 0 0,392
0,608 0 0,392 0
куб: ( Р) 3 ( Р) 2 Р ,
0 0,392 0 0,608
0,392 0 0,608 0
0,4352 0 0,5648 0
0 0,4352 0 0,5648
та четвертий степінь: ( Р) 4 ( Р) 3 Р .
0,5648 0 0,4352 0
0 0,5648 0 0,4352
0
0,4352
Маємо такий остаточний результат: p(4) ( P) 4 p(0) .
0
0,5648
0 0,5
0,5 0
р () lim p(n) , якщо n – парне; lim p (n) , якщо n непарне.
n 0 n 0,5
0,5 0
91
Зауважимо, що для практики найбільш цікавим є визначення саме
граничних імовірностей станів p(∞). Ці границі в стовпці p(∞) існують за
певних умов.
Визначимо ці умови.
Для цього розглянемо характеристичні числа 1 , 2 , , m матриці
переходів P . Вони є коренями характеристичного рівняння:
E P 0 , (3.7)
S 1 , S 2, m . (3.8)
92
0,1 0,5 0,4
0,5 0,2 0,3 (0,1 )(0,2 )(0,4 ) 0,4 0,5 0,6
0 0,6 0,4
0,32 0,29
0,32 0,3
0,01 0,01
0,01 0,01
0
0,1 p1 0,5 p2 0 p3 p1 ,
0,5 p1 0,2 p2 0,6 p3 p2 ,
p1 p2 p3 1.
93
Розв’язучи її, знаходимо, що p1 0,229; p2 0,4122; p3 0,3588 ; тобто
0,229
вектор p() 0,4122 , і гранична матриця переходів набуває такого вигляду:
0,3588
0,229 0,4122 0,3588
P ( P) 0,229 0,4122 0,3588 .
0,229 0,4122 0,3588
94
0 t1 t2 t3 tk t
Т
0 t
Рис. 3.4. Графічне зображення найпростішого потоку подій
Число точок, які попадають на довільну ділянку довжиною τ цієї осі, для
найпростішого потоку розподілено відповідно до закону Пуассона, причому
його математичне сподівання Мτ = τλ, де λ – щільність потоку (середнє число
95
подій, що припадають на одиницю часу). Тоді ймовірність того, що за час τ
відбудеться рівно m подій, обчислюється за такою формулою:
( ) m
Pm ( ) e .
m!
P0 ( ) e .
p(T t ) 1 F (t ) .
96
F ( ) (t ) P(T t T ) .
P((T )(T t ))
звідси маємо, що F ( ) (t ) ,
P(T )
P( T t ) F (t ) F ( ) .
F (t ) F ( )
F ( ) (t ) . (3.12)
1 F ( )
f(t) f (t ) e t
A
S=1
0 t
97
Рис. 3.5. Графік щільності розподілу показового закону F(t)
f(t)
f (t ) e t
A
S=1
0 t
Рис. 3.6. Графік щільності розподілу показового закону F ( ) (t )
f(t) f (t) A
1
1 A S=1 b S=1
ba
a b t a b t
t0 t0+ t
98
Кількість подій, які попадають на ділянку часу [t 0 ; t 0 ] , розподілена
відповідно до закону Пуассона, тобто
a m a
Pm(t0 τ) e , (m 0, 1, 2 ) ,
m!
t0
тут a (t )dt .
t0
Знайдемо закон розподілу інтервалу часу Т між двома подіями (рис. 3.9):
F (t 0 , t ) P(T t ) 1 P(T t ) .
99
§ 3.4. Марковські дискретні процеси, характерні неперервним часом
Х0 Х1
100
Даний процес є марковським саме тому, що потоки відмов і відновлень
розподілені за показовим законом, тобто без післядії (цю властивість
показового закону розглянуто в § 3.3). Підтвердимо це міркування.
Нехай в момент часу t0 система перебуває в стані X0 (працює). Оскільки
час безвідмовної роботи кожного елемента характеризується показовим
розподілом, то момент відмови кожного елемента в майбутньому не залежить
від того, скільки часу він уже працював. Тому ймовірність того, що в
майбутньому система залишиться в стані X0 або змінить його, не залежить від
минулого процесу. Припустимо тепер, що в момент t0 система перебуває в стані
X1 (ремонтується). Оскільки час ремонту також характеризується показовим
розподілом, то ймовірність закінчення ремонту в будь-який момент після t0 не
залежить від того, коли розпочався ремонт. Отже, процес є марковським.
Очевидно, що показовий розподіл часу роботи елемента й часу ремонту –
це істотні умови, без яких процес не був би марковським.
Наприклад, рівномірний закон розподілу часу безвідмовної роботи
системи приводить до того, що ймовірність відмови елемента залежить від
того, скільки часу він вже пропрацював.
Розглянемо методику розрахунку дискретних марковських процесів у
системі, характерної неперервним часом.
Нехай маємо випадковий процес, що відбувається в системі, можливі
стани якої Х0, Х1 … Хi ... Хj. Позначимо умовну ймовірність того, що в момент:
t = t0 + τ, система перебуватиме в стані Хj, якщо в момент t0 вона перебувала в
стані Хi, через pij(t0, τ). ВП називається марковським, якщо ця ймовірність
pij(t0, τ) залежить тільки від i, j, t0, τ тобто тільки від того, у якому стані система
була в момент t0 й у який стан вона перейде через час τ.
Таким чином, для опису поведінки системи в класі марковських
дискретних процесів, характерих неперервним часом, необхідно:
1. Ввести поняття стану системи.
2. Визначити всі стани, у яких може перебувати система.
3. Скласти граф станів і переходів системи, тобто окреслити шляхи
можливих безпосередніх переходів системи з одного стану в інший.
4. Для розрахунку перехідних процесів у системі визначити, у якому стані
вона перебуває в початковий момент часу.
5. Для кожного можливого переходу на графі показати інтенсивність λij
потоку подій, що переводять систему зі стану Хi в стан Хj. Інтенсивності λij, як
правило, визначаються експериментально.
Вичерпною характеристикою марковського процесу є сукупність
імовірностей Рj(t) того, що процес у момент часу t буде перебувати в стані Хj,
j 0, n . Ці ймовірності визначаються розв’язуванням системи таких
диференціальних рівнянь:
101
n n
Pj ' (t ) λij Pj (t ) Pi (t ) λij , j 0, n , (3.13)
j 0 j 0
i j
i j
а б
Х2
X2
Х3
Х1
Х3
Х1
Х4
Х4
n n
ij Pj Pi ij 0 , j 0, n . (3.15)
j 0 j 0
i j i j
102
П р и к л а д 3.6. Два абоненти А і В працюють із одним інформаційним
центром. У кожен момент часу центр може обслуговувати тільки одного
абонента. Абонент А має більш високий пріоритет, тому, якщо від А приходить
заявка, то обслуговування абонента В припиняється до закінчення
обслуговування абонента А. За таких умов потрібно:
1. Розрахувати ймовірності можливих станів даної системи, коли відомі
інтенсивності потоків подій, що переводять систему в сусідні стани.
2. З'ясувати, чи буде система працювати ефективно, коли відомо, що для
цього необхідно, аби втрати часу абонента В на очікування становили б не
більше 50 % часу його обслуговування.
3. Встановити, які параметри і яким чином повинні змінитися, щоб
підвищилася ефективність обслуговування абонента В?
Розв’язування
Уведемо поняття стану системи.
Очевидно, що стан системи визначається станом абонентів А і В. Для
абонента А можливі два стани: 0 – відсутність заявки; 1 – обслуговування. Для
абонента В можливі три стани: 0 – відсутність заявки; 1 – обслуговування; 2 –
очікування обслуговування. Тоді можна визначити такі стани системи:
(0, 0) – X1 – відсутність заявок від абонентів А і В;
(0, 1) – X2 – відсутність заявки від абонента А й обслуговування абонента
В;
(1, 0) – X3 – обслуговування абонента А і відсутність заявки від абонента
В;
(1, 2) – X4 – обслуговування абонента А й очікування обслуговування для
абонента В.
Граф станів і переходів системи має вигляд, який зображено на рис. 3.12.
λ21 X2
λ42
λ12 λ24
X1 X4
λ13
λ31 λ34
X3
103
( λ12 λ13 ) P1 λ21P2 λ31P3 0,
( λ λ ) P λ P λ P 0,
21 24 2 42 4 12 1
(3.17)
( λ31 λ34 ) P3 λ13P1 0,
λ42 P4 λ24 P2 λ34 P3 0.
2 P1 0,5P2 0,5P3 0,
P 3,5 P 4 P 0,
1 2 4
P1 2,5P3 0,
3P2 2 P3 4 P4 0.
P1 P2 P3 P4 1,
P 3,5P 4 P 0,
1 2 4
(3.18)
P1 2,5P3 0,
3P2 2 P3 4 P4 0.
10 36 4 29
P1 ; P2 ; P3 ; P4 .
79 79 79 79
Відношення часу очікування й часу обслуговування абонента В
визначається відношенням імовірностей станів Р4 і Р2, тобто
P4 29
.
P2 39
104
P4
Щоб зменшити відношення , необхідно зменшити інтенсивність
P2
потоків 21, 24 , 34 або збільшити інтенсивність потоків 12 і 42 .
П р и к л а д 3.7. В умовах попередньої задачі скласти граф станів і
переходів для визначення ймовірностей станів системи, якщо з інформаційним
центром працює три абоненти А, В, С, а їхні пріоритети мають вигляд
A > B > C.
Уведемо такі позначення:
0 – відсутність заявки,
1 – обслуговування,
2 – очікування обслуговування.
Тоді можливі стани системи можуть бути описані таким чином:
X1 – (0, 0, 0) – відсутність заявок від абонентів А, В, С;
X2 – (1, 0, 0) – обслуговування абонента А, відсутність заявок від
абонентів В, С;
X3 – (0, 1, 0) – обслуговування абонента В, відсутність заявок від
абонентів А, С;
X4 – (0, 0, 1) – обслуговування абонента С, відсутність заявок від
абонентів А, В;
X5 – (1, 2, 0) – обслуговування абонента А, очікування обслуговування
для абонента В, відсутність заявок від абонента С;
X6 – (1, 0, 2) – обслуговування абонента А, відсутність заявок від
абонента В, очікування для абонента С;
X7 – (0, 1, 2) – відсутність заявок від абонента А, обслуговування В,
очікування обслуговування для абонента С;
X8 – (1, 2, 2) – обслуговування абонента А , очікування обслуговування
для абонентів В, С.
X1 X2 X3 X4
X8 X7 X6 X5
105
§ 3.5. Марковські процеси типу «загибель – розмноження».
Рівняння Ерланга
f j (t ) j e jt ,
j 0, n . (3.19)
g j (t ) j e jt ,
( ) m
Pm ( ) e . (3.20)
m!
106
Завдання полягає у визначенні ймовірностей станів системи Pj(t), j 0, n ,
для будь-якого моменту часу t.
Оскільки обидва потоки подій λ і µ – найпростіші, то процес, який
триває в системі – марковський.
Визначимо спочатку ймовірність того, що в момент часу (t t ) система
перебуває в стані Х0. Це може відбутися у двох випадках:
А – у момент t система перебувала в стані Х0 і за час t не відбулося
жодної події з потоку λ.
В – у момент t система перебувала в стані Х1 і за час t відбулася подія з
потоку µ. Тоді
P0 (t Δt ) P( A) P( B) .
dP0 (t )
0 P0 (t ) 1 P1 (t ) .
dt
Тепер знайдемо диференціальне рівняння для будь-якої ймовірності
Pj (t ) , j 1, n 1 , тобто для будь-якого внутрішнього стану системи.
Позначимо події: А – система залишиться в стані Хj; В – система перейде
зі стану Хj -1 в стан Хj протягом часу t ; С – система перейде зі стану Хj+1 у
стан Хj протягом періоду t .
Вочевидь,
Pj (t t ) P( A) P( B) P(C ) .
107
P( B) Pj 1 (t ) j 1t – система перейде зі стану Хj -1 в стан Хj протягом
часу t .
dPj (t )
j 1 Pj 1 (t ) ( j j ) Pj (t ) j 1 Pj 1 (t ) , j 1, n 1 .
dt
dPn (t )
n1 Pn 1 (t ) n Pn (t ) .
dt
0 P0 1 P1 0,
j 1 Pj 1 ( j j ) Pj j 1 Pj 1 0, j 1, n 1, (3.22)
P P 0.
n1 n1 n n
108
n
Pj 1. (3.23)
j 0
λ λ λ λ
X0 X1 X2 X3 X4
µ 2µ 3µ 4µ
109
Система рівнянь Ерланга (3.23) в цьому окремому випадку має розв’язок
такого вигляду:
ak
Pk n k! j , k 0, n, (3.24)
a
j!
j 0
a .
3
Для наших даних n 4; a 6.
12
a4 64
P4 4 4! j 24 0,47 .
a 6 6 2 63 6 4
1
j! 1 1! 2! 3! 4!
j 0
a0
1
P0 4 0! j 1 2
0,0087 .
a 6 6 63 6 4
j! 1 1! 2! 3! 4!
j 0
110
λ λ λ
X0 X1 X2 X3
µ 2µ 3µ
1 1
P0 1 2 3
0,1579 – імовірність простою;
2 2 2 6,333
1
1! 2! 3!
a1
2
P1 1! 0,3158 ;
6,333 6,333
a2
2
P2 2! 0,3158 ;
6,333 6,333
a3
1,333
P3 3! 0,2105 – імовірність відмови.
6,333 6,333
111
Висновки
112
18. Як визначають ймовірність того, що за час τ відбудеться рівно m
подій у випадку найпростішого потоку?
19. Яка властивість є найсуттєвішою для визначення найпростішого
потоку?
20. Яка властивість показового закону розподілу використовується в
розрахунках найпростішого потоку подій?
21. Який потік подій називається нестаціонарним пуассонівським?
Потоком Пальма? Потоком Ерланга?
22. Яку структуру має граф випадкового процесу типу «загибель –
розмноження»?
23. Наведіть приклади реальних систем, що описуються моделлю ВП
типу «загибель – розмноження»?
24. Яким чином визначаються інтенсивності потоків подій? Від чого вони
залежать?
25. Виведіть формули Ерланга.
Задачі до розділу 3
5 1 0 0 0 0
6 6
0 5 1 0 0 0
6 6
P 0 0 5 1 0 0
6 6
0 0 0 5 1 0
6 6
1 0 0 0 0 5
6 6
113
Ланцюг Маркова, що описується даною матрицею, є скінченним
(оскільки число станів 6), незвідним (тому що з кожного стану можна дістатися
будь-якого іншого стану), неперіодичним і однорідним (матриця переходу не
залежить від номера випробування).
0,2 0,5 0,3 0,2 0,5 0,3 0,2 0,5 0,3 0,098 0,135 0,767
P 0,3 0,2 0,5 0,3 0,2 0,5 0,3 0,2 0,5 0,081 0,098 0,821 ,
3
0 0 1 0 0 1 0 0 1 0 0 1
0,098 0,081 0
( P 3 ) 0,135 0,098 0 ,
0,767 0,821 1
114
0,098 0,081 0 1 0,098
p(3) ( P 3 ) p(0) 0,135 0,098 0 0 0,135 .
0,767 0,821 1 0 0,767
0 0,3 0,7
P 0,6 0,4 0
0,2 0 0,8
0,3 0,7
0,6 0,4 0 (0,4 )(0,8 ) 0,7 0,2 (0,4 )
0,2 0 0,8
m
доповнену очевидною умовою: p j 1.
j 1
115
0 p1 0,6 p2 0,2 p3 p1 ,
0,3 p1 0,4 p2 0 p3 p2 ,
p p p 1.
1 2 3
Розв’язування
У загальному вигляді система рівнянь для розрахунку ймовірностей
станів Pj (t ) , j 1, n , має такий вигляд:
n n
P j (t ) Pj (t ) ji ij Pi (t ) , j 1, n .
i 1 i 1
i j i j
P (t ) P (t ) P (t ),
1 12 1 41 4
116
n
прирівняти похідні нулю й замінити одне з рівнянь умовою: pj 1 , тоді
j 1
відповідна система рівнянь записується таким чином:
P1 0,5P4 0,
1,9 P2 P1 0,8P3 0,
1,3P3 1,2 P2 0,
P P P P 1.
1 2 3 4
3λ 2λ λ
Х0 Х1 Х2 Х3
μ μ μ
117
Граничні ймовірності станів Pj , j 0,3 , обчислимо, розв’язуючи таку
систему рівнянь [див. формули (3.22), (3.23)]:
3P0 P1 0,
(2 ) P1 P2 3P0 0,
( ) P2 P3 2P1 0,
P3 P2 0,
P P P P 1.
0 1 2 3
1,5P0 3P1 0,
4 P1 3P2 1,5P0 0,
3P3 0,5P2 0,
P P P P 1.
0 1 2 3
λ λ λ λ
0 1 2 .... m
μ 2μ 3μ mμ
118
Імовірність відмови в обслуговуванні дорівнює ймовірності стану m,
тобто Pm . Отже, необхідно знайти таке мінімальне ціле значення m, щоб
виконувалася умова: Pm 0,016 . Скористаємося формулою Ерланга:
am
Pm m! j .
m a
j!
j 0
1
P3 6 0,0625 0,016 ,
11 1 1
2 6
якщо ж m 4 , то
1
P3 24 0,015385 0,016
1
11 1 1
2 6 24
0,5 0,5 0
P 0,3 0,5 0,2
0 0 1
0,5 0,5 0
P 0,3 0,5 0,2
0,2 0,3 0.5
119
Визначити властивості цього ланцюга Маркова й розрахувати
ймовірності станів системи через три кроки, якщо початковим її станом є
третій.
3. Дано таку матрицю переходів системи:
0,7 0,3 0
P 0,5 0,4 0,1
0,2 0,3 0,5
2
1
2
1,5
1 3
0,3
1,5 0,5
4
120
Список скорочень
ВВ випадкова величина;
ВП випадковий процес;
ВФ випадкова функція;
МС математичне сподівання;
СВП стаціонарний випадковий процес;
СВФ стаціонарна випадкова функція.
Список літератури
121
Предметний покажчик
А К
Автокореляційна функція 13 Канонічне розкладання 29
Коефіцієнти розкладання 28
Б Координатні функції 28, 31, 49, 61
Білий шум 57 Кореляційна теорія ВФ 9
Кореляційна функція 13
В Кореляційна функція нормована 43
Взаємна кореляційна функція 24
Л
Випадкова функція 4, 6
– – стаціонарна 42 Ланцюг 87
Випадковий процес 7 – Маркова 88
– – характерний дискретним часом 7 – – незвідний 88
– – – неперервним часом 7 – – періодичний 89
– – – неперервними станами 8 – – скінченний 88
Вільний рух системи 65 Лінійна система стаціонарна 64
Властивості дисперсії ВФ 11
– кореляційної функції 15 М
– математичного сподівання ВФ 9 Математичне сподівання ВФ 9
Вхідний сигнал 18
Н
Г Неперервні процеси, характерні
Граничний стаціонарний режим 102 дискретним часом 87
– – – неперервним часом 87
Д Нестаціонарний пуассонівський
Дискретні процеси, характерні потік 98
неперервним часом 87
– – – дискретним часом. 87 О
Дисперсія випадкової функції 11 Однорідний ланцюг 89
Оператор 19
Е – лінійний неоднорідний 21
Елементарна ВФ 26 – – однорідний 20
Ергодична властивість СВП 44
П
З Потік подій 94
Задача аналізу 19 – – без післядії 95
– виміру 19 – – марковський 101
– ідентифікації 20 – найпростіший 95
Закон розподілу ВФ одновимірний 8 – – ординарний 95
Змінні стану 86 – – пальма 99
– – пуассонівський 95
– – регулярний 95
122
– – стаціонарний 95 С
Примусовий рух системи 65 Система рівнянь Ерланга 108
Процес випадковий 7 Сім’я реалізацій 6
Процеси типу «загибель - Спектр процесу 48
розмноження» 106 Спектральна щільність ВФ 52
Р Ч
Реакція системи 18 Частотна характеристика системи 66
Реалізація випадковою функції 6
Розкладання ВФ 28 Щ
– – канонічне 29
Щільність потоку 95
Розріз ВФ 7
123
Навчальне видання
ВИПАДКОВІ ПРОЦЕСИ
Навчальний посібник