Professional Documents
Culture Documents
Ймовірнісні методи в механіці - PDF
Ймовірнісні методи в механіці - PDF
НАЦІОНАЛЬНИЙ
СУМСЬКИЙ
ТЕХНІЧНИЙ
ДЕРЖАВНИЙ
УНІВЕРСИТЕТ
УНІВЕРСИТЕТ
УКРАЇНИ «КПІ»
О. С. Цибенко
Ю. Я. Тарасевич
Суми
Cумський державний університет
2013
Навчальне видання
Навчальний посібник
Формат 60х84/16. Ум. друк. aрк. Обл.-вид. арк. Тираж 300 пр. Зам. №
Видавець і виготовлювач
Сумський державний університет,
вул. Римського-Корсакова, 2, м. Суми, 40007
Свідоцтво суб'єкта видавничої справи ДК №3062 від 17.12.2007.
УДК 519.21 (075.8)
ББК 34.445+22.12
Ц 56
Рецензенти:
В. В. Астанін - доктор фізико- математичних наук, професор
(Національний авіаційний університет);
Ю. Б. Гнучій - доктор технічних наук, професор
(Національний університет біоресурсів
та природокористування України);
Є. В. Штефан - доктор технічних наук, професор
(Національний університет харчових технологій)
ЗМІСТ
1. ВСТУП 6
6. ДИФЕРЕНЦІЮВАННЯ ТА ІНТЕГРУВАННЯ
ВИПАДКОВИХ ПРОЦЕСІВ 159
2)
Ріхард Едлер фон Мізес (1883–1953) – математик і механік
австрійського походження; праці присвячені аеродинаміці, прикладній
механіці, механіці рідин, аеронавтиці, статистиці та теорії ймовірностей.
У теорії ймовірностей запропонував частотну концепцію поняття
ймовірності, ввів у загальне вживання інтеграли Стілтьєса і першим
використав теорію марковських ланцюгів у фізиці.
3)
Закон великих чисел – перша асимптотична теорема теорії
ймовірностей, був уперше опублікований у праці
Я. Бернуллі «Мистецтво припущень», виданій у 1713. Перші доведення
цієї теореми вимагали складних математичних засобів, і тільки у 1867 р.
П. Л. Чебишев знайшов коротке доведення.
13
n n
P( A1 + A2 + ... + An ) = P ∑ Ak = ∑ P( Ak ) . (2.5)
k =1 k =1
Події в одному досліді утворюють повну групу,
якщо у результаті цього досліду обов'язково з'явиться
хоча б одне з них. Сума ймовірностей подій, що
утворюють повну групу, дорівнює 1.
n AB n A n B n A nB
= = ,
n n nB nB n
або у термінах ймовірностей
P ( AB) = P ( A / B) P ( B ) , (2.6)
P ( AB ) = P ( A ) P ( B ) ,
n n (2.8)
P ( A1 A2 ... An ) = P ∏ Ak = ∏ P ( Ak ).
k =1 k =1
A∩B
В
B∩C
B
А А
С
A∩B
A∩C A∩ B ∩C
а) б)
Рисунок 2.1
P ( A + B + C ) = P ( A) + P ( B ) + P (C ) − P ( AB ) −
− P ( BC ) − P ( AC ) + P ( ABC ).
Узагальнення результату для n подій Ak , що
перетинаються, де k = 1, 2, ... , n , дає
P ∑ Ai = ∑ P ( Ai ) − ∑ P ( Ai A j ) +
i i i, j
(2.10)
+ ∑ P ( Ai A j Ak ) + ... + (−1) n −1
P ( A1 A2 ... An ).
i , j ,k
Очевидно, що
P( AB) = P( BA) ,
тобто
P( A / B)P(B) = P(B / A)P( A) , (2.14)
4)
Томас Байєс (1702–1761) – англійський математик, сформулював і
розв’язав одну з основних математичних задач, яка дозволяє оцінити
ймовірність подій емпіричним шляхом і відіграє важливу роль у
сучасній математичній статистиці та теорії ймовірностей.
17
P ( A) = P ( H 1) P ( A / H 1) + P ( H 2) P ( A / H 2) =
n (n + 1) + nm
= .
(n + m)(n + m + 1)
X <x X
0 x x 0 x1 x2 x
а) б)
Рисунок 2.2
F (x)
1
PN
Р( Х < x) N
PK+1
∑P K =1
PK K =1
P2
P1
x1 x2 0 xK x xk+1 xN x
Рисунок 2.3
def b
P(a ≤ X ≤ b ) = ∫ p ( x)dx = F (b) − F (a) . (2.26)
a
F ( x)
1
F (b )
Функція розподілу
F (a)
0.5
a x
0 b
p( x)
а)
Щільність ймовірності
∫ p ( x ) dx = F ( b ) − F ( a )
a
x
*
x x ** 0 a b
б)
Рисунок 2.4
∫ p( x)dx = 1 . (2.27)
−∞
26
F ( x)
1 p ( xN )
p ( x3 )
p ( x2 )
p ( x1 )
x
x1 x2 x3 xk xN
p( x)
p ( x3 ) p ( xk )
p ( x2 ) p ( xN )
preg ( x )
x
x1 x2 x3 xN
Рисунок 2.5
c
m x
x
A A
Рисунок 2.6
x π
x
1
F ( x) = ∫
−A
p ( x ) dx =
π
arcsin + .
A 2
Ймовірність знаходження маси m у довільний
(випадковий) момент часу в інтервалі [x1 , x2 ] дорівнює
x2
P( x1 ≤ X ≤ x2 ) = ∫ p ( x)dx = F ( x2 ) − F ( x1 ) =
x1
1 x x
= arcsin 2 − arcsin 1 .
π A A
π
A + Barctg ( −∞ ) = A − B = 0,
2
A + Barctg (+∞) = A + π B = 1.
2
1 1
Звідки знаходимо A = ,B= .
2 π
Із визначення щільності ймовірності (2.24)
отримаємо
dF ( x) Ba a
p( x) = = 2 = .
dx (a + x 2 ) π(a 2 + x 2 )
Відзначимо, що параметр розподілу B можна також
знайти з умови нормування (2.27):
∞ ∞
Ba x π π
∫−∞ (a 2 + x2 )dx = Barctg a −∞ = B 2 + 2 = 1 .
1
Звідки отримуємо попередній результат: B = .
π
Згідно з (2.26) шукана ймовірність виявлення
випадкової амплітуди навантаження в інтервалі (α , β )
дорівнює
1 β α
P(α < X < β ) = F ( β ) − F (α ) = arctg − arctg .
π a a
32
def
∑xj
j =1
Х = . (2.29)
n
Нехай далі значення х1 випадкової величини Х у
серії з п дослідів відтворюється п1 разів, х2 – п2 рази і
т. д. аж до хт , що відтворюється пт разів. При цьому
загальна кількість дослідів п = п1 + п2 + ... + пт . Тоді,
скориставшись формулою для середнього
статистичного (2.29), матимемо
m
∑ x jn j m nj m
j =1
X= = ∑xj = ∑ x j P( x j ) , (2.30)
n j =1 n k =1
nj
де – так звана емпірична частота (аналог
n
імовірності (2.2)).
Першою числовою характеристикою випадкової
величини X є її математичне сподівання Х .
Для дискретно розподілених випадкових величин
математичне сподівання визначається як
33
def n
X = ∑ x j P( x j ) . (2.31)
j =1
у у/
p (x) C
x
O X O′ x x + dx
Рисунок 2.7
(x − ) ∫ (x − )
def 2 2
DХ = X = X p ( x)dx =
−∞
∞
= ∫ (x − 2x X + X ) p( x)dx =
2 2
(2.37)
−∞
∞
= ∫x p ( x)dx − 2 X + X = X2 − X .
2 2 2 2
−∞
σ X = DХ . (2.38)
Із (2.37) бачимо, що розмірність дисперсії дорівнює
квадрату розмірності випадкової величини, а з (2.38)
можемо зробити висновок, що розмірність середнього
квадратичного відхилення збігається з розмірністю
випадкової величини X .
37
(X − X )4
γ= − 3, (2.40)
σ x4
який характеризує ступінь відхилення закону розподілу
випадкової величини X від нормального (гаусового6))
розподілу (див. додаток А), для якого α = γ = 3.
6)
Іоганн Карл Фрідріх Гаус (1777–1855) – німецький математик,
астроном і фізик. Вважається одним із найвидатніших математиків усіх
часів. З ім'ям Гауса пов'язані фундаментальні дослідження майже у всіх
основних розділах математики: алгебрі, диференціальній і неевклідовій
геометрії, в математичному аналізі, теорії функцій комплексної змінної,
теорії ймовірностей, а також в астрономії, геодезії та механіці.
38
( l
)
P X − X < l = 2Ф − 1 .
σ x
39
l
σx
( )
= 2 , P X − X < l = 0,9544 ,
l
σx
( )
= 3 , P X − X < l = 0,9972 .
0 0
b a
RA = P, RB = P,
a+b a+b
a 2b 2 ab
wc = P, σCmax = P,
3EJ (a + b) (a + b)W
де W – момент опору при вигині.
y
P
RA RB
wc x
A B
a b
Рисунок 2.8
x
0
l
Рисунок 2.9
M max
σ max = ,
Wx
де M max = Pl – згинальний момент у замуруванні;
Jx
Wx = – момент опору при вигині; y max – відстань
y max
від нейтральної осі до найбільш віддаленої точки
поперечного перерізу.
Математичне сподівання та дисперсія
максимального нормального напруження відповідно
дорівнюють:
σ max = a P , Dσmax = a 2 DР ,
l
де a= – детерміністична величина, що
Wx
характеризує геометрію балки.
Внаслідок лінійного зв’язку між σ max та нормально
розподіленим випадковим навантаженням P
напруження також матиме нормальний (гаусів)
розподіл. Тому для знаходження інтервалу можливих
значень максимального напруження скористаємося
правилом трьох сигм. Так, з імовірністю 99,7 %
значення максимального нормального напруження
лежать в інтервалі:
σ max − 3 Dσmax ≤ σmax ≤ σmax + 3 Dσmax ,
або
( ) (
a P − 3 DР ≤ σ max ≤ a P + 3 DР . )
45
7)
Жан Батіст Жозеф Фур'є (1768–1830) – видатний французький
математик і фізик. Перетворення Фур'є використовується у багатьох
галузях науки: фізиці, теорії чисел, комбінаториці, обробці сигналів,
теорії ймовірностей, статистиці, криптографії, акустиці, океанології,
оптиці, геометрії та багатьох інших.
46
dk f
X k
= (−i )k
. (2.43)
d ξk ξ=0
d2 f ∂ 1
X 2
= −i 2 = − ia 2
=
dξ ξ=0 ∂ξ (1 − iaξ ) ξ=0
(−2)(−ia )
= −i a = 2a 2 .
(1 − iaξ) ξ=0
3
За формулою (2.37):
DХ = X 2 − X = 2a 2 − a 2 = a 2 .
2
p (x)
1
2a
S =1 x
−a a
Рисунок 2.10
Згідно із (2.41) характеристична функція випадкової
величини X :
49
∞
iξx
f (ξ ) = ∫ p ( x )e dx .
−∞
Для заданого рівномірного закону розподілу, з
урахуванням формули Ейлера: eix = cos x + i sin x , маємо
sin(ξ a )
a a
1 iξx 1
f ( ξ) = ∫ e dx = 2 ∫ cos(ξx)dx = .
−a
2 a 0
2 a ξ a
Перший початковий момент (математичне
сподівання) випадкової величини X знаходимо як
df (ξ) cos(ξa ) sin(ξa )
X = −i = −i − .
dξ ξ=0 ξ ξ2 a ξ = 0
Введемо змінну x = ξa , тоді
cos( x) x sin( x)
X = −ia − .
x
2
x 2 x=0
Застосовуючи правило Лопіталя, отримаємо
cos( x) − x sin( x) − cos( x)
X = −ia = 0,
2x x =0
8)
Абрахам де Муавр (1667–1754) – англійський математик
французького походження. Вніс значний вклад у теорію ймовірностей:
довів окремі випадки теореми Лапласа. Провів імовірнісне дослідження
азартних ігор і ряду статистичних даних із народонаселення. Крім
нормального, використовував рівномірний розподіл.
П'єр-Симон Лаплас (1749–1827) – видатний французький математик,
фізик і астроном; відомий працями у сфері небесної механіки,
диференціальних рівнянь, один із засновників теорії ймовірностей. Його
праці зробили значний внесок у галузі чистої та прикладної математики
і особливо астрономії.
51
x2
1 1 −2 m − np
Pn (m) = e , x= , (2.44)
npq 2π npq
за умови
Pn (m)
lim =1.
n→∞ x2
(
1 / 2πnpq ) −
e 2
Формула (2.44) виражає локальну теорему Муавра-
Лапласа: при n → ∞ та скінченному p (а відповідно
і q ) біноміальний розподіл асимптотично прямує до
нормального (гаусового) розподілу [13].
Під час розгляду числа проявів події А (при
p, q = const ), як правило, необхідно визначити
ймовірність того, що число n лежить між деякими
значеннями a і b . Оскільки при достатньо великих n
безпосереднє використання біноміального розподілу
вимагає громіздких розрахунків, то використовують
асимптотичну формулу
2
m − np
b t
1 −
lim P a ≤
п→∞ npq
≤ b = ∫
2π а
e 2 dt.
Звідси, зокрема, випливає, що ймовірність проявлення
події А не менше m1 та не більше m2 разів у п
дослідах може бути визначена за наближеною формулою
m − np m1 − np
Pn ( m1 , m2 ) ≈ Ф 2 − Ф , (2.45)
npq npq
x t2
1 −
де Ф( х) =
2π −∞∫ e 2 dt .
52
9)
Олександр Михайлович Ляпунов (1857–1918) – видатний російський
математик і механік. Основні праці присвячені механіці, математичній
фізиці і теорії ймовірностей.
53
x2 25
1 − 1 −
P≈ e 2 = e 18 = 0,033 .
2πnpq 3 2π
Приклад 2.12. Ймовірність виготовлення якісної
деталі на верстаті дорівнює 0,9. Скільки деталей
необхідно обробити, щоб із імовірністю 0,98 можна було
очікувати, що не менше 150 деталей будуть якісними?
Розв’язання. За умовами задачі
p = 0,9, q = 0,1, m1 = 150, m2 = n,
Pn (150, n) = 0,98.
Застосовуючи формулу (2.44), з урахуванням
заданих значень m1 , m2 і Pn (m1 , m2 ) , отримаємо
X1
def def X 2
X = ( X 1 , X 2 , ... ,XX n ) , або X = . (2.47)
...
Xn
Компоненти випадкового вектора можуть мати
різний фізичний зміст. Наприклад, датчики, що
розміщені на космічних ракетах-носіях, вимірюють та
передають на Землю до декількох десятків різних,
взагалі кажучи, випадкових параметрів: швидкість,
прискорення, температуру, тиск, напруження,
деформації та ін.
Для опису ймовірнісних властивостей
векторної випадкової величини, як і у раніше
55
( )
def
F ( x) = P X < x ,
де векторна нерівність у дужках є умовною.
Для безперервної сумісної функції розподілу
F ( x1 , x2 , ... , xn ) сумісну щільність імовірності
компонент n -вимірного випадкового вектора
визначаємо диференціюванням:
56
∂ F ( x1 , x2 , ... , xn )
def n
p ( x ) = p ( x1 , x2 , ... , xn ) = . (2.50)
∂x1 ∂x2 ... ∂xn
Пояснимо фізичний зміст сумісної щільності
ймовірності. Множачи p ( x ) на елемент об’єму dV у
n -вимірному просторі значень, отримаємо
dx1
X dx2
x2
x2
x1
x1
Рисунок 2.11
і т. д.
58
x3 X y3 Y
dVх dVу
X
X ∈ dVх Y Y ∈ dVy
x2 y2
x1 y1
Рисунок 2.12
Ототожнимо подію A з виявленням вектора X , а
подію B – з виявленням вектора Y , крім того, нехай
подія B передує події A . За (2.58) отримаємо аналог
теореми множення для компонент випадкового
вектора:
p ( x ⋅ y) = p ( x / y) p ( y) , (2.59)
60
X1
X2
X = . (2.67)
...
X n
У свою чергу, змішані початкові моменти 2-го
порядку
∞ ∞
X j Xk = ∫ ∫xx
−∞ −∞
j k p ( x j , xk )dx j dxk ,
(2.68)
j , k = 1, 2, ... , n,
де p ( x j , xk ) - сумісна щільність імовірності j -ї та k -ї
компонент n -вимірного випадкового вектора,
утворюють квадратну матрицю розмірами n × n .
Змішаним початковим моментам третього
порядку відповідає кубічна матриця
∞ ∞ ∞
X j Xk Xm = ∫ ∫ ∫ x j xk xm p ( x j , xk , xm ) dx j dxk dxm .(2.69)
−∞ −∞ −∞
∞ ∞
X jXk = ∫ ... ∫
−∞ −∞
x j xk p ( x1 , x2 ,... , xn )dx1dx2 ... dxn =
n (2.71)
∞ ∞
= ∫ ∫ x x p ( x , x ) dx
−∞ −∞
k j k j k dx j .
( )(X )
def def
~ ~
K jk = X j ⋅ X k = X j − X j k − Xk =
def ∞ ∞ (2.72)
= ∫ ∫ (x j − Xj )(x k − X k ) p ( x j , xk )dx j dxk ,
−∞ − ∞
64
або
K11 K12 ... K1n
K K ... K
K = 21 22 2n
, (2.73)
.......................
K n1 K n 2 ... K nn
~
де X j = X j − X j – центрована j-та компонента
випадкового вектора X .
Кореляційна матриця компонент випадкового
вектора має такі властивості:
1. Задовольняє умови парності:
K jk = K kj . (2.74)
K 2jk ≤ K jj K kk . (2.77)
10)
Опостен Луї Коші (1789–1857) – французький математик, автор
фундаментальних досліджень у галузі теорії чисел, алгебри,
математичного аналізу, диференціальних рівнянь, теоретичної механіки,
математичної фізики, теорії ймовірностей та ін.
Віктор Якович Буняковський (1804–1889) – автор першого курсу теорії
ймовірностей російською мовою, засновник сучасної російської
термінології в теорії ймовірностей, автор оригінальних досліджень у
галузі статистики і демографії.
66
ρ jk ≤ 1 . (2.79)
1 − 3− x1 − 3− x2 + 3− x1 − x2 , x1 ≥ 0, x2 ≥ 0;
F ( x1 , x2 ) =
0, x1 < 0, x2 < 0.
Знайти сумісну щільність імовірності p ( x1 , x2 ) цих
компонент.
Розв’язання. Для знаходження сумісної щільності
ймовірності компонент випадкового вектора визначимо
частинні похідні:
67
∂F
= ln 3 ( 3− x1 − 3− x1 − x2 ) ,
∂x1
∂2F
= 3− x1 − x2 ln 2 3 .
∂x1∂x2
Шукана функція
def
∂2F 3− x1 − x2 ln 2 3, x1 ≥ 0, x2 ≥ 0;
p ( x1 , x2 ) = =
∂x1∂x2 0, x1 < 0, x2 < 0.
∫ ∫ A sin( x + y)dxdy = 1 .
00
Послідовно інтегруючи спочатку за x , потім за y ,
отримаємо
68
ππ π
2 2 2
π
∫∫ A sin( x + y ) dxdy = − ∫ cos 2 + y − cos( y) dy =
00 0
π
π 2
= − sin + y − sin( y ) = 2.
2 0
1
Звідки A = .
2
Згідно із (2.50) сумісна функція розподілу
x y x
1 1
F ( x, y) = ∫∫ sin ( ξ + η) d ξdη = − ∫ cos ( ξ + y ) − cos ( ξ) dξ =
00
2 20
1
= ( sin(x) + sin( y) − sin( x + y)).
2
На основі умови узгодженості (2.70) визначаємо
математичне сподівання кожної з
компонент:
π π π π
2 2 2 2
x y
X = Y = ∫∫ sin( x + y )dxdy = ∫∫ sin( x + y )dxdy =
0 0
2 0 0
2
π
1 π2
=− ∫ x cos + x − cos( x) dx =
20 2
π
1 π π 2
= − cos + x − cos( x) + x sin + x − x sin( x) = 0,785.
2 2 2 0
Діагональні компоненти кореляційної матриці
(дисперсії) знаходимо за формулою (2.72):
69
π π
2 2
K xx = DХ = ∫∫ ( x − X )
2
p ( x, y )dxdy =
0 0
π π
2 2
1
= ∫∫ ( x − 0,785) sin( x + y )dxdy =
2
0 0
2
π π
K XY = ∫ ∫ (x − X )( y − Y ) p ( x, y )dxdy = − 0,046 .
22
0 0
dFx ( x)
p x ( x) = .
dx
Знайдемо закони розподілу випадкової величини Y :
Fy ( y ) та p y ( y ) .
Розглянемо два окремих випадки.
1. Функція f ( X ) монотонна, випадковий
аргумент X безперервно розподіляється в інтервалі
−∞< x<∞.
Згідно із (2.16) функція розподілу випадкової
величини Y дорівнює
def
Fy ( y ) = P (Y < y ) , (2.80)
де
def
P(Y < y ) = P( f ( X ) < y ) = ∫ p x ( x)dx . (2.81)
f ( X )< y
Fy ( y ) = ∫
f ( X )< y
p x ( x)dx = ∫ p [ g ( y)] g ′( y) dy ,
−∞
x (2.85)
кратним інтегруванням
сумісної щільності ймовірності
компонент вектора X :
Y1 < y1
Y < y
Fy ( y1 , y2 , ... , ym ) = P 2 2 =
...
(2.91)
Ym < ym
= ∫ ...∫ p( x1, x2 , ... , xn )dx1 dx2 ... dxn ,
V
при цьому область V інтегрування у (2.91)
визначається сукупністю нерівностей:
f k ( X 1 , X 2 , ... , X n ) < y k , k = 1, 2, ... , m . (2.92)
Спочатку розглянемо випадок, коли m < n .
Припустимо, що серед n аргументів x1 , x2 , ... , xn
завжди можна знайти такі m аргументів, для яких
вирази через обернені функції
xk = g k ( y1 , y 2 , ... , y m ), k = 1, 2, ... , m (2.93)
будуть однозначними та диференційованими.
Проведемо заміну даних m змінних у виразі для
сумісної щільності ймовірностей:
p x ( x1 , x2 , ... , xn ) = p x ( g1 , g 2 , ... , g m , xm+1 , xm+ 2 , ... , xn ).
Як і в одновимірному (скалярному) варіанті (п.
2.4.1), із рівності елементарних об’ємів у зв’язаних
підпросторах X m і Y m розмірності m маємо
dVxm = dx1 dx2 ... dxm = J dy1 dy2 ... dym = J dVym , (2.94)
де якобіан перетворення J згідно із (2.93) визначається як
75
Fy ( y1, y2 , ... , ym ) =
y1 ym ∞ ∞
= ∫ ... ∫ ∫ ... ∫ px ( g1, g2 , ... , gm ; xm+1, xm+2 , ... , xn ) × (2.96)
−∞ −∞ −∞ −∞
m n−m
( )
Тут ураховано, що область визначення f k X < yk
(2.92) відповідає інтервалам [− ∞, y k ], k =1, 2, … ,m.
Сумісну щільність імовірності p y ( y1 , y 2 , ... , y m )
отримаємо диференціюванням функції розподілу (2.96)
за аргументами y1 , y 2 , ..., y m :
def
py ( y1, y2 , ... , ym ) = J p [ g1, g2 , ... , gm ] =
m
x
∞ ∞
= ∫ ... ∫ px [ g1, g2 , ... , gm ; xm+1, xm+2 , ... , xn ]× (2.97)
−∞ −∞
n−m
p y ( y ) = px [ g ( y ) ] J .
(2.98)
∑ f ( x )n k k m
nk
f (X ) = k =1
= ∑ f ( xk ) . (2.101)
n k =1 n
nk
Оскільки емпірична частота є аналогом
n
імовірності (п. 2.2.2), то можна від статистичних
характеристик перейти до ймовірнісних, наприклад, у
випадку безперервних розподілів:
∞
f (X ) = ∫ f ( x) p( x)dx . (2.102)
−∞
( f (X ) − )
k
fɶ ( X )k = f (X ) =
∞ (2.104)
∫ ( f ( x) − )
k
= f (X ) p ( x)dx,
−∞
~ ~
де f ( X ) – центрована функція f ( X ) = f ( X ) − f ( X ) .
Числові характеристики невипадкової функції
декількох випадкових величин Z = f ( X 1 , X 2 , ... , X n )
визначаються тотожно одновимірному випадку.
Так, математичне сподівання дорівнює
Z = f ( X1, X 2 , ... , X n ) =
∞ ∞
= ∫ ... ∫ f ( x1, x2 ,... , xn ) p ( x1, x2 , ... , xn )dx1 dx2 ... dxn ; (2.105)
−∞ −∞
n
дисперсія
∞ ∞
∫ ... ∫ ( f ( x , x , ... , x ) − )
2
DZ = 1 2 n Z ×
−∞−∞ (2.106)
n
Zɶ k = ( Z − Z )
k
=
∞ ∞
= ∫ ... ∫ ( f (x1, x2,... , xn ) − Z )
k (2.108)
р(x1, x2, ... , xn )dx1 dx2 ... dxn.
−∞ −∞
n
( )
1 1 − 2
p y ( y) = p x (− y ) + p x ( y ) = e σ .
2 y 2πyσ 2
x=− y
x= y
Y=y
Рисунок 2.13
y y y′
1 − 2
F ( y) = ∫ p y ( y′)dy′ = ∫ 2πyσ 2
e σ dy ′ .
−∞ −∞
X
l
Рисунок 2.14
Розв’язання. Для балки (рис. 2.14) момент у
замуруванні дорівнює M = QX .
82
M
Випадкове навантаження Q = є однозначною
X
функцією M в області можливих значень Q , при
цьому умова qx < m як для m > 0 (рис. 2.15 а), так і
для m < 0 (рис. 2.15 б) відповідає області інтегрування
m
за q : − ∞ ≤ q < . У зв’язку з цим функція розподілу
x
моменту у замуруванні визнається як
l m
m1
F (m) = ∫ p2 ( x) ∫ p1 dm dx =
0 −∞ x x
2
l m 1 m
1 1 −
=∫ ∫ e 2 x dmdx.
0 −∞ x 2π
l
Відповідно щільність імовірності у замуруванні
дорівнює
l m2
def
dF (m) 1 1 −
p ( m) = = ∫ e 2 x 2 dx .
dm l 0 x 2π
83
q q
m>0
m< 0
m
q=
x
x l x
l
m
q=
x
а) б)
Рисунок 2.15
q2
1 −2
p1 (q ) = e (− ∞ ≤ q ≤ ∞ ) і рівномірний
2π
розподіл площі S поперечного перерізу
1
, 8 ≤ s ≤ 12 см ,
2
p 2 (s ) = 4
0 , s > 8 , s > 12 см 2 ,
причому Q , S – незалежні випадкові величини.
Визначити щільність імовірності нормального
Q
напруження Σ = у стрижні.
S
Рисунок 2.16
p (q, s ) = p1 (q ) p 2 ( s ) .
85
S
Q
Рисунок 2.17
1 − σ 2s 1 σ s
2 2 2 2
12 12
1 −
p ( σ) = ∫ e sds = ∫ e 2 sds =
8 2π 4 4 2π 8
σ2 s 2
1 2 1 − σ 2s σ2 s 2
2 2
12 12
1 −ds 2
4 2π ∫8 4 2π z 2 ∫8
= e 2
= − 2 e d− =
2 2
1 1 − σ 2s s = 12 − 64 σ 144 σ
2 2 2 2
1 −
= − 2 e = e
2
2
−e 2 =
4 2π σ s = 8 4 2πσ
=
4 2πσ
1
2
2
(
e−32σ − e−72σ .
2
)
Остаточно
p (σ ) =
1
4 2π σ 2
e (
−32σ 2
− e −72σ 2
)
, −∞≤ z ≤∞.
F (σ ) = ∫∫ p (s, q )dqds
Q
<σ
S
q q
<σ відповідає заштрихована область <σ
s s
q < σ s ( σ > 0) ,
(область інтегрування):
q > σ s ( σ < 0).
Область інтегрування
область інтегрування
8 12
s
Рисунок 2.18
Таким чином,
σ 12 (σs ) 2
−
F (σ ) =
1 1
∫∫ e 2 sdσds.
−∞ 8 2π 4
(σ s )2
dF (σ ) 1 12 1 −
p (σ ) = = ∫ e 2 ds =
dσ 4 8 2π
(e )
12 σ 2s 2
1 1 −32σ 2
− e −72σ , − ∞ ≤ σ ≤ ∞.
2
= ∫ se 2 ds =
4 2π 8 4σ 2 2π
89
11)
Андрій Андрійович Марков (1856–1922) – учень П. Л. Чебишева,
засновник абсолютно нової гілки теорії ймовірностей – теорії
випадкових, або «стохастичних», процесів.
Олександр Якович Хінчин (1894–1959) – один із засновників радянської
школи теорії ймовірностей (ним отримані важливі результати у сфері
граничних теорем, дано визначення випадкового стаціонарного процесу
і закладені основи теорії таких процесів).
Норберт Вінер (1894–1964) – американський вчений-математик,
відомий своїми працями з теорії потенціалу, гармонійних функцій, рядів
і перетворень Фур'є та ін. Велике значення в теорії випадкових процесів
(вінерівських процесів) отримала введена Вінером міра у просторі
неперервних функцій ("вінерівська міра").
Андрій Миколайович Колмогоров (1903–1987) – вчений-математик,
автор фундаментальних праць у галузі теорії ймовірностей та теорії
випадкових процесів.
90
N
реализації
Реалізації
2
1
t
t1 t2 t3
Рисунок 3.1
U (t1 ) < u1
def U (t ) < u
F (u1 , u 2 , ... , u n ; t1 , t 2 , ... , t n ) = P 2 2
. (3.3)
...............
U n (t n ) < u n
Сумісна щільність імовірності, що відповідає
безперервній функції розподілу (3.3), визначається як
def ∂n F(u ,u , ... ,u ;t ,t ,... ,t )
p(u1,u2, ...,un;t1,t2 , ... ,tn ) = 1 2 n 1 2 n
. (3.4)
∂u1 ∂u2 ... ∂un
Багатоточкові сумісні функції розподілу та
щільності ймовірності випадкових процесів мають
ті самі властивості, що й функції розподілу
випадкових величин (п. 2.2.1). При цьому
багатоточкові характеристики, що задаються за
93
U p ( u , t1 ) p ( u , t 2 ) p (u , t 2 )
p (u1 , u 2 ; t1 , t 2 )
N1
N2
U ( t2 )
U ( t1 ) U ( t1 )U ( t2 )
t
t1 t2
Рисунок 3.2
94
U
U (t )
t
Рисунок 3.3.
і т. д.
95
∞ ∞
(3.7)
= ∫ ... ∫ ( u1 − U (t1) ) (u 2 − U (t2 ) ) ×
−∞ −∞
n
∞ ∞ ∞ ∞
− ct − c − c (t +1) e−c(t +1) A
= ∫ ap(a)da ∫ e e dc = A ∫ e dc = A = .
−∞ 0 0
−(t + 1) 0 t + 1
Кореляційна функція процесу
~ ~ A −Сt2 A
KU (t1 , t2 ) = U (t1 )U (t2 ) = Ae−Сt1 − Ae − =
t1 + 1 t 2 + 1
2 −Сt1 −Сt2
Ae−Сt1 A Ae−Сt2 A A
2
= Ae e − − + =
t2 + 1 t1 + 1 (t1 + 1)(t2 + 1)
2
2 −Сt1 −Сt2 A
= Ae e − .
(t1 + 1)(t2 + 1)
Другий початковий момент, що входить до виразу
кореляційної функції, дорівнює
∞ ∞
2 −С (t1 +t2 ) 2 −c (t1 +t2 ) e−ct
U (t1 )U (t2 ) = A e = ∫ ∫a e p(a) p(c)dadc =
−∞ 0
∞ ∞
−c (t1 +t2 ) −c
A2
= ∫ a p(a)da∫ e
2
e dc = .
−∞ 0
t1 + t2 + 1
За визначенням (2.37), дисперсія випадкової
величини DA = A − A , звідки
2 2
A2 = DA + A .
2
99
= 1 .
(t1 + t2 + 1)(t1 + 1)(t2 + 1)
Приклад 3.2. Задано випадковий процес
X (t ) = A sin t , де A – випадкова величина, що
описується нормальним законом розподілу з
параметрами A ,σ . Визначити одноточкову щільність
імовірності та функцію розподілу процесу при
t ≠ kπ (k = 0; ± 1; ± 2; ...) .
Розв’язання. Визначимо числові характеристики
випадкового процесу X (t ) .
Математичне сподівання
X (t ) = A sin t = A sin t .
Кореляційна функція
K X (t , t ′) = Xɶ (t ) Xɶ (t ′) = (A− A ) sin t ( A − A ) sin t ′ =
1 −
p ( x, t ) = 2 σ sin t
2 2
e ,
2πσ sin t
а функція розподілу ймовірності
1 x − A sin t
F ( x, t ) = + Ф ,
2 σ sin t
2
t x
1 −
де Ф( x) = ∫
2π 0
e 2 dt – інтеграл імовірностей [2].
Y (t ) = X 1 cos t + X 2 sin t + t =
= X 1 cos t + X 2 sin t + t = −0,5cos t + sin t + t.
Знайдемо кореляційну функцію
KY (t1 , t2 ) = Yɶ (t1 )Yɶ (t2 ) =
+ ( X2 − X2 )( X1 − X1 ) sint1 cost2 + ( X2 − X2 )
2
sint1 sint2 =
= DX1 cost1 cost2 + 2KX1X2 ( cost1 sint2 + sint1 cost2 ) + DX2 sint1 sint2 =
= 3cost1 cost2 − 4sin(t1 + t2 ) + 2sint1 sint2.
Для визначення дисперсії скористаємося
властивістю кореляційної функції
DY = KY (t1 = t2 ) = 3cos 2 t − 4sin 2t + 2sin 2 t .
Стаціонарні процеси
у широкому розумінні Випадкові
(за Хінчиним) процеси
Стаціонарні
випадкові процеси
Ергодичні
стаціонарні
випадкові
процеси
Рисунок 3.4.
1
2
реализации
Реалізації
...
k
τ
t
t1 t2 = t1 + τ
Рисунок 3.5.
U U
∆t
t t
0 0
а) б)
Рисунок 3.6
106
KU (τ)
2τ → 0
τ
0
Рисунок 3.7
p (ϕ )
1
2π
0 2π ϕ
Рисунок 3.8
A 2π
=− cos ( ωt + ϕ ) 0 = 0,
2π
108
де u~ (t ) = u (t ) − U (t ) .
111
U
u (t ) – реалізація ергодичного
випадкового процесу
t
t t +T
T
Інтервал усереднення
Рисунок 3.9
∫
−∞
KU (τ) d τ < ∞ ,
12)
Ру́дольф Э́миль Ка́лман (1930) – інженер та дослідник у галузі теорії
керування. Вніс суттєвий вклад у сучасну теорії керування (вважається
одним із її засновників), найбільш відомий як творець фільтра Калмана.
Володимир Семенович Пугачов (1911–1998) – вчений-механік, основні
праці якого присвячені статистичній теорії процесів керування,
інформатиці, авіаційній балістиці, динаміці польоту, теорії канонічних
розкладань випадкових функцій, статистичній теорії систем, що
описуються стохастичними диференціальними та різницевими
рівняннями та ін.
112
= ∑∑ U j Uk ϕ j (t1 )ϕ k (t2 )
j k
або, враховуючи умови ортогональності спектра (3.23):
KU (t1, t2 ) = ∑ Uk2 ϕk (t1 )ϕk (t2 ) = ∑ DUk ϕk (t1 )ϕk (t2 ) .(3.24)
k k
Як буде показано у п. 3.5, спектральне розкладання
стаціонарних випадкових процесів є стохастино
ортогональним ( та навпаки).
114
∞
U (t ) = U (t ) + ∫ U (ω )ϕ ( t ω ) dω , (3.27)
−∞
Wk = 0, W jWk = KW jWk .
Кореляційна функція прогинань балки визначається
як
∞ ∞
j πx k πx′
KW ( x, x′) = ∑∑ W jWk sin sin =
j =1 k =1 l l
∞ ∞
j πx k πx′
= ∑∑ KW jWk sin sin .
j =1 k =1 l l
При задовільних граничних умовах дискретне
спектральне подання прогинань має вигляд
∞
W ( x) = W0 ( x) + ∑Wk X k ( x) ,
k =1
Кореляційна функція
KU (t1 , t2 ) = (U (t1 ) − U (t1 ) )(U (t ) −
2 U (t2 ) ) =
∞ ∞
= ∑ ( X k sin ωk t1 + Vk cos ωk t1 )∑ ( X j sin ω jt2 + V j cos ω jt2 )
k =0 j =0
=
∞ ∞
(
= ∑∑ X k X j sin ωk t1 sin ω j t2 + Vk X j cos ωk t1 sin ω jt2 +
k =1 j =1
(
= ∑∑ X k X j sin ωk t1 sin ω j t2 + VkV j cos ωk t1 cos ω j t2 .
k =1 j =1
)
Позначимо K X k X j = X k X j , KVkV j = VkV j , тоді
KU (t1 , t2 ) =
( )
∞ ∞
= ∑∑ KXk X j sin ωkt1 sin ωjt2 + KVkVj cos ωkt1 cos ωjt2 ,
k =1 j =1
118
або
∞ ∞
KU (t1 , t 2 ) = ∑∑ Yk Y j ϕ k (t1 )ϕ j (t 2 ),
k =1 j =1
Якщо DX j = DV j = D j , то
∞
KU (t1 , t2 ) = ∑ D j cos(t2 − t1 ) = KU (τ) , однак процес
j =1
де ωk – детерміністичні частоти; A0 , Ak , Bk –
випадкові коефіцієнти розкладання. Даному
розкладанню відповідає дискретний комплексний
аналог:
U (t ) = ∑ Uk eiωk t , (3.30)
k
i ωk t
де e = cos ωk t + i sin ωk t – формула Ейлера13) [8].
Комплексно-спряжена форма до (3.30) має вигляд
U * (t ) = ∑ Uk*e −iωk t . (3.31)
k
13)
Леонард Ейлер (1707–1783) – видатний математик, фізик, механік.
Зробив істотний внесок у становлення і розвиток математичного
аналізу, диференціальної геометрії, теорії чисел, небесної механіки,
математичної фізики, оптики, балістики, кораблебудування, теорії
музики та ін.
120
−iω jt1
KU (t1, t2 ) = U * (t1)U (t2 ) = ∑ U *j e ∑ Uk eiω t k2
=
j k
(3.35)
iωk t2 −iω jt1
= ∑∑ U *j Uk e .
j k
Додамо під знаком експоненти доданки
iω k t1 − iω k t1 , що роблять внесок, який дорівнює нулю,
та виконаємо групування, виділивши τ = t 2 − t1 :
iωk t2 −iω j t1 +iωk t1 −iωk t1
KU (t1, t2 ) = ∑∑ U *j Uk e =
j k
(3.36)
= ∑∑ U *j Uk e
( )e
i ωk −ω j t1 iω τ
k
.
j k
Для того щоб кореляційна функція задовольняла
умови стаціонарності (3.34), у (3.36) необхідно
i (ω −ω ) t
виключити вплив співмножника e k j 1 , який
містить часовий аргумент t1 . Це можна зробити,
тільки якщо вимагати виконання умов стохастичної
ортогональності для коефіцієнтів розкладання (для
спектра):
0, j ≠ k,
U *j Uk = 2 (3.37)
Uk ≠ 0, j = k .
122
1
Тут множник – масштабний коефіцієнт (якобіан
2π
перетворення), що зв’язує метрики просторів часу t та
частоти ω .
Типовий графік функції спектральної щільності
стаціонарного випадкового процесу показаний на
рис. 3.10.
SU (ω )
ω
−ω ω dω
Рисунок 3.10
125
SU (ω )
K0
2π
ω
0
Рисунок 3.11
ω ω
−ωmax +ωmax −ωmax −ωmin +ωmin +ωmax
Рисунок 3.12
128
2π −∞
Виділимо під знаком експоненти у
підінтегральному виразі повний квадрат:
2 iω ω ω
2 2
−α τ − iωτ = −α τ + 2 τ − 2 − 2 =
2 2 2
α 2α 4α
iω ω2
2
= −α τ + 2 − 2 ,
2
2α 4α
тоді
iω
σ2 ∞ 2 iω
2
τ + 2 α
−α τ+ 2
2α
SU (ω) = ∫e 2α
d .
2π −∞ α
Беручи до уваги значення визначного інтеграла
∞
−τ 2
K U (τ)
α1 < α 2 < α 3
1
α1
α2
α3
τ
0
− − −
Рисунок 3.13
∞
σ2 − iωτ σ2
SU (ω) = ∫ δ(τ)e d τ = 2π = const .
2π −∞
...
U n (t )
Ui (t) U3 (t)
U1 (t)
U2 (t)
0 t
Рисунок 4.1
(
)
def
p(u1 , u2 , ... , un ; t ) du1 du2 ... dun = P u ≤ U (t ) < u + du .(4.3)
Рівності (4.2) і (4.3) визначають ймовірність такої
випадкової події, яка полягає у тому, що кінець
багатовимірного випадкового вектора U (t ) у момент
часу t належить до малого околу du точки u (рис. 4.2).
u3
du1
du2
du3
U (t )
u1
u2
Рисунок 4.2
133
∫ ... ∫
−∞−∞
p (u1 , u2 , ... , un ; t ) du1 du2 ... dun = 1 (4.4)
n
∫ p(u , u , ... , u ; t ) du
−∞
1 2 n k = p (u1 , u2 , ... , uk −1 , uk +1 , ... , un ; t ).
jk (
K (t1, t2 ) = ∫ ... ∫ u j (t1) − U j (t1)
U
) (u (t ) − U (t ) ) ×
k 2 2 2
−∞ −∞
2n
× p(u11, u12 , ... , u1n ; u21, u22 , ... ,u2n; t1, t2 )× (4.11)
×du11 du12 ... du1n du21 du22 ... du2n.
Моменти 3-го, 4-го і т. д. порядків визначаються
аналогічно.
Моментні функції 2-го порядку, у тому числі й
моментні функції центрованих компонент,
утворюють квадратну матрицю розмірністю n × n .
У випадку центрованих компонент ця матриця, що
залежить від аргументів t1 і t 2 , має назву кореляційної
матриці компонент багатовимірного (векторного)
випадкового процесу:
Uɶ1 (t1 )Uɶ1 (t2 ) ... Uɶ1 (t1 )Uɶ n (t2 )
KU = .................... ... .................. .(4.12)
ɶ ɶ
U n (t1 )U1 (t2 ) ... Uɶ n (t1 )Uɶ n (t2 )
137
1, j = k,
де δ αβ – символ Кронекера; δ αβ
jk = за
j ≠ k;
jk
0,
індексами α , β не підсумовувати.
Для неперервних спектральних розкладань умова
стохастичної ортогональності може бути записана як
U *j (ω ) Uk (ω ′) = S Ujk (ω )δ (ω − ω ′ ) . (4.20)
У (4.19) і (4.20) S αβ
jk та S Ujk (ω) – компоненти
матриць взаємних спектральних щільностей
відповідно дискретного та неперервного розкладань.
Для стаціонарних та стаціонарно зв'язаних векторних
випадкових процесів взаємні спектральні щільності
S Ujk (ω) – дійсні функції при j = k .
За аналогією зі скалярним варіантом (п. 3.5) можна
показати, що векторний випадковий процес є
стаціонарним за Хінчиним, якщо його спектральне
розкладання є стохастично ортогональним та
навпаки.
Функції S Ujk (ω) у (4.20) мають такі властивості:
1) S Ujk (ω) ≥ 0 ;
2) якщо U j (t ) – дійсний випадковий стаціонарний
процес, то діагональні елементи матриці S мають
143
def
p (un , tn un−1, tn−1; ... ; u1, t1; u0 , t0 )dun =
u0 ≤ U (t0 ) ≤ u0 + du0 ;
(5.1)
u1 ≤ U (t1) ≤ u1 + du1; .
P
un ≤ U (tn ) ≤ un + dun ....
un−1 ≤ U (tn−1) ≤ un−1 + dun−1
Для того щоб випадковий процес був марковським,
необхідно виконання умови [1]:
p (un , tn un−1 , tn−1; ... ; u1 , t1; u0 , t0 ) =
(5.2)
= p (un , tn un−1 , tn−1 ).
Як випливає з (5.2), марковський процес повністю
характеризується початковою одновимірною
(одноточковою) щільністю ймовірності p (u 0 , t 0 ) та
умовною щільністю ймовірності p (u n , t n u n −1 , t n −1 ) .
Дійсно,
p(u0 ,t0;u1,t1; ...;un ,tn ) = p(un ,tn un−1,tn−1; ...;u1,t1;u0 ,t0 ) ×
(5.3)
× p(un−1,tn−1 un−2 ,tn−2 ; ...;u1,t1;u0 ,t0 ) ... p(u1,t1 u0 ,t0 ) p(u0 ,t0 ).
Ураховуючи (5.2), отримаємо
p (u0 , t0 ; u1 , t1; ... ; un , tn ) =
= p (un , tn un−1 , tn−1 ) p (un−1 , tn−1 un −2 , tn −2 ) ... × (5.4)
× p (u1 , t1 u0 , t0 ) p (u0 , t0 ).
Таким чином, особливістю марковських процесів є
те, що будь-які багатовимірні (багатоточкові) закони
149
∫ p(u , t
−∞
n n un−1 , tn−1 )dun = ∫ p (un , tn un−1 , tn−1 )dun−1 = 1.
−∞
∫ p (u, t u , t ) Q(u)du =
−∞
0 0
∞ ∞
(5.8)
= ∫ p (u1, t − ∆t u0 , t0 ) ∫ p (u, t u1, t − ∆t )Q(u)du du1.
−∞ −∞
Розвинемо функцію Q (u ) у ряд Тейлора в околі
значення u1 :
∞
1 (k )
Q (u ) = ∑ Q (u1 )(u − u1 ) k . (5.9)
k =0 k !
151
∞ ∞
= ∑ ∫ { p (u1 , t − ∆t u0 , t0 )Q ( k ) (u1 ) ×
1
(5.10)
k = 0 k !−∞
∞
× ∫ p (u , t u1 , t − ∆t )(u − u1 ) k du du1.
−∞
Поділимо отримане рівняння на ∆t і, переходячи до
границі при ∆t → 0 (u1 → u ) , можемо записати
∞
∂p (u , t u0 , t0 )
∫ Q(u )du =
−∞
∂t
(5.11)
∞ ∞
1
=∑ ∫ p (u , t u0 , t0 ) Q ( k ) (u ) χ k (u , t )du ,
k =1 k !−∞
де
∞
1
χ k (u , t ) = lim
∆t → 0 ∆t ∫
−∞
p (u , t u1 , t − ∆t )(u − u1 ) k du . (5.12)
∆u k
χ k (u, t ) = lim . (5.13)
∆ t →0 ∆t
Під час визначення границь (5.12), (5.13) величина
u1 вважається заданою.
Використовуючи у правій частині (5.11) інтегрування
за частинами, отримаємо
∞
∂p (u , t u0 , t0 )
∫−∞ ∂t
Q(u )du =
(5.14)
∞
1 ∂
∞ k
= ∑ ∫ − χ k (u , t ) p (u , t u0 , t0 ) Q(u ) du.
k =1 k !−∞ ∂u
∂p ∞ 1 ∂
k
= ∑ − (χ k p ) , (5.15)
∂t k =1 k ! ∂u
де p = p (u , t u 0 , t ) – перехідна щільність імовірності.
Розв’язок рівняння (5.15) повинен задовольняти
умови невід’ємності, нормування, а також початкові
умови.
Можливі два випадки початкових умов для р при
t = t0 :
1) значення випадкового процесу u = u 0 є
випадковими величинами з відомою щільністю
ймовірності p (u0 , t0 ) ;
153
∂p ∂p 1 ∂2 p
= − χ1 − χ2 , (5.18)
∂t0 ∂u0 2 ∂u02
яка є спряженою з (5.17).
Рівняння (5.18) називають зворотним рівнянням
Колмогорова (оскільки до нього входить похідна за
початковим моментом часу t 0 < t ) [1; 16].
Рівняння (5.17) задовольняє не тільки перехідна
щільність імовірності p (u , t u 0 , t ) , але й одновимірна
(одноточкова) щільність імовірності p (u , t ) . Тобто
визначення перехідної щільності ймовірності можна
розглядати як окремий випадок визначення
одновимірної щільності ймовірності за початкової
умови, що задана у формі (5.16).
Рівняння (5.17), (5.18) належать до параболічного
типу і для того, щоб відшукати їх розв’язки, можна
застосовувати традиційні методи розв’язання задачі
Коші для параболічних рівнянь [8].
∆u j
χ j (u , t ) = lim ;
∆t →0 ∆t
(5.20)
∆u j ∆uk
χ
jk (u , t ) = lim .
∆t →0 ∆t
156
l
x0
l
Q (t )
x
Рисунок 5.1
157
∫ p ( x, t x0 ,0) dx = 1 . (5.23)
−∞
( x − x0 ) 2 α 2 ( x − x0 )2
1 2 χ 2t α
p ( x, t x0 ,0) = e = e 2 K 0t
.(5.26)
2πχ 2 t 2π K 0t
Розглянемо стаціонарний режим роботи поршня, при
якому умовна щільність імовірності p ( x, t x0 ,0) та
коефіцієнти рівняння Колмогорова (5.17) не залежать
від часу. Тоді (5.17) можна записати як
d 1 d2
− (χ1 p) + (χ 2 p ) = 0 . (5.27)
dx 2 dx 2
Проінтегруємо (5.27) за x
d
(χ 2 p ) − 2χ1 p = C , (5.28)
dx
де C – стала інтегрування. Якщо природно припустити,
що при x → ∞ умовна щільність імовірності та її перша
похідна прямують до нуля, тоді C = 0 . Відповідно
рівняння (5.28) є однорідним, і його розв’язок може бути
поданий у вигляді [8]:
x
χ
C1 ∫ 2 1 dx
χ
0 2
p ( x) = e .
χ2
Довільну сталу C1 визначимо з умови нормування:
x
χ
∞ l 2 ∫ 1 dx
C χ
0 2
∫ p ( x)dx = ∫ χ21 e dx = 1 ,
−∞ −l
6. ДИФЕРЕНЦІЮВАННЯ ТА ІНТЕГРУВАННЯ
ВИПАДКОВИХ ПРОЦЕСІВ
6.1. Поняття похідних випадкових функцій
(xn − x )2
P( xn − x ≥ ε ) ≤
ε2
було показано, що зі збіжності у
середньоквадратичному розумінні випливає збіжність
за ймовірністю, але не навпаки.
Застосуємо введені вище поняття збіжності
випадкової послідовності до визначення похідної
випадкової функції (процесу).
161
U (t + ∆) − U (t ) =
2
(6.8)
= KU ( t + ∆, t + ∆ ) + KU (t , t ) − KU (t + ∆, t ) − KU (t , t + ∆).
Бачимо, що з неперервності KU (t1 , t2 ) випливає
виконання умови (6.7).
У той самий час умов неперервності випадкової
функції недостатньо для існування її похідної,
оскільки необхідне ще виконання граничної умови (6.5).
U (t + ∆1 ) − U (t )
Розглянемо відношення і
∆1
U (t + ∆ 2 ) − U (t )
. Відповідно до умови, за якою
∆2
випадкову функцію можна диференціювати, для
незалежних ∆1 і ∆ 2 ці відношення повинні мати
однакові границі, тому
163
2
U (t + ∆1 ) − U (t ) U (t + ∆ 2 ) − U (t )
lim − = 0 .(6.9)
∆1 →0
∆ 2 →0 ∆ 1 ∆ 2
Використовуючи властивості математичного
сподівання, із (6.9) отримаємо
2
U(t +∆1) −U(t) U(t +∆2) −U(t)
− =
∆1 ∆2
1
= ( KU (t +∆1,t +∆1) + KU (t,t) − KU (t +∆1,t) − KU (t,t +∆1) +
∆12 (6.10)
1
+ 2 ( KU (t +∆2,t +∆2 ) + KU (t,t) − KU (t +∆2,t) − KU (t,t +∆2 ) +
∆2
2
+ ( KU (t +∆1,t +∆2) + KU (t,t) − KU (t +∆1,t) − KU (t,t +∆2)).
∆1∆1
До правої частини (6.10) не входять випадкові
функції чи величини, тому при граничному переході при
∆1 → 0 і ∆ 2 → 0 можна використовувати методи
математичного аналізу.
Якщо частинні похідні від кореляційної функції
∂KU (t1 , t2 ) ∂KU (t1 , t2 ) ∂ 2 KU (t1 , t2 )
, і існують, то після
∂t1 ∂t2 ∂t1∂t2
відповідних перетворень матимемо
2
U (t + ∆1 ) − U (t ) U (t + ∆ 2 ) − U (t )
lim − =
∆1 → 0
∆2 → 0 ∆ 1 ∆ 2
164
d
V (t ) = U (t ) . (6.13)
dt
Останній вираз відповідає поняттю похідної
випадкової функції (процесу) за множиною реалізацій.
Це дозволяє формально підходити до визначення
похідної випадкової функції у рамках її класичного
визначення за Лейбніцем.
Використовуючи лінійність операцій
диференціювання (інтегрування) під час визначення
моментів, отримаємо середнє статистичне похідної
випадкової функції у вигляді похідної від відповідних
моментів. Для математичного сподівання похідної,
наприклад, маємо
dU (t ) d
= U (t ) .
dt dt
Незважаючи на "нестрогість", цей спосіб
диференціювання набув великого поширення у
практичних застосуваннях. У більшості практичних робіт
цей спосіб застосовується без аналізу можливості (чи
неможливості) його використання. Однак для ергодичних
процесів такий підхід є строгим, тому і для стаціонарних
випадкових процесів слід очікувати відносно невеликої
похибки «нестрогого» розрахунку похідних.
У світлі викладеного визначимо кореляційну
функцію похідної випадкової функції (процесу) як
def
ɶ ɶ ∂Uɶ (t1 ) ∂Uɶ (t2 )
KV (t1 , t2 ) = U (t1 )U (t2 ) =
ɺ ɺ =
∂t1 ∂t2
(6.14)
∂2 ∂ 2 KU (t1 , t2 )
= Uɶ (t1 )Uɶ (t2 ) = .
∂t1∂t2 ∂t1∂t2
168
0.3 0.3
α = 0,03 α = 0,03
σ0 = 0,5 σ0 = 0,5
0.2 0.2
0.1 0.1
0 0
0 2 4 6 8 10 − 100 − 50 0 50 100
−0 ,03 τ
KU (τ ) = 0,25e −0,03τ
2
KU (τ ) = 0,25e
а) б)
Рисунок 6.1
)
σ (−2τα 2 )e −α τ = 2α 2σ 2 (1 − 2τ2α 2 ) e−α τ .
2 2
(
= −2αDX e−α(t′−t′) 2α(t′ − t′)2 − 1 t′2 = 2αDX t′2 . )
2
де
SV (ω ) = ω 2 SU (ω ) . (6.26)
Із (6.24) з урахуванням (6.25) отримаємо пряме
перетворення Вінера-Хінчина для похідної
стаціонарного випадкового процесу:
175
∞ ∞
KV (τ ) = ∫ SV (ω )e iωτ dω = ∫ ω 2 SU (ω )e iωτ dω . (6.27)
−∞ −∞
∞ ∞
p (u , uɺ ) = p1 (u ) p2 (uɺ ) =
1 u − C ) 2 uɺ 2
= exp − − .
2πσU σUɺ 2σU2 2σU2ɺ
∂K X (t1 , t2 ) 2
t
= t2 σ e
2
X
− ( t1 +t2 )
+σ e 2
X
− t1
( −t e 2
− t2
− e− t2 + 1) =
= σ 2X e −t1 (1 − e− t2 ) .
При t1 = 0, t2 = 1 маємо
w (r ′′)
dw′′
w (r ′)
dw′
w (r )
dw
x1
r r′ r ′′ 3-тя точка
2-га точка
s
x2 1-ша точка
Рисунок 7.1
другого
∞ ∞
def
W (r )W (r ′) = ∫ ∫ ww′p(w, w′; r , r′)dwdw′ , (7.5)
−∞ −∞
третього
def
W (r )W (r ′)W (r ′′) =
∞ ∞ ∞ (7.6)
= ∫∫∫ ww′w′′p ( w, w′, w′′; r , r ′, r ′′)dwdw′dw′′
−∞ −∞ −∞
і т. д. порядків.
190
−∞
і т. д.
З виразів (7.13) і (7.14) можемо зробити висновок, що
для стохастичного описання просторово-часового
випадкового поля W (r , t ) достатньо знати сумісні
характеристики розподілів або повну систему
моментних функцій для коефіцієнтів розвинення
Wk (t ) у ряд (7.12). При цьому не потрібне проведення
194
−∞ −∞
195
Тут SW (r , r ′;ω ) є детерміністичною функцією, яка
має властивості кореляційної функції за
просторовими координатами r і властивості
спектральної щільності за ω .
Із формули (7.17) з урахуванням умови стохастичної
ортогональності спектра (7.18) для стаціонарного
просторово-часового поля отримаємо аналог формул
Вінера – Хінчина (3.44), (3.45).
Пряме перетворення:
∞
KW (r , r ′; τ) = ∫S W (r , r ′, ω)eiωτ d ω . (7.19)
−∞
196
Обернене перетворення:
∞
1
SW (r , r ′; τ) = ∫ KW (r , r ′, ω)e− iωτ d τ . (7.20)
2π −∞
z1
z 1-ша точка
аналізу r1
х1 O′ y1
r s
ρ
r′ 2-га точка
аналізу
O y
x
Рисунок 7.2
197
def
KW (r , r ′) = Wɶ * (r )Wɶ (r ′) =
∞ ∞ (7.23)
= ∫∫ W (k )W (k ′) e −i ( k ⋅r )ei ( k ′⋅r′) dkdk ′.
*
−∞ −∞
За аналогією із (7.17) перетворимо у
підінтегральному виразі експоненціальний множник,
додаючи та віднімаючи комплекс i (k ⋅ r ′) під знаком
експоненти:
e −i ( k ⋅r )ei ( k ′⋅r′) = e −i ( k ⋅r )+i ( k ⋅r′)±i ( k ⋅r′) = ei ( r′−r )⋅k ei ( k ′−k )⋅r′ .
Згідно з визначенням однорідності поля його
кореляційна функція KW (r , r ′) повинна залежати тільки
від векторної різниці s = r ′ − r . Це забезпечується
виконанням умов стохастичної ортогональності спектрів
розкладання (7.22) у просторі хвильових чисел:
W * (k )W (k ′) = SW (k )δ (k − k ′) , (7.24)
де SW (k ) – функція спектральної щільності однорідного
випадкового поля, яка є аналогом спектральної
щільності стаціонарного випадкового процесу і має ті
самі властивості (п. 3.5.2); δ(k − k ′) =
δ ( k1 − k1′ ) δ ( k2 − k2′ ) ... δ ( kn − kn′ ) – узагальнена дельта-
функція.
Згідно із (7.24) можемо стверджувати, що спектр
поля Wk у просторі хвильових чисел має властивість
"білого шуму".
Із (7.23) за умови (7.24) отримуємо детерміністичний
зв'язок між кореляційною функцією та спектральною
200
1 ∞ ∞ W − i ( k ⋅s )
S Wjk (k ) = ∫ ∫ jk
... K ( s ) e ds ; (7.32)
(2π) n −∞
−∞
n
( j , k = 1, 2, ... , N ) .
203
ζ2 k2
s k
θ ψ
ζ1 k1
а) б)
Рисунок 7.3
4π −∞ −∞
2π ∞
1
KW (s)e (
−iks cos θ cos ψ + sin θ sin ψ )
= ∫ ∫
4π 0 0
sdsd θ = (7.33)
2π ∞
1 −iks cos( θ−ψ )
= ∫ ∫
4π 0 0
KW (s)e sdsd θ.
(7.35)
∞
KW ( s ) = ∫ SW (k ) J 0 (ks )kdk .
0
0 z 2
де Г (x) – гама-функція, і враховуючи, що для
напівцілого аргументу циліндричні функції
виражаються через елементарні
1
2 2
J 1 ( z ) = sin z , (7.38)
2 πz
визначимо значення внутрішнього в (7.30) інтеграла за θ :
π
−iks cosθ sin ks
∫e sin θdθ = 2 .
0
ks
2π
З урахуванням очевидної рівності ∫ dϕ = 2π для
0
тривимірного ізотропного випадкового поля аналог
формул Вінера – Хінчина (у даному випадку пряме та
обернене перетворення Фур'є – Бесселя) має вигляд:
∞
1 sin ks 2
SW (k ) =
( )
2 π
∫ K 3
0
W ( s)
ks
s ds,
(7.39)
∞
sin ks 2
KW ( s ) = ∫ SW (k ) k dk ,
0
ks
207
sin ks
де функція - вироджений випадок циліндричної
ks
функції: функція Бесселя з напівцілим аргументом.
Як приклад ізотропного тривимірного поля можна
навести експоненціально-корельоване скалярне
випадкове поле, кореляційна функція та спектральна
щільність якого мають вигляд [1]:
K 0α
KW ( s ) = K 0e−αs , SW (k ) = , K 0 > 0, α > 0.
π (α 2 + k 2 ) 2
2
K Wjk (r , r ′) = Wɶ j* (r )Wɶk (r ′) =
(7.42)
= K Wjk (r ′ − r ) = K Wjk ( s ).
209
Додаток А
(обов'язковий)
Закони розподілу випадкових величин
Pn (k ) = Cnk p k q n − k , (А.1.1)
n!
де Cnk = – число поєднань із n елементів k;
k !(n − k )!
q = 1− p .
Назва цього розподілу пов’язана з тим, що ймовірність
Pn (k ) за формою являє собою члени розкладання бінома
Ньютона [8]:
213
n
( p + q ) n = ∑ Pn (k ) = Cnk p k q n − k . (А.1.2)
k =0
- дисперсія DХ = npq;
б) Pn (≥ k ) = Pn (k ) + Pn (k + 1) + ... + Pn (n);
Pn Pn
0,28 0,28
0,24 0,24
0,20 0,20
0,16 0,16
0,12 0,12
0,08
0,08
0,04
0,04
0
n 0 n
а) n = 10 б) n = 100
Pk
0,28
0,24
0,20
0,16
0,12
0,08
0,04
0
k
P { X = k} = q k −1 p, k = 1, 2, ... , q = 1 − p , (А.1.5)
F { X = k } = 1 − q k −1 (А.1.6)
Pk Pk
1 1
1 1
0,80.8 0,80.8
0,60.6
y1
p = 0,2, q = 0,8 0,60.6
y2
p = q = 0,5
0,40.4 0,40.4
0,20.2 0,20.2
0 0
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
1 2 3 4 5x 6 7 8 9 10 k 1 2 3 4 5x 6 7 8 9 10 k
а) б)
Рисунок А.1.3 - Геометричний закон розподілу
217
Cnk1Cnn2− k
P { X = k} = n , k1 ≤ k ≤ k2 , (А.1.7)
Cn1+ n 2
n n1
- математичне сподівання X = ,
n1 + n2
n n1 n2 n1 + n2 − n
- дисперсія DX = .
( n1 + n2 ) n1 + n2 − 1
Гіпергеометричний розподіл має місце при
випробуваннях без повертання n шарів із урни, що містить
n1 + n2 шарів, із яких n1 білих і n2 чорних. Таким чином,
цей розподіл описує здійснення ознаки у вибірці без
повернення (на відміну від біноміального розподілу).
Необхідно зазначити, що якщо n1 + n2 – дуже велике
число порівняно з n , то немає суттєвого значення,
повертаються шари назад чи ні, і формула (А.1.7) може бути
наближено замінена формулою (А.1.1) біноміального
розподілу.
На практиці до гіпергеометричного розподілу приводять
задачі, де вироби з партії вибирають випадково
(забезпечуючи для кожного виробу однакову можливість
бути відібраним), але відбраковані вироби не повертаються
до партії. Такий відбір особливо важливий у тих задачах, де
перевірка виробу пов’язана з його руйнуванням (наприклад,
перевірка виробу на термін служби).
219
0, x < a;
1
p ( x) = , a ≤ x ≤ b; (А.2.1)
b − a
0, x > b.
F(x) p(x)
x1 x2 b
а x1
a) б)
2
xt
1 −
де Ф ( x) =
2π 0∫ e 2
dt – функція Лапласа, значення якої є
x 0 x
F ( x) = ∫ p ( x)dx = ∫ p ( x)dx + ∫ p ( x)dx = 0,5 + Ф( х) .
−∞ −∞ 0
1
= 0,3989
2π
x − X x1 − X
P( x1 < X < x2 ) = Ф 2 −Ф . (А.2.6)
σ σ
Як випливає з центральної граничної теореми теорії
ймовірностей (п. 2.2.4), нормальний розподіл є граничним
випадком для будь-якого виду розподілів, – якщо випадкова
величина X залежить від суми п незалежних випадкових
величин зі скінченним початковим моментом та скінченною
дисперсією, що не дорівнює нулю, то при n → ∞ її
розподіл прямує до нормального закону розподілу:
n 1
lim α < ∑ xi − n X <β=
n →∞
i =1 σ n
(А.2.7)
β t2
1 −
= ∫
2π α
e 2
dt = Ф(α) − Ф(β),
де F ( x), x– функція
, a , b,вихідного розподілу випадкової
величини Х .
Для зрізаного нормального розподілу щільність
імовірності визначається за формулою
p ( x) = c ⋅ p ( x) , (А.2.9)
∫ p( x)dx = c ∫ p( x)dx = 1 .
α α
(А.2.10)
Із (А.2.10) випливає, що
225
−1
β
c = ∫ p( x)dx ,
α
де
β
α− X β− X
де t1 = ; t2 = .
σ σ
Таким чином, нормувальний множник c можна
виразити через функцію Лапласа:
c = (Ф ( x2 ) − Ф ( x1 ) ) .
−1
( lg x − a )
2
−
lg e e 2 σ2 , x > 0,
р ( x ) = σ 2π (А.2.13)
0, x ≤ 0.
227
р ( х)
2,0
σ = 0,125
1,5
1,0
σ = 10 σ = 0, 25
σ = 1,5
σ =1
0,5 σ = 0,5
1
∫ e 2 σ dt , x > 0,
2
F ( x ) = σ 2π (А.2.14)
−∞
0, x ≤ 0,
( )
σ2
a+
X =e , DХ = e2 a +σ eσ − 1 .
2 2
2
228
0, x ≤ 0;
p ( x) = −λx (А.2.15)
λe , x > 0,
де λ – постійна невід’ємна величина.
Параметр λ являє собою середнє число подій за одиницю
часу, а 1/λ – відрізок часу між двома послідовними подіями
(у теорії надійності λ має фізичний зміст інтенсивності
відмов, а 1/λ – середній час безвідмовної роботи, або
середнього напрацювання до відмови).
Функція розподілу експоненціального закону випадкової
величини X має вигляд
dеf x 0, x ≤ 0;
F ( x) = ∫
−∞
p ( x ) dx = −λx
1 − e , x > 0,
(А.2.16)
229
p( x) F ( x)
х х
РисунокА.2.5 – Графіки щільності ймовірності p (x) і
функції розподілу F(x) експоненціального закону
P(t), Q(t)
1,0
Q(t)
0,632
0,358 P(t)
Т сер λ t
p( x) = a a
a
0, x < c.
де a > 0 – параметр масштабу; b > 0 – параметр форми;
с – параметр зсуву.
Експоненціальний розподіл – окремий випадок
розподілу Вейбулла – Гнєденко, що відповідає значенню
параметра форми b = 1.
Розподіл Вейбулла – Гнєденко застосовується при
побудові ймовірнісних моделей ситуацій, у яких поведінка
об’єкта визначається «найбільш слабким кільцем». Тут
мається на увазі аналогія з ланцюгом, нормальне
функціонування якого залежить від кільця, що має
найменшу міцність.
233
А.2.7. Гамма-розподіл
1 x−c
( x − c ) b − a exp −
a −1
, x ≥ c,
p( x) = Г (а ) b (А.2.26)
0, x < c.
1 a −1 − x
x e , x ≥ 0;
p( x) = Г (а) (А.2.27)
0, x < c,
яка має назву стандартного гамма-розподілу.
Окремим випадком гамма-розподілів при а = 1 є
експоненціальні розподіли (з λ = 1/b). При натуральному а і
с = 0 гамма-розподіл характеризує так звані розподіли
Ерланга, які використовують у тих самих прикладних
областях, де застосовують експоненціальні розподіли. Це
ґрунтується на встановленому математичному факті: сума k
незалежних випадкових величин, які мають експоненціальні
розподіли з однаковими параметрами λ і с, описується
гамма-розподілом із параметром форми а = k, параметром
масштабу b = 1/λ та параметром зсуву kc.
Якщо випадкова величина X має гамма-розподіл із
параметром форми а таким, що d = 2a – ціле число; b = 1 і с
= 0, то 2Х відповідає розподіл Пірсона або χ 2 -квадрат із d
ступенями вільності.
Випадкова величина X із гамма-розподілом має такі
числові характеристики:
- математичне сподівання X = ab + c ;
- дисперсію DX = σ2 = ab2;
b a
- коефіцієнт варіації ν = .
ab + c
Нормальний розподіл є граничним випадком гамма-
розподілу. Дійсно, якщо Z – випадкова величина, що має
стандартний гамма-розподіл, який задається формулою
(А.2.26), то
Z −a
lim P < x = Ф ( x)
x →∞
a
235
Г ( n + 1) = n !
Розподіл Пірсона є однопараметричним (залежить
тільки від параметра п – числа ступенів вільності).
Fn ( x ) = ∫ pn (t )dt
x
Функція розподілу визначає
−∞
pn ( x )
0,5
0,4
п=2
0,3
0,2 п=4
п=8
0,1 п = 16
х
Рисунок А.2.7 – Щільність імовірності розподілу
Пірсона для різних значень п