You are on page 1of 78

Елементи математичної статистики

Часто потрібно вивчати явище, точний перебіг яких не можливо передбачити і


які виступають не поодиноко, а масово. Такі явища називаються масовими
випадковими.
Означення. Масові випадкові явища залежні від часу називаються
випадковими, або стохастичними процесами.
Різні прояви стохастичного процесу називаються мінливими величинами або
варіантами.
Оскільки варіанту пізнаємо в результаті спостереження то її називаємо ще
статистичною змінною.
Три терміни: мінлива величина, варіанта і статистична змінна –значення
еквівалентні.

1. Класифікація варіант

Мінливі величини діляться на:


1) якісні та кількісні
2) дискретні та неперервні
3) одновимірні, двовимірні і т.д.
Такий поділ вказує на три підходи до однієї і тієї ж варіанти.

Наприклад мінлива величина може бути кількісною, неперервною та


тривимірною, або якісною, дискретною і одновимірною і т.д. якісні варіанти
будемо позначати A, B, C ,........, і кількісні x, y, z,.....

Приклади якісних варіант(або мінливих величин): яскравість зірок, ступінь


захмареності в даній місцевості, колір очей, стать.

Приклади кількісних варіант: число зерен у головці маку, число бракованих


виробів за зміну на якомусь виробництві масової продукції.

Приклади дискретних варіант: число пелюсток на квітці бузку, число осіб у


сім’ї, число букв у слові, число телефонних викликів за одиницю часу.

Приклади неперервних варіант: ріст допризивників, тривалість телефонної


розмови.

Приклади n − вимірних варіант: вік, ріст і вага людини, тривимірна мінлива


величина; число і вага зерен одного складного колоса озимої пшениці –
двовимірна величина.
Вибір мінливої величини при дослідженні випадкового явища є справою
зручності. Те саме випадкове явище можна досліджувати за допомогою якісної
або кількісної мінливої величини.
Приклади 1.Землетрус може бути
перехід якісної 1) непомітний (1бал)

1
в кількісну варіанту 2) дуже слабкий (2бали)
3) слабкий (3 бали)
4) помірний (4бали)
5) досить сильний (5 бали)
6) сильний (6 балів)
7) дуже сильний (7 балів)
8) руйнівний (8 балів)
9) спустошувальний (9 балів)
10 ) знищувальний (10 балів)
11) катастрофа (11 балів)
12) сильна катастрофа (12 балів)

Нумерація вказує на кількісну варіанту (на бали).

Приклад 2. У стародавньому Єгипті для вимірювання рівня виловів риби у


річці Ніл побудували колодязі. В різні роки зареєстровано max виловів в ліктях
(міра 3 лікті = 1 метру). За багато століть одержано такі значення max виловів.
12 ліктів – голод
13 ліктів – достаток
14 ліктів – радість
15 ліктів – спокій
16 ліктів – багатство
17 ліктів – неспокій
18 ліктів – тривога
19 ліктів – руйнування , голод
20 ліктів – катастрофа, епідемія

2. Статистичний матеріал

Випадкові явища, стохастичні процеси, мінливі величини пізнаємо


спостереженнями, тобто у результаті відповідно поставлених експериментів.
Означення. Кількість спостережень називається обсягом (розміром, об’ємом,
довжиною, тривалістю) спостережень.
Означення. Сукупність спостережень називається статистичним матеріалом.
Означення. Кожне окреме спостереження називається елементом
статистичного матеріалу.
Якщо обсяг статистичного матеріалу в межах від 2 до кільканадцяти, то
статистичний матеріал називається малим статистичним матеріалом; від
кільканадцяти до кількадесяти – то статистичний матеріал середній; в межах
від кількадесяти до кількасот – великий.
Якщо число спостережень рівне багатьом сотням, тисячам і т.д. то
статистичний матеріал дуже великий, колосальний, гігантський і т.д. Такий
поділ не є строгий.
В залежності від обсягу статистичного матеріалу існують різні математичні
методи його обробки, а також використовуються обчислювальна техніка різної
потужності від рахівниць і арифмометрів до найсучасніших ЕОМ.
Статистичний матеріал може бути дуже непроглядний. Про такий первісний
статистичний матеріал кажуть, що він сирий. Відносно сирого статистичного
2
матеріалу виникає таке 1-е питання: Як компактно представити статистичний
матеріал. Компактно значить зручно для аналізу і прогнозу.
Статистичний матеріал можна представити словесно, таблично, графічно та
аналітично.

3. Табличне та графічне представлення


статистичного матеріалу

В дальнішому обмежимося дослідженням одновимірної кількісної мінливої


величини.
Нехай (1) x1 ,......., x n − результат n спостережень ( коротко x j − результат j − го
спостереження) над одновимірною кількісною мінливою величиною. Тоді
послідовність (1) представляє собою статистичний матеріал обсягом n
спостережень.
1) Дискретний випадок
Нехай серед спостережень (1) зустрічаються такі можливі значення
одновимірної дискретної варіанти x , впорядковані за величиною:
x(1)  x( 2)  ...........  x( k )
і нехай ці значення зустрічаються відповідно часто:
n1 , n2 ,.......,n k , (n1 + n2 + ....... + nk = n)
Число n i називається частотою значення x(i ) (i = 1,2,...k ). Тоді статистичний
матеріал (1) зручно записати в формі таблички з двома рядками у першому
рядку виписуємо в зростаючому порядку можливі значення варіанти, а в
другому – відповідні їм частоти. Дістанемо частотну таблицю

x(1) x( 2 ) …………. x(k ) 


(2)
n1 n 2 …………… n k n
Частотна таблиця (2) називається ще статистичним розподілом дискретної
варіанти x .
Для графічного представлення частотної таблиці на вісь абцис наносимо
можливі значення дискретної мінливої величини та відкладемо в цих точках
відповідні частоти ni (i = 1, 2,....) . Отримаємо діаграму частот.
Якщо з’єднати відрізками сусідні пункти ( x(i ) , ni ) , то дістанемо полігон
частот.
2) Неперервний випадок.
а) не згруповані дані.
Якщо статистичний матеріал малий або середній, то спостереження (1) над
одновимірною неперервною варіантою впорядкуємо за величиною: від
найменшого до найбільшого. Нехай x(1) буде найменше зі спостережень (1) і
т.д., в кінці x(n ) буде найбільше зі спостережень (1)

3
x(1) = min ( x1 ,.........., x n )
.....................................
x( n ) = max ( x1 ,.........., x n )
В силу обмеженої точності деякі спостереження можуть бути одинакові. так
упорядковані спостереження (1) записуємо у формі ряду:
x(1)  x( 2)  ...............  x( n ) (3)
Ряд (3) називається варіаційним рядом для спостережень (1) над одновимірною
неперервною мінливою величиною.

Приклад 1. Періодична система Менделєєва, з огляду на атомну вагу


елементів, утворює варіаційний ряд.

Для графічного представлення варіаційного ряду наносимо на вісь абцис


елементи варіаційного ряду x(i ) (i = 1,2,....., n) та пов’яжемо з кожною точкою x(i )
1
масу .
n
1
Нарисуємо східчасту лінію зі стрибками вверх у пунктах x(i ) на . Від −  до
n
1
x(1) маємо лінію на рівні нуль. У точці x(1) маємо стрибок на і відрізок на
n
1 1
висоті до точки x( 2) у точці x(n ) останній стрибок на і лінія на висоті 1буде
n n
продовжуватися до безмежності. Якщо б зустрілося два одинакові x(i ) , або
2
більше, то в цій точці був би стрибок на , або відповідно більше.
n
Одержане графічне представлення варіаційного ряду називаються емпіричною
функцією розподілу або емпіричною кумулятою.

Таким чином, емпірична функція розподілу


0, x  x(1)

k
Fn ( x) =  , x( k )  x  x( k +1) (k = 1,....,.n − 1)
n
1, x( n )  x
Для кожного x емпірична функція розподілу Fn (x) є випадковою змінною з
 k
розподілом  Fn ( x) =  = Cn
k
Fn ( x ) .
k
1 − Fn ( x )
n−k

 n
б) Згруповані дані. Якщо статистичний матеріал середній або великий, то
знайдемо найменше та найбільше зі спостереження
x(1) = min ( x1 ,......., x n ), x( n ) = max ( x1 ,..........., x n )
Означення. Різниці між найбільшим і найменшим елементами статистичного
матеріалу називається розмахом статистичного матеріалу
 = x( n ) − x(1) 2 r  n  2 r +1
Інтервал розмаху ділимо досить довільним способом на (r + 1) однакові або
неоднакові інтервали, де r − натуральне , r = 1, 2,......
4
Центри одержаних інтервалів позначимо в зростаючому порядку через
z1 ,......., z i ,.........z r +1.
Нехай на інтервалі з центром в т. z i попадає n i спостережень.
Очевидно, що n1 + n2 + ......... nr +1 = n
Тоді статистичний матеріал представимо у вигляді таблиці з двох рядків:
1-й в зростаючому порядку- центри інтервалів
2-й - відповідні частоти

z1 z 2 ......................z i ......................z r +1 
n1 n2 .....................ni ......................nr +1 n

У цій таблиці замість кожного з n i індивідуальних значень статистичного матеріалу (1) , що


попадають у інтервал з центром в т. z i , розглядається ni − кратно повторений центр i − го інтервалу
zi .
Одержана таблиця – частотна. При такому представлені дальша математична
обробка статистичного матеріалу значно спрощується.
Для графічного представлення одержаної частотної таблиці наносимо на абцису
центри інтервалів. В точці z i ставимо ординату n i . Одержимо графік частот

Якщо з’єднати верхушки сусідніх вершин графіка частот відрізками, то


одержимо многокутник частот або полігон частот .
Якщо над інтервалом з центром в т. z i поставити прямокутник висотою n i , то
одержимо гістограму частот.
Ми розглянули лише такі графічні представлення, які нагадують функцію
розподілу або густину.

5
СТАТИСТИКИ
Нехай x1 , …, x n (1) ряд незалежних спостережень проведених в
однакових умовах над одновимірною кількісною мінливою величиною.
Табличне та графічне представлення статистичного матеріалу все ж
містить немало інформації(елементів).
Тому друге питання, що виникає відносно статистичного матеріалу таке:
як охарактеризувати статистичний матеріал одним або кількома числами.
Вже давно зауважено, що статистичний матеріал взагалі групується в
одному або кількох місцях, в околі одного або кількох значень. Причому в
околі цих значень він більш або менш розсіяний, а також форма розсіяння може
бути досить різна. Тому числові характеристики поділяються на три групи:
1. Числові характеристики центральної тенденції ( локації ). До них
відноситься:
а) медіана ( M e )

б) мода ( M o )

в) середнє арифметичне ( x )
2. Числові характеристики розсіяння. До них відноситься:
а) варіанса ( s 2 )
б) стандарт ( s )
в) розмах (  )
г) варація ( v )
д) інтерквантильність широт
3. Числові характеристики форми: До них відноситься:
а) асиметрія (  1 )
б) ексцес (  2 )
Кожна з перерахованих числових характеристик є деякою функцією від
елементів статистичного матеріалу.
Означення. Функція від елементів статистичного матеріалу називається
статистикою.
Таким чином ми розглянемо три групи статистик.
1. статистики центральної тенденції
2. статистики розсіяння
3. статистики форми

Статистики центральної тенденції


Медіана. Означення. Медіаною називають цей елемент статистичного
матеріалу, який ділить відповідний варіаційний ряд ( 3 ) на дві рівні за обсягом
частини. Медіану позначаємо M e .

Якщо обсяг статистичного матеріалу непарний, то медіана визначається


однозначно. Наприклад, якщо варіаційний ряд статистичного матеріалу буде (
n = 2k + 1 )

x(1)  x(2 )    x(k )  x(k +1)    x(2 k +1) , то M e = x(k +1)


  
k k

Якщо обсяг статистичного матеріалу парний, то медіаною може бути інтервал.


Наприклад, якщо варіаційний ряд статистичного матеріалу буде ( n = 2k )
x(1)  x(2 )    x(k )  x(k +1)    x(2 k )
   
k −1 k −2

x(k ) + x(k +1)


То M e = x(k ) , x(k +1)  Me =
2

Твердження. Лише медіана може мінімізувати суму абсолютних відхилень


елементів статистичного матеріалу від сталої.
Доведення. Справді, позначимо через

 x − a =  (x − a ) +  (x − a )
n

f (a ) = i i i
i =1 xi  a xi  a

Ця функція має похідну рівну нулю ( що є необхідною умовою екстремуму)


f (a ) =  (− 1) +  1 = 0
xi  a xi  a

тільки тоді, коли число елементів статистичного матеріалу більших від a рівне
числу елементів статистичного матеріалу менших від a , тобто, коли a = M e .

Мода. Означення. Модою називають цей елемент статистичного матеріалу,


який найчастіше зустрічається. Моду позначаємо M o .

Не виключено, що декілька значень статистичного матеріалу зустрічаються


найчастіше та однаково часто, тоді всі вони модні. Мода типове значення
статистичного матеріалу. Мода широко використовується в демографії. У
демографії, при багатовершинних розподілах, краще вказати моди, ніж середнє
арифметичне.
5 4 3 2 1  M o = 4 ( найчастіше зустрічається)

7 12 5 0 1

Середнє арифметичне.
Означення. Середнім арифметичним називається сума всіх елементів
статистичного матеріалу, поділена на обсяг статистичного матеріалу,
позначається x :
x1 + x 2 +  + x n 1 n
x= =  xi
n n i =1

Відмітимо, що середнє арифметичне може не зустрічатися серед елементів


статистичного матеріалу.
Властивості:
1. Середнє арифметичне не менше від найменшого елемента і не більше від
найбільшого елемента статистичного матеріалу x(1)  x  x(n )

Доведення. З означення:
1 n 1 n
x ==  xi   x(1) = x(1)
n i =1 n i =1

1 n 1 n
x ==  xi   x (n ) = x (n )
n i =1 n i =1

2. Сума відхилень елементів статистичного матеріалу від середнього


арифметичного рівна нулю.
n
 ( xi − x ) = 0
i =1

n n n 1 n
Доведення.  (xi − x ) =  xi −  x = n   xi −nx = nx − nx = 0 .
i =1 i =1 i =1 n i =1

3. Середнє арифметичне мінімізує суму квадратів відхилень елементів


статистичного матеріалу від сталої.
n n
min  (xi − a ) =  (xi − x )
2 2
a i =1 i =1

Доведення. Позначимо через f (a ) функцію, яка дорівнює


n
f (a ) =  (xi − a )
2

i =1

n
f (a ) = −2 (xi − a ) = −2(nx − na ) = 2n(a − x ) = 0
i =1
a=x - точка підозріла на екстремум
f (a ) = 2n  0 - точка мінімуму.

Означення. Сума квадратів відхилень елементів статистичного матеріалу від


середнього квадратичного називається девіацією.
Статистики розсіяння
Варіанса.
Означення. Варіансою називається девіація ( сума квадратів відхилень
елементів статистичного матеріалу від середнього арифметичного поділена на
обсяг статистичного матеріалу без одного і позначається s 2 .
n
 ( xi − x )
2

i =1
s2 =
n −1

Число n − 1 називається числом степенів вільності статистичного матеріалу з


очікуваним середнім ( елементів статистичного матеріалу відносно середнього
арифметичного ) і позначається
d.A. = n − 1 degreds of freedom
Таким чином варіанса – це девіація поділена число ступенів вільності.
Стандарт.
Означення. Стандартом (флуктуацією, середнім квадратичним відхиленням)
називається арифметичний корінь з варіанси і позначається

s = s2

Стандарт називають ще середньо квадратичне відхилення або флуктуацією.


Стандарт має ту саму розмірність як і статистична змінна.
Розмах.
Означення. Розмахом називається різниця між найбільшим і найменшим
елементами статистичного матеріалу і позначається  .
 = max (x1 ,  , x n ) = min (x1 ,  , x n ) = x(n ) − x(1)

Тобто розмах – це різниця між крайніми елементами варіаційного ряду.


Для додатніх мінливих величин за міру розсіяння часто можна прийняти
варіацію.
Варіацією називається відношення стандарту до середнього арифметичного
s
v= .
x
Інтерквантильні широти.
Означення. Квантилем порядку  , якщо він існує, називається цей елемент
статистичного матеріалу ( відповідного варіаційного ряду ), до якого включно
маємо  % елементів статистичного матеріалу (відповідного варіаційного ряду).

Статистичний матеріал (1) має квантилі тільки порядків кратних 


100
, інші
n

квантилі не існують; елемент x(i ) є кантилем порядку i 


100
(i = 1,, n ) .
n

Означення. При    , різницю між квантилем порядку  і квантилем порядку


 називають інтерквантильною широтою порядку  −  .

Для статистичного матеріалу (1) існують тільки інтерквантильні широти


наступних порядків

qij = ( j − i )  , j  i (i = 1,2, n − 1; j = 2,3, n )


100
n

Практично важливими є симетричні інтерквантильні широти.


Для статистичного матеріалу (1) існують симетричні інтерквантильні широти
тільки таких порядків
  n + 1 
qi ,n+1−i = (n + 1 − 2i ) 
100
;  i = 1,2,,   − 1 , вони рівні x(n+1−i ) − x(i ) .
n   2  

Квантилі порядку 25, 50, 75 називаються квартилями: першим Q1 ; другим Q2 ;


третім Q3 . Різниця між третім і першим квартилем Q3 − Q1 називається
інтерквартильною широтою ( інтерквартильний розмах ).
Очевидно, що
Q1 = x n  , Q3 = x 3n  .
   
4  4 

Від Q1 виключно до Q3 включно розташовано 50 % центральних елементів


статистичного матеріалу.
Квантилі порядку 12,5; 25,0;…, 87,5 називаються октилями: першим O1 ;
другим O2 ; …сьомим O7 . Різниця між сьомим і першим октилем O7 − O1
називається інтероктильною широтою. Очевидно, що
O1 = x n  O7 = x 7 n 
   
8  8 

Від O1 виключно до O7 включно розташовано 75 % центральних елементів


статистичного матеріалу.
Квантилі порядку 10; 20;…, 90 називаються децилями: першим Д 1 ; другим Д 2 ;
…дев’ятим Д 9 . Різниця між дев’ятим і першим децилем Д 9 − Д 1 називається
інтердецильною широтою. Очевидно, що
Д 1 = x n  Д 9 = x 9 n 
   
 10   10 

Від Д 1 виключно до Д 9 включно розташовано 80 % центральних елементів


статистичного матеріалу.
Квантилі порядку 01; 02;…, 99 називаються центилями: першим C 01 ; другим
C 02 ; …дев’яносто дев’ятим C99 . Різниця між дев’яносто дев’ятим і першим
центилем C99 − C 01 називається інтерцентильною широтою.

Очевидно, що
C 01 = x n  C99 = x 99n 
   
 100   100 

Від C 01 виключно до C99 включно розташовано 98 % центральних елементів


статистичного матеріалу.
Квантилі порядку 00,1; 00,2;…, 99,9 називаються мілілями: першим M 001 ; …
дев’ятсот дев’яносто дев’ятим M 999 . Різниця M 999 − M 001 називається
інтермілільною широтою. Очевидно, що
M 001 = x n  M 999 = x 999n 
   
 1000   1000 

Від M 001 виключно до M 999 включно розташовано 99,8 % центральних


елементів статистичного матеріалу.
Перший центиль – однопроцентний квантиль, перший міліль – однопроцентний
квантиль.
Квартиль, октиль, дециль, центиль, міліль використовується тоді, коли об’єм
статистичного матеріалу буде кратний відповідно 4, 8, 10, 100, 1000.
Моменти статистичного матеріалу
Означення. Моментом порядку H відносно сталої a називається вираз
1 n
 k (a ) =  ( xi − a )
k
(k = 1,2,)
n i =1

При a = 0 момент називається початковим і позначається через


1 n h
mk =  xi (k = 1,2,)
n i =1

Покладемо, за означенням, m0 = 1 .
Очевидно, що 1-ий початковий момент збігається із середнім арифметичним і
позначається
m1 = x

При a = x момент називається центральним і позначається через


1 n
k =  ( xi − x )
k
(k = 1,2,)
n i =1

Очевидно, що 1-ий центральний момент дорівнює


1 n
1 =  ( xi − x ) = 0
n i =1

2-й центральний момент запишеться у вигляді


1 n n −1 1 n n −1 2
2 =  ( xi − x ) =   ( xi − x ) =
2 2
s .
n i =1 n n − 1 i =1 n

Очевидно, що при великих n другий центральний момент практично дорівнює


варіансі.
Зауважимо, що практично найчастіше використовуються такі моменти:
1-й початковий m1 = x

2-й центральний  2 = s 2
3-й центральний і 4-й центральний  3 ;  4 .

Очевидно, що центральний момент порядку k можна виразити через початкові


моменти до порядку k .
Наприклад. 2-ий центральний момент дорівнює

2 = (
1 n 2
 i
n i =1
x − 2 x i x + x)2
=
1 n 2
 xi − 2 xx + x 2 = m2 − m12 .
n i =1

Статистики форми.
Для характеристики форми мінливості статистичного матеріалу (1) , Фішер увів
дві статистики: 1) асиметрію і 2) ексцес.
Означення. Асиметрією або скошеністю статистичного матеріалу (1)
називається відношення 3-го центрального моменту до 2-го центрального
моменту в степені півтора
3
As =  1 =
 23 2
Якщо As  0 (  1  0 ), то статистичний матеріал скошений вправо і має додатну
асиметрію.
Якщо As  0 (  1
 0 ), то статистичний матеріал скошений вправо і має додатну
асиметрію.
Якщо As = 0 (  1 = 0 ), то статистичний матеріал симетричний.

Асиметрія – безрозмірна величина ( видно з формули).


Означення. Ексцесом ( крутістю, сплющеністю ) статистичного матеріалу (1)
називається відношення 4-го центрального моменту до 2-го центрального
моменту в квадраті мінус три
4
Ek =  2 = −3
 22

При E k  0 (  2  0 ), то статистичний матеріал – високовершинний.

При E k  0 (  2  0 ), то статистичний матеріал – низьковершинний.

При E k = 0 (  2 = 0 ), то статистичний матеріал – нормальновершинний.

Неважко перевірити, що для нормально розподіленої випадкової змінної


відношення 4-го центрального моменту до 2-го в квадраті дорівнює 3.
Моменти випадкової змінної або: момент порядку k , (k = 1,, n ) випадкової
змінної  відносно сталої a називається сподівання k -го степеня відхилення
цієї змінної від константи a і позначають M a(k ) ( )

M a(k ) ( ) = M ( − a ) .
k

Отже момент існує, якщо існує сподівання змінної ( − a )k .


При a = 0 момент називається початковим і позначається
mk ( ) = M ( ) .
k

Очевидно, що 1-ий початковий момент є математичним сподіванням


m1 ( ) = M ( ) .

При a = M ( ) момент називається центральним і позначається

 k ( ) = M ( − M ( ))k .

Перший центральний момент будь-якої випадкової змінної дорівнює 0:


1 ( ) = M ( − M ( )) = M ( ) − M (M ( )) = 0 .
Другий центральний момент будь-якої випадкової змінної є дисперсією цієї
змінної, тобто
 2 ( ) = M ( − M ( ))2 = D( ) .
Майже вірогідна подія
• Коли подія А не еквівалентна вірогідній, але
все одно її імовірность P(A)=1, тоді подія A
майже вірогідна.
• Протилежна до майже вірогідної – це
майже неможлива подія.
• Можливості не попасти в точку (0,0) та
попасти в неї при довільному виборі точки
в координатні площині - це майже вірогідна
та майже неймовірна події.
Посилений закон великих чисел
• Теорема: нехай µ - кількість появ події A з
імовірністю p в серії з n незалежних
експериментів, а ε>0 тоді: .
• У 1903р. Борель узагальнив таку формулу
до вигляду .
• З цього випливає, що при великій кількості
експериментів p наближено рівне m/n, де
m – кількість сприятливих експериментів.
Посилений закон великих чисел для
функції розподілу
• Нехай x(1)<=x(2)<=…<=x(n) – варіаційний
ряд випадкової величини F.
• Тоді - емпірична функція розподілу, де
k – кількість x(і), менших за x. Також вона
неперервна справа і є розривна з
величиною розривів 1/n у всіх точках
варіаційного ряду.
• Функція розподілу випадкової величини F –
це також теоретична її функція розподілу.
Посилений закон великих чисел для
функції розподілу
• У 1933р. Глівенко довів ,що майже вірогідна
функція розподілу збігається до теоретичної
функції розподілу.

• Наслідок: Якщо відома теоретична функція


розподілу, то форма емпіричної вказує на
погодженість теорії з практикою. А якщо
невідома, то дає уявлення про теоретичну.
Посилений закон великих чисел для
функції розподілу
• Сукупність усіх можливість значень
випадкової змінної називають генеральною
сукупністю або популяцією.
• Ряд незалежних спостережень з випадкової
величини називають вибіркою з
генеральної сукупності.
• Теорема Глівенка доводить, що вибірка
несе інформацію про генеральну
сукупність.
• Основне завдання статистики полягає в
тому, щоб виявити інформацію, яку несе
вибірка про генеральну сукупність. Всяке
твердження про генеральну сукупність на
основі вибірки називається гіпотезою.
Міркування, на основі яких приходимо до
висновків про гіпотезу називаємо
називають статистичним доведенням.
Кожне статистичне доведення в основному
проводиться за такою схемою.
Схема статистичного доведення
В кожному статистичному доведенні є наступні
кроки:
• Формується гіпотеза H
• Вибирається рівень значущості d
• Вибирається відповідно гіпотеза статистики St
• Знаходиться розподіл цієї статистики
• На основі знайденого розподілу визначаємо
критичну область для статистики.
• Знаходимо емпіричне значення статистики.
• Приймаємо вирішення про гіпотезу.
Схема статистичного доведення
Якщо емпіричне значення статистичної гіпотези
попадає в критичну для гіпотези область, то
гіпотезу відкидаємо. Якщо емпіричне значення
статистичної гіпотези не попадає в критичну
для гіпотези область, то гіпотезу приймаємо і
вона не суперечить експериментальним
даним.
Статистичні гіпотези відносно генеральної
сукупності можуть бути дуже різноманітними.
Наприклад: розподіл, його параметр,
нерівність, сподівання і так далі.
Схема статистичне доведення
Статистичне доведення відрізняються від
математичного доведення. Останнє базоване на
логіці, тоді як статистичне може мати 4 ситуації
• Гіпотеза вірна і в результаті статистичного
доведення ми її приймаємо
• Гіпотеза хибна і в результаті статистичного
доведення ми її відкидаємо
• Гіпотеза вірна і в результаті статистичного
доведення ми її відкидаємо
• Гіпотеза хибна і в результаті статистичного
доведення ми її приймаємо
Статистичне доведення
• В статистичному доведенні можливі 2 типи
похибки: відкинення правдивої гіпотези
(похибка 1-го типу) і прийняття хибної (похибка
2-го типу). Рівень прийняття гіпотези є рівнем
значущості і його позначають α і він переважно
вибирається 0.05, а рідше 0.1 або 0.01. Перше
статистичне доведення в сучасному розумінні
провів англійський математик Пірсон в 1900р –
році заснування математичної статистики.
Критерій Хі квадрат
Нехай x1,…,xn – вибірка з генеральної сукупності
ξ. Потрібно перевірити гіпотезу H, про те, що
функція розподілу генеральної сукупності є
F(x). H:F(x)
• Поділимо генеральну сукупність довільним
чином на r+1 частин, які позначимо
S1,…Si,…,Sr+1. Нехай в кожні частині є mi
елементів. Очевидно, що
• На основі гіпотетичної функції розподілу F(x)
знаходимо, що імовірніcть того, що
спостережувана змінна буде в комірці Si
• Очевидно, що сума таких ймовірностей буде
рівна 1.
Критерій Хі квадрат
• За міру відхилення теоретичного розподілу
від вибірки Пірсон прийняв величину

• Також він довів, що для статистика


має розподіл, який задається густиною
Критерій Хі квадрат
Розподіл з густиною називають
розподілом з r ступенями свободи
Нарисуємо графік густини хі-квадрат при r від
1 до 4
Критерій Хі квадрат
На основі густини визначаємо критичну
область для гіпотези при заданому рівні
значущості.
Для різних α і різних d.f. критерії
табульовані. Якщо емпіричне > критичне,
то гіпотезу відкидають
• Умови застосовності критерію Хі квадрат
• Першою необхідною умовою застосовності
критерію Хі квадрат є те, щоб вибірка була
велика (n більше рівне 5)
• Друга необхідна умова, щоб у кожному класі
поділу генеральної сукупності було не менше
ніж 10 спостережень. Якщо в якомусь класі
менше ніж 10 спостережень, то об’єднують із
сусіднім класом в один. Інколи треба
об’єднати кілька класів в один.
• Третя необхідна умова застосовності
критерію Хі квадрат: Якщо на основі
вибірки оцінюється s невідомих
параметрів, то число ступенів вільності
зменшують на s. Якщо число класів
після об’єднання є r+1, а число
параметрів s, то число ступенів
вільності = r-s.
Матстатистика
Матстатистика - це наука про те, як
1. планувати експеримент
2. збирати статистичний матерiал
3. як аналiзувати статистичний матерiал математичними методами

4. як робити прогнози
Надалi будемо цiкавитись 3) причому будемо цiкавитись статистичними
методами для одновимiрної кiлькiсної мiнливої величини

Метод максимуму правдоподiбностi


Задача. Нехай 𝑋1 , 𝑥2 , . . . , 𝑥𝑛 - ряд незалежних спостережнь проведених в
однакових умовах над статичною змiнною 𝜉, що має функцiю розподiлу ℱ,
залежну вiд s невiдомих параметрiв 𝛼1 , 𝛼2 , . . . , 𝛼𝑠

𝜉 : ℱ(𝑥; (𝛼1 , . . . , 𝛼𝑠 )) (1)


Завдання: оцiнити невiдомi параметри на основi вибiрки

Англiйський статистик Р.Фiшер у 1912р. запропонував наступний метод


оцiнки невiдомих параметрiв. Якщо статистична змiнна 𝜉 абсолютно непе-
рервна i має густину 𝑃 (𝑥, 𝛼1 , . . . , 𝛼𝑠 ), то розглядатимемо таку функцiю:
𝑛
∏︁
𝐿(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ; 𝛼1 , 𝛼2 , . . . 𝛼𝑠 ) = 𝑃 (𝑥𝑖 , 𝛼1 , . . . , 𝛼𝑠 ) (2)
𝑖=1

Якщо статична змiнна 𝜉 дискретна i приймає значення з ймовiрнiстю


𝑃𝑗 (𝛼1 , . . . , 𝛼𝑠 ) = 𝒫{𝜉 = 𝑗} то розглядаємо функцiю
𝑛
∏︁
𝐿(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ; 𝛼1 , . . . , 𝛼𝑠 ) = 𝑃 (𝑥𝑖 ; 𝛼1 , . . . , 𝛼𝑠 ) (3)
𝑖=1

В обох випадках функцiя 𝐿 = 𝐿(𝑥1 , .., 𝑥𝑛 ; 𝛼1 , . . . , 𝛼𝑠 ) називають фун-


кцiєю правдоподiбностi. Невiдомi параметри оцiнюємо з необхiдної умови
максумуму функцiї правдоподiбностi.
Очевидно, що необхiдною умовою максимуму функцiх багатьох змiнних
є зникнення 1-х частинних похiдних вiд функцiї правдоподiбностi
𝜕 ln 𝐿
= 0(𝑘 = 1, . . . , 𝑠)
𝜕𝛼𝑘
1
обидвi сторони рiвностi помножимо на 𝐿, одержимо:
𝜕 ln 𝐿
= 0(𝑘 = 1, . . . , 𝑠) (4)
𝜕𝛼𝑘
тобто при ln 𝐿 - точка досягає максимуму

1
Остання система рiвнянь називається системою рiвнянь правдоподiбностi
Кожне розв’язання системи рiвнянь правдоподiбностi, що залежить вiд
вибiркових значень 𝑥1 , . . . .𝑥𝑛 називається оцiнкою максимальної правдоподiбностi
для 𝛼1 , . . . , 𝛼𝑠 . Ми не будемо розглядати умов iснування розв’язку системи
рiвнянь правдоподiбностi, питань єдиностi, способах знаходження розв’язку
в загальному випадку. У конкретних випадках на цi питання дамо вiдповiдi
по змозi i до кiнця.
Таким чином, метод максимуму правдоподiбностi полягає в тому, що за
оцiнку невiдомих параметрiв приймаємо такi розв’язки системи (3), вiдно-
сно 𝛼1 , . . . , 𝛼𝑘 ,
Приклад 1 Методом максимуму правдоподiбностi оцiнити на основi
заданої вибiрки параметри нормального розподiлу (сподiвання та диспер-
сiю)

Нехай 𝑥1 , . . . , 𝑥𝑛 вибiрка нормальної популяцiї, що має густину


1 (𝑥−𝑎)2
𝑃 (𝑥; 𝑎, 𝜎 2 ) = √ 𝑒− 2𝜎 2
2𝜋𝜎 2
Для оцiнки невiдомих параметрiв 𝑎𝑖𝜎 2 запишемо функцiю правдоподi-
бностi:
1 1
∑︀𝑛
(𝑥𝑖 −𝑎)2
𝐿= 𝑒− 2𝜎2 𝑖=1
(2𝜋)( 𝑛/2)(𝜎 2 )( 𝑛/2)
Звiдси
𝑛
𝑛 𝑛 2 1 ∑︁
ln 𝐿 = − ln 2𝜋 − ln 𝜎 − 1 (𝑥𝑖 − 𝑎)2
2 2 2𝜎 𝑖=1
Запишемо систему рiвнянь правдоподiбностi
{︃ ∑︀𝑛
𝜕 ln 𝐿 1 2
𝜕𝑎 ≡ 𝜎 2 𝑖=1 (𝑥𝑖 − 𝑎) = 0
𝜕 ln 𝐿 𝑛 1
∑︀𝑛 2
𝜕𝜎 2 ≡ − 2𝜎 2 + 2𝜎 4 𝑖=1 (𝑥𝑖 − 𝑎) = 0

Дана система має єдиний розв’язок:


𝑛
1 ∑︁
𝑎= 𝑥𝑖 ≡ 𝑥
𝑛 𝑖=1

𝑛 ⃒ 𝑛
2 1 ∑︁ 2⃒ 1 ∑︁ 𝑛−1 2
(𝑥 − 𝑥)2 ≡

𝜎 = (𝑥𝑖 − 𝑎) ⃒ = 𝑠
𝑛 𝑖=1 𝑎=𝑥 𝑛 𝑖=1 𝑛
Розв’язок єдиний, а чи вiе надає max:
Оскiльки,
⃒ 2 ⃒ ⃒ ⃒
⃒ 𝜕 ln 𝐿 𝜕 2 ln 𝐿 ⃒ ⃒− 𝑛2 𝑠2 0 ⃒
⃒ 𝜕𝑎2 𝜕𝑎 2 𝜕𝜎 2 ⃒ ⃒ 𝑛−1
= ⃒ > 0 ̸= 0

⃒ 𝜕 2 ln 𝐿 2
𝜕 ln 𝐿 ⎨

𝑛 3
− 2(𝑛−1)
⃒ ⃒
⃒ 𝜕𝑎2 𝜕𝜎2 (𝜕𝜎 2 )2 ⃒ 𝑎 = 𝑥 ⃒ 0 2 𝑠4 ⃒
⎩𝜎 2 = 𝑛−1 2
𝑠
𝑛

2
𝜕 2 ln 𝐿 ⃒⃒⎧ 𝑛2

=− <0
𝜕𝑎2 ⃒⎪ ⎨𝑎 = 𝑥 (𝑛 − 1)𝑠2
⎩𝜎 2 =
⎪ 𝑛−1
(𝑛−1)𝑠2
𝑛−1
То при 𝑎 = 𝑥 i 𝜎 2 = (𝑛−1)𝑠 2 функцiя правдоподiбностi нормального розпо-

дiлу має максимум.


Таким чином максимум правдоподiбностi сподiвання нормального роз-
подiлу оцiнюється середнiм арифметичним, а дисперсiя - другим централь-
ним моментом або варiансою наближення
𝑛−1
𝑎=𝑥 𝜎 2 = 𝜇2 =
(𝑛 − 1)𝑠2

Приклад 2. Методом максимуму правдоподiбностi оцiнити на основi


вибiрки параметр експонентного розподiлу.
Нехай 𝑥1 , . . . , 𝑥𝑛 - вибiрка з експонентної популяцiї, що має густину

𝑃 (𝑥, 𝜆) = 𝜆𝑒−𝜆𝑥 , 𝑥 > 0


1-ий крок. Записуємо функцiю правдоподiбностi: замiсть S ставимо
𝑥1 , . . . , 𝑥𝑛 i перемножимо:
∑︀𝑛
𝐿 = 𝜆𝑛 𝑒−𝜆 𝑖=1 𝑥𝑖

2-ий крок.
𝑛
∑︁
ln 𝐿 = 𝑛 ln 𝐿𝜆 − 𝜆 𝑥𝑖
𝑖=1

Записуємо рiвняння правдоподiбностi


𝑛
𝜕 ln 𝐿 𝑛 ∑︁
≡ − 𝑥𝑖 = 0
𝜕𝜆 𝜆 𝑖=1
який має єдиний розв’язок

1
∑︀𝑛
𝜆 = 𝑛1 𝑖=1 𝑥𝑖 ≡ 𝑥 ⇒ 𝜆 = 𝑥1 - розв’язок єдиний, а чи подає максимум
треба взяти другу похiдну.

2 ⃒
Оскiльки 𝜕 𝜕𝑥ln2𝐿 ⃒⃒ = −𝑛𝑥2 < 0 друга похiдна вiд’ємна i маємо макси-
1
𝜆= 𝑥
мум.
Таким чином методом максимуму правдоподiбностi параметр експонен-
цiального розподiлу оцiнюється оберненою величиною середнього арифме-
тичного.
Приклад 3. ММП оцiнити параметр розподiлу Пуасона на основi ви-
бiрки (Тобто знайти оцiнку для сподiвання 𝜆)
Нехай 𝑥1 , . . . , 𝑥𝑛 - вибiрка з генеральної сукупностi пуасонiвської розпо-
дiленої змiнної

𝜆𝑗
𝒫{𝜉 = 𝑗} = 𝑒−𝜆 (𝑗 = 0, 1, 2, . . . ; 𝜆 > 0)
𝑗!

3
Функцiя правдоподiбностi у нашому випадку приймає вигляд
∑︀𝑛
−𝑛 𝜆 𝑖=1 𝑥𝑖
𝐿=𝑒
𝑥1 !𝑥2 ! . . . 𝑥𝑛 !
Звiдси
𝑛
∑︁ 𝑛
∑︁
ln 𝐿 = −𝑛𝜆 + ( 𝑥𝑖 ) − ln (𝑥𝑖 !)
𝑖=1 𝑖=1

На пiдставi записуємо рiвняння правдоподiбностi:


𝑛
𝜕 ln 𝐿 ∑︁ 1
≡ −𝑛 + ( 𝑥𝑖 ) = 0
𝜕𝜆 𝑖=1
𝜆

𝜕 2 ln 𝐿 ⃒

Це рiвняння має розв’язок, оскiльки 𝜕𝜆2 ⃒ = − 𝑛𝑥 = 0, то при 𝜆 = 𝑥
𝜆=𝑥
функцiя правдоподiбностi пуасонiвського розподiлу має максимум. Нечита-
бельно далi
Зауваження: дуже частно система рiвнянь правдоподiбностi трансцен-
дентна i навiть за допомогою сучасних ЕОМ буває нелегко її розв’язати. В
таких випадках iнколи вдається оцiнити невiдомi параметри методом мо-
ментiв. Метод моментiв полягає в тому, що ми прирiвнюємо мiж собою
стiльки теоретичних i емнiр-х моментiв, скiльки невiдомих параметрiв.
Приклад 4. Оцiнити методом максимальної правдоподiбностi параметр
розподiлу 𝜆 з густиною
1 −𝑥 𝜆−1
𝑝(𝑥; 𝜆) = 𝑒 𝑥 (𝑥 > 0, 𝜆 > 0)(𝐴)
(𝜆)
На основi вибiрки.
Нехай 𝑥1 , . . . , 𝑥𝑛 - вибiрка iз популяцiй, що має густину 𝑃 (𝑥; 𝜆). Функцiя
правдоподiбностi у нашому випадку рiвна
𝑛
1 ∏︁ 𝜆−1 − ∑︀𝑛𝑖=1 𝑥𝑖
𝐿= 𝑛 (𝜆)
( 𝑥𝑖 ) 𝑒
𝑖=1

Звiдси
𝑛
∑︁ 𝑛
∑︁
ln 𝐿 = −𝑛 ln (𝜆) − 𝑥𝑖 + (𝜆 − 1) ln 𝑥𝑖
𝑖=1 𝑖=1

Рiвняння правдоподiбностi має вигляд


′ 𝑛
𝜕 ln 𝐿 (𝜆) ∑︁
≡ −𝑛 + ln 𝑥𝑖 = 0
𝜕𝜆 (𝜆) 𝑖=1

Логарифмiчна похiдна функцiї



(𝜆)
𝜓(𝜆) =
(𝜆)
При 𝜆 > 0, монотонно зростає вiд −∞ до +∞. Тому рiвняння правдопо-
дiбностi

4
𝑛
1 ∑︁
𝜓(𝜆) = ln 𝑥𝑖
𝑛 𝑖=1
має єдиний розв’язок
𝑛
1 ∑︁
𝜆 = 𝜓 −1 ( ln 𝑥𝑖 )
𝑛 𝑖=1

Де 𝜓 −1 - функцiя обернена до 𝜓; 𝜓[𝜓 −1 (𝑥)] = 𝑥. Оскiльки

𝜕 2 ln 𝐿
= −𝑛𝜓 ′ (𝜆) > 0
𝜕𝜆2
i похiдна всюди невiд’ємна, то при 𝜆 = функцiя правдоподiбностi має
максимум. Але вираз досить складний для практичного застосування. Тому
постараємось оцiнити невiдомий параметр 𝜆 методом моментiв.
Перший початковий момент розподiлу (А) збiгається iз сподiванням i
рiвний
∫︁ ∞ ∫︁ ∞
1 1
𝑚1 = 𝐸𝜉 = 𝑥 = 𝑥𝑒𝜆−1 𝑑𝑥 = 𝜆
0 (𝜆)𝑒𝜆−1 𝑑𝑥 (𝜆) 0
Вiдомо, що перший∑︀емпiричний початковий момент збiгається iз сере-
𝑛
днiм арифметичним 𝑛1 𝑖=1 𝑥𝑖 = 𝑥. Таким чином оцiнкою невiдомого пара-
метра 𝜆, згiдно з методом моментiв є вибiркове середнє

𝜆=𝑥
Ця оцiнка значно простiша вiд отриманої
Слiд пiдкреслити, що оцiнка параметрiв одержанi ММП мають взагалi
бiльше властивостей, нiж оцiнки одержанi методом моментiв.

5
Критерій порівняння експерименту
Часто потрібно порівняти між собою два різні виробничі методи або два методи оброки. Ряд спостережень
відносно одного способу обробки назвемо контрольним, а відносно іншого способу обробки рядом спостережень
оброки. Для вияснення того, що ряд спостережень обробки істотно відрізняється від контрольного ряду спостережень
форму маємо нульову гіпотезу (𝐻𝑖 : нема істотної різниці між обома рядами спостережень). Сформульовану гіпотезу
перевіряємо за допомогою відповідного критерію.
Критерій знаків
Нехай 𝑥1 , 𝑦1 … 𝑥𝑖 , 𝑦𝑖 … 𝑥𝑛 , 𝑦𝑛 ряд незалежних пар незалежних у кожній парі спостережень над деякою
абсолютною неперервною статистичною змінною. Потрібно перевірити гіпотезу про те, що розподіли у кожній парі
однакові. Тезу перевіряємо за допомогою відповідного критерію.
ℱ𝑖 (𝑥) = 𝐺𝑖 (𝑥) (𝑖 = 1, 𝑛)
1
Якщо гіпотеза істина (вірна), то імовірність того, що Ρ 𝑥𝑖 = 𝑦𝑖 = 0, Ρ 𝑥𝑖 − 𝑦𝑖 > 0 = Ρ 𝑥𝑖 −𝑦𝑖 < 0 = (𝑖 = 1, 𝑛)
2
За статистику приймемо число дод-х різниць 𝑥𝑖 − 𝑦𝑖 , яке позначимо ℋ(+) , очевидно, що стат. ℋ(+) є
випадкова змінна і вона біномно розподілена, значить імов.
𝐶𝑛𝑘
Бін. розп. 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 . . Ρ ℋ + =𝑘 = 𝑘 = 0,1, … , 𝑛
2𝑛
1 1
𝑝 = то і 𝑞 =
2 2
На основі цього розподілу визначаємо причину обл-ть гіпотези при заданому рівні значущості 𝛼. Оскільки
статистика ℋ(+) дискретна, то абл. прийому гіпотези (𝑚1 , 𝑚2 ) визначаємо системою нерівностей, де 𝑚1 - найбільше, а
𝑚2 - найменше значення, що задовольняють нерівність.

𝐶𝑛𝑘 𝛼 𝐶𝑘 𝛼 1
σ𝑚 1 −1
𝑘=0 ≤ 2 , σ𝑛𝑘=𝑚2+1 2𝑛𝑛 ≤ 2 (2 𝛼) (*)
2𝑛

0, 1 𝑚1 , …, 𝑚2 n

кр. обл. обл. прийому гіпотези кр. обл.


Наприклад при 𝑛 = 6, і 𝛼 = 0,05 отримуємо 𝑚1 , 𝑚2 = (1,5). Для різних рівнів значущості та різного числа
спостережень табульовано менші області прийому гіпотези.
Наприклад при 𝛼 = 0,05 обл. прийому для гіпотези різних 𝑛 визначається числами 𝑚1 і 𝑚2 .
𝒏 𝒎𝟏 𝒎𝟐
5 0 5
6 1 5
7 1 6
8 1 7
9 2 8
10 2 8
11 2 9
12 3 9
13 3 10
14 3 11
15 4 11
16 4 12
17 5 12
18 5 13
19 5 14
20 6 14
21 6 15
36 12 24
49 18 31
100 40 60
Оскільки біномний розподіл у симетричному випадку досить швидко збігається до нормального розподілу, то
при 𝑛 ≥ 16 суми (*) досить добре наближаються за допомогою інтегральної теореми Муавра-Лапласа використовується
нормальне наближення.
Наприклад : 𝛼 = 0,5 кр. обл. визнач. із співвідношення

𝑛
𝜇−2
Ρ | | < 𝑧𝛼 = 1 − 𝛼
𝑛 2
2
𝑛 𝑛
Ρ{ − 0,98 𝑛 < 𝜇 < + 0,98 𝑛} = 0,95
2 2
𝜇−𝑛𝑝
(За інтегральною теоремою Муавра-Лапласа) Ρ{𝛼 < < 𝛽}
𝑛𝑝𝑞
𝑧𝛼 - табульована при 𝛼 = 0,05 𝑧𝛼 = 1,96
2 2

𝛼 𝛼
2 2

1−𝛼

−𝑧𝛼 𝑧𝛼
2 2
кр. обл. обл. прийому кр. обл.
Отже обл. прийому гіпотез визначається числами
𝑛
𝑚1 = [2 − 0,98 𝑛] – ціла частина числа
𝑛
𝑚2 = {2 + 0,98 𝑛} – (ціла частина числа) з доповненням до цілого числа

Наприклад. 𝑛 = 16, тоді


𝑚1 = 8 − 0,98 ∗ 4 = 4,08 = 4
𝑚2 = {8 + 0,98 ∗ 4} = 8 + 3,92 = 11,92 = 12
(𝑚1 , 𝑚2 ) = (4,12)

𝑚1 = 8 − 0,98 ∗ 4 = 4,08 = 4
𝑚2 = {8 + 0,98 ∗ 4} = 8 + 3,92 = 11,92 = 12
(𝑚1 , 𝑚2 ) = (4,12)

Заув. У результаті обмеженої точності вимірювань може трапитись, що деякі пари мають одинакові елементи.
Тоді такі пари пропускаємо. Число спостережень при цьому зменшується на число пропущених пар.
Якщо 𝐻(+) емпіричне < ніж 𝑚1 або > 𝑚2 то гіпотезу відкидаємо.
Приклад. Дано 21 пару незалежних у кожній парі спостережень над абсолютно неперервною статистичною
змінною.

(2,4; 1,9) + (1,4; 1,9) - (1,4; 1,9) -


(1,2; 0,5) + (0,8; 1,1) - (0,9; 2,1) -
(2,2; 1,2) + (2,0; 3,2) - (1,1; 3,0) -
(1,4; 1,3) - (2,7; 2,6) + (1,2; 2,1) -
(2,3; 2,6) - (1,9; 2,7) - (0,3; 2,3) -
(3,3; 1,2) + (0,6; 2,4) - (3,1; 2,9) +
(3,4; 2,3) + (1,5; 0,9) + (1,9; 0,6) +

Перевірити 𝐻𝑖 елементи кожної пари однаково неперервно розподілені ℱ𝑖 = 𝐺𝑖 (𝑖 = 1, 𝑛)


Для доведення гіпотези використовується перевірка знаків. Число додатних знаків
рівне 9: Н(+)=9; З таблиці Т-9 відчитуємо межі області прийому гіпотези при рівні
значущості α=0,05 і обсязі спостереження n=21. Дістаємо 𝑚1 , 𝑚2 = (6, 15). Оскільки
число додатних знаків різниць попадає в область прийому гіпотези, то гіпотеза не
суперечить статистичним даним. Нормальне наближення дає ті самі межі.

2. Гіпотеза про медіану


Нехай 𝑥1 , … , 𝑥𝑖 , … , 𝑥𝑛 - ряд незалежних спостережень над абсолютною неперервною
статистичною змінною. Потрібно перевірити гіпотезу про те, що медіана популяції, з якої
взято вибірку рівне 𝑎: 𝑀𝑒 = 𝑎; Якщо гіпотеза істинна, то
1
𝒫 𝑥𝑖 = 𝑀𝑒 = 0, 𝒫 𝑥𝑖 − 𝑀𝑒 > 0 = 𝒫 𝑥𝑖 − 𝑀𝑒 < 0 =
2
Отже, за критерій можна прийняти статистику Н(+) = число додатних різниць (𝑥𝑖 − 𝑀𝑒 ).
Далі статистика доведення як в п.1.
Приклад
Дано 17 спостережень (n=17) над популяцією з абсолютною неперервною ф-ією
розподілу Перевірити гіпотезу про те, що медіана популяції,
з якої взято вибірку рівна 2: Н: 𝑀𝑒 = 2;
Розглянемо число додатних різниць між
елементами вибірки та 2. 𝐻(+)емп = 8; α=0,05;
𝑚1 , 𝑚2 = 5, 12 ; 5 < 𝐻емп < 12; Гіпотезу
приймаємо , тобто гіпотеза не суперечить вибірці.
3. Критерій інверсій(Wilcoxon, 1945)
Нехай 𝑥1 , … , 𝑥𝑖 , … , 𝑥𝑛 - вибірка абсолютної неперервної популяції, що має неперервну ф-ію розподілу
ℱ 𝑥 , a 𝑦1 , … , 𝑦𝑛 - вибірка з абсолютно неперервних популяцій з ф-ією розподілу 𝒢 𝑥 .
Потрібно перевірити гіпотезу про те, що: популяції, з яких взято вибірки однаково розподілені: ℱ 𝑥 ≡
𝒢 𝑥 . (Порівняння за критерієм Смирнова)
Якщо гіпотеза істинна, то в середньому не в кожному відрізку із заданою пропорцією 𝑥 ми повинні
зустріти приблизно таку ж пропорцію 𝑦 – ів. Якщо на якомусь відрізку із заданою пропорцією пропорція 𝑦
дуже мала чи велика, то це й буде свідчити проти гіпотези. Тому, за статистику приймемо число інверсій 𝑦–
ів відносно 𝑥– ів у спільному варіаційному ряді, яке позначимо через 𝑊(𝑦/𝑥).
Аналогічно, 𝑊(𝑦/𝑥) – число інверсій 𝑥– ів відносно 𝑦– ів. Число інверсій для даного 𝑥𝑖 визначається як
число тих 𝑦𝑘 , що задовольняють умову 𝑦𝑘 < 𝑥𝑖 ; число інверсій для 𝑦𝑗 дорівнює числу тих 𝑥𝑙 , що
задовольняють нерівність 𝑥𝑙 < 𝑦𝑗 .
Наприклад Якщо спільний варіаційний ряд такий 𝑥𝑖 < 𝑦𝑘
𝑥9 < 𝑥5 < 𝑦4 < 𝑥1 < 𝑦7 < 𝑥8 < 𝑦5 < 𝑥4 < 𝑥6 < 𝑥7 < 𝑦6 < 𝑦1 < 𝑥3 < 𝑥2 < 𝑦2 < 𝑦3
то число інверсій 𝑦– ів відносно 𝑥– ів (число тих 𝑦– ів, що стоять перед 𝑥–ами) рівне
𝑊(𝑦/𝑥) = σ𝑛𝑖=1 число 𝑦𝑘 < 𝑥𝑖 , 𝑘 = 1, 𝑚,

𝑊(𝑥/𝑦) = σ𝑚
𝑖=1 число 𝑥𝑘 < 𝑦𝑖 , 𝑘 = 1, 𝑛
𝑊 𝑦/𝑥 = 1 + 2 + 3 + 3 + 3 + 3 + 5 + 5 = 22, 𝑦≤𝑥
Аналогічно, число інверсій 𝑥 відносно 𝑦
𝑊 𝑥/𝑦 = 2 + 3 + 4 + 7 + 7 + 9 + 9 = 41, 𝑥≤𝑦
Очевидно, що статистика 𝑊 𝑦/𝑥 може приймати цілочисельні значення від 0 (коли
всі 𝑥 - и розташовані перед всіма 𝑦 - ами) до 𝑚 𝑛 (коли всі 𝑥 – и більші від усіх 𝑦 – ків),
тобто
0 ≤ 𝑊 𝑦/𝑥 ≤ 𝑚 𝑛.
Точно також
0 ≤ 𝑊 𝑥/𝑦 ≤ 𝑚 𝑛.
Неважко перевірити, що
𝑊 𝑦/𝑥 + 𝑊 𝑥/𝑦 = 𝑚 𝑛.
Це служить контролем правильності обчислення: 22 + 41 = 9 * 7 = 63
Статистики 𝑊 𝑦/𝑥 і 𝑊 𝑥/𝑦 виступають симетрично, тому досить обмежитись
однією з них, яку позначимо W. Вількоксон 1945 знайшов розподіл статистики W. На
основі цього розподілу визначаємо критерій області для гіпотези, подібно ж у випадку
критерію знаків. Зазначимо, що при 𝑚 ≥ 4 і 𝑛 ≥ 4 , але так, що 𝑚 + 𝑛 ≥ 20 розподіл
статистики Вількоксона досить добре наближається нормальним розподілом з
параметрами (тобто зі сподіванням і дисперсією), відповідно
𝑚𝑛 𝑚𝑛
𝑎 = 𝐸𝑊 = 𝜎 2 = 𝐷𝑊 = (𝑚 + 𝑛 + 1)
2 12
У даному випадку при рівні значущості α = 0.05, область прийому гіпотези розташована
між 𝛼 − 1,96𝜎 і 𝛼 + 1,96𝜎
Критичні позначення W для малих 𝑚 і 𝑛 табульовано при різних рівнях значущості
α.
Якщо емпіричне значення статистики Вількоксона попадає в область критичної
гіпотези, то кажемо, що гіпотеза не суперечить експериментальним даним.
Приклад
Дано 2 незалежні вибірки незалежних спостережень над двома неперервними
популяціями: одна вибірка обсягом 𝑚 = 10, а друга - 𝑛 = 15, відповідно:

𝑚 = 10 n= 15
Перевірити Н про те, що:
(𝑋)𝑥1 2,3 𝑌 𝑦1 2,2 𝑦9 2,7 популяції, з яких взято вибірки
𝑥2 1,7 𝑦2 4,0 𝑦10 1,6 однаково розподілені: ℱ 𝑥 ≡
𝒢 𝑥 .
𝑥3 2,4 𝑦3 1,4 𝑦11 3,4
𝑥4 2,7 𝑦4 2,9 𝑦12 2,5
𝑥5 0,8(2) 𝑦5 2,3 𝑦13 0,6(1)
𝑥6 1,2(5) 𝑦6 1,9 𝑦14 2,6
𝑥7 1,5(7) 𝑦7 1,4 𝑦15 0,9(3)
𝑥8 1,7 𝑦8 2,9
𝑥9 0,9(4)
𝑥10 2,6
Позначимо елементи першої вибірки через 𝑥1 , … , 10, а другої − 𝑦1, … , 𝑦15 . Тоді,
спільний варіаційний ряд буде таким:
𝑦13 𝑥5 𝑦15 𝑥9 𝑥6 𝑦3 𝑥7 𝑦 𝑥 𝑥 𝑦 𝑦 𝑥 𝑦 𝑦 𝑥 𝑦 𝑦 𝑦 𝑥 𝑥 𝑦 𝑦 𝑦 𝑦
Як видно число інверсій 𝑦– ів відносно 𝑥– ів рівне.
𝑊 𝑦/𝑥 = 1 + 2 + 2 + 3 + 4 + 4 + 6 + 8 + 11 + 11 = 52
10∙15
Оскільки 𝛼 = = 75
2
10∙15
𝜎2 = 10 + 15 + 1 = 325 𝜎 = 325 = 18,027,
12
То область прийому гіпотези при п’ятипроцентному рівні значущості буде
𝛼 − 1,96𝜎; 𝛼 + 1,96𝜎 = (39,66; 110,34)
Отже, гіпотеза про однаковий неперервний розподіл обох популяцій, з яких взято
вибірки не суперечить вибірковим даним. Н прийнято.
Зауваження.
Якщо при застосуванні критерії знаків зустрічаються пари з однаковими
елементами, то при пропускають, а об’єм вибірки зменшується.
Критерій порівняння експерименту
Часто потрібно порівняти між собою два різні виробничі методи або два методи оброки. Ряд спостережень
відносно одного способу обробки назвемо контрольним, а відносно іншого способу обробки рядом спостережень
оброки. Для вияснення того, що ряд спостережень обробки істотно відрізняється від контрольного ряду спостережень
форму маємо нульову гіпотезу (𝐻𝑖 : нема істотної різниці між обома рядами спостережень). Сформульовану гіпотезу
перевіряємо за допомогою відповідного критерію.
Критерій знаків
Нехай 𝑥1 , 𝑦1 … 𝑥𝑖 , 𝑦𝑖 … 𝑥𝑛 , 𝑦𝑛 ряд незалежних пар незалежних у кожній парі спостережень над деякою
абсолютною неперервною статистичною змінною. Потрібно перевірити гіпотезу про те, що розподіли у кожній парі
однакові. Тезу перевіряємо за допомогою відповідного критерію.
ℱ𝑖 (𝑥) = 𝐺𝑖 (𝑥) (𝑖 = 1, 𝑛)
1
Якщо гіпотеза істина (вірна), то імовірність того, що Ρ 𝑥𝑖 = 𝑦𝑖 = 0, Ρ 𝑥𝑖 − 𝑦𝑖 > 0 = Ρ 𝑥𝑖 −𝑦𝑖 < 0 = (𝑖 = 1, 𝑛)
2
За статистику приймемо число дод-х різниць 𝑥𝑖 − 𝑦𝑖 , яке позначимо ℋ(+) , очевидно, що стат. ℋ(+) є
випадкова змінна і вона біномно розподілена, значить імов.
𝐶𝑛𝑘
Бін. розп. 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 . . Ρ ℋ + =𝑘 = 𝑘 = 0,1, … , 𝑛
2𝑛
1 1
𝑝 = то і 𝑞 =
2 2
На основі цього розподілу визначаємо причину обл-ть гіпотези при заданому рівні значущості 𝛼. Оскільки
статистика ℋ(+) дискретна, то абл. прийому гіпотези (𝑚1 , 𝑚2 ) визначаємо системою нерівностей, де 𝑚1 - найбільше, а
𝑚2 - найменше значення, що задовольняють нерівність.

𝐶𝑛𝑘 𝛼 𝐶𝑘 𝛼 1
σ𝑚 1 −1
𝑘=0 ≤ 2 , σ𝑛𝑘=𝑚2+1 2𝑛𝑛 ≤ 2 (2 𝛼) (*)
2𝑛

0, 1 𝑚1 , …, 𝑚2 n

кр. обл. обл. прийому гіпотези кр. обл.


Наприклад при 𝑛 = 6, і 𝛼 = 0,05 отримуємо 𝑚1 , 𝑚2 = (1,5). Для різних рівнів значущості та різного числа
спостережень табульовано менші області прийому гіпотези.
Наприклад при 𝛼 = 0,05 обл. прийому для гіпотези різних 𝑛 визначається числами 𝑚1 і 𝑚2 .
𝒏 𝒎𝟏 𝒎𝟐
5 0 5
6 1 5
7 1 6
8 1 7
9 2 8
10 2 8
11 2 9
12 3 9
13 3 10
14 3 11
15 4 11
16 4 12
17 5 12
18 5 13
19 5 14
20 6 14
21 6 15
36 12 24
49 18 31
100 40 60
Оскільки біномний розподіл у симетричному випадку досить швидко збігається до нормального розподілу, то
при 𝑛 ≥ 16 суми (*) досить добре наближаються за допомогою інтегральної теореми Муавра-Лапласа використовується
нормальне наближення.
Наприклад : 𝛼 = 0,5 кр. обл. визнач. із співвідношення

𝑛
𝜇−2
Ρ | | < 𝑧𝛼 = 1 − 𝛼
𝑛 2
2
𝑛 𝑛
Ρ{ − 0,98 𝑛 < 𝜇 < + 0,98 𝑛} = 0,95
2 2
𝜇−𝑛𝑝
(За інтегральною теоремою Муавра-Лапласа) Ρ{𝛼 < < 𝛽}
𝑛𝑝𝑞
𝑧𝛼 - табульована при 𝛼 = 0,05 𝑧𝛼 = 1,96
2 2

𝛼 𝛼
2 2

1−𝛼

−𝑧𝛼 𝑧𝛼
2 2
кр. обл. обл. прийому кр. обл.
Отже обл. прийому гіпотез визначається числами
𝑛
𝑚1 = [2 − 0,98 𝑛] – ціла частина числа
𝑛
𝑚2 = {2 + 0,98 𝑛} – (ціла частина числа) з доповненням до цілого числа

Наприклад. 𝑛 = 16, тоді


𝑚1 = 8 − 0,98 ∗ 4 = 4,08 = 4
𝑚2 = {8 + 0,98 ∗ 4} = 8 + 3,92 = 11,92 = 12
(𝑚1 , 𝑚2 ) = (4,12)

𝑚1 = 8 − 0,98 ∗ 4 = 4,08 = 4
𝑚2 = {8 + 0,98 ∗ 4} = 8 + 3,92 = 11,92 = 12
(𝑚1 , 𝑚2 ) = (4,12)

Заув. У результаті обмеженої точності вимірювань може трапитись, що деякі пари мають одинакові елементи.
Тоді такі пари пропускаємо. Число спостережень при цьому зменшується на число пропущених пар.
Для доведення гіпотези використовується перевірка знаків. Число додатних знаків
рівне 9: Н(+)=9; З таблиці Т-9 відчитуємо межі області прийому гіпотези при рівні
значущості α=0,05 і обсязі спостереження n=21. Дістаємо 𝑚1 , 𝑚2 = (6, 15). Оскільки
число додатних знаків різниць попадає в область прийому гіпотези, то гіпотеза не
суперечить статистичним даним. Нормальне наближення дає ті самі межі.

2. Гіпотеза про медіану


Нехай 𝑥1 , … , 𝑥𝑖 , … , 𝑥𝑛 - ряд незалежних спостережень над абсолютною неперервною
статистичною змінною. Потрібно перевірити гіпотезу про те, що медіана популяції, з якої
взято вибірку рівне 𝑎: 𝑀𝑒 = 𝑎; Якщо гіпотеза істинна, то
1
𝒫 𝑥𝑖 = 𝑀𝑒 = 0, 𝒫 𝑥𝑖 − 𝑀𝑒 > 0 = 𝒫 𝑥𝑖 − 𝑀𝑒 < 0 =
2
Отже, за критерій можна прийняти статистику Н(+) = число додатних різниць (𝑥𝑖 − 𝑀𝑒 ).
Далі статистика доведення як в п.1.
Приклад
Дано 17 спостережень (n=17) над популяцією з абсолютною неперервною ф-ією
розподілу Перевірити гіпотезу про те, що медіана популяції,
з якої взято вибірку рівна 2: Н: 𝑀𝑒 = 2;
Розглянемо число додатних різниць між
елементами вибірки та 2. 𝐻(+)емп = 8; α=0,05;
𝑚1 , 𝑚2 = 5, 12 ; 5 < 𝐻емп < 12; Гіпотезу
приймаємо , тобто гіпотеза не суперечить вибірці.
3. Критерій інверсій(Wilcoxon, 1945)
Нехай 𝑥1 , … , 𝑥𝑖 , … , 𝑥𝑛 - вибірка абсолютної неперервної популяції, що має неперервну ф-ію розподілу
ℱ 𝑥 , a 𝑦1 , … , 𝑦𝑛 - вибірка з абсолютно неперервних популяцій з ф-ією розподілу 𝒢 𝑥 .
Потрібно перевірити гіпотезу про те, що: популяції, з яких взято вибірки однаково розподілені: ℱ 𝑥 ≡
𝒢 𝑥 . (Порівняння за критерієм Смирнова)
Якщо гіпотеза істинна, то в середньому не в кожному відрізку із заданою пропорцією 𝑥 ми повинні
зустріти приблизно таку ж пропорцію 𝑦 – ів. Якщо на якомусь відрізку із заданою пропорцією пропорція 𝑦
дуже мала чи велика, то це й буде свідчити проти гіпотези. Тому, за статистику приймемо число інверсій 𝑦–
ів відносно 𝑥– ів у спільному варіаційному ряді, яке позначимо через 𝑊(𝑦/𝑥).
Аналогічно, 𝑊(𝑦/𝑥) – число інверсій 𝑥– ів відносно 𝑦– ів. Число інверсій для даного 𝑥𝑖 визначається як
число тих 𝑦𝑘 , що задовольняють умову 𝑦𝑘 < 𝑥𝑖 ; число інверсій для 𝑦𝑗 дорівнює числу тих 𝑥𝑙 , що
задовольняють нерівність 𝑥𝑙 < 𝑦𝑗 .
Наприклад Якщо спільний варіаційний ряд такий 𝑥𝑖 < 𝑦𝑘
𝑥9 < 𝑥5 < 𝑦4 < 𝑥1 < 𝑦7 < 𝑥8 < 𝑦5 < 𝑥4 < 𝑥6 < 𝑥7 < 𝑦6 < 𝑦1 < 𝑥3 < 𝑥2 < 𝑦2 < 𝑦3
то число інверсій 𝑦– ів відносно 𝑥– ів (число тих 𝑦– ів, що стоять перед 𝑥–ами) рівне
𝑊(𝑦/𝑥) = σ𝑛𝑖=1 число 𝑦𝑘 < 𝑥𝑖 , 𝑘 = 1, 𝑚,

𝑊(𝑥/𝑦) = σ𝑚
𝑖=1 число 𝑥𝑘 < 𝑦𝑖 , 𝑘 = 1, 𝑛
𝑊 𝑦/𝑥 = 1 + 2 + 3 + 3 + 3 + 3 + 5 + 5 = 22, 𝑦≤𝑥
Аналогічно, число інверсій 𝑥 відносно 𝑦
𝑊 𝑥/𝑦 = 2 + 3 + 4 + 7 + 7 + 9 + 9 = 41, 𝑥≤𝑦
Очевидно, що статистика 𝑊 𝑦/𝑥 може приймати цілочисельні значення від 0 (коли
всі 𝑥 - и розташовані перед всіма 𝑦 - ами) до 𝑚 𝑛 (коли всі 𝑥 – и більші від усіх 𝑦 – ків),
тобто
0 ≤ 𝑊 𝑦/𝑥 ≤ 𝑚 𝑛.
Точно також
0 ≤ 𝑊 𝑥/𝑦 ≤ 𝑚 𝑛.
Неважко перевірити, що
𝑊 𝑦/𝑥 + 𝑊 𝑥/𝑦 = 𝑚 𝑛.
Це служить контролем правильності обчислення: 22 + 41 = 9 * 7 = 63
Статистики 𝑊 𝑦/𝑥 і 𝑊 𝑥/𝑦 виступають симетрично, тому досить обмежитись
однією з них, яку позначимо W. Вількоксон 1945 знайшов розподіл статистики W. На
основі цього розподілу визначаємо критерій області для гіпотези, подібно ж у випадку
критерію знаків. Зазначимо, що при 𝑚 ≥ 4 і 𝑛 ≥ 4 , але так, що 𝑚 + 𝑛 ≥ 20 розподіл
статистики Вількоксона досить добре наближається нормальним розподілом з
параметрами (тобто зі сподіванням і дисперсією), відповідно
𝑚𝑛 𝑚𝑛
𝑎 = 𝐸𝑊 = 𝜎 2 = 𝐷𝑊 = (𝑚 + 𝑛 + 1)
2 12
У даному випадку при рівні значущості α = 0.05, область прийому гіпотези розташована
між 𝛼 − 1,96𝜎 і 𝛼 + 1,96𝜎
Критичні позначення W для малих 𝑚 і 𝑛 табульовано при різних рівнях значущості
α.
Якщо емпіричне значення статистики Вількоксона попадає в область критичної
гіпотези, то кажемо, що гіпотеза не суперечить експериментальним даним.
Приклад
Дано 2 незалежні вибірки незалежних спостережень над двома неперервними
популяціями: одна вибірка обсягом 𝑚 = 10, а друга - 𝑛 = 15, відповідно:

𝑚 = 10 n= 15
Перевірити Н про те, що:
(𝑋)𝑥1 2,3 𝑌 𝑦1 2,2 𝑦9 2,7 популяції, з яких взято вибірки
𝑥2 1,7 𝑦2 4,0 𝑦10 1,6 однаково розподілені: ℱ 𝑥 ≡
𝒢 𝑥 .
𝑥3 2,4 𝑦3 1,4 𝑦11 3,4
𝑥4 2,7 𝑦4 2,9 𝑦12 2,5
𝑥5 0,8(2) 𝑦5 2,3 𝑦13 0,6(1)
𝑥6 1,2(5) 𝑦6 1,9 𝑦14 2,6
𝑥7 1,5(7) 𝑦7 1,4 𝑦15 0,9(3)
𝑥8 1,7 𝑦8 2,9
𝑥9 0,9(4)
𝑥10 2,6
Позначимо елементи першої вибірки через 𝑥1 , … , 10, а другої − 𝑦1, … , 𝑦15 . Тоді,
спільний варіаційний ряд буде таким:
𝑦13 𝑥5 𝑦15 𝑥9 𝑥6 𝑦3 𝑥7 𝑦 𝑥 𝑥 𝑦 𝑦 𝑥 𝑦 𝑦 𝑥 𝑦 𝑦 𝑦 𝑥 𝑥 𝑦 𝑦 𝑦 𝑦
Як видно число інверсій 𝑦– ів відносно 𝑥– ів рівне.
𝑊 𝑦/𝑥 = 1 + 2 + 2 + 3 + 4 + 4 + 6 + 8 + 11 + 11 = 52
10∙15
Оскільки 𝛼 = = 75
2
10∙15
𝜎2 = 10 + 15 + 1 = 325 𝜎 = 325 = 18,027,
12
То область прийому гіпотези при п’ятипроцентному рівні значущості буде
𝛼 − 1,96𝜎; 𝛼 + 1,96𝜎 = (39,66; 110,34)
Отже, гіпотеза про однаковий неперервний розподіл обох популяцій, з яких взято
вибірки не суперечить вибірковим даним. Н прийнято.
Зауваження.
Якщо при застосуванні критерії знаків зустрічаються пари з однаковими
елементами, то при пропускають, а об’єм вибірки зменшується.
Трифакторний варіансний аналіз
Нехай дані про деяку мінливу величину класифікуються за трьома
ознаками: на 𝑚 груп за ознакою А, на 𝑛 груп за ознакою В і на 𝑙 груп за ознакою
С. Дістаємо 𝑚𝑛𝑙 класифікаційних підгруп. Припустимо, що в кожній групі є
тільки одне спостереження. Позначимо через x𝑖𝑗𝑘 – спостереження. В і-тій групі
за ознакою А, 𝑗-тій групі за ознакою B і в 𝑘-тій групі за ознакою C. Всі
𝑚𝑛𝑙 спостережень можна розмістити в 𝑙 таблиць вигляду двофакторного
варіансного аналізу (𝑚𝑛). У кожній з 𝑙 – таблиць третій індекс 𝑘 сталий, (𝑘=1, 2,
…, 𝑙). Перший індекс – індекс довготи, другий – широти, третій – глибини .
Введемо середні: 𝑥𝑖𝑗∙ ; 𝑥𝑖∙𝑘 ; 𝑥∙𝑗𝑘 ; 𝑥𝑖∙∙ ; 𝑥∙𝑗∙ ; 𝑥∙∙𝑘 ; 𝑥∙∙∙ ∗
де наприклад,
𝑙
1
𝑥𝑖𝑗∙ = ෍ 𝑥𝑖𝑗𝑘 , 𝑖 = 1, 𝑚 , 𝑗 = 1, 𝑛 ;
𝑙
𝑘=1
𝑛 𝑙
1
𝑥𝑖∙∙ = ෍ ෍ 𝑥𝑖𝑗𝑘 , 𝑖 = 1, 𝑚 ;
𝑛𝑙
𝑗=1 𝑘=1
𝑚 𝑛 𝑙
1
𝑥∙∙∙ = ෍ ෍ ෍ 𝑥𝑖𝑗𝑘
𝑚𝑛𝑙
𝑖=1 𝑗=1 𝑘=1
Спостереження 𝑥𝑖𝑗𝑘 та середні ∗ зв̕’язані алгебраїчною тотожністю
𝑚 𝑛 𝑙 𝑚 𝑛
2 2 2
෍ ෍ ෍ 𝑥𝑖𝑗𝑘 − 𝑥∙∙∙ = 𝑛𝑙 ෍ 𝑥𝑖∙∙ − 𝑥∙∙∙ + 𝑚𝑙 ෍ 𝑥∙𝑗∙ − 𝑥∙∙∙ +
𝑖=1 𝑗=1 𝑘=1 𝑖=1 𝑗=1
𝑙 𝑚 𝑛
2 2
+𝑚𝑛 ෍ 𝑥∙∙𝑘 − 𝑥∙∙∙ + 𝑙 ෍ ෍ 𝑥𝑖𝑗∙ − 𝑥𝑖∙∙ − 𝑥∙𝑗∙ + 𝑥∙∙∙ +
𝑘=1 𝑖=1 𝑗=1
𝑚 𝑙 𝑛 𝑙
2 2
+𝑛 ෍ ෍ 𝑥𝑖∙𝑘 − 𝑥𝑖∙∙ − 𝑥∙∙𝑘 + 𝑥∙∙∙ + 𝑚 ෍ ෍ 𝑥∙𝑗𝑘 − 𝑥∙𝑗∙ − 𝑥∙∙𝑘 + 𝑥∙∙∙ +
𝑖=1 𝑘=1 𝑗=1 𝑘=1
𝑚 𝑛 𝑙
2
+ ෍ ෍ ෍ 𝑥𝑖𝑗𝑘 − 𝑥𝑖𝑗∙ − 𝑥𝑖∙𝑘 − 𝑥∙𝑗𝑘 + 𝑥𝑖∙∙ + 𝑥∙𝑗∙ + 𝑥∙∙𝑘 − 𝑥∙∙∙ . ∗∗
𝑖=1 𝑗=1 𝑘=1
Тотожність ∗∗ випливає з тотожності
𝑥𝑖𝑗𝑘 − 𝑥∙∙∙ = 𝑥𝑖∙∙ − 𝑥∙∙∙ + 𝑥∙𝑗∙ − 𝑥∙∙∙ + 𝑥∙∙𝑘 − 𝑥∙∙∙ +
+ 𝑥𝑖𝑗∙ − 𝑥𝑖∙∙ − 𝑥∙𝑗∙ + 𝑥∙∙∙ + 𝑥𝑖∙𝑘 − 𝑥𝑖∙∙ − 𝑥∙∙𝑘 + 𝑥∙∙∙ + 𝑥∙𝑗𝑘 − 𝑥∙𝑗∙ − 𝑥∙∙𝑘 + 𝑥∙∙∙ +
+ 𝑥𝑖𝑗𝑘 − 𝑥𝑖𝑗∙ − 𝑥𝑖∙𝑘 − 𝑥∙𝑗𝑘 + 𝑥𝑖∙∙ + 𝑥∙𝑗∙ + 𝑥∙∙𝑘 − 𝑥∙∙∙ .
Співвідношення ∗∗ показує, що повна девіація розкладається на 7
девіацій: перші три характеризують відповідно мінливість між групами ознаки
А, ознаки В та ознаки С, дальші три оцінюють взаємодію (інтеракція) АВ, АС,
ВС відповідно, остання виражає залишкову мінливість, яку можна вважати
взаємодією другого порядку, АВС. Тотальну мінливість назвемо мінливістю
нульового порядку, ; мінливість між групами – мінливістю 1 – го порядку
𝐴, 𝐵, 𝐶 ; мінливість взаємодії – мінливістю 2 – го порядку 𝐴𝐵, 𝐴𝐶, 𝐵𝐶 ;
залишкова мінливість – мінливістю 3 – го порядку 𝐴𝐵𝐶 .
У тотожності ∗∗ сума зліва має 𝑚𝑛𝑙-1 ступенів вільності.

Для семи сум справа маємо відповідно:

𝑑. 𝑓. = 𝑚 − 1, 𝑑. 𝑓. = 𝑛 − 1, 𝑑. 𝑓. = 𝑙 − 1;
𝑑. 𝑓. = 𝑚𝑛 − 𝑚 − 𝑛 + 1 = 𝑚 − 1 𝑛 − 1 ,
𝑑. 𝑓. = 𝑚𝑙 − 𝑚 − 𝑙 + 1 = 𝑚 − 1 𝑙 − 1 ,
𝑑. 𝑓. = 𝑛𝑙 − 𝑛 − 𝑙 + 1 = 𝑛 − 1 𝑙 − 1 ;
𝑑. 𝑓. = 𝑚𝑛𝑙 − 𝑚𝑛 − 𝑚𝑙 − 𝑛𝑙 + 𝑚 + 𝑛 + 𝑙 − 1 = 𝑚 − 1 𝑛 − 1 𝑙 − 1 .
Число ступенів вільності девіацій, що виступають у тотожності ∗∗
утворюють тотожність:
𝑚𝑛𝑙 − 1 = 𝑚 − 1 + 𝑛 − 1 + 𝑙 − 1 + 𝑚 − 1 𝑛 − 1 + 𝑚 − 1 𝑙 − 1 +
+ 𝑛−1 𝑙−1 + 𝑚−1 𝑛−1 𝑙−1 .

Зліва маємо ступені вільності нульового порядку; справа – три


сукупності ступенів вільності 1 – го , 2 – го і 3 – го порядків.

Якщо поділити тотожність ∗∗ на 𝑚𝑛𝑙 − 1, то виходить що повна


варіанса є лінійною комбінацією варіанс між групами, інтеракцій (взаємодії) та
залишкової.

Припустимо, що наші дані однорідні і взяті з нормальної генеральної


сукупності. Тоді в лінійній комбінації для варіанс виступає сім незалежних
оцінок генеральної дисперсії. Між ними будуть, наприклад, варіанси:
𝑚
2
1 2
𝑆𝐴 = 𝑛𝑙 ෍ 𝑥𝑖∙∙ − 𝑥∙∙∙
𝑚−1
𝑖=1
𝑚 𝑛
2
1 2
𝑆𝐴𝐵 =𝑙 ෍ ෍ 𝑥𝑖𝑗∙ − 𝑥𝑖∙∙ − 𝑥∙𝑗∙ + 𝑥∙∙∙
𝑚−1 𝑛−1
𝑖=1 𝑗=1
2
1
𝑆𝐴𝐵𝐶 = 𝑆𝑟2 = ∙
𝑚−1 𝑛−1 𝑙−1
𝑚 𝑛 𝑙
2
∙ ෍ ෍ ෍ 𝑥𝑖𝑗𝑘 − 𝑥𝑖𝑗∙ − 𝑥𝑖∙𝑘 − 𝑥∙𝑗𝑘 + 𝑥𝑖∙∙ + 𝑥∙𝑗∙ + 𝑥∙∙𝑘 − 𝑥∙∙∙
𝑖=1 𝑗=1 𝑘=1
2
𝑚−1 2 𝑛−1 2 𝑙−1 2 𝑚−1 𝑛−1 2
𝑆 = 𝑆 + 𝑆 + 𝑆 + 𝑆𝐴𝐵 +
𝑚𝑛𝑙 − 1 𝐴 𝑚𝑛𝑙 − 1 𝐵 𝑚𝑛𝑙 − 1 𝐶 𝑚𝑛𝑙 − 1
𝑚−1 𝑙−1 2 𝑛−1 𝑙−1 2 𝑚−1 𝑛−1 𝑙−1 2
+ 𝑆𝐴𝐶 + 𝑆𝐵𝐶 + 𝑆𝐴𝐵𝐶
𝑚𝑛𝑙 − 1 𝑚𝑛𝑙 − 1 𝑚𝑛𝑙 − 1
Аналогічно записують інші варіанси: 𝑆𝐵2 , 𝑆𝐶2 , 𝑆𝐴𝐶
2 2
, 𝑆𝐵𝐶 .
Перелічені варіанси можна використати при доведенні гіпотези
однорідності за допомогою критерію Фішера, для чого порівняємо варіанси між
групами або варіанси взаємодій із залишковою. Отже, при доведенні відповідних
гіпотез розглянемо такі статистики:
𝑆𝐴2 2
𝑆𝐴𝐵
𝐹𝐴 = 2 , 𝐹𝐴𝐵 = 2 ∗∗∗
𝑆𝑟 𝑆𝑟
Якщо гіпотеза про однорідність даних в нормальній популяції – вірне,
то статистики ∗∗∗ мають розподіл Фішера відповідно до чисел ступеня
вільності:

𝑑. 𝑓. = 𝑚 − 1, 𝑚 − 1 𝑛 − 1 𝑙 − 1 та
𝑑. 𝑓. = 𝑚 − 1 𝑛 − 1 , 𝑚 − 1 𝑛 − 1 𝑙 − 1 .

Якщо у межах вибіркової похибки варіанса взаємодії АВ не дорівнює


залишковій, то відкидаємо гіпотезу про те, що мінливість виражається сумою
двох незалежних впливів груп А і В. Тоді одні групи діють на інші.

Обчислення при статистичному доведенні однорідності зручно


розмістити в таблиці трифакторного варіансного аналізу при одному
спостереженні в кожній групі:
Мінливість Девіація d.f. Варіанса
𝑚
між групами А 𝑛𝑙 ෍ 𝑥𝑖∙∙ − 𝑥∙∙∙ 2 𝑚−1 𝑆𝐴2
𝑖=1
𝑛
2
між групами В 𝑚𝑙 ෍ 𝑥∙𝑗∙ − 𝑥∙∙∙ 𝑛−1 𝑆𝐵2
𝑗=1
𝑙
між групами С 𝑚𝑛 ෍ 𝑥∙∙𝑘 − 𝑥∙∙∙ 2 𝑙−1 𝑆𝐶2
𝑘=1
𝑚 𝑛
2 2
взаємодія АВ 𝑙 ෍ ෍ 𝑥𝑖𝑗∙ − 𝑥𝑖∙∙ − 𝑥∙𝑗∙ + 𝑥∙∙∙ 𝑚−1 𝑛−1 𝑆𝐴𝐵
𝑖=1 𝑗=1
𝑚 𝑙
2
взаємодія АС 𝑛 ෍ ෍ 𝑥𝑖∙𝑘 − 𝑥𝑖∙∙ − 𝑥∙∙𝑘 + 𝑥∙∙∙ 2 𝑚−1 𝑙−1 𝑆𝐴𝐶
𝑖=1 𝑘=1
𝑛 𝑙
2 2
взаємодія ВС 𝑚 ෍ ෍ 𝑥∙𝑗𝑘 − 𝑥∙𝑗∙ − 𝑥∙∙𝑘 + 𝑥∙∙∙ 𝑛−1 𝑙−1 𝑆𝐵𝐶
𝑗=1 𝑘=1

𝑚 𝑛 𝑙

෍ ෍ ෍ ൫𝑥𝑖𝑗𝑘 − 𝑥𝑖𝑗∙ − 𝑥𝑖∙𝑘 − 𝑥∙𝑗𝑘 + 𝑥𝑖∙∙ + 𝑥∙𝑗∙ + 𝑥∙∙𝑘 𝑚−1 𝑛−1 ∙


залишкове 𝑆𝑟2
𝑖=1 𝑗=1 𝑘=1 ∙ 𝑙−1
2
− 𝑥∙∙∙ ൯
𝑚 𝑛 𝑙
2
Повне ෍ ෍ ෍ 𝑥𝑖𝑗𝑘 − 𝑥∙∙∙ 𝑚𝑛𝑙 − 1
𝑖=1 𝑗=1 𝑘=1
Приклад: Треба перевірити дію 2 добрив на 5 сортів якогось збіжжя.
Повторимо експеримент у 4-х дослідних центрах. Дістанемо 40 даних про
врожаї, які класифікуємо в таблиці 4х5х2(4 центри, 5 сортів і 2 типи
добрив). Нехай врожаї, виміряні від якоїсь зручної вихідної вартості та
виражені в означених одиницях, будуть такі, як у таблиці 1, де Т1 і Т2 - 2
типи добрив.
Табл. 1

Дослідні Сорти
центри
1 2 3 4 5 Разом
Т1 Т2 Т1 Т2 Т1 Т2 Т1 Т2 Т1 Т2 Т1 Т2
1 -6 -4 -4 -2 -10 -7 -3 -5 1 0 -22 -18
2 -2 -1 -5 -1 -3 -4 -4 -1 -2 1 -16 -6
3 3 2 -2 3 -4 0 4 1 3 3 4 9
4 3 6 3 2 6 3 -1 5 6 8 17 24

Разом -2 3 -8 2 -11 -8 -4 0 8 12 -17 3


У нашому випадку 𝑚=4, 𝑛=5, 𝑙=2; 𝑥… = -0,2
Одно- і двоіндексні середні розмістимо в таблиці 2.
Табл. 2

Значення 𝑥𝑖.. 𝑥.𝑗. 𝑥..𝑘 𝑥1𝑗. 𝑥2𝑗. 𝑥3𝑗. 𝑥4𝑗. 𝑥𝑖.1 𝑥𝑖.2 𝑥.𝑗1 𝑥.𝑗2
змінного
індексу
1 -4,0 0,125 -0,85 -5,0 -1,5 2,5 4,5 -4,4 -3,6 -0,50 0,75

2 -2,2 -0,75 0,45 -3,0 -3,0 0,5 2,5 -3,2 -1,2 -2,00 0,5

3 1,3 -2,375 -8,5 -3,5 -2,0 4,5 0,8 1,8 -2,75 -2,00

4 4,1 -0,5 -4,0 -2,5 2,5 2,0 3,4 4,8 -1,00 0,00
2,5 0,5 -0,5 3,0 7,0 2,00 3,00
Девіації, ступені вільності та варіанси для різних мінливостей
розмістимо в таблиці 3.
Табл. 3
Мінливість Девіація d.f. Варіанса
Між центрами А 381,8 3 130,60
Між сортами В 100,15 4 25,04
Між добривами Т 16,90 1 16,9
Інтеракція(взаємодія) АВ 62,45 12 5,20
Інтеракція(взаємодія) АТ 2,10 3 0,70
Інтеракція(взаємодія) ВТ 3,85 4 0,96
Залишкове 61,15 12 5,10
Повне 638,40 39 -
За допомогою варіансного аналізу перевірити гіпотезу про можливий
вплив вказаних факторів на врожайність збіжжя.
На основі даних табл. 3 спершу розглядаємо варіансні відношення
Фішера для ітерації із залишковою варіансою при рівні значущості α = 0,05:
5,20 5,10 5,10
Емпіричне 5,10
= 1,02,
0,70
= 7,29
0,36
= 5,32

d.f. (12,12) (12,3) (12,4)


Критичне[4,5-6] 2,69 8,74 5,91
Звідси всі три емпіричні відношення не є істотними на
п’ятипроцентному рівні. Це свідчить про те, що всі три фактори впливають на
врожай незалежно один від одного. Розглянемо тепер відношення Фішера
для основних факторів при рівнях значущості α = 0,05 і α = 0,01:

130,60 25,04 16,30


Емпіричне = 25,4 = 4,93 = 3,34
5,10 5,10 5,10
d.f. (3,12) (4,12) (1,12)
Критичне[4,5-6]
5% 3,49 3,26 4,75
1% 5,95 5,41 9,33

Різниці між центрами істотні, між сортами – неістотні на 1% і істотні


на рівні 5%, між добривами неістотні. Отже, мінливість врожаїв залежить від
мінливості між центрами(і можливо між сортами), чого не можна сказати без
деяких досліджень про залежність її від мінливості між добривами.
Кореляційний аналіз

1. Коваріація
Розглянемо довільний двовимірний випадковий вектор з
компонентами ξ, η, для яких відомі їх сподівання і дисперсії Е(ξ), Е(η), D(ξ),
D(η): і нехай α = const деяка стала, α > 0.
Задача
Знайти зв’язок між компонентам ξ та η ?
З цією метою розглянемо випадкову змінну (0)
Знайдемо її дисперсію: за означенням дисперсії та властивостями
сподівання:
Означення
Коваріацією між випадковими змінними ξ та η називається сподівання
добутку відхилень цих змінних від своїх сподівань

(1)

Із рівності (1) випливає, що коваріація симетрична відносно змінних

(1*)

Якщо ξ та η – незалежні, то
Дійсно, для незалежних випадкових змінних маємо

Оскільки коваріація між незалежними випадковими змінними = 0, то для


залежних випадкових змінних коваріацію можна прийняти за міру залежності.
2. Кореляція
Коваріація між компонентами випадкового вектора вимірюється тими ж
одиницями, що і добуток компонент. Але іноді треба мати абстрактну міру
залежності між випадковими змінними.
Вони одержуються діленням коваріації на добуток стандартів цих
змінних. Одержана міра називається кореляцією і позначається через ρ(ξ, η).
Означення 2
Кореляцією між випадковими змінними ξ та η називають відношення
коваріції між змінними до стандартів цих змінних.

(2)

Із рівняння (2) видно, що кореляція симетрична відносно змінних

(3)

Якщо ξ та η незалежні випадкові змінні, то ρ(ξ, η) = 0.


Це випливає з того, що для незалежних випадкових змінних,
коваріація = 0, та з означення кореляції.
Тепер дисперсія випадкової змінної у термінах коваріації запишеться у
такому вигляді:

(4)

а в термінах кореляції = таким чином:

(5)

3. Регресія
Знайдемо таке α, при якому випадкова змінна ξ має найменшу дисперсію.
Обчислимо перші дві похідні по α з виразу (5)
(6)

Оскільки друга похідна додатна, то при


(7)

дисперсія мінімальна і дорівнює

(8)
Значення α, що мінімізує дисперсію випадкової змінної, називається
регресією η відносно ξ.
Означення
Регресією випадкової змінної η відносно випадкової змінною ξ називають
добуток кореляції між цими змінними на відношення стандарту η до
стандарту ξ.
(9)

З означення рівності (9) випливає, що регресія не є симетричною відносно


змінних. Справді, регресія випадкової змінної η відносно випадкової змінної ξ
визначається як
(10)

Якщо кореляція рівня нулю ( ρ(ξ, η) = 0 ), або однакові стандарти, то регресія


буде симетричною.
(11)

Якщо ξ і η – незалежні випадкові змінні і кореляція між ними дорівнює нулю,


то
Із рівностей (10), (11) видно, знаки кореляції та регресії однакові, а добуток
регресій дорівнює квадрату кореляції.

(11)

Зауважимо, що регресія ξ відносно η мінімізує дисперсію випадкової змінної


(12)
Причому мінімальна дисперсія θ дорівнює
(13)
Із невід’ємності дисперсій та з виразів (8) і (13) випливає, що

тобто (14)

Розглянемо спершу два крайні випадки кореляції та


а потім проміжний випадок.
4. Лінійно-залежні та некорельовані випадкові змінні
Нехай . Тоді з рівняння (8) випливає, що дисперсія
випадкової змінної дорівнює нулю, тобто ξ є стала ймовірністю 1. Позначимо
цю сталу через b.
У даному випадку
(15)
Випадкова змінна η з імовірністю 1 є лінійною функцією випадкової змінної ξ.
Аналогічно, при , з виразу (13) випливає, що

(16)

Таким чином, кореляцію можна прийняти за міру лінійної залежності між ξ та η.


Означення1
Компоненти випадкового вектора (ξ, η) лінійно-залежні, якщо вони пов’язані
співвідношенням (15), або (16). Тобто, дві випадкові змінні називають лінійно-
незалежними, якщо одна з них є лінійною функцією іншої.
Кореляція між двома лінійно-залежними випадковими змінними = +1 або -1.
6. Пряма регресія. Нехай на двовимірним впорядкованим вектором (ƺ; 𝜂)
проведено в однакових умовах n незалежних спостережень : (𝑥1 ; 𝑦1 ), (𝑥2 ; 𝑦2 ),
…, (𝑥𝑛 ; 𝑦𝑛 ).
Знайдено середні (незрозуміло) компонентів вектора :
1 1
𝑥̅ = ∑𝑛𝑖=1 𝑥𝑖 , 𝑦̅ = ∑𝑛𝑖=1 𝑦𝑖 (1)
𝑛 𝑛
1 𝑛 1 𝑛
𝑆12 = ∑𝑖=1(𝑥𝑖 − 𝑥̅ )2 , 𝑆12 = ∑𝑖=1(𝑦𝑖 − 𝑦̅)2 . (2)
𝑛−1 𝑛−1

Аналогічно до рівностей (1), (2), (9), (10) знайдемо вибіркову коверіацію між
компонентами
1
𝐶12 = ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) (3)
𝑛−1

Вибіркову кореляцію між компонентами


𝑛
∑ (𝑥𝑖 −𝑥̅ )(𝑦𝑗 −𝑦̅)
𝑐12 𝑖=1
𝑟12 = = (4)
𝑠1 𝑠2
√∑𝑛 2 𝑛 ̅)2
𝑖=1(𝑥𝑖 −𝑥̅ ) √∑𝑖=1(𝑦𝑖 −𝑦

Вибіркову регресію другої компоненти відносно першої


𝑠2 ∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )(𝑦𝑖̇ −𝑦
̅)
𝑏21 = 𝑟12 = ∑𝑛 2
(5)
𝑠1 𝑖=1(𝑥𝑖 −𝑥̅ )

Вибіркову регресію першої компоненти відносно другої


𝑠1 ∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )(𝑦𝑖̇ −𝑦
̅)
𝑏12 = 𝑟12 = ∑𝑛 ̅)2
(6)
𝑠2 𝑖=1(𝑦𝑖 −𝑦

Випадкова варіанта випадкової змінної ƺ = −𝑎ƺ + 𝜂 дорівнює


2
𝑆ƺ=−𝑎ƺ+𝜂 = 𝑎2 𝑆12 − 2𝑎𝐶12 + 𝑆22 = 𝑎2 𝑆12 − 2𝑎𝑟12 𝑆1 𝑆2 + 𝑆22
𝑠
і буде найменшою при 𝑎 = 𝑟12 2. Це мінімальне вибіркове (незрозуміло)
𝑠1
дорівнює
2 2 )𝑆 2
𝑆ƺ=−𝑎ƺ+𝜂 = (1 − 𝑟12 2 (7)
Отже, завжди −1 ≤ 𝑟12 ≤ 1. Якщо 𝑟12 = ±1, то з огляду на нерівність всі
𝑦𝑖 − 𝑎𝑥𝑖 набувають однакових значень b, тобто всі спостереженні точки з
координатами (𝑥𝑖 ; 𝑦𝑖 ), (ⅈ = ̅̅̅̅̅
1, 𝑛) лежать на прямій y = ax + b. Якщо ж точки
(𝑥𝑖 ; 𝑦𝑖 ), (ⅈ = ̅̅̅̅̅
1, 𝑛) не лежать на одній прямій, то через пункт (𝑥̅ , 𝑦̅). Рівномірно
пряму з кутовим коефіцієнтом, визначеним за формулою (5).
Ця пряма
y - 𝑦̅ = 𝑏21 (𝑥𝑖 − 𝑥̅ ) (8)
Називають емпіричною прямою регресії другої компоненти відносно першої.
Покажемо, що сума квадратів відхилень точок у напрямі у від прямої є
найменшою.
Дійсно, сума квадратів відхилень точок у напрямі від довільної прямої
y = ax + b, дорівнює
𝑛
𝑓(𝑎, 𝑏) = ∑𝑖=1(𝑦𝑖 − 𝑎𝑥𝑖 − 𝑏)2

Оскільки система рівнянь 𝑓𝑎′ = 0, 𝑓𝑏′ = 0 має єдиний розв’язок a = 𝑏21 ,


b = 𝑦̅ - 𝑏21 , причому
𝑛
𝑓𝑎′′2 = 2 ∑𝑛𝑖=1 𝑥𝑖 > 0, 𝑓𝑎′2 𝑓𝑏′2 - (𝑓𝑎𝑏 ) = 𝜑𝑛{∑𝑖=1 𝑥𝑖2 − 𝑛𝑥̅ } > 0,
′′ 2

то 𝑓(𝑎, 𝑏) набуває найменшого значення для прямої 𝑦 = 𝑏21 𝑥 + 𝑦̅ − 𝑏21 𝑥̅ , яка і


являє собою емпіричну пряму регресію.
Таким же шляхом можна показати, що емпірична пряма регресії першої
компоненти відносно другої ()
Мінімізує суму квадратів відхилень точок у напрямі від довільної прямої ().
Зауваження 1. Суми, що виступають у формулах (20) – (25), можна
обчислювати різними способами, які себе взаємно контролюють.
∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) = ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ ) 𝑦𝑖 = ∑𝑛𝑖=1 𝑥𝑖 (𝑦𝑖 − 𝑦̅) =
∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖 − 𝑛𝑥̅ 𝑦̅ = ∑𝑛𝑖=1(𝑥𝑖 − 𝛼)(𝑦𝑖 − 𝛽) − 𝑛(𝑥̅ − 𝛼)(𝑦̅ − 𝛽);
𝑛 𝑛 𝑛
∑𝑖=1(𝑥𝑖 − 𝑥̅ )2 = ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ ) 𝑥𝑖 = ∑𝑖=1(𝑥𝑖2 − 𝑛(𝑥̅ )2 ) = ∑𝑖=1(𝑥𝑖 − 𝛼)2 𝑛(𝑥̅ − 𝛼)2

Зауваження 2. Кореляція у математичній статистиці, вказує на зв’язок між


явищами, який виникає тоді, коли одне з них належить до сукупності причин,
що (незрозуміло) інші явище або коли є щільні причини, що випливають на ці
явища.
6. Кореляції вищих порядків.
Нехай випадкові змінні ƺ1 , …, ƺ𝑛 будуть найзагальнішими компонентами n-
вимірного випадкового вектора (ƺ1 , …, ƺ𝑛 ), (n = 3, 4, …), що описує деякий
випадковий процес. Щоб знайти кореляцію між двома з цих змінних при сталих
значеннях (незрозуміло), позначимо вибіркову кореляцію змінних між ƺ1 та ƺ2
при сталих значеннях ƺ3 , …, ƺ𝑚 через 𝑟12[3,4,..,𝑚 (незрозуміло), відповідні
сталим значенням змінних, назвемо німими, а число німих індексів – порядком
частинної кореляції .
Отже, 𝑟12[3,4,..,𝑚 – частинна вибіркова кореляція (m-2)-го порядку порядку між
ƺ1 та ƺ2 . Визначимо кореляцію (m-2)-го порядку через три кореляції (m-3)-го за
рекурентною формулою :
𝑟12[3,4,..,(𝑚−1) − 𝑟1𝑚[3,4,..,(𝑚−1) 𝑟2𝑚[3,4,..,(𝑚−1)
𝑟12[3,4,..,𝑚 = (*)
√[1−𝑟 2 1𝑚[3,4,..,(𝑚−1) ][1−𝑟 2 2𝑚[3,4,..,(𝑚−1) ]

Аналогічно можна записати рекуренті формули дія інших пар випадкових


змінних. Наприклад,
𝑟1𝑚[3,4,..,(𝑚−1) − 𝑟1(𝑚−1)[3,4,..,(𝑚−2) 𝑟𝑚(𝑚−1)[3,4,..,(𝑚−2)
𝑟1𝑚[3,4,..,(𝑚−1) =
√[1−𝑟 2 1(𝑚−1)[3,4,..,(𝑚−2)][1−𝑟 2 𝑚(𝑚−1)[3,4,..,(𝑚−2)]

Якщо випадковий процес описується трьома випадковими змінними (), () та (),


то частинна кореляція 1-го порядку залишеться через три кореляції нульового
порядку. Наприклад,
𝑟12 −𝑟13 𝑟23
𝑟12[3 =
√[1−𝑟 2 13 ][1−𝑟 2 23 ]

Відзначимо, що перестановка індексів двох нефіскованих змінних у формулі (*)


не змінює вартість кореляції, а перестановка індексів фіксованих змінних
змінює її. Наприклад,
𝑟12[34 = 𝑟12[34 ≠ 𝑟12[43 .
Таким чином, у частинній кореляції перші два ненімі індекси можна
переставляти, не змінюючи при цьому вартість кореляції.

Варіанси та стандарти вищих порядків.


2
Позначимо вибіркову варіансу для ƺ1 при сталих ƺ2 , …, ƺ𝑚 через 𝑆1[23…𝑚 . Тут
23...m – німі індекси. Назвемо цю частинну варіансу варіансою (m-1)-го
порядку. Варіансу (m-1)-го порядку визначимо рекурентно – через варіансу (m-
2)-го та кореляцію (m-2)-го порядку за формулою
2 2 2
𝑆1[23…𝑚 = 𝑆1[23…(𝑚−1) [1-𝑟1𝑚[23…(𝑚−1) ] (1)
Звідси
2 2 2
𝑆1[23…(𝑚−1) = 𝑆1[23…(𝑚−2) [1-𝑟1(𝑚−1)[23…(𝑚−2) ]

2 2 2
𝑆1[23 = 𝑆1[2 [1-𝑟13[2 ]
2
𝑆1[2 = 𝑆12 [1-𝑟12
2
]

Отже,
2 2 2
𝑆1[23…𝑚 = 𝑆12 [1-𝑟12
2
] [1-𝑟13[2 ]… [1-𝑟1𝑚[23…(𝑚−1) ] (2)
Таким чином, варіанса (m-1)-го виражається через варіансу нульового порядку
та кореляції від нульових до (m-2)-го порядку.
Аналогічно одержуємо варіанси вищих порядків для інших випадкових змінних
без (незрозуміло) на решту змінних (коли інші змінні фіксовані).
Наприклад,
2 2
𝑆3[12 = 𝑆12 [1-𝑟13
2
] [1-𝑟23[1 ]
Арифметичний квадратний корінь із варіанси відповідного порядку називають
стандартом того же порядку. Наприклад, 𝑆1 – стандарт (m-1)-го порядку, () –
стандарт нульового порядку.
Запишемо співвідношення (2) у вигляді
2 2
𝑆1[23…𝑚 = 𝑆12 [1-𝑅1(23…𝑚) ], (3)

Де 𝑅1(23…𝑚) – багатократна вибіркова кореляція (m-1)-го порядку між ƺ1 і


(ƺ2 , …, ƺ𝑚 ). Із співвідношення (2), (3) випливає, що (m-1)-кратна кореляція
виражається через частинні кореляції від нульового до (m-2)-го порядку
співвідношеннями.
2 2 2
1- 𝑅1(23…𝑚) = [1 − 𝑟12 ] [1 − 𝑟13[2 ] … [1 − 𝑟1𝑚[23…(𝑚−1) ] .
Аналогічно представляємо багатократну кореляцію кожної іншої змінної
відносно решти змінних. Очевидно, що 𝑅1(2) = 𝑟12 .

You might also like