You are on page 1of 44

Лекція 1 Вступ. Поняття про теорію ймовірностей. Зміст і завдання предмету.

Основні поняття теорії ймовірностей. Класичне, статистичне та геометричне


означення ймовірності

Події в навколишньому світі можна поділити на вірогідні, неможливі та


випадкові. Перші при реалізації певного комплексу умов (при випробуванні)
відбуваються завжди, другі –ніколи, треті – можуть як відбуватися, так і не
відбуватися. Віднесення певної події до тієї або іншої групи істотно залежить від
умов випробування. Наприклад, розглянемо подію, зв’язану з попаданням у мішень.
Для цього треба, щоб хтось стріляв, щоб була мішень, щоб був засіб реалізації
попадання , щоб цей засіб був доступний (справжній), щоб була забезпечена певна
відстань до мішені і т.д. Якщо якась з умов не виконана, то подія буде неможливою;
якщо будуть виконані всі необхідні і достатні умови, то подія буде достовірною
(скажімо пістолет упирається в мішень).
Основним тут є поняття випробування. Під випробуванням розуміємо
забезпечення всіх необхідних умов для появи даної події. Події позначають літерами
латинської абетки А, В, С, ....
Випадкові події займають проміжну позицію між “ завжди” і “ ніколи”. І
можуть наставати чи не наставати в даному випробуванні, в якому виконані всі
необхідні умови появи їх. Стосовно достатніх умов зазначимо, що вони не завжди
підконтрольні, а про деякі з них важко здогадатися. Так, ми не контролюємо
пориву вітру чи спалаху блискавки, які могли спричинити наш промах по мішені. У
такій ситуації не можна обмежитися одиничними випробуваннями, а треба мати
якомога більшу їх кількість і аналізувати всю множину отриманих результатів. Ця
множина є більш стійкою, оскільки одна частина попадань відхиляється в один бік,
а друга в другий, і ці випадкові відхилення взаємно компенсуються, відкриваючи
шлях до закономірності.
Ось чому теорія ймовірності як наука про числову міру випадковості подій
передбачає вивчення не одиничних, а масових однорідних випадкових подій, які
підпорядковуються стохастичним ( від грець. “стохастіс” – здогадка )
закономірностям, встановлення яких і є її основною задачею.
Виникнення теорії ймовірностей , обумовлене спробою побудувати теорію
азартних ігор, відноситься до ХVІ-ХVІІ ст.. і зв’язане з іменами таких учених, як
Дж. Кардано, Б. Паскаль, Х. Гюйгенс, П. Ферма. Найістотнішим досягненням її
першого періоду є відкриття Д. Бернуллі закону великих чисел. Другий період
розвитку теорії ймовірностей зв’язаний з іменами Лапласа, Пуассона, К. Гаусса,
Буняковського ( ХVІІ-ХІХ ст.). Як наука теорія ймовірностей сформувалась на межі
ХІХ – ХХ ст.. завдяки зусиллям П.Л.Чебишева, О.М.Ляпунова, О.О.Маркова,
Р. Мізеса. Проте в 30-х роках нашого століття вона стала повноцінним розділом
математики ( до цього вважалась прикладною дисципліною) завдяки чіткому
поняттю ймовірності, даному .М.Колмогоровим.
Подамо кілька означень.
Випадкові події поділяються на сумісні й несумісні . У першому випадку
поява однієї події не виключає, а в другому виключає появу другої події. Наприклад,
осічка і непопадання в ціль – сумісні, осічка і попадання в ціль – несумісні події.

4
Кілька подій утворюють повну групу, якщо поява хоч однієї з них – вірогідна
подія. Наприклад, поява аверса і реверса при киданні монети, поява числа очок від
одиниці до шести при киданні гральної кості, попадання і промах.
Кілька подій називають рівноможливими, якщо при випробуванні вони
з’являються однаково часто. Так, аверс і реверс- рівноможливі, але попадання і
промах, як правило, - ні.
Деякі події наступають досить часто, а деякі – навпаки, дуже рідко. Введемо
числову характеристику показника настання події.
Означення Ймовірністю Р даної події А називається відношення числа
результатів випробувань m, які сприяють появі даної події, до загального числа n
рівноможливих і єдино можливих результатів випробувань, які утворюють повну
групу, тобто
Р (А) = m / n (1.1)
Наведене означення називається класичним.
З означення випливають властивості ймовірності: для вірогідних подій Р = 1
( m = n ), для неможливих Р = 0 ( m = 0), для випадкових 0 < P < 1 (0 < m < n).
Приклад
У групі з 25 студентів п’ять дівчат. Знайти ймовірність того, що з цієї групи
першою до аудиторії зайде дівчина.
Розв’язування. Маємо Р (А) = 5 / 25 = 0,2
Приклад
Знайти ймовірність того , що при киданні гральної кості випаде грань з парною
кількістю очок .
Розв’язування. Маємо n = 6, m = 3. Отже, Р (А) = 0,5.

Класичне означення ймовірності, з одного боку, просте, наочне,


конструктивне, а з другого боку, воно має ряд суттєвих недоліків, а саме: не завжди
можна подати результат випробувань як сукупність рівно можливих результатів; m
і n скінченні, але це не завжди так; рівноможливість і рівноймовірність –
синоніми. Отже , формула (1.1) не є коректним означенням. Геометричне означення
ймовірності з’явилося завдяки спробі відмовитися від скінченності величин m і n.
Воно полягає в тому, що

де mes g і mes G - міри ( довжини, площі, об’єми) простору всіх (G) результатів і
сприятливих (g) результатів.

Приклад
Два студенти домовилися зустрітися в певному місці між 15-ю та
16-ю год. Перший, хто прийде, чекає на другого не більше 20 хв. Яка ймовірність
їхньої зустрічі?
Розв’язування. Нехай х – час приходу першого, а у – другого студента. Тоді
mes G = 1 - площа квадрата зі стороною, яка дорівнює одиниці (рис. 1). Умова
зустрічі має вигляд у - х , тобто звідки маємо
mes g = 5/9. Отже, Р (А) = 5 / 9.

5
у 16

15 16 x
Рисунок 1
Наведемо статистичне означення ймовірності: основним поняттям тут є відносна
частота появи подій в результаті проведених випробувань

де n – число проведених випробувань, а m – число випробувань, в яких


відбувалася подія А.
Ймовірність – це теоретична величина, обчислена до чи без проведення
випробувань, відносна частота – величина емпірична, обчислена за результатами
випробувань.
Визначення величини W (А) для різних подій показало, що в одних випадках
вона для різних серій випробувань змінюється мало, а в других – істотно.
Якщо W (A) ≈ C, то подію А називають статистично стійкою, в решті випадків –
нестійкою. У подальшому останні ситуації не розглядатимемо (це, як правило,
ситуації, обумовлені “людським фактором”).
Переважна більшість помилок, зв’язаних із застосуванням теорії
ймовірностей, пояснюється її спробами аналізувати невизначені події, які дістаємо у
випробуваннях з великим числом неконтрольованих умов (про яку ймовірність
виграшу команди можна вести мову, якщо тренери заздалегідь домовилися про
нічию). Через це в означенні випадкової події обов’язково слід передбачити її
статистичну стійкість.
Означення Статистичною ймовірністю події А називається число, навколо
якого групуються відносні частоти цієї події або сама частота.
Р.Мізес встановив, що для випадкових подій

(для невизначених подій така границя не існує).


У 1900 р. відбувся Другий всесвітній математичний конгрес, на якому
Д.Гільберт висунув 23 найважливіші проблеми. Шоста проблема Гільберта –
побудова логічних несуперечливих основ теорії ймовірностей. Цю проблему було
розв’язано через 33 роки О.Колмогоровим, який запропонував таку систему аксіом,
яка дає означення ймовірностей:
1) кожній випадковій події А відповідає невід’ємне число Р (А), яке
називається ймовірністю цієї події,
2) для вірогідної події U Р (U)=1,
3) ймовірність появи хоча б однієї з попарно несумісних подій дорівнює
сумі ймовірностей цих подій.

6
Домашнє завдання

1.1 Скільки різних двозначних чисел можна утворити із цифр 2, 3, 4, 5, 6, 7?


1.2 У групі із 25 осіб потрібно обрати 5 осіб на 5 різних посад. Скількома
способами це можна зробити?
1.3 Скільки різних перестановок можна утворити із букв слова "фізика"?
1.4 На карточках написані букви "а", "в", "м", "к" , "о", "с". Карточки
розкладають в ряд. Яка ймовірність отримати слово "Москва"?
1.5 У групі із 25 учнів розігрують 4 різні путівки. Яка ймовірність того, що всі
путівки отримають деякі з 20 учнів, що подали заяви раніше?
1.6 У групі 20 юнаків і 10 дівчат. На зліт студентів обирають 8 учасників.
Яка ймовірність обрати 5 юнаків і 3 дівчат?
1.7 Підкидають 2 гральні кубика. Знайти ймовірність того, що сума чисел
буде більша, ніж добуток.
1.8 Із куль, занумерованих усіма двозначними числами, вибирається одна. Яка
ймовірність того, що її номер не містить 0?
1.9 Навмання взято два додатних числа, кожне з яких не перевищує 1. Знайти
ймовірність того, що їх сума не перевищує 1, а добуток не перевищує 2/9.
1.10 В середину круга радіуса 10 навмання кидають точку. Знайти ймовірність
того, що точка попаде в середину вписаного в круг правильного трикутника.

7
Лекція 2 Операції над подіями. Теорема додавання ймовірностей. Умовні
ймовірності. Теорема множення ймовірностей. Ймовірність здійснення
принаймні однієї з незалежних подій

Означення Протилежними називаються події А і ( не А), які утворюють


повну групу (рис. 2).

Рис. 1

Рисунок 2
Прикладом А і є поява аверса і реверса при киданні монети.
Означення Добутком подій А і В називається подія А·В, яка полягає в
одночасній появі А і В (рис.3).

А
В
А·В

Рисунок 3
Означення Сумою подій А і В називається подія А + В , яка полягає в появі
А або В ( або АВ ) (рис.4).

А В
А+В

Рисунок 4
Аналогічно визначаються добуток і сума більшого числа подій.
Теорема 1 Імовірність суми сумісних подій А і В дорівнює сумі ймовірностей
цих подій без ймовірності їх добутку
Р ( А + В) = Р (А) + Р (В ) - Р ( А·В)

Теорема 2 Якщо А і В несумісні, то А·В =V, Р (А·В) = 0 і тоді ймовірність


суми несумісних подій А і В дорівнює сумі ймовірностей цих подій
Р ( А + В ) = Р (А ) + Р ( В ).
Останнє співвідношення можна використати як означення несумісних подій.

8
Н а с л і д о к 1. Якщо події А1, А2, . . . Аn попарно несумісні, то
Р (А1 + А2 + . . .+ Аn ) = Р (А1) + Р ( А2) + . . . + Р ( Аn)
(треття аксіома А. Колмогорова).

Н а с л і д о к 2. Сума ймовірностей попарно несумісних подій, які утворюють повну


групу, дорівнює одиниці:
Р ( А1 ) + Р ( А2 ) + . . . +Р (Аn) = 1

Н а с л і д о к. 3. Сума ймовірностей взаємо протилежних подій дорівнює одиниці:


Р ( А ) + Р ( ) = 1.

Так, якщо ймовірність влучення в ціль Р (А) = 0,8, то ймовірність промаху


q = 1 – Р ( А) = 0,2.
Події А і В можуть бути залежними й незалежними. У першому випадку
поява А впливає, а в другому не впливає на ймовірність появи В.

Приклад
У ящику чотири білих і три чорних кулі. В результаті першого випробування
( вилучення кулі з ящика) з’явилася чорна куля ( подія А). Знайти ймовірність появи
білої кулі ( подія В) в другому випробуванні, якщо: а) кулю повертають в ящик, в)
кулю не повертають після першого випробування.
Розв’язування. Маємо а) Р(В) = 4 / 7 – незалежна подія;
в) Р ( В/А ) = 4 / 6 = 2 / 3 – залежна подія.

Означення Умовною ймовірністю Р (В/А ) називається ймовірність події В


за умови, що подія А відбулась.

Теорема 3 Ймовірність добутку двох залежних подій А і В дорівнює


добутку ймовірності однієї з цих подій на умовну ймовірність іншої
Р ( А·В ) = Р (А)· Р (В/А) = Р (В)· Р ( А /В ).

Н а с л і д о к. Р (В / А ) = Р ( А·В) / Р ( А ).

Теорема 4 Ймовірність добутку незалежних подій А і В дорівнює добутку


ймовірностей цих подій
Р ( А·В ) = Р (А )· Р ( В ).
Ця теорема випливає з попередньої. Крім того, можна довести, що коли А і В
незалежні, то незалежні також А і , і В, і .

Ймовірність появи хоча б однієї події


Нехай події А1, А2, ... ,Аn незалежні в сукупності, причому Р(А1)= р1,
Р(А2)= р2,..., Р(Аn)= рn ; нехай внаслідок випробування можуть наступити всі події,
або частина з них, або жодна з них.
Ймовірність настання події А, що полягає в появі хоч би однієї з подій А1,
А2, ... ,Аn , незалежних в сукупності, рівна різниці між одиницею і добутком
ймовірностей протилежних подій ..., :

9
Р(А) =1 - q1q2…qn, де q1 = 1-р1; q2 = 1-р2; qn = 1- рn.
Зокрема, якщо всі n подій мають однакову ймовірність, рівну р, тоді
ймовірність появи хоч би однієї з цих подій
Р(А) =1 – qn , де q = 1 ─ р.

Приклад
У електричний ланцюг послідовно ввімкнені 3 елементи, що працюють незалежно
один від іншого. Ймовірність відмови першого, другого і третього елементів
відповідно рівні р1 = 0,1; р2 = 0,15; р3 = 0,2. Знайти ймовірність того, що струму в
ланцюгу не буде.
Розв’язування. Оскільки елементи ввімкнені послідовно, то струму в ланцюгу
не буде (подія А), якщо відмовить хоча б один з елементів.
Шукана ймовірність
Р(А) = 1─ q1q2q3 = 1─ ( 1─ 0,1)(1─ 0,15)(1 ─ 0,2) = 0,388.

Приклад
Ймовірність хоч би одного попадання стрільцем в мішень при трьох пострілах
дорівнює 0,875 . Знайти ймовірність попадання при одному пострілі.
Розв’язування. Ймовірність попадання в мішень хоч би при одному з трьох
пострілів (подія А) дорівнює Р(А) = 1-q3 , де q – ймовірність промаху.
По умові Р(А) = 0,875. Отже, 0,875= 1-q3 , або q3 =1 - 0,875 = 0,125.
Звідси
Шукана ймовірність p = 1 – q = 1 – 0,5 = 0,5.

Домашнє завдання

2.1 Підкидають гральний кубик. Знайти ймовірність того, що випаде непарне


число або число кратне 3.
2.2 Студент знає 25 із 30 питань програми. Знайти ймовірність того, що студент
знає запропоновані йому три питання в білеті.
2.3 Прилад складається з двох елементів, що працюють незалежно. Ймовірність
виходу з ладу першого елементу - 0,05, другого - 0,08. Знайти ймовірність того, що
при вмиканні приладу
а) вийдуть з ладу обидва елемента;
б) вийде з ладу хоча б один елемент;
в) вийде з ладу тільки один елемент;
г) будуть працювати обидва елемента.
2.4 З ящику, що містить 25 червоних і 15 синіх кульок, навмання
вибирають 3кульки. Знайти ймовірність того, що серед вибраних кульок не більше
однієї синьої.
2.5 Три стрілки провели залпи по мішеням. Ймовірність влучення у ціль у
першого стрілка дорівнює 0,8, у другого і третього відповідно 0,7 та 0,9. Знайти
ймовірність того, що:
а) тільки один із них влучить у ціль;
б) хоча б один влучить у ціль.

10
Лекція 3 Формула повної ймовірності. Формули Байєса

Нехай задані випадкові події Н1, Н2, . . . Нn такі, що виконуються дві умови
1) Н1 + Н 2 + . . . . + Нn = U ;
2) Нj ·Нk = V j ≠ k
Перша з цих умов означає, що за умов даного комплексу хоч одна з подій Нk,
k = 1….n, відбудеться. Друга умова означає, що події Нk попарно несумісні між
собою. За виконання умов 1), 2 ) множина подій Н1, Н 2 . . . . Нn називається
повною групою подій.
Теорема Якщо Н1, Н 2 . . . . Нn - повна група подій, Р (Нk)> 0 для k= 1, 2,
…..n, то для будь-якої випадкової події А виконується рівність

На рис.5 зображена ситуація про яку йдеться в теоремі ( на рисунку n = 4).


H1 H2

А
H3 H4

Рисунок 5
Події АН1, ..... АНn несумісні і в сумі дають подію А, тому використовуючи теореми
про ймовірність суми та добутку подій, маємо

Теорему доведено.

Приклад
Одну і ту ж деталь виготовляють на трьох верстатах. Ймовірність браку на першому
верстаті дорівнює 0,010, на другому – 0,015, на третьому – 0,020. Продуктивність
першого верстата у 1,5 рази більша за продуктивність другого, продуктивність
третього верстата у 2,5 рази більша за продуктивність другого. Усі деталі
складаються до одного ящика. Чому дорівнює ймовірність того, що взята навмання
деталь з ящику буде бракованою?
Розв’язування. Розглянемо такі випадкові події:
А – деталь бракована;
Н1- деталь виготовлена на першому верстаті;
Н2 - деталь виготовлена на другому верстаті;
Н3 - деталь виготовлена на третьому верстаті.
Спочатку обчислимо ймовірності Р (Нk). Покладемо Р (Н2) = p. Тоді за
умовою маємо, що Р (Н1) = 1,5p; Р (Н 3)= 2,5p. Звідси випливає ( враховуючи, що
Р(Н1) + Р(Н2) +Р(Н3) =1 ) 1,5p + p + 2,5p = 1, тобто 5p =1, p = 0,2. Тому
Р (Н2 ) = p =0,2; P (H1) = 1,5p = 1,5 • 0,2 = 0,3; P (H3) = 2,5 p =2,5 • 0,2 = 0,5.

11
За умовою задачі Р (А/Н1 ) = 0,010; Р (А/Н2 ) = 0,015; Р (А/Н3) = 0,020.
Тому маємо Р (А ) = Р(Н1) Р (А/Н1 ) + P (H2) Р (А/Н2 ) + +P (H3) Р (А/Н3)
= 0,3• 0,010 + 0,2• 0,015 +0,5• 0,020 = 0,016.

Іноді у ситуації, про яку сказано в теоремі, відомо, що подія А вже відбулася,
і запитується, яка ймовірність того, що при цьому відбулася випадкова подія Нk .
Відповідь на це питання дає
Теорема ( формули Байєса). Якщо Н1, Н 2 . . . . Нn - повна група подій,
то

Ця формула зветься ще формулою ймовірності гіпотез – вона дає можливість


обчислити ймовірність гіпотези Нk за умови, що ми знаємо наслідок А.
Для доведення формули зауважимо, що
Р(А Нk) = Р(А) Р(Нk /А) = Р(Нk) ) Р (А /Нk )
Звідси маємо

Для остаточного доведення формули досить підставити в останню формулу


Р (А) її значення за формулою повної ймовірності.
Приклад
Знову розглянемо ситуацію, яка викладена у задачі про три верстати. Відомо, що
витягнута деталь – бракована. Яка ймовірність того, що вона виготовлена на
третьому верстаті?
Розв’язування. Усі необхідні ймовірності ми вже знаємо (див. попередній
приклад). Тому маємо за формулою Байєса

Бачимо, що переважна кількість бракованих деталей виготовлена на третьому


верстаті.

12
Домашнє завдання
3.1 У збиральника є 85 деталей, 31 з яких виготовлено у першому цеху, 2 9 -
у другому і 25 - у третьому. Ймовірність того, що деталь виготовлена у
першому цеху стандартна, дорівнює 0,9, для другого цеху - 0,8 і для третього -
0,85. Яка ймовірність того, що навмання взята збиральником деталь не стандартна?
3.2 Є дві урни: в першій 30 білих і 20 чорних кульок, в другій 40 білих і 35
чорних. З першої урни в другу перекладають не дивлячись одну кульку. Після
цього з другої урни беруть одну кульку. Знайти ймовірність того, що кулька чорна.
3.3 Деталі для збірки вузлу виготовляються на двох станках, з яких перший
виробляє 80% деталей, а другий - 20%. Перший станок виробляє в середньому 4%
бракованих деталей, а другий - 3%. Знайти ймовірність того, що навмання взята
деталь доброякісна.
3.4 При розриві снаряду виникає 6% крупних осколків, 57% - середніх і
37% -дрібних. Ймовірність пробивання броні крупним осколком дорівнює 0,7,
середнім — 0,2, дрібним 0,001 Відомо, що у броню потрапив один осколок.
Визначіть ймовірність того, що броня пробита.
3.5 На двох автоматах виготовляються однакові деталі, які надходять на
загальний конвейєр. Продуктивність першого автомату втричі більше
продуктивності другого. Перший автомат в середньому виготовляє 95%
деталей першого гатунку, а другий 97%. Взята навмання деталь опинилась
першогу гатунку. Знайти ймовірність того, що ця деталь виготовлена другим
автоматом.
3.6 Є три партії деталей по 50 штук у кожній. Кількість стандартних
деталей упершій, другій і третій партіях відповідно дорівнює 49, 48, 40.
З довільно вибраної партії навмання витягнута деталь, яка опинилася
стандартною. Знайти ймовірність того, що деталь була витягнута з третьої партії.

13
Лекція 4 Схема незалежних випробувань. Формула Бернуллі.
Локальна та інтегральна теореми Муавра - Лапласа. Формула Пуассона

На практиці досить часто використовують схему однакових незалежних


випробувань, в кожному з яких повна подія А настає з однією і тією ймовірністю.
При цьому знаходять ймовірність того , що в n випробуваннях подія А настає k разів
(0≤ k≤n). Розглянемо подію В1 , в якій перші k разів подія А настала, а потім
в n – k випробуваннях не настала, тобто
В1 =
Ураховуючи незалежність подій, маємо
Р (В1) = pk q n-k (q = 1 – p ).
Кількість варіантів, в яких А настає k разів, а не настає n –k разів, становить .
На основі теореми додавання ймовірностей маємо формулу Бернуллі

Приклад
У цеху п’ять верстатів. Ймовірність того, що кожен з них працює, p=0,8. Знайти
ймовірність того, що з них працює k =0, 1, 2, 3 , 4, 5 верстатів.
Розв’язування. Згідно з формулою Бернуллі
Р5 (0) = ; Р5 (1) = ;

Р5 (2) = ; Р5 (3) = ;

Р5 (4) = ; Р5 (5) = ;

Перевіримо, (похибка внаслідок округлення результатів), оскільки


події утворюють повну групу.

З цього прикладу випливає, що існує таке k = k 0, якому відповідає найбільша


ймовірність. Таке значення k0 називають найімовірнішим числом появи події А .
Можна довести, що np – q ≤ k0 ≤ np + р
Схему Бернуллі слід відрізняти від інших аналогічних.

Приклад
У мисливця п’ять патронів . Він стріляє до першого влучення. Знайти ймовірність
того, що буде витрачено k =1, 2, 3 патрони, якщо ймовірність влучення p = 0,8.
Розв’язування. Наведена схема - це не схема Бернуллі, оскільки вилучений
випадок k = 0, тому формулу Бернуллі застосовувати не можна.
За умовою задачі маємо Р3 (1) = р = 0,8. Далі знаходимо
Р3 (2) = (перший патрон – промах, другий – влучення). Нарешті,

При великій кількості випробувань n формулою Бернуллі користуватися


незручно. Для цих значень n є формули, за якими можна наближено обчислити

14
ймовірність за схемою Бернуллі. Такими є формули Лапласа, які задаються
відповідними теоремами (подаємо їх без доведення):
Локальна теорема Муавра-Лапласа Якщо ймовірність появи події в схемі
Бернуллі дорівнює р ( р ≠ 0, р ≠ 1), а n велике, то

Функція - функція Гаусса. Ця функція затабульована (див.


додатки) і має такі властивості:
1. >0.
2. — парна, .
3. max
4. Вісь х =0 є асимптотою графіка ( lim = 0, х → ∞).
5. ≈ 0 при х > 4 , x < - 4, що випливає з обчислень чи з аналізу таблиці
значень функції .

Приклад
Знайти імовірність того ,що з n= 100 зернин зійде рівно k = 80, якщо їх схожість р =
0,8.
Розв’язування. Згідно з формулою Лапласа, а також з таблицею , маємо

Інтегральна теорема Муавра-Лапласа Якщо ймовірність появи події в


схемі Бернуллі дорівнює р ( р ≠ 0, р ≠ 1), то ймовірність того, що ця подія настане
від k1 до k2 разів, дорівнює

i= 1, 2 ,

Функція - функція Лапласа. Ця функція затабульована


(див. додатки) і має такі властивості:
1. Ф (х) — непарна, Ф ( -х) = - Ф (х).
2. Ф (0) = 0.
3. Ф (х) зростає на ( - ∞‚ ∞ ), оскільки Ф(х) > 0.
4. Ф (х) ≈ 1/2 при х > 5, Ф (х) ≈ - 1/2 при х < - 5.

Приклад
Металургійний завод дістав замовлення, для виконання якого необхідно
провести 90 кондиційних плавок. Ймовірність того, що плавка буде кондиційною, р
= 0,9. Тому вирішили зробити n =100 плавок. Йдеться про ймовірність Р100 (90,100) ,
для якої ,згідно з інтегральною теоремою, маємо

Р100 (90,100) = Ф (3,33) – Ф (0) ≈ 0,4994.


Як бачимо, дістали не таку вже й велику ймовірність.
Наступна теорема містить ще одну формулу, аналогічну формулі Бернуллі.

15
Формула Пуассона. Якщо в схемі випробувань Бернуллі р мале
( р< 0,1), n велике, тобто n p < 10, то
Рn (k) ≈ е- а аk / k !, а = np

Домашнє завдання
4.1 Робітник обслуговує 7 однакових верстатів. Ймовірність того, що верстат
поламається на протязі 1 год. дорівнює 0,04. Знайти ймовірність того, що за 1 год.
поламається не більше двох верстатів.
4.2 Ймовірність влучення в ціль при одному пострілі 0,83. Яка ймовірність того,
що при 5 пострілах буде 4 влучення?
4.3 Для прядіння змішали порівну білий та пофарбований хлопок. Яка
ймовірність того, що між 5 випадково одібраних волокон буде більше 3 білих?
4.4 В середньому 93% виробів не має дефектів. Яке найбільш ймовірне число
виробів з дефектами буде серед 40 виробів?
4.5 Відділ технічного контролю перевіряє 35 деталей. Ймовірність того, що
деталь стандартна 0,83. Знайти найбільш ймовірне число деталей, які будуть визнані
стандартними
4.6 Ймовірність влучення в ціль при кожному пострілі 0,96. Скільки треба
зробити пострілів щоб набільш йморвіне число було 30?
4.7 Знайти ймовірність того, що між 200 випадково взятих деталей 100 будуть
відполірованими, якщо у загальній масі деталей є однакова кулькість
відполірованих та не відполірованих.
4.8 Ймовірність того, що деталь не стандартна 0,04. Яка ймовірність того, що
серед 200 деталей буде 190 стандартних?
4.9 Завод відправив на базу 500 виробів. Ймовірність пошкодження в дорозі
0,001. Знайти ймовірність того, що пошкоджено буде 5 виробів.
4.10 Знайти ймовірність того, що серед 250 виробів буде від 10 до 15 бракованих,
якщо брак в середньому становить 5%.
4.11 Ймовірність появи події в кожному із 45 незалежних випробівань 0,85.
Знайти ймовірність того, що подія з’явиться в більшості випробувань.
4.12 Монету пидкинули 4000 разів. Знайти ймовірність того, що «герб» випаде
2000 разів.
4.13 Знайти ймовірність того, що в партії із 800 виробів число першосортних буде
від 600 до 700, якщо ймовірність того, що окремо взятий вироб буде першосортний
дорівнює 0,6.
4.14 Під час випробувань 0,7% виробів виходить з ладу. Яка ймовірність того, що
серед 1000 виробів буде 8 бракованих?
4.15 Ймовірність того що будь-який абонент подзвонить на комунатор за 1 год.,
дорівнює 0,004. Телефона станція обслуговує 500 абонентів. Яка ймовірність того
що за 1 годину подзвонить 4 абонента.

16
Лекція 5 Означення випадкової величини. Функція розподілу випадкової
величини та її властивості. Дискретні випадкові величини та їх розподіли

Означення Випадковою називається величина, яка набуває своїх значень з


певною ймовірністю.
До випадкових величин належать, наприклад, такі кількість очок, яка випала
на грані гральної кості кількість викликів на автоматичній телефонній станції даль-
ність польоту снаряда час безвідмовної роботи машини. Деякі з цих величин мо-
жуть набувати дискретних значень, решта – довільних значень з певного інтервалу.
Перші величини є дискретними, другі – неперервними.
Означення Дискретною називається випадкова величина, значеннями якої є
окремі точки числової прямої.
Випадкова подія – це окремий випадок дискретної величини, яка набуває зна-
чень х1 =1 (А) і х2 = 0 ( ).
Часто випадкові величини позначають літерами X, Y,… , а їх значення
x1, x2, . . ., xn y1, y2, . . . , yn,….
Означення Законом розподілу випадкової величини називається закон, за
яким кожному її значенню відповідає певна ймовірність цього значення.
Закон розподілу можна задати  таблично, перелічивши всі значення xі і
відповідні pі
Х х1 х2 . . . хn
Р р1 р2 . . . рn
(р1+р2 + . . .+ рn = 1),
а також графічно і аналітично. У разі дискретної величини для графічного
зображення будують точки (xі, pі) і з’єднують сусідні точки відрізками прямих.
Утворену фігуру називають многокутником розподілу.

Приклад
У лотереї 100 білетів. Випадкова величина Х – сума виграшу по одному білету
набуває таких вартостей  10 гривень (1 білет), 5 гривень (3 білети), 1 гривня (10
білетів). Знайти закон розподілу Х.
Розв’язування. Маємо
Х 10 5 1 0
Р 0,01 0,03 0,1 0,86

Означення Інтегральною функцією розподілу випадкової величини Х


називається ймовірність того, що Х набуває значень, менших від вказаного
фіксованого значення, точніше
F (X) = P(X < x) (5.1)
Приклад
Знайти інтегральну функцію для величини Х, де значенням х1 = 1, х2 = 2, х3 = 3
відповідають ймовірності р1 = 0,2, р2 = 0,3, р3 = 0,5.
Розв’язування. Згідно з (5.1)
для    х 1 маємо F = 0 ( зліва точки х = 1 значень немає); для 1 < х  2 маємо
F (х) = 0,2 ( у цьому інтервалі є лише одне значення х з ймовірністю 0,2);

17
для 2 < х  3 маємо F (х) = 0,2 +0,3 = =0,5 ( у цьому інтервалі Х може набувати або
значення 1 з імовірністю 0,2 ,або значення 2 з імовірністю 0,3).
Нарешті, при х > 3 маємо F (Х) = 0,2 + 0,3 + 0,5 = 1.
Отже,
0, якщо -∞< х ≤ 1;
F(x) = 0,2, якщо 1< х ≤ 2;
0,5, якщо 2 < х ≤3 ;
1, якщо х > 3.

Властивості F (х):
1. 0 ≤ F(x) ≤ 1 ( випливає з означення F (х)).
2. Р ( х1< Х < x2) = F (х2) - F (х1).
3. F(х) - неспадна функція, ( х2 > х1) = > (F (х2) ≥F (х1).).
4. Для неперервної випадкової величини ймовірність прийняти окреме
значення дорівнює нулю:
Р ( Х = х0 ) = 0.
5. Якщо значення Х зосереджені на [ a, b ], то F (X) = 0 при x ≤ а і F (X) = 1
при х > b.
Застосовуємо ймовірність неможливої й вірогідної події.

Дискретні випадкові величини належать до скінченої або зліченної множини


значень. Нехай Х- дискретна величина, що набуває значення х 1< x2< x3...з
ймовірностями р1, р2 , р3 ...., причому сума всіх ймовірностей дорівнює одиниці.
Функція розподілу дискретної випадкової величини
F (x) = P { X < x} = P { X =x1 } + P { X = x2 } +…= ∑ pi при хi < x.
На проміжках (-∞, х1)(х1,х2 )( х2, х3) . . . функція розподілу має постійні
значення. В точках х1, х2,х3, . . . функція розподілу зростає стрибком, який дорівнює
ймовірності того, що випадкова величина набуде певного значення хі.
Найчастіше зустрічаються такі закони розподілу дискретних випадкових величин.

1. Рівномірний розподіл
P{X = m} = 1/n; m= 1,2,3. . .n
2. Гіпергеометричний розподіл
Р{X = m} = , m = 0,1…. min ( M, n)
Гіпергеометричний розподіл характерний для такої задачі: в партії з N виробів М
виробів першого ґатунку і N- М виробів другого ґатунку. З партії для контролю
відбирається n виробів. Закон розподілу кількості m-виробів першого ґатунку у
відібраній партії є гіпергеометричним.
3. Геометричний розподіл
Р{ X = m} = q m-1 • p, m = 1, 2, 3…; 0 < p < 1.
Геометричний розподіл має випадкова величина Х, що дорівнює кількості
випробувань в схемі Бернуллі до першого успіху ( невдачі). Наприклад, якщо р –
ймовірність влучити в мішень при одному пострілі, то Х – це кількість патронів, що
була витрачена до першого влучного пострілу.

18
4. Біноміальний розподіл
Р{ X = m}= Рn (m) = C ; m = 0, 1, 2, …n
Цей закон описує ймовірність для випадкової величини Х, яка відповідає
кількості успіхів (невдач) у схемі Бернуллі. Цим законом описуються, наприклад,
кількість випадань герба при фіксованій кількості підкидань монети або кількість
бракованих виробів у вибірці з обмеженої партії продукції. Тоді n – кількість
підкидань монети або деталей у відібраній партії, р – ймовірність випадання герба
при одному підкиданні (1 /2) або ймовірність браку у загальній партії деталей,
m- значення величини Х, що змінюється від 0 до n, q =1-р.
5. Розподіл Пуассона ( закон розподілу рідкісних подій)

Закон Пуассона описує кількість подій m, які відбуваються через однакові


проміжки часу за умови, що події відбуваються незалежно одна від одної з
постійною середньою інтенсивністю. При цьому загальна кількість подій є
великою, а ймовірність появи події в одному випробуванні – постійною і малою.
λ – параметр закону Пуассона. Розподіл Пуассона мають кількість частинок,
яку випромінює радіоактивне джерело за певний проміжок часу, кількість вимагань
на виплату страхових сум, кількість відмов елементів при випробуванні на
надійність складних радіоелектронних приладів і т. п.

Приклад
В партії з 5 виробів є 3 дефектних. Випадково відбираємо 3 деталі. Скласти закон
розподілу випадкової величини Х – кількості стандартних деталей серед відібраних.
Розв’язування. Випадкова величина може набути значень 0, 1, 2 з
ймовірностями
Р {X=0} =

Р {X=1} =

Р {X= 2} =
Маємо гіпергеометричний розподіл випадкової величини

Х 0 1 2

Р 0,1 0,6 0,3

19
Домашнє завдання
5.1 В ремонтну майстерню за день поступає не більше двох заявок на ремонт
обладнання. За 100 спостережень дві заявки поступили 35-разів, одна заявка – 45
разів, ні одної не поступило -20 разів. Складіть закон розподілу числа заявок в день.
5.2 У партії з 30 деталей є 27 стандартних. Навмання відібрані 2 деталі.
Скласти закон розподілу кількості нестандартних деталей серед відібраних.
5.3 У партії 5% нестандартних деталей. Випадково відібрані 3 деталі.
Скласти закон розподілу випадкової величини X – кількості стандартних
деталей серед 3 відібраних.
5.4 Ймовірність того, що студент знайде у бібліотеці потрібну йому книжку
дорівнює 0,45. Скласти закон розподілу кількості бібліотек, які він відвідає, якщо у
місті є п’ять бібліотек.
5.5 Підкидають гральний кубик до появи числа 5. Скласти закон розподілу
випадкової величини X - кількості підкидань.
5.6 Скласти закон розподілу квадратів числа очок при одному підкиданні
грального кубика.

20
Лекція 6 Неперервні випадкові величини та їх розподіли

Означення Випадкова величина Х називається неперервною, якщо


неперервною є її інтегральна функція
Означення Щільністю розподілу (диференціальною функцією) випадкової
величини в даній точці називається границя відношення ймовірності того, що
випадкова величина належатиме інтервалу, який містить дану точку, до довжини
цього інтервалу за умови, що інтервал стягується до даної точки, тобто
.

Властивості f (x)
1. f (x ) = F′ (x).
Справді,
2. f ( x ) ≥ 0 ( оскільки f (x ) = F′ (x), F ( x ) - неспадна ).

3. Р ( х1 ≤ Х < х2 ) =

Справді, Р ( х1 ≤ Х < х2 ) = F (x2) - F ( x1 ) = .

4. F (x ) =

Справді, F(x)=P(X<x)=P(-

5. . Справді, 1=Р(
Означення Випадкова величина Х називається рівномірно розподіленою,
якщо її щільність стала.

1. Нехай значення рівномірно розподіленої випадкової величини зосереджені


на [ a, b ]. Користуючись властивостями щільності розподілу, маємо
, тобто .
Звідси с = 1 / (b – a). Отже, щільність розподілу має вигляд

2. Інтегральна функція розподілу має вигляд

Рівномірний розподіл часто використовують тоді, коли тільки відомо, що


величина набуває значень на певному інтервалі, але нічого не відомо про характер
розподілу величини. Вважаючи, що вона розподілена рівномірно, допускаємо
похибку, найменшу з можливих.

21
Означення Випадкова величина Х називається розподіленою за
експоненціальним законом, якщо щільність розподілу має вигляд

Інтегральна функція розподілу має вигляд

Ймовірність того, що величина Х належатиме інтервалу [α ,β] за умов даного


розподілу, дорівнює
P(α≤x≤β) =
Експоненціальний закон широко застосовують у теорії надійності.
Нехай Т - тривалість безвідказної роботи пристрою. Функція розподілу
випадкової величини Т виражає ймовірність відказу за час t:
.
Протилежна їй функція надійності
R ( t ) = 1 - F ( t) = P ( t ≤ T ) = e -λt
визначає ймовірність безвідказної роботи пристрою за час t.
Тут λ – інтенсивність відказів.

Означення Випадкова величина Х називається розподіленою за нормальним


законом з параметрами a і σ > 0, якщо її щільність має вигляд

Якщо Х має нормальний розподіл, то будемо коротко позначати це, як


Х  N ( α ,σ ).
Знайдемо вираз функції розподілу для Х  N (α ,σ ).

F (x ) = = . Зробимо заміну 

у = (z- α)/σ, тоді dy = і далі

F (x ) = = Ф( ), де

Ф( ) – функція Лапласа з аргументом , таблиця якої відома.


Ймовірність того, що випадкова величина Х – N (α ,σ ) набуде значення, яке
належить інтервалу (х1, х2), дорівнює

P{x1
Ймовірність того, що Х  N ( a ,σ ) набуде значення, які відповідають умові

P{

22
З цієї формули виходить дуже важливий наслідок 
якщо Е =3σ , то P{ <3σ} =2Ф(3) = 0,9973
Це означає, що практично все розсіяння нормально розподіленої випадкової
величини вкладається в інтервал α ±3σ (правило трьох сигм). Ймовірність того, що
Х набуде значень за межами цього інтервалу, настільки мала (0, 0027),що таку
подію можна вважати практично неможливою.
Нормальний закон розподілу зустрічається найчастіше. За цим законом
розподілені точність вимірювання практично всіх фізичних величин, параметри
технологічних режимів, багато біологічних, демографічних та економічних
покажчиків і т.д. Аналіз загальних умов формування нормального розподілу
показує, що найважливішим фактором є формування величини як суми великої
кількості взаємно незалежних складників, жоден з яких не має набагато більшої, ніж
інші, дисперсії. Такі умови часто мають місце у виробничих, економічних,
демографічних та інших процесах. Як буде показано далі, нормальний закон є
граничним законом, до якого наближаються інші види розподілу.

23
Домашнє завдання
6.1 Щільність розподілу випадкової величини має вигляд
.
Знайти функцію розподілу F(x), обчислити P(0,6<x<0,8).
6.2 Щільність розподілу випадкової величини має вигляд
.
Знайти функцію розподілу F(x), обчислити .
6.3 Функція розподілу має вигляд . Знайти
щільність розподілу f(х), обчислити . Побудувати графіки f(х), F(х).
6.4 Функція розподілу має вигляд . Знайти
параметр а, щільність розподілу f(х), обчислити . Побудувати графіки
f(х), F(х).
6.5 Функція розподілу має вигляд .
Знайти щільність розподілу f(х), обчислити . Побудувати графіки
f(х), F(х).
6.6 Випадкова величина рівномірно розподілена на відрізку [2;5]. Знайти
щільність розподілу f(х), функцію розподілу F(x), обчислити ймовірність попадання
величини у проміжок [3;3,5].
6.7 Випадкова величина Х розподілена за нормальним законом з параметрами
a=3 і σ=0,3. Знайти щільність розподілу f(х), функцію розподілу F(x), обчислити
ймовірність попадання величини у проміжок [2,8;3,5].
6.8 Випадкова величина Х розподілена за експоненціальним законом з
параметром λ=2. Знайти щільність розподілу f(х), функцію розподілу F(x), обчислити
ймовірність попадання величини у проміжок [1,8;2,3].

24
Лекція 7 Числові характеристики випадкової величини

Закон, функція і щільність розподілу випадкової величини дають повну


інформацію про неї. Проте дістати такі характеристики часто не просто, оскільки, як
правило, необхідна велика кількість певних досліджень. Крім того, для
розв’язування багатьох практичних задач можна обійтися набагато меншим обсягом
інформації, а в багатьох випадках доцільним є сумарне уявлення про випадкову
величину. Через те в теорії ймовірностей широке застосування набули так звані
числові характеристики випадкових величин, основні з яких – математичне
сподівання та дисперсія.
Означення Математичним сподіванням випадкової величини Х називається

М (Х) = , М (Х) =

(7.1)
відповідно для дискретних і неперервних величин, тут х і – значення величини, рі –
ймовірність цих значень, - щільність імовірності величини.
Математичне сподівання характеризує середнє значення випадкової величини і
зберігає її розмірність. Математичне сподівання є аналогією центра мас систем
матеріальних точок.
Властивості математичного сподівання
1. М (С) = С.
Справді, розглядаючи сталу як випадкову величину, яка набуває єдиного значення
з імовірністю, яка дорівнює одиниці, маємо М (С) = С·1 = С.
2. М (ХY) = М (Х) М (Y) для незалежних Х і Y.
Н а с л і д о к 1. М (СХ) = СМ (Х).
Н а с л і д о к 2. М (Х – М (Х)) = 0.
Справді М (Х - М (Х))= М (Х) – М (М (Х))= М (Х) – М (Х) = 0.
Приклад
Знайти М (Х), якщо Х розподілена за біноміальним законом, тобто Х є кількістю
появ деякої події при n випробуваннях за умови, що ймовірність появи події в
кожному випробуванні дорівнює р. Нехай Хі – кількість появ події в і-му
випробуванні. Значення Хі – це 0 або 1, ймовірності q і р, отже,
M (Xi) = 0 · q + 1 · p = p.
Далі знаходимо
М (Х)= М (Х1 + Х2 + . . . + Хn ) = М (Х1) + М (Х2) + . . . +. М(Хn)=np
Приклад
Знайти М (Х), якщо Х розподілено за законом Пуассона.
Розв’язування. Маємо

25
Для розподілу Пуассона М (Х) = λ (λ – параметр розподілу).
Для нормального розподілу М (Х) = а (а – параметр розподілу).

Для експоненціального розподілу М (Х) = .

Для рівномірного розподілу М ( Х ) = .

Для геометричного розподілу М (Х) = .

Дві випадкові величини можуть мати однакові математичні сподівання, але


різне розсіяння своїх значень навколо математичних сподівань.
Наступна величина характеризує таке розсіяння.
Означення Дисперсією випадкової величини Х називається математичне
сподівання квадрата відхилення цієї величини від її математичного сподівання,
тобто
D ( X ) = M ( X - M ( X ))2 (7.2)
Рівність (7.2) конкретизується для дискретних і неперервних величин
відповідно ( якщо інтеграл збіжний)

Практичне тлумачення дисперсії полягає в тому, що вона характеризує ступінь


розсіяння випадкової величини навколо її математичного сподівання і вимірюється
в квадратних одиницях порівняно з одиницями вимірювання вихідної величини..
Останнє приводить до введення ще однієї характеристики – середнього
квадратичного відхилення, тлумачення якого таке ж, як і дисперсії, а розмір такий,
як і вихідної величини, а саме:

Властивості дисперсії
1. D ( C ) = 0.
2. D ( CX ) = C2 D ( X ).
3. D ( X ± Y ) = D ( X ) + D ( Y ), X і У - незалежні.
4. D ( C + X ) = D ( X ).
Кілька слів з приводу властивостей дисперсії.
Властивість 4 означає, що зміщення величини не змінює її дисперсії. Дисперсія
добутку двох величин може не дорівнювати добутку дисперсій вихідних величин.
Можна довести , що для біноміального розподілу D (X ) = npq; для розподілу
Пуассона D (X ) = λ. Для геометричного розподілу D (Х) = .

Для рівномірного розподілу D (X) = ; для експоненціального розподілу

26
D (X ) = ; для нормального розподілу D ( X ) = , де σ - параметр розподілу.

Означення Початковим моментом k-го порядку випадкової величини Х


називається величина
Vk = M ( X k )
Очевидно, що
v1 = M ( X ) , D ( X ) = M ( X2 ) – M2 ( X ) = v2 – v12.
Означення Центральним моментом k-го порядку випадкової величини Х
називається величина
μ к = M ( X – M ( X ))k
Очевидно, що
μ 1 = M ( X – M ( X )) = 0
μ2= M ( X – M ( X ))2 = D ( X ) = v2 – v12 ,
тобто μ 2= v2 – v12 . Взагалі, довільний центральний момент можна виразити через
початкові моменти, Наприклад,
μ3 = M ( X – M ( X ))3= v3 - 3v1 v2 + 2v13 ,
Означення Модою М0 (Х) розподілу випадкової величини Х називається
значення Х, якому відповідає найбільша ймовірність (щільність ймовірності)
max P (X) = P (M0 ( X )) (max f (x) = f (M0 (X)).
Означення Медіаною Me (X) розподілу випадкової величини Х називається
значення Х , яке задовольняє рівність
P (a < X < Me (X)) = P ( Me (X) ≤ x < b ).
Означення Асиметрією розподілу випадкової величини називається величина
As = μ 3 /σ3.
Якщо As > 0, то “довга частина” розподілу розташована справа від М (Х);
As < 0 - зліва. Асиметрія для випадкової величини, закон розподілу якої
симетричний відносно М (Х) дорівнює 0.
Означення Ексцесом розподілу випадкової величини називається число

εk =

Ексцес характеризує степінь “зглаженності” ( гостровершинності) щільності


розподілу в порівнянні з нормальною щільністю розподілу ( для нормального
розподілу ε k = 0 )

27
Домашнє завдання
7.1. Знайти: МХ і DX.
X 5 10 15 20
P 1/12 4/12 5/12 1/6
7.2. Дано: X Знайти:
7.3. Дано: , MX=3.4, DX=0.84. Знайти:
7.4. Сім разів підкинуто монету. Знайти математичне сподівання та середнє
квадратичне відхилення кількості появи герба.
7.5. Ймовірність того, що студент відповість на питання дорівнює 0,7. Білет
містить три питання. Знайти середнє значення кількості питань, на які студент
відповість.
7.6. У хімчистці стверджують, що 85% плям на вовняних речах відмиваються.
Ви здали в хімчистку 3 вовняні речі з плямами. Скласти закон розподілу кількості
ваших вовняних речей, що після хімчистки виявились без плям. Знайти математичне
сподівання і дисперсію.
7.7. Неперервна випадкова величина рівномірно розподілена на інтервалі
(4;6). Знайти М(Х), D(Х), σ(Х) цієї величини.
7.8. Обчислити М(Х), D(Х), σ(Х) випадкової величини Х, якщо щільність
розподілу відома :
0, x (– ∞ ; 0)
f(x) =
3e-3x, x [0 ;+ ∞)
7.9. Обчислити М(Х), D(Х), σ(Х) випадкової величини Х, якщо щільність
розподілу відома
.

7.10. Обчислити М(Х), D(Х), σ(Х), якщо відома функція розподілу випадкової
величини:
.
7.11. Знайти дисперсію та середнє квадратичне відхилення показникового
розподілу, заданого щільністю розподілу , .

28
Лекція 8 Закон великих чисел. Центральна гранична теорема

Розглянемо нерівність Чебишева  відхилення випадкової величини від її


математичного сподівання не може бути дуже великим, воно обмежене. Точніше,
великі відхилення мають малу ймовірність 

P(|X -MX|> )<


Дуже часто ми декілька разів повторюємо експеримент по виміру якої–небудь
величини, а потім беремо середнє арифметичне тих значень, що одержали.
Виявляється, що чим більше вимірів, тим це середнє арифметичне все ближче
наближається до математичного сподівання. Це і є закон великих чисел - середнє
багатьох експериментів вирівнюється, випадковість змінюється закономірністю.
У формі Чебишева закон великих чисел має вигляд 
Нехай Х1, Х2, . . . , Хn . . . – однаково розподілені незалежні випадкові
величини з математичними сподіваннями і дисперсіями
MX1 = MX2 = …. = MXn = …. = m
DX1 = DX2 = … = DX n= … = d
тоді для будь - якого >0

(8.1)
Це означає, що при використанні великої кількості доданків ймовірність
відхилення середнього арифметичного від математичного сподівання стає все
меншою.
Перша форма закону великих чисел належить Я.Бернуллі, вона стосується
“схеми Бернуллі”. Застосовуємо до цього випадку співвідношення (8.1). За величину
приймаємо одну з незалежних випадкових величин, що має розподіл
імовірностей
P (A) =
Маємо MX1 = р, DX1 = р(1-р); реалізація випадкової величини. – кількість

появи випадкової події А, тобто частота (n – число випробувань, k– число появи


А), m = p – ймовірність появи випадкової події А. За умов (8.1)
, це і є закон великих чисел Бернуллі.
Перейдемо до центральної граничної теореми.
Досліджуючи схему Бернуллі виявляється, що випадкова величина
х= наближено розподілена за нормальним законом. Подібне
твердження справедливе і для ряду інших випадків зветься воно центральною
граничною теоремою. Перші кроки в одержані цього результату зробив П.Л.
Чебишев. За його пропозицією спробу, і причому успішну, довести цю теорему
зробили учні Чебишева О.М. Ляпунов та А.А. Марков. Ляпунов першим одержав це
доведення, він довів наступний результат  нехай незалежні випадкові величини
Х1, Х2 , .. .., Хn мають скінченні математичні сподівання mk = MXk і дисперсії

29
σk2 = dk = DXk, причому виконується умова

(8.2)

Позначимо (8.3)

(8.4)
Тоді випадкова величина при великих n наближено розподілена за
нормальним законом з математичним сподіванням m = 0 і σ = 1, а саме

Розглядають суми S* незалежних випадкових величин (8.3), які нормуються


за допомогою (8.4). Ці нормовані суми Sn* розподілені наближено нормально, коли
число доданків велике, а внесок, що дає кожний доданок, відносно малий, - саме
такий зміст має умова (8.2 ).
Центральна гранична теорема пояснює , чому нормальний розподіл часто
зустрічається у застосуваннях: він, звичайно, з’являється тоді, коли сумується
багато випадкових величин, кожна з яких відносно невелика. Наприклад, це має
місце, коли при вимірі якоїсь величини одержати точне значення заважають багато
дрібних похибок, що сумуються між собою. За природних умов ці похибки
компенсують одна одну так, що у результаті для остаточної похибки наближено
справедливий нормальний розподіл. Теорію похибок вперше детально вивчали
К.Ф.Гаусс і А.М. Лежандр. У результаті « накладання» випадкових величин не
завжди з’являється величина розподілена нормально, граничним розподілом може
бути (при певних умовах) розподіл Пуассона та інші.

30
Лекція 9 Завдання математичної статистики. Генеральна сукупність і вибірка.
Варіаційний ряд. Графічне зображення вибірки

Масові випадкові явища підпорядковані закономірностям, що


встановлюються на основі вивчення статистичних даних - результатів спостережень.
Математична статистика займається розробкою методів реєстрації, опису і
аналізу таких даних, її теоретичною базою служить теорія ймовірностей. У задачах
математичної статистики ми маємо деякі результати спостережень, і шукається ма-
тематична модель, здатна дати опис цих результатів.
Деякі основні задачі, розв'язування яких становить завдання математичної
статистики:
1. За обмеженим об'ємом експериментальних даних встановити закон розпо-
ділу випадкової величини.
2. Знайти параметри передбачуваного закону розподілу.
3. Оцінити, наскільки обраний закон розподілу погоджується з результатом
експерименту.
4. Оцінити, надійність обчислених параметрів.
5. Встановити наявність залежності між випадковою величиною і дати цій
залежності кількісну характеристику.
6. Описати аналітично залежність між випадковими величинами.
При вивчені характеристики деякої сукупності об'єктів часто не можна
перевірити усі такі об'єкти; може статися, що цих об'єктів дуже багато. Може бути і
інше - при вивчені характеристики сам об'єкт псується. Наприклад, для перевірки на
міцність деякої деталі її розривають; якщо всі деталі перевірити, то всі вони і будуть
знищені, - тому перевіряють лише невелику кількість деталей, а про інші судять,
виходячи з цієї перевірки.
Означення Генеральною сукупністю називається множина усіх однорідних
одиниць, що мають якісну спільність, вибіркою - деяка кількість елементів цієї
множини, відібраних певним засобом.
Вибірка повинна вірно представляти генеральну сукупність, її характерні ри-
си. Наприклад, якщо мова йде про інтереси громадян даної країни (генеральна су-
купність), то для досліду не можна брати тільки молодь або лише людей з вищою
освітою тощо. Існують спеціальні методи для того, щоб вибірка адекватно відобра-
жала генеральну сукупність, або, як кажуть, була показною. Число n елементів ви-
бірки називається її об'ємом.
Нехай з генеральної сукупності вилучена вибірка, і у кожного з вибраних
елементів замірялась якась характеристика х (це може бути, наприклад, зріст
людини або міцність деталі);нехай значення x1 спостерігалось m1 разів; x2-m2 разів,...
, xk-mk разів, тоді об'єм вибірки .
Значення xi, що спостерігаються, називаються варіантами, числа
спостережень mi - частотами, а відношення цих чисел до об'єму вибірки -

відносними частотами.

31
Послідовність варіант, записаних у зростаючому порядку з вказівкою
відповідних їм частот, називається статистичним рядом розподілу.
Статистичний розподіл можна задати також у вигляді послідовності
інтервалів (розрядів) і відповідних їм частот (відносних частот), - частота,
відповідна інтервалові, дорівнює сумі частот варіант, що попали у цей інтервал. Так
роблять у випадку, коли число різних варіант дуже велике.
Наприклад,
1.
-1 2 5 8 10
xi
5 10 40 30 15 = 100
mi
0,05 0,1 0,4 0,3 0,15 =1

2.
(2;4) (4;6) (6;8) (8; 10)

20 40 3О 10 =100
mi
0,2 0,4 0,3 0,1 =1

Якщо у прямокутній системі координат Ох зобразити точки (xi; ) і


сполучити сусідні точки відрізками, то одержимо ламану, що зветься полігоном
відносних частот. У випадку інтервального ряду розподілу користуються
гістограмою. Для її побудови на осі абсцис відкладають інтервали. На кожному з
них, як на основі, будують прямокутник з висотою, рівною , де -
довжина і-го інтервалу; - висота прямокутника.
Площа кожного прямокутника збігається з відносною частотою , а
сумарна площа усіх прямокутників дорівнює 1. У теорії ймовірностей – аналог –
площа під щільністю розподілу дорівнює 1.
При збільшенні об'єму вибірки п інтервали можна зробити все більш дрібни-
ми. При цьому полігон і ламана, що обмежує гістограму, наближаються до плавних
кривих, які близькі до теоретичної характеристики розподілу - графіку щільності
неперервного розподілу f(х). Таким чином, полігон і гістограма дають наочне уяв-
лення про закон розподілу випадкової величини.

32
Домашнє завдання
9.1 Задано вибірку, яка характеризує місячний прибуток підприємців( у тисячах
гривень). Скласти варіаційний ряд вибірки; побудувати гістограму та полігон
частот.
25, 34, 38, 28, 27, 26, 30, 25, 36, 34, 35, 27, 29, 30, 35, 31, 35, 29, 30, 31.

9.2 Побудувати гістограму та полігон частот за даним розподілом вибірки

3–5 5–7 7–9 9 – 11 11 – 13 13 – 15 15 – 17


mi 4 6 20 40 20 4 6

33
Лекція 10 Числові характеристики вибірки. Статистична функція розподілу

Аналогом функції розподілу є статистична функція розподілу:


,
де сума справа береться по усіх тих і, для яких хі < х.
Розглянемо перший розподіл із минулої лекції.
при х -1 F* (х) = О
при -1< х 2 F* (х) = 0,05
при 2<х 5 F*(х) = 0,05+ 0,10 = 0,15
при 5<х 8 F*(х) = 0,15+ 0,40 = 0,55
при 8<х 10 F* (х) = 0,55 + 0,30 = 0,85
при х>10 F*(х) = 0,85+ 0,15 = 1
При великому об'ємі вибірки графік цієї функції дає можливість судити про
теоретичну функцію розподілу F(х). Різниця між ними полягає у тому, що теоретич-
на функція розподілу F(х) дорівнює Р( X < х), а статистична функція розподілу F*(х)
дає частоту цієї події при експерименті. За законом великих чисел можна встанови-
ти, що >0

тут Fn*(х) означає статистичну функцію розподілу, одержану при п


незалежних експериментах. За функцією Fn*(х) можна судити про функцію
розподілу F(х).

Числові характеристики вибірки

1. Вибіркове середнє
2. Мода - значення хі, яке має найбільшу частоту М0Х = xi.
3. Медіана - значення xi , яке ділить варіаційний ряд навпіл.
4. Вибіркова дисперсія .

Виправлена вибіркова дисперсія .


5. Середнє квадратичне відхилення .

6. Коефіцієнт варіації .

7. Вибірковий коефіцієнт асиметрії .

8. Вибірковий коефіцієнт ексцесу

Е .

34
Домашнє завдання

10.1 Задано вибірку, яка характеризує місячний прибуток підприємців( у тисячах


гривень). Обчислити моду, медіану, середнє арифметичне, дисперсію, коефіцієнт
асиметрії та ексцесу варіаційного ряду.
25, 34, 38, 28, 27, 26, 30, 25, 36, 34, 35, 27, 29, 30, 35, 31, 35, 29, 30, 31.
10.2 За даним розподілом вибірки обчислити моду, медіану, вибіркове середнє,
дисперсію, коефіцієнт асиметрії та ексцесу.

3–5 5–7 7–9 9 – 11 11 – 13 13 – 15 15 – 17


mi 4 6 20 40 20 4 6

35
Лекція 11 Точкові та інтервальні оцінки параметрів розподілу.
Довірчі інтервали для параметрів нормального розподілу

Часто інженеру або досліднику треба подати інформацію про розподіл випад-
кової величини через декілька параметрів, що цей розподіл описують. Навіть тоді,
коли невідома формула функції або щільності розподілу, корисно обчислити головні
покажчики на базі тих даних, що одержані у експерименті.
Параметри статистичного розподілу є емпіричними аналогами відповідних те-
оретичних параметрів і служать їх точковими оцінками (точковою називають оцін-
ку, що визначається одним числом). Для МХ оцінкою є , для DХ - S2.
Точкові оцінки повинні бути незміщеними. Незміщеною називають статистичну
оцінку * , якщо її математичне сподівання дорівнює оцінюваному параметру  при
будь-якому об'ємі вибірки, тобто
M(*)= ; M =MX; MS2= DX.
Вибіркове середнє та виправлена дисперсія , - незміщені оцінки.
Незміщена оцінка може давати добре, а може і не зовсім добре наближення до
оцінюваного параметра; треба щоб і дисперсія величини, що оцінюється була ма-
лою.
Ефективною називають статистичну оцінку, яка при заданому об'ємі вибірки
n має найменшу можливу дисперсію. Оцінки , являються ефективними.
Спроможною називають оцінку, яка при прямує по ймовірності до па-
раметра, що оцінюється. Спроможність оцінок , означає, що для будь-якого
>0
; .
Теорія математичної обробки даних має у своєму арсеналі два принципи оцінки
невідомих параметрів розподілу: точкове та інтервальне оцінювання. Недолік то-
чкових оцінок у тому, що невідомо, з якою точністю вони визначають шуканий па-
раметр. Якщо для великого числа спостережень (об'єму вибірки) точність звичайно
буває достатньою для практичних висновків (у силу незміщеності, ефективності і
спроможності), то для вибірок невеликого об'єму питання про точність оцінок яв-
ляється вельми істотним. Це свідчить про можливість другого підходу, зв'язаного з
інтервальними оцінками.
Нехай  - шуканий параметр розподілу, а *- його точкова оцінка, знайдена за
даними досліду. Чим менше різниця |-*|, тим краще якість оцінки, тим точніша
оцінка. Точність оцінки характеризується числом таким, що |*--*|< . Параметр
 невідомий, тому при заданому ставиться питання лише про ймовірність події
|-*|<
Довірчою ймовірністю або надійністю називають ймовірність виконання
нерівності |-*|< і позначають , тобто
(11.1)

Звичайно надійність задається; часто покладають:


= 0,9; 0,95; 0,99; 0,9973.

36
Формула (11.1) означає, що з ймовірністю параметр  попадає у інтервал
( *- ;  *+ ). Цей інтервал називають довірчим інтервалом. Іншими словами,
- ймовірність того, що інтервал покриває невідомий параметр .
Довірчий інтервал для математичного сподівання нормальної випадкової ве-
личини при відомому середньому квадратичному відхиленні :
Так, як X  N (;2), то . Дійсно, сума нормально розпо-
ділених величин нормально розподілена і
, (так як всі X і мають розподіл X),

Якщо σ – відоме, α – невідоме, то

Якщо t – розв'язок рівняння 2Ф (t) = , то довірчий інтервал надійності для


параметра α приймає вигляд:

Так як = t, то = , де – точність оцінки.


Довірчий інтервал для математичного сподівання нормальної випадкової ве-
личини при невідомому σ має вигляд:
,
де – критичні точки так званого розподілу Стьюдента з (n - 1) степенями
свободи, а S0 – корінь квадратний з виправленої вибіркової дисперсії.
Довірчий інтервал для середнього квадратичного відхилення нормальної випад-
кової величини.
Нехай за вибіркою об'єму n знайдена виправлена дисперсія . Тоді інтервал
має вигляд:
(1 - q) · S0 < σ < (1 + q) · S0, для q < 1;
0 < σ < (1 + q) · S0, для q > 1.
Де q – визначається за таблицею значень q = q ( , n) (див. додатки).

37
Домашнє завдання
11.1 За даними вибірки
8,5 8,4 7,95 7,7 8,0 8,25 8,2 8,2 8,45 8,5 8,8 8,0 8,3 8,3 8,25 8,0 знайти
довірчі інтервали для оцінки математичного сподівання а нормального розподілу з
надійністю γ=0,95; 0,99; 0,999.
11.2 Відомі середнє квадратичне відхилення нормального розподілу
випадкової величини Х, вибіркова середня в, об’єм вибірки n. Знайти довірчий
інтервал для математичного сподівання а при заданій надійності = 0,99:
= 6; в = 20,2; n = 100.
11.3 Приведено дані виробітку на одного робітника із 65 робітників у звітному
році в процентах у відношенні з минулим роком: 105; 120; 97; 130; 80; 95; 100; 85;
115; 80; 105; 100; 105; 97; 80; 130; 97; 105; 100; 80; 120; 97; 195; 95; 97; 130; 100;
120; 80; 105; 100; 105; 97; 110; 115; 80; 97; 100; 110; 80; 130; 80; 97; 100; 105; 100;
80; 120; 97; 195;115; 105; 120; 97; 130; 80; 110; 105; 115; 97; 80; 105; 100; 100; 80.
Знайти довірчий інтервал для математичного сподівання при = 0,95.

38
Лекція 12 Поняття статистичної гіпотези. Статистичний критерій.
Критерій Пірсона. Критерій Колмогорова

Нехай випадкова величина X розподілена за законом F (xi; j) і нехай на основі


вибірки х1, х2, .... , хn, здобутої із генеральної сукупності з функцією розподілу F (xi;
j), робимо деякі припущення (гіпотези): або про вид функції F (xi; j), або про
параметри j цієї функції. Припущення такого роду називаються статистичними
гіпотезами.
Статистична гіпотеза називається параметричною, якщо в ній сформульовані
припущення відносно значень параметрів функції розподілу відомого виду,
непараметричною - якщо в ній сформульовані припущення відносно виду самої
функції розподілу. Статистичні гіпотези поділяються на нульові Н 0 (основні) і
альтернативні Н1 (конкуруючі).
Перевірка статистичних гіпотез здійснюється на основі даних вибірки. Для
цього застосовують певну виборчу статистику К, яка є функцією спостережених
значень, точний або приблизний розподіл якої відомий. Випадкову величину К, за
допомогою якої приймається рішення про прийняття або відхилення нуль - гіпотези,
називаються статистичним критерієм. Статистичним критерієм значущості
називається правило відхилення нульової гіпотези, яке заключається в розбитті
області можливих значень випадкової величини К на дві під області, що не
перетинаються, причому нульова гіпотеза відхиляється, якщо спостережне значення
критерію К належить критичній під області і вважається узгодженою з дослідним,
якщо К не належить критичній під області. При цьому, так як рішення приймається
на основі вибірки скінченого об'єму, дослідник може зробити слідуючи помилки: а)
прийняти невірну гіпотезу (помилка першого роду); в) відхилити вірну гіпотезу
(помилка другого роду).
Ймовірність зробити помилку першого роду Р (Н 1/ Н0) = α – називається рівнем
значущості статистичного критерію. Величину 1 - Р (Н 1/ Н0) = 1 - β називають
потужністю критерію.
Перевірка гіпотези про припущений закон розподілу проводиться за допомогою
непараметричних критеріїв значущості. Основна група непараметричних критеріїв
значущості - критерії згоди, за допомогою яких перевіряються нульові гіпотези від-
носно загального вигляду функцій розподілу. Задача визначення критерію згоди
ставиться у такий спосіб: нехай х1, х2,..., хn – випадкова вибірка, тобто спостережені
значення випадкової величини X, і нехай f*(х) – статистична щільність розподілу;
задамо деяку невід'ємну міру D відхилення емпіричної функції f*(х) від гіпотетичної
теоретичної функції f(х).
D = D{f*(х),f(х)}.
Найбільш поширені критерії згоди: критерій Пірсона χ2, λ – критерій
Колмогорова.
Критерій згоди Пірсона χ2.
Нехай випадкова величина має функцію розподілу ймовірностей F (х), яка
належить деякому класу функції Ω визначеного виду (нормальних, показникових,
біномінальних та інших) і нехай з генеральної сукупності вилучена вибірка об'єму n:
х1, х2,..., хn. Треба перевірити нульову гіпотезу Н0: F(x) Ω при конкуруючій
гіпотезі Н1: F(x) Ω.

39
Схема міркувань при перевірці гіпотези Н0 за допомогою критерію згоди Пір-
сона складається з подальшого: висуваємо гіпотезу Н0: X ~ N(α;σ) випадкова
величина розподілена за нормальним законом, при конкуруючій гіпотезі Н1: X ~
N(α;σ), випадкова величина не розподілена за нормальним законом.
Для перевірки гіпотези:
1) Складають згрупований статистичний ряд.
2) Обчислюють ймовірності попадання випадкової величини X у часткові
інтервали (xj-1; xj) ,для цього треба попередньо пронормувати величину, тобто знайти
значення . Pj = P{xj-1 < X < xj} = P{uj-1 <X <uj}= Ф(uj) –Ф(uj-1).
3) Визначають теоретичні частоти прі часткових інтервалів.
4) Обчислюють вибіркову статистику (критерій)
Якщо нульова гіпотеза вірна, то при n → ∞ закон розподілу даної статистики χ2,
незалежно від виду функції F (х), прямує до закону розділу χ2 з числом ступенів
вільності f = k - r - 1 (k – кількість інтервалів; r – кількість параметрів гіпотетичної
функції F (х)).
5) По таблицям χ2 – розподілу (див. додатки), по заданому рівню значущості  і
кількості степенів вільності f = k - r - 1 (для нормального розподілу r = 2) знаходять
критичне значення χ 2(f) порівнюючи значення вибіркової статистики χ2, що
спостерігається з критичним значенням χα2 (f) і приймають одне з двох рішень:
- якщо χ2 < χα2 (f) , то не існує потреби для відхилення нульової гіпотези;
- якщо χ2 ≥ χα2 (f) , то приймається конкуруюча гіпотеза Н1.

Критерій згоди Колмогорова


Критерій згоди χ2 дозволяє перевірити гіпотези про узгодження даних вибірки з
конкретним теоретичним законом розподілу для будь-якої випадкової величини, як
неперервної, так і дискретної.
Критерій λ Колмогорова застосовується для перевірки гіпотези про закон роз-
поділу тільки неперервних випадкових величин. Його відмінність від критерію χ2
Пірсона полягає в тому, що порівнюються не емпіричні і теоретичні частоти, а емпі-
рична і гіпотетична функція розподілу ймовірностей, а також припускається, що те-
оретичні значення параметрів дійсної функції розподілу відомі.
Перевірку нульової гіпотези за допомогою критерію згоди Колмогорова
проводять по наступній схемі:
1. Знаходимо емпіричну функцію розподілу ;
2. Знаходимо значення теоретичної функції розподілу, що відповідають
спостереженим значенням випадкової величини X;
3. Знаходять для кожного значення xj, модуль різниці між емпіричною і
теоретичною функцією розподілу, тобто |Fn(x) - F(x)|,
обчислюють значення вибіркової статистики Колмогорова λ=max|Fn(x) - F(x)|
4. Порівнюють спостережене значення вибіркової статистики λ з
критичним значенням λα, знайденим за таблицею розподілу Колмогорова при
заданому рівню значущості α .При цьому, якщо λ < λ α, то немає підстав для
відхилу нульової гіпотези, якщо λ ≥ λα приймається конкуруюча гіпотеза Н1.

40
Домашнє завдання

Використовуючи критерій Пірсона при рівні значущості 0,05 перевірити, чи


узгоджується гіпотеза про нормальний розподіл генеральної сукупності Х із заданим
емпіричним розподілом

4 16 35 17 3

41
Лекція 13 Поняття про кореляційну залежність. Лінійна кореляція.
Метод найменших квадратів

Випадкові величини X i Y називають стохастично залежними, якщо зміна


однієї з них призводить до зміни розподілу другої. Зокрема, може змінюватися той
чи інший параметр розподілу. Якщо зі зміною однієї випадкової величини
зміщається центр розподілу другої, тобто її середнє значення, то стохастичний
зв’язок між величинами зветься кореляційним.
(13.1)
Рівняння виду (13.1) визначає кореляційну залежність Y від X, його називають
рівнянням регресії Y по X. Ламана, побудована за емпіричними даними, являється
емпіричною лінією регресії. Теоретичною лінією регресії служить графік функції
f(x).
Аналогічно рівняння регресії X по Y задається рівністю

(13.2)
Якщо обидві функції f(x) i φ(y) лінійні, то кореляцію між X i Y називають
лінійною. В протилежному випадку говорять про нелінійну кореляцію.
В теорії кореляції розглядають такі дві основні задачі:
1) встановити вигляд функції регресії f(x) i φ(y);
2) оцінити "тісноту" кореляційного зв’язку випадкових величин.
Якщо які-небудь теоретичні передумови відсутні, то вибір функцій (13.1) і
(13.2) можна здійснити у такий спосіб: припустимо, наприклад, що f(x) – лінійна
функція, що задовольняє рівнянню
, (13.3)
де параметри k і b треба знайти за вибірковими даними. Як правило, ці
параметри шукають методом найменших квадратів. У найпростішому випадку
залежність (13.3) дає нев’язку (відхил)
, (13.4)
яка у загальному випадку відмінна від нуля.
Величина

(13.5)

характеризує сумарну похибку наближення даної сукупності точок (xi, yi) за


допомогою прямої
, (13.6)
Зі змінною k і b змінюється і величина F, обчислена за формулою (13.5), тобто F
залежить від k і b:
F=F(k, b). (13.7)
Підберемо параметри k і b так, щоб сума квадратів відхилень точок (хі, уі) від
прямої (13.6) була найменшою, тобто, щоб мінімальне значення приймала функція
. (13.8)
У цьому і полягає суть методу найменших квадратів.

42
Для знаходження мінімуму функції (13.8) знайдемо частинні похідні функції F
за змінними k і b, а потім прирівняємо їх до нуля.

Маємо

або

(13.9)
Ця система зветься нормальною системою рівнянь, яку можна розв’язати
відносно k і b.

Домашнє завдання

Скласти рівняння прямої регресії у по х:

хі -13 -12 -11 -10 -9 -8


уі 32 36 21 20 18 15

43
Лекція 14 Поняття про дисперсійний аналіз. Однофакторний дисперсійний
аналіз

Задача дисперсійного аналізу


В будь-якому експерименті середні значення досліджуваних величин
змінюються у зв’язку зі зміною основних факторів (кількісних та якісних),
що визначають умови досліду, а також і випадкових факторів. Дослідження
впливу тих чи інших факторів на мінливість середніх є задачею дисперсійного
аналізу.
Дисперсійний аналіз використовує властивість адитивності дисперсії
випадкової величини, що обумовлено дією незалежних факторів. В залежності від
числа джерел дисперсії розрізняють однофакторний та багатофакторний
дисперсійний аналіз.
Дисперсійний аналіз особливо ефективний при вивченні кількох факторів. При
класичному методі вивчення змінюють тільки один фактор, а решту залишають
постійними. При цьому для кожного фактору проводиться своя серія спостережень,
що не використовується при вивченні інших факторів. Крім того, при такому
методі досліджень не вдається визначити взаємодію факторів при одночасній їх
зміні. При дисперсійному аналізі кожне спостереження служить для одночасної
оцінки всіх факторів та їх взаємодії.
Дисперсійний аналіз полягає у виділенні і оцінці окремих факторів, що
викликають зміну досліджуваної випадкової величини. При цьому проводиться
розклад сумарної вибіркової дисперсії на складові, обумовлені незалежними
факторами. Кожна з цих складових є оцінкою дисперсії генеральної сукупності.
Щоб вирішити, чи дієвий вплив даного фактору, необхідно оцінити значимість
відповідної вибіркової дисперсії у порівнянні з дисперсією відтворення,
обумовленою випадковими факторами. Перевірку значимості оцінок дисперсії
проводять по критерію Фішера. Коли розрахункове значення критерію Фішера
виявиться меншим табличного, то вплив досліджуваного фактору немає підстав
вважати значимим. Коли ж розрахункове значення критерію Фішера виявиться
більшим табличного, то цей фактор впливає на зміни середніх. В подальшому ми
вважаємо, що виконуються наступні припущення:
1) випадкові помилки спостережень мають нормальний розподіл;
2) фактори впливають тільки на зміну середніх значень, а дисперсія
спостережень залишається постійною.
Фактори, що розглядаються в дисперсійному аналізі, бувають двох
родів: 1) з випадковими рівнями та 2) з фіксованими. В першому випадку
мається на увазі, що вибір рівнів проходить з безмежної сукупності можливих
рівнів та супроводжується рандомізацією. Якщо рівні вибираються випадковим
чином, математична модель експерименту називається модель з випадковими
рівнями факторів (випадкова модель). Коли всі рівні фіксовані – модель з
фіксованими рівнями факторів. Коли частина факторів розглядається на фіксованих
рівнях, рівні решти вибираються випадковим чином – модель змішаного типу.
Дисперсійний аналіз застосовується в різних формах в залежності від
структури об’єкту, що досліджується; вибір відповідної форми є однією з головних
трудностей в практичному застосуванні аналізу.

44
Однофакторний дисперсійний аналіз
Розглядається дія одиничного фактору А (кількісного чи якісного), котрий приймає
k різних значень (рівнів фактора). Найбільш прості розрахунки виходять при рівній
кількості дослідів на кожному рівні фактора А (табл. 1).
Таблиця 1
Вихідні дані для однофакторного дисперсійного аналізу
з рівним числом паралельних дослідів
Рівні фактора А
Номер
випробування, і
А1 А2 … Аk

1 y11 y21 … yk1


2 y12 y22 … yk2
… … … … …
n y1n y2n … ykn
Разом A 1=∑ y1j A 2=∑ y2j …
A k =∑ yk j

Дисперсійний аналіз можна провести за наступним алгоритмом:


підраховують
1. Суми по стовпцях
A i =∑ yi j (14.1)
2. Суму квадратів всіх дослідів
SS1= ∑∑ yi j2 (14.2)

3. Суму квадратів сум по стовпцях, поділену на число дослідів в


стовпцю
SS2=1/n∑ A i2 (14.3)
4. Квадрат загальної суми, поділений на число всіх дослідів (коректуючий член)
SS3=1/ N(∑ A i )2 (14.4)
5. Сума квадратів для стовпчика
SSA=SS2-SS3 (14.5)
6. Загальну суму квадратів, рівну різниці між сумою квадратів всіх
дослідів та коректуючим членом
SSзаг.=SS1-SS3 (14.6)
7. Залишкову суму квадратів для оцінки помилки експерименту
SSзал=SS1-SS2 (14.7)
8. Дисперсію sA 2

sA2= SSA/(k-1) (14.8)


9. Дисперсію sпом 2

sпом2=SSзал/(k(n-1)) (14.9)
Результати розрахунків, за звичай, представляють у вигляді таблиці
дисперсійного аналізу (табл. 2).

Таблиця 2
Однофакторний дисперсійний аналіз
45
(з рівним числом паралельних дослідів)
Джерело Число ступ. Сума Середній Мат. сподіван-
дисперсії вільності квадратів квадрат ня середнього
квадрату

SSA
А k-1 sA2 nσA2 +σпом 2
SSзал
Залишок k(n-1) sпом2 σпом 2
SSзаг SSзаг/(kn −1)
Загальна сума kn-1

Коли співвідношення sA2/sпом2 ≤ F1-p, то вплив фактора А слід вважати незначним.


При цьому загальна дисперсія s2 пов’язана тільки з фактором випадковості і може
служити оцінкою для дисперсії відтворення. Така оцінка краща від sпом2, бо має
більше число степенів вільності.
Коли справедлива нерівність
sA2/ sпом2 > F1-p(f1,f2) (14.10)
f1 = k-1
f2 = k(n-1) = N - k
різниця між дисперсіями sA та sпом2 значна і, відповідно, значний вплив
2

фактора А.

Домашнє завдання
Проведено по п’ять випробувань на кожному з чотирьох рівній фактора F.
Методом дисперсійного аналізу при рівні значущості 0,05 перевірити нульову
гіпотезу про рівність групових середніх . Вважається, що вибірки вибрані з
нормальних сукупностей з однаковими дисперсіями. Результати випробувань
наведені в таблиці.
Номер Рівні фактора
випробування,
і F1 F2 F3 F4

1 36 56 52 39
2 47 61 57 57
3 50 64 59 63
4 58 66 58 61
5 67 66 79 65
51,6 62,6 61,0 57,0

46
Список літератури

1. Шкіль М.І. та ін. Алгебра і початки аналізу: Підручник для 10-11 класів серед.
закладів освіти/ М.І. Шкіль, З.І. Слєпкань, О.С. Дубинчук,– К.: Зодіак ̶ ЕКО,
1998. –608с.
2. Математика для техникумов. Алгебра и начала анализа: Учебник
Ч.2/Каченовский М.И. и др.; Под ред. Г.Н.Яковлева.– М.:Наука.Гл.ред.физ.-мат.лит.,
1988. – 272с.
3. Вища математика: спеціальні розділи: Підручник: У двох книгах.Книга 2/
Г.Л.Кулініч, Є.Ю. Таран та ін.; За ред. Г.І. Кулініча.– К.: Либідь, 1996, – 336 с.
4. Гмурман В.Є. Руководство к решению задач по теории вероятностей и
математической статистике. Учеб.пособие для втузов.– М.: „Высш. школа”,
1975, –333с.

47

You might also like